JP2010128102A - Projection display device and positional relationship detection method - Google Patents

Projection display device and positional relationship detection method Download PDF

Info

Publication number
JP2010128102A
JP2010128102A JP2008301481A JP2008301481A JP2010128102A JP 2010128102 A JP2010128102 A JP 2010128102A JP 2008301481 A JP2008301481 A JP 2008301481A JP 2008301481 A JP2008301481 A JP 2008301481A JP 2010128102 A JP2010128102 A JP 2010128102A
Authority
JP
Japan
Prior art keywords
image
projection
unit
display device
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008301481A
Other languages
Japanese (ja)
Other versions
JP5493340B2 (en
Inventor
Shiki Furui
志紀 古井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008301481A priority Critical patent/JP5493340B2/en
Publication of JP2010128102A publication Critical patent/JP2010128102A/en
Application granted granted Critical
Publication of JP5493340B2 publication Critical patent/JP5493340B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique to detect arrangement relationship between a projection display device which projects an image to a projection surface and the projection surface. <P>SOLUTION: A projector 100 includes an image compositing part 121 forming a first superposed image obtained by superposing an image projected by a projection optical system 150 on a first calibration image having predetermined shape, and a second superposed image obtained by superposing the image on a second calibration image different from the first calibration image in image property and having predetermined shape wherein at least a part of the shape is overlapped thereon. The projector 100 further includes a measurement image detection part 122 detecting a measurement image expressed by a difference of a pixel value of each pixel between a first picked-up image obtained by projecting the first superposed image to a screen SC and picking up the image by an imaging part 180 and a second picked-up image obtained by projecting the second superposed image to the screen SC and picking up the image by the imaging part 180. A measuring point is extracted from the measurement image, and the arrangement relationship between the projector 100 and the screen SC is detected based on the measuring point. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、投写面に向けて画像を投写する投写型表示装置における、投写型表示装置と投写面との配置関係の検出方法に関する。   The present invention relates to a method for detecting an arrangement relationship between a projection display device and a projection surface in a projection display device that projects an image onto a projection surface.

従来から、画像形成に液晶パネル等の光変調装置を用いたプロジェクタをはじめとする投写型表示装置において、投写された画像(以下「投写画像」と呼ぶ)の台形歪み補正やフォーカス調整など(以下、「投写用調整」という)を行う技術が知られている。こうした投写用調整を行う際には、スクリーンなどの投写面に投写した校正用画像を、投写型表示装置に備えられたCCDカメラなどの撮像部によって撮像して、その撮像画像に基づいて投写型表示装置と投写面との配置関係を測定している(例えば、下記特許文献参照)。   Conventionally, in a projection display apparatus such as a projector using a light modulation device such as a liquid crystal panel for image formation, keystone distortion correction and focus adjustment of a projected image (hereinafter referred to as “projected image”) (hereinafter referred to as “projection image”) Technology for performing “adjustment for projection”) is known. When performing such adjustments for projection, a calibration image projected on a projection surface such as a screen is captured by an imaging unit such as a CCD camera provided in the projection display device, and the projection type is based on the captured image. The positional relationship between the display device and the projection surface is measured (for example, refer to the following patent document).

特開2006−60447号公報JP 2006-60447 A

そこで、台形歪み補正やフォーカス調整などを行わせる際には、撮像部により撮像された画像からの校正用画像の抽出を容易にするため、外部から画像信号が入力している場合であっても、画像信号に基づく画像の投写を中断し、校正用画像のみを表示させていた。   Therefore, when performing trapezoidal distortion correction, focus adjustment, etc., in order to facilitate the extraction of the calibration image from the image captured by the imaging unit, even when an image signal is input from the outside The projection of the image based on the image signal was interrupted, and only the calibration image was displayed.

しかし、こうした投写用調整を行う際に、校正用画像の表示に切り替えると、通常は画面の明るさの急変を伴うから、撮像部による撮像が安定に行われるまで、長時間を要してしまうといった課題を生起する。   However, when performing such adjustment for projection, switching to the display of the calibration image usually involves a sudden change in the brightness of the screen, so it takes a long time until the imaging unit stably performs imaging. This causes a problem.

本発明は、上述した従来の課題を解決するためになされたものであり、測定用画像を投写面に投写する際に、画像信号に基づく画像を中断せずに行う技術を提供することを目的とする。   The present invention has been made to solve the above-described conventional problems, and an object thereof is to provide a technique for performing an image based on an image signal without interruption when a measurement image is projected onto a projection surface. And

本発明は、上述の課題の少なくとも一部を解決するために、以下の形態または適用例を取ることが可能である。   In order to solve at least a part of the problems described above, the present invention can take the following forms or application examples.

[適用例1]
投写型表示装置であって、
投写面に向けて画像を投写させる投写部と、
前記画像が投写される前記投写面を撮像する撮像部と、
前記投写部によって投写される画像と所定形状の第1校正画像とを合成し、第1合成画像として前記投写部に出力する第1合成画像出力部と、
前記第1校正画像とは画像の性質が異なり、少なくとも形状の一部が重なる所定形状の第2校正画像を、前記画像と合成し、第2合成画像として前記投写部に出力する第2合成画像出力部と、
前記第1合成画像を前記投写部によって前記投写面に投写させ前記撮像部で撮像した第1撮像画像と、前記第2合成画像を前記投写部によって前記投写面に投写させ前記撮像部で撮像した第2撮像画像とから測定点を抽出し、前記測定点に基づいて前記投写部と前記投写面との配置関係を検出する配置関係検出部と
を備えた投写型表示装置。
[Application Example 1]
A projection display device,
A projection unit that projects an image onto the projection surface;
An imaging unit that images the projection surface on which the image is projected;
A first synthesized image output unit that synthesizes an image projected by the projection unit and a first calibration image having a predetermined shape and outputs the synthesized image to the projection unit as a first synthesized image;
A second composite image that is different from the first calibration image and has a predetermined shape that overlaps at least a part of the shape with the image, and outputs the composite image to the projection unit as a second composite image. An output section;
The first synthesized image is projected on the projection plane by the projection unit and captured by the imaging unit, and the second synthesized image is projected on the projection plane by the projection unit and captured by the imaging unit. A projection display device comprising: an arrangement relationship detection unit that extracts a measurement point from the second captured image and detects an arrangement relationship between the projection unit and the projection plane based on the measurement point.

この投写型表示装置によれば、投写させる画像に所定形状の校正画像を合成した合成画像を投写面に投写し撮像部によって撮像するので、画像投写時とその後の合成画像の投写時では投写面の明るさに大きな変化が無く、撮像部による投写面の撮像が安定に短時間で行われる。なお、所定形状とは、撮像された第1,第2撮像画像から測定点が抽出できる形状であればよく、三角や四角などの多角形、直線、十字形状、円環形状あるいはこれらの組み合わせなど、種々の形状を採用することができる。所定形状としては、単一の形状に限られず、例えば丸や四角などの種々の形状のものを複数配列してもよい。配列は、行列状としても良いし、直線状や円環状、あるいは所定の曲線に沿った配列、更にはランダムな配列としてもよい。また、複数の形状は、互いに離間して配置しても良いし、少なくともその一部について、一部を重ね合わせた形状としても良い。もとより、複雑な形状のものを一つあるいは少数採用することは差し支えない。   According to this projection display apparatus, a composite image obtained by combining a calibration image having a predetermined shape with the image to be projected is projected onto the projection surface and captured by the imaging unit. There is no significant change in the brightness of the image, and the imaging of the projection plane by the imaging unit is stably performed in a short time. The predetermined shape may be any shape that allows extraction of measurement points from the first and second captured images, such as a polygon such as a triangle or a square, a straight line, a cross shape, an annular shape, or a combination thereof. Various shapes can be employed. The predetermined shape is not limited to a single shape, and for example, a plurality of various shapes such as circles and squares may be arranged. The arrangement may be a matrix, a linear shape, an annular shape, an arrangement along a predetermined curve, or a random arrangement. Further, the plurality of shapes may be arranged apart from each other, or at least a part thereof may be a shape obtained by overlapping a part. Of course, one or a small number of complicated shapes may be used.

測定点としては、こうした形状が備える性質を利用して、例えば端点、隅部、交点、中点、重心、按分点など、種々の点を用いることができる。所定形状が、複数の形状の配列からなる場合は、測定点は、各形状から抽出しても良いが、配列された複数の形状の関係、例えば形状間の中間点、形状間に仮想的に引いた線分の交点などから抽出してもよい。   Various points such as end points, corners, intersections, midpoints, center of gravity, and proration points can be used as measurement points by utilizing the properties of such shapes. When the predetermined shape is composed of an array of a plurality of shapes, the measurement points may be extracted from each shape, but the relationship between the plurality of shapes arranged, for example, an intermediate point between the shapes, virtually between the shapes You may extract from the intersection etc. of the drawn line segment.

[適用例2]
適用例1記載の投写型表示装置はさらに、前記第1撮像画像と第2撮像画像との各画素の画素値の差分によって表される測定用画像を検出する測定用画像検出部を備え、
前記配置関係検出部は、前記測定用画像に基づいて前記測定点を抽出する
投写型表示装置。
[Application Example 2]
The projection display device according to Application Example 1 further includes a measurement image detection unit that detects a measurement image represented by a difference between pixel values of each pixel of the first captured image and the second captured image.
The arrangement relationship detecting unit extracts the measurement point based on the measurement image.

この投写型表示装置によれば、第1撮像画像と第2撮像画像との各画素の画素値の差分に基づいて測定用画像は検出されているので、スクリーンSC上に塵埃等が付着しており、撮像画像中にその塵埃が写っていても、測定用画像の検出時にはその塵埃に相当する画像は相殺される。従って、精度の高い測定用画像の検出が可能となる。   According to this projection display apparatus, since the measurement image is detected based on the difference between the pixel values of the respective pixels of the first captured image and the second captured image, dust or the like adheres to the screen SC. Even if the dust appears in the captured image, the image corresponding to the dust is canceled when the measurement image is detected. Accordingly, it is possible to detect a measurement image with high accuracy.

[適用例3]
適用例2記載の投写型表示装置であって、
前記第1,第2校正画像における少なくとも形状の一部が重なる所定形状とは、
その重なる部分が平面を定義可能な3点を抽出可能に含んでいる形状である
投写型表示装置。
[Application Example 3]
A projection display device according to Application Example 2,
The predetermined shape in which at least a part of the shape in the first and second calibration images overlap is as follows:
A projection display device in which the overlapping portion includes a shape that can extract three points that can define a plane.

この投写型表示装置によれば、第1校正画像と第2校正画像との重なる部分が平面を定義可能な3点を抽出可能に含んでいるので、第1校正画像の形状を含む第1撮像画像と第2校正画像の形状を含む第2撮像画像との各画素の画素値の差分によって表される測定用画像は、第1撮像画像と第2撮像画像の重なる部分の形状を含んでおり、かつ平面を定義可能な3点を含んでいるので、測定用画像から平面の定義が可能となる。   According to the projection display apparatus, the overlapping portion of the first calibration image and the second calibration image includes three points that can define a plane so that the first imaging including the shape of the first calibration image can be performed. The measurement image represented by the difference in pixel value of each pixel between the image and the second captured image including the shape of the second calibration image includes the shape of the overlapping portion of the first captured image and the second captured image. And three points that can define the plane, the plane can be defined from the measurement image.

[適用例4]
適用例3記載の投写型表示装置であって、
前記配置関係検出部は、前記配置関係の1つとして前記投写部から投写する投写光の光軸と前記投写面との傾きである投写角を算出する投写型表示装置。
[Application Example 4]
A projection display device according to Application Example 3,
The arrangement relationship detection unit is a projection display device that calculates a projection angle that is an inclination between an optical axis of projection light projected from the projection unit and the projection plane as one of the arrangement relationships.

この投写型表示装置によれば、配置関係検出部は測定用画像に基づいて投写角を算出するので、ユーザーが投写角を測量し、その値を投写型表示装置に入力するという行為は必要ない。   According to this projection display device, the arrangement relationship detecting unit calculates the projection angle based on the measurement image, and therefore, the user does not need to measure the projection angle and input the value to the projection display device. .

[適用例5]
適用例4記載の投写型表示装置はさらに、
前記配置関係検出部で算出した前記投写角を用いて前記投写面に投写される投写画像の台形歪みを補正する台形歪み補正部を備える投写型表示装置。
[Application Example 5]
The projection display device described in Application Example 4 further includes
A projection display device comprising a trapezoidal distortion correction unit that corrects a trapezoidal distortion of a projected image projected on the projection plane using the projection angle calculated by the arrangement relationship detection unit.

この投写型表示装置によれば、この投写型表示装置は台形歪み補正部を備えるのでユーザーが手動で投写型表示装置本体や投写面を動かすことによって投写画像の台形歪みの補正をする必要がない。   According to the projection display device, since the projection display device includes the trapezoidal distortion correction unit, it is not necessary for the user to manually correct the trapezoidal distortion of the projection image by moving the projection display main body or the projection surface. .

[適用例6]
適用例3記載の投写型表示装置であって、
前記配置関係検出部は、前記配置関係の1つとして前記投写型表示装置と前記投写面までの投写距離を算出する投写型表示装置。
[Application Example 6]
A projection display device according to Application Example 3,
The arrangement relation detection unit is a projection display apparatus that calculates a projection distance between the projection display apparatus and the projection plane as one of the arrangement relations.

この投写型表示装置によれば、配置関係検出部は測定用画像に基づいて投写距離を算出するので、ユーザーが投写距離を測量し、その値を投写型表示装置に入力するという行為は必要ない。   According to this projection display device, the arrangement relationship detection unit calculates the projection distance based on the measurement image, so that the user does not need to measure the projection distance and input the value to the projection display device. .

[適用例7]
適用例6記載の投写型表示装置はさらに、
前記配置関係検出部で算出した前記投写距離を用いて前記投写面に投写される投写画像のフォーカス調整を行うフォーカス調整部を備える投写型表示装置。
[Application Example 7]
The projection display device described in Application Example 6 further includes
A projection display device comprising a focus adjustment unit that performs focus adjustment of a projection image projected on the projection plane using the projection distance calculated by the arrangement relationship detection unit.

この投写型表示装置によれば、この投写型表示装置はフォーカス調整部を備えるのでユーザーが手動で投写画像のフォーカス調整をする必要がない。   According to this projection display apparatus, since this projection display apparatus includes the focus adjustment unit, it is not necessary for the user to manually adjust the focus of the projected image.

[適用例8]
適用例1ないし適用例7のいずれか記載の投写型表示装置であって、
前記第1,第2校正画像における前記画像の性質とは明度、色相、彩度の少なくともいずれかひとつである投写型表示装置。
[Application Example 8]
A projection display device according to any one of Application Example 1 to Application Example 7,
The projection display apparatus, wherein the property of the image in the first and second calibration images is at least one of brightness, hue, and saturation.

これらの投写型表示装置によれば、第1校正画像と第2校正画像とは明度、色相、彩度の少なくともいずれかひとつが異なっていればよいので、第1校正画像と第2校正画像との組み合わせとして、多数の組み合わせが可能である。   According to these projection display devices, the first calibration image and the second calibration image only need to differ in at least one of brightness, hue, and saturation. Many combinations are possible.

[適用例9]
適用例1ないし適用例7のいずれか記載の投写型表示装置であって、
前記第1,第2校正画像における前記画像の性質とは明度であり、
前記第1校正画像は白色、前記第2校正画像は黒色である
投写型表示装置。
[Application Example 9]
A projection display device according to any one of Application Example 1 to Application Example 7,
The property of the image in the first and second calibration images is brightness,
The projection display apparatus, wherein the first calibration image is white and the second calibration image is black.

これらの投写型表示装置によれば、第1校正画像は白色で第2校正画像は黒色であり、この2つの画像の明度の差が顕著であるので、この2つの校正画像に基づいてできる測定用画像はコントラストの高い画像となり、測定用画像から測定点を抽出する際の誤差を減少させることができる。また第1校正画像が黒色で、第2校正画像が白色でも良い。   According to these projection display devices, the first calibration image is white and the second calibration image is black, and the difference in brightness between the two images is significant. Therefore, the measurement that can be performed based on the two calibration images. The image for use becomes a high-contrast image, and errors in extracting measurement points from the image for measurement can be reduced. Further, the first calibration image may be black and the second calibration image may be white.

[適用例10]
投写型表示装置と投写面との配置関係を検出する配置関係検出方法であって、
前記投写面に投写させた画像に所定形状の第1校正画像を合成し、第1合成画像として前記投写部に出力する工程と、
前記第1校正画像とは画像の性質が異なり、少なくとも形状の一部が重なる所定形状の第2校正画像を、前記画像と合成し、第2合成画像として前記投写部に出力する工程と、
前記第1合成画像を前記投写部によって前記投写面に投写させ撮像部で撮像した第1撮像画像と、前記第2合成画像を前記投写部によって前記投写面に投写させ前記撮像部で撮像した第2撮像画像との各画素の画素値の差分によって表される測定用画像を検出する工程と、
検出した前記測定用画像から測定点を抽出し、前記測定点に基づいて前記投写型表示装置と前記投写面との配置関係を検出する工程と
を備える配置関係検出方法。
[Application Example 10]
An arrangement relation detection method for detecting an arrangement relation between a projection display device and a projection plane,
Combining a first calibration image having a predetermined shape with the image projected on the projection surface and outputting the first calibration image to the projection unit as a first composite image;
A step of synthesizing a second calibration image having a predetermined shape, which is different from the first calibration image and having at least a part of the shape, with the image and outputting the second calibration image to the projection unit as a second synthesized image;
A first captured image obtained by projecting the first composite image on the projection plane by the projection unit and captured by the imaging unit, and a second captured image projected by the projection unit on the projection plane by the projection unit. Detecting a measurement image represented by a difference in pixel value of each pixel from two captured images;
Extracting the measurement points from the detected image for measurement, and detecting the arrangement relationship between the projection display device and the projection plane based on the measurement points.

この配置関係検出方法によれば、投写面には2つの合成画像を投写するのみで投写部と投写面との配置関係を検出できるので、投写部と投写面との配置関係を検出するために、様々な測定用の画像を投写面に投写する必要がない。   According to this arrangement relation detection method, since the arrangement relation between the projection unit and the projection plane can be detected simply by projecting two composite images on the projection plane, the arrangement relation between the projection unit and the projection plane can be detected. Therefore, it is not necessary to project various measurement images on the projection surface.

なお、本発明は、種々の態様で実現することが可能である。例えば、投写面検出方法および装置、投写画像補正方法及び装置、それらの方法または装置の機能を実現するための集積回路、コンピュータプログラム、そのコンピュータプログラムを記録した記録媒体等の形態で実現することができる。   Note that the present invention can be realized in various modes. For example, the present invention can be realized in the form of a projection surface detection method and apparatus, a projection image correction method and apparatus, an integrated circuit for realizing the functions of the method or apparatus, a computer program, a recording medium on which the computer program is recorded, and the like. it can.

次に、本発明の実施の形態を実施例に基づいて説明する。
A.第1実施例:
(A1)プロジェクタの全体構成
(A2)台形歪みの補正の概要
(A3)測定用画像検出処理
(A4)三次元測量処理
(A5)台形歪み補正処理
B.第2実施例:
C.変形例:
Next, embodiments of the present invention will be described based on examples.
A. First embodiment:
(A1) Overall configuration of projector (A2) Outline of correction of trapezoidal distortion (A3) Image detection process for measurement (A4) Three-dimensional surveying process (A5) Trapezoidal distortion correction process Second embodiment:
C. Variation:

A.第1実施例:
(A1)プロジェクタの全体構成:
図1は、本発明の第1実施例におけるプロジェクタ100の全体構成を示すブロック図である。プロジェクタ100は、画像を表す画像信号を外部から入力し、これをスクリーンSCなどの投写面上に画像(以下「投写画像」と呼ぶ)として表示させる。本実施例では、スクリーンSCはほぼ直立しており、スクリーン面は矩形形状とされている。
A. First embodiment:
(A1) Overall configuration of the projector:
FIG. 1 is a block diagram showing an overall configuration of a projector 100 according to the first embodiment of the present invention. Projector 100 receives an image signal representing an image from the outside, and displays it as an image (hereinafter referred to as “projected image”) on a projection surface such as a screen SC. In this embodiment, the screen SC is almost upright, and the screen surface is rectangular.

プロジェクタ100は大きく分けると、光学的な画像の形成を行う光学系と映像信号を電気的に処理する画像処理系とからなる。光学系は、照明光学系140、液晶パネル130、投写光学系150から構成されている。照明光学系140は、放電灯(図示せず)を備え、放電灯の光を投写に用いる光として射出する。液晶パネル130は、後述する画像処理系からの信号を受けて、パネル面に画像を形成する。液晶パネル130は、カラーの投影を行うため、RGBの三原色に対応した3枚の液晶パネルからなる。そのため、照明光学系140からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投写光学系150に射出される。   The projector 100 is roughly divided into an optical system for forming an optical image and an image processing system for electrically processing a video signal. The optical system includes an illumination optical system 140, a liquid crystal panel 130, and a projection optical system 150. The illumination optical system 140 includes a discharge lamp (not shown), and emits light from the discharge lamp as light used for projection. The liquid crystal panel 130 receives a signal from an image processing system, which will be described later, and forms an image on the panel surface. The liquid crystal panel 130 includes three liquid crystal panels corresponding to the three primary colors of RGB in order to perform color projection. Therefore, the light from the illumination optical system 140 is separated into three color lights of RGB, and each color light is incident on each corresponding liquid crystal panel. The color light modulated by passing through each liquid crystal panel is combined by a combining optical system such as a cross dichroic prism and emitted to the projection optical system 150.

投写光学系150には、投写する画像の拡大・縮小および焦点の調整を行うズームレンズ152、ズームの度合いを調整するズーム調整用モータ156、フォーカスの調整を行うフォーカス調整用モータ157が備えられている。投写光学系150は、液晶パネル130で変調された光を入射し、ズームレンズ152を用いて、スクリーンSC上に投写画像を結像する。ズームレンズ152は、ズーム調整用モータ156とフォーカス調整用モータ157とによって、レンズの位置などが調整され、スクリーンSC上の投写画像の拡大・縮小を行うズーム調整や、スクリーンSC上に投写画像を適正に結像させるフォーカス調整を行っている。   The projection optical system 150 includes a zoom lens 152 that performs enlargement / reduction of a projected image and a focus adjustment, a zoom adjustment motor 156 that adjusts the degree of zoom, and a focus adjustment motor 157 that adjusts the focus. Yes. The projection optical system 150 receives light modulated by the liquid crystal panel 130 and forms a projection image on the screen SC using the zoom lens 152. The zoom lens 152 is adjusted by a zoom adjustment motor 156 and a focus adjustment motor 157 to adjust the position of the lens, zoom adjustment for enlarging / reducing the projected image on the screen SC, and projecting the projected image on the screen SC. Focus adjustment is performed to properly form an image.

他方、画像処理系は、実質的な処理全般を司るCPU120と映像用プロセッサ134とを中心に構成され、A/D変換部110、液晶パネル駆動部132、ズームレンズ駆動部155、RAM160、校正画像記憶部171を含むROM170、撮像部180、撮像画像メモリ182、リモコン制御部190、リモコン191等を備える。これらの画像処理系を構成する各要素は、バス102を介して互いに接続されている。   On the other hand, the image processing system is composed mainly of the CPU 120 and the video processor 134 that are responsible for substantial overall processing. The A / D conversion unit 110, the liquid crystal panel driving unit 132, the zoom lens driving unit 155, the RAM 160, the calibration image. A ROM 170 including a storage unit 171, an imaging unit 180, a captured image memory 182, a remote controller control unit 190, a remote controller 191, and the like are provided. These elements constituting the image processing system are connected to each other via a bus 102.

A/D変換部110は、パソコンやDVDプレーヤー等の画像出力機器からケーブル200を介して入力された入力信号をA/D変換するデバイスであり、変換後のデジタル画像信号を、映像用プロセッサ134に出力する。映像用プロセッサ134は、入力したデジタル画像信号に対して、輝度、コントラスト、色の濃さ、色合い、投写画像の形状等の画像の表示状態を調整する処理を行った上で、液晶パネル駆動部132に対して、処理後の映像信号を出力する。この映像信号に基づいて、液晶パネル駆動部132は、液晶パネル130を駆動する。結果的に、A/D変換器110を介して入力した映像信号に対応した映像が、液晶パネル130に形成され、この画像が投写光学系150を介して、スクリーンSC上に形成されることになる。   The A / D converter 110 is a device that performs A / D conversion on an input signal input from an image output device such as a personal computer or a DVD player via the cable 200, and converts the converted digital image signal into a video processor 134. Output to. The video processor 134 performs processing for adjusting the display state of the image, such as brightness, contrast, color density, hue, and projected image shape, on the input digital image signal, and then a liquid crystal panel driving unit. The processed video signal is output to 132. Based on this video signal, the liquid crystal panel drive unit 132 drives the liquid crystal panel 130. As a result, an image corresponding to the image signal input via the A / D converter 110 is formed on the liquid crystal panel 130, and this image is formed on the screen SC via the projection optical system 150. Become.

映像用プロセッサ134が行う画像処理としては、上記の明度、コントラスト、色合いなどの補正の他、台形歪み補正が含まれる。図1では、台形歪み補正を行う回路を、特に台形歪み補正部136として示した。この台形歪み補正部136では、CPU120内の後述する投写角算出部126で算出した投写角の値に基づいて投写画像の台形歪み補正をデジタル画像信号に対して行っている。また、映像用プロセッサ134は、この台形歪み補正における特定の校正用画像の表示の処理も、司っている。こうした映像用プロセッサ134は、台形歪み補正用のDSP(デジタルシグナルプロセッサ)として販売されている汎用のプロセッサを用いることができるが、専用のASICとして構成することも差し支えない。   Image processing performed by the video processor 134 includes trapezoidal distortion correction in addition to the above-described correction of brightness, contrast, hue, and the like. In FIG. 1, a circuit that performs trapezoidal distortion correction is shown as a trapezoidal distortion correction unit 136 in particular. The trapezoidal distortion correction unit 136 performs a trapezoidal distortion correction of the projected image on the digital image signal based on a projection angle value calculated by a projection angle calculation unit 126 described later in the CPU 120. The video processor 134 is also responsible for displaying a specific calibration image in the trapezoidal distortion correction. The video processor 134 may be a general-purpose processor sold as a DSP (digital signal processor) for correcting trapezoidal distortion, but may be configured as a dedicated ASIC.

映像用プロセッサ134と共に、プロジェクタ100における画像処理を行うCPU120は、画像合成部121と、測定用画像検出部122と、ズーム比算出部123と、焦点距離算出部124と、三次元測量部125と、投写角算出部126とを備える。これらの各部は、CPU120がROM170に予め記憶した特定のプログラムを実行することにより実現される。各処理部は、後で詳述するプロジェクタ100とスクリーンSCとの相対距離(以下、投写距離と言う)や、プロジェクタから投写した投写光の光軸に対するスクリーンSCの傾きである投写角(以下、投影投写角と言う)を算出するために必要な処理を行っている。   A CPU 120 that performs image processing in the projector 100 together with the video processor 134 includes an image composition unit 121, a measurement image detection unit 122, a zoom ratio calculation unit 123, a focal length calculation unit 124, and a three-dimensional survey unit 125. And a projection angle calculation unit 126. Each of these units is realized by the CPU 120 executing a specific program stored in the ROM 170 in advance. Each processing unit has a relative distance (hereinafter referred to as a projection distance) between the projector 100 and the screen SC, which will be described in detail later, and a projection angle (hereinafter referred to as an inclination of the screen SC with respect to the optical axis of the projection light projected from the projector). Processing necessary to calculate (projection projection angle) is performed.

CPU120は、その各部の働きにより投影投射角および投写距離を算出すると、投影投射角に対応した信号を映像用プロセッサ134に、投写距離に対応した信号をズームレンズ駆動部155に、それぞれ出力する。映像用プロセッサ134は、投影投写角に対応した信号をCPU120から受け取ると、これを用いて台形歪み補正を行う。プロジェクタ100の光学系の光軸とスクリーンSCとのなす角度である投影投写角が分かれば、映像がどのように歪むかは演算できるので、映像用プロセッサ134は、投影投写角に対応したパラメータの設定がなされると、投写画像の歪みを補正するように、A/D変換器110から入力した画像を補償し、補償後の映像信号を、液晶パネル駆動部132に出力するのである。   When the CPU 120 calculates the projection projection angle and the projection distance by the function of each unit, the CPU 120 outputs a signal corresponding to the projection projection angle to the video processor 134 and a signal corresponding to the projection distance to the zoom lens driving unit 155. When receiving a signal corresponding to the projection projection angle from the CPU 120, the video processor 134 performs trapezoidal distortion correction using the received signal. If the projection projection angle, which is the angle formed by the optical axis of the optical system of the projector 100 and the screen SC, is known, it can be calculated how the image is distorted, so the image processor 134 has a parameter corresponding to the projection projection angle. When the setting is made, the image input from the A / D converter 110 is compensated so as to correct the distortion of the projected image, and the compensated video signal is output to the liquid crystal panel driving unit 132.

他方、ズームレンズ駆動部155はCPU120から投写距離に相当する信号を受け取ると、その信号に基づいて、フォーカス調整用モータ157を駆動し、フォーカス調整を行う。なお、フォーカス調整を行うためには、ズームレンズのズーム比を知る必要があるが、本実施例では、ズーム比は、ズーム調整用モータ156によるズームレンズ152の駆動量から算出した。もとより、後述する撮像部180による撮像画像から算出することも可能である。   On the other hand, when the zoom lens driving unit 155 receives a signal corresponding to the projection distance from the CPU 120, the zoom lens driving unit 155 drives the focus adjustment motor 157 based on the signal to perform focus adjustment. In order to perform focus adjustment, it is necessary to know the zoom ratio of the zoom lens. In this embodiment, the zoom ratio is calculated from the drive amount of the zoom lens 152 by the zoom adjustment motor 156. Of course, it is also possible to calculate from an image captured by the imaging unit 180 described later.

上記のCPU120の動作に必要となるワークエリアは、RAM160上に確保される。なお、映像用プロセッサ134は、自身が行う画像の表示状態の調整処理など、各処理の実行の際に必要となるワークエリアを、内蔵RAMとして備えている。また、ROM170は、上述した各処理部を実現するプログラムの他、後述する測定用画像の検出に用いる2枚の校正画像を記憶しており、校正画像記憶部に対応している。   A work area necessary for the operation of the CPU 120 is secured on the RAM 160. The video processor 134 includes a work area necessary for executing each process, such as an image display state adjustment process performed by itself, as a built-in RAM. The ROM 170 stores two calibration images used for detection of a measurement image, which will be described later, in addition to the programs for realizing the above-described processing units, and corresponds to the calibration image storage unit.

リモコン制御部190は、リモコン191を通じたユーザーのからの指示を受信し、バス102を介してCPU120に伝える。なお、本実施例ではプロジェクタ100はユーザーからの指示をリモコン制御部190及びリモコン191を通じて受信しているが、ユーザーからの指示をプロジェクタ100に備えた操作パネルなど、他の構成を通じて受け取るものとしてもよい。   The remote control unit 190 receives an instruction from the user through the remote controller 191 and transmits it to the CPU 120 via the bus 102. In this embodiment, the projector 100 receives an instruction from the user through the remote control unit 190 and the remote controller 191, but may receive an instruction from the user through another configuration such as an operation panel provided in the projector 100. Good.

撮像部180について説明する。撮像部180は、プロジェクタ100の前面、即ち、投写光学系150がスクリーンSCに向けて映像を投写する方向を撮像可能な位置に設けられており、推奨された投影距離においてスクリーンSCに投影された投写画像の全体が少なくとも撮像範囲内に入るように、カメラ方向及び画角が設定されている。撮像部180は周知のイメージセンサであるCCD、このCCD上に映像を形成する単焦点レンズ、CCDに入射する光量を調整するオートアイリスなどの機構、更にはCCDから映像信号を読み出す制御回路などを備える。オートアイリスの機構は、CCDカメラからの映像の明度の累積値に相当する信号を制御回路から受け取り、明度の累積値が所定の範囲に入るように、単焦点レンズに設けられたアイリス(絞り)を自動的に調整している。オートアイリスによる明るさの調整がなされた画像は、撮像部180から撮像画像メモリ182に出力され、撮像画像メモリ182の所定の領域に繰り返し書き込まれる。撮像画像メモリ182は、1画面分の画像の書き込みが完了すると、所定の領域のフラグを順次反転するので、CPU120は、このフラグを参照することにより、撮像部180を用いた撮像が完了したか否かを知ることができる。CPU120は、このフラグを参照しつつ、撮像画像メモリ182にアクセスして、必要な撮像画像を取得する。   The imaging unit 180 will be described. The imaging unit 180 is provided at a position where the front surface of the projector 100, that is, the direction in which the projection optical system 150 projects an image toward the screen SC can be imaged, and the image is projected onto the screen SC at a recommended projection distance. The camera direction and the angle of view are set so that the entire projected image is at least within the imaging range. The imaging unit 180 includes a CCD, which is a well-known image sensor, a single focus lens that forms an image on the CCD, a mechanism such as auto iris that adjusts the amount of light incident on the CCD, and a control circuit that reads a video signal from the CCD. . The auto iris mechanism receives a signal corresponding to the accumulated brightness value of the image from the CCD camera from the control circuit, and adjusts the iris (aperture) provided on the single focus lens so that the accumulated brightness value falls within a predetermined range. It adjusts automatically. The image whose brightness has been adjusted by auto iris is output from the imaging unit 180 to the captured image memory 182 and repeatedly written in a predetermined area of the captured image memory 182. When the captured image memory 182 completes the writing of the image for one screen, the flag of the predetermined area is sequentially inverted. Therefore, the CPU 120 refers to this flag to determine whether the imaging using the imaging unit 180 is completed. You can know whether or not. The CPU 120 accesses the captured image memory 182 while referring to this flag, and acquires a necessary captured image.

(A2)台形歪みの補正の概要
台形歪み補正の概要を、図2に示した。図示するように、台形歪みの補正は、台形歪みの補正を行なうための測定用画像を検出するための一連の処理(ステップS110ないしS140)と、3次元測定処理(ステップS200)と、実際に台形歪みを補正する処理(ステップS300)とから校正されている。ステップS110ないしS140の一連の処理は、測定用画像を検出する処理に相当するが、これらの処理の詳細は、図2ないし図5を用いて後で詳述する。なお、図2に示した処理は本実施例では、ユーザーがリモコン191上の台形歪み補正を指示するボタンを操作すると開始されるものとした。もとより、測定画像検出処理は、例えば電源オンや、その後の初期画面の投写時などで、自動的に実行されるものとしてもよい。
(A2) Outline of correction of trapezoidal distortion An outline of correction of trapezoidal distortion is shown in FIG. As shown in the figure, the trapezoidal distortion is corrected by a series of processes (steps S110 to S140) for detecting a measurement image for correcting the trapezoidal distortion, a three-dimensional measurement process (step S200), and actually. Calibration is performed from the process of correcting trapezoidal distortion (step S300). A series of processes in steps S110 to S140 corresponds to a process for detecting a measurement image. Details of these processes will be described later in detail with reference to FIGS. In the present embodiment, the process shown in FIG. 2 is started when the user operates a button on the remote controller 191 to instruct trapezoidal distortion correction. Of course, the measurement image detection process may be automatically executed, for example, when the power is turned on or the initial screen is projected thereafter.

一連の処理により測定用画像が得られたら、次にこの測定用画像を元に、スクリーンSCの3次元測量処理(ステップS200)が行われる。この処理については、図6、図7を用いて後述する。次に、スクリーンSCの三次元測量の結果を用いて、台形歪み補正処理(ステップS300)を行なうが、この処理は図8を用いて後述する。   If a measurement image is obtained by a series of processes, a three-dimensional survey process (step S200) of the screen SC is performed based on the measurement image. This process will be described later with reference to FIGS. Next, a trapezoidal distortion correction process (step S300) is performed using the result of the three-dimensional survey of the screen SC. This process will be described later with reference to FIG.

(A3)測定用画像検出処理:
まず、測定用画像検出処理について説明する。台形歪みの補正を行うためには、スクリーンSCの面がプロジェクタの光軸に対してどの様な位置関係にあるかを検出することが必要となる。このため、測定用画像は、スクリーンSCの面を特定できるような複数の測定点を含んだものとされている。CPU120は、最終的にはこれらの測定点を用いて、プロジェクタ100とスクリーンSCとの相対距離である投写距離と、プロジェクタから投写した投写光の光軸に対するスクリーンSCの傾きである投写投影角との算出を行うのである。
(A3) Measurement image detection processing:
First, the measurement image detection process will be described. In order to correct the trapezoidal distortion, it is necessary to detect the positional relationship between the screen SC and the optical axis of the projector. Therefore, the measurement image includes a plurality of measurement points that can identify the surface of the screen SC. The CPU 120 finally uses these measurement points to calculate a projection distance that is a relative distance between the projector 100 and the screen SC, and a projection projection angle that is an inclination of the screen SC with respect to the optical axis of the projection light projected from the projector. Is calculated.

図2に示した処理を開始すると、CPU120は、第1撮像画像取得処理(ステップS110)を実行し、更に第2撮像画像取得処理(ステップS120)を実行する。これらの処理の詳細について、図3、図4及び図5を用いて説明する。第1撮像画像取得処理(ステップS110)では、CPU120は、プロジェクタ100が投写中である投写画像を、投写状態で一時的にフリーズさせる(図4:ステップS112)。この処理は、A/D変換部110を介して入力し投影していた画像を、特定のタイミングで静止画像とするものであり、CPU120が、映像用プロセッサ134に所定のコマンドを送ることにより行われる。静止画像(フリーズされた画像)の投影は、映像用プロセッサ134が、静止画像投影の終了コマンドをCPU120から受け付けるまで継続される。この間に、CPU120は、ROM170の校正画像記憶部171が記憶している第1校正画像310(図3参照)を読み出し、これを映像用プロセッサ134にコマンドと共に出力することにより、先にフリーズさせた静止画像300(図3参照)と第1校正画像310とを重畳した第1重畳画像を生成する処理を行なう(ステップS114)。図3に、第1重畳画像315の一例を示した。図示するように、この例では、重畳された第1校正画像310は、3行×3列の9個の白色の四角の画像であり、第1重畳画像315は、9個の白色の四角い領域が、フリーズされた静止画像に重畳された画像となっている。   When the process shown in FIG. 2 is started, the CPU 120 executes a first captured image acquisition process (step S110), and further executes a second captured image acquisition process (step S120). Details of these processes will be described with reference to FIGS. 3, 4, and 5. In the first captured image acquisition process (step S110), the CPU 120 temporarily freezes the projected image being projected by the projector 100 in the projected state (FIG. 4: step S112). In this process, the image input and projected via the A / D conversion unit 110 is converted into a still image at a specific timing, and the CPU 120 sends a predetermined command to the video processor 134. Is called. Still image (frozen image) projection continues until the video processor 134 receives a still image projection end command from the CPU 120. During this time, the CPU 120 reads the first calibration image 310 (see FIG. 3) stored in the calibration image storage unit 171 of the ROM 170, and outputs it to the video processor 134 together with the command to freeze it first. Processing for generating a first superimposed image in which the still image 300 (see FIG. 3) and the first calibration image 310 are superimposed is performed (step S114). FIG. 3 shows an example of the first superimposed image 315. As shown in the figure, in this example, the superimposed first calibration image 310 is nine white square images of 3 rows × 3 columns, and the first superimposed image 315 is nine white square regions. Is an image superimposed on the frozen still image.

CPU120による第1重畳画像の生成(ステップS114)の結果、この画像はスクリーンSCに投写されると共に、CPU120は、撮像部180を用いて、スクリーンSCに投写された画像を撮像する処理を行なう(ステップS116)。具体的には、CPU120は、第1重畳画像を投影するよう映像用プロセッサ134に指示し、この指示を受けた映像用プロセッサ134は、第1重畳画像を液晶パネル駆動部132を介して液晶パネル130に出力する。そして、第1重畳画像が、スクリ−ンSCに投影されたタイミングで、撮像部180に撮像を指示するのである。撮像の指示を受けた撮像部180は、CCDに入射する映像の明るさなどが撮像に適したものとなるようにオートアイリスを調整してから、撮像を行なう。撮像された画像(以下、第1撮像画像という)は、撮像部180により、撮像画像メモリ182に保存されるが、第1撮像画像の保存が完了すると、フラグが反転されるので、CPU120はこのフラグを監視することにより、第1撮像画像が撮像画像メモリ182に保存されたことを確認することができる(ステップS118)。撮像画像メモリ182に保存された第1撮像画像317の一例を図3に示した。投写光学系の光軸とスクリーンSCとが直交していなければ、図3に例示したように、第1撮像画像317は、第1重畳画像315と比べて、台形歪みが生じた画像となる。   As a result of the generation of the first superimposed image by the CPU 120 (step S114), this image is projected onto the screen SC, and the CPU 120 performs processing for capturing the image projected onto the screen SC using the imaging unit 180 (step S114). Step S116). Specifically, the CPU 120 instructs the video processor 134 to project the first superimposed image, and the video processor 134 that has received this instruction sends the first superimposed image to the liquid crystal panel via the liquid crystal panel driving unit 132. To 130. Then, the imaging unit 180 is instructed to image at the timing when the first superimposed image is projected onto the screen SC. Upon receiving the imaging instruction, the imaging unit 180 adjusts the auto iris so that the brightness of the image incident on the CCD is suitable for imaging, and then performs imaging. The captured image (hereinafter referred to as the first captured image) is stored in the captured image memory 182 by the image capturing unit 180, but when the storage of the first captured image is completed, the flag is inverted. By monitoring the flag, it can be confirmed that the first captured image is stored in the captured image memory 182 (step S118). An example of the first captured image 317 stored in the captured image memory 182 is shown in FIG. If the optical axis of the projection optical system and the screen SC are not orthogonal to each other, as illustrated in FIG. 3, the first captured image 317 is an image in which trapezoidal distortion has occurred as compared to the first superimposed image 315.

次に、第2撮像画像取得処理について、図5を中心に説明する。CPU120は、ROM170内の校正画像記憶部172から、第2校正画像320(図3)を取得し、第1校正画像取得処理でフリーズさせた静止画像300に重畳するように、映像用プロセッサ134に指示する処理を行う(ステップS124)。第1撮像画像取得処理との違いは、第2撮像画像取得処理では、第1校正画像310(図3)に代えて第2校正画像320を重畳する点である。第2校正画像320は、図3に示したように、第1校正画像310と同じ位置に3行×3列で配置された黒色の四角からなる画像である。従って、ステップS124で得られる第2重畳画像325は図3に示したように、9個の黒色の四角の領域が静止画像に重畳された画像となる。   Next, the second captured image acquisition process will be described with reference to FIG. The CPU 120 acquires the second calibration image 320 (FIG. 3) from the calibration image storage unit 172 in the ROM 170 and causes the video processor 134 to superimpose the second calibration image 320 (FIG. 3) on the still image 300 frozen in the first calibration image acquisition process. Processing for instructing is performed (step S124). The difference from the first captured image acquisition process is that, in the second captured image acquisition process, the second calibration image 320 is superimposed instead of the first calibration image 310 (FIG. 3). As shown in FIG. 3, the second calibration image 320 is an image composed of black squares arranged in 3 rows × 3 columns at the same position as the first calibration image 310. Therefore, as shown in FIG. 3, the second superimposed image 325 obtained in step S124 is an image in which nine black square regions are superimposed on a still image.

以下、第1撮像画像取得処理と同様の処理工程を経て、第2重畳画像325を投写して撮像し(ステップS126)、撮像された第2撮像画像327(図3参照)が撮像画像メモリ182に記憶されたことを確認する(ステップS128)。その後、第1撮像画像取得処理のステップS112(図4)において一時的にフリーズさせていた投写画像のフリーズを解除するコマンドを映像用プロセッサ134に出力し(ステップS129)、第2撮像画像取得処理を終了する。   Thereafter, through the same processing steps as the first captured image acquisition process, the second superimposed image 325 is projected and captured (step S126), and the captured second captured image 327 (see FIG. 3) is captured image memory 182. (Step S128). Thereafter, a command for releasing the freeze of the projection image temporarily frozen in step S112 (FIG. 4) of the first captured image acquisition process is output to the video processor 134 (step S129), and the second captured image acquisition process is performed. Exit.

これら二つのサブルーチン(第1撮像画像取得処理と第2撮像画像取得処理)が実行されることにより、撮像画像メモリ182の所定のアドレス範囲に、第1撮像画像317と第2撮像画像327とが、保存された状態となる。そこで、次にCPU120は、測定用画像検出処理の先述したステップS130(図2)を実行し、第1撮像画像317と第2撮像画像327との各画素値の差分を計算し、その差分値によって表される測定用画像330(図3)を検出する処理を行う(ステップS140)。測定用画像330は、2枚の撮像画像の各画素の画素値の差分を取った画像なので、フリーズされた画像による濃淡や色相は全て相殺され、測定用領域335からなる画像として検出される。本実施例では、図7(A)に示すような黒色の背景部分と3行×3列の9個の白色部分を含む画像が測定用画像330として検出される。なお、本実施例においては、第1校正画像は白色で、第2校正画像は黒色としたが、この2枚の校正画像は明度、色相、彩度の少なくともいずれかひとつが異なれば、測定用画像検出処理を経て得られる画像は、測定用画像として検出可能である。   By executing these two subroutines (first captured image acquisition process and second captured image acquisition process), the first captured image 317 and the second captured image 327 are within a predetermined address range of the captured image memory 182. , Will be in a saved state. Therefore, the CPU 120 next executes step S130 (FIG. 2) described above of the measurement image detection process, calculates the difference between the pixel values of the first captured image 317 and the second captured image 327, and calculates the difference value. A process of detecting the measurement image 330 (FIG. 3) represented by is performed (step S140). Since the measurement image 330 is an image obtained by calculating the difference between the pixel values of each pixel of the two captured images, all the shades and hues due to the frozen image are canceled and detected as an image including the measurement region 335. In this embodiment, an image including a black background portion and nine white portions of 3 rows × 3 columns as shown in FIG. 7A is detected as the measurement image 330. In the present embodiment, the first calibration image is white and the second calibration image is black. However, if at least one of brightness, hue, and saturation is different, the two calibration images are for measurement. An image obtained through the image detection process can be detected as a measurement image.

(A4)三次元測量処理:
次に、三次元測量処理について説明する。三次元測量処理は、プロジェクタ100のズームレンズ152の主点を原点とする三次元座標系(以下「レンズ座標系」とも呼ぶ)における、スクリーンSCを含む平面の三次元状態を検出する処理である。すなわち、プロジェクタ100における投写光学系の光軸に対するスクリーンSCの三次元的な傾きを検出するのである。
(A4) Three-dimensional survey processing:
Next, the three-dimensional survey process will be described. The three-dimensional survey process is a process for detecting a three-dimensional state of a plane including the screen SC in a three-dimensional coordinate system (hereinafter also referred to as “lens coordinate system”) having the principal point of the zoom lens 152 of the projector 100 as an origin. . That is, the three-dimensional inclination of the screen SC relative to the optical axis of the projection optical system in the projector 100 is detected.

図6は、プロジェクタ100における三次元測量処理の流れを示すフローチャートである。図7は、三次元測量処理の過程で使用する画像を示している。三次元測量処理は測定画像検出処理後に自動的に開始される。この処理が開始されるとCPU120はまず、三次元測量部125の処理として、先に検出した測定用画像330を離散化し(ステップS205)、9つの測定点337を算出する処理を行う(ステップS210)。図7(A)に示した測定用画像330を離散化した離散化画像の一例を、図7(B)に示した。ここで用いる離散化の処理とは、測定用画像330を含む二次元平面座標を水平方向及び垂直方向にスキャンし、各画素の濃淡の分布を求め、濃淡の分布から各方向に3つの重心位置を求め、白色の四角の領域の中心座標を取得する処理を意味している(図7(C))。測定用画像330及び測定用領域335の輪郭がぼやけた画像であっても、離散化することにより測定用領域335内の測定点337は一意に定まる。つまりは、ズームレンズ152のフォーカス調整ができていないプロジェクタ100によってスクリーンSCに投写され、撮像された輪郭のぼやけた第1撮像画像317と第2撮像画像327とから、輪郭のぼやけた測定用画像330が得られたとしても、測定点337の算出が可能である。計9個の測定点P1ないしP9の座標は、P1(X11,Y11)ないしP9(X33,Y33)として表すことができる(図7(D))。   FIG. 6 is a flowchart showing the flow of the three-dimensional survey process in the projector 100. FIG. 7 shows an image used in the process of the three-dimensional surveying process. The three-dimensional survey process is automatically started after the measurement image detection process. When this process is started, the CPU 120 first performs a process of discretizing the previously detected measurement image 330 (step S205) and calculating nine measurement points 337 as a process of the three-dimensional surveying unit 125 (step S210). ). An example of a discretized image obtained by discretizing the measurement image 330 shown in FIG. 7A is shown in FIG. The discretization process used here refers to scanning the two-dimensional plane coordinates including the measurement image 330 in the horizontal direction and the vertical direction to obtain the gray level distribution of each pixel, and from the gray level distribution, three gravity center positions in each direction. Is obtained, and the center coordinates of the white square area are obtained (FIG. 7C). Even if the contours of the measurement image 330 and the measurement region 335 are blurred, the measurement point 337 in the measurement region 335 is uniquely determined by discretization. That is, the measurement image with a blurred outline is projected from the first captured image 317 and the second captured image 327 with a blurred outline projected and projected on the screen SC by the projector 100 in which the focus of the zoom lens 152 cannot be adjusted. Even if 330 is obtained, the measurement point 337 can be calculated. The coordinates of a total of nine measurement points P1 to P9 can be expressed as P1 (X11, Y11) to P9 (X33, Y33) (FIG. 7D).

次に、ステップS210によって算出された9つの測定点337の内、平面の定義が可能な3点を選択する処理を行う(ステップS215)。平面の定義が可能な3点の選択については、その3点全てが同一直線上に位置しなければ、9つの測定点337の内のどの3点を選択してもよい。本実施例において、9つの測定点337を検出しているのは、投写光学系150とスクリーンSCの間に障害物等が介在し、投写光学系150から投写した重畳画像の一部がスクリーンSCに表示されなかった場合や、撮像部180とスクリーンSCの間に障害物が介在し重畳画像の一部を撮像できなかった場合にでも、その撮像された測定用画像330の一部分から測定点337を検出し、その測定点337を用いて三次元測量を行うことができるようにするためである。この様な場合、本実施例における3行×3列に配列された9つの測定点337の内、各行各列に少なくとも1点ずつの測定点が検出できれば三次元測量は可能である。   Next, a process of selecting three points that can define a plane among the nine measurement points 337 calculated in step S210 is performed (step S215). Regarding the selection of three points that can define a plane, any of the nine measurement points 337 may be selected as long as all three points are not on the same straight line. In this embodiment, nine measurement points 337 are detected because an obstacle or the like is interposed between the projection optical system 150 and the screen SC, and a part of the superimposed image projected from the projection optical system 150 is the screen SC. Even when an obstacle is interposed between the image capturing unit 180 and the screen SC and a part of the superimposed image cannot be captured, the measurement point 337 from a part of the captured measurement image 330 is displayed. This is because three-dimensional survey can be performed using the measurement point 337. In such a case, three-dimensional surveying is possible if at least one measurement point can be detected in each row and column among the nine measurement points 337 arranged in 3 rows × 3 columns in this embodiment.

次に、選択した3つの測定点337のレンズ座標系における三次元座標を検出する(ステップS220)。測定点337の三次元座標の検出は、ズームレンズ152と撮像部180との視差を利用し、三角測量の原理により三次元座標を検出する能動型のアクティブステレオ法を用いて行う。なお、測定点の三次元座標の検出には複数のカメラを用いた受動型のステレオ法など、アクティブステレオ法以外の方法を用いてもよい。   Next, the three-dimensional coordinates in the lens coordinate system of the three selected measurement points 337 are detected (step S220). The detection of the three-dimensional coordinates of the measurement point 337 is performed using an active active stereo method that detects the three-dimensional coordinates by using the parallax between the zoom lens 152 and the imaging unit 180 based on the principle of triangulation. Note that a method other than the active stereo method, such as a passive stereo method using a plurality of cameras, may be used to detect the three-dimensional coordinates of the measurement point.

このようにして検出された3つの測定点337の三次元座標に基づいて、スクリーンSCを含む平面に近似する近似平面を算出する(ステップS230)。具体的には、この3つの測定点を用いた最小二乗法により、スクリーン面を含む平面に近似する近似平面の式を算出する。近似平面式の算出後、三次元測量処理は終了する。 Based on the three-dimensional coordinates of the three measurement points 337 thus detected, an approximate plane that approximates the plane including the screen SC is calculated (step S230). Specifically, an approximate plane equation that approximates a plane including the screen surface is calculated by the least square method using these three measurement points. After the calculation of the approximate plane equation, the three-dimensional survey process ends.

(A5)台形歪み補正処理:
次に台形歪み補正処理について説明する。台形歪みは、プロジェクタ100から投写した投写光の光軸の方向に対して、スクリーンSCを含むスクリーン面が垂直に設置されていない場合に、プロジェクタ100からの投写画像に生じる台形型の歪みのことである。この台形型の投写画像の歪みを補正するのが、台形歪み補正処理である。
(A5) Keystone distortion correction processing:
Next, the trapezoidal distortion correction process will be described. The trapezoidal distortion is a trapezoidal distortion generated in the projected image from the projector 100 when the screen surface including the screen SC is not installed perpendicular to the direction of the optical axis of the projection light projected from the projector 100. It is. The trapezoidal distortion correction process corrects the distortion of the trapezoidal projection image.

台形歪み補正処理(図2:ステップS300)の詳細を図8に示した。台形歪み補正処理では、CPU120は、まず投写角算出部126として処理を実行することにより、三次元測量処理で検出したスクリーン平面の近似平面とプロジェクタ100から投写した投写光の光軸との角度である投影投写角を算出する(ステップS310)。本実施例では、近似平面の法線と投射光の光軸とがなす角度を投影投写角として算出している。次に算出された投影投写角を基に、台形歪み補正部としての処理を実行し、スクリーン平面に対して投影投写角が垂直となる測定点337の目標座標を算出する(ステップS320)。最後に、測定点337の座標を目標座標に変換する変換係数を算出する処理を行い(ステップS330)、この係数を映像用プロセッサ134に設定する処理を行う(ステップS340)。   Details of the trapezoidal distortion correction process (FIG. 2: step S300) are shown in FIG. In the trapezoidal distortion correction process, the CPU 120 first executes a process as the projection angle calculation unit 126, thereby calculating the angle between the approximate plane of the screen plane detected by the three-dimensional survey process and the optical axis of the projection light projected from the projector 100. A certain projection angle is calculated (step S310). In this embodiment, the angle formed by the normal of the approximate plane and the optical axis of the projection light is calculated as the projection projection angle. Next, based on the calculated projection projection angle, processing as a trapezoidal distortion correction unit is executed to calculate target coordinates of the measurement point 337 where the projection projection angle is perpendicular to the screen plane (step S320). Finally, a process for calculating a conversion coefficient for converting the coordinates of the measurement point 337 into the target coordinates is performed (step S330), and a process for setting the coefficient in the video processor 134 is performed (step S340).

映像用プロセッサ134は、設定された係数を用いて、入力されるデジタル画像信号を変換し、変換した結果を液晶パネル駆動部132へと出力する。映像用プロセッサ134に設定する係数は、入力した画像信号の画素位置の情報(座標)に対して、3次元のベクトル演算を行う際の係数である。 The video processor 134 converts the input digital image signal using the set coefficient, and outputs the converted result to the liquid crystal panel drive unit 132. The coefficient set in the video processor 134 is a coefficient used when three-dimensional vector calculation is performed on pixel position information (coordinates) of the input image signal.

この3次元のベクトル演算は、画素の座標を、台形歪み補正する位置の座標に変換するために実行される。この係数が設定されると、映像用プロセッサ134は、入力したデジタル画像信号に対して、各画素の座標に対してベクトル演算を繰り返す。これにより、台形歪み補正処理は実現される。   This three-dimensional vector calculation is executed to convert the coordinates of the pixel into coordinates of a position for correcting the trapezoidal distortion. When this coefficient is set, the video processor 134 repeats vector calculation for the coordinates of each pixel with respect to the input digital image signal. Thereby, the trapezoidal distortion correction process is realized.

以上説明したように、第1実施例のプロジェクタ100によれば、スクリーンSCに投写中の投写画像に校正画像を重畳した重畳画像を用いてスクリーンSCの三次元測量を実行し、投写画像の台形歪み補正を行うので、投写画像の投写時と重畳画像の投写時とでは投写面の明るさに大きな変化が無く、撮像部による投写面の撮像を短時間に行うことができる。測定専用の画像に切り換えることがないので、オートアイリスなどが受光量を調整するのに時間を要することがないからである。また、投写中の投写画像の状態に影響を受けないので、鑑賞画像等を投写中であっても、その鑑賞画像等を中断せずに投写画像の台形歪み補正を行うことができる。さらに、三次元測量に用いる測定用画像330は、2枚の撮像画像の各画素の画素値の差分によって検出されているので、撮像画像内に含まれる鑑賞画像等は相殺され、測定用領域335のみを残した画像として検出できる。つまりは、スクリーンSC上に塵埃等が付着しており、撮像画像中にその塵埃が写っていても、測定用画像の検出時にはその塵埃に相当する画像は相殺されるので、精度の高い測定用画像の検出及びその後の台形歪み補正が可能となる。   As described above, according to the projector 100 of the first embodiment, the three-dimensional survey of the screen SC is performed using the superimposed image obtained by superimposing the calibration image on the projected image being projected on the screen SC, and the trapezoid of the projected image is obtained. Since distortion correction is performed, there is no significant change in the brightness of the projection surface between when the projected image is projected and when the superimposed image is projected, and the imaging of the projection surface by the imaging unit can be performed in a short time. This is because the image is not switched to a measurement-dedicated image, and it does not take time for the auto iris or the like to adjust the amount of received light. Further, since it is not affected by the state of the projected image being projected, it is possible to correct the trapezoidal distortion of the projected image without interrupting the viewed image or the like even while the viewed image or the like is being projected. Furthermore, since the measurement image 330 used for the three-dimensional survey is detected by the difference in pixel value of each pixel of the two captured images, the appreciation image or the like included in the captured image is canceled out, and the measurement region 335 is measured. It can be detected as an image that leaves only In other words, even if dust or the like adheres to the screen SC and the dust appears in the captured image, the image corresponding to the dust is canceled when the measurement image is detected. Image detection and subsequent trapezoidal distortion correction are possible.

本実施例において、画像合成部121は特許請求の範囲における第1合成画像出力部及び第2合成画像出力部に該当し、三次元測量部125及び焦点距離算出部124及び投写角算出部126は特許請求の範囲における配置関係検出部に該当し、液晶パネル130及び照明光学系140及び投写光学系150は特許請求の範囲における投写部に該当し、その他、本実施例における特許請求の範囲と同じ名称のものは、特許請求の範囲のそれに該当する。   In the present embodiment, the image composition unit 121 corresponds to the first composite image output unit and the second composite image output unit in the claims, and the three-dimensional survey unit 125, the focal length calculation unit 124, and the projection angle calculation unit 126 include The liquid crystal panel 130, the illumination optical system 140, and the projection optical system 150 correspond to the projection unit in the claims, and other than that, the same as the claims in the present embodiment. The name corresponds to that of the claims.

B.第2実施例:
次に本発明の第2実施例について説明する。第1実施例においては、投写部と投写面との配置関係として、スクリーン平面の近似平面とプロジェクタ100から投写した投写光の光軸との角度である投写角を算出し、その投写角に基づいて投写画像の台形歪み補正を行うものであったが、第2実施例では、投写部と前記投写面との配置関係として、スクリーン平面の近似平面と投写部との距離である投写距離を算出し、その投写距離に基づいて投写画像のフォーカス調整を行う。また、プロジェクタの構成は第1実施例のプロジェクタ100と同じである。
B. Second embodiment:
Next, a second embodiment of the present invention will be described. In the first embodiment, as the positional relationship between the projection unit and the projection surface, a projection angle that is an angle between the approximate plane of the screen plane and the optical axis of the projection light projected from the projector 100 is calculated, and based on the projection angle. In the second embodiment, the projection distance, which is the distance between the approximate plane of the screen plane and the projection unit, is calculated as the positional relationship between the projection unit and the projection plane. The focus of the projected image is adjusted based on the projection distance. Further, the configuration of the projector is the same as that of the projector 100 of the first embodiment.

本実施例におけるプロジェクタの構成は第1実施例のプロジェクタ100と同じであるので、構成については図1を用い、フォーカス調整の流れについては図9を用いて本実施例を説明する。フォーカス調整は、図1におけるプロジェクタ100内のCPU120、CPU120からのコマンドによって稼働するズームレンズ駆動部155及びフォーカス調整用モータ157によって行われる。   Since the configuration of the projector in this embodiment is the same as that of the projector 100 in the first embodiment, this embodiment will be described with reference to FIG. 1 for the configuration and FIG. 9 for the flow of focus adjustment. The focus adjustment is performed by the CPU 120 in the projector 100 in FIG. 1, the zoom lens driving unit 155 that operates according to a command from the CPU 120, and the focus adjustment motor 157.

図9はCPU120内で実行されるフォーカス調整処理の流れを示したフローチャートである。フォーカス調整は第1実施例でも算出したスクリーン平面の近似平面に基づいて行われる。従って、近似平面が算出されるまでの図2における各工程(ステップS110〜S200)は台形歪み補正と同じであるので、図9では省略して図示した。   FIG. 9 is a flowchart showing the flow of focus adjustment processing executed in the CPU 120. The focus adjustment is performed based on the approximate plane of the screen plane calculated in the first embodiment. Therefore, each process (steps S110 to S200) in FIG. 2 until the approximate plane is calculated is the same as the trapezoidal distortion correction, and is omitted from FIG.

CPU120は、ステップS110からステップS200までの処理を終了すると、次に算出されたスクリーン平面の近似平面に基づいて、ズームレンズ152の主点からスクリーンSCまでの距離である投写距離を算出する処理を行う(ステップS410)。これが図1に示した焦点距離算出部124の処理に相当する。その後、焦点距離算出部124は投写距離に基づいてプロジェクタ100からの投写光がスクリーンSCで投写画像として結像する焦点距離を算出する(ステップS420)。最後に、算出した焦点距離に焦点が合うようにズームレンズ152の適切な位置及びその位置にレンズを移動させるフォーカス調整用モータ157の駆動量を算出し、駆動量の値をズームレンズ駆動部155に設定し(ステップS430)、フォーカス調整処理を終了する。駆動量の値が設定されたズームレンズ駆動部は、駆動量に基づいてフォーカス調整用モータ157を駆動させることにより、ズームレンズ152を適切な位置に移動させ、投写光をスクリーンSCで投写画像として結像させフォーカス調整を行う。なお、フォーカス調整処理を実行する時点で、ズームレンズのズーム比を読み込んでいる必要があるが、ズーム調整用モータ156によるズームレンズ152の駆動量から算出している。もとより本実施例では既述したように、撮像部180による撮像画像から算出することも可能である。   When the CPU 120 completes the processing from step S110 to step S200, the CPU 120 performs processing for calculating a projection distance that is a distance from the principal point of the zoom lens 152 to the screen SC based on the next approximate plane of the screen plane calculated. This is performed (step S410). This corresponds to the processing of the focal length calculation unit 124 shown in FIG. Thereafter, the focal length calculation unit 124 calculates a focal length at which the projection light from the projector 100 forms an image as a projection image on the screen SC based on the projection distance (step S420). Finally, an appropriate position of the zoom lens 152 and a drive amount of the focus adjustment motor 157 for moving the lens to the position are calculated so that the calculated focal length is in focus, and the value of the drive amount is calculated as the zoom lens driving unit 155. (Step S430), and the focus adjustment process is terminated. The zoom lens drive unit in which the drive amount value is set drives the focus adjustment motor 157 based on the drive amount to move the zoom lens 152 to an appropriate position, and the projection light is converted into a projection image on the screen SC. Focus and adjust the focus. Although it is necessary to read the zoom ratio of the zoom lens at the time of executing the focus adjustment processing, the zoom ratio is calculated from the driving amount of the zoom lens 152 by the zoom adjustment motor 156. Of course, in the present embodiment, as described above, it is also possible to calculate from an image captured by the imaging unit 180.

以上説明したように、第2実施例のプロジェクタによれば、フォーカス調整を行う際に、投写される画像の内容には制限されず、かつ投写画像を中断せずに行うことができる。また測定用画像を検出する際に行う、投写面に投写された重畳画像の撮像も安定して短時間で行われる。さらに、測定用画像に基づく測定点の検出も正確に行うことができるので、精度の高いフォーカス調整を行うことができる。
なお、第2実施例として説明したフォーカス調整は、単独で実施しても良いし、第1実施例で説明した台形歪み補正と共に実施しても良い。
As described above, according to the projector of the second embodiment, when performing the focus adjustment, the content of the projected image is not limited, and the projected image can be performed without interruption. In addition, the superimposed image projected on the projection plane, which is performed when the measurement image is detected, is stably captured in a short time. Furthermore, since the measurement point can be accurately detected based on the measurement image, highly accurate focus adjustment can be performed.
The focus adjustment described as the second embodiment may be performed alone or together with the trapezoidal distortion correction described in the first embodiment.

C.変形例:
この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
C. Variation:
The present invention is not limited to the above-described examples and embodiments, and can be carried out in various modes without departing from the gist thereof. For example, the following modifications are possible.

(C1)変形例1:
上記実施例では、投写している鑑賞画像等の投写画像において測定用画像の検出を行ったが、この投写画像が静止画像であることにとどまらず、動画であってもよい。ユーザーからリモコン191を通じた投写画像の補正指示に応じてその動画を一時停止させて測定用画像の検出を行うようにすれば測定用画像の検出は可能である。
(C1) Modification 1:
In the above-described embodiment, the measurement image is detected in the projected image such as the projected appreciation image. However, the projected image is not limited to a still image but may be a moving image. The measurement image can be detected by detecting the measurement image by temporarily stopping the moving image in response to a projection image correction instruction from the user via the remote controller 191.

(C2)変形例2:
上記実施例では、図3に示した3行×3列に配置された特定形状の図形からなる第1校正画像310と第2校正画像320とを用いたが、そのような形状に限らず、他の形状の校正画像を用いてもよい。他の校正画像の例として図10に示した。図に示すように、白色の格子状の第3重畳画像355と黒色の格子状の第4重畳画像365とを作成し、投写、撮像によって第3撮像画像357と第4撮像画像367とを取得し、その各画素の差分値を求めて測定用画像370を検出してもよい。第1実施例では測定用画像330の二次元平面に対する画素値の濃淡によって離散化し測定点337を検出したが、本変形例の場合、測定用画像370から検出する測定点として、測定用領域である格子状の白線の縦線と横線の交点を測定点とすればよい。その場合、白線の輪郭の検出手段として白色の濃淡に対して微分フィルタやラプラシアンフィルタと言った輪郭抽出フィルタをかけることによって白線の輪郭を検出することができる。また、校正用画像としてはその他に、形状が四角や格子状に限らず丸や三角の形状でもよいし、それらの形状がN行×M行(N,M:自然数)に並んだ校正画像等でも良い。更に、第1校正画像と第2校正画像は同一形状でなくてもよい。第1校正領域と第2校正領域の一部が一致していればよく、一致している形状から測定画像における測定領域が検出できればよい。校正画像の形状についても、幾何学的な形状に限らず、特定の点の座標が定まればよく、例えばアニメ的な有意の画像や、文字として読み取り可能な形状の図形を含む画像でもよい。なお、特許請求の範囲記載の所定形状とは、四角や丸や三角などの図形単体を示してもよいし、校正画像内の全部の図形を含めて一つの所定形状としてもよい。第1,第2実施例においては校正画像内の全部の図形を含めて一つの所定形状とし、変形例においては、格子状の図形単体を所定形状としている。アニメ的な有意の画像や、文字として読み取り可能な形状の図形を含む画像においても、それらの画像が複数の図形を含む場合は、画像内に含まれる図形の単体を所定形状としてもよいし、画像内に含まれる全部の図形を一つの所定形状としてもよいのは勿論である。
(C2) Modification 2:
In the above-described embodiment, the first calibration image 310 and the second calibration image 320 made of a figure having a specific shape arranged in 3 rows × 3 columns shown in FIG. 3 are used. Calibration images of other shapes may be used. An example of another calibration image is shown in FIG. As shown in the figure, a white grid-like third superimposed image 355 and a black grid-like fourth superimposed image 365 are created, and a third captured image 357 and a fourth captured image 367 are obtained by projection and imaging. Then, the measurement image 370 may be detected by obtaining the difference value of each pixel. In the first embodiment, the measurement point 337 is discretized by the gradation of the pixel value with respect to the two-dimensional plane of the measurement image 330 and the measurement point 337 is detected. However, in this modification, the measurement point is detected in the measurement region as the measurement point detected from the measurement image 370. What is necessary is just to let the intersection of the vertical line and horizontal line of a certain grid-like white line be a measurement point. In that case, the outline of the white line can be detected by applying an outline extraction filter such as a differential filter or a Laplacian filter to the white shade as white line outline detection means. In addition, as a calibration image, the shape is not limited to a square or grid, but may be a circle or a triangle, or a calibration image in which these shapes are arranged in N rows × M rows (N, M: natural numbers). But it ’s okay. Furthermore, the first calibration image and the second calibration image may not have the same shape. It suffices if the first calibration area and the second calibration area partially coincide with each other, and it is only necessary that the measurement area in the measurement image can be detected from the coincident shape. The shape of the calibration image is not limited to a geometric shape, and the coordinates of a specific point may be determined. For example, the image may include a significant image like an animation or a figure that can be read as a character. The predetermined shape described in the claims may indicate a single figure such as a square, a circle, or a triangle, or may include a single predetermined shape including all the figures in the calibration image. In the first and second embodiments, a single predetermined shape including all the figures in the calibration image is used, and in a modified example, a lattice-like figure alone is set to a predetermined shape. Even in an image including a significant image like an animation or a figure with a shape that can be read as a character, when those images include a plurality of figures, a single figure included in the image may be a predetermined shape, Of course, all the figures included in the image may be one predetermined shape.

この他、プロジェクタ100では光変調素子として液晶パネル130を用いているが、光変調素子としてDMD(デジタル・ミラー・デバイス)を用いたDLPプロジェクタとしても良い。また、撮像部180に用いるイメージセンサをCCDに代えてCMOSとしても良い。更に、照明光学系140に用いる光源を放電灯に代えてLEDとしても良い。
また、上記実施例では近似平面の法線と投射光の光軸とがなす角度を投影投写角として算出しているが、投影投写角は台形補正処理を適切に行うことができる角度であれば良い。
In addition, although the projector 100 uses the liquid crystal panel 130 as a light modulation element, it may be a DLP projector using a DMD (digital mirror device) as the light modulation element. Further, the image sensor used in the imaging unit 180 may be a CMOS instead of the CCD. Furthermore, the light source used in the illumination optical system 140 may be an LED instead of a discharge lamp.
In the above embodiment, the angle formed by the normal of the approximate plane and the optical axis of the projection light is calculated as the projection projection angle. However, if the projection projection angle is an angle at which trapezoidal correction processing can be appropriately performed, good.

また、上記実施例においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。   In addition, in the above-described embodiments, a part of functions realized by software may be realized by hardware, or a part of functions realized by hardware may be realized by software.

第1実施例におけるプロジェクタ100の構成を示すブロック図である。It is a block diagram which shows the structure of the projector 100 in 1st Example. 第1実施例における台形歪み補正を示すフローチャートである。It is a flowchart which shows the trapezoid distortion correction in 1st Example. 台形歪み補正に用いる画像を示した説明図である。It is explanatory drawing which showed the image used for trapezoid distortion correction. 第1実施例における第1撮像画像取得処理を示すフローチャートである。It is a flowchart which shows the 1st captured image acquisition process in 1st Example. 第1実施例における第2撮像画像取得処理を示すフローチャートである。It is a flowchart which shows the 2nd captured image acquisition process in 1st Example. 第1実施例における三次元測量処理を示すフローチャートである。It is a flowchart which shows the three-dimensional survey process in 1st Example. 三次元測量処理に用いる画像を示した説明図である。It is explanatory drawing which showed the image used for a three-dimensional survey process. 第1実施例における台形歪み補正処理を示すフローチャートである。It is a flowchart which shows the trapezoid distortion correction process in 1st Example. 第2実施例におけるフォーカス調整処理を示すフローチャートである。It is a flowchart which shows the focus adjustment process in 2nd Example. 変形例2に用いる画像を示した説明図である。It is explanatory drawing which showed the image used for the modification 2.

符号の説明Explanation of symbols

100…プロジェクタ
102…バス
110…A/D変換部
120…CPU
121…画像合成部
122…測定用画像検出部
123…ズーム比算出部
124…焦点距離算出部
125…三次元測量部
126…投写角算出部
130…液晶パネル
132…液晶パネル駆動部
134…映像用プロセッサ
136…台形歪み補正部
140…照明光学系
150…投写光学系
152…ズームレンズ
155…ズームレンズ駆動部
156…ズーム調整用モータ
157…フォーカス調整用モータ
160…RAM
170…ROM
171…校正画像記憶部
180…撮像部
182…撮像画像メモリ
190…リモコン制御部
191…リモコン
200…ケーブル
300…静止画像
310…第1校正画像
315…第1重畳画像
317…第1撮像画像
320…第2校正画像
325…第2重畳画像
327…第2撮像画像
330,370…測定用画像
335…測定用領域
337…測定点
340…離散画像
355…第3重畳画像
357…第3撮像画像
365…第4重畳画像
367…第4撮像画像
SC…スクリーン
DESCRIPTION OF SYMBOLS 100 ... Projector 102 ... Bus 110 ... A / D conversion part 120 ... CPU
DESCRIPTION OF SYMBOLS 121 ... Image composition part 122 ... Measurement image detection part 123 ... Zoom ratio calculation part 124 ... Focal length calculation part 125 ... Three-dimensional surveying part 126 ... Projection angle calculation part 130 ... Liquid crystal panel 132 ... Liquid crystal panel drive part 134 ... For image Processor 136 ... Trapezoidal distortion correction unit 140 ... Illumination optical system 150 ... Projection optical system 152 ... Zoom lens 155 ... Zoom lens drive unit 156 ... Zoom adjustment motor 157 ... Focus adjustment motor 160 ... RAM
170 ... ROM
171: Calibration image storage unit 180 ... Imaging unit 182 ... Captured image memory 190 ... Remote control unit 191 ... Remote control 200 ... Cable 300 ... Still image 310 ... First calibration image 315 ... First superimposed image 317 ... First captured image 320 ... Second calibration image 325 ... second superimposed image 327 ... second captured image 330,370 ... measurement image 335 ... measurement region 337 ... measurement point 340 ... discrete image 355 ... third superimposed image 357 ... third captured image 365 ... Fourth superimposed image 367 ... Fourth captured image SC ... Screen

Claims (10)

投写型表示装置であって、
投写面に向けて画像を投写させる投写部と、
前記画像が投写される前記投写面を撮像する撮像部と、
前記投写部によって投写される画像と所定形状の第1校正画像とを合成し、第1合成画像として前記投写部に出力する第1合成画像出力部と、
前記第1校正画像とは画像の性質が異なり、少なくとも形状の一部が重なる所定形状の第2校正画像を、前記画像と合成し、第2合成画像として前記投写部に出力する第2合成画像出力部と、
前記第1合成画像を前記投写部によって前記投写面に投写させ前記撮像部で撮像した第1撮像画像と、前記第2合成画像を前記投写部によって前記投写面に投写させ前記撮像部で撮像した第2撮像画像とから測定点を抽出し、前記測定点に基づいて前記投写部と前記投写面との配置関係を検出する配置関係検出部と
を備えた投写型表示装置。
A projection display device,
A projection unit that projects an image onto the projection surface;
An imaging unit that images the projection surface on which the image is projected;
A first synthesized image output unit that synthesizes an image projected by the projection unit and a first calibration image having a predetermined shape and outputs the synthesized image to the projection unit as a first synthesized image;
A second composite image that is different from the first calibration image and has a predetermined shape that overlaps at least a part of the shape with the image, and outputs the composite image to the projection unit as a second composite image. An output section;
The first synthesized image is projected on the projection plane by the projection unit and captured by the imaging unit, and the second synthesized image is projected on the projection plane by the projection unit and captured by the imaging unit. A projection display device comprising: an arrangement relationship detection unit that extracts a measurement point from the second captured image and detects an arrangement relationship between the projection unit and the projection plane based on the measurement point.
請求項1記載の投写型表示装置はさらに、前記第1撮像画像と第2撮像画像との各画素の画素値の差分によって表される測定用画像を検出する測定用画像検出部を備え、
前記配置関係検出部は、前記測定用画像に基づいて前記測定点を抽出する
投写型表示装置。
The projection display device according to claim 1 further includes a measurement image detection unit that detects a measurement image represented by a difference between pixel values of each pixel of the first captured image and the second captured image,
The arrangement relationship detecting unit extracts the measurement point based on the measurement image.
請求項2記載の投写型表示装置であって、
前記第1,第2校正画像における少なくとも形状の一部が重なる所定形状とは、
その重なる部分が平面を定義可能な3点を抽出可能に含んでいる形状である
投写型表示装置。
The projection display device according to claim 2,
The predetermined shape in which at least a part of the shape in the first and second calibration images overlap is as follows:
A projection display device in which the overlapping portion includes a shape that can extract three points that can define a plane.
請求項3記載の投写型表示装置であって、
前記配置関係検出部は、前記配置関係の1つとして前記投写部から投写する投写光の光軸と前記投写面との傾きである投写角を算出する投写型表示装置。
The projection display device according to claim 3,
The arrangement relationship detection unit is a projection display device that calculates a projection angle that is an inclination between an optical axis of projection light projected from the projection unit and the projection plane as one of the arrangement relationships.
請求項4記載の投写型表示装置はさらに、
前記配置関係検出部で算出した前記投写角を用いて前記投写面に投写される投写画像の台形歪みを補正する台形歪み補正部を備える投写型表示装置。
The projection display device according to claim 4 further includes:
A projection display device comprising a trapezoidal distortion correction unit that corrects a trapezoidal distortion of a projected image projected on the projection plane using the projection angle calculated by the arrangement relationship detection unit.
請求項3記載の投写型表示装置であって、
前記配置関係検出部は、前記配置関係の1つとして前記投写型表示装置と前記投写面までの投写距離を算出する投写型表示装置。
The projection display device according to claim 3,
The arrangement relation detection unit is a projection display apparatus that calculates a projection distance between the projection display apparatus and the projection plane as one of the arrangement relations.
請求項6記載の投写型表示装置はさらに、
前記配置関係検出部で算出した前記投写距離を用いて前記投写面に投写される投写画像のフォーカス調整を行うフォーカス調整部を備える投写型表示装置。
The projection display device according to claim 6 further includes:
A projection display device comprising a focus adjustment unit that performs focus adjustment of a projection image projected on the projection plane using the projection distance calculated by the arrangement relationship detection unit.
請求項1ないし請求項7のいずれか記載の投写型表示装置であって、
前記第1,第2校正画像における前記画像の性質とは明度、色相、彩度の少なくともいずれかひとつである投写型表示装置。
A projection display device according to any one of claims 1 to 7,
The projection display apparatus, wherein the property of the image in the first and second calibration images is at least one of brightness, hue, and saturation.
請求項1ないし請求項7のいずれか記載の投写型表示装置であって、
前記第1,第2校正画像における前記画像の性質とは明度であり、
前記第1校正画像は白色、前記第2校正画像は黒色である
投写型表示装置。
A projection display device according to any one of claims 1 to 7,
The property of the image in the first and second calibration images is brightness,
The projection display apparatus, wherein the first calibration image is white and the second calibration image is black.
投写型表示装置と投写面との配置関係を検出する配置関係検出方法であって、
前記投写面に投写させた画像に所定形状の第1校正画像を合成し、第1合成画像として前記投写部に出力する工程と、
前記第1校正画像とは画像の性質が異なり、少なくとも形状の一部が重なる所定形状の第2校正画像を、前記画像と合成し、第2合成画像として前記投写部に出力する工程と、
前記第1合成画像を前記投写部によって前記投写面に投写させ撮像部で撮像した第1撮像画像と、前記第2合成画像を前記投写部によって前記投写面に投写させ前記撮像部で撮像した第2撮像画像との各画素の画素値の差分によって表される測定用画像を検出する工程と、
検出した前記測定用画像から測定点を抽出し、前記測定点に基づいて前記投写型表示装置と前記投写面との配置関係を検出する工程と
を備える配置関係検出方法。
An arrangement relation detection method for detecting an arrangement relation between a projection display device and a projection plane,
Combining a first calibration image having a predetermined shape with the image projected on the projection surface and outputting the first calibration image to the projection unit as a first composite image;
A step of synthesizing a second calibration image having a predetermined shape, which is different from the first calibration image and having at least a part of the shape, with the image and outputting the second calibration image to the projection unit as a second synthesized image;
A first captured image obtained by projecting the first composite image on the projection plane by the projection unit and captured by the imaging unit, and a second captured image projected by the projection unit on the projection plane by the projection unit. Detecting a measurement image represented by a difference in pixel value of each pixel from two captured images;
Extracting the measurement points from the detected image for measurement, and detecting the arrangement relationship between the projection display device and the projection plane based on the measurement points.
JP2008301481A 2008-11-26 2008-11-26 Projection display apparatus and arrangement relation detection method Active JP5493340B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008301481A JP5493340B2 (en) 2008-11-26 2008-11-26 Projection display apparatus and arrangement relation detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008301481A JP5493340B2 (en) 2008-11-26 2008-11-26 Projection display apparatus and arrangement relation detection method

Publications (2)

Publication Number Publication Date
JP2010128102A true JP2010128102A (en) 2010-06-10
JP5493340B2 JP5493340B2 (en) 2014-05-14

Family

ID=42328548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008301481A Active JP5493340B2 (en) 2008-11-26 2008-11-26 Projection display apparatus and arrangement relation detection method

Country Status (1)

Country Link
JP (1) JP5493340B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012065074A (en) * 2010-09-15 2012-03-29 Seiko Epson Corp Projector, and method of controlling projector
CN103259995A (en) * 2012-02-16 2013-08-21 精工爱普生株式会社 Projector and method of controlling projector
WO2013136789A1 (en) 2012-03-14 2013-09-19 Seiko Epson Corporation Projector and control method for the projector
JP2014093604A (en) * 2012-11-01 2014-05-19 Ricoh Co Ltd Image projection device evaluation method, image projection device, image projection device manufacturing method, and image projection device evaluation system
CN103929603A (en) * 2013-01-16 2014-07-16 株式会社理光 Image Projection Device, Image Projection System, And Control Method
US20150109333A1 (en) * 2013-10-22 2015-04-23 Lite-On It Corporation Projecting device and projection image processing method thereof
JP2015118252A (en) * 2013-12-18 2015-06-25 株式会社リコー Image projection device, image projection system and image projection method
EP2876876A3 (en) * 2013-11-22 2015-07-22 Ricoh Company, Ltd. Image projection apparatus, image projection method, and computer-readable storage medium
US9344695B2 (en) 2011-09-15 2016-05-17 Nec Corporation Automatic projection image correction system, automatic projection image correction method, and non-transitory storage medium
JP2016090673A (en) * 2014-10-30 2016-05-23 キヤノン株式会社 Display device and control method thereof, image processor, and computer program
JP2016139156A (en) * 2016-04-20 2016-08-04 セイコーエプソン株式会社 Projector and control method of projector
JP2017092819A (en) * 2015-11-13 2017-05-25 キヤノン株式会社 Projection apparatus, control method of the same and projection system
CN107154417A (en) * 2016-03-04 2017-09-12 三星显示有限公司 Oganic light-emitting display device
US9794536B2 (en) 2013-11-20 2017-10-17 Seiko Epson Corporation Projector, and method of controlling projector

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108262952B (en) * 2017-09-15 2020-06-02 杭州先临三维科技股份有限公司 DLP three-dimensional printer and printing method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005012679A (en) * 2003-06-20 2005-01-13 Nec Viewtechnology Ltd Projector with inclination measurement instrument
JP2005070687A (en) * 2003-08-28 2005-03-17 Nec Viewtechnology Ltd Projector with automatic focusing function
JP2005094599A (en) * 2003-09-19 2005-04-07 Nec Viewtechnology Ltd Projector and its test pattern detecting method
JP2008109337A (en) * 2006-10-25 2008-05-08 Seiko Epson Corp Projector, program, and information storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005012679A (en) * 2003-06-20 2005-01-13 Nec Viewtechnology Ltd Projector with inclination measurement instrument
JP2005070687A (en) * 2003-08-28 2005-03-17 Nec Viewtechnology Ltd Projector with automatic focusing function
JP2005094599A (en) * 2003-09-19 2005-04-07 Nec Viewtechnology Ltd Projector and its test pattern detecting method
JP2008109337A (en) * 2006-10-25 2008-05-08 Seiko Epson Corp Projector, program, and information storage medium

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012065074A (en) * 2010-09-15 2012-03-29 Seiko Epson Corp Projector, and method of controlling projector
CN102404537A (en) * 2010-09-15 2012-04-04 精工爱普生株式会社 Projector and method of controlling projector
US8403500B2 (en) 2010-09-15 2013-03-26 Seiko Epson Corporation Projector and method of controlling projector
CN102404537B (en) * 2010-09-15 2015-07-01 精工爱普生株式会社 Projector and method of controlling projector
US9344695B2 (en) 2011-09-15 2016-05-17 Nec Corporation Automatic projection image correction system, automatic projection image correction method, and non-transitory storage medium
CN103259995A (en) * 2012-02-16 2013-08-21 精工爱普生株式会社 Projector and method of controlling projector
CN103259995B (en) * 2012-02-16 2018-08-28 精工爱普生株式会社 The control method of projecting apparatus and projecting apparatus
WO2013121712A3 (en) * 2012-02-16 2013-11-14 Seiko Epson Corporation Projector and method of controlling projector
JP2013190616A (en) * 2012-03-14 2013-09-26 Seiko Epson Corp Projector and control method of projector
KR20140136031A (en) 2012-03-14 2014-11-27 세이코 엡슨 가부시키가이샤 Projector and control method for the projector
WO2013136789A1 (en) 2012-03-14 2013-09-19 Seiko Epson Corporation Projector and control method for the projector
US9479748B2 (en) 2012-03-14 2016-10-25 Seiko Epson Corporation Projector and control method for the projector
JP2014093604A (en) * 2012-11-01 2014-05-19 Ricoh Co Ltd Image projection device evaluation method, image projection device, image projection device manufacturing method, and image projection device evaluation system
US20140198030A1 (en) * 2013-01-16 2014-07-17 Kazuhiro Takazawa Image projection device, image projection system, and control method
CN103929603A (en) * 2013-01-16 2014-07-16 株式会社理光 Image Projection Device, Image Projection System, And Control Method
US9400562B2 (en) * 2013-01-16 2016-07-26 Ricoh Company, Ltd. Image projection device, image projection system, and control method
US20150109333A1 (en) * 2013-10-22 2015-04-23 Lite-On It Corporation Projecting device and projection image processing method thereof
US9794536B2 (en) 2013-11-20 2017-10-17 Seiko Epson Corporation Projector, and method of controlling projector
EP2876876A3 (en) * 2013-11-22 2015-07-22 Ricoh Company, Ltd. Image projection apparatus, image projection method, and computer-readable storage medium
US9621820B2 (en) 2013-11-22 2017-04-11 Ricoh Company, Limited Image projection apparatus, image projection method, and computer-readable storage medium
JP2015118252A (en) * 2013-12-18 2015-06-25 株式会社リコー Image projection device, image projection system and image projection method
JP2016090673A (en) * 2014-10-30 2016-05-23 キヤノン株式会社 Display device and control method thereof, image processor, and computer program
US10205922B2 (en) 2014-10-30 2019-02-12 Canon Kabushiki Kaisha Display control apparatus, method of controlling the same, and non-transitory computer-readable storage medium
JP2017092819A (en) * 2015-11-13 2017-05-25 キヤノン株式会社 Projection apparatus, control method of the same and projection system
CN107154417A (en) * 2016-03-04 2017-09-12 三星显示有限公司 Oganic light-emitting display device
CN107154417B (en) * 2016-03-04 2023-11-07 三星显示有限公司 Organic light emitting display device
JP2016139156A (en) * 2016-04-20 2016-08-04 セイコーエプソン株式会社 Projector and control method of projector

Also Published As

Publication number Publication date
JP5493340B2 (en) 2014-05-14

Similar Documents

Publication Publication Date Title
JP5493340B2 (en) Projection display apparatus and arrangement relation detection method
US8272748B2 (en) Projection-type display apparatus and method for performing projection adjustment
JP3925521B2 (en) Keystone correction using part of the screen edge
JP4055010B2 (en) Image processing system, projector, program, information storage medium, and image processing method
US7839543B2 (en) Document imager, document stillness detection method, and computer program product
TWI566602B (en) Projector and control method for the projector
JP5338718B2 (en) Correction information calculation apparatus, image processing apparatus, image display system, and image correction method
JP3994290B2 (en) Image processing system, projector, program, information storage medium, and image processing method
JP3722146B1 (en) Projector and image correction method
JP3844076B2 (en) Image processing system, projector, program, information storage medium, and image processing method
JP5401940B2 (en) Projection optical system zoom ratio measurement method, projection image correction method using the zoom ratio measurement method, and projector for executing the correction method
JP5796286B2 (en) Projector and projector control method
JP6343910B2 (en) Projector and projector control method
JP5736535B2 (en) Projection-type image display device and image adjustment method
JP2011182076A (en) Correction information calculating device, image processing device, image display system, and image correcting method
WO2011102299A1 (en) Control device and projection-type image display device
WO2012046575A1 (en) Projection video display device
JP2012170007A (en) Projection type video display device and image adjusting method
JP4428371B2 (en) Projection-type image display device and flat projection object
JP5540493B2 (en) Method for measuring position or tilt of projection plane relative to projection optical system, image processing method for projected image using the measurement method, projector for executing the image processing method, program for measuring position or tilt of projection plane with respect to projection optical system
JP6205755B2 (en) Projector apparatus, projector system, projector control method, and projector control program
JP2009253575A (en) Projector, program, and storage medium
JP2011199717A (en) Projection type display device and image display method
JP6347126B2 (en) Projector and projector control method
JP5233613B2 (en) Projection display apparatus and arrangement relation detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130416

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140217

R150 Certificate of patent or registration of utility model

Ref document number: 5493340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350