JP2005354232A - Image projection apparatus - Google Patents

Image projection apparatus Download PDF

Info

Publication number
JP2005354232A
JP2005354232A JP2004170454A JP2004170454A JP2005354232A JP 2005354232 A JP2005354232 A JP 2005354232A JP 2004170454 A JP2004170454 A JP 2004170454A JP 2004170454 A JP2004170454 A JP 2004170454A JP 2005354232 A JP2005354232 A JP 2005354232A
Authority
JP
Japan
Prior art keywords
image
projection
distance
distance measuring
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004170454A
Other languages
Japanese (ja)
Other versions
JP2005354232A5 (en
JP4803972B2 (en
Inventor
Kazuo Fujibayashi
和夫 藤林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004170454A priority Critical patent/JP4803972B2/en
Publication of JP2005354232A publication Critical patent/JP2005354232A/en
Publication of JP2005354232A5 publication Critical patent/JP2005354232A5/ja
Application granted granted Critical
Publication of JP4803972B2 publication Critical patent/JP4803972B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image projection apparatus capable of quickly correcting trapezoidal distortion caused by a tilted projection face with high accuracy. <P>SOLUTION: The image projection apparatus includes: a projecting lens 2 for projecting image light to a projection face 6; a plurality of range finding means 3, 4, 5 for using reflected light resulting from the image light projected on the projection face and reflected therein to measure distances from the image projection apparatus to a plurality of positions 30, 40, 50 in the projection face respectively; and a correction means for correcting distortion in the projected image on the basis of the distances measured by a plurality of the range finding means. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description


本発明は、画像をスクリーン等の投射面に投射する画像投射装置に関し、特に投射画像の歪を補正することが可能な画像投射装置に関するものである。

The present invention relates to an image projection apparatus that projects an image on a projection surface such as a screen, and more particularly to an image projection apparatus that can correct distortion of a projection image.

近年、パーソナルコンピュータ等で作成した資料を液晶プロジェクタ等の画像投射装置によってスクリーンに拡大投射しながら会議やプレゼンテーションを行うことが多く、この場合、会議室から他の会議室へというようにプロジェクタを持ち運んで使用することが多い。このような場合、設置場所を変えるごとに投射画像のサイズを決め、かつスクリーンに対して投射レンズのピント合わせをする必要がある。このため、最近では、ピント合わせを自動的に行うプロジェクタが提案されている。   In recent years, there are many cases where conferences and presentations are performed while materials created by a personal computer or the like are enlarged and projected on a screen by an image projection device such as a liquid crystal projector. In this case, the projector is carried from one conference room to another. Often used in. In such a case, it is necessary to determine the size of the projected image each time the installation location is changed and to focus the projection lens with respect to the screen. For this reason, recently, a projector that automatically performs focusing has been proposed.

また、持ち運び可能なプロジェクタは、机の上に設置されることが多く、この場合、投射光が机によってけられないように、又は投射画像が椅子に座った観察者にとって見やすいように、プロジェクタを上方向に傾けた状態で投射することが多い。この場合、投射画像にはいわゆる台形歪が発生する。このため、プロジェクタに傾きセンサを組み込み、プロジェクタの傾きを検知して自動的に台形歪補正を行うプロジェクタが提案されている。   Portable projectors are often installed on a desk, and in this case, the projector should be placed so that the projected light is not scattered by the desk or the projected image is easy to see for an observer sitting on a chair. In many cases, the projection is performed in an inclined state. In this case, so-called trapezoidal distortion occurs in the projected image. For this reason, there has been proposed a projector that incorporates a tilt sensor in the projector and automatically corrects the trapezoidal distortion by detecting the tilt of the projector.

但し、傾きセンサは一般に重力を利用しているため、プロジェクタの傾きは検出できるが、投射面であるスクリーンの傾きは検知できない。プロジェクタが傾いているときと同様に、スクリーンが傾いている場合にも台形歪みが発生するため、従来の傾きセンサを用いたプロジェクタでは、スクリーンの傾きに起因した台形歪みを補正することができない。   However, since the tilt sensor generally uses gravity, the tilt of the projector can be detected, but the tilt of the screen as the projection surface cannot be detected. Similar to when the projector is tilted, trapezoidal distortion occurs when the screen is tilted. Therefore, a projector using a conventional tilt sensor cannot correct the trapezoidal distortion due to the tilt of the screen.

特許文献1には、複数の超音波センサを用いて投射面における複数位置までの距離を測定することによりスクリーンの前後左右の傾きを検出し、該検出結果に基づいて台形歪み補正を行うプロジェクタが提案されている。
特開平8−9309号公報(段落0022〜0023,0029,0036〜0044、図2等)
Patent Document 1 discloses a projector that detects the front / rear / left / right inclination of a screen by measuring the distance to a plurality of positions on a projection surface using a plurality of ultrasonic sensors, and corrects trapezoidal distortion based on the detection result. Proposed.
JP-A-8-9309 (paragraphs 0022 to 0023, 0029, 0036 to 0044, FIG. 2, etc.)

しかしながら、超音波センサを用いて投射面までの距離を測定する場合、超音波が投射面の周囲の物体で反射する等して距離測定精度が低下するおそれがある。また、複数の超音波センサを用いて複数位置までの距離を測定する場合、超音波同士の干渉が問題となるため、該複数位置までの距離を同時に測定することが難しい。このため、スクリーンの傾きを検出するまでにある程度の時間を必要とする。   However, when the distance to the projection surface is measured using an ultrasonic sensor, the distance measurement accuracy may be reduced due to reflection of ultrasonic waves by an object around the projection surface. Further, when measuring the distance to a plurality of positions using a plurality of ultrasonic sensors, interference between the ultrasonic waves becomes a problem, and it is difficult to measure the distance to the plurality of positions simultaneously. For this reason, a certain amount of time is required until the tilt of the screen is detected.

本発明は、投射面の傾きに起因する台形歪の補正を、精度良く、かつ迅速に行うことができるようにした画像投射装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide an image projection apparatus capable of correcting a trapezoidal distortion caused by the inclination of the projection surface with high accuracy and speed.

上記の目的を達成するために、本発明の画像投射装置は、投射面に対して画像光を投射する投射レンズと、画像光の投射面での反射光を用いて該画像投射装置から投射面における複数位置までの距離を測定する複数の測距手段と、該複数の測距手段により測定された距離に基づいて、投射画像の歪みを補正する補正手段とを有する。   In order to achieve the above object, an image projection apparatus according to the present invention uses a projection lens that projects image light onto a projection surface, and reflected light from the projection surface of the image light. A plurality of distance measuring means for measuring the distance to a plurality of positions, and a correcting means for correcting distortion of the projected image based on the distance measured by the plurality of distance measuring means.

本発明によれば、投射した画像光を利用して光学的に投射面の複数位置までの距離を検出するので、投射面の傾きを精度良く、かつ短時間で求めることができる。したがって、投射面の傾きに起因する台形歪を良好に補正することができる。   According to the present invention, since the distance to a plurality of positions on the projection surface is optically detected using the projected image light, the inclination of the projection surface can be obtained accurately and in a short time. Therefore, it is possible to satisfactorily correct the trapezoidal distortion caused by the inclination of the projection surface.

以下、本発明の実施例について図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1には、本発明の実施例であるプロジェクタ(画像投射装置)の構成を示している。図中の1はプロジェクタ本体である。2は投射レンズであり、ここから画像光をスクリーン6に向けて投射する。本実施例の投射レンズ2は、ズーミングおよびオートフォーカスが可能に構成されている。   FIG. 1 shows the configuration of a projector (image projection apparatus) that is an embodiment of the present invention. In the figure, reference numeral 1 denotes a projector body. Reference numeral 2 denotes a projection lens, from which image light is projected toward the screen 6. The projection lens 2 of the present embodiment is configured to be able to perform zooming and autofocus.

3,4,5は光学式測距センサユニットであり、プロジェクタ本体1の前面に互いに離れて(例えば、図示のように投射レンズ2の周囲3箇所に)設けられている。測距センサユニット3,4,5は、光電変換素子を一列に並べて構成されるラインセンサ3s,4s,5sと、画像光のスクリーン6での反射光をラインセンサ3s,4s,5s上に結像させる受光レンズ3L,4L,5Lとにより構成されている。   Reference numerals 3, 4 and 5 denote optical distance measuring sensor units which are provided on the front surface of the projector body 1 apart from each other (for example, at three locations around the projection lens 2 as shown). The distance measuring sensor units 3, 4, and 5 connect line sensors 3 s, 4 s, and 5 s configured by arranging photoelectric conversion elements in a line and image light reflected from the screen 6 onto the line sensors 3 s, 4 s, and 5 s. It is composed of light receiving lenses 3L, 4L, and 5L for imaging.

ここで、光学式測距センサユニットにより距離測定の原理について図5を用いて簡単に説明する。   Here, the principle of distance measurement by the optical distance measuring sensor unit will be briefly described with reference to FIG.

図5は、投射面までの距離を三角測距方式により測定する場合の原理を示している。201は画像光ILが投射される投射面(スクリーン6)、203は投射レンズ、204はラインセンサである。ラインセンサ204の前面には、受光レンズ202が配置されている。   FIG. 5 shows the principle when the distance to the projection surface is measured by the triangulation method. 201 is a projection surface (screen 6) on which the image light IL is projected, 203 is a projection lens, and 204 is a line sensor. A light receiving lens 202 is disposed in front of the line sensor 204.

投射面201で反射した画像光ILは、受光レンズ202によってラインセンサ204上に結像する。プロジェクタ本体1から投射面201までの距離Lは、投射レンズ203と受光レンズ202間の基線長をB、受光レンズ202の焦点距離をf、ラインセンサ204上で受光レンズ202の光軸上の位置204aを基準とした像ずれ量をxとしたとき、
L=B×f/x
で求めることができる。
The image light IL reflected by the projection surface 201 forms an image on the line sensor 204 by the light receiving lens 202. The distance L from the projector main body 1 to the projection surface 201 is that the base line length between the projection lens 203 and the light receiving lens 202 is B, the focal length of the light receiving lens 202 is f, and the position on the optical axis of the light receiving lens 202 on the line sensor 204. When the image shift amount with reference to 204a is x,
L = B × f / x
Can be obtained.

図1において、pは画像形成素子としての液晶パネルであり、画像光によって投射される像の原画を形成する。該プロジェクタには、パーソナルコンピュータ、DVDプレーヤ、ビデオデッキ、アンテナとチューナからなる映像受信機等の画像情報供給装置60が接続されている。プロジェクタには、後述するように液晶パネル駆動回路(図2参照)が搭載されており、画像情報供給装置60からの映像信号は該液晶パネル駆動回路に入力され、液晶パネル駆動回路はこの映像信号に応じた原画を形成させるよう液晶パネルpを駆動する。   In FIG. 1, p denotes a liquid crystal panel as an image forming element, which forms an original image of an image projected by image light. The projector is connected to an image information supply device 60 such as a personal computer, a DVD player, a video deck, a video receiver including an antenna and a tuner. As described later, the projector is equipped with a liquid crystal panel drive circuit (see FIG. 2), and a video signal from the image information supply device 60 is input to the liquid crystal panel drive circuit. The liquid crystal panel p is driven so as to form an original image corresponding to.

6pは画像光によってスクリーン6上に投射された投射画像である。30,40,50はそれぞれ、スクリーン6上でどの領域からの反射光がラインセンサ3s,4s,5sによって受光されるのかを示しており、以下、これらの領域を測距センサユニット3,4,5による検出領域という。   6p is a projection image projected on the screen 6 by image light. 30, 40, and 50 indicate the areas from which reflected light is received by the line sensors 3 s, 4 s, and 5 s on the screen 6. These areas are hereinafter referred to as ranging sensor units 3, 4, and 4, respectively. This is referred to as a detection region by 5.

8はプロジェクタ本体1に設けられた台形歪補正スイッチであり、これを使用者が操作することで、後述する台形歪み補正処理が実行される。また、9はプロジェクタ本体1に設けられたオートフォーカススイッチであり、これを使用者が操作することで、後述する、投射レンズ2のスクリーン6に対する自動ピント合わせ処理が実行される。   Reference numeral 8 denotes a trapezoidal distortion correction switch provided in the projector main body 1, and a trapezoidal distortion correction process, which will be described later, is executed when the user operates this switch. Reference numeral 9 denotes an autofocus switch provided in the projector main body 1. When the user operates this switch, an automatic focusing process for the screen 6 of the projection lens 2 described later is executed.

このように構成されたプロジェクタにおいて、投射レンズ2によって液晶パネルpからの画像光が投射レンズ2を通じてスクリーン6上に投射され、投射画像6pが表示されると、測距センサユニット3,4,5のラインセンサ3s,4s,5s上には、スクリーン6上におけるそれぞれ対応する検出領域からの反射光が受光レンズ3L,4L,5Lによって結像する。これにより、投射された画像光のスクリーン6での反射光を、投射レンズ2に対して所定の基線長離れて配置された測距センサユニット3,4,5により受光し、プロジェクタからスクリーン6までの距離を測定するいわゆるアクテイブ型三角測距方式の測距系が形成される。   In the projector configured as described above, when the projection lens 2 projects the image light from the liquid crystal panel p onto the screen 6 through the projection lens 2, and the projection image 6p is displayed, the distance measuring sensor units 3, 4, 5 are displayed. On the line sensors 3s, 4s and 5s, the reflected light from the corresponding detection areas on the screen 6 is imaged by the light receiving lenses 3L, 4L and 5L. As a result, the reflected light of the projected image light on the screen 6 is received by the distance measuring sensor units 3, 4, and 5 disposed at a predetermined baseline length away from the projection lens 2, and from the projector to the screen 6. A so-called active type triangulation system distance measuring system is formed.

ここで、測距センサユニット3,4,5の検出領域30,40,50はそれぞれ、スクリーン6のうち投射光軸(投射レンズ2の光軸の延長線)AXLが交わる位置、すなわち投射画像6pにおける光軸位置の近傍である光軸近傍部と、上端部と、横端部とに設定されている。そして、検出領域30,40,50はいずれも、スクリーン6上における所定サイズ範囲の投射画像6pの端部、言い換えればスクリーン6上における投射画像6pと投射画像6p外の領域(画像外領域)との境界を含み、かつ各検出領域の長手方向(各ラインセンサの長手方向)が投射画像6pの端部(境界)が伸びる方向に対して直交するように設定されている。具体的には、測距センサユニット3,4にそれぞれ対応した光軸近傍部および上端部の検出領域30,40は、上下方向に伸びて投射画像6pの光軸近傍端(下端)および上端を含む領域とし、測距センサユニット50に対応した横端部の検出領域50は、左右方向に伸びて投射画像6pの横端を含む領域としている。   Here, the detection areas 30, 40, and 50 of the distance measuring sensor units 3, 4, and 5 are positions on the screen 6 where the projection optical axis (extension line of the optical axis of the projection lens 2) AXL intersects, that is, the projection image 6p. Are set in the vicinity of the optical axis, the upper end, and the lateral end of the optical axis. The detection areas 30, 40, and 50 are all end portions of the projection image 6p within a predetermined size range on the screen 6, in other words, the projection image 6p on the screen 6 and an area outside the projection image 6p (outside image area). And the longitudinal direction of each detection region (longitudinal direction of each line sensor) is set to be orthogonal to the direction in which the end (boundary) of the projection image 6p extends. Specifically, the detection areas 30 and 40 in the vicinity of the optical axis and the upper end corresponding to the distance measuring sensor units 3 and 4 respectively extend in the vertical direction so that the vicinity (lower end) and upper end of the projection image 6p are near the optical axis. The detection region 50 at the lateral end corresponding to the distance measuring sensor unit 50 is a region extending in the left-right direction and including the lateral end of the projection image 6p.

これにより、投射画像6pが全白画像や明るい画像である場合、投射画像6pと画像外領域との明るさの差が大きいため、ラインセンサ3s,4s,5sによって投射画像6pの端部(境界)をエッジとして検出し易くなり、測距精度の向上を図ることができる。   As a result, when the projected image 6p is an all-white image or a bright image, the difference in brightness between the projected image 6p and the outside area of the image is large, so the end portions (boundaries) of the projected image 6p are detected by the line sensors 3s, 4s, and 5s. ) Can be easily detected as an edge, and distance measurement accuracy can be improved.

こうして、ラインセンサ3s,4s,5s上の像基準位置に対する像ずれ量に基づいてスクリーン6の各画像端位置までの距離が測定できる。すなわち、ラインセンサ3s上の画像下端の像ずれ量に基づいてスクリーン6における光軸近傍部までの距離が測定され、ラインセンサ4s上の画像上端の像ずれ量からスクリーン6における上端部までの距離が測定される。さらに、ラインセンサ5s上の画像横端の像ずれ量からスクリーン6の横端部まで距離が測定される。   Thus, the distance to each image edge position of the screen 6 can be measured based on the image shift amount with respect to the image reference position on the line sensors 3s, 4s, and 5s. That is, the distance to the optical axis vicinity portion on the screen 6 is measured based on the image shift amount at the lower end of the image on the line sensor 3s, and the distance from the image shift amount at the upper end of the image on the line sensor 4s to the upper end portion on the screen 6. Is measured. Further, the distance from the image shift amount at the horizontal end of the image on the line sensor 5s to the horizontal end of the screen 6 is measured.

投射画像6pの拡大率は投射距離にほぼ比例するので、測定されたスクリーン6の光軸近傍部までの距離と上端部までの距離とに基づいて、上下方向における投射画像6pの台形歪率を演算することができる。同様にして、測定されたスクリーン6の光軸近傍部までの距離と横端部までの距離とに基づいて、左右方向における投射画像6pの台形歪率を演算できる。   Since the magnification of the projection image 6p is substantially proportional to the projection distance, the trapezoidal distortion factor of the projection image 6p in the vertical direction is determined based on the measured distance to the vicinity of the optical axis of the screen 6 and the distance to the upper end. It can be calculated. Similarly, the trapezoidal distortion factor of the projected image 6p in the left-right direction can be calculated based on the measured distance to the vicinity of the optical axis of the screen 6 and the distance to the lateral end.

このようにして算出した投射画像6pの台形歪率に基づいて、液晶パネルp上に形成する原画の形状を、該台形歪みをうち消すような形状とすることにより、台形歪みが補正された略矩形の投射画像6pを得ることができる。   Based on the trapezoidal distortion rate of the projection image 6p calculated in this way, the shape of the original image formed on the liquid crystal panel p is set to a shape that eliminates the trapezoidal distortion, thereby correcting the trapezoidal distortion. A rectangular projection image 6p can be obtained.

図2には、スクリーン6の傾きに起因した投射画像の台形歪みを補正するシステムの構成を示している。図2において、11は上記3つの測距センサユニット3〜5のうちスクリーン6の上端部(投射画像の上端周辺)までの距離を測定する上端センサユニット4の出力回路(上端センサ出力回路)、12はスクリーン6の光軸近傍部(投射画像の下端周辺)までの距離を測定する光軸センサユニット3の出力回路(光軸センサ出力回路)、13はスクリーン6の横端部(投射画像の横端周辺)までの距離を測定する横端センサユニット5の出力回路(横端センサ出力回路)である。   FIG. 2 shows the configuration of a system that corrects the trapezoidal distortion of the projected image caused by the tilt of the screen 6. In FIG. 2, 11 is an output circuit (upper sensor output circuit) of the upper sensor unit 4 that measures the distance to the upper edge of the screen 6 (around the upper edge of the projected image) among the three distance measuring sensor units 3 to 5. Reference numeral 12 denotes an output circuit (optical axis sensor output circuit) of the optical axis sensor unit 3 for measuring the distance to the optical axis vicinity portion (periphery of the lower end of the projection image) of the screen 6, and 13 denotes a horizontal end portion (projection image of the projection image). It is an output circuit (lateral end sensor output circuit) of the lateral end sensor unit 5 that measures the distance to the periphery of the lateral end).

14はスクリーン6の上端部までの距離を演算する上端距離演算回路、15はスクリーン6の光軸近傍部までの距離を演算する光軸距離演算回路、16はスクリーン6の横端部までの距離を演算する横端距離演算回路である。   14 is an upper end distance calculating circuit for calculating the distance to the upper end of the screen 6, 15 is an optical axis distance calculating circuit for calculating the distance to the vicinity of the optical axis of the screen 6, and 16 is a distance to the horizontal end of the screen 6. This is a lateral end distance calculation circuit for calculating.

17は上下方向の台形歪みの補正値を演算する上下方向台形歪補正値演算回路、18は左右方向の台形歪みの補正値を演算する左右方向台形歪補正値演算回路である。   Reference numeral 17 denotes a vertical trapezoidal distortion correction value calculation circuit that calculates a vertical trapezoidal distortion correction value, and reference numeral 18 denotes a horizontal trapezoidal distortion correction value calculation circuit that calculates a horizontal trapezoidal distortion correction value.

19は液晶パネルpを駆動する液晶パネル駆動回路、20は投射レンズ2のズーム位置を検出するズーム位置出力回路である。   A liquid crystal panel drive circuit 19 drives the liquid crystal panel p, and a zoom position output circuit 20 detects the zoom position of the projection lens 2.

上端距離演算回路14は、上端センサ出力回路11から出力されたラインセンサ4s上の像ずれ量に基づいてスクリーン6の上端部までの距離を演算し、出力する。同様に、光軸距離演算回路15および横端距離演算回路16はそれぞれ、光軸センサ出力回路12および横端センサ出力回路13から出力されたラインセンサ3s,5s上の像ずれ量に基づいてスクリーン6の光軸近傍部までの距離および横端部までの距離を演算し、出力する。   The upper end distance calculation circuit 14 calculates the distance to the upper end portion of the screen 6 based on the image shift amount on the line sensor 4s output from the upper end sensor output circuit 11, and outputs the calculated distance. Similarly, the optical axis distance calculation circuit 15 and the horizontal end distance calculation circuit 16 are based on the image shift amounts on the line sensors 3s and 5s output from the optical axis sensor output circuit 12 and the horizontal end sensor output circuit 13, respectively. The distance to the vicinity of the optical axis 6 and the distance to the lateral end are calculated and output.

なお、上端部および横端部までの距離を演算する際には、ズーム位置出力回路20から得たズーム位置情報により、ラインセンサ4s,5s上の像ずれ量に補正を加える必要がある。ズーム位置に応じて、ラインセンサ4s,5s上での画像上端および画像横端の位置が変化するためである。これに対し、光軸近傍部においては、ラインセンサ3s上での画像下端は、投射光軸AXLに近いためほとんど変化せず、上記ような補正は必要がない。   When calculating the distance to the upper end and the horizontal end, it is necessary to correct the image shift amount on the line sensors 4s and 5s based on the zoom position information obtained from the zoom position output circuit 20. This is because the positions of the upper end of the image and the horizontal end of the image on the line sensors 4s and 5s change according to the zoom position. On the other hand, in the vicinity of the optical axis, the lower end of the image on the line sensor 3s hardly changes because it is close to the projection optical axis AXL, and the above correction is not necessary.

上下方向台形歪率演算回路17は、上端距離出力回路14および光軸距離出力回路15から出力された2つの距離情報に基づいて上下方向の台形歪率を演算し、さらに該台形歪みを補正するための補正値を出力する。   The vertical trapezoidal distortion calculation circuit 17 calculates the vertical trapezoidal distortion based on the two distance information output from the upper end distance output circuit 14 and the optical axis distance output circuit 15, and further corrects the trapezoidal distortion. The correction value for output is output.

また、左右方向台形歪率演算回路18は、光軸距離出力回路15および横端距離出力回路16から出力された2つの距離情報に基づいて左右方向の台形歪率を演算し、さらに該台形歪みを補正するための補正値を出力する。   Further, the left-right direction trapezoidal distortion calculation circuit 18 calculates a horizontal keystone distortion based on the two distance information output from the optical axis distance output circuit 15 and the lateral end distance output circuit 16, and further, the trapezoid distortion A correction value for correcting the error is output.

なお、上下方向および左右方向の台形歪率を、上記3つの距離のうち上述した組み合わせとは異なる組み合わせから演算することも可能である。   In addition, it is also possible to calculate the trapezoidal distortion in the vertical direction and the horizontal direction from a combination different from the above-described combinations among the above three distances.

これら出力された台形歪補正値は、液晶パネル駆動回路19に入力される。液晶パネル駆動回路19は、該補正値に基づいて、液晶パネルpに形成する原画の形状を上下方向および左右方向について補正する。これにより、各方向の台形歪みが良好に補正された投射画像6pがスクリーン6上に表示される。   These output trapezoidal distortion correction values are input to the liquid crystal panel drive circuit 19. The liquid crystal panel drive circuit 19 corrects the shape of the original image formed on the liquid crystal panel p in the vertical direction and the horizontal direction based on the correction value. Thereby, the projection image 6p in which the trapezoidal distortion in each direction is favorably corrected is displayed on the screen 6.

なお、上記各回路の動作は、制御回路21によって制御される。   The operation of each circuit is controlled by the control circuit 21.

図3には、このような台形歪みの補正処理の流れを簡単に示したフローチャートである。ステップ(図ではSと略す)101において、使用者により台形歪補正スイッチ8が操作されると、制御回路21は、ステップ102において、ズーム位置出力回路20にズーム位置情報を出力させる。次に、ステップ103では、上端距離演算回路14、光軸距離演算回路15および横端距離演算回路16に各ラインセンサからの出力に基づく距離演算を行わせる。   FIG. 3 is a flowchart simply showing the flow of the trapezoidal distortion correction process. In step (abbreviated as S in the figure) 101, when the user operates the trapezoidal distortion correction switch 8, the control circuit 21 causes the zoom position output circuit 20 to output zoom position information in step 102. Next, in step 103, the upper end distance calculation circuit 14, the optical axis distance calculation circuit 15 and the lateral end distance calculation circuit 16 are caused to perform a distance calculation based on the output from each line sensor.

ここで、本実施例では、画像光のスクリーン6での反射光を用いて測距を行うため、スクリーン6の周囲に存在する物体(例えば、室内では家具や照明器具等)によって精度が低下することなく測距を行うことができ、しかも上記3つの距離を同時に測定することができる。したがって、台形歪補正全体を短時間で完了することができる。   Here, in this embodiment, since the distance is measured using the reflected light of the image light on the screen 6, the accuracy is lowered by an object (for example, furniture or lighting equipment in the room) around the screen 6. Ranging can be performed without any problem, and the above three distances can be measured simultaneously. Therefore, the entire trapezoidal distortion correction can be completed in a short time.

そして、ステップ104では、上下方向台形歪率演算回路17および左右方向台形歪率演算回路18に、距離の演算結果に基づく台形歪補正値を演算させる。最後にステップ105では、液晶パネル駆動回路19に、台形歪補正値に基づく原画の形状補正(台形歪補正)を行わせる。   In step 104, the vertical trapezoidal distortion calculation circuit 17 and the horizontal trapezoidal distortion calculation circuit 18 are made to calculate a trapezoidal distortion correction value based on the distance calculation result. Finally, in step 105, the liquid crystal panel drive circuit 19 is caused to perform original image shape correction (trapezoidal distortion correction) based on the trapezoidal distortion correction value.

図4には、投射画像6pの上端を例にして、図1に示したアクテイブ型の三角測距方式による距離の測定方法を説明する図である。図において、2は投射レンズ、pは液晶パネル、4Lは受光レンズ、4sはラインセンサ(上端センサユニット4)である。   FIG. 4 is a diagram for explaining a distance measuring method by the active type triangulation method shown in FIG. 1, taking the upper end of the projected image 6p as an example. In the figure, 2 is a projection lens, p is a liquid crystal panel, 4L is a light receiving lens, and 4s is a line sensor (upper sensor unit 4).

また、6aは投射レンズ2の光軸(投射光軸)AXLに直交するように垂直配置されたときのスクリーン6の位置、6bはスクリーン位置6aに対しθの角度で傾いて配置されたときのスクリーン6の位置を示す。   6a is the position of the screen 6 when it is vertically arranged so as to be orthogonal to the optical axis (projection optical axis) AXL of the projection lens 2, and 6b is when it is arranged at an angle of θ with respect to the screen position 6a. The position of the screen 6 is shown.

さらに、ypは液晶パネルpにおける原画下端の高さ、foは投射レンズ2の焦点距離(ズーミングによって変化する)、s10は投射レンズ2からスクリーン6までの光軸上の距離、S1はθ傾いたスクリーン6上の画像上端の距離、θTはスクリーン6に投射された液晶パネルpにおける原画下端(高さyp)に対する投射画像6pの画角、θT0は受光レンズ4Lの光軸の方向を、投射レンズ2の光軸AXLを基準として表した角度、dは投射レンズ2の光軸AXLを基準とした受光レンズ4Lまでの距離である。   Furthermore, yp is the height of the lower end of the original image on the liquid crystal panel p, fo is the focal length of the projection lens 2 (which varies depending on zooming), s10 is the distance on the optical axis from the projection lens 2 to the screen 6, and S1 is tilted by θ. The distance of the upper end of the image on the screen 6, θT is the angle of view of the projected image 6p with respect to the lower end (height yp) of the original image on the liquid crystal panel p projected onto the screen 6, and θT0 is the direction of the optical axis of the light receiving lens 4L. An angle expressed with reference to the optical axis AXL of 2 and d is a distance to the light receiving lens 4L with reference to the optical axis AXL of the projection lens 2.

ここで、θTは投射レンズ2の焦点距離foと液晶パネルpの原画下端の高さypとから決まる角度であり、投射レンズ2がズームレンズの場合、ズーミングによって変化する。使用頻度の高い投射レンズ2の広角端で正確な投射距離が測定されるように、θT0は投射レンズ2の広角端の画角θTに合わせるのがよい。   Here, θT is an angle determined from the focal length fo of the projection lens 2 and the height yp of the lower end of the original image of the liquid crystal panel p. When the projection lens 2 is a zoom lens, it changes due to zooming. The angle θT0 is preferably adjusted to the angle of view θT at the wide-angle end of the projection lens 2 so that an accurate projection distance is measured at the wide-angle end of the frequently used projection lens 2.

図中、fAFは受光レンズ4Lの焦点距離、s1aは受光レンズ4Lの光軸方向において受光レンズ4Lからスクリーン位置6a上の投射画像までの距離、S1bは受光レンズ4Lの光軸方向において受光レンズ4Lから傾いたスクリーン位置6b上の投射画像までの距離である。   In the figure, fAF is the focal length of the light receiving lens 4L, s1a is the distance from the light receiving lens 4L to the projected image on the screen position 6a in the optical axis direction of the light receiving lens 4L, and S1b is the light receiving lens 4L in the optical axis direction of the light receiving lens 4L. To the projected image on the tilted screen position 6b.

図4は、θT0が投射画像の画角θTに一致している場合を表現している。また、図4では、投射レンズ2から画角θTで投射される画像が投光系を、受光センサユニット4が受光系を形成し、基線長がd×cosθTであるアクテイブ型の三角測距光学系を構成している。   FIG. 4 represents a case where θT0 matches the angle of view θT of the projected image. Also, in FIG. 4, an active type triangular ranging optical system in which an image projected from the projection lens 2 at an angle of view θT forms a light projecting system, a light receiving sensor unit 4 forms a light receiving system, and a base line length is d × cos θT. The system is configured.

図中のスクリーン位置6a,6bに対応するラインセンサ4s上の像ずれ量ysa,ysbは、次式のように発生する。なお、像ずれ量の像基準位置は受光レンズ4Lの光軸上の位置である。   Image shift amounts ysa and ysb on the line sensor 4s corresponding to the screen positions 6a and 6b in the figure are generated as follows. Note that the image reference position of the image shift amount is a position on the optical axis of the light receiving lens 4L.

ysa=(d×cosθT)×fAF/S1a
ysb=(d×cosθT)×fAF/S1b
同様に、受光センサユニット3,5のラインセンサ3s、5s上に像ずれ量が発生する。したがって、逆にラインセンサ上の像ずれ量ysa,ysbを検出すれば、各スクリーン位置までの投射画像の上端(つまりは、投射画像の上端を含むスクリーン6の上端部)までの距離S1a,S1bが求められる。
ysa = (d × cos θT) × fAF / S1a
ysb = (d × cos θT) × fAF / S1b
Similarly, an image shift amount is generated on the line sensors 3s and 5s of the light receiving sensor units 3 and 5. Therefore, conversely, if the image displacement amounts ysa and ysb on the line sensor are detected, the distances S1a and S1b to the upper end of the projected image up to each screen position (that is, the upper end portion of the screen 6 including the upper end of the projected image). Is required.

なお、画角θT方向の距離S1a,S1bから投射レンズ2の光軸方向の距離S10,S1および投射像の高さyLa,yLbは次式で換算される。   Note that the distances S10 and S1 in the optical axis direction of the projection lens 2 and the heights yLa and yLb of the projection image 2 are converted from the distances S1a and S1b in the field angle θT direction by the following equations.

S10=S1a×cosθT+d×cosθT×sinθT
yLa=S1a×tanθT
S1 =S1b×cosθT+d×cosθT×sinθT
yLb=S1b×tanθT
同様にして、投射画像の横端(スクリーン6の横端部)までの距離および投射画像の高さが求められる。図1および図43に示した構成では、プロジェクタを基準として常に投射画像(つまりはスクリーン6)における複数の位置までの距離を求められる。
S10 = S1a × cos θT + d × cos θT × sin θT
yLa = S1a × tan θT
S1 = S1b × cos θT + d × cos θT × sin θT
yLb = S1b × tan θT
Similarly, the distance to the horizontal end of the projection image (the horizontal end of the screen 6) and the height of the projection image are obtained. In the configuration shown in FIGS. 1 and 43, the distance to a plurality of positions in the projected image (that is, the screen 6) can always be obtained with the projector as a reference.

画像上端および投射光軸上(画像下端)の距離S1、S10が求められれば、投射画像の拡大率は投射距離にほぼ比例するので、次式により画像上下方向の台形歪率Kcが求められる。   If the distances S1 and S10 on the upper end of the image and on the projection optical axis (lower end of the image) are obtained, the enlargement ratio of the projected image is almost proportional to the projection distance, and thus the trapezoidal distortion factor Kc in the vertical direction of the image is obtained by the following equation.

Kc(%)=(S1/S10−1)×100
上記のように投射画像上の複数位置までの距離が求められれば、スクリーン6が垂直配置(6a)でプロジェクタが傾いている場合、プロジェクタが水平配置でスクリーン6が傾いている場合、スクリーン6とプロジェクタの双方が傾いている場合のいずれの場合でも、常にプロジェクタから投射された画像の台形歪率が求められる。また、プロジェクタをスクリーン6の斜め前に置いて横方向から画像を投射する場合にも対応できる。
Kc (%) = (S1 / S10-1) × 100
If distances to a plurality of positions on the projected image are obtained as described above, when the screen 6 is in a vertical arrangement (6a) and the projector is inclined, when the projector is in a horizontal arrangement and the screen 6 is inclined, In any case where both projectors are tilted, the trapezoidal distortion rate of the image projected from the projector is always obtained. Further, it is possible to cope with a case where an image is projected from the horizontal direction with the projector placed obliquely in front of the screen 6.

投射レンズ2をアクテイブ型の三角測距方式の投光系に使用することによって、無駄なスペースを取ることなく、受光系との基線長を大きく取ることができるので、高精度の測距が可能となる。その結果、台形歪率を精度よく演算でき、実用的に十分な台形歪補正が行えることになる。   By using the projection lens 2 in the active type triangulation projection system, the base line length with the light receiving system can be increased without taking up unnecessary space, enabling high-precision ranging. It becomes. As a result, the trapezoidal distortion rate can be accurately calculated, and a practically sufficient trapezoidal distortion correction can be performed.

ここで、例として、スクリーン6の傾き角検知および台形歪補正の程度を示す。まず、投射レンズおよび受光レンズを次のように想定する。   Here, as an example, the degree of tilt angle detection and trapezoidal distortion correction of the screen 6 is shown. First, the projection lens and the light receiving lens are assumed as follows.

投射レンズ:焦点距離(fo) 37−48mm(1.3倍ズーム)
フォーカスレンズの焦点距離 −66mm(投射側に位置する)
液晶パネルの上下方向サイズ(yp) 13.824mm
投射画像下端は投射光軸位置の近傍
投射距離(s10) 1.6−6m
受光レンズ:焦点距離(fAF) 10.7mm、
光軸方向の角度(θT0) −20.93度
投射レンズの光軸と受光レンズ間の距離(d) 50mm、
三角測距系としての基線長(d×cosθT0) 46.7mm。
Projection lens: Focal length (fo) 37-48mm (1.3x zoom)
Focal length of focus lens -66mm (located on projection side)
Vertical size of liquid crystal panel (yp) 13.824mm
The bottom of the projected image is near the projected optical axis position
Projection distance (s10) 1.6-6m
Light receiving lens: focal length (fAF) 10.7 mm,
Angle in the optical axis direction (θT0) -20.93 degrees Distance (d) between the optical axis of the projection lens and the light receiving lens 50 mm,
Baseline length (d × cos θT0) 46.7 mm as a triangulation system.

ここでは、投射レンズ2はズームレンズとする。また、投射レンズ2内のフォーカスレンズは、スクリーン6側(投射側)に配置され、ズーミングに関係なく繰り出し量が一定のレンズとする。   Here, the projection lens 2 is a zoom lens. Further, the focus lens in the projection lens 2 is disposed on the screen 6 side (projection side), and is a lens having a constant feeding amount regardless of zooming.

測距センサユニット4の光軸方向の角度θT0を、投射距離2.8m、広角端(投射レンズ2の焦点距離37mm)のときの投射画像端の画角θTに合わせている。したがってフォーカシングおよびズーミングにより投射画像上端の画角が変化すると、像ずれ量に画角差による誤差がプラスされる。測距値およびズーム位置により像ずれの誤差量は計算できるので、出力された像ずれ量から上記誤差量を差し引く補正を行い、補正後の像ずれ量からプロジェクタと投射画像上端(スクリーン上端部)間の距離を求める必要がある。ここでは、次の量を補正値として差し引くものとする。   The angle θT0 in the optical axis direction of the distance measuring sensor unit 4 is set to the angle of view θT at the projection image end when the projection distance is 2.8 m and the wide angle end (focal length 37 mm of the projection lens 2). Therefore, when the angle of view at the upper end of the projected image changes due to focusing and zooming, an error due to the angle of view difference is added to the image shift amount. Since the image shift error amount can be calculated from the distance measurement value and the zoom position, correction is performed by subtracting the error amount from the output image shift amount, and the projector and the projected image upper end (upper end of the screen) are calculated from the corrected image shift amount. It is necessary to find the distance between them. Here, the following amount is subtracted as a correction value.

すなわち、補正後の像ずれ量をysca,yscbとすると、該像ずれ量は次のように表される。   In other words, when the corrected image shift amounts are ysca and yscb, the image shift amounts are expressed as follows.

ysac=ysa−fAF×tan(θT−θT0)
ysbc=ysb−fAF×tan(θT−θT0)。
ysac = ysa−fAF × tan (θT−θT0)
ysbc = ysb−fAF × tan (θT−θT0).

上記のように計算した数値を以下の表1に示す。ここで示した距離は1.6m、2,8m、4m、6mで投射レンズの広角端で40インチ、70インチ、100インチ、150インチ投射に相当する。なお、1インチは25.4mmを意味する。W,Tは投射レンズの広角端(焦点距離37mm)、望遠端(焦点距離48mm)を意味する。ここでスクリーンの傾き角は20度として各数値を計算している。   The numerical values calculated as described above are shown in Table 1 below. The distances shown here are 1.6 m, 2, 8 m, 4 m, and 6 m, and correspond to 40 inch, 70 inch, 100 inch, and 150 inch projections at the wide angle end of the projection lens. One inch means 25.4 mm. W and T mean the wide-angle end (focal length 37 mm) and the telephoto end (focal length 48 mm) of the projection lens. Here, each numerical value is calculated assuming that the inclination angle of the screen is 20 degrees.

画像上端までの距離S1、光軸近傍(下端)までの距離S10により台形歪率Kcが求められる。最後の数値は、測定精度を確認するため、画像上下端までの距離からスクリーンの傾き角(θcと表す)を求めたものである。なお、スクリーン6の傾き角を求めるときは、投射画角θTから求めた像高さyLbを使用する。望遠端側で1度程度のずれが生じるが、歪補正を行うには実用的に許容できる誤差である。   The trapezoidal distortion Kc is obtained from the distance S1 to the upper end of the image and the distance S10 to the vicinity of the optical axis (lower end). The last numerical value is obtained by obtaining the screen tilt angle (represented as θc) from the distance to the upper and lower ends of the image in order to confirm the measurement accuracy. When obtaining the tilt angle of the screen 6, the image height yLb obtained from the projection angle of view θT is used. Although a shift of about 1 degree occurs on the telephoto end side, this is an error that is practically acceptable for performing distortion correction.

Figure 2005354232
上記と同様の要領で、左右方向の台形歪率も演算することができる。
Figure 2005354232
In the same manner as described above, the trapezoidal distortion rate in the left-right direction can also be calculated.

本実施例においては、投射画像端の3箇所に対して測距を行っているので、これらのうち少なくとも一箇所に対する測距結果に基づいて投射レンズのフォーカシングレンズの駆動を制御することにより、投射レンズの自動焦点調節も行える。すなわち、台形歪補正用の測距センサを、オートフォース用の測距センサとしても兼用でき、プロジェクタに搭載する部品点数を減らすことができる。   In this embodiment, since distance measurement is performed at three positions on the projected image end, projection is controlled by controlling the driving of the focusing lens of the projection lens based on the distance measurement result for at least one of these positions. The lens can also be automatically focused. That is, the trapezoidal distortion correcting distance measuring sensor can also be used as an auto force ranging sensor, and the number of components mounted on the projector can be reduced.

具体的には、使用者がプロジェクタ本体1に設けられたオートフォーカススイッチ9を操作することに応じて、制御回路21が、測距結果に基づいて投射レンズ2内のフォーカスレンズの合焦位置を算出し、該合焦位置にフォーカスレンズを駆動する。   Specifically, in response to the user operating the autofocus switch 9 provided in the projector body 1, the control circuit 21 determines the focus lens focus position in the projection lens 2 based on the distance measurement result. Calculate and drive the focus lens to the in-focus position.

ここで、表1からわかるように、投射レンズのフォーカシングにより投射画角θTが変化するので、自動焦点調節を行った後に再度投射画像端の測距をやり直し、スクリーンの傾き角を求め直す又は自動焦点調節の後にはじめて台形歪補正を行うことにより、さらに正確な台形歪補正が行える。   Here, as can be seen from Table 1, since the projection angle of view θT changes due to the focusing of the projection lens, after the automatic focus adjustment, the distance of the projected image edge is measured again, and the screen tilt angle is obtained again or automatically. By performing the trapezoidal distortion correction only after the focus adjustment, a more accurate trapezoidal distortion correction can be performed.

上記実施例では、投射画像端を含む検出領域を用いて測距する場合について説明したが、測距に適した画像パターンを複数の画像端近傍に含む画像をスクリーンに投射し、それら複数の画像パターンを用いて測距を行ってもよい。このような画像パターンを含む画像を投射する場合、フォーカシングやズーミングにかかわらず、画像パターンの投射画角(つまりはスクリーン上における画像パターンの位置)が変化しないように、図2に示す制御回路21又は液晶パネル駆動回路19が、液晶パネルの原画の位置を電気的にコントロールするとよい。このような投射画角不変のパターン投射を行う場合、ラインセンサ上の像ずれ量が変化しないので、フォーカシングおよびズーミングによる補正をかけずに求められた複数箇所に対する測距値に基づいて、投射画像の台形歪率を演算することができる。   In the above-described embodiment, the case where distance measurement is performed using a detection region including the projected image edge has been described. However, an image including an image pattern suitable for distance measurement in the vicinity of a plurality of image edges is projected onto a screen, and the plurality of images Ranging may be performed using a pattern. When projecting an image including such an image pattern, the control circuit 21 shown in FIG. 2 prevents the projection angle of view of the image pattern (that is, the position of the image pattern on the screen) from changing regardless of focusing or zooming. Alternatively, the liquid crystal panel drive circuit 19 may electrically control the position of the original image on the liquid crystal panel. When performing such projection with invariable projection angle of view, the amount of image shift on the line sensor does not change, so the projected image is based on distance measurement values for multiple locations obtained without correction by focusing and zooming. Can be calculated.

以上説明したように、本実施例によれば、投射画像を利用した光学的測距結果に基づいて台形歪率を求めるので、スクリーン自体の傾きを考慮した台形歪補正を行うことができる。しかも、上下方向だけでなく、左右方向へのスクリーンの傾きにより生じる台形歪補正も行うことができる。  As described above, according to the present embodiment, since the trapezoidal distortion rate is obtained based on the optical distance measurement result using the projection image, the keystone distortion correction considering the inclination of the screen itself can be performed. Moreover, it is possible to correct trapezoidal distortion caused by the tilt of the screen not only in the vertical direction but also in the horizontal direction.

本発明の実施例であるプロジェクタの構成を示す図。1 is a diagram illustrating a configuration of a projector that is an embodiment of the present invention. FIG. 実施例のプロジェクタにおける電気回路構成を示す図。FIG. 3 is a diagram illustrating an electric circuit configuration in the projector according to the embodiment. 実施例のプロジェクタにおける台形歪補正動作を示すフローチャート。6 is a flowchart illustrating a trapezoidal distortion correction operation in the projector according to the embodiment. 実施例のプロジェクタによる測距方法を説明する図。FIG. 5 is a diagram illustrating a distance measuring method by the projector according to the embodiment. 三角測距方法を説明する図。The figure explaining a triangulation method.

符号の説明Explanation of symbols

1 プロジェクタ
2 投射レンズ
3,4,5 測距センサユニット
3L,4L,5L 受光レンズ
3s、4s、5s ラインセンサ
6 スクリーン
6p 投射画像
DESCRIPTION OF SYMBOLS 1 Projector 2 Projection lens 3, 4, 5 Distance sensor unit 3L, 4L, 5L Photosensitive lens 3s, 4s, 5s Line sensor 6 Screen 6p Projection image

Claims (10)

投射面に対して画像光を投射する投射レンズと、
前記画像光の前記投射面での反射光を用いて該画像投射装置から前記投射面における複数位置までの距離を測定する複数の測距手段と、
該複数の測距手段により測定された距離に基づいて、投射画像の歪みを補正する補正手段とを有することを特徴とする画像投射装置。
A projection lens that projects image light onto the projection surface;
A plurality of distance measuring means for measuring the distance from the image projection device to a plurality of positions on the projection surface using the reflected light of the image light on the projection surface;
An image projecting apparatus comprising: a correcting unit that corrects distortion of a projected image based on the distances measured by the plurality of ranging units.
前記複数の測距手段は、前記投射画像のうち第1の領域からの前記反射光を用いる第1の測距手段と、前記第1の領域に対して第1の方向に離れた第2の領域からの前記反射光を用いる第2の測距手段と、前記第1の領域に対して前記第1の方向に直交する第2の方向に離れた第3の領域からの前記反射光を用いる第3の測距手段とを少なくとも含むことを特徴とする請求項1に記載の画像投射装置。   The plurality of distance measuring means includes a first distance measuring means that uses the reflected light from the first area in the projection image, and a second distance that is separated from the first area in a first direction. A second distance measuring unit that uses the reflected light from a region; and the reflected light from a third region that is separated from the first region in a second direction orthogonal to the first direction. The image projection apparatus according to claim 1, further comprising at least a third distance measuring unit. 前記補正手段は、
前記第1および第2の測距手段により検出された距離に基づいて、前記第1の方向における前記投射画像の歪みを補正し、
前記第1および第3の測距手段により検出された距離に基づいて、前記第2の方向における前記投射画像の歪みを補正することを特徴とする請求項2に記載の画像投射装置。
The correction means includes
Correcting distortion of the projected image in the first direction based on the distance detected by the first and second ranging means;
The image projection apparatus according to claim 2, wherein distortion of the projection image in the second direction is corrected based on the distances detected by the first and third ranging means.
前記第1の領域は、前記第1から第3の領域のうち前記投射画像における光軸位置に最も近い領域であることを特徴とする請求項2又は3に記載の画像投射装置。   4. The image projection apparatus according to claim 2, wherein the first area is an area closest to an optical axis position in the projection image among the first to third areas. 5. 前記投射レンズのズーム状態を検出する検出手段を有し、
前記補正手段は、該検出手段により検出されたズーム状態に基づいて、前記測距手段により測定された距離を補正することを特徴とする請求項1から4のいずれか1つに記載の画像投射装置。
Detecting means for detecting a zoom state of the projection lens;
5. The image projection according to claim 1, wherein the correction unit corrects the distance measured by the distance measuring unit based on the zoom state detected by the detection unit. apparatus.
前記測距手段は、前記投射面上における前記投射画像の端部を含む領域からの前記反射光を用いて前記距離を測定することを特徴とする請求項1から5のいずれか1つに記載の画像投射装置。   6. The distance measuring unit according to claim 1, wherein the distance measuring unit measures the distance using the reflected light from a region including an end of the projection image on the projection surface. Image projection device. 前記測距手段は、所定パターンを有する前記投射画像のうち前記所定パターンを含む領域からの前記反射光を用いて前記距離を測定することを特徴とする請求項1から5のいずれか1つに記載の画像投射装置。   6. The distance measuring unit according to claim 1, wherein the distance measuring unit measures the distance using the reflected light from a region including the predetermined pattern in the projection image having the predetermined pattern. The image projection apparatus described. 前記投射レンズのズーム状態を検出する検出手段と、
該検出手段により検出されたズーム状態に基づいて、前記投射レンズのズーム動作にかかわらず前記所定パターンの位置を不動とする制御を行う第1の制御手段とを有することを特徴とする請求項7に記載の画像投射装置。
Detecting means for detecting a zoom state of the projection lens;
8. The apparatus according to claim 7, further comprising: a first control unit configured to perform control so that the position of the predetermined pattern does not move regardless of a zoom operation of the projection lens based on a zoom state detected by the detection unit. The image projection apparatus described in 1.
前記複数の測距手段のうち少なくとも1つの測距手段により測定された距離に基づいて、前記投射レンズのフォーカス制御を行う第2の制御手段を有することを特徴とする請求項1から8のいずれか1つに記載の画像投射装置。   9. The apparatus according to claim 1, further comprising a second control unit that performs focus control of the projection lens based on a distance measured by at least one of the plurality of ranging units. The image projection apparatus as described in any one. 請求項1から9のいずれか1つに記載の画像投射装置と、
該画像投射装置に、画像を投射させるための画像情報を供給する画像情報供給装置とを有することを特徴とする画像表示システム。
An image projection device according to any one of claims 1 to 9,
An image display system comprising: an image information supply device that supplies image information for projecting an image to the image projection device.
JP2004170454A 2004-06-08 2004-06-08 Image projection device Expired - Fee Related JP4803972B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004170454A JP4803972B2 (en) 2004-06-08 2004-06-08 Image projection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004170454A JP4803972B2 (en) 2004-06-08 2004-06-08 Image projection device

Publications (3)

Publication Number Publication Date
JP2005354232A true JP2005354232A (en) 2005-12-22
JP2005354232A5 JP2005354232A5 (en) 2010-05-06
JP4803972B2 JP4803972B2 (en) 2011-10-26

Family

ID=35588336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004170454A Expired - Fee Related JP4803972B2 (en) 2004-06-08 2004-06-08 Image projection device

Country Status (1)

Country Link
JP (1) JP4803972B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193203A (en) * 2006-01-20 2007-08-02 Casio Comput Co Ltd Projection apparatus, distance measurement elevation angle control method and program for projection apparatus
JP2008205814A (en) * 2007-02-20 2008-09-04 Seiko Epson Corp Projector and image correction method of the projector
US10284831B2 (en) 2015-03-19 2019-05-07 Megachips Corporation Projection system, projector apparatus, image capturing apparatus, and projection method
JP2021076719A (en) * 2019-11-08 2021-05-20 シャープ福山セミコンダクター株式会社 Projector device, method for controlling projector device, program and recording medium
WO2022113817A1 (en) * 2020-11-25 2022-06-02 パナソニックIpマネジメント株式会社 Projection device
CN115086622A (en) * 2021-03-12 2022-09-20 中强光电股份有限公司 Projector and correction method thereof
JP7474968B2 (en) 2020-11-25 2024-04-26 パナソニックIpマネジメント株式会社 Projection equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089309A (en) * 1994-06-23 1996-01-12 Canon Inc Display method and its device
JP2000081601A (en) * 1998-06-26 2000-03-21 Matsushita Electric Ind Co Ltd Projector
JP2003348499A (en) * 2002-05-27 2003-12-05 Canon Inc Projection type image display apparatus
JP2004088169A (en) * 2002-08-22 2004-03-18 Nisca Corp Image display
JP2004125770A (en) * 2002-08-08 2004-04-22 Seiko Precision Inc Apparatus for detecting angle and projector comprising the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089309A (en) * 1994-06-23 1996-01-12 Canon Inc Display method and its device
JP2000081601A (en) * 1998-06-26 2000-03-21 Matsushita Electric Ind Co Ltd Projector
JP2003348499A (en) * 2002-05-27 2003-12-05 Canon Inc Projection type image display apparatus
JP2004125770A (en) * 2002-08-08 2004-04-22 Seiko Precision Inc Apparatus for detecting angle and projector comprising the same
JP2004088169A (en) * 2002-08-22 2004-03-18 Nisca Corp Image display

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193203A (en) * 2006-01-20 2007-08-02 Casio Comput Co Ltd Projection apparatus, distance measurement elevation angle control method and program for projection apparatus
JP4702072B2 (en) * 2006-01-20 2011-06-15 カシオ計算機株式会社 Projection device, distance measurement elevation angle control method and program for projection device
JP2008205814A (en) * 2007-02-20 2008-09-04 Seiko Epson Corp Projector and image correction method of the projector
US10284831B2 (en) 2015-03-19 2019-05-07 Megachips Corporation Projection system, projector apparatus, image capturing apparatus, and projection method
JP2021076719A (en) * 2019-11-08 2021-05-20 シャープ福山セミコンダクター株式会社 Projector device, method for controlling projector device, program and recording medium
WO2022113817A1 (en) * 2020-11-25 2022-06-02 パナソニックIpマネジメント株式会社 Projection device
JP7474968B2 (en) 2020-11-25 2024-04-26 パナソニックIpマネジメント株式会社 Projection equipment
CN115086622A (en) * 2021-03-12 2022-09-20 中强光电股份有限公司 Projector and correction method thereof

Also Published As

Publication number Publication date
JP4803972B2 (en) 2011-10-26

Similar Documents

Publication Publication Date Title
JP4702072B2 (en) Projection device, distance measurement elevation angle control method and program for projection device
US20050270496A1 (en) Projector with a device for measuring angle of inclination
US20050195375A1 (en) Projection type display apparatus
JP3996610B2 (en) Projector apparatus and image distortion correction method thereof
JP2007006115A (en) Projector with distortion correcting means
JP2007093245A (en) Distance measuring apparatus and distance measuring method
JP2008033136A (en) Projector and projection image adjusting method
US20060139582A1 (en) Projection display apparatus and focus adjustment method for the same
JP4803972B2 (en) Image projection device
JP5192669B2 (en) Projector, position adjusting device, and position adjusting method
JP3926311B2 (en) Projector having tilt angle measuring device
JP2005331585A (en) Projector having device for measuring distance and tilt angle
JP4689948B2 (en) projector
JP5473543B2 (en) Image display device
JP2008203491A (en) Projector
JP2006145613A (en) Projector
JP4098194B2 (en) Angle detection device and projector equipped with the same
JP2004363856A (en) Projection type display device
JP4074527B2 (en) Angle detection device and projector equipped with the same
JP2005070412A (en) Image projector and its focus adjustment method
JP5150986B2 (en) projector
JP3709406B2 (en) Projector having automatic trapezoidal distortion correction means
JP2007019654A (en) Projector
JP2007219497A (en) Projector equipped with focusing device for entire inclined screen surface
JP2005024618A (en) Projector having tilt angle measuring instrument

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070607

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20081023

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20081201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110809

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees