JP2010072421A - Projector - Google Patents

Projector Download PDF

Info

Publication number
JP2010072421A
JP2010072421A JP2008240703A JP2008240703A JP2010072421A JP 2010072421 A JP2010072421 A JP 2010072421A JP 2008240703 A JP2008240703 A JP 2008240703A JP 2008240703 A JP2008240703 A JP 2008240703A JP 2010072421 A JP2010072421 A JP 2010072421A
Authority
JP
Japan
Prior art keywords
projector
screen
projection
imaging
optical axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008240703A
Other languages
Japanese (ja)
Other versions
JP5309827B2 (en
Inventor
Eiji Kaneko
英司 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008240703A priority Critical patent/JP5309827B2/en
Publication of JP2010072421A publication Critical patent/JP2010072421A/en
Application granted granted Critical
Publication of JP5309827B2 publication Critical patent/JP5309827B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide technology for extending a range of installing a projector which performs video adjustment based on a captured image. <P>SOLUTION: The projector 10 includes: a color separation and synthesis optical system 20 which generates projection light RP; a projection lens unit 30 which projects the projection light RP to a screen 80; imaging sensors 182 and 184 which are provided respectively across an optical axis AP of the projection light RP to image the screen 80; and a video adjusting part 114 which adjusts a video image projected to the screen 80 on the basis of the image captured by the imaging sensors 182 and 184. The imaging sensors 182 and 184 incline with respect to the optical axis AP of the projection light RP. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、映像をスクリーンに投影するプロジェクタ(投影装置)に関する。   The present invention relates to a projector (projection device) that projects an image on a screen.

プロジェクタでは、スクリーンに投影される映像を調整するために、台形歪補正,焦点(フォーカス)調整,拡縮(ズーム)調整などの映像調整処理が実施される。従来、スクリーンを撮像する撮像センサを、投影光をスクリーンへ投射する投射レンズユニットの隣に並べて設け、撮像センサによって撮像された撮像画像に基づいてスクリーンに投影される映像を調整するプロジェクタが知られている(特許文献1)。   In the projector, image adjustment processing such as trapezoidal distortion correction, focus adjustment, and enlargement / reduction (zoom) adjustment is performed to adjust the image projected on the screen. 2. Description of the Related Art Conventionally, there has been known a projector in which an imaging sensor that images a screen is arranged next to a projection lens unit that projects projection light onto the screen, and an image projected on the screen is adjusted based on a captured image captured by the imaging sensor. (Patent Document 1).

特許第3880582号公報Japanese Patent No. 3880582

しかしながら、従来の技術では、プロジェクタとスクリーンとが近接する状況では、撮像センサで撮影可能なスクリーン上の撮像領域が狭まり、映像調整処理に用いるための撮像画像を十分に得ることができない場合があるという問題があった。   However, in the conventional technology, in a situation where the projector and the screen are close to each other, the imaging area on the screen that can be photographed by the imaging sensor is narrowed, and a captured image for use in video adjustment processing may not be sufficiently obtained. There was a problem.

本発明は、上記した課題を踏まえ、撮像画像に基づく映像調整処理を実施可能なプロジェクタの設置範囲を拡張することができる技術を提供することを目的とする。   In view of the above-described problems, an object of the present invention is to provide a technique capable of extending the installation range of a projector capable of performing video adjustment processing based on a captured image.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1] 適用例1のプロジェクタは、映像をスクリーンに投影するプロジェクタであって、前記映像を表現する投影光を生成する投影光学系と、前記投影光学系で生成された投射光を前記スクリーンへと投射する複数のレンズが配列された投射レンズユニットと、当該プロジェクタから前記スクリーンに向かう投影光の光軸である投影光軸を挟む位置にそれぞれ設けられ、前記スクリーンを撮像する第1および第2の撮像センサと、前記第1および第2の撮像センサによって撮影された撮像画像に基づいて、前記スクリーンに投影される映像を調整する投影調整部とを備え、前記第1および第2の撮像センサのうち少なくとも一方の光軸は、前記投影光軸へ傾向することを特徴とする。適用例1のプロジェクタによれば、撮像センサによる撮像領域を、投影光軸へと傾向した方向に拡張することができる。その結果、撮像画像に基づく映像調整処理を実施可能なプロジェクタの設置範囲を拡張することができる。   Application Example 1 A projector according to Application Example 1 is a projector that projects an image on a screen, the projection optical system that generates projection light that represents the image, and the projection light that is generated by the projection optical system. A projection lens unit in which a plurality of lenses for projecting onto the screen are arranged, and a first and a first image capturing the screen, each provided at a position sandwiching a projection optical axis that is an optical axis of projection light from the projector toward the screen. A second imaging sensor; and a projection adjustment unit that adjusts an image projected on the screen based on captured images captured by the first and second imaging sensors, the first and second The optical axis of at least one of the imaging sensors tends to the projection optical axis. According to the projector of Application Example 1, the imaging region of the imaging sensor can be expanded in a direction that tends to the projection optical axis. As a result, it is possible to extend the installation range of the projector that can perform the video adjustment process based on the captured image.

[適用例2] 適用例1のプロジェクタにおいて、前記第1および第2の撮像センサにおける光軸のうち前記投影光軸へ傾向する光軸は、前記スクリーンよりも手前で前記投影光軸と交差するとしても良い。適用例2のプロジェクタによれば、撮像センサによる撮像領域を、投影光軸へと傾向した方向に更に拡張することができる。   Application Example 2 In the projector according to Application Example 1, the optical axis that tends to the projection optical axis among the optical axes in the first and second imaging sensors intersects the projection optical axis before the screen. It is also good. According to the projector of the application example 2, the imaging region by the imaging sensor can be further expanded in a direction that tends to the projection optical axis.

[適用例3] 適用例1または適用例2のプロジェクタにおいて、前記第1および第2の撮像センサが前記スクリーンを撮影可能な各々の撮像領域は、少なくとも一部で重なり合うとしても良い。適用例3のプロジェクタによれば、撮像領域が重なった重複領域において撮像精度を向上させることができる。   Application Example 3 In the projector according to Application Example 1 or Application Example 2, each imaging region in which the first and second imaging sensors can capture the screen may overlap at least partially. According to the projector of Application Example 3, it is possible to improve the imaging accuracy in the overlapping area where the imaging areas overlap.

[適用例4] 適用例1または適用例2のプロジェクタにおいて、前記第1および第2の撮像センサが前記スクリーンを撮影可能な各々の撮像領域は、互いに離間するとしても良い。適用例4のプロジェクタによれば、撮像領域を更に幅広く拡張することができる。   Application Example 4 In the projector according to Application Example 1 or Application Example 2, the imaging regions in which the first and second imaging sensors can capture the screen may be separated from each other. According to the projector of the application example 4, the imaging area can be further expanded.

[適用例5] 適用例1または適用例2のプロジェクタにおいて、プロジェクタは、更に、前記第1および第2の撮像センサのうち少なくとも一方の光軸が前記投影光軸へ傾向する角度を変更する角度変更部を備えても良い。適用例5のプロジェクタによれば、撮像画像に基づく映像調整処理の内容に応じて撮像センサによる撮像領域を拡縮することができる。   Application Example 5 In the projector according to Application Example 1 or Application Example 2, the projector further changes an angle at which at least one of the first and second imaging sensors tends to the projection optical axis. A change unit may be provided. According to the projector of Application Example 5, the imaging region by the imaging sensor can be enlarged or reduced according to the content of the video adjustment process based on the captured image.

[適用例6] 適用例1ないし適用例5のいずれかのプロジェクタにおいて、プロジェクタは、更に、前記投影光学系および前記投射レンズユニットの少なくとも一部を収容する本体筐体であって、前記スクリーンに背を向ける後端部を有する本体筐体を備え、前記第1および第2の撮像センサは、前記本体筐体において前記投射レンズユニットよりも前記後端部に近い位置に設けられたとしても良い。適用例6のプロジェクタによれば、撮像センサをスクリーンからより離れた位置に設けることができるため、撮像センサによる撮像領域を更に拡張することができる。   Application Example 6 In the projector according to any one of Application Examples 1 to 5, the projector further includes a main body housing that accommodates at least a part of the projection optical system and the projection lens unit. A main body housing having a rear end portion facing back may be provided, and the first and second imaging sensors may be provided in a position closer to the rear end portion than the projection lens unit in the main body housing. . According to the projector of Application Example 6, since the imaging sensor can be provided at a position further away from the screen, the imaging area of the imaging sensor can be further expanded.

[適用例7] 適用例6のプロジェクタにおいて、前記撮像センサは、前記本体筐体の外表面を構成する複数の面の一つに設けられ、該面における端縁部のうち前記後端部により近い端縁部に沿って位置するとしても良い。適用例7のプロジェクタによれば、撮像センサをよりスクリーンから離れた位置に設けることができる。   Application Example 7 In the projector according to Application Example 6, the imaging sensor is provided on one of a plurality of surfaces constituting the outer surface of the main body housing, and the rear end portion among the edge portions on the surface is provided. It may be located along the near edge. According to the projector of Application Example 7, the imaging sensor can be provided at a position further away from the screen.

[適用例8] 適用例6または適用例7のいずれかのプロジェクタにおいて、前記撮像センサは、前記本体筐体の外表面を構成する複数の面の一つであって、前記スクリーンへと投影光を放出する放出口が設けられた面に設けられたとしても良い。適用例8のプロジェクタによれば、放出口が設けられた面はスクリーンに対向するため、スクリーンに撮像領域を合わせ易い位置に撮像センサを設けることができる。   Application Example 8 In the projector according to Application Example 6 or Application Example 7, the imaging sensor is one of a plurality of surfaces constituting the outer surface of the main body housing, and is projected onto the screen. It may be provided on a surface provided with a discharge port for discharging the. According to the projector of Application Example 8, since the surface on which the discharge port is provided faces the screen, the imaging sensor can be provided at a position where the imaging area can be easily aligned with the screen.

[適用例9] 適用例6または適用例7のいずれかのプロジェクタにおいて、前記撮像センサは、前記本体筐体の外表面を構成する複数の面の一つであって、前記スクリーンへと投影光を放出する放出口が設けられた面とは異なる外表面に設けられたとしても良い。適用例9のプロジェクタによれば、放出口が設けられた面とは異なる外表面に撮像センサが位置するため、撮像センサを設ける位置の自由度を高めることができる。   Application Example 9 In the projector according to Application Example 6 or Application Example 7, the imaging sensor is one of a plurality of surfaces constituting the outer surface of the main body housing, and is projected onto the screen. It may be provided on the outer surface different from the surface provided with the discharge port for discharging the. According to the projector of Application Example 9, since the imaging sensor is located on the outer surface different from the surface where the discharge port is provided, the degree of freedom in the position where the imaging sensor is provided can be increased.

本発明の形態は、プロジェクタに限るものではなく、例えば、プロジェクタの制御方法、プロジェクタを制御する機能をコンピュータに実現させるためのプログラムなどの他の形態に適用することもできる。また、本発明は、前述の形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内において様々な形態で実施し得ることは勿論である。   The form of the present invention is not limited to the projector, and can be applied to other forms such as a projector control method and a program for causing a computer to realize a function of controlling the projector. Further, the present invention is not limited to the above-described embodiments, and it is needless to say that the present invention can be implemented in various forms without departing from the spirit of the present invention.

以上説明した本発明の構成および作用を一層明らかにするために、以下本発明を適用した投影装置であるプロジェクタについて説明する。   In order to further clarify the configuration and operation of the present invention described above, a projector as a projection apparatus to which the present invention is applied will be described below.

A.実施例:
A1.プロジェクタの構成:
図1は、プロジェクタ10の構成を主に示す説明図である。プロジェクタ10は、スクリーン80に映像を投影する。プロジェクタ10は、色分離合成光学系20と、投射レンズユニット30と、セントラルプロセッシングユニット(Central Processing Unit、以下、CPUという)110と、映像投影部112と、映像調整部114と、メモリ120と、ユーザインタフェース130と、映像入力部140と、空間光変調制御部150と、フォーカス駆動部164と、撮像センサ182,184とを備える。
A. Example:
A1. Projector configuration:
FIG. 1 is an explanatory diagram mainly showing the configuration of the projector 10. The projector 10 projects an image on the screen 80. The projector 10 includes a color separation / synthesis optical system 20, a projection lens unit 30, a central processing unit (hereinafter referred to as a CPU) 110, a video projection unit 112, a video adjustment unit 114, a memory 120, A user interface 130, a video input unit 140, a spatial light modulation control unit 150, a focus driving unit 164, and image sensors 182 and 184 are provided.

プロジェクタ10の映像入力部140は、スクリーン80に投影すべき映像を表現する映像データを外部装置(例えば、パーソナルコンピュータ,デジタルビデオカメラなど)から受け付ける。   The video input unit 140 of the projector 10 receives video data representing a video to be projected on the screen 80 from an external device (for example, a personal computer or a digital video camera).

プロジェクタ10の色分離合成光学系20は、スクリーン80に投影される映像を表現する投影光を生成する投影光学系である。色分離合成光学系20は、光源21で発生された光を赤色光,緑色光,青色光に分離して各々を変調させた後、これらの光を再び一つの光に合成することによって投影光を生成する。色分離合成光学系20は、光源21の他、インテグレータレンズ22a,22bと、偏光変換素子23と、ダイクロイックミラー25a,25bと、空間光変調器28r,28g,28bと、ダイクロイックプリズム29とを備える。   The color separation / synthesis optical system 20 of the projector 10 is a projection optical system that generates projection light that represents an image projected on the screen 80. The color separation / combination optical system 20 separates the light generated by the light source 21 into red light, green light, and blue light, modulates each light, and then combines these lights into one light again to produce projection light. Is generated. In addition to the light source 21, the color separation / synthesis optical system 20 includes integrator lenses 22a and 22b, a polarization conversion element 23, dichroic mirrors 25a and 25b, spatial light modulators 28r, 28g, and 28b, and a dichroic prism 29. .

プロジェクタ10の空間光変調制御部150は、映像入力部140で受け付けられた映像データに基づいて、色分離合成光学系20における空間光変調器28r,28g,28bを制御する。本実施例では、空間光変調器28r,28g,28bは、液晶パネルであり、空間光変調制御部150は、液晶パネル駆動装置である。   The spatial light modulation controller 150 of the projector 10 controls the spatial light modulators 28r, 28g, and 28b in the color separation / synthesis optical system 20 based on the video data received by the video input unit 140. In this embodiment, the spatial light modulators 28r, 28g, and 28b are liquid crystal panels, and the spatial light modulation control unit 150 is a liquid crystal panel driving device.

プロジェクタ10の投射レンズユニット30は、色分離合成光学系20で生成された投影光をスクリーン80へと投射する。投射レンズユニット30は、フロントレンズ31と、ズームレンズ32と、マスタレンズ33と、フォーカスレンズ34と、平行ガラス35とを備え、これらのレンズは、この順に配列されている。本実施例では、ズームレンズ32およびフォーカスレンズ34は、投射レンズユニット30の光軸に沿って前後に移動する。   The projection lens unit 30 of the projector 10 projects the projection light generated by the color separation / synthesis optical system 20 onto the screen 80. The projection lens unit 30 includes a front lens 31, a zoom lens 32, a master lens 33, a focus lens 34, and a parallel glass 35, and these lenses are arranged in this order. In this embodiment, the zoom lens 32 and the focus lens 34 move back and forth along the optical axis of the projection lens unit 30.

プロジェクタ10のズーム駆動部162は、投射レンズユニット30におけるズームレンズ32を駆動する。プロジェクタ10のフォーカス駆動部164は、投射レンズユニット30におけるフォーカスレンズ34を駆動する。   The zoom driving unit 162 of the projector 10 drives the zoom lens 32 in the projection lens unit 30. The focus driving unit 164 of the projector 10 drives the focus lens 34 in the projection lens unit 30.

プロジェクタ10のユーザインタフェース130は、プロジェクタ10のユーザからの指示入力を受け付ける。本実施例では、ユーザインタフェース130は、ユーザからの押圧入力を受け付ける複数のボタンに加え、リモートコントローラからの赤外線入力を受け付ける赤外線インタフェースを備える。   The user interface 130 of the projector 10 receives an instruction input from the user of the projector 10. In the present embodiment, the user interface 130 includes an infrared interface that receives an infrared input from a remote controller in addition to a plurality of buttons that receive a press input from the user.

プロジェクタ10の撮像センサ182,184は、スクリーン80を撮像するイメージセンサである。本実施例では、撮像センサ182,184は、固体撮像素子の一つであるCCDイメージセンサ(Charge Coupled Device Image Sensor)であるが、CMOSイメージセンサ(Complementary Metal Oxide Semiconductor)であっても良い。   The image sensors 182 and 184 of the projector 10 are image sensors that image the screen 80. In the present embodiment, the image sensors 182 and 184 are CCD image sensors (Charge Coupled Device Image Sensors) which are one of solid-state image sensors, but may be CMOS image sensors (Complementary Metal Oxide Semiconductors).

プロジェクタ10のCPU110は、プロジェクタ10の各部を制御する。プロジェクタ10のメモリ120は、CPU110で取り扱われるデータやプログラムを記憶する。プロジェクタ10の映像投影部112は、映像入力部140から入力された映像データに基づく映像をスクリーン80に投影する映像投影処理を実行する。プロジェクタ10の映像調整部114は、撮像センサ182,184によって撮影された撮像画像に基づいて、スクリーン80に投影される映像を調整する映像調整処理を実行する。映像調整処理の詳細については後述する。本実施例では、映像投影部112および映像調整部114の各機能は、CPU110がソフトウェアに基づいて動作することによって実現されるが、他の実施形態として、プロジェクタ10の電子回路がその物理的な回路構成に基づいて動作することによって実現されても良い。   The CPU 110 of the projector 10 controls each part of the projector 10. The memory 120 of the projector 10 stores data and programs handled by the CPU 110. The video projection unit 112 of the projector 10 executes video projection processing for projecting a video based on the video data input from the video input unit 140 onto the screen 80. The video adjustment unit 114 of the projector 10 executes video adjustment processing for adjusting the video projected on the screen 80 based on the captured images captured by the imaging sensors 182 and 184. Details of the video adjustment processing will be described later. In this embodiment, the functions of the video projection unit 112 and the video adjustment unit 114 are realized by the CPU 110 operating based on software. However, as another embodiment, the electronic circuit of the projector 10 is physically You may implement | achieve by operating based on a circuit structure.

図2は、プロジェクタ10を側面から見た構成を主に示す説明図である。図3は、図2における矢印A−A方向から見たプロジェクタ10の構成を主に示す説明図である。プロジェクタ10は、色分離合成光学系20および投射レンズユニット30を収納する本体筐体40を備える。本体筐体40には、投射レンズユニット30からの投影光をスクリーン80へと放出する放出口49が設けられている。本実施例では、本体筐体40は、投射レンズユニット30の全体を収納するが、他の実施形態において、投射レンズユニット30の一部分が放出口49から突出した状態で収納しても良い。   FIG. 2 is an explanatory diagram mainly showing a configuration of the projector 10 as viewed from the side. FIG. 3 is an explanatory diagram mainly showing the configuration of the projector 10 as seen from the direction of the arrow AA in FIG. The projector 10 includes a main body housing 40 that houses the color separation / synthesis optical system 20 and the projection lens unit 30. The main body housing 40 is provided with an emission port 49 through which projection light from the projection lens unit 30 is emitted to the screen 80. In this embodiment, the main body housing 40 accommodates the entire projection lens unit 30, but in other embodiments, the projection lens unit 30 may be accommodated in a state where a part of the projection lens unit 30 protrudes from the discharge port 49.

本実施例では、本体筐体40は六面体であり、この六面体を構成する外表面には、上面41と、底面42と、前面43と、背面44と、左側面45と、右側面46とが含まれる。本体筐体40の上面41は、本体筐体40における上方に位置する上端部であり、本体筐体40の底面42は、上面41に対向する面である底端部である。本体筐体40の前面43は、本体筐体40においてスクリーン80に向かい合う前端部であり、本体筐体40の背面44は、前面43に対向する面であって、本体筐体40においてスクリーン80に背を向ける後端部でもある。本体筐体40の左側面45は、スクリーン80に向かって左側に位置する側端部であり、本体筐体40の右側面46は、スクリーン80に向かって右側に位置する側端部である。   In the present embodiment, the main body housing 40 is a hexahedron, and an outer surface constituting the hexahedron includes an upper surface 41, a bottom surface 42, a front surface 43, a back surface 44, a left side surface 45, and a right side surface 46. included. The upper surface 41 of the main body housing 40 is an upper end portion located above the main body housing 40, and the bottom surface 42 of the main body housing 40 is a bottom end portion that is a surface facing the upper surface 41. The front surface 43 of the main body housing 40 is a front end portion facing the screen 80 in the main body housing 40, and the back surface 44 of the main body housing 40 is a surface facing the front surface 43, and is disposed on the screen 80 in the main body housing 40. It is also the rear end that turns back. The left side surface 45 of the main body housing 40 is a side end portion located on the left side toward the screen 80, and the right side surface 46 of the main body housing 40 is a side end portion located on the right side toward the screen 80.

図2および図3に示すように、撮像センサ182,184からスクリーン80までの距離LSは、投射レンズユニット30の後端からスクリーン80までの距離LPよりも長く、撮像センサ182,184は、投射レンズユニット30が設けられた位置よりもスクリーン80から離れた位置に設けられている。すなわち、撮像センサ182,184は、本体筐体40において投射レンズユニット30よりも背面44に近い位置に設けられている。スクリーン80から本体筐体40の背面44までの距離LBであり、背面44から撮像センサ182,184までの距離(LB−LS)は、背面44から投射レンズユニット30までの距離(LB−LP)よりも短い。   2 and 3, the distance LS from the imaging sensors 182 and 184 to the screen 80 is longer than the distance LP from the rear end of the projection lens unit 30 to the screen 80, and the imaging sensors 182 and 184 are projected. The lens unit 30 is provided at a position farther from the screen 80 than the position where the lens unit 30 is provided. That is, the image sensors 182 and 184 are provided in the main body housing 40 at positions closer to the back surface 44 than the projection lens unit 30. A distance LB from the screen 80 to the back surface 44 of the main body housing 40, and a distance (LB-LS) from the back surface 44 to the imaging sensors 182 and 184 is a distance from the back surface 44 to the projection lens unit 30 (LB-LP). Shorter than.

本実施例では、図3に示すように、撮像センサ182,184は、放出口49からスクリーン80に向かう投影光RPの光軸APを挟む位置にそれぞれ設けられている。本実施例では、撮像センサ182,184は、放出口49が設けられた本体筐体40の上面41に設けられ、上面41における端縁部のうちスクリーン80からより離れた背面44と接する端縁部に沿って位置する。   In this embodiment, as shown in FIG. 3, the image sensors 182 and 184 are provided at positions sandwiching the optical axis AP of the projection light RP from the emission port 49 toward the screen 80. In the present embodiment, the imaging sensors 182 and 184 are provided on the upper surface 41 of the main body housing 40 provided with the discharge port 49, and are in contact with the rear surface 44 farther from the screen 80 among the edge portions on the upper surface 41. Located along the section.

撮像センサ182,184の光軸AL,ARの各々は、矢印A−A方向から見た場合、投影光RPの光軸APへ傾向する。すなわち、撮像センサ182,184の光軸AL,ARの各々は、矢印A−A方向から見た場合、投影光RPの光軸APと交差する。撮像センサ182,184の光軸AL,ARの各々は、スクリーン80よりも手前で投影光RPの光軸APと交差する。撮像センサ182の光軸ALは、投影光RPの光軸APと角度θLで交差し、撮像センサ184の光軸ARは、投影光RPの光軸APと角度θRで交差する。本実施例では、撮像センサ182の角度θLは、撮像センサ184の角度θRと同じ角度であるが、他の実施形態において、撮像センサ182の角度θLは、撮像センサ184の角度θRと異なる角度であっても良い。本実施例では、撮像センサ182,184がスクリーン80を撮影可能な各々の撮像領域RL,RRは、スクリーン80の中央部で重なり合い、撮像領域RL,RRを合わせた撮像領域RSは、個々の撮像領域RL,RRよりも広い領域となる。   Each of the optical axes AL and AR of the imaging sensors 182 and 184 tends to the optical axis AP of the projection light RP when viewed from the direction of the arrow AA. That is, each of the optical axes AL and AR of the image sensors 182 and 184 intersects the optical axis AP of the projection light RP when viewed from the direction of the arrow AA. Each of the optical axes AL and AR of the image sensors 182 and 184 intersects the optical axis AP of the projection light RP before the screen 80. The optical axis AL of the imaging sensor 182 intersects with the optical axis AP of the projection light RP at an angle θL, and the optical axis AR of the imaging sensor 184 intersects with the optical axis AP of the projection light RP at an angle θR. In this embodiment, the angle θL of the image sensor 182 is the same as the angle θR of the image sensor 184. However, in other embodiments, the angle θL of the image sensor 182 is different from the angle θR of the image sensor 184. There may be. In the present embodiment, the imaging regions RL and RR that the imaging sensors 182 and 184 can capture the screen 80 overlap at the center of the screen 80, and the imaging region RS that combines the imaging regions RL and RR is an individual imaging. The region is wider than the regions RL and RR.

A2.プロジェクタの動作:
図4は、プロジェクタ10の映像調整部114が実行する台形補正処理(ステップS10)を示すフローチャートである。台形補正処理(ステップS10)は、プロジェクタ10に対するスクリーン80の傾きによって生じる映像の歪が少なくなるように映像に施される台形歪補正量を設定する処理である。本実施例では、映像調整部114は、プロジェクタ10の電源が投入され光源21が点灯した後や、ユーザインタフェース130を介したユーザからの指示入力に基づいて、台形補正処理(ステップS10)を実行する。本実施例では、台形補正処理(ステップS10)は、プロジェクタ10のCPU110がソフトウェアに基づいて動作することによって実現されるが、他の実施形態として、プロジェクタ10が備える電子回路がその物理的な回路構成に基づいて動作することによって実現されても良い。
A2. Projector operation:
FIG. 4 is a flowchart showing the trapezoid correction process (step S10) executed by the video adjustment unit 114 of the projector 10. The trapezoidal correction process (step S10) is a process of setting the trapezoidal distortion correction amount to be applied to the video so that the video distortion caused by the inclination of the screen 80 with respect to the projector 10 is reduced. In the present embodiment, the video adjustment unit 114 executes the keystone correction process (step S10) after the projector 10 is turned on and the light source 21 is turned on or based on an instruction input from the user via the user interface 130. To do. In this embodiment, the keystone correction process (step S10) is realized by the CPU 110 of the projector 10 operating based on software. As another embodiment, an electronic circuit included in the projector 10 is a physical circuit thereof. It may be realized by operating based on the configuration.

プロジェクタ10の映像調整部114は、図4の台形補正処理(ステップS10)を開始すると、メモリ120に予め記憶された距離検出用パターンを、空間光変調制御部150に転送することによって、距離検出用パターンをスクリーン80に投影する(ステップS120)。本実施例では、距離検出用パターンは、格子や格子点を含むパターンである。   When the image adjustment unit 114 of the projector 10 starts the trapezoidal correction process (step S <b> 10) of FIG. 4, the distance detection pattern stored in advance in the memory 120 is transferred to the spatial light modulation control unit 150 to detect the distance. The pattern for use is projected on the screen 80 (step S120). In the present embodiment, the distance detection pattern is a pattern including a grid and a grid point.

距離検出用パターンが投影されている間に(ステップS120)、映像調整部114は、撮像センサ182,184によって撮影された撮像画像に基づいて、スクリーン80における複数の点までの距離を計測する(ステップS130)。本実施例では、スクリーン80における複数の点までの距離は、三角測量によって計測される。   While the distance detection pattern is projected (step S120), the video adjustment unit 114 measures distances to a plurality of points on the screen 80 based on the captured images captured by the imaging sensors 182 and 184 (step S120). Step S130). In this embodiment, the distances to a plurality of points on the screen 80 are measured by triangulation.

スクリーン80における複数の点までの距離が計測された後(ステップS130)、映像調整部114は、計測された各点までの距離に基づいて、プロジェクタ10に対するスクリーン80の傾きを算出する(ステップS140)。その後、映像調整部114は、スクリーン80の傾きに応じて台形歪補正量を算出し(ステップS150)、その台形歪補正量を、スクリーン80に投影される映像に予め施すべき補正値として設定する(ステップS160)。   After the distances to a plurality of points on the screen 80 are measured (step S130), the video adjustment unit 114 calculates the inclination of the screen 80 with respect to the projector 10 based on the measured distances to the points (step S140). ). Thereafter, the video adjustment unit 114 calculates a trapezoidal distortion correction amount according to the inclination of the screen 80 (step S150), and sets the trapezoidal distortion correction amount as a correction value to be applied to the video projected on the screen 80 in advance. (Step S160).

図5は、プロジェクタ10の映像調整部114が実行する焦点調整処理(ステップS20)を示すフローチャートである。焦点調整処理(ステップS20)は、プロジェクタ10からスクリーン80までの距離に応じて投影光の焦点を調整する処理である。本実施例では、映像調整部114は、プロジェクタ10の電源が投入され光源21が点灯した後や、ユーザインタフェース130を介したユーザからの指示入力に基づいて、焦点調整処理(ステップS20)を実行する。本実施例では、焦点調整処理(ステップS20)は、プロジェクタ10のCPU110がソフトウェアに基づいて動作することによって実現されるが、他の実施形態として、プロジェクタ10が備える電子回路がその物理的な回路構成に基づいて動作することによって実現されても良い。   FIG. 5 is a flowchart showing the focus adjustment process (step S20) executed by the video adjustment unit 114 of the projector 10. The focus adjustment process (step S20) is a process of adjusting the focus of the projection light according to the distance from the projector 10 to the screen 80. In the present embodiment, the image adjustment unit 114 performs the focus adjustment process (step S20) after the projector 10 is turned on and the light source 21 is turned on or based on an instruction input from the user via the user interface 130. To do. In this embodiment, the focus adjustment process (step S20) is realized by the CPU 110 of the projector 10 operating based on software. As another embodiment, an electronic circuit included in the projector 10 is a physical circuit thereof. It may be realized by operating based on the configuration.

プロジェクタ10の映像調整部114は、図5の焦点調整処理(ステップS20)を開始すると、メモリ120に予め記憶された距離検出用パターンを、空間光変調制御部150に転送することによって、距離検出用パターンをスクリーン80に投影する(ステップS220)。本実施例では、距離検出用パターンは、格子や格子点を含むパターンである。   When the image adjustment unit 114 of the projector 10 starts the focus adjustment process (step S20) in FIG. 5, the distance detection pattern stored in advance in the memory 120 is transferred to the spatial light modulation control unit 150, thereby detecting the distance. The pattern for use is projected on the screen 80 (step S220). In the present embodiment, the distance detection pattern is a pattern including a grid and a grid point.

距離検出用パターンが投影されている間に(ステップS220)、映像調整部114は、撮像センサ182,184によって撮影された撮像画像に基づいて、スクリーン80の中央までの距離を計測する(ステップS230)。本実施例では、スクリーン80の中央までの距離は、三角測量によって計測される。   While the distance detection pattern is projected (step S220), the video adjustment unit 114 measures the distance to the center of the screen 80 based on the captured images captured by the imaging sensors 182 and 184 (step S230). ). In this embodiment, the distance to the center of the screen 80 is measured by triangulation.

スクリーン80の中央までの距離が計測された後(ステップS230)、映像調整部114は、スクリーン80の中央までの距離に応じたフォーカスレンズ34の位置を算出する(ステップS250)。本実施例では、キャリブレーションに基づく複数の距離に対応したフォーカスレンズ34の位置が設定されたテーブルがメモリ120に記憶されており、このテーブルの値を用いた線形補完によってフォーカスレンズ34の位置が算出される。   After the distance to the center of the screen 80 is measured (step S230), the video adjustment unit 114 calculates the position of the focus lens 34 according to the distance to the center of the screen 80 (step S250). In the present embodiment, a table in which the position of the focus lens 34 corresponding to a plurality of distances based on calibration is set is stored in the memory 120, and the position of the focus lens 34 is determined by linear interpolation using the value of this table. Calculated.

フォーカスレンズ34の位置が算出された後(ステップS250)、映像調整部114は、フォーカス駆動部164に制御信号を出力することによって、フォーカスレンズ34を算出された位置に移動させる(ステップS260)。   After the position of the focus lens 34 is calculated (step S250), the video adjustment unit 114 outputs a control signal to the focus driving unit 164, thereby moving the focus lens 34 to the calculated position (step S260).

図6は、プロジェクタ10の映像調整部114が実行する拡縮調整処理(ステップS30)を示すフローチャートである。拡縮調整処理(ステップS30)は、スクリーン80の大きさに応じて、スクリーン80に投影される映像の大きさを調整する処理である。本実施例では、映像調整部114は、プロジェクタ10の電源が投入され光源21が点灯した後や、ユーザインタフェース130を介したユーザからの指示入力に基づいて、拡縮調整処理(ステップS30)を実行する。本実施例では、拡縮調整処理(ステップS30)は、プロジェクタ10のCPU110がソフトウェアに基づいて動作することによって実現されるが、他の実施形態として、プロジェクタ10が備える電子回路がその物理的な回路構成に基づいて動作することによって実現されても良い。   FIG. 6 is a flowchart showing enlargement / reduction adjustment processing (step S30) executed by the video adjustment unit 114 of the projector 10. The enlargement / reduction adjustment process (step S30) is a process of adjusting the size of the image projected on the screen 80 in accordance with the size of the screen 80. In the present embodiment, the video adjustment unit 114 executes the enlargement / reduction adjustment process (step S30) after the projector 10 is turned on and the light source 21 is turned on or based on an instruction input from the user via the user interface 130. To do. In this embodiment, the enlargement / reduction adjustment process (step S30) is realized by the CPU 110 of the projector 10 operating based on software. As another embodiment, an electronic circuit included in the projector 10 is a physical circuit thereof. It may be realized by operating based on the configuration.

プロジェクタ10の映像調整部114は、図6の拡縮調整処理(ステップS30)を開始すると、撮像センサ182,184によって投影方向の風景を撮影する(ステップS320)。その後、映像調整部114は、撮像センサ182,184によって撮影された撮像画像から、スクリーン80の外形に相当する縦エッジおよび横エッジを検出する(ステップS330)。その後、映像調整部114は、検出された縦エッジおよび横エッジを、スクリーン80の枠であるスクリーン枠として認識する(ステップS340)。   When the image adjustment unit 114 of the projector 10 starts the enlargement / reduction adjustment process (step S30) in FIG. 6, the image sensor 182 and 184 captures a landscape in the projection direction (step S320). Thereafter, the video adjustment unit 114 detects a vertical edge and a horizontal edge corresponding to the outer shape of the screen 80 from the captured images captured by the imaging sensors 182 and 184 (step S330). Thereafter, the video adjustment unit 114 recognizes the detected vertical edge and horizontal edge as a screen frame that is a frame of the screen 80 (step S340).

スクリーン枠が認識された後(ステップS350)、映像調整部114は、スクリーン枠の大きさに応じたズームレンズ32の位置を算出する(ステップS350)。その後、映像調整部114は、ズーム駆動部162に制御信号を出力することによって、ズームレンズ32を算出された位置に移動させる(ステップS360)。   After the screen frame is recognized (step S350), the video adjustment unit 114 calculates the position of the zoom lens 32 according to the size of the screen frame (step S350). Thereafter, the video adjustment unit 114 outputs a control signal to the zoom driving unit 162, thereby moving the zoom lens 32 to the calculated position (step S360).

A3.効果:
以上説明したプロジェクタ10によれば、撮像センサ182,184による撮像領域RL,RRの各々を、投影光RPの光軸APへと傾向した方向に拡張することができる。その結果、撮像画像に基づく映像調整処理である台形補正処理(ステップS10),焦点調整処理(ステップS20),拡縮調整処理(ステップS30)を実施可能なプロジェクタの設置範囲を拡張することができる。
A3. effect:
According to the projector 10 described above, each of the imaging regions RL and RR by the imaging sensors 182 and 184 can be expanded in a direction that tends to the optical axis AP of the projection light RP. As a result, it is possible to extend the installation range of the projector that can perform the keystone correction process (step S10), the focus adjustment process (step S20), and the enlargement / reduction adjustment process (step S30), which are video adjustment processes based on the captured image.

また、撮像センサ182,184の光軸AL,ARの各々は、スクリーン80よりも手前で投影光RPの光軸APと交差するため、撮像センサ182,184による撮像領域RL,RRの各々を、投影光RPの光軸APへと傾向した方向に更に拡張することができる。また、撮像センサ182,184の撮像領域RL,RRは、少なくとも一部で重なり合うため、撮像領域RL,RRが重なった重複領域において撮像精度を向上させることができる。   Further, since each of the optical axes AL and AR of the imaging sensors 182 and 184 intersects the optical axis AP of the projection light RP before the screen 80, each of the imaging regions RL and RR by the imaging sensors 182 and 184 The projection light RP can be further expanded in the direction of the optical axis AP. In addition, since the imaging regions RL and RR of the imaging sensors 182 and 184 overlap at least partially, imaging accuracy can be improved in the overlapping region where the imaging regions RL and RR overlap.

また、撮像センサ182,184は、本体筐体40の上面41における端縁部のうち背面44により近い端縁部に沿って位置するため、撮像センサ182,184をよりスクリーンから離れた位置に設けることができる。また、撮像センサ182,184は、放出口49が設けられた上面41に設けられているため、スクリーン80に撮像領域RL,RRを合わせ易い位置に撮像センサ182,184を設けることができる。   Further, since the image sensors 182 and 184 are located along the edge portion closer to the back surface 44 among the edge portions on the upper surface 41 of the main body housing 40, the image sensors 182 and 184 are provided at positions further away from the screen. be able to. Further, since the imaging sensors 182 and 184 are provided on the upper surface 41 provided with the discharge port 49, the imaging sensors 182 and 184 can be provided at positions where the imaging regions RL and RR can be easily aligned with the screen 80.

A4.第1変形例:
図7は、第1変形例におけるプロジェクタ11を側面から見た構成を主に示す説明図である。第1変形例のプロジェクタ11は、投射レンズユニット30から投射された投影光を反射鏡50に反射させてスクリーン80に投影する点、反射鏡50の設置に伴って色分離合成光学系20や投射レンズユニット30の配置が異なる点以外は、前述した実施例のプロジェクタ10と同様である。プロジェクタ11においても、撮像センサ182,184の光軸AL,ARの各々は、本体筐体40の上面41側から見た場合、投影光RPの光軸APへ傾向する。
A4. First modification:
FIG. 7 is an explanatory diagram mainly showing a configuration of the projector 11 as viewed from the side according to the first modification. The projector 11 according to the first modified example reflects the projection light projected from the projection lens unit 30 onto the reflecting mirror 50 and projects it onto the screen 80, and the color separation / synthesis optical system 20 and the projection according to the installation of the reflecting mirror 50. The projector 10 is the same as the projector 10 of the embodiment described above except that the arrangement of the lens unit 30 is different. Also in the projector 11, each of the optical axes AL and AR of the imaging sensors 182 and 184 tends to the optical axis AP of the projection light RP when viewed from the upper surface 41 side of the main body housing 40.

以上説明した第1変形例におけるプロジェクタ11によれば、前述した実施例のプロジェクタ10と同様に、撮像センサ182,184による撮像領域RL,RRの各々を、投影光RPの光軸APへと傾向した方向に拡張することができる。その結果、撮像画像に基づく映像調整処理である台形補正処理(ステップS10),焦点調整処理(ステップS20),拡縮調整処理(ステップS30)を実施可能なプロジェクタの設置範囲を拡張することができる。   According to the projector 11 in the first modification described above, each of the imaging regions RL and RR by the imaging sensors 182 and 184 tends to the optical axis AP of the projection light RP, as in the projector 10 of the above-described embodiment. Can be expanded in the direction. As a result, it is possible to extend the installation range of the projector that can perform the keystone correction process (step S10), the focus adjustment process (step S20), and the enlargement / reduction adjustment process (step S30), which are video adjustment processes based on the captured image.

A5.第2変形例:
図8は、第2変形例におけるプロジェクタ12の外観構成を示す説明図である。第2変形例のプロジェクタ12は、投射レンズユニット30からの投影光をスクリーン80へと放出する放出口49が本体筐体40の前面43に設けられている点、前面43への放出口49の設置に伴って色分離合成光学系20や投射レンズユニット30の配置が異なる点以外は、前述した実施例のプロジェクタ10と同様である。プロジェクタ12においても、撮像センサ182,184の光軸AL,ARの各々は、本体筐体40の上面41側から見た場合、投影光RPの光軸APへ傾向する。撮像センサ182,184は、放出口49が設けられた本体筐体40の前面43とは異なる上面41に設けられている。
A5. Second modification:
FIG. 8 is an explanatory diagram showing an external configuration of the projector 12 in the second modification. In the projector 12 of the second modification, a discharge port 49 that discharges projection light from the projection lens unit 30 to the screen 80 is provided in the front surface 43 of the main body housing 40, and the discharge port 49 to the front surface 43 is provided. Except that the arrangement of the color separation / synthesis optical system 20 and the projection lens unit 30 differs with the installation, it is the same as the projector 10 of the above-described embodiment. Also in the projector 12, each of the optical axes AL and AR of the imaging sensors 182 and 184 tends to the optical axis AP of the projection light RP when viewed from the upper surface 41 side of the main body housing 40. The imaging sensors 182 and 184 are provided on the upper surface 41 different from the front surface 43 of the main body housing 40 provided with the discharge port 49.

以上説明した第2変形例におけるプロジェクタ12によれば、前述した実施例のプロジェクタ10と同様に、撮像センサ182,184による撮像領域RL,RRの各々を、投影光RPの光軸APへと傾向した方向に拡張することができる。その結果、撮像画像に基づく映像調整処理である台形補正処理(ステップS10),焦点調整処理(ステップS20),拡縮調整処理(ステップS30)を実施可能なプロジェクタの設置範囲を拡張することができる。また、撮像センサ182,184は、放出口49が設けられた本体筐体40の前面43とは異なる上面41に設けられているため、撮像センサ182,184を設ける位置の自由度を高めることができる。   According to the projector 12 in the second modification described above, each of the imaging regions RL and RR by the imaging sensors 182 and 184 tends to be the optical axis AP of the projection light RP, as in the projector 10 of the above-described embodiment. Can be expanded in the direction. As a result, it is possible to extend the installation range of the projector that can perform the keystone correction process (step S10), the focus adjustment process (step S20), and the enlargement / reduction adjustment process (step S30), which are video adjustment processes based on the captured image. Further, since the imaging sensors 182 and 184 are provided on the upper surface 41 different from the front surface 43 of the main body housing 40 provided with the discharge port 49, the degree of freedom of the positions where the imaging sensors 182 and 184 are provided can be increased. it can.

A6.第3変形例:
図9は、第3変形例におけるプロジェクタ13の構成を示す説明図である。第3変形例のプロジェクタ13は、撮像センサ182の光軸ALが投影光RPの光軸APへと傾向する角度θLを変更する角度変更部192を備える点以外は、前述した実施例のプロジェクタ10と同様である。プロジェクタ13においては、角度変更部192は、CPU110からの指示信号に基づいて撮像センサ182を回転させるモータであり、撮像センサ182の光軸ALが投影光RPの光軸APへ傾向する角度θLを変更する。第3変形例では、撮像センサ182の角度θLは変更可能であって、撮像センサ184の角度θRは固定されているが、他の実施形態において、撮像センサ182の角度θLと同様に、撮像センサ184の角度θRも変更可能であっても良い。第3変形例では、固定されている撮像センサ184は、投影光RPの一部を撮影するが、他の実施形態において、魚眼レンズを始めとする視野角の広いレンズを用いて投影光RPの全ての領域を撮影しても良い。
A6. Third modification:
FIG. 9 is an explanatory diagram showing the configuration of the projector 13 in the third modification. The projector 13 of the third modified example includes the angle changing unit 192 that changes the angle θL at which the optical axis AL of the imaging sensor 182 tends to the optical axis AP of the projection light RP, except that the projector 10 of the above-described embodiment. It is the same. In the projector 13, the angle changing unit 192 is a motor that rotates the imaging sensor 182 based on an instruction signal from the CPU 110, and sets an angle θL at which the optical axis AL of the imaging sensor 182 tends to the optical axis AP of the projection light RP. change. In the third modification, the angle θL of the image sensor 182 can be changed and the angle θR of the image sensor 184 is fixed. In other embodiments, the image sensor 182 is similar to the angle θL of the image sensor 182. The angle θR of 184 may also be changeable. In the third modification, the fixed imaging sensor 184 captures a part of the projection light RP, but in another embodiment, all of the projection light RP is obtained using a lens having a wide viewing angle such as a fisheye lens. This area may be photographed.

以上説明した第2変形例におけるプロジェクタ12によれば、前述した実施例のプロジェクタ10と同様に、撮像センサ182,184による撮像領域RL,RRの各々を、投影光RPの光軸APへと傾向した方向に拡張することができる。その結果、撮像画像に基づく映像調整処理である台形補正処理(ステップS10),焦点調整処理(ステップS20),拡縮調整処理(ステップS30)を実施可能なプロジェクタの設置範囲を拡張することができる。また、撮像画像に基づく映像調整処理の内容に応じて撮像センサ182による撮像領域RLを拡縮することができる。   According to the projector 12 in the second modification described above, each of the imaging regions RL and RR by the imaging sensors 182 and 184 tends to be the optical axis AP of the projection light RP, as in the projector 10 of the above-described embodiment. Can be expanded in the direction. As a result, it is possible to extend the installation range of the projector that can perform the keystone correction process (step S10), the focus adjustment process (step S20), and the enlargement / reduction adjustment process (step S30), which are video adjustment processes based on the captured image. In addition, the imaging region RL by the imaging sensor 182 can be enlarged or reduced according to the content of the video adjustment process based on the captured image.

B.その他の実施形態:
以上、本発明の実施の形態について説明したが、本発明はこうした実施の形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内において様々な形態で実施し得ることは勿論である。例えば、本実施例では、撮像センサ182,184の撮像領域RL,RRは、少なくとも一部で重なり合うとしたが、他の実施形態において、角度θL,θRを更に大きくすることによって、撮像センサ182,184の撮像領域RL,RRは、互いに離間するとしても良い。これによって、撮像領域RSを更に幅広く拡張することができる。
B. Other embodiments:
The embodiments of the present invention have been described above. However, the present invention is not limited to these embodiments, and can of course be implemented in various forms without departing from the spirit of the present invention. is there. For example, in this embodiment, the imaging regions RL and RR of the imaging sensors 182 and 184 are at least partially overlapped. However, in other embodiments, the imaging sensors 182 and 182 can be increased by further increasing the angles θL and θR. The imaging regions RL and RR of 184 may be separated from each other. As a result, the imaging region RS can be further expanded.

また、本実施例では、撮像センサ182,184の光軸AL,ARの各々は、投影光RPの光軸APへ傾向するとしたが、他の実施形態において、撮像センサ182,184の光軸AL,ARの少なくとも一方の光軸が投影光RPの光軸APへ傾向するとしても良い。また、本実施例では、撮像センサ182,184の光軸AL,ARの各々は、スクリーン80の手前で投影光RPの光軸APと交差するとしたが、他の実施形態において、スクリーン80の奥で投影光RPの光軸APと交差しても良い。   In the present embodiment, the optical axes AL and AR of the image sensors 182 and 184 tend to be the optical axis AP of the projection light RP. However, in other embodiments, the optical axes AL of the image sensors 182 and 184 are used. , AR may be inclined toward the optical axis AP of the projection light RP. In this embodiment, each of the optical axes AL and AR of the image sensors 182 and 184 intersects with the optical axis AP of the projection light RP in front of the screen 80. However, in another embodiment, May intersect the optical axis AP of the projection light RP.

また、投射レンズユニット30よりもスクリーン80から離れた位置に設けられた撮像センサの数は、二つに限るものではなく、一つであっても良いし、三つ以上であっても良い。また、撮像センサ182,184および放出口49を本体筐体40に配置する外表面は、上面41に限るものではなく、プロジェクタの設置形態,プロジェクタの外観形状,プロジェクタとスクリーンとの相対位置などの実施態様に応じて、底面42,前面43,背面44,左側面45,右側面46に配置しても良い。   Further, the number of imaging sensors provided at a position farther from the screen 80 than the projection lens unit 30 is not limited to two, and may be one or three or more. Further, the outer surface on which the imaging sensors 182 and 184 and the discharge port 49 are arranged in the main body housing 40 is not limited to the upper surface 41, and the installation form of the projector, the external shape of the projector, the relative position between the projector and the screen, etc. Depending on the embodiment, it may be arranged on the bottom surface 42, the front surface 43, the back surface 44, the left side surface 45, and the right side surface 46.

また、空間光変調器の数は、三つに限るものではなく、三つ以下であっても良いし、三つ以上であっても良い。また、本実施例では、空間光変調器の一つである液晶パネルとして、透過光を変調させる透過型液晶パネルを図1に例示したが、他の実施形態において、反射光を変調させる反射型液晶パネルを用いても良いし、デジタル・マイクロ・ミラーデバイス(Digital Micromirror Device、DMD(登録商標))を始めとするマイクロミラー型光変調装置を用いても良い。   Further, the number of spatial light modulators is not limited to three, but may be three or less, or may be three or more. In the present embodiment, a transmissive liquid crystal panel that modulates transmitted light is illustrated in FIG. 1 as a liquid crystal panel that is one of the spatial light modulators. However, in another embodiment, a reflective type that modulates reflected light is illustrated. A liquid crystal panel may be used, or a micromirror type light modulation device such as a digital micromirror device (DMD (registered trademark)) may be used.

プロジェクタ10の構成を主に示す説明図である。4 is an explanatory diagram mainly showing a configuration of a projector. FIG. プロジェクタ10を側面から見た構成を主に示す説明図である。It is explanatory drawing which mainly shows the structure which looked at the projector 10 from the side surface. 図2における矢印A−A方向から見たプロジェクタ10の構成を主に示す説明図である。It is explanatory drawing which mainly shows the structure of the projector 10 seen from the arrow AA direction in FIG. プロジェクタ10の映像調整部114が実行する台形補正処理(ステップS10)を示すフローチャートである。It is a flowchart which shows the trapezoid correction process (step S10) which the image | video adjustment part 114 of the projector 10 performs. プロジェクタ10の映像調整部114が実行する焦点調整処理(ステップS20)を示すフローチャートである。It is a flowchart which shows the focus adjustment process (step S20) which the image | video adjustment part 114 of the projector 10 performs. プロジェクタ10の映像調整部114が実行する拡縮調整処理(ステップS30)を示すフローチャートである。It is a flowchart which shows the expansion / contraction adjustment process (step S30) which the image | video adjustment part 114 of the projector 10 performs. 第1変形例におけるプロジェクタ11を側面から見た構成を主に示す説明図である。It is explanatory drawing which mainly shows the structure which looked at the projector 11 in the 1st modification from the side. 第2変形例におけるプロジェクタ12の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of the projector 12 in a 2nd modification. 第3変形例におけるプロジェクタ13の構成を示す説明図である。It is explanatory drawing which shows the structure of the projector 13 in a 3rd modification.

符号の説明Explanation of symbols

10,11,12…プロジェクタ
20…色分離合成光学系
21…光源
22a,22b…インテグレータレンズ
23…偏光変換素子
25a,25b…ダイクロイックミラー
28r,28g,28b…空間光変調器
29…ダイクロイックプリズム
30…投射レンズユニット
31…フロントレンズ
32…ズームレンズ
33…マスタレンズ
34…フォーカスレンズ
35…平行ガラス
40…本体筐体
41…上面
42…底面
43…前面
44…背面
45…左側面
46…右側面
49…放出口
50…反射鏡
80…スクリーン
110…CPU
112…映像投影部
114…映像調整部
120…メモリ
130…ユーザインタフェース
140…映像入力部
150…空間光変調制御部
162…ズーム駆動部
164…フォーカス駆動部
182,184…撮像センサ
DESCRIPTION OF SYMBOLS 10, 11, 12 ... Projector 20 ... Color separation synthetic | combination optical system 21 ... Light source 22a, 22b ... Integrator lens 23 ... Polarization conversion element 25a, 25b ... Dichroic mirror 28r, 28g, 28b ... Spatial light modulator 29 ... Dichroic prism 30 ... Projection lens unit 31 ... Front lens 32 ... Zoom lens 33 ... Master lens 34 ... Focus lens 35 ... Parallel glass 40 ... Main body casing 41 ... Top 42 ... Bottom 43 ... Front 44 ... Back 45 ... Left side 46 ... Right side 49 ... Emission port 50 ... Reflector 80 ... Screen 110 ... CPU
DESCRIPTION OF SYMBOLS 112 ... Video projection part 114 ... Video adjustment part 120 ... Memory 130 ... User interface 140 ... Video input part 150 ... Spatial light modulation control part 162 ... Zoom drive part 164 ... Focus drive part 182, 184 ... Imaging sensor

Claims (9)

映像をスクリーンに投影するプロジェクタであって、
前記映像を表現する投影光を生成する投影光学系と、
前記投影光学系で生成された投射光を前記スクリーンへと投射する複数のレンズが配列された投射レンズユニットと、
当該プロジェクタから前記スクリーンに向かう投影光の光軸である投影光軸を挟む位置にそれぞれ設けられ、前記スクリーンを撮像する第1および第2の撮像センサと、
前記第1および第2の撮像センサによって撮影された撮像画像に基づいて、前記スクリーンに投影される映像を調整する投影調整部と
を備え、
前記第1および第2の撮像センサのうち少なくとも一方の光軸は、前記投影光軸へ傾向する、プロジェクタ。
A projector that projects an image on a screen,
A projection optical system for generating projection light representing the image;
A projection lens unit in which a plurality of lenses that project the projection light generated by the projection optical system onto the screen are arranged;
First and second imaging sensors that are respectively provided at positions sandwiching a projection optical axis that is an optical axis of projection light directed from the projector toward the screen;
A projection adjustment unit that adjusts an image projected on the screen based on captured images captured by the first and second imaging sensors;
The projector in which at least one optical axis of the first and second imaging sensors tends to the projection optical axis.
前記第1および第2の撮像センサにおける光軸のうち前記投影光軸へ傾向する光軸は、前記スクリーンよりも手前で前記投影光軸と交差する請求項1に記載のプロジェクタ。   The projector according to claim 1, wherein an optical axis that tends to the projection optical axis among the optical axes in the first and second imaging sensors intersects the projection optical axis before the screen. 前記第1および第2の撮像センサが前記スクリーンを撮影可能な各々の撮像領域は、少なくとも一部で重なり合う請求項1または請求項2に記載のプロジェクタ。   3. The projector according to claim 1, wherein each of the imaging regions in which the first and second imaging sensors can capture the screen overlap at least partially. 前記第1および第2の撮像センサが前記スクリーンを撮影可能な各々の撮像領域は、互いに離間する請求項1または請求項2に記載のプロジェクタ。   3. The projector according to claim 1, wherein the imaging areas in which the first and second imaging sensors can photograph the screen are separated from each other. 更に、前記第1および第2の撮像センサのうち少なくとも一方の光軸が前記投影光軸へ傾向する角度を変更する角度変更部を備える請求項1ないし請求項4のいずれかに記載のプロジェクタ。   5. The projector according to claim 1, further comprising an angle changing unit that changes an angle at which at least one of the first and second imaging sensors tends to the projection optical axis. 請求項1ないし請求項5のいずれかに記載のプロジェクタであって、
更に、前記投影光学系および前記投射レンズユニットの少なくとも一部を収容する本体筐体であって、前記スクリーンに背を向ける後端部を有する本体筐体を備え、
前記第1および第2の撮像センサは、前記本体筐体において前記投射レンズユニットよりも前記後端部に近い位置に設けられた、プロジェクタ。
A projector according to any one of claims 1 to 5,
Furthermore, a main body housing for accommodating at least a part of the projection optical system and the projection lens unit, the main body housing having a rear end portion facing back to the screen,
The first and second imaging sensors are projectors provided in the main body housing at a position closer to the rear end portion than the projection lens unit.
前記撮像センサは、前記本体筐体の外表面を構成する複数の面の一つに設けられ、該面における端縁部のうち前記後端部により近い端縁部に沿って位置する請求項6に記載のプロジェクタ。   The imaging sensor is provided on one of a plurality of surfaces constituting an outer surface of the main body housing, and is located along an edge portion closer to the rear end portion among edge portions on the surface. Projector. 前記撮像センサは、前記本体筐体の外表面を構成する複数の面の一つであって、前記スクリーンへと投影光を放出する放出口が設けられた面に設けられた請求項6または請求項7に記載のプロジェクタ。   The imaging sensor is provided on one of a plurality of surfaces constituting an outer surface of the main body housing and provided with a discharge port for emitting projection light to the screen. Item 8. The projector according to Item 7. 前記撮像センサは、前記本体筐体の外表面を構成する複数の面の一つであって、前記スクリーンへと投影光を放出する放出口が設けられた面とは異なる外表面に設けられた請求項6または請求項7に記載のプロジェクタ。   The imaging sensor is one of a plurality of surfaces constituting the outer surface of the main body casing, and is provided on an outer surface different from a surface provided with an emission port for emitting projection light to the screen. The projector according to claim 6 or 7.
JP2008240703A 2008-09-19 2008-09-19 projector Active JP5309827B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008240703A JP5309827B2 (en) 2008-09-19 2008-09-19 projector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008240703A JP5309827B2 (en) 2008-09-19 2008-09-19 projector

Publications (2)

Publication Number Publication Date
JP2010072421A true JP2010072421A (en) 2010-04-02
JP5309827B2 JP5309827B2 (en) 2013-10-09

Family

ID=42204244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008240703A Active JP5309827B2 (en) 2008-09-19 2008-09-19 projector

Country Status (1)

Country Link
JP (1) JP5309827B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017129839A (en) * 2016-01-20 2017-07-27 セイコーエプソン株式会社 projector
JP2017208677A (en) * 2016-05-18 2017-11-24 セイコーエプソン株式会社 projector

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001108956A (en) * 1999-10-05 2001-04-20 Hitachi Ltd Video display system of back projection type
JP2004239967A (en) * 2003-02-03 2004-08-26 Seiko Epson Corp Projector
JP2005099680A (en) * 2003-03-26 2005-04-14 Matsushita Electric Ind Co Ltd Image display system
JP2007235470A (en) * 2006-02-28 2007-09-13 Brother Ind Ltd Graphic display device
JP2008165006A (en) * 2006-12-28 2008-07-17 Brother Ind Ltd Projection device and image distortion correcting method
JP2008182480A (en) * 2007-01-24 2008-08-07 Sanyo Electric Co Ltd Projection type display device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001108956A (en) * 1999-10-05 2001-04-20 Hitachi Ltd Video display system of back projection type
JP2004239967A (en) * 2003-02-03 2004-08-26 Seiko Epson Corp Projector
JP2005099680A (en) * 2003-03-26 2005-04-14 Matsushita Electric Ind Co Ltd Image display system
JP2007235470A (en) * 2006-02-28 2007-09-13 Brother Ind Ltd Graphic display device
JP2008165006A (en) * 2006-12-28 2008-07-17 Brother Ind Ltd Projection device and image distortion correcting method
JP2008182480A (en) * 2007-01-24 2008-08-07 Sanyo Electric Co Ltd Projection type display device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017129839A (en) * 2016-01-20 2017-07-27 セイコーエプソン株式会社 projector
JP2021140166A (en) * 2016-01-20 2021-09-16 セイコーエプソン株式会社 projector
CN113556524A (en) * 2016-01-20 2021-10-26 精工爱普生株式会社 Projector with a light source
JP7067658B2 (en) 2016-01-20 2022-05-16 セイコーエプソン株式会社 projector
CN113556524B (en) * 2016-01-20 2023-07-18 精工爱普生株式会社 Projector with a light source for projecting light
JP2017208677A (en) * 2016-05-18 2017-11-24 セイコーエプソン株式会社 projector

Also Published As

Publication number Publication date
JP5309827B2 (en) 2013-10-09

Similar Documents

Publication Publication Date Title
TWI566602B (en) Projector and control method for the projector
TWI584042B (en) Projector and control method for the projector
JP4877430B2 (en) Multi-projection display system and screen forming method
JP5796286B2 (en) Projector and projector control method
JP2007078821A (en) Projector, projecting method and program
TWI588588B (en) Projector and method of controlling projector
WO2011102299A1 (en) Control device and projection-type image display device
TWI698127B (en) Projection system and projection method
US20110279738A1 (en) Control device and projection video display device
JP2003348498A (en) Image display method and image display apparatus
JP5262743B2 (en) Projection display apparatus, control method therefor, and control program therefor
JP2011176629A (en) Controller and projection type video display device
WO2016194191A1 (en) Projection-type picture display apparatus and picture display method
JP5309828B2 (en) projector
JP2012018214A (en) Projection type video display device
JP5309827B2 (en) projector
JP5206081B2 (en) Projector, program and storage medium
JP7147617B2 (en) Projector and projector control method
JP5461452B2 (en) Control device and projection display device
JP2011199717A (en) Projection type display device and image display method
JP2008242087A (en) Installation position adjustment system for front projection type projector
JP6347126B2 (en) Projector and projector control method
WO2011142197A1 (en) Control device and projection video display device
JP5845565B2 (en) Projector and projector control method
JP5845566B2 (en) Projector and projector control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130617

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5309827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350