JP6103855B2 - Projection apparatus, control method therefor, program, and storage medium - Google Patents

Projection apparatus, control method therefor, program, and storage medium Download PDF

Info

Publication number
JP6103855B2
JP6103855B2 JP2012179887A JP2012179887A JP6103855B2 JP 6103855 B2 JP6103855 B2 JP 6103855B2 JP 2012179887 A JP2012179887 A JP 2012179887A JP 2012179887 A JP2012179887 A JP 2012179887A JP 6103855 B2 JP6103855 B2 JP 6103855B2
Authority
JP
Japan
Prior art keywords
projection
image
unit
correction
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012179887A
Other languages
Japanese (ja)
Other versions
JP2014039133A (en
Inventor
伸洋 岡
伸洋 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012179887A priority Critical patent/JP6103855B2/en
Publication of JP2014039133A publication Critical patent/JP2014039133A/en
Application granted granted Critical
Publication of JP6103855B2 publication Critical patent/JP6103855B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Description

本発明は、投影装置及びその制御方法、プログラム、並びに記憶媒体に関する。   The present invention relates to a projection apparatus, a control method therefor, a program, and a storage medium.

従来、投影装置の歪補正の一手法として、ユーザからの投影画像の4隅の点の移動指示に従い投影画像を変形することで歪補正を行う技術が知られている。しかし、この技術では4隅の点を投影画像外に移動することはできないため、ユーザは予め歪補正前に、投影画像がスクリーンを包含するように投影装置を設置する必要があった。   2. Description of the Related Art Conventionally, as a technique for distortion correction of a projection apparatus, a technique is known in which distortion correction is performed by deforming a projection image in accordance with a movement instruction of four corner points of the projection image from a user. However, since this technique cannot move the four corner points outside the projection image, the user has to install the projection device in advance so that the projection image includes the screen before distortion correction.

本課題に対し、例えば特許文献1および特許文献2では以下のような技術が開示されている。まず、歪補正前に撮像手段で投影方向を撮影し、投影領域と投影画像との位置関係を認識する。次に、投射画像の外周がスクリーン領域内に位置せず、且つ投射画像が可及的に小さくなるズーム条件を計算して、その条件を満たすようにズームレンズを駆動し、その後に画像を変形して投影画像の歪補正を行う。   For example, Patent Document 1 and Patent Document 2 disclose the following techniques for this problem. First, before the distortion is corrected, the projection direction is photographed by the imaging unit, and the positional relationship between the projection area and the projection image is recognized. Next, calculate the zoom condition where the outer periphery of the projected image is not located within the screen area and the projected image becomes as small as possible, drive the zoom lens to satisfy the condition, and then deform the image Then, distortion correction of the projected image is performed.

特許第4578341号公報Japanese Patent No. 4578341 特開2006−121240号公報JP 2006-121240 A

しかしながら、特許文献1および特許文献2に記載の技術では、歪補正前に投影領域の認識のために撮像手段が必要であり、コストアップの要因となる。また、無地の壁に投影する場合など、投影領域が撮影画像から特定できない場合には、適切に歪補正ができない。   However, the techniques described in Patent Document 1 and Patent Document 2 require an imaging unit for recognizing the projection area before distortion correction, which causes a cost increase. In addition, when the projection area cannot be identified from the captured image, such as when projecting onto a plain wall, distortion correction cannot be performed appropriately.

本発明は、上記課題に鑑みてなされ、その目的は、撮像手段を用いることなく、歪補正前の投影画像と投影領域との位置関係によらず、投影画像を適切な大きさ及び形状に歪補正を行うことができる投影装置およびその制御方法を実現することである。   The present invention has been made in view of the above problems, and an object of the present invention is to distort a projection image into an appropriate size and shape without using an imaging unit and regardless of the positional relationship between the projection image before distortion correction and the projection region. A projection apparatus capable of performing correction and a control method thereof are realized.

上記課題を解決し、目的を達成するために、本発明の撮影装置は、画像を投影面に投影する投影手段と、ユーザ操作に応じて前記投影面に投影された画像における複数の補正点の位置を移動させる設定手段と、前記設定手段により設定された前記補正点の位置に応じて、前記投影された画像の形状を変形する変形手段と、前記投影手段による投影範囲をズームにより光学的に補正する補正手段と、前記変形手段による変形後の投影された画像における前記複数の補正点に対応する位置が前記投影範囲の内側である場合、前記投影範囲を縮小するように前記補正手段を制御する制御手段と、を有する。 In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention includes a projection unit that projects an image on a projection plane, and a plurality of correction points in the image projected on the projection plane in response to a user operation. A setting means for moving the position; a deformation means for deforming the shape of the projected image according to the position of the correction point set by the setting means; and a projection range by the projection means optically by zooming. a correction correcting means, when the position corresponding to the plurality of correction points in the projected image after deformation by the deforming means is inside the projection range, the correction means so that to reduce the projection range Control means for controlling.

本発明によれば、歪補正時にユーザが投影画像の補正点の位置を決定すると、ズーム動作が行われて投影画像は目標投影位置を包含する関係を保ちながらも限りなく縮小され、その縮小率に応じて投影画像が歪補正される。そのため、撮像手段を用いることなく、歪補正前の投影画像と投影領域との位置関係によらず、投影画像を適切な大きさ及び形状に歪補正を行うことができる。   According to the present invention, when the user determines the position of the correction point of the projection image during distortion correction, the zoom operation is performed, and the projection image is reduced as much as possible while maintaining the relationship including the target projection position. Accordingly, the projected image is corrected for distortion. Therefore, it is possible to correct the distortion of the projection image to an appropriate size and shape without using an imaging unit, regardless of the positional relationship between the projection image before distortion correction and the projection area.

本発明に係る実施形態の投影装置の構成を示す図。The figure which shows the structure of the projection apparatus of embodiment which concerns on this invention. 本実施形態のプロジェクタの基本動作を示すフローチャート。6 is a flowchart showing the basic operation of the projector according to the present embodiment. 実施形態1の画像処理部の内部構成を示す図。FIG. 3 is a diagram illustrating an internal configuration of an image processing unit according to the first embodiment. 実施形態1の変形処理を示すフローチャート。5 is a flowchart illustrating a deformation process according to the first embodiment. 実施形態1の液晶パネル上の投影領域と、スクリーン上に投影される投影領域とを対比させて変形処理を説明する図。FIG. 4 is a diagram for explaining deformation processing by comparing a projection area on the liquid crystal panel according to the first embodiment with a projection area projected on a screen. 実施形態1の変形処理を説明する図。FIG. 6 is a diagram for explaining deformation processing according to the first embodiment. 実施形態2の変形処理を示すフローチャート。10 is a flowchart showing deformation processing according to the second embodiment. 射影変換を説明する図。The figure explaining projective transformation. 図4のS406での変形例を示すフローチャート。The flowchart which shows the modification in S406 of FIG. 実施形態2の変形処理を説明する図。FIG. 6 is a diagram for explaining deformation processing according to the second embodiment.

以下に、本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。   Hereinafter, embodiments for carrying out the present invention will be described in detail. The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment. Moreover, you may comprise combining suitably one part of each embodiment mentioned later.

[実施形態1]以下、本発明を、例えば、画像を投影する液晶プロジェクタに適用した実施形態について説明する。   [Embodiment 1] An embodiment in which the present invention is applied to, for example, a liquid crystal projector for projecting an image will be described below.

<装置構成>図1を参照して、本発明に係る実施形態の投影装置の構成及び機能の概略について説明する。   <Apparatus Configuration> With reference to FIG. 1, an outline of the configuration and functions of a projection apparatus according to an embodiment of the present invention will be described.

本実施形態の液晶プロジェクタ(以下、プロジェクタと略称する)は、表示するべき画像に応じて、液晶素子の光の透過率を制御して、液晶素子を透過した光源からの光をスクリーンに投影することで、画像をユーザに提示する。   The liquid crystal projector of the present embodiment (hereinafter abbreviated as “projector”) controls the light transmittance of the liquid crystal element according to the image to be displayed, and projects the light from the light source that has passed through the liquid crystal element onto the screen. Thus, the image is presented to the user.

図1において、本実施形態のプロジェクタ100は、CPU110、ROM111、RAM112、操作部113、画像入力部130、画像処理部140を有する。また、プロジェクタ100は、液晶制御部150、液晶素子151R、151G、151B、光源制御部160、光源161、色分離部162、色合成部163、光学系制御部170、投影光学系171を有する。さらに、プロジェクタ100は、記録再生部191、記録媒体192、通信部193、撮像部194、表示制御部195、表示部196を有していてもよい。   In FIG. 1, the projector 100 according to the present embodiment includes a CPU 110, a ROM 111, a RAM 112, an operation unit 113, an image input unit 130, and an image processing unit 140. The projector 100 also includes a liquid crystal control unit 150, liquid crystal elements 151R, 151G, and 151B, a light source control unit 160, a light source 161, a color separation unit 162, a color composition unit 163, an optical system control unit 170, and a projection optical system 171. Further, the projector 100 may include a recording / playback unit 191, a recording medium 192, a communication unit 193, an imaging unit 194, a display control unit 195, and a display unit 196.

CPU110は、プロジェクタ100の各動作ブロックを制御する。ROM111は、CPU110の処理手順を記述した制御プログラムを記憶する。RAM112は、ワークメモリとして一時的に制御プログラムやデータを格納する。また、CPU110は、記録再生部191により記録媒体192から再生された静止画データや動画データを一時的に記憶し、ROM111に記憶されたプログラムを用いて、それぞれの画像や映像を再生したりすることもできる。また、CPU110は、通信部193より受信した静止画データや動画データを一時的に記憶し、ROM111に記憶されたプログラムを用いて、それぞれの画像や映像を再生したりすることもできる。また、撮像部194により得られた画像や映像を一時的にRAM112に記憶し、ROM111に記憶されたプログラムを用いて、静止画データや動画データに変換して記録媒体192に記録させることもできる。   CPU 110 controls each operation block of projector 100. The ROM 111 stores a control program that describes the processing procedure of the CPU 110. The RAM 112 temporarily stores control programs and data as work memory. In addition, the CPU 110 temporarily stores still image data and moving image data reproduced from the recording medium 192 by the recording / reproducing unit 191, and reproduces each image and video using a program stored in the ROM 111. You can also In addition, the CPU 110 can temporarily store still image data and moving image data received from the communication unit 193, and can reproduce each image or video using a program stored in the ROM 111. In addition, an image or video obtained by the imaging unit 194 can be temporarily stored in the RAM 112, converted into still image data or moving image data using a program stored in the ROM 111, and recorded on the recording medium 192. .

また、操作部113は、例えばスイッチやダイヤル、表示部196上に設けられたタッチパネルなどからなり、ユーザの指示を受け付け、CPU110に指示信号を送信する。また、操作部113は、例えば、不図示のリモコンからの信号を受信する信号受信部(赤外線受信部など)で、受信した信号に基づいて所定の指示信号をCPU110に送信するものであってもよい。また、CPU110は、操作部113や、通信部193から入力された制御信号を受信して、プロジェクタ100の各動作ブロックを制御する。   The operation unit 113 includes, for example, a switch, a dial, a touch panel provided on the display unit 196, and the like. The operation unit 113 receives a user instruction and transmits an instruction signal to the CPU 110. For example, the operation unit 113 may be a signal reception unit (such as an infrared reception unit) that receives a signal from a remote controller (not shown) and transmits a predetermined instruction signal to the CPU 110 based on the received signal. Good. In addition, the CPU 110 receives control signals input from the operation unit 113 and the communication unit 193 and controls each operation block of the projector 100.

画像入力部130は、外部装置から画像信号や映像信号を受信する。画像入力部130は、例えば、コンポジット端子、S映像端子、D端子、コンポーネント端子、アナログRGB端子、DVI−I端子、DVI−D端子、HDMI(登録商標)端子等を含む。また、画像入力部130は、アナログの画像信号や映像信号を受信した場合には、受信したアナログ信号をデジタル信号に変換し、画像処理部140に送信する。ここで、外部装置は、画像信号や映像信号を出力できるものであれば、パーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機など、どのようなものであってもよい。   The image input unit 130 receives an image signal and a video signal from an external device. The image input unit 130 includes, for example, a composite terminal, an S video terminal, a D terminal, a component terminal, an analog RGB terminal, a DVI-I terminal, a DVI-D terminal, an HDMI (registered trademark) terminal, and the like. In addition, when receiving an analog image signal or video signal, the image input unit 130 converts the received analog signal into a digital signal and transmits the digital signal to the image processing unit 140. Here, the external device may be any device such as a personal computer, a camera, a mobile phone, a smartphone, a hard disk recorder, or a game machine as long as it can output an image signal and a video signal.

画像処理部140は、例えば画像処理用のマイクロプロセッサからなり、画像入力部130から受信した画像信号や映像信号にフレーム数、画素数、画像形状などの変更処理を施して、液晶制御部150に送信する。また、画像処理部140は、専用のマイクロプロセッサである必要はなく、例えば、ROM111に記憶されたプログラムによって、CPU110が画像処理部140と同様の処理を実行してもよい。画像処理部140は、フレーム間引き処理、フレーム補間処理、解像度変換処理、歪み補正処理(キーストン補正処理)といった機能を実行することが可能である。また、画像処理部140は、画像入力部130から受信した信号以外にも、CPU110によって再生された画像や映像に対して前述の変更処理を施すこともできる。この画像処理部140による歪補正処理に関する具体的な挙動については後述する。   The image processing unit 140 includes, for example, a microprocessor for image processing. The image processing unit 140 performs processing for changing the number of frames, the number of pixels, the image shape, and the like on the image signal and the video signal received from the image input unit 130, and Send. Further, the image processing unit 140 does not need to be a dedicated microprocessor. For example, the CPU 110 may execute the same processing as the image processing unit 140 by a program stored in the ROM 111. The image processing unit 140 can execute functions such as frame thinning processing, frame interpolation processing, resolution conversion processing, and distortion correction processing (keystone correction processing). In addition to the signal received from the image input unit 130, the image processing unit 140 can also perform the above-described change processing on the image or video reproduced by the CPU 110. Specific behavior regarding the distortion correction processing by the image processing unit 140 will be described later.

液晶制御部150は、例えば制御用のマイクロプロセッサからなり、画像処理部140で処理された画像信号や映像信号に基づいて、各液晶パネルの液晶素子151R、151G、151Bの画素の液晶に印可する電圧を制御して、液晶素子151R、151G、151Bの透過率を調整する。なお、液晶制御部150は、専用のマイクロプロセッサである必要はなく、例えば、ROM111に記憶されたプログラムによって、CPU110が液晶制御部150と同様の処理を実行してもよい。例えば、画像処理部140に映像信号が入力されている場合、液晶制御部150は、画像処理部140から1フレームの画像を受信するごとに、画像に対応する透過率となるように、液晶素子151R、151G、151Bを制御する。液晶素子151Rは、赤色に対応する液晶素子であって、光源161から出力された光のうち、色分離部162で赤色(R)、緑色(G)、青色(B)に分離された光のうち、赤色の光の透過率を調整する。液晶素子151Gは、緑色に対応する液晶素子であって、光源161から出力された光のうち、色分離部162で赤色(R)、緑色(G)、青色(B)に分離された光のうち、緑色の光の透過率を調整する。液晶素子151Bは、青色に対応する液晶素子であって、光源161から出力された光のうち、色分離部162で赤色(R)、緑色(G)、青色(B)に分離された光のうち、青色の光の透過率を調整する。   The liquid crystal control unit 150 includes, for example, a control microprocessor, and applies to the liquid crystal of the pixels of the liquid crystal elements 151R, 151G, and 151B of each liquid crystal panel based on the image signal and the video signal processed by the image processing unit 140. The transmittance of the liquid crystal elements 151R, 151G, and 151B is adjusted by controlling the voltage. Note that the liquid crystal control unit 150 does not have to be a dedicated microprocessor. For example, the CPU 110 may execute the same processing as the liquid crystal control unit 150 by a program stored in the ROM 111. For example, when a video signal is input to the image processing unit 140, the liquid crystal control unit 150 causes the liquid crystal element to have a transmittance corresponding to the image every time an image of one frame is received from the image processing unit 140. 151R, 151G, and 151B are controlled. The liquid crystal element 151 </ b> R is a liquid crystal element corresponding to red, and out of the light output from the light source 161, the light separated into red (R), green (G), and blue (B) by the color separation unit 162. Among them, the transmittance of red light is adjusted. The liquid crystal element 151 </ b> G is a liquid crystal element corresponding to green, and out of the light output from the light source 161, the light separated into red (R), green (G), and blue (B) by the color separation unit 162. Among them, the transmittance of green light is adjusted. The liquid crystal element 151 </ b> B is a liquid crystal element corresponding to blue, and of the light output from the light source 161, the light separated into red (R), green (G), and blue (B) by the color separation unit 162. Among them, the transmittance of blue light is adjusted.

光源制御部160は、光源161のオン/オフの制御や光量の制御をする、例えば制御用のマイクロプロセッサからなる。なお、光源制御部160は、専用のマイクロプロセッサである必要はなく、例えば、ROM111に記憶されたプログラムによって、CPU110が光源制御部160と同様の処理を実行してもよい。また、光源161は、例えばハロゲンランプ、キセノンランプ、高圧水銀ランプであり、スクリーン180に画像を投影するための光を出力する。また、色分離部162は、例えばダイクロイックミラーやプリズムからなり、光源161から出力された光を、赤色(R)、緑色(G)、青色(B)に分離する。なお、光源161として、各色に対応するLED等を使用する場合には、色分離部162は不要である。また、色合成部163は、例えばダイクロイックミラーやプリズムからなり、液晶素子151R、151G、151Bを透過した赤色(R)、緑色(G)、青色(B)の光を合成する。そして、色合成部163により赤色(R)、緑色(G)、青色(B)の成分を合成した光は、投影光学系171に送られる。このとき、液晶素子151R、151G、151Bは、画像処理部140から入力された画像に対応する光の透過率となるように、液晶制御部150により制御される。そのため、色合成部163により合成された光は、投影光学系171によりスクリーンに投影されると、画像処理部140により入力された画像に対応する画像がスクリーン上に表示されることになる。   The light source control unit 160 includes, for example, a control microprocessor that controls on / off of the light source 161 and the amount of light. Note that the light source control unit 160 does not have to be a dedicated microprocessor. For example, the CPU 110 may execute the same processing as the light source control unit 160 by a program stored in the ROM 111. The light source 161 is, for example, a halogen lamp, a xenon lamp, or a high-pressure mercury lamp, and outputs light for projecting an image on the screen 180. The color separation unit 162 includes, for example, a dichroic mirror and a prism, and separates light output from the light source 161 into red (R), green (G), and blue (B). In addition, when using LED etc. corresponding to each color as the light source 161, the color separation part 162 is unnecessary. The color composition unit 163 is composed of, for example, a dichroic mirror or a prism, and synthesizes red (R), green (G), and blue (B) light transmitted through the liquid crystal elements 151R, 151G, and 151B. Then, light obtained by combining the red (R), green (G), and blue (B) components by the color combining unit 163 is sent to the projection optical system 171. At this time, the liquid crystal elements 151 </ b> R, 151 </ b> G, and 151 </ b> B are controlled by the liquid crystal control unit 150 so as to have a light transmittance corresponding to the image input from the image processing unit 140. Therefore, when the light combined by the color combining unit 163 is projected onto the screen by the projection optical system 171, an image corresponding to the image input by the image processing unit 140 is displayed on the screen.

光学系制御部170は、例えば制御用のマイクロプロセッサからなり、投影光学系171を制御する。なお、光学系制御部170は、専用のマイクロプロセッサである必要はなく、例えば、ROM111に記憶されたプログラムによって、CPU110が光学系制御部170と同様の処理を実行してもよい。また、投影光学系171は、色合成部163から出力された合成光をスクリーンに投影する。投影光学系171は、複数のレンズ、レンズ駆動用のアクチュエータからなり、レンズをアクチュエータにより駆動することで、投影画像の拡大、縮小、シフト、焦点調整などを行うことができる。   The optical system control unit 170 is composed of a control microprocessor, for example, and controls the projection optical system 171. The optical system control unit 170 does not need to be a dedicated microprocessor. For example, the CPU 110 may execute the same processing as the optical system control unit 170 by a program stored in the ROM 111. The projection optical system 171 projects the combined light output from the color combining unit 163 onto the screen. The projection optical system 171 includes a plurality of lenses and lens driving actuators. By driving the lenses with the actuators, the projection image can be enlarged, reduced, shifted, and focused.

記録再生部191は、記録媒体192から静止画データや動画データを再生したり、また、撮像部194により得られた静止画データや動画データをCPU110から受信して記録媒体192に記録する。また、通信部193より受信した静止画データや動画データを記録媒体192に記録してもよい。記録再生部191は、例えば、記録媒体192と電気的に接続するインタフェースや記録媒体192と通信するためのマイクロプロセッサからなる。なお、記録再生部191には、専用のマイクロプロセッサを含む必要はなく、例えば、ROM111に記憶されたプログラムによって、CPU110が記録再生部191と同様の処理を実行してもよい。また、記録媒体192は、静止画データや動画データ、その他、本実施形態のプロジェクタに必要な制御データなどを記録することができるものである。記録媒体192は、磁気ディスク、光学式ディスク、半導体メモリなどのあらゆる方式の記録媒体であってよく、着脱可能な記録媒体であっても、内蔵型の記録媒体であってもよい。   The recording / reproducing unit 191 reproduces still image data and moving image data from the recording medium 192, and receives still image data and moving image data obtained by the imaging unit 194 from the CPU 110 and records them on the recording medium 192. Still image data and moving image data received from the communication unit 193 may be recorded on the recording medium 192. The recording / reproducing unit 191 includes, for example, an interface electrically connected to the recording medium 192 and a microprocessor for communicating with the recording medium 192. Note that the recording / reproducing unit 191 does not need to include a dedicated microprocessor. For example, the CPU 110 may execute the same processing as the recording / reproducing unit 191 by a program stored in the ROM 111. The recording medium 192 can record still image data, moving image data, and other control data necessary for the projector according to the present embodiment. The recording medium 192 may be any type of recording medium such as a magnetic disk, an optical disk, or a semiconductor memory, and may be a detachable recording medium or a built-in recording medium.

通信部193は、外部装置からの制御信号や静止画データ、動画データなどを受信するためのものであり、例えば、無線LAN、有線LAN、USB、Bluetooth(登録商標)などであってよく、通信方式を特に限定するものではない。また、画像入力部130の端子が、例えばHDMI(登録商標)端子であれば、その端子を介してCEC通信を行うものであってもよい。ここで、外部装置は、プロジェクタ100と通信が可能な機器であれば、パーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機、リモコンなど、どのようなものであってもよい。   The communication unit 193 is for receiving control signals, still image data, moving image data, and the like from an external device. For example, the communication unit 193 may be a wireless LAN, a wired LAN, USB, Bluetooth (registered trademark), or the like. The method is not particularly limited. Further, if the terminal of the image input unit 130 is, for example, an HDMI (registered trademark) terminal, CEC communication may be performed via the terminal. Here, the external device may be any device such as a personal computer, a camera, a mobile phone, a smartphone, a hard disk recorder, a game machine, and a remote controller as long as it can communicate with the projector 100.

表示制御部195は、表示制御用のマイクロプロセッサなどからなり、プロジェクタ100に備えられた表示部196にプロジェクタ100を操作するための操作画面やスイッチアイコン等の画像を表示させるための制御をする。なお、表示制御部195専用のマイクロプロセッサである必要はなく、例えば、ROM111に記憶されたプログラムによって、CPU110が表示制御部195と同様の処理を実行してもよい。また、表示部196は、プロジェクタ100を操作するための操作画面やスイッチアイコンを表示する。表示部196は、画像を表示できればどのようなものであってもよい。例えば、液晶ディスプレイ、CRTディスプレイ、有機ELディスプレイ、LEDディスプレイであってよい。また、特定のボタンをユーザに認識可能に掲示するために、各ボタンに対応するLED等を発光させるものであってもよい。   The display control unit 195 includes a display control microprocessor or the like, and controls the display unit 196 provided in the projector 100 to display an image such as an operation screen for operating the projector 100 or a switch icon. Note that the display controller 195 need not be a dedicated microprocessor. For example, the CPU 110 may execute the same processing as the display controller 195 by a program stored in the ROM 111. The display unit 196 displays an operation screen and a switch icon for operating the projector 100. The display unit 196 may be anything as long as it can display an image. For example, it may be a liquid crystal display, a CRT display, an organic EL display, or an LED display. Further, in order to post a specific button so that the user can recognize it, an LED or the like corresponding to each button may be made to emit light.

なお、本実施形態の画像処理部140、液晶制御部150、光源制御部160、光学系制御部170、記録再生部191、表示制御部195は、これらの動作ブロックと同様の処理を行うことのできる単数または複数のマイクロプロセッサあってもよい。または、例えば、ROM111に記憶されたプログラムによって、CPU110が各ブロックと同様の処理を実行してもよい。   Note that the image processing unit 140, the liquid crystal control unit 150, the light source control unit 160, the optical system control unit 170, the recording / playback unit 191, and the display control unit 195 according to the present embodiment perform processing similar to these operation blocks. There may be one or more possible microprocessors. Alternatively, for example, the CPU 110 may execute the same processing as that of each block by a program stored in the ROM 111.

<基本動作>次に、図1及び図2を参照して、本実施形態のプロジェクタ100の基本動作について説明する。   <Basic Operation> Next, the basic operation of the projector 100 of this embodiment will be described with reference to FIG. 1 and FIG.

図2は、本実施形態のプロジェクタ100の基本動作を示すフローチャートである。図2の動作は、CPU110が、ROM111に格納されたプログラムを、RAM112のワークエリアに展開し、各動作ブロックを制御することにより実現される。図2の動作は、ユーザが操作部113やリモコンによりプロジェクタ100の電源をオンすると開始される。操作部113やリモコンによりユーザがプロジェクタ100の電源をオンすると、CPU110は、不図示の電源制御部によりプロジェクタ100の各部へ不図示の電源部から電力の供給を開始する。   FIG. 2 is a flowchart showing the basic operation of the projector 100 of the present embodiment. The operation of FIG. 2 is realized by the CPU 110 developing a program stored in the ROM 111 in the work area of the RAM 112 and controlling each operation block. The operation in FIG. 2 is started when the user turns on the power of the projector 100 using the operation unit 113 or the remote controller. When the user turns on the power of the projector 100 using the operation unit 113 or the remote controller, the CPU 110 starts supplying power from a power supply unit (not shown) to each unit of the projector 100 by a power supply control unit (not shown).

次に、CPU110は、ユーザによる操作部113やリモコンの操作により選択された表示モードを判定する(S210)。本実施形態のプロジェクタ100の表示モードの1つは、画像入力部130より入力された画像や映像を表示する「入力画像表示モード」である。また、本実施形態のプロジェクタ100の表示モードの1つは、記録再生部191により記録媒体192から読み出された静止画データや動画データを表示する「ファイル再生表示モード」である。また、本実施形態のプロジェクタ100の表示モードの1つは、通信部193から受信した静止画データや動画データを表示する「ファイル受信表示モード」である。なお、本実施形態では、ユーザにより表示モードが選択される場合について説明するが、電源を投入した時点での表示モードは、前回終了時の表示モードになっていてもよく、また、前述のいずれかの表示モードをデフォルトの表示モードとしてもよい。その場合には、S210の処理は省略可能である。   Next, the CPU 110 determines the display mode selected by the operation of the operation unit 113 or the remote controller by the user (S210). One display mode of the projector 100 according to the present embodiment is an “input image display mode” in which an image or video input from the image input unit 130 is displayed. In addition, one of the display modes of the projector 100 according to the present embodiment is a “file playback display mode” in which still image data or moving image data read from the recording medium 192 by the recording / playback unit 191 is displayed. In addition, one of the display modes of the projector 100 according to the present embodiment is a “file reception display mode” in which still image data and moving image data received from the communication unit 193 are displayed. In this embodiment, the case where the display mode is selected by the user will be described. However, the display mode at the time of turning on the power may be the display mode at the end of the previous time. These display modes may be set as the default display mode. In that case, the process of S210 can be omitted.

ここでは、S210で、「入力画像表示モード」が選択されたものとして説明する。   Here, it is assumed that “input image display mode” is selected in S210.

「入力画像表示モード」が選択されると、CPU110は、画像入力部130から画像や映像が入力されているまで待機する(S220)。そして、入力された場合(S220でYes)投影処理(S230)に移行する。   When the “input image display mode” is selected, the CPU 110 stands by until an image or video is input from the image input unit 130 (S220). Then, if input (Yes in S220), the process proceeds to the projection process (S230).

S230では、CPU110は、画像入力部130より入力された画像や映像を画像処理部140に送信し、画像処理部140に、画像や映像の画素数、フレームレート、形状の変形を実行させ、処理の施された1画面分の画像を液晶制御部150に送信する。そして、CPU110は、液晶制御部150により、受信した1画面分の画像の赤色(R)、緑色(G)、青色(B)の各色成分の階調レベルに応じた透過率となるように、各液晶パネルの液晶素子151R、151G、151Bの透過率を制御する。そして、CPU110は、光源制御部160により光源161からの光の出力を制御する。色分離部162は、光源161から出力された光を、赤色(R)、緑色(G)、青色(B)に分離し、それぞれの光を、各液晶パネルの液晶素子151R、151G、151Bに供給する。各液晶素子151R、151G、151Bに供給された各色の光は、各液晶素子の画素毎に透過する光量が制限される。そして、各液晶素子151R、151G、151Bを透過した赤色(R)、緑色(G)、青色(B)それぞれの光は、色合成部163に供給され再び合成される。そして、色合成部163で合成された光は、投影光学系171を介して、スクリーン180に投影される。   In S230, the CPU 110 transmits the image or video input from the image input unit 130 to the image processing unit 140, and causes the image processing unit 140 to change the number of pixels of the image or video, the frame rate, and the shape, and perform processing. The image for one screen to which the above is applied is transmitted to the liquid crystal control unit 150. Then, the CPU 110 causes the liquid crystal control unit 150 to have a transmittance corresponding to the gradation level of each color component of red (R), green (G), and blue (B) of the received image for one screen. The transmittance of the liquid crystal elements 151R, 151G, and 151B of each liquid crystal panel is controlled. Then, the CPU 110 controls the output of light from the light source 161 by the light source control unit 160. The color separation unit 162 separates the light output from the light source 161 into red (R), green (G), and blue (B), and separates each light into the liquid crystal elements 151R, 151G, and 151B of each liquid crystal panel. Supply. The amount of light of each color supplied to each liquid crystal element 151R, 151G, 151B is limited for each pixel of each liquid crystal element. The red (R), green (G), and blue (B) lights transmitted through the liquid crystal elements 151R, 151G, and 151B are supplied to the color synthesis unit 163 and synthesized again. The light synthesized by the color synthesis unit 163 is projected onto the screen 180 via the projection optical system 171.

この投影処理は、画像を投影している間、1フレームの画像毎に順次、実行されている。   This projection processing is sequentially executed for each image of one frame while the image is projected.

なお、このとき、ユーザにより操作部113から投影光学系171の操作指示が入力されると、CPU110は、光学系制御部170により、投影画像の焦点を変更したり、光学系の拡大率を変更したりするように投影光学系171のアクチュエータを制御する。   At this time, when an operation instruction for the projection optical system 171 is input from the operation unit 113 by the user, the CPU 110 causes the optical system control unit 170 to change the focus of the projection image or change the magnification ratio of the optical system. The actuator of the projection optical system 171 is controlled so that it does.

この表示処理実行中に、CPU110は、ユーザにより操作部113から表示モードを切り替える指示が入力されたか否かを判定する(S240)。ここで、操作部113から表示モードを切り替える指示が入力されると(S240でYes)、CPU110は、再びS210に戻り、表示モードの判定を行う。このとき、CPU110は、画像処理部140に、表示モードを選択させるためのメニュー画面をOSD(On Screen Display)画像として送信し、投影中の画像に対して、このOSD画面を重畳させるように画像処理部140を制御する。ユーザは、この投影されたOSD画面を見ながら、表示モードを選択する。   During execution of the display process, the CPU 110 determines whether or not an instruction to switch the display mode is input from the operation unit 113 by the user (S240). When an instruction to switch the display mode is input from the operation unit 113 (Yes in S240), the CPU 110 returns to S210 again and determines the display mode. At this time, the CPU 110 transmits, to the image processing unit 140, a menu screen for selecting a display mode as an OSD (On Screen Display) image, and the OSD screen is superimposed on the image being projected. The processing unit 140 is controlled. The user selects a display mode while viewing the projected OSD screen.

一方、表示処理実行中に、ユーザにより操作部113から表示モードを切り替える指示が入力されない場合は(S240でNo)、CPU110は、ユーザにより操作部113から投影終了の指示が入力されたか否かを判定する(S250)。ここで、操作部113から投影終了の指示が入力された場合には(S250でYes)、CPU110は、プロジェクタ100の各動作ブロックに対する電源供給を停止させ、投影処理を終了する。一方、操作部113から投影終了の指示が入力されない場合には(S250でNo)、CPU110は、S220へ戻り、以降、操作部113から投影終了の指示が入力されるまで、S220からS250までの処理を繰り返す。   On the other hand, when an instruction to switch the display mode is not input from the operation unit 113 by the user during display processing (No in S240), the CPU 110 determines whether an instruction to end projection is input from the operation unit 113 by the user. Determination is made (S250). If an instruction to end projection is input from the operation unit 113 (Yes in S250), the CPU 110 stops power supply to each operation block of the projector 100 and ends the projection process. On the other hand, when a projection end instruction is not input from the operation unit 113 (No in S250), the CPU 110 returns to S220, and thereafter, from S220 to S250 until a projection end instruction is input from the operation unit 113. Repeat the process.

以上のようにして、本実施形態のプロジェクタ100は、スクリーンに対して画像を投影する。   As described above, the projector 100 according to the present embodiment projects an image on the screen.

なお、「ファイル再生表示モード」では、CPU110は、記録再生部191により、記録媒体192から静止画データや動画データのファイルリストや各ファイルのサムネイルデータを読み出し、RAM112に一時的に記憶する。そして、CPU110は、ROM111に記憶されたプログラムに基づいて、RAM112に一時的に記憶されたファイルリストに基づく文字画像や各ファイルのサムネイルデータに基づく画像を生成し、画像処理部140に送信する。そして、CPU110は、通常の投影処理(S230)と同様に、画像処理部140、液晶制御部150、光源制御部160を制御する。   In the “file playback display mode”, the CPU 110 reads out a file list of still image data and moving image data and thumbnail data of each file from the recording medium 192 by the recording / playback unit 191 and temporarily stores them in the RAM 112. Then, based on the program stored in the ROM 111, the CPU 110 generates a character image based on the file list temporarily stored in the RAM 112 and an image based on the thumbnail data of each file, and transmits the image to the image processing unit 140. Then, the CPU 110 controls the image processing unit 140, the liquid crystal control unit 150, and the light source control unit 160 in the same manner as the normal projection processing (S230).

次に、投影画面上において、記録媒体192に記録された静止画データや動画データにそれぞれ対応する文字や画像を選択する指示が操作部113を介して入力される。そうすると、CPU110は、選択された静止画データや動画データを記録媒体192から読み出すように記録再生部191を制御する。そして、CPU110は、読み出された静止画データや動画データをRAM112に一時的に記憶し、ROM111記憶されたプログラムに基づいて、静止画データや動画データの画像や映像を再生する。   Next, an instruction to select characters and images corresponding to still image data and moving image data recorded on the recording medium 192 on the projection screen is input via the operation unit 113. Then, the CPU 110 controls the recording / reproducing unit 191 so as to read out selected still image data and moving image data from the recording medium 192. The CPU 110 temporarily stores the read still image data and moving image data in the RAM 112, and reproduces the image and video of the still image data and moving image data based on the program stored in the ROM 111.

そして、CPU110は、例えば再生した動画データの映像を順次、画像処理部140に送信し、通常の投影処理(S230)と同様に、画像処理部140、液晶制御部150、光源制御部160を制御する。また、静止画データを再生した場合には、再生した画像を画像処理部140に送信し、通常の投影処理(S230)と同様に、画像処理部140、液晶制御部150、光源制御部160を制御する。   Then, for example, the CPU 110 sequentially transmits the reproduced moving image data to the image processing unit 140, and controls the image processing unit 140, the liquid crystal control unit 150, and the light source control unit 160 in the same manner as the normal projection processing (S230). To do. When the still image data is reproduced, the reproduced image is transmitted to the image processing unit 140, and the image processing unit 140, the liquid crystal control unit 150, and the light source control unit 160 are transmitted in the same manner as the normal projection processing (S230). Control.

また、「ファイル受信表示モード」では、CPU110は、通信部193により受信した静止画データや動画データをRAM112に一時的に記憶し、ROM111記憶されたプログラムに基づいて、静止画データや動画データを再生する。そして、CPU110は、例えば再生した動画データを順次、画像処理部140に送信し、通常の投影処理(S230)と同様に、画像処理部140、液晶制御部150、光源制御部160を制御する。また、静止画データを再生した場合には、再生した画像を画像処理部140に送信し、通常の投影処理(S230)と同様に、画像処理部140、液晶制御部150、光源制御部160を制御する。   In the “file reception display mode”, the CPU 110 temporarily stores still image data and moving image data received by the communication unit 193 in the RAM 112, and stores the still image data and moving image data based on the program stored in the ROM 111. Reproduce. For example, the CPU 110 sequentially transmits the reproduced moving image data to the image processing unit 140, and controls the image processing unit 140, the liquid crystal control unit 150, and the light source control unit 160 in the same manner as the normal projection processing (S230). When the still image data is reproduced, the reproduced image is transmitted to the image processing unit 140, and the image processing unit 140, the liquid crystal control unit 150, and the light source control unit 160 are transmitted in the same manner as the normal projection processing (S230). Control.

<画像処理部の構成>次に、図3を参照して、本実施形態の画像処理部の構成について説明する。   <Configuration of Image Processing Unit> Next, the configuration of the image processing unit of this embodiment will be described with reference to FIG.

図3において、画像処理部140は、信号処理部310、OSD重畳部320、変形処理部330を有する。   In FIG. 3, the image processing unit 140 includes a signal processing unit 310, an OSD superimposing unit 320, and a deformation processing unit 330.

元画像信号s301は、前述のように、表示モードに応じて画像入力部130、記録再生部191、あるいは通信部193から入力される。また、タイミング信号s302は、元画像信号s301に同期した垂直同期信号、水平同期信号、クロックなどであって、元画像信号s301の供給元から供給される。画像処理部140内の各ブロックは、タイミング信号s302に基づいて動作するが、画像処理部140の内部でタイミング信号を作り直して使用してもよい。   As described above, the original image signal s301 is input from the image input unit 130, the recording / reproducing unit 191, or the communication unit 193 according to the display mode. The timing signal s302 is a vertical synchronization signal, a horizontal synchronization signal, a clock, or the like that is synchronized with the original image signal s301, and is supplied from the source of the original image signal s301. Each block in the image processing unit 140 operates based on the timing signal s302. However, the timing signal may be regenerated and used inside the image processing unit 140.

信号処理部310は、CPU110と連携して、元画像信号s301に対し、画像信号のヒストグラムやAPL等の統計情報の取得や、IP変換、フレームレート変換、解像度変換、γ変換、色域変換、色補正、エッジ強調などの信号処理を施す。信号処理部310で処理された処理画像信号s303は、OSD重畳部320に対して出力される。   The signal processing unit 310 cooperates with the CPU 110 to acquire statistical information such as a histogram and APL of the image signal, IP conversion, frame rate conversion, resolution conversion, γ conversion, color gamut conversion, and the like for the original image signal s301. Perform signal processing such as color correction and edge enhancement. The processed image signal s303 processed by the signal processing unit 310 is output to the OSD superimposing unit 320.

OSD重畳部320は、CPU110の指示により、ユーザ用のメニューや操作のためのガイド情報をOSD画像として処理画像信号s303に重畳し、生成したOSD重畳信号s304を変形処理部330に対して出力する。   The OSD superimposing unit 320 superimposes a menu for a user and guide information for operation as an OSD image on the processed image signal s303 in accordance with an instruction from the CPU 110, and outputs the generated OSD superimposed signal s304 to the deformation processing unit 330. .

変形処理部330は、所定の変形式に基づいて変形前後の画素の座標を求め、OSD重畳信号s304に変形処理を施し、変形後画像信号s305を出力する。   The deformation processing unit 330 obtains the coordinates of the pixels before and after the deformation based on a predetermined deformation formula, performs a deformation process on the OSD superimposed signal s304, and outputs a post-deformation image signal s305.

本実施形態における変形処理部330は、射影変換を用いて画像を変形するものとし、以下に図8を参照して、この変形処理について説明する。   The deformation processing unit 330 in the present embodiment is assumed to deform an image using projective transformation, and this deformation processing will be described below with reference to FIG.

図8において、810はPs1〜Ps4の4点を頂点とする歪補正前の画像(元画像)、820はPd1〜Pd4の4点を頂点とする歪補正後の画像をそれぞれ示している。   In FIG. 8, 810 indicates an image before distortion correction (original image) having four points Ps1 to Ps4 as vertices, and 820 indicates an image after distortion correction having four points Pd1 to Pd4 as vertices.

なお、射影変換における、元画像810の座標(xs、ys)と変形後画像820の座標(xd、yd)の関係は下記式1で表わされる。   In the projective transformation, the relationship between the coordinates (xs, ys) of the original image 810 and the coordinates (xd, yd) of the transformed image 820 is expressed by the following formula 1.

Figure 0006103855
Figure 0006103855

Mは変形後画像から元画像への3×3の射影変換行列であり、CPU110から変形処理部330に入力される。xs1、ys1は、元画像810の1つの頂点Ps1の座標であり、xd1、yd1は変形後画像820の頂点Pd1の座標値である。   M is a 3 × 3 projective transformation matrix from the post-deformation image to the original image, and is input from the CPU 110 to the deformation processing unit 330. xs1 and ys1 are the coordinates of one vertex Ps1 of the original image 810, and xd1 and yd1 are the coordinate values of the vertex Pd1 of the transformed image 820.

上記式1により求められた元画像の座標(xs、ys)が整数であれば、これをそのまま変形後画像の座標(xd、yd)の画素値としてよい。しかし、式1により求められた元画像の座標は整数になるとは限らない。その場合は、元画像の座標の周辺画素の画素値を用いて補間することで、変形後座標(xd、yd)の持つ画素値を求める。補間の方法は、バイリニア、バイキュービック、その他の任意の補間方法を用いればよい。また、式1に基づいて求められた元画像の座標が、元画像810の範囲外である場合には、その画素値は黒またはユーザが設定した背景色とする。   If the coordinates (xs, ys) of the original image obtained by Equation 1 above are integers, this may be used as the pixel value of the coordinates (xd, yd) of the transformed image. However, the coordinates of the original image obtained by Equation 1 are not always integers. In this case, the pixel value of the post-deformation coordinates (xd, yd) is obtained by interpolation using the pixel values of the surrounding pixels of the coordinates of the original image. The interpolation method may be bilinear, bicubic, or any other interpolation method. When the coordinates of the original image obtained based on Expression 1 are outside the range of the original image 810, the pixel value is black or the background color set by the user.

変形処理部330は、以上の手順で変形後座標の全てについて画素値を求めることで、変形後の画像を作成する。   The deformation processing unit 330 creates a post-deformation image by obtaining pixel values for all the post-deformation coordinates in the above procedure.

なお、上記例では、CPU110から変形処理部330に、射影変換行列Mが入力されるとしたが、画像処理部140の内部で射影変換行列Mを求めてもよい。なお、射影変換行列Mは、元画像の4隅の点および変形後画像の座標の4隅の点から、一意に求められる。この方法は公知のため詳細は省略する。   In the above example, the projective transformation matrix M is input from the CPU 110 to the deformation processing unit 330. However, the projective transformation matrix M may be obtained inside the image processing unit 140. The projective transformation matrix M is uniquely obtained from the four corner points of the original image and the four corner points of the coordinates of the transformed image. Since this method is publicly known, its details are omitted.

変形処理部330が出力する変形後画像信号s305は、前述の通り、液晶制御部150に供給され、液晶パネルに表示される。   As described above, the post-deformation image signal s305 output from the deformation processing unit 330 is supplied to the liquid crystal control unit 150 and displayed on the liquid crystal panel.

<歪補正処理&ズーム動作>次に、図4〜図6を参照して、本実施形態のプロジェクタ100による歪補正処理について説明する。   <Distortion Correction Processing & Zooming Operation> Next, with reference to FIGS. 4 to 6, the distortion correction processing by the projector 100 of this embodiment will be described.

図5は、液晶パネルの投影領域と、投影面上に投影される投影領域とを対比させて示し、(a)は液晶パネル上、(b)はスクリーン上の投影画像をそれぞれ示している。液晶パネルは、代表して1枚を図示している。   5A and 5B show the projected area of the liquid crystal panel and the projected area projected onto the projection surface, with FIG. 5A showing the projected image on the liquid crystal panel and FIG. 5B showing the projected image on the screen. A representative liquid crystal panel is shown.

液晶パネル全面を投影領域510として、これをスクリーン上に投影すると、プロジェクタ100とスクリーンが相対的に正対していない場合には、傾斜角や光学条件によって形状は異なるが、スクリーン上の投影画像は520のように歪んだ四角形になる。P1〜P4は液晶パネル上の投影領域の四隅であり、補正点として移動される点である。PS1〜PS4は、補正点P1〜P4に対応する投影画像の四隅である。   When the entire surface of the liquid crystal panel is used as a projection area 510 and is projected on the screen, when the projector 100 and the screen are not relatively facing each other, the shape varies depending on the tilt angle and optical conditions, but the projected image on the screen is It becomes a distorted square like 520. P1 to P4 are the four corners of the projection area on the liquid crystal panel, and are moved as correction points. PS1 to PS4 are the four corners of the projected image corresponding to the correction points P1 to P4.

図4は本実施形態のプロジェクタ100による歪補正処理を示している。図4の処理は、CPU110が、ROM111に格納されたプログラムを、RAM112のワークエリアに展開し、各動作ブロックを制御することにより実現される。   FIG. 4 shows distortion correction processing by the projector 100 of the present embodiment. The processing in FIG. 4 is realized by the CPU 110 developing a program stored in the ROM 111 in the work area of the RAM 112 and controlling each operation block.

図4において、CPU110はまず、ユーザから操作部113やリモコンを介して、画像中の4隅の補正点を移動することで歪補正を行う処理(4隅指定型の歪補正)を開始する指示を受信したか否かを判定する(S401)。CPU110がユーザから4隅指定形の歪補正の開始指示を受信したと判定すると、S402に進む。   In FIG. 4, the CPU 110 first instructs the user to start distortion correction processing (four-corner specification type distortion correction) by moving correction points at four corners in the image via the operation unit 113 or the remote controller. Is determined (S401). If the CPU 110 determines that a four-corner designated distortion correction start instruction has been received from the user, the process proceeds to S402.

次に、CPU110は、ユーザから操作部113やリモコンを介して、4隅の補正点のうち移動対象とする点を選択する指示を受信したか否かを判定する(S402)。CPU110が、移動対象とする点を選択する指示を受信したと判定した場合はS403に進む。このとき、移動対象として選択された補正点をユーザに分かりやすく提示するために、CPU110はOSD重畳部320に対し、補正点付近にOSDを重畳させてもよい。例えば、PS1の近傍の色を目立つ色に変えたり、点滅させたりするなど、選択中の補正点が特定できる情報であれば表示内容はどのようなものであってもよい。   Next, the CPU 110 determines whether or not an instruction for selecting a point to be moved among the correction points at the four corners has been received from the user via the operation unit 113 or the remote controller (S402). If the CPU 110 determines that an instruction to select a point to be moved has been received, the process proceeds to S403. At this time, the CPU 110 may superimpose the OSD in the vicinity of the correction point on the OSD superimposing unit 320 in order to easily present the correction point selected as the movement target to the user. For example, the display content may be any information as long as the correction point being selected can be specified, such as changing the color near PS1 to a conspicuous color or blinking.

一方、S402にてCPU110が当該指示を受信しなかったと判定した場合は、S411に進む。   On the other hand, if it is determined in S402 that the CPU 110 has not received the instruction, the process proceeds to S411.

S403では、CPU110は、ユーザの補正点移動指示を待つ。補正点移動指示とは、例えば、操作部113もしくはリモコンの方向キー(上、下、左、右)が押下され、補正点が設定されたときの信号である。CPU110が補正点移動指示を受信したと判定した場合はS404に進む。一方、CPU110が当該指示を受信しなかったと判定した場合は、S411に進む。   In S403, the CPU 110 waits for a user's correction point movement instruction. The correction point movement instruction is, for example, a signal when a correction point is set by pressing the direction key (up, down, left, right) of the operation unit 113 or the remote controller. When the CPU 110 determines that the correction point movement instruction has been received, the process proceeds to S404. On the other hand, if the CPU 110 determines that the instruction has not been received, the process proceeds to S411.

S404では、CPU110は、ユーザが方向キーを押下したと判定すると、押下された方向キーに応じて、移動後(設定終了後)の補正点の液晶パネル上の座標を計算する(S404)。例えば、選択中の補正点P4の移動前の液晶パネル上の座標が(x4、y4)である場合に、右キーが押されたとすると、移動後の座標は(x4+m、y4)となる。ここで、mは予め定められた移動量である。ただし、液晶パネルの解像度を(xp、yp)とすると、x4+m<0若しくはxp≦x4+mのときは液晶パネルの投影領域外(投影範囲の外側)であると判定し、移動を行わない。   In S404, when the CPU 110 determines that the user has pressed the direction key, the CPU 110 calculates the coordinates on the liquid crystal panel of the correction point after the movement (after the setting is completed) according to the pressed direction key (S404). For example, when the coordinate on the liquid crystal panel before the correction point P4 being selected is (x4, y4) and the right key is pressed, the coordinate after the movement is (x4 + m, y4). Here, m is a predetermined movement amount. However, assuming that the resolution of the liquid crystal panel is (xp, yp), when x4 + m <0 or xp ≦ x4 + m, it is determined that the liquid crystal panel is outside the projection region (outside the projection range) and is not moved.

次に、CPU110は、ユーザから操作部113やリモコンを介して、選択中の補正点の移動終了指示を受信したか否かを判定する(S405)。補正点移動終了指示は、例えば、操作部113もしくはリモコンの決定キーやキャンセルキーなど予め定められたキーが押下されたときに設定終了と判定すればよい。CPU110が選択中の補正点の移動終了指示を受信したと判定すると、S406に進む。一方CPU110が当該指示を受信しなかったと判定した場合は、S403に戻る。   Next, the CPU 110 determines whether or not an instruction to end the movement of the correction point being selected has been received from the user via the operation unit 113 or the remote controller (S405). The correction point movement end instruction may be determined to be the end of setting when a predetermined key such as a determination key or a cancel key of the operation unit 113 or the remote controller is pressed, for example. If the CPU 110 determines that an instruction to end the movement of the selected correction point has been received, the process proceeds to S406. On the other hand, if the CPU 110 determines that the instruction has not been received, the process returns to S403.

S406では、CPU110は、変形処理部330に対し、入力画像を補正点P1〜P4を頂点とする画像に変形するよう指示する。このとき、CPU110は、画像変形のための射影変換行列Mを求め変形処理部330に送信する。変形処理部330はCPU110から受信した情報に従い、入力画像を変形する。   In S406, the CPU 110 instructs the deformation processing unit 330 to deform the input image into an image having correction points P1 to P4 as vertices. At this time, the CPU 110 obtains a projective transformation matrix M for image deformation and transmits it to the deformation processing unit 330. The deformation processing unit 330 deforms the input image according to the information received from the CPU 110.

次に、CPU110は、ユーザから操作部113やリモコンを介して、4隅指定形の歪補正を終了する指示を受信したか否かを判定する(S407)。CPU110が補正点の移動終了指示を受信したと判定すると、S408に進む。一方、CPU110が当該指示を受信しなかったと判定した場合は、S402に戻る。   Next, the CPU 110 determines whether or not an instruction to end the four-corner designated distortion correction is received from the user via the operation unit 113 or the remote controller (S407). If the CPU 110 determines that a correction point movement end instruction has been received, the process advances to step S408. On the other hand, if the CPU 110 determines that the instruction has not been received, the process returns to S402.

S408では、CPU110は、補正点P1〜P4の液晶パネル上の座標が液晶パネルの投影領域の端部に接しているか(投影範囲の内側か否か)を判定する。CPU110が、補正点P1〜P4の少なくとも1つが液晶パネルの投影領域の端部に接していると判定した場合には本処理を終了する。一方、CPU110が、補正点P1〜P4が全て液晶パネルの投影領域の端部に接していないと判定した場合にはS409に進む。   In S408, the CPU 110 determines whether the coordinates of the correction points P1 to P4 on the liquid crystal panel are in contact with the end of the projection area of the liquid crystal panel (whether they are inside the projection range). When the CPU 110 determines that at least one of the correction points P1 to P4 is in contact with the end of the projection area of the liquid crystal panel, the process is terminated. On the other hand, if the CPU 110 determines that all of the correction points P1 to P4 are not in contact with the end of the projection area of the liquid crystal panel, the process proceeds to S409.

S409では、CPU110は、光学系制御部170に対し、ズームレンズを駆動して投影画像を光学的に縮小するよう指示する。光学系制御部170はCPU110の指示に従い、ズームレンズを駆動する(S409)。   In step S409, the CPU 110 instructs the optical system control unit 170 to drive the zoom lens to optically reduce the projection image. The optical system controller 170 drives the zoom lens according to the instruction from the CPU 110 (S409).

S410では、CPU110は、S407にて決定された補正点P1〜P4の投影面上の位置PS1〜PS4が、S409にてズームが変更された後も同一になるような、補正点P1〜P4の液晶パネル上の座標を再計算する(詳細は後述する)。   In S410, the CPU 110 corrects the correction points P1 to P4 such that the positions PS1 to PS4 on the projection plane of the correction points P1 to P4 determined in S407 are the same even after the zoom is changed in S409. The coordinates on the liquid crystal panel are recalculated (details will be described later).

S411では、CPU110は変形処理部330に対し、入力画像をS410にて決定された補正点P1〜P4を頂点とする画像に変形するよう指示する。このとき、CPU110は、画像変形のための射影変換行列Mを求め変形処理部330に送信する。変形処理部330はCPU110から受信した情報に従い、入力画像を変形する。変形処理部330が変形を終了するとS408に戻る。   In S411, the CPU 110 instructs the deformation processing unit 330 to deform the input image into an image having the vertices at the correction points P1 to P4 determined in S410. At this time, the CPU 110 obtains a projective transformation matrix M for image deformation and transmits it to the deformation processing unit 330. The deformation processing unit 330 deforms the input image according to the information received from the CPU 110. When the deformation processing unit 330 finishes the deformation, the process returns to S408.

<歪補正処理中の投影画像の変化の様子の説明>次に、図6を参照して、歪補正処理中の投影画像の変化の様子を、ユーザ操作と投影面上の投影画像の変化を対応付けて説明する。   <Description of Change in Projected Image During Distortion Correction Processing> Next, referring to FIG. 6, the change in the projected image during distortion correction processing will be described with respect to user operations and changes in the projected image on the projection plane. This will be explained in association with each other.

ここでは、歪補正処理の開始前において、図6(a)のように投影画像520が目標形状530の全体を包含していない場合を例に説明する。   Here, an example will be described in which the projected image 520 does not include the entire target shape 530 as shown in FIG. 6A before the distortion correction processing is started.

まずS402にて、ユーザが補正点P4を選択したとする。そして、PS4の位置が目標形状530の頂点に重なるまで、リモコンの方向キーを押して補正点PS4の位置を移動する。このとき、プロジェクタ100では、S403〜S405が繰り返される。そして、ユーザがリモコンの決定ボタンを押すと、変形処理部330によって投画像は図6(b)のようになる。   First, in S402, it is assumed that the user has selected the correction point P4. Then, the direction of the correction point PS4 is moved by pressing the direction key of the remote controller until the position of PS4 overlaps the vertex of the target shape 530. At this time, in projector 100, S403 to S405 are repeated. When the user presses the determination button on the remote controller, the projected image is as shown in FIG.

次に、ユーザは同様の手順で補正点P3、P2、P1を順に選択し、各補正点が目標形状530の頂点に一致するように移動指示を行う。全ての補正点の移動が終了すると投影画像は図6(c)のようになり、投影画像は目標形状530と等しくなる。   Next, the user sequentially selects correction points P3, P2, and P1 in the same procedure, and gives a movement instruction so that each correction point coincides with the vertex of the target shape 530. When the movement of all the correction points is completed, the projected image becomes as shown in FIG. 6C, and the projected image becomes equal to the target shape 530.

このとき、CPU110は図6(c)の投影状態において、液晶パネル上の補正点P1〜P4が液晶パネルの投影領域の端部に接しているか否かを判定する。これは、歪補正前の投影画像(図6(a)の520)の外周に、歪補正後の投影画像(図6(c)の520)の4隅が接しているか否かを判定することに等しい。   At this time, the CPU 110 determines whether or not the correction points P1 to P4 on the liquid crystal panel are in contact with the end of the projection area of the liquid crystal panel in the projection state of FIG. This is to determine whether or not the four corners of the projection image after distortion correction (520 in FIG. 6C) are in contact with the outer periphery of the projection image before distortion correction (520 in FIG. 6A). be equivalent to.

本例では、液晶パネル上の補正点P1〜P4が液晶パネルの投影領域の端部に接していないため、S409にて、投影画像がズーム縮小される。ただし、図6(c)のような投影状態において、単純にズームにより縮小してしまうと、図6(d)のようになり、投影画像520は目標形状530を外れてしまう。そこで、CPU110は、ズームにより縮小する前に投影画像520を目標形状530に一致する図6(e)の状態にするために、以下に述べる補正点P1〜P4の液晶パネル上の座標を補正する処理を行う。   In this example, since the correction points P1 to P4 on the liquid crystal panel are not in contact with the end of the projection area of the liquid crystal panel, the projected image is zoomed out in S409. However, in the projection state as shown in FIG. 6C, if the image is simply reduced by zooming, the projection image 520 deviates from the target shape 530 as shown in FIG. 6D. Therefore, the CPU 110 corrects the coordinates of correction points P1 to P4 described below on the liquid crystal panel in order to bring the projected image 520 into the state of FIG. 6E that matches the target shape 530 before being reduced by zooming. Process.

<補正点の座標補正処理>以下に、図7を参照して補正点の座標補正処理について説明する。   <Coordinate Correction Process for Correction Point> The coordinate correction process for the correction point will be described below with reference to FIG.

図7はプロジェクタ100と投影面700の関係をプロジェクタ100の真上から見た図であり、便宜的に投影画像は上辺のみを示している。   FIG. 7 is a view of the relationship between the projector 100 and the projection plane 700 as viewed from directly above the projector 100, and the projection image shows only the upper side for convenience.

まず、図7(a)に示すように、歪補正前の投影画像の端点をPS1’、PS2’とする。また、このときのプロジェクタ100の左右の投影角をθR、θLとする。   First, as shown in FIG. 7A, the end points of the projected image before distortion correction are PS1 'and PS2'. In addition, the left and right projection angles of the projector 100 at this time are θR and θL.

ここで、歪補正が行われ、図6(c)のように投影画像の投影面上の補正点PS1、PS2が目標形状530の頂点に一致した位置に移動されたとする。このときの液晶パネル上の点P1およびP2の位置関係は、プロジェクタ100と正対した仮想投影面710上のそれと等しく、図7(a)のような射影関係となる。歪補正後の左右の投影角を図7(a)に示すようにφL、φRとする。これは、補正点P1、P2の液晶パネル上の座標とθL、θRから幾何的に求められる。   Here, it is assumed that the distortion correction is performed and the correction points PS1 and PS2 on the projection surface of the projection image are moved to the position coincident with the vertex of the target shape 530 as shown in FIG. The positional relationship between the points P1 and P2 on the liquid crystal panel at this time is the same as that on the virtual projection plane 710 facing the projector 100, and the projection relationship is as shown in FIG. The left and right projection angles after distortion correction are φL and φR as shown in FIG. This is obtained geometrically from the coordinates of the correction points P1 and P2 on the liquid crystal panel and θL and θR.

ここで、プロジェクタ100がズーム動作を行ったとする。ズーム動作とは投影角θL、θRが変化することである。図7(b)は、図7(a)からズーム動作が行われ投影画像が縮小された状態を示しており、このときθ’L<θL、θ’R<θRとなる。   Here, it is assumed that the projector 100 performs a zoom operation. The zoom operation is a change in the projection angles θL and θR. FIG. 7B shows a state where the zoom operation is performed and the projected image is reduced from FIG. 7A, and at this time, θ′L <θL and θ′R <θR.

ズーム動作の前後で補正点のスクリーン上の4隅の位置PS1、PS2が同じこととは、図7(a)と図7(b)にてφL、φRが変化しないことである。そのためには、ズーム動作後に液晶パネル上の補正点P1〜P4の座標を補正する必要があり、例えばP1の補正後のX座標は、幾何的に以下のように求められる。   The fact that the positions PS1 and PS2 of the four corners of the correction point on the screen before and after the zoom operation are the same means that φL and φR do not change in FIGS. 7 (a) and 7 (b). For this purpose, it is necessary to correct the coordinates of the correction points P1 to P4 on the liquid crystal panel after the zoom operation. For example, the X coordinate after correction of P1 is obtained geometrically as follows.

まず、仮想パネルの幅Wは、プロジェクタ100と仮想投影面710との距離をDとすると、
W=D・tan(θ’L)+D・tan(θ’R)
である。
First, the width W of the virtual panel is set such that the distance between the projector 100 and the virtual projection plane 710 is D.
W = D · tan (θ′L) + D · tan (θ′R)
It is.

ここで仮想パネル上の左端からP1までの距離(仮想パネル上の座標)DP1は、
DP1=D・tan(θ’L)−D・tan(φ’L)
となる。
Here, the distance (coordinate on the virtual panel) DP1 from the left end on the virtual panel to P1 is:
DP1 = D · tan (θ′L) −D · tan (φ′L)
It becomes.

ここで液晶パネルの解像度をPXとすると、液晶パネル上のP1のX座標Xd1は、
Xd1=(DP1×PX)/W
と求められる。
If the resolution of the liquid crystal panel is PX, the X coordinate Xd1 of P1 on the liquid crystal panel is
Xd1 = (DP1 × PX) / W
Is required.

以上、P1のX座標の補正方法について説明したが、同様の手順で、P1のY座標、またP2〜P4のX、Y座標についても求めることができる。   Although the correction method of the X coordinate of P1 has been described above, the Y coordinate of P1 and the X and Y coordinates of P2 to P4 can also be obtained by the same procedure.

このように、補正点P1〜P4の投影画像の中心に投影領域の中心が近づくように座標を補正した後に、ズーム動作を行う。   As described above, after correcting the coordinates so that the center of the projection area approaches the center of the projection image of the correction points P1 to P4, the zoom operation is performed.

以上説明したように、本実施形態のプロジェクタによれば、ユーザが歪補正時に4隅の補正点の位置を決定すると、ズーム動作が行われて投影画像は目標投影位置を包含する関係を保ちながらも限りなく縮小され、その縮小率に応じて投影画像が歪補正される。そのため、撮像手段を用いることなく、歪補正前の投影画像と投影領域との位置関係によらず、投影画像を適切な大きさ及び形状に歪補正を行うことができる。   As described above, according to the projector of the present embodiment, when the user determines the positions of the correction points at the four corners during distortion correction, the zoom operation is performed and the projection image maintains the relationship including the target projection position. The projection image is reduced as much as possible, and the projection image is subjected to distortion correction according to the reduction ratio. Therefore, it is possible to correct the distortion of the projection image to an appropriate size and shape without using an imaging unit, regardless of the positional relationship between the projection image before distortion correction and the projection area.

[実施形態2]本実施形態のプロジェクタは、レンズシフトも連動する構成である。なお、本実施形態のプロジェクタの全体構成、基本動作、画像処理部の構成については、実施形態1と同様であるため説明は省略する。   [Embodiment 2] The projector of this embodiment has a configuration in which lens shift is also interlocked. Note that the overall configuration, basic operation, and configuration of the image processing unit of the projector according to the present embodiment are the same as those of the first embodiment, and thus description thereof is omitted.

図9は本実施形態のプロジェクタ100の動作を示している。図9の動作は、CPU110が、ROM111に格納されたプログラムを、RAM112のワークエリアに展開し、各動作ブロックを制御することにより実現される。図7におけるS901〜S908の処理は、図4のS401〜S408と同様であるので説明は省略する。   FIG. 9 shows the operation of the projector 100 of the present embodiment. The operation shown in FIG. 9 is realized by the CPU 110 developing a program stored in the ROM 111 in the work area of the RAM 112 and controlling each operation block. The processing in S901 to S908 in FIG. 7 is the same as S401 to S408 in FIG.

図9において、S908にて、CPU110は、補正点P1〜P4は液晶パネルの投影領域端に接していないと判定した場合にはS909に進む。   In FIG. 9, if the CPU 110 determines in S908 that the correction points P1 to P4 are not in contact with the projection area end of the liquid crystal panel, the process proceeds to S909.

S909では、CPU110は、光学系制御部170にズームレンズを駆動させてズーム動作を行うか、若しくはシフトレンズを駆動させてレンズシフトを行うかを判定する。この判定は例えば、図7のθL、θRが、後述するS910の条件を満たすまではレンズシフトを行い、それ以外はズームを行うと判定する。   In step S909, the CPU 110 determines whether the optical system control unit 170 drives the zoom lens to perform a zoom operation, or drives the shift lens to perform lens shift. In this determination, for example, it is determined that the lens shift is performed until θL and θR in FIG. 7 satisfy a condition of S910 described later, and the zoom is performed otherwise.

CPU110がズームを行うと判定した場合はS911に、レンズシフトを行うと判定した場合はS910に進む。   If the CPU 110 determines to perform zooming, the process proceeds to S911. If the CPU 110 determines to perform lens shift, the process proceeds to S910.

S910では、CPU110は、光学系制御部170に対し、レンズシフトを行うように指示する。光学系制御部170はCPU110の指示に応じて、シフトレンズを駆動し投影面上の投影画像の位置を移動させる。S909またはS910の動作が終了するとS912に進む。   In S910, the CPU 110 instructs the optical system control unit 170 to perform lens shift. In response to an instruction from the CPU 110, the optical system control unit 170 drives the shift lens to move the position of the projection image on the projection plane. When the operation of S909 or S910 ends, the process proceeds to S912.

なお、レンズシフトによる投影画像の移動方向は、S911およびS912において、ズームの縮小と補正点の座標の再計算が行われる際に、現在の投影状態のままS911およびS912を行う場合と比較して、よりズームを縮小方向に変化できる方向である。
図7(a)の記号を用いて説明すると、
θL:θR=φp1:φp2
となるようにθLおよびθRを変更すると、ズームを縮小した際に補正点P1、P2が共に液晶パネルの左右の投影領域端に位置することになる。ただし、不図示のP3、P4および各補正点のY座標も考慮したほうがよく、同様にθLおよびθRの値をそれぞれ求め、例えばその平均値をレンズシフトの目標値とすればよい。S910でレンズシフトが終了すると、CPU110はP1〜P4の液晶パネル上の座標を補正する。これは実施形態1で説明したズーム動作の際の補正と同様に、投影角θL、θRが変化した時に、φL、φRが変化しない条件を求めればよい。
Note that the movement direction of the projected image by lens shift is compared to the case of performing S911 and S912 in the current projection state when zoom reduction and recalculation of the coordinates of the correction point are performed in S911 and S912. In this direction, the zoom can be changed in the reduction direction.
If it demonstrates using the symbol of Drawing 7 (a),
θL: θR = φp1: φp2
If θL and θR are changed so that the zoom ratio is reduced, correction points P1 and P2 are both positioned at the left and right projection area ends of the liquid crystal panel when zooming is reduced. However, it is better to consider P3, P4 (not shown) and the Y coordinate of each correction point. Similarly, the values of θL and θR are obtained, for example, and the average value may be set as the target value of the lens shift. When the lens shift is completed in S910, the CPU 110 corrects the coordinates on the liquid crystal panel P1 to P4. Similar to the correction at the time of the zoom operation described in the first embodiment, it is only necessary to obtain a condition in which φL and φR do not change when the projection angles θL and θR change.

S911〜S913の処理は、図4のS409〜S411の処理と同様であるので説明は省略する。   The processing of S911 to S913 is the same as the processing of S409 to S411 in FIG.

<歪補正処理中の投影画像の変化の様子の説明>次に、図10を参照して、歪補正処理中の投影画像の変化の様子を、ユーザ操作と投影面上の投影画像の変化を対応付けて説明する。ここでは、歪補正処理の開始前において、図10(a)のように投影画像520が目標形状530の全体を包含している場合を例に説明する。   <Description of Change in Projected Image During Distortion Correction Processing> Next, with reference to FIG. 10, the change in the projected image during distortion correction processing is described with respect to user operations and changes in the projected image on the projection plane. This will be explained in association with each other. Here, an example will be described in which the projected image 520 includes the entire target shape 530 as shown in FIG. 10A before the start of the distortion correction processing.

まずユーザは、実施形態1と同様の手順で補正点P1〜P4を順に選択し、補正点が目標形状の頂点に一致するように移動指示を行う。全ての補正点の移動が終了すると投影画像は図10(b)のようになり、投影画像は目標形状530と等しくなる。   First, the user sequentially selects correction points P1 to P4 in the same procedure as in the first embodiment, and gives a movement instruction so that the correction points coincide with the vertices of the target shape. When the movement of all the correction points is completed, the projected image becomes as shown in FIG. 10B, and the projected image becomes equal to the target shape 530.

このとき、CPU110は図10(b)の投影状態において、液晶パネル上の補正点P1〜P4が液晶パネルの有効投影領域端に接しているか否かを判定する。本例では、液晶パネル上の補正点P1〜P4が液晶パネルの有効投影領域端に接していないため、S409にて、光学系制御部170がシフトレンズを駆動し、投影画像が投影面上で移動され、前述の手順で、補正点P1〜P4の液晶パネル上の座標の補正が行われ、図10(d)のような投影状態となる。   At this time, the CPU 110 determines whether or not the correction points P1 to P4 on the liquid crystal panel are in contact with the end of the effective projection area of the liquid crystal panel in the projection state of FIG. In this example, since the correction points P1 to P4 on the liquid crystal panel are not in contact with the effective projection region end of the liquid crystal panel, the optical system control unit 170 drives the shift lens in S409, and the projected image is displayed on the projection surface. The coordinates of the correction points P1 to P4 on the liquid crystal panel are corrected by the above-described procedure, and the projection state as shown in FIG.

その後、実施形態1と同様の手順でズームによる縮小とそれに伴う補正点P1〜P4の液晶パネル上での座標位置の補正が行われ、投影状態は図10(e)のようになる。   Thereafter, the zooming and the correction of the coordinate positions of the correction points P1 to P4 on the liquid crystal panel are performed in the same procedure as in the first embodiment, and the projection state is as shown in FIG.

以上の手順により、投影画像520を目標形状530に一致させるよう歪補正を行うことができる。なお、実施形態1のようにレンズシフトを行わない手順においては、投影画像は図10(c)となる。一方、本実施形態のプロジェクタ100が歪補正を行った投影画像は図10(e)のようになり、実施形態1に比べ、歪補正による解像度劣化を抑えることができる。   Through the above procedure, distortion correction can be performed so that the projected image 520 matches the target shape 530. Note that, in the procedure in which the lens shift is not performed as in the first embodiment, the projected image is as shown in FIG. On the other hand, the projected image on which the projector 100 of the present embodiment has corrected the distortion is as shown in FIG. 10E, and compared with the first embodiment, resolution degradation due to the distortion correction can be suppressed.

[その他の実施形態]
本発明は、以下の処理を実行することによっても実現される。即ち、本実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of this embodiment is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program. It is processing to do.

Claims (7)

画像を投影面に投影する投影手段と、
ユーザ操作に応じて前記投影面に投影された画像における複数の補正点の位置を移動させる設定手段と、
前記設定手段により設定された前記補正点の位置に応じて、前記投影された画像の形状を変形する変形手段と、
前記投影手段による投影範囲をズームにより光学的に補正する補正手段と、
前記変形手段による変形後の投影された画像における前記複数の補正点に対応する位置が前記投影範囲の内側である場合、前記投影範囲を縮小するように前記補正手段を制御する制御手段と、を有することを特徴とする投影装置。
Projection means for projecting an image onto a projection plane;
Setting means for moving the positions of a plurality of correction points in the image projected on the projection surface in response to a user operation;
Deformation means for deforming the shape of the projected image in accordance with the position of the correction point set by the setting means ;
Correction means for optically correcting the projection range by the projection means by zooming;
If positions corresponding to the plurality of correction points in the projected image after deformation by the deforming means is inside the projection range, and control means for controlling the correction means so that to reduce the projection range, A projection apparatus comprising:
前記制御手段は、前記設定手段により設定された前記複数の補正点のいずれか1つに対応する位置が前記投影範囲の外側にならないように、前記投影範囲を縮小するように前記補正手段を制御することを特徴とする請求項1に記載の投影装置。 The control unit controls the correction unit to reduce the projection range so that a position corresponding to any one of the plurality of correction points set by the setting unit does not fall outside the projection range. The projection apparatus according to claim 1, wherein: 前記補正手段は、シフトレンズを駆動することによって前記投影範囲を移動するレンズシフト手段を有し、
前記制御手段は、前記設定手段により設定された前記複数の補正点の中心に前記投影範囲の中心が近づくように移動させた後に、前記投影範囲を縮小することを特徴とする請求項1または2に記載の投影装置。
The correction unit includes a lens shift unit that moves the projection range by driving a shift lens;
Wherein, after the center of the projection range in the center of the set of the plurality of correction points it is moved so as to approach by the setting unit, according to claim 1 or 2, characterized in that to reduce the projection range The projection apparatus described in 1.
前記制御手段は、前記設定手段により設定された前記複数の補正点のいずれか1つに対応する位置が前記投影範囲の端部に接すると、前記投影範囲を縮小する補正を停止することを特徴とする請求項1に記載の投影装置。 The control unit stops correction for reducing the projection range when a position corresponding to any one of the plurality of correction points set by the setting unit is in contact with an end of the projection range. The projection apparatus according to claim 1. 画像を投影面に投影する投影手段と、前記投影手段による投影範囲をズームにより光学的に補正する補正手段と、を有する投影装置の制御方法であって、
ユーザ操作に応じて前記投影面に投影された画像における複数の補正点の位置を移動させる設定工程と、
前記設定された前記補正点の位置に応じて、前記投影された画像の形状を変形する変形工程と、
前記変形後の投影された画像における前記複数の補正点に対応する位置が前記投影範囲の内側である場合、前記投影範囲を縮小するように前記補正手段を制御する制御工程と、を有することを特徴とする制御方法。
A projection apparatus control method comprising: a projection unit that projects an image onto a projection plane; and a correction unit that optically corrects a projection range of the projection unit by zooming ,
A setting step of moving the positions of a plurality of correction points in the image projected on the projection surface in accordance with a user operation;
A deformation step of deforming the shape of the projected image according to the set position of the correction point ;
If positions corresponding to the plurality of correction points in the projected image after the deformation is inside the projection range, to have a controlling process of controlling the correction means so that to reduce the projection range A control method characterized by the above.
コンピュータを、請求項1からのいずれか1項に記載された投影装置の各手段として機能させるためのプログラム。 The program for functioning a computer as each means of the projection apparatus described in any one of Claim 1 to 4 . コンピュータを、請求項1からのいずれか1項に記載された投影装置の各手段として機能させるためのプログラムを格納したコンピュータにより読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to function as each unit of the projection apparatus according to any one of claims 1 to 4 .
JP2012179887A 2012-08-14 2012-08-14 Projection apparatus, control method therefor, program, and storage medium Active JP6103855B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012179887A JP6103855B2 (en) 2012-08-14 2012-08-14 Projection apparatus, control method therefor, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012179887A JP6103855B2 (en) 2012-08-14 2012-08-14 Projection apparatus, control method therefor, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2014039133A JP2014039133A (en) 2014-02-27
JP6103855B2 true JP6103855B2 (en) 2017-03-29

Family

ID=50286948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012179887A Active JP6103855B2 (en) 2012-08-14 2012-08-14 Projection apparatus, control method therefor, program, and storage medium

Country Status (1)

Country Link
JP (1) JP6103855B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6775179B2 (en) * 2016-05-12 2020-10-28 学校法人立命館 Picking system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3996571B2 (en) * 2003-12-05 2007-10-24 Necディスプレイソリューションズ株式会社 projector
JP2005208092A (en) * 2004-01-20 2005-08-04 Seiko Epson Corp Projector and zoom adjustment method therefor
JP2005227661A (en) * 2004-02-16 2005-08-25 Nec Viewtechnology Ltd Projector and method of correcting distortion
JP4363354B2 (en) * 2005-04-06 2009-11-11 セイコーエプソン株式会社 Distortion correction processing for projectors
JP2009200557A (en) * 2008-02-19 2009-09-03 Seiko Epson Corp Projector, electronic apparatus, and method of controlling projector

Also Published As

Publication number Publication date
JP2014039133A (en) 2014-02-27

Similar Documents

Publication Publication Date Title
JP6164820B2 (en) Projector, control method therefor, and image projection system
JP6208930B2 (en) Projection apparatus, control method therefor, program, and storage medium
US9292945B2 (en) Projector, image display system, and method of controlling projector
JP2017129770A (en) Projection device and projection method
JP6645687B2 (en) Display device and control method
US20170244941A1 (en) Projector and control method thereof
JP2019161397A (en) Control device, program, and control method
JP6271837B2 (en) Projection apparatus and control method thereof
JP2013083755A (en) Display device, method of controlling display device, and program
JP6794092B2 (en) Display device
JP2015114443A (en) Display device and control method of display device
JP6103855B2 (en) Projection apparatus, control method therefor, program, and storage medium
JP2019149633A (en) Projector, control device, image projection system, control method, and program
JP6700955B2 (en) Projection apparatus and projection method
JP2018054912A (en) Projection-type display device and method for controlling the same
JP6103850B2 (en) Display device and control method thereof
JP6345316B2 (en) Projector, control method therefor, program, and storage medium
JP2019114887A (en) Projection type image display device and control method thereof
JP2014137386A (en) Projector, control method therefor, and image projection system
JP2020072357A (en) Projection apparatus and projection method
JP2014142466A (en) Projection device and control method of the same, program, and storage medium
JP2019047355A (en) projector
JP2014036394A (en) Distortion correction method of projection image and projection display device
JP2019114889A (en) Projection device and calibration method of projection device
JP2015164238A (en) Projection device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170228

R151 Written notification of patent or utility model registration

Ref document number: 6103855

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151