JP2014142466A - Projection device and control method of the same, program, and storage medium - Google Patents

Projection device and control method of the same, program, and storage medium Download PDF

Info

Publication number
JP2014142466A
JP2014142466A JP2013010469A JP2013010469A JP2014142466A JP 2014142466 A JP2014142466 A JP 2014142466A JP 2013010469 A JP2013010469 A JP 2013010469A JP 2013010469 A JP2013010469 A JP 2013010469A JP 2014142466 A JP2014142466 A JP 2014142466A
Authority
JP
Japan
Prior art keywords
projection
unit
image
focus
positions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013010469A
Other languages
Japanese (ja)
Inventor
Takayuki Hirano
孝之 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013010469A priority Critical patent/JP2014142466A/en
Publication of JP2014142466A publication Critical patent/JP2014142466A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce a focus unevenness in a projection surface to be generated when a projection device is tilted to a screen.SOLUTION: A projection device 100 has: projection means 171 for projecting an image onto a projection surface; adjustment means 170 for adjusting a focus position of a projection image; acquisition means 194 for acquiring a distance to the projection means from at least two positions spaced apart from each other by a predetermined distance of a periphery of the projection image; determination means 111 for determining whether or not the at least two positions are simultaneously focused from a difference between a maximum value of the distance and a minimum value thereof; and reduction means 140 for, when the at least two positions are not simultaneously focused, reducing the projection image on the basis of a distance acquired by the acquisition means.

Description

本発明は、投影装置に関する。   The present invention relates to a projection apparatus.

従来、投影装置としてのプロジェクタを設置する際、ユーザは、スクリーンの位置とプロジェクタの位置を予め決めた後、スクリーンに投影された画像を見ながら、最適な投影状態が得られるように、投影レンズのズームやフォーカスを調整している。また、プロジェクタの向きやレンズシフト量を調整する必要が生じると、投影レンズのズームやフォーカスを再度調整しなければならず、最適な投影状態を得るまでに同様の作業を繰り返し行うため、非常に煩雑であった。   Conventionally, when installing a projector as a projection device, a user determines the position of the screen and the position of the projector in advance, and then the projection lens so that an optimal projection state can be obtained while viewing the image projected on the screen. The zoom and focus are adjusted. Also, if it becomes necessary to adjust the orientation of the projector and the lens shift amount, the zoom and focus of the projection lens must be adjusted again, and the same operation is repeated until the optimal projection state is obtained. It was complicated.

このような課題に対して、例えば、特許文献1には、プロジェクタとスクリーンの正確な位置情報を検出し、検出された位置情報に基づいて、ズーム、フォーカス、レンズシフトを制御することで、最適な投影画像を自動的に得られる技術が提案されている。   For example, Japanese Patent Application Laid-Open No. 2004-268531 detects the accurate position information of the projector and the screen, and controls zoom, focus, and lens shift based on the detected position information. A technique for automatically obtaining a projected image has been proposed.

特許第4090386号公報Japanese Patent No. 4090386

上記特許文献1に記載の技術は、プロジェクタとスクリーンの位置情報を利用して、投影画像を自動調整するものである。しかしながら、プロジェクタをスクリーンに対して傾けたときに、投影画面内のフォーカス分布により発生する、フォーカスが合っていない部分を投影画面全体で最適化するものではない。そのため、図10に示すように、プロジェクタの投影画面がスクリーンに対してフォーカスしていない部分があると、投影画面全体でフォーカスが合うように、ズームやフォーカスを個別に調整する必要がある。   The technique described in Patent Document 1 uses a projector and screen position information to automatically adjust a projection image. However, when the projector is tilted with respect to the screen, the out-of-focus portion generated by the focus distribution in the projection screen is not optimized over the entire projection screen. Therefore, as shown in FIG. 10, if there is a portion where the projection screen of the projector is not focused on the screen, it is necessary to individually adjust the zoom and focus so that the entire projection screen is focused.

本発明は、上記課題に鑑みてなされ、その目的は、投影装置をスクリーンに対して傾けた場合に発生する、投影画面内のフォーカスの不均一を低減し、投影画面全体で、フォーカス位置を最適化することができる技術を実現することである。   The present invention has been made in view of the above problems, and its object is to reduce the non-uniformity of focus in the projection screen that occurs when the projection apparatus is tilted with respect to the screen, and to optimize the focus position in the entire projection screen. It is to realize a technology that can be realized.

上記課題を解決し、目的を達成するために、本発明の投影装置は、画像を投影面に投影する投影手段と、投影画像のフォーカス位置を調整する調整手段と、前記投影画像の周辺の所定の距離だけ離間した少なくとも2つの位置から前記投影手段までの距離を取得する取得手段と、前記距離の最大値と最小値の差分から前記少なくとも2つの位置が同時に合焦しているか判定する判定手段と、前記少なくとも2つの位置が同時に合焦していない場合に、前記取得手段により得られた距離に基づいて、前記投影画像を縮小する縮小手段と、を有する。   In order to solve the above-described problems and achieve the object, a projection apparatus according to the present invention includes a projection unit that projects an image on a projection plane, an adjustment unit that adjusts a focus position of the projection image, and a predetermined periphery around the projection image. Acquisition means for acquiring the distance from the at least two positions separated by the distance to the projection means, and determination means for determining whether the at least two positions are in focus simultaneously from the difference between the maximum value and the minimum value of the distance And a reduction means for reducing the projection image based on the distance obtained by the acquisition means when the at least two positions are not in focus at the same time.

本発明によれば、投影装置をスクリーンに対して傾けた場合に発生する、投影画面内のフォーカスの不均一を低減し、投影画面全体で、フォーカス位置を最適化することができる。   According to the present invention, it is possible to reduce the non-uniformity of focus in the projection screen, which occurs when the projection apparatus is tilted with respect to the screen, and to optimize the focus position in the entire projection screen.

本発明に係る実施形態の装置構成を示すブロック図。The block diagram which shows the apparatus structure of embodiment which concerns on this invention. 本実施形態の投影装置の基本動作を示すフローチャート。6 is a flowchart showing the basic operation of the projection apparatus of the present embodiment. 光学系制御部の構成図。The block diagram of an optical system control part. 画像処理部の構成図。The block diagram of an image process part. 撮像部の構成図。The block diagram of an imaging part. 実施形態1のプロジェクタの動作を示すフローチャート。6 is a flowchart illustrating the operation of the projector according to the first embodiment. 実施形態2のプロジェクタの動作を示すフローチャート。10 is a flowchart showing the operation of the projector according to the second embodiment. 実施形態3のプロジェクタの動作を示すフローチャート。10 is a flowchart showing the operation of the projector according to the third embodiment. 実施形態4のプロジェクタの動作を示すフローチャート。10 is a flowchart showing the operation of the projector according to the fourth embodiment. 従来の課題を説明する図。The figure explaining the conventional subject.

以下に、本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。   Hereinafter, embodiments for carrying out the present invention will be described in detail. The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment. Moreover, you may comprise combining suitably one part of each embodiment mentioned later.

以下、本発明の投影装置を、例えば、静止画や動画を投影する液晶プロジェクタに適用した実施形態について説明する。   Hereinafter, an embodiment in which the projection apparatus of the present invention is applied to, for example, a liquid crystal projector that projects a still image or a moving image will be described.

<装置構成>図1を参照して、本発明に係る実施形態の投影装置の構成及び機能の概略について説明する。   <Apparatus Configuration> With reference to FIG. 1, an outline of the configuration and functions of a projection apparatus according to an embodiment of the present invention will be described.

本実施形態の液晶プロジェクタ(以下、プロジェクタ)は、投影面に表示するべき画像に応じて、液晶素子の光の透過率を制御して、液晶素子を透過した光源からの光をスクリーンに投影することで、画像をユーザに提示する。   The liquid crystal projector according to the present embodiment (hereinafter referred to as a projector) controls the light transmittance of the liquid crystal element in accordance with an image to be displayed on the projection surface, and projects the light from the light source transmitted through the liquid crystal element onto the screen. Thus, the image is presented to the user.

図1において、本実施形態のプロジェクタ100は、CPU110、ROM111、RAM112、操作部113、画像入力部130、画像処理部140を有する。また、プロジェクタ100は、液晶制御部150、液晶素子151R、151G、151B、光源制御部160、光源161、色分離部162、色合成部163、光学系制御部170、投影光学系171を有する。さらに、プロジェクタ100は、記録再生部191、記録媒体192、通信部193、撮像部194、表示制御部195、表示部196を有していてもよい。   In FIG. 1, the projector 100 according to the present embodiment includes a CPU 110, a ROM 111, a RAM 112, an operation unit 113, an image input unit 130, and an image processing unit 140. The projector 100 also includes a liquid crystal control unit 150, liquid crystal elements 151R, 151G, and 151B, a light source control unit 160, a light source 161, a color separation unit 162, a color composition unit 163, an optical system control unit 170, and a projection optical system 171. Further, the projector 100 may include a recording / playback unit 191, a recording medium 192, a communication unit 193, an imaging unit 194, a display control unit 195, and a display unit 196.

CPU110は、プロジェクタ100の各動作ブロックを制御する。ROM111は、CPU110の処理手順を記述した制御プログラムを記憶する。RAM112は、ワークメモリとして一時的に制御プログラムやデータを格納する。また、CPU110は、記録再生部191により記録媒体192から読み出された静止画ファイルや動画ファイルを一時的に記憶し、ROM111に記憶されたプログラムを用いて、それぞれの静止画や動画を再生することもできる。また、CPU110は、通信部193より受信した静止画ファイルや動画ファイルを一時的に記憶し、ROM111に記憶されたプログラムを用いて、それぞれの静止画や動画を再生することもできる。また、CPU110は、撮像部194により得られた画像信号を一時的にRAM112に記憶し、ROM111に記憶されたプログラムを用いて、静止画ファイルや動画ファイルを生成して記録媒体192に記録させることもできる。   CPU 110 controls each operation block of projector 100. The ROM 111 stores a control program that describes the processing procedure of the CPU 110. The RAM 112 temporarily stores control programs and data as work memory. In addition, the CPU 110 temporarily stores the still image file and the moving image file read from the recording medium 192 by the recording / reproducing unit 191 and reproduces each still image and moving image using the program stored in the ROM 111. You can also Further, the CPU 110 can temporarily store the still image file and the moving image file received from the communication unit 193, and can reproduce each still image and moving image using the program stored in the ROM 111. In addition, the CPU 110 temporarily stores the image signal obtained by the imaging unit 194 in the RAM 112, generates a still image file or a moving image file using the program stored in the ROM 111, and records the still image file or moving image file on the recording medium 192. You can also.

また、操作部113は、例えばスイッチやダイヤル、表示部196上に設けられたタッチパネルなどからなり、ユーザの操作指示を受け付け、CPU110に指示信号を送信する。また、操作部113は、例えば、不図示のリモコンからの信号を受信する信号受信部(赤外線受信部など)で、受信した信号に基づいて所定の指示信号をCPU110に送信するものであってもよい。また、CPU110は、操作部113や、通信部193から入力された制御信号を受信して、プロジェクタ100の各動作ブロックを制御する。   The operation unit 113 includes, for example, a switch, a dial, and a touch panel provided on the display unit 196. The operation unit 113 receives a user operation instruction and transmits an instruction signal to the CPU 110. For example, the operation unit 113 may be a signal reception unit (such as an infrared reception unit) that receives a signal from a remote controller (not shown) and transmits a predetermined instruction signal to the CPU 110 based on the received signal. Good. In addition, the CPU 110 receives control signals input from the operation unit 113 and the communication unit 193 and controls each operation block of the projector 100.

画像入力部130は、外部装置から静止画信号や動画信号を受信する。画像入力部130は、例えば、コンポジット端子、S映像端子、D端子、コンポーネント端子、アナログRGB端子、DVI−I端子、DVI−D端子、HDMI(登録商標)端子等を含む。また、画像入力部130は、アナログの静止画信号や動画信号を受信した場合には、受信したアナログ信号をデジタル信号に変換し、画像処理部140に送信する。ここで、外部装置は、静止画信号や動画信号を出力できるものであれば、パーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機など、どのようなものであってもよい。   The image input unit 130 receives a still image signal and a moving image signal from an external device. The image input unit 130 includes, for example, a composite terminal, an S video terminal, a D terminal, a component terminal, an analog RGB terminal, a DVI-I terminal, a DVI-D terminal, an HDMI (registered trademark) terminal, and the like. In addition, when receiving an analog still image signal or moving image signal, the image input unit 130 converts the received analog signal into a digital signal and transmits the digital signal to the image processing unit 140. Here, the external device may be any device such as a personal computer, a camera, a mobile phone, a smartphone, a hard disk recorder, or a game machine as long as it can output a still image signal or a moving image signal.

画像処理部140は、図4で詳述するが、例えば画像処理用のマイクロプロセッサからなり、画像入力部130から受信した静止画信号や動画信号にフレーム数、画素数、画像形状などの変更処理を施して、液晶制御部150に送信する。また、画像処理部140は、専用のマイクロプロセッサである必要はなく、例えば、ROM111に記憶されたプログラムによって、CPU110が画像処理部140と同様の処理を実行してもよい。画像処理部140は、フレーム間引き処理、フレーム補間処理、解像度変換処理、歪み補正処理(キーストン補正処理)といった機能を実行することが可能である。また、画像処理部140は、画像入力部130から受信した信号以外にも、CPU110によって再生された画像や映像に対して前述の変更処理を施すこともできる。   As will be described in detail with reference to FIG. 4, the image processing unit 140 includes, for example, a microprocessor for image processing. To the liquid crystal control unit 150. Further, the image processing unit 140 does not need to be a dedicated microprocessor. For example, the CPU 110 may execute the same processing as the image processing unit 140 by a program stored in the ROM 111. The image processing unit 140 can execute functions such as frame thinning processing, frame interpolation processing, resolution conversion processing, and distortion correction processing (keystone correction processing). In addition to the signal received from the image input unit 130, the image processing unit 140 can also perform the above-described change processing on the image or video reproduced by the CPU 110.

液晶制御部150は、例えば制御用のマイクロプロセッサからなり、画像処理部140で処理された静止画信号や動画信号に基づいて、各液晶パネルの液晶素子151R、151G、151Bの画素の液晶に印加する電圧を制御して、液晶素子151R、151G、151Bの透過率を調整する。なお、液晶制御部150は、専用のマイクロプロセッサである必要はなく、例えば、ROM111に記憶されたプログラムによって、CPU110が液晶制御部150と同様の処理を実行してもよい。例えば、画像処理部140に動画信号が入力されている場合、液晶制御部150は、画像処理部140から1フレームの画像データを受信するごとに、画像に対応する透過率となるように、液晶素子151R、151G、151Bを制御する。液晶素子151Rは、赤色に対応する液晶素子であって、光源161から出力された光のうち、色分離部162で赤色(R)、緑色(G)、青色(B)に分離された光のうち、赤色の光の透過率を調整する。液晶素子151Gは、緑色に対応する液晶素子であって、光源161から出力された光のうち、色分離部162で赤色(R)、緑色(G)、青色(B)に分離された光のうち、緑色の光の透過率を調整する。液晶素子151Bは、青色に対応する液晶素子であって、光源161から出力された光のうち、色分離部162で赤色(R)、緑色(G)、青色(B)に分離された光のうち、青色の光の透過率を調整する。   The liquid crystal control unit 150 includes, for example, a control microprocessor, and is applied to the liquid crystal of the pixels of the liquid crystal elements 151R, 151G, and 151B of each liquid crystal panel based on the still image signal and the moving image signal processed by the image processing unit 140. The transmittance of the liquid crystal elements 151R, 151G, and 151B is adjusted by controlling the voltage to be applied. Note that the liquid crystal control unit 150 does not have to be a dedicated microprocessor. For example, the CPU 110 may execute the same processing as the liquid crystal control unit 150 by a program stored in the ROM 111. For example, when a moving image signal is input to the image processing unit 140, the liquid crystal control unit 150 causes the liquid crystal control unit 150 to have a transmittance corresponding to an image every time one frame of image data is received from the image processing unit 140. The elements 151R, 151G, and 151B are controlled. The liquid crystal element 151 </ b> R is a liquid crystal element corresponding to red, and out of the light output from the light source 161, the light separated into red (R), green (G), and blue (B) by the color separation unit 162. Among them, the transmittance of red light is adjusted. The liquid crystal element 151 </ b> G is a liquid crystal element corresponding to green, and out of the light output from the light source 161, the light separated into red (R), green (G), and blue (B) by the color separation unit 162. Among them, the transmittance of green light is adjusted. The liquid crystal element 151 </ b> B is a liquid crystal element corresponding to blue, and of the light output from the light source 161, the light separated into red (R), green (G), and blue (B) by the color separation unit 162. Among them, the transmittance of blue light is adjusted.

光源制御部160は、光源161のオン/オフの制御や光量の制御をする、例えば制御用のマイクロプロセッサからなる。なお、光源制御部160は、専用のマイクロプロセッサである必要はなく、例えば、ROM111に記憶されたプログラムによって、CPU110が光源制御部160と同様の処理を実行してもよい。また、光源161は、例えばハロゲンランプ、キセノンランプ、高圧水銀ランプであり、スクリーン180に画像や映像を投影するための光を出力する。また、色分離部162は、例えばダイクロイックミラーやプリズムからなり、光源161から出力された光を、赤色(R)、緑色(G)、青色(B)に分離する。なお、光源161として、各色に対応するLED等を使用する場合には、色分離部162は不要である。また、色合成部163は、例えばダイクロイックミラーやプリズムからなり、液晶素子151R、151G、151Bを透過した赤色(R)、緑色(G)、青色(B)の光を合成する。そして、色合成部163により赤色(R)、緑色(G)、青色(B)の成分を合成した光は、投影光学系171に送られる。このとき、液晶素子151R、151G、151Bは、画像処理部140から入力された画像データに対応する光の透過率となるように、液晶制御部150により制御される。そのため、色合成部163により合成された光は、投影光学系171によりスクリーンに投影されると、画像処理部140により入力された静止画データや動画データに対応する静止画や動画がスクリーン上に表示されることになる。   The light source control unit 160 includes, for example, a control microprocessor that controls on / off of the light source 161 and the amount of light. Note that the light source control unit 160 does not have to be a dedicated microprocessor. For example, the CPU 110 may execute the same processing as the light source control unit 160 by a program stored in the ROM 111. The light source 161 is, for example, a halogen lamp, a xenon lamp, or a high-pressure mercury lamp, and outputs light for projecting an image or video on the screen 180. The color separation unit 162 includes, for example, a dichroic mirror and a prism, and separates light output from the light source 161 into red (R), green (G), and blue (B). In addition, when using LED etc. corresponding to each color as the light source 161, the color separation part 162 is unnecessary. The color composition unit 163 is composed of, for example, a dichroic mirror or a prism, and synthesizes red (R), green (G), and blue (B) light transmitted through the liquid crystal elements 151R, 151G, and 151B. Then, light obtained by combining the red (R), green (G), and blue (B) components by the color combining unit 163 is sent to the projection optical system 171. At this time, the liquid crystal elements 151 </ b> R, 151 </ b> G, and 151 </ b> B are controlled by the liquid crystal control unit 150 so as to have light transmittance corresponding to the image data input from the image processing unit 140. Therefore, when the light synthesized by the color synthesizing unit 163 is projected on the screen by the projection optical system 171, a still image or a moving image corresponding to the still image data or the moving image data input by the image processing unit 140 is displayed on the screen. Will be displayed.

光学系制御部170は、図3で詳述するが、例えば制御用のマイクロプロセッサからなり、投影光学系171を制御する。なお、光学系制御部170は、専用のマイクロプロセッサである必要はなく、例えば、ROM111に記憶されたプログラムによって、CPU110が光学系制御部170と同様の処理を実行してもよい。また、投影光学系171は、色合成部163から出力された合成光をスクリーンに投影する。投影光学系171は、複数のレンズ、レンズ駆動用のアクチュエータからなり、レンズをアクチュエータにより駆動することで、投影画像の拡大、縮小、シフト、焦点調整などを行うことができる。   As will be described in detail with reference to FIG. 3, the optical system control unit 170 includes, for example, a control microprocessor, and controls the projection optical system 171. The optical system control unit 170 does not need to be a dedicated microprocessor. For example, the CPU 110 may execute the same processing as the optical system control unit 170 by a program stored in the ROM 111. The projection optical system 171 projects the combined light output from the color combining unit 163 onto the screen. The projection optical system 171 includes a plurality of lenses and lens driving actuators. By driving the lenses with the actuators, the projection image can be enlarged, reduced, shifted, and focused.

記録再生部191は、記録媒体192から読み出した静止画ファイルや動画ファイルを再生したり、また、撮像部194により得られた画像信号をCPU110から受信して記録媒体192に記録する。また、通信部193より受信した静止画ファイルや動画ファイルを記録媒体192に記録してもよい。記録再生部191は、例えば、記録媒体192と電気的に接続するインタフェースや記録媒体192と通信するためのマイクロプロセッサからなる。なお、記録再生部191には、専用のマイクロプロセッサを含む必要はなく、例えば、ROM111に記憶されたプログラムによって、CPU110が記録再生部191と同様の処理を実行してもよい。また、記録媒体192は、静止画ファイルや動画ファイル、その他、本実施形態のプロジェクタに必要な制御データなどを記録することができるものである。記録媒体192は、磁気ディスク、光学式ディスク、半導体メモリなどのあらゆる方式の記録媒体であってよく、着脱可能な記録媒体であっても、内蔵型の記録媒体であってもよい。   The recording / playback unit 191 plays back a still image file or a moving image file read from the recording medium 192, receives an image signal obtained by the imaging unit 194 from the CPU 110, and records it on the recording medium 192. Still image files and moving image files received from the communication unit 193 may be recorded on the recording medium 192. The recording / reproducing unit 191 includes, for example, an interface electrically connected to the recording medium 192 and a microprocessor for communicating with the recording medium 192. Note that the recording / reproducing unit 191 does not need to include a dedicated microprocessor. For example, the CPU 110 may execute the same processing as the recording / reproducing unit 191 by a program stored in the ROM 111. The recording medium 192 can record still image files, moving image files, and other control data necessary for the projector according to the present embodiment. The recording medium 192 may be any type of recording medium such as a magnetic disk, an optical disk, or a semiconductor memory, and may be a detachable recording medium or a built-in recording medium.

通信部193は、外部装置から制御信号や画像信号、静止画ファイルや動画ファイル等を受信するものであり、例えば、無線LAN、有線LAN、USB、Bluetooth(登録商標)などであってよく、通信方式を特に限定するものではない。また、画像入力部130の端子が、例えばHDMI(登録商標)端子であれば、その端子を介してCEC通信を行うものであってもよい。ここで、外部装置は、プロジェクタ100と通信が可能な機器であれば、パーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機、リモコンなど、どのようなものであってもよい。   The communication unit 193 receives a control signal, an image signal, a still image file, a moving image file, and the like from an external device. For example, the communication unit 193 may be a wireless LAN, a wired LAN, USB, Bluetooth (registered trademark), or the like. The method is not particularly limited. Further, if the terminal of the image input unit 130 is, for example, an HDMI (registered trademark) terminal, CEC communication may be performed via the terminal. Here, the external device may be any device such as a personal computer, a camera, a mobile phone, a smartphone, a hard disk recorder, a game machine, and a remote controller as long as it can communicate with the projector 100.

撮像部194は、液晶プロジェクタ100の周辺の被写体を撮像して画像信号を生成するために設けられており、投影光学系171を介して投影された静止画や動画を撮影(スクリーン方向を撮影)する。なお、撮像部194は、スクリーン方向を撮影するものに限られず、例えば、スクリーンとは反対方向の視聴者側を撮影しても良い。   The imaging unit 194 is provided to capture a subject around the liquid crystal projector 100 and generate an image signal. The imaging unit 194 captures a still image or a movie projected via the projection optical system 171 (captures the screen direction). To do. Note that the imaging unit 194 is not limited to capturing the screen direction, and may capture the viewer side in the opposite direction to the screen, for example.

CPU110は、撮像部194により得られた画像信号を一時的にRAM112に記憶し、ROM111に記憶されたプログラムを用いて、静止画データや動画データに変換する。また、CPU110は、変換した静止画データや動画データを解析し、合焦データ、輝度むら分布データに変換し、光学系制御部170や画像処理部140により、フォーカス調整、レンズ絞り調整、縮小処理、色むら補正等が施される。さらに、CPU110は、上記処理が施された静止画データや動画データを所定の形式の静止画ファイルや動画ファイルに変換して記録媒体192に記録する。なお、撮像部194の詳細な構成については、図5で後述する。   The CPU 110 temporarily stores the image signal obtained by the imaging unit 194 in the RAM 112 and converts it into still image data or moving image data using a program stored in the ROM 111. In addition, the CPU 110 analyzes the converted still image data and moving image data, converts the data into in-focus data and luminance unevenness distribution data, and performs focus adjustment, lens aperture adjustment, and reduction processing by the optical system control unit 170 and the image processing unit 140. Color unevenness correction and the like are performed. Further, the CPU 110 converts the still image data or moving image data subjected to the above processing into a still image file or moving image file of a predetermined format and records it on the recording medium 192. The detailed configuration of the imaging unit 194 will be described later with reference to FIG.

表示制御部195は、表示制御用のマイクロプロセッサなどからなり、プロジェクタ100に備えられた表示部196にプロジェクタ100を操作するための操作画面やスイッチアイコン等の画像を表示させるための制御をする。なお、表示制御部195専用のマイクロプロセッサである必要はなく、例えば、ROM111に記憶されたプログラムによって、CPU110が表示制御部195と同様の処理を実行してもよい。また、表示部196は、プロジェクタ100を操作するための操作画面やスイッチアイコンを表示する。表示部196は、画像を表示できればどのようなものであってもよい。例えば、液晶ディスプレイ、CRTディスプレイ、有機ELディスプレイ、LEDディスプレイであってよい。また、特定のボタンをユーザに認識可能に掲示するために、各ボタンに対応するLED等を発光させるものであってもよい。   The display control unit 195 includes a display control microprocessor or the like, and controls the display unit 196 provided in the projector 100 to display an image such as an operation screen for operating the projector 100 or a switch icon. Note that the display controller 195 need not be a dedicated microprocessor. For example, the CPU 110 may execute the same processing as the display controller 195 by a program stored in the ROM 111. The display unit 196 displays an operation screen and a switch icon for operating the projector 100. The display unit 196 may be anything as long as it can display an image. For example, it may be a liquid crystal display, a CRT display, an organic EL display, or an LED display. Further, in order to post a specific button so that the user can recognize it, an LED or the like corresponding to each button may be made to emit light.

なお、本実施形態の画像処理部140、液晶制御部150、光源制御部160、光学系制御部170、記録再生部191、表示制御部195は、これらの動作ブロックと同様の処理を行うことのできる単数または複数のマイクロプロセッサあってもよい。または、例えば、ROM111に記憶されたプログラムによって、CPU110が各ブロックと同様の処理を実行してもよい。   Note that the image processing unit 140, the liquid crystal control unit 150, the light source control unit 160, the optical system control unit 170, the recording / playback unit 191, and the display control unit 195 according to the present embodiment perform processing similar to these operation blocks. There may be one or more possible microprocessors. Alternatively, for example, the CPU 110 may execute the same processing as that of each block by a program stored in the ROM 111.

<基本動作>次に、図1及び図2を参照して、本実施形態のプロジェクタ100の基本動作について説明する。   <Basic Operation> Next, the basic operation of the projector 100 of this embodiment will be described with reference to FIG. 1 and FIG.

図2は、本実施形態のプロジェクタ100の基本動作を示すフローチャートである。なお、図2の動作は、CPU110が、ROM111に格納されたプログラムを、RAM112のワークエリアに展開し、各動作ブロックを制御することにより実現される。また、図2の動作は、ユーザが操作部113やリモコンによりプロジェクタ100の電源をオンすると開始される。操作部113やリモコンによりユーザがプロジェクタ100の電源をオンすると、CPU110は、不図示の電源制御部によりプロジェクタ100の各部へ不図示の電源部から電力の供給を開始する。   FIG. 2 is a flowchart showing the basic operation of the projector 100 of the present embodiment. 2 is realized by the CPU 110 developing the program stored in the ROM 111 in the work area of the RAM 112 and controlling each operation block. 2 starts when the user turns on the projector 100 with the operation unit 113 or the remote controller. When the user turns on the power of the projector 100 using the operation unit 113 or the remote controller, the CPU 110 starts supplying power from a power supply unit (not shown) to each unit of the projector 100 by a power supply control unit (not shown).

次に、CPU110は、ユーザによる操作部113やリモコンの操作により選択された表示モードを判定する(S210)。本実施形態のプロジェクタ100の表示モードの1つは、画像入力部130より入力された静止画データや動画データを表示する「入力画像表示モード」である。また、本実施形態のプロジェクタ100の表示モードの1つは、記録再生部191により記録媒体192から読み出された静止画ファイルや動画ファイルを表示する「ファイル再生表示モード」である。また、本実施形態のプロジェクタ100の表示モードの1つは、通信部193から受信した静止画ファイルや動画ファイルを表示する「ファイル受信表示モード」である。なお、本実施形態では、ユーザにより表示モードが選択される場合について説明するが、電源を投入した時点での表示モードは、前回終了時の表示モードになっていてもよく、また、前述のいずれかの表示モードをデフォルトの表示モードとしてもよい。その場合には、S210の処理は省略可能である。   Next, the CPU 110 determines the display mode selected by the operation of the operation unit 113 or the remote controller by the user (S210). One of the display modes of the projector 100 according to the present embodiment is an “input image display mode” for displaying still image data and moving image data input from the image input unit 130. In addition, one of the display modes of the projector 100 according to the present embodiment is a “file playback display mode” in which a still image file or a moving image file read from the recording medium 192 by the recording / playback unit 191 is displayed. In addition, one of the display modes of the projector 100 according to the present embodiment is a “file reception display mode” in which a still image file or a moving image file received from the communication unit 193 is displayed. In this embodiment, the case where the display mode is selected by the user will be described. However, the display mode at the time of turning on the power may be the display mode at the end of the previous time. These display modes may be set as the default display mode. In that case, the process of S210 can be omitted.

ここでは、S210で、「入力画像表示モード」が選択されたものとして説明する。   Here, it is assumed that “input image display mode” is selected in S210.

「入力画像表示モード」が選択されると、CPU110は、画像入力部130から静止画データや動画データが入力されるまで待機する(S220)。そして、入力された場合(S220でYes)は投影処理(S230)に移行する。   When the “input image display mode” is selected, the CPU 110 stands by until still image data or moving image data is input from the image input unit 130 (S220). If it is input (Yes in S220), the process proceeds to the projection process (S230).

S230では、CPU110は、画像処理部140により、画像入力部130により入力された静止画データや動画データの画素数、フレームレート、画像形状などの変更を実行させ、処理の施された1画面分の画像データを液晶制御部150に送信する。そして、CPU110は、液晶制御部150により、受信した1画面分の画像データの赤色(R)、緑色(G)、青色(B)の各色成分の階調レベルに応じた透過率となるように、各液晶パネルの液晶素子151R、151G、151Bの透過率を制御する。そして、CPU110は、光源制御部160により光源161からの光の出力を制御する。色分離部162は、光源161から出力された光を、赤色(R)、緑色(G)、青色(B)に分離し、それぞれの光を、各液晶パネルの液晶素子151R、151G、151Bに供給する。各液晶素子151R、151G、151Bに供給された各色の光は、各液晶素子の画素毎に透過する光量が制限される。そして、各液晶素子151R、151G、151Bを透過した赤色(R)、緑色(G)、青色(B)それぞれの光は、色合成部163に供給され再び合成される。そして、色合成部163で合成された光は、投影光学系171を介して、スクリーン180に投影される。   In S230, the CPU 110 causes the image processing unit 140 to change the number of pixels, the frame rate, the image shape, and the like of the still image data and the moving image data input by the image input unit 130, and performs processing for one processed screen. Is sent to the liquid crystal control unit 150. Then, the CPU 110 causes the liquid crystal control unit 150 to obtain a transmittance corresponding to the gradation level of each color component of red (R), green (G), and blue (B) of the received image data for one screen. The transmittance of the liquid crystal elements 151R, 151G, and 151B of each liquid crystal panel is controlled. Then, the CPU 110 controls the output of light from the light source 161 by the light source control unit 160. The color separation unit 162 separates the light output from the light source 161 into red (R), green (G), and blue (B), and separates each light into the liquid crystal elements 151R, 151G, and 151B of each liquid crystal panel. Supply. The amount of light of each color supplied to each liquid crystal element 151R, 151G, 151B is limited for each pixel of each liquid crystal element. The red (R), green (G), and blue (B) lights transmitted through the liquid crystal elements 151R, 151G, and 151B are supplied to the color synthesis unit 163 and synthesized again. The light synthesized by the color synthesis unit 163 is projected onto the screen 180 via the projection optical system 171.

この投影処理は、画像を投影している間、1フレームの画像データ毎に順次、実行されている。   This projection processing is executed sequentially for each frame of image data while an image is being projected.

なお、このとき、ユーザにより操作部113から投影光学系171の操作指示が入力されると、CPU110は、光学系制御部170により、投影画像の焦点を変更したり、光学系の拡大率を変更したりするように投影光学系171のアクチュエータを制御する。   At this time, when an operation instruction for the projection optical system 171 is input from the operation unit 113 by the user, the CPU 110 causes the optical system control unit 170 to change the focus of the projection image or change the magnification ratio of the optical system. The actuator of the projection optical system 171 is controlled so that it does.

この投影処理実行中に、CPU110は、ユーザにより操作部113から表示モードを切り替える指示が入力されたか否かを判定する(S240)。ここで、操作部113から表示モードを切り替える指示が入力されると(S240でYes)、CPU110は、再びS210に戻り、表示モードの判定を行う。このとき、CPU110は、画像処理部140に、表示モードを選択させるためのメニュー画面をOSD(On Screen Display)画像データとして送信し、投影中の画像に対して、このOSD画面を重畳させるように画像処理部140を制御する。ユーザは、この投影されたOSD画面を見ながら、表示モードを選択する。   During execution of the projection processing, the CPU 110 determines whether or not an instruction to switch the display mode is input from the operation unit 113 by the user (S240). When an instruction to switch the display mode is input from the operation unit 113 (Yes in S240), the CPU 110 returns to S210 again and determines the display mode. At this time, the CPU 110 transmits a menu screen for selecting a display mode to the image processing unit 140 as OSD (On Screen Display) image data, and superimposes the OSD screen on the image being projected. The image processing unit 140 is controlled. The user selects a display mode while viewing the projected OSD screen.

一方、投影処理実行中に、ユーザにより操作部113から表示モードを切り替える指示が入力されない場合は(S240でNO)、CPU110は、ユーザにより操作部113から投影終了の指示が入力されたか否かを判定する(S250)。ここで、操作部113から投影終了の指示が入力された場合には(S250でYES)、CPU110は、プロジェクタ100の各動作ブロックに対する電源供給を停止させ、投影処理を終了する。一方、操作部113から投影終了の指示が入力されない場合には(S250でNo)、CPU110は、S220へ戻り、以降、操作部113から投影終了の指示が入力されるまで、S220からS250までの処理を繰り返す。   On the other hand, when the instruction for switching the display mode is not input from the operation unit 113 by the user during the projection processing (NO in S240), the CPU 110 determines whether or not the projection end instruction is input from the operation unit 113 by the user. Determination is made (S250). If an instruction to end projection is input from the operation unit 113 (YES in S250), the CPU 110 stops power supply to each operation block of the projector 100 and ends the projection process. On the other hand, when a projection end instruction is not input from the operation unit 113 (No in S250), the CPU 110 returns to S220, and thereafter, from S220 to S250 until a projection end instruction is input from the operation unit 113. Repeat the process.

以上のようにして、本実施形態のプロジェクタ100は、スクリーンに対して画像を投影する。   As described above, the projector 100 according to the present embodiment projects an image on the screen.

なお、「ファイル再生表示モード」では、CPU110は、記録再生部191により、記録媒体192から静止画ファイルや動画ファイルのファイルリストや各ファイルのサムネイルデータを読み出し、RAM112に一時的に記憶する。そして、CPU110は、ROM111に記憶されたプログラムに基づいて、RAM112に一時的に記憶されたファイルリストに基づく文字画像や各ファイルのサムネイルデータに基づく画像データを生成し、画像処理部140に送信する。そして、CPU110は、通常の投影処理(S230)と同様に、画像処理部140、液晶制御部150、光源制御部160を制御する。   In the “file playback display mode”, the CPU 110 causes the recording / playback unit 191 to read a file list of still image files and moving image files and thumbnail data of each file from the recording medium 192 and temporarily store them in the RAM 112. Then, based on the program stored in the ROM 111, the CPU 110 generates a character image based on the file list temporarily stored in the RAM 112 and image data based on the thumbnail data of each file, and transmits the image data to the image processing unit 140. . Then, the CPU 110 controls the image processing unit 140, the liquid crystal control unit 150, and the light source control unit 160 in the same manner as the normal projection processing (S230).

次に、投影画面上において、記録媒体192に記録された静止画ファイルや動画ファイルに対応する文字画像やサムネイルを選択する指示が操作部113を介して入力される。そして、CPU110は、選択された静止画ファイルや動画ファイルを記録媒体192から読み出すように記録再生部191を制御する。さらに、CPU110は、読み出された静止画ファイルや動画ファイルをRAM112に一時的に記憶し、ROM111記憶されたプログラムに基づいて静止画や動画を再生する。そして、CPU110は、例えば再生した静止画データや動画データを順次、画像処理部140に送信し、通常の投影処理(S230)と同様に、画像処理部140、液晶制御部150、光源制御部160を制御する。   Next, an instruction to select a character image or thumbnail corresponding to a still image file or a moving image file recorded on the recording medium 192 is input via the operation unit 113 on the projection screen. Then, the CPU 110 controls the recording / playback unit 191 to read the selected still image file or moving image file from the recording medium 192. Further, the CPU 110 temporarily stores the read still image file or moving image file in the RAM 112, and reproduces the still image or moving image based on the program stored in the ROM 111. Then, the CPU 110 sequentially transmits, for example, the reproduced still image data and moving image data to the image processing unit 140, and the image processing unit 140, the liquid crystal control unit 150, and the light source control unit 160, similarly to the normal projection processing (S230). To control.

また、「ファイル受信表示モード」では、CPU110は、通信部193により受信した静止画ファイルや動画ファイルをRAM112に一時的に記憶し、ROM111記憶されたプログラムに基づいて、静止画ファイルや動画ファイルをデコードして再生する。そして、CPU110は、例えば再生した静止画データや動画データを順次、画像処理部140に送信し、通常の投影処理(S230)と同様に、画像処理部140、液晶制御部150、光源制御部160を制御する。   In the “file reception display mode”, the CPU 110 temporarily stores the still image file and the moving image file received by the communication unit 193 in the RAM 112, and stores the still image file and the moving image file based on the program stored in the ROM 111. Decode and play. Then, the CPU 110 sequentially transmits, for example, the reproduced still image data and moving image data to the image processing unit 140, and the image processing unit 140, the liquid crystal control unit 150, and the light source control unit 160, similarly to the normal projection processing (S230). To control.

<光学系制御部の構成>次に、図3を参照して、図1の光学系制御部170の詳細な構成について説明する。   <Configuration of Optical System Control Unit> Next, the detailed configuration of the optical system control unit 170 of FIG. 1 will be described with reference to FIG.

フォーカス制御部301は、CPU110の指示に従ってフォーカスレンズ位置を調整する。ズーム制御部302は、CPU110の指示に従ってズームレンズ位置を調整する。レンズ絞り制御部303は、CPU110の指示に従って絞りの開度を調整する。レンズシフト制御部304は、CPU110の指示に従ってレンズのシフト位置を調整する。   The focus control unit 301 adjusts the focus lens position according to an instruction from the CPU 110. The zoom control unit 302 adjusts the zoom lens position according to an instruction from the CPU 110. The lens aperture control unit 303 adjusts the aperture of the aperture according to an instruction from the CPU 110. The lens shift control unit 304 adjusts the lens shift position in accordance with an instruction from the CPU 110.

また、フォーカス制御部301、ズーム制御部302、レンズ絞り制御部303、レンズシフト制御部304はそれぞれ、フォーカスレンズ位置、ズームレンズ位置、絞り値、レンズシフト位置をCPU110に通知し、各情報はRAM112に格納される。   The focus control unit 301, zoom control unit 302, lens aperture control unit 303, and lens shift control unit 304 notify the CPU 110 of the focus lens position, zoom lens position, aperture value, and lens shift position, respectively, and each information is stored in the RAM 112. Stored in

また、光学系制御部170は、CPU110の指示に従って投影光学系171を制御する。   Further, the optical system control unit 170 controls the projection optical system 171 in accordance with an instruction from the CPU 110.

<画像処理部の構成>次に、図4を参照して、図1の画像処理部140の詳細な構成について説明する。   <Configuration of Image Processing Unit> Next, the detailed configuration of the image processing unit 140 of FIG. 1 will be described with reference to FIG.

画像処理部140は、画像入力部130により外部から入力された画像データに画像処理を施す。具体的には、入力処理部401は、CPU110の指示に従って、画像データに対して、ビット深度調整、レベル変換、色空間変換、周波数変換等の処理を施し、解像度変換部402に送出する。解像度変換部402は、CPU110の指示に従って、上記処理が施された画像データの解像度を変換し、階調変換部403に送出する。階調変換部403は、解像度が変換された画像データに対して、CPU110の指示に従って、RAM112に格納されたLUT等に基づいて、ガンマ変換、色変換、シャープネス処理等の階調変換処理を施し、画像合成部404へ送出する。画像合成部404は、階調変換処理された画像データに対して、CPU110の指示に従って、液晶パネルの解像度になるように黒画像データを付加し、台形補正部405へ送出する。台形補正部405は、CPU110の指示に従って、液晶パネルの解像度にされた画像データに対して、形状変換するパラメータである射影変換マトリクスにより形状変換を実施し、パネル補正部406へ送出する。パネル補正部406は、CPU110の指示に従って、形状変換された画像データに対して、液晶パネルの特性を吸収するため、予め計測により定められた、RAM112に格納されたLUT等により、ガンマ補正、面内輝度むら補正等を実施する。そして、補正された画像データは、液晶制御部150に送出され、各液晶パネルの液晶素子151R、151G、151Bの透過率が制御される。   The image processing unit 140 performs image processing on the image data input from the outside by the image input unit 130. Specifically, the input processing unit 401 performs processing such as bit depth adjustment, level conversion, color space conversion, and frequency conversion on the image data in accordance with an instruction from the CPU 110, and sends the processed image data to the resolution conversion unit 402. The resolution conversion unit 402 converts the resolution of the image data subjected to the above processing in accordance with an instruction from the CPU 110 and sends the converted image data to the gradation conversion unit 403. The gradation conversion unit 403 performs gradation conversion processing such as gamma conversion, color conversion, and sharpness processing on the image data whose resolution has been converted based on an LUT stored in the RAM 112 in accordance with an instruction from the CPU 110. And sent to the image composition unit 404. The image composition unit 404 adds black image data to the resolution of the liquid crystal panel in accordance with the instruction from the CPU 110 to the image data subjected to the gradation conversion process, and sends the image data to the keystone correction unit 405. The trapezoidal correction unit 405 performs shape conversion on the image data having the resolution of the liquid crystal panel according to an instruction from the CPU 110 using a projective conversion matrix that is a parameter for shape conversion, and sends the image data to the panel correction unit 406. The panel correction unit 406 absorbs the characteristics of the liquid crystal panel with respect to the image data whose shape has been converted in accordance with an instruction from the CPU 110. Intensity unevenness correction is performed. The corrected image data is sent to the liquid crystal control unit 150, and the transmittance of the liquid crystal elements 151R, 151G, and 151B of each liquid crystal panel is controlled.

<撮像部の構成>次に、図5を参照して、図1の撮像部194の詳細な構成について説明する。   <Configuration of Imaging Unit> Next, the detailed configuration of the imaging unit 194 in FIG. 1 will be described with reference to FIG.

撮像部194は、被写体の光学像を結像するズームレンズやフォーカスレンズを含むレンズ群501、レンズ群501を駆動するアクチュエータ502、アクチュエータ502を制御するアクチュエータ制御マイクロプロセッサ503を備える。また、撮像部194は、レンズ群501により結像された被写体像を電気信号に変換するCCDやCMOS等の撮像素子504、撮像素子504により得られた画像信号をデジタル信号に変換するA/D変換部505、画像処理マイクロプロセッサ506を備える。   The imaging unit 194 includes a lens group 501 including a zoom lens and a focus lens that forms an optical image of a subject, an actuator 502 that drives the lens group 501, and an actuator control microprocessor 503 that controls the actuator 502. The imaging unit 194 also converts an object image formed by the lens group 501 into an electrical signal such as a CCD or CMOS image sensor 504, and an A / D that converts an image signal obtained by the image sensor 504 into a digital signal. A conversion unit 505 and an image processing microprocessor 506 are provided.

投影光学系171を介して投影された静止画や動画は、レンズ群501を通して、撮像素子504により撮像される。アクチュエータ制御マイクロプロセッサ503は、アクチュエータ502を制御することで、フォーカスやズーム等の撮像条件を最適化する。撮像素子504で撮像されたアナログ画像信号は、A/D変換部505によりデジタル信号に変換される。画像処理マイクロプロセッサ506はデジタル信号に画像処理を施して得られる投影画像データの解析、例えば、投影画像データのエッジ部を解析することで、投影画像のエッジ部のフォーカスが合っているか否かの判定を行う。   A still image or a moving image projected via the projection optical system 171 is captured by the image sensor 504 through the lens group 501. The actuator control microprocessor 503 optimizes imaging conditions such as focus and zoom by controlling the actuator 502. An analog image signal captured by the image sensor 504 is converted into a digital signal by the A / D converter 505. The image processing microprocessor 506 analyzes the projection image data obtained by performing image processing on the digital signal, for example, by analyzing the edge portion of the projection image data to determine whether or not the edge portion of the projection image is in focus. Make a decision.

[実施形態1]次に、図6を参照して、実施形態1のフォーカス位置設定処理について説明する。なお、図6の動作は、CPU110が、ROM111に格納されたプログラムを、RAM112のワークエリアに展開し、各動作ブロックを制御することにより実現される。また、図6の動作は、ユーザが操作部113やリモコンによりプロジェクタ100の電源をオンすると開始される。操作部113やリモコンによりユーザがプロジェクタ100の電源をオンすると、CPU110は、不図示の電源制御部によりプロジェクタ100の各部へ不図示の電源部から電力の供給を開始する。   [Embodiment 1] Next, the focus position setting process of Embodiment 1 will be described with reference to FIG. 6 is realized by the CPU 110 developing a program stored in the ROM 111 in the work area of the RAM 112 and controlling each operation block. 6 starts when the user turns on the projector 100 with the operation unit 113 or the remote controller. When the user turns on the power of the projector 100 using the operation unit 113 or the remote controller, the CPU 110 starts supplying power from a power supply unit (not shown) to each unit of the projector 100 by a power supply control unit (not shown).

まず、S601では、CPU110は、プロジェクタ100がスクリーンに対して傾いて設置されているか判定する。そして、スクリーンに対して傾いている場合、CPU110は、スクリーン上の投影画像は四角形ではあっても長方形でないため、台形補正部405により台形補正を実施する。この台形補正は、プロジェクタ100の傾きを不図示のセンサで検知し、傾きが検知されたときに自動で実施する、あるいは、投影画像を見ながら手動で実施しても良い。   First, in S601, the CPU 110 determines whether the projector 100 is installed with an inclination with respect to the screen. When the image is tilted with respect to the screen, the CPU 110 performs trapezoid correction by the trapezoid correction unit 405 because the projected image on the screen is square but not rectangular. This trapezoidal correction may be performed automatically when the tilt of the projector 100 is detected by a sensor (not shown) and the tilt is detected, or may be performed manually while viewing the projected image.

次に、S602では、CPU110は、初期設定として、レンズ絞り制御部303により、絞りを開放する。この結果、最も照度が高い状態となる。   In step S <b> 602, the CPU 110 opens the aperture by the lens aperture controller 303 as an initial setting. As a result, the illuminance is highest.

次に、S603では、CPU110は、投影画面と投影画面の略中心を通る水平軸との左右の交点と、投影画面と投影画面の略中心を通る垂直軸との上下の交点の、計4点の距離データを取得する。距離データの具体的な取得方法としては、撮像部194の画像処理マイクロプロセッサ506が合焦と判定した場合に、光学系制御部170のフォーカス制御部301のフォーカス位置のエンコード値を取得し、その値を距離データとしてRAM112に格納する。同様の方法で、上記4点について順次、距離データを取得する。また、CPU110は、上記4点の距離データの平均値を演算し、その値をスクリーン距離としてRAM112に格納する。   Next, in S603, the CPU 110 has a total of four points: a left and right intersection of the projection screen and the horizontal axis passing through the approximate center of the projection screen, and an upper and lower intersection of the projection screen and the vertical axis passing through the approximate center of the projection screen. Get distance data. As a specific method for acquiring the distance data, when the image processing microprocessor 506 of the imaging unit 194 determines that the focus is in focus, the encoding value of the focus position of the focus control unit 301 of the optical system control unit 170 is acquired. The value is stored in the RAM 112 as distance data. In the same manner, distance data is acquired sequentially for the four points. Further, the CPU 110 calculates an average value of the distance data of the four points and stores the value in the RAM 112 as a screen distance.

次に、S604では、CPU110は、RAM112に格納された4点の距離データから最大値と最小値を抽出し、(最大値−最小値)を距離データの差分値として、RAM112に格納する。   Next, in S604, the CPU 110 extracts the maximum value and the minimum value from the distance data of the four points stored in the RAM 112, and stores (maximum value−minimum value) in the RAM 112 as a difference value of the distance data.

次に、S605では、CPU110は、焦点距離、絞り値、液晶パネル上での表示領域の四角形の対角の長さの光学情報と、スクリーン距離情報とをRAM112から読み出す。液晶パネル上での表示領域の四角形の対角の長さは、液晶パネル上で、入力信号により、動作している領域の対角線の長さのことを意味する。2本の対角線の長さが異なる場合は、対角線の長さの平均値を、液晶パネル上での表示領域の四角形の対角の長さとする。   In step S <b> 605, the CPU 110 reads out the focal length, the aperture value, the optical information of the diagonal length of the square of the display area on the liquid crystal panel, and the screen distance information from the RAM 112. The length of the diagonal diagonal of the display area on the liquid crystal panel means the length of the diagonal line of the active area on the liquid crystal panel according to the input signal. When the lengths of the two diagonal lines are different, the average value of the diagonal lines is set as the diagonal length of the square of the display area on the liquid crystal panel.

次に、S606では、CPU110は、S605で読み出された各情報を用いて、以下の式(1)〜(4)に示す演算を実施し、合焦深度を求める。   Next, in S606, the CPU 110 performs calculations shown in the following formulas (1) to (4) using each information read in S605, and obtains the in-focus depth.

合焦深度=前方合焦深度+後方合焦深度・・・(1)
前方合焦深度=許容錯乱円径×絞り値×スクリーン距離2/(焦点距離2+許容錯乱円径×絞り値×スクリーン距離)・・・(2)
後方合焦深度=許容錯乱円径×絞り値×スクリーン距離2/(焦点距離2−許容錯乱円径×絞り値×スクリーン距離)・・・(3)
許容錯乱円径=液晶パネル上での表示領域の四角形の対角の長さ/定数(定数は1400)・・・(4)
上記式(1)〜(3)における合焦深度は、カメラ等での被写界深度に相当する用語であり、スクリーン上で、フォーカスの合う距離範囲を意味する。また、許容錯乱円径に使用する定数を1400とするが、投影画面を見るユーザの位置等により変更可能としても良い。
Depth of focus = Depth of focus in front + Depth of focus in rear (1)
Front focus depth = Allowable circle of confusion x Aperture value x Screen distance 2 / (Focal distance 2 + Allowable circle of confusion x Aperture value x Screen distance) (2)
Depth of focus = Allowable circle of confusion x Aperture value x Screen distance 2 / (Focal distance 2 -Allowable circle of confusion x Aperture value x Screen distance) (3)
Permissible circle of confusion = length of the diagonal of the display area on the liquid crystal panel / constant (constant is 1400) (4)
The in-focus depth in the above formulas (1) to (3) is a term corresponding to the depth of field in a camera or the like, and means a distance range in focus on the screen. Further, although the constant used for the permissible circle of confusion is 1400, it may be changed depending on the position of the user viewing the projection screen.

次に、S607では、CPU110は、距離データ差分値と合焦深度を比較し、距離データ差分値が合焦深度より大きい場合は、距離データ差分値と合焦深度の関係から、投影画面の縮小率を計算する(S608)。縮小率の計算は、以下の式(5)に示す演算を実施する。   In step S <b> 607, the CPU 110 compares the distance data difference value and the in-focus depth. If the distance data difference value is larger than the in-focus depth, the projection screen is reduced based on the relationship between the distance data difference value and the in-focus depth. The rate is calculated (S608). The reduction ratio is calculated by performing the calculation shown in the following formula (5).

縮小率=合焦深度距離/データ差分値・・・(5)
上記式(5)の合焦深度もカメラ等での被写界深度に相当し、許容錯乱円径に使用する定数も変更可能である。
Reduction ratio = focus depth distance / data difference value (5)
The in-focus depth of the above formula (5) corresponds to the depth of field of the camera or the like, and the constant used for the allowable circle of confusion can be changed.

次に、S609では、CPU110は、上記式(5)により演算された縮小率を画像処理部140の解像度変換部402に設定する。   In step S <b> 609, the CPU 110 sets the reduction ratio calculated by the above equation (5) in the resolution conversion unit 402 of the image processing unit 140.

次に、S610では、CPU110は、光学系制御部170のフォーカス制御部301に、S603で演算したスクリーン距離を設定し、S603に戻る。   Next, in S610, the CPU 110 sets the screen distance calculated in S603 in the focus control unit 301 of the optical system control unit 170, and returns to S603.

一方、S607で、距離データ差分値が合焦深度以下の場合、CPU110は、光学系制御部170のフォーカス制御部301に、S603で演算したスクリーン距離を設定し、フォーカス位置が設定されると(S611)、本処理を終了する。   On the other hand, if the distance data difference value is equal to or smaller than the in-focus depth in S607, the CPU 110 sets the screen distance calculated in S603 in the focus control unit 301 of the optical system control unit 170 and sets the focus position ( S611), this process is terminated.

なお、S603での距離データの取得は上記4点(投影画面と水平軸の左右との交点や垂直軸の上下との交点)でなくとも、投影画像の一辺の付近の任意の点(第1の位置)と、他辺の付近の任意の点(第2の位置)などの所定の距離だけ離間した任意の2点以上であれば良い。また、フォーカスが合うことが望ましい点を選んでも良い。また、距離データの取得は、撮像部194とフォーカス制御部301のエンコード値を用いて実施したが、距離センサ等で測距しても良い。   Note that the acquisition of distance data in S603 is not limited to the above four points (intersections between the projection screen and the horizontal axis and the vertical axis), but arbitrary points (first first) near one side of the projection image. And any two or more points separated by a predetermined distance such as an arbitrary point (second position) near the other side. It is also possible to select a point that is desired to be in focus. Further, the distance data is acquired using the encoded values of the imaging unit 194 and the focus control unit 301, but may be measured by a distance sensor or the like.

なお、S604では、4点の距離データの最大値と最小値の差分を距離データ差分値としたが、この値の代わりに、左端部と右端部の距離データの差分値と、上端部と下端部の距離データの差分値に縦横比(例えば、4:3の場合は、×4/3)を乗じた値を比較して、大きい方の値を使用しても良い。   In S604, the difference between the maximum value and the minimum value of the distance data of the four points is used as the distance data difference value. Instead of this value, the difference value of the distance data between the left end portion and the right end portion, the upper end portion, and the lower end The value obtained by multiplying the difference value of the distance data of the part by the aspect ratio (for example, × 4/3 in the case of 4: 3) may be compared, and the larger value may be used.

また、S607では、距離データ差分値と合焦深度とを比較しているが、多少のデフォーカスを許容するものとし、距離データ差分値と、合焦深度に定数を乗算したものを比較しても良い。   In S607, the distance data difference value is compared with the in-focus depth, but some defocus is allowed, and the distance data difference value is compared with the in-focus depth multiplied by a constant. Also good.

なお、S609では、画像処理部140の解像度変換部402で、電気的に縮小処理しているが、光学系制御部170のズーム制御部302で、光学的に縮小処理しても良い。   In S609, the resolution conversion unit 402 of the image processing unit 140 performs the electrical reduction process. However, the zoom control unit 302 of the optical system control unit 170 may perform the optical reduction process.

なお、光学系制御部170のレンズシフト制御部304で、レンズシフト処理をした場合は、S610、S611のフォーカス位置の設定は、レンズシフト量を加味する必要がある。   When lens shift processing is performed by the lens shift control unit 304 of the optical system control unit 170, it is necessary to consider the lens shift amount in the setting of the focus position in S610 and S611.

以上説明したように、本実施形態のプロジェクタは、所定距離離間した任意の少なくとも2点(例えば、投影画像の一辺の付近の任意の点と、他辺の付近の任意の点)の合焦距離を取得し、これらの点が同時に合焦していない場合に、画像を縮小する処理を行っている。これにより、プロジェクタをスクリーンに対して傾けた場合に発生する、投影画面内のフォーカスの不均一を低減し、投影画面全体で、フォーカス位置を最適化することができる。   As described above, the projector according to the present embodiment has a focusing distance between any two points separated by a predetermined distance (for example, any point near one side of the projected image and any point near the other side). When these points are not in focus at the same time, the image is reduced. As a result, it is possible to reduce non-uniform focus within the projection screen that occurs when the projector is tilted with respect to the screen, and to optimize the focus position in the entire projection screen.

また、本実施形態では、液晶プロジェクタを例に説明したが、本発明は、液晶プロジェクタに限られるものではない。本実施形態のように、レンズ等の投影光学系を通してスクリーンに投影する装置であれば、例えばDLPプロジェクタその他の投影装置にも本発明は適用可能である。   In this embodiment, the liquid crystal projector has been described as an example. However, the present invention is not limited to the liquid crystal projector. The present invention can be applied to, for example, a DLP projector and other projection apparatuses as long as the apparatus projects onto a screen through a projection optical system such as a lens as in the present embodiment.

[実施形態2]次に、図7を参照して、実施形態2のフォーカス位置設定処理について説明する。なお、本実施形態も液晶プロジェクタの適用例であり、装置構成や基本動作は実施形態1と同様であるため説明を省略する。また、光学系制御部170、画像処理部140、撮像部194の構成についても、実施形態1と同様であるため説明を省略する。   [Embodiment 2] Next, a focus position setting process according to Embodiment 2 will be described with reference to FIG. Note that this embodiment is also an application example of a liquid crystal projector, and the apparatus configuration and basic operation are the same as those of the first embodiment, and thus description thereof is omitted. The configurations of the optical system control unit 170, the image processing unit 140, and the imaging unit 194 are the same as those in the first embodiment, and thus the description thereof is omitted.

図7は、本実施形態のフォーカス位置設定処理を示すフローチャートである。なお、図7のS701〜S705の処理は、図6で説明したS601〜S605と同様であるため、異なる処理について説明する。なお、図7の動作は、CPU110が、ROM111に格納されたプログラムを、RAM112のワークエリアに展開し、各動作ブロックを制御することにより実現される。また、図7の動作は、ユーザが操作部113やリモコンによりプロジェクタ100の電源をオンすると開始される。操作部113やリモコンによりユーザがプロジェクタ100の電源をオンすると、CPU110は、不図示の電源制御部によりプロジェクタ100の各部へ不図示の電源部から電力の供給を開始する。   FIG. 7 is a flowchart showing the focus position setting process of the present embodiment. Note that the processing of S701 to S705 in FIG. 7 is the same as S601 to S605 described in FIG. 7 is realized by the CPU 110 developing a program stored in the ROM 111 in the work area of the RAM 112 and controlling each operation block. 7 starts when the user turns on the projector 100 with the operation unit 113 or the remote controller. When the user turns on the power of the projector 100 using the operation unit 113 or the remote controller, the CPU 110 starts supplying power from a power supply unit (not shown) to each unit of the projector 100 by a power supply control unit (not shown).

S706では、CPU110は、S705で読み出された情報を用いて、上記式(1)〜(4)の合焦深度にスクリーン距離を代入して演算を実施し、絞り値を求める。   In S706, using the information read out in S705, the CPU 110 calculates the aperture value by substituting the screen distance into the in-focus depth of the above formulas (1) to (4).

S707では、CPU110は、光学系制御部170のレンズ絞り制御部303に、S706で演算した絞り値を設定する(S707)。   In S707, the CPU 110 sets the aperture value calculated in S706 in the lens aperture controller 303 of the optical system controller 170 (S707).

S708では、CPU110は、光学系制御部170のフォーカス制御部301に、S703で演算したスクリーン距離を設定し、フォーカス位置が設定されると、本処理を終了する。   In step S708, the CPU 110 sets the screen distance calculated in step S703 in the focus control unit 301 of the optical system control unit 170. When the focus position is set, the process ends.

なお、S706では、合焦深度にスクリーン距離を代入しているが、多少のデフォーカスを許容するものとし、合焦深度に定数を乗算したものをスクリーン距離に代入しても良い。   In S706, the screen distance is substituted for the in-focus depth. However, a slight defocus is allowed, and a value obtained by multiplying the in-focus depth by a constant may be substituted for the screen distance.

以上説明したように、本実施形態のプロジェクタは、所定距離離間した任意の少なくとも2点の合焦距離を取得し、これらの点が同時に合焦していない場合に、絞りを絞る動作を行っている。これにより、プロジェクタをスクリーンに対して傾けた場合に発生する、投影画面内のフォーカスの不均一を低減し、投影画面全体で、フォーカス位置を最適化することができる。   As described above, the projector according to the present embodiment acquires at least two in-focus distances separated by a predetermined distance, and performs an operation of narrowing the aperture when these points are not in focus at the same time. Yes. As a result, it is possible to reduce non-uniform focus within the projection screen that occurs when the projector is tilted with respect to the screen, and to optimize the focus position in the entire projection screen.

[実施形態3]次に、図8を参照して、実施形態3のフォーカス位置設定処理について説明する。   [Third Embodiment] Next, a focus position setting process according to a third embodiment will be described with reference to FIG.

本実施形態は、照度の制約があり、絞り値の可変範囲に制限がある場合に、実施形態1と2を組み合わせたものであり、絞りの調整を行った後に、画像の縮小処理を行う。   The present embodiment is a combination of the first and second embodiments when there is a restriction on illuminance and the variable range of the aperture value is limited. After the aperture is adjusted, the image is reduced.

なお、本実施形態の液晶プロジェクタの装置構成や基本動作は実施形態1と同様であるため説明を省略する。また、光学系制御部170、画像処理部140、撮像部194の構成についても、実施形態1と同様であるため説明を省略する。   Note that the apparatus configuration and basic operation of the liquid crystal projector of the present embodiment are the same as those of the first embodiment, and a description thereof will be omitted. The configurations of the optical system control unit 170, the image processing unit 140, and the imaging unit 194 are the same as those in the first embodiment, and thus the description thereof is omitted.

図8は、本実施形態のフォーカス位置設定処理を示すフローチャートである。なお、図8のS801〜S805、S811の処理は、図6で説明したS601〜S605、S610と同様であり、S806、S812及びS813の処理は、図7で説明したS706〜S708と同様であるため、異なる処理について説明する。なお、図8の動作は、CPU110が、ROM111に格納されたプログラムを、RAM112のワークエリアに展開し、各動作ブロックを制御することにより実現される。また、図7の動作は、ユーザが操作部113やリモコンによりプロジェクタ100の電源をオンすると開始される。操作部113やリモコンによりユーザがプロジェクタ100の電源をオンすると、CPU110は、不図示の電源制御部によりプロジェクタ100の各部へ不図示の電源部から電力の供給を開始する。   FIG. 8 is a flowchart showing the focus position setting process of the present embodiment. 8 are the same as S601 to S605 and S610 described in FIG. 6, and S806, S812, and S813 are the same as S706 to S708 described in FIG. Therefore, a different process will be described. The operation of FIG. 8 is realized by the CPU 110 developing a program stored in the ROM 111 in the work area of the RAM 112 and controlling each operation block. 7 starts when the user turns on the projector 100 with the operation unit 113 or the remote controller. When the user turns on the power of the projector 100 using the operation unit 113 or the remote controller, the CPU 110 starts supplying power from a power supply unit (not shown) to each unit of the projector 100 by a power supply control unit (not shown).

S807では、CPU110は、S806で演算した絞り値を制限値と比較し、絞り値が制限値より小さい場合は、絞り値を制限値に設定する(S808)。   In S807, the CPU 110 compares the aperture value calculated in S806 with a limit value, and when the aperture value is smaller than the limit value, sets the aperture value to the limit value (S808).

S809では、CPU110は、S808で設定した絞り値を用いて、上記式(1)〜(5)により投影画面の縮小率を計算する。   In S809, the CPU 110 calculates the reduction ratio of the projection screen by the above formulas (1) to (5) using the aperture value set in S808.

S810では、CPU110は、S809で求めた縮小率を、画像処理部140の解像度変換部402に設定する。   In S810, the CPU 110 sets the reduction ratio obtained in S809 in the resolution conversion unit 402 of the image processing unit 140.

また、S807で絞り値が制限値以上の場合は、CPU110は、光学系制御部170のレンズ絞り制御部303に、S806で演算した絞り値を設定する(S812)。   If the aperture value is greater than or equal to the limit value in S807, the CPU 110 sets the aperture value calculated in S806 in the lens aperture controller 303 of the optical system controller 170 (S812).

以上説明したように、本実施形態のプロジェクタは、所定距離離間した任意の少なくとも2点の合焦距離を取得し、これらの点が同時に合焦していない場合に、絞りを絞る動作と画像を縮小する処理を行っている。これにより、プロジェクタをスクリーンに対して傾けた場合に発生する、投影画面内のフォーカスの不均一を低減し、投影画面全体で、フォーカス位置を最適化することができる。   As described above, the projector according to the present embodiment acquires at least two in-focus distances separated by a predetermined distance, and when these points are not in focus at the same time, the operation for reducing the aperture and the image are reduced. Processing to reduce. As a result, it is possible to reduce non-uniform focus within the projection screen that occurs when the projector is tilted with respect to the screen, and to optimize the focus position in the entire projection screen.

[実施形態4]次に、図9を参照して、実施形態4のフォーカス位置設定処理について説明する。   [Fourth Embodiment] Next, a focus position setting process according to a fourth embodiment will be described with reference to FIG.

本実施形態は、縮小率に制限がある場合に、実施形態1と2を組み合わせたものであり、画像の縮小処理を行った後に、絞りの調整を行う。   The present embodiment is a combination of the first and second embodiments when the reduction ratio is limited, and the aperture is adjusted after the image reduction processing.

なお、本実施形態の液晶プロジェクタの装置構成や基本動作は実施形態1と同様であるため説明を省略する。また、光学系制御部170、画像処理部140、撮像部194の構成についても、実施形態1と同様であるため説明を省略する。   Note that the apparatus configuration and basic operation of the liquid crystal projector of the present embodiment are the same as those of the first embodiment, and a description thereof will be omitted. The configurations of the optical system control unit 170, the image processing unit 140, and the imaging unit 194 are the same as those in the first embodiment, and thus the description thereof is omitted.

図9は、本実施形態のフォーカス位置設定処理を示すフローチャートである。なお、図9のS901〜S906の処理は、図6で説明したS601〜S606と同様であり、S908及びS912の処理は、図8で説明したS807及びS811と同様であるため、異なる処理について説明する。なお、図9の動作は、CPU110が、ROM111に格納されたプログラムを、RAM112のワークエリアに展開し、各動作ブロックを制御することにより実現される。また、図9の動作は、ユーザが操作部113やリモコンによりプロジェクタ100の電源をオンすると開始される。操作部113やリモコンによりユーザがプロジェクタ100の電源をオンすると、CPU110は、不図示の電源制御部によりプロジェクタ100の各部へ不図示の電源部から電力の供給を開始する。   FIG. 9 is a flowchart showing the focus position setting process of the present embodiment. 9 are the same as S601 to S606 described in FIG. 6, and the processing of S908 and S912 is the same as S807 and S811 described in FIG. To do. 9 is realized by the CPU 110 developing the program stored in the ROM 111 in the work area of the RAM 112 and controlling each operation block. 9 starts when the user turns on the projector 100 with the operation unit 113 or the remote controller. When the user turns on the power of the projector 100 using the operation unit 113 or the remote controller, the CPU 110 starts supplying power from a power supply unit (not shown) to each unit of the projector 100 by a power supply control unit (not shown).

S907では、CPU110は、S906で演算した合焦深度と、S904で演算した距離データ差分と、上記式(5)とにより投影画面の縮小率を計算する。   In S907, the CPU 110 calculates the reduction ratio of the projection screen based on the in-focus depth calculated in S906, the distance data difference calculated in S904, and the above equation (5).

S908では、CPU110は、S907で求めた縮小率と制限値とを比較し、縮小率が制限値より小さい場合は、以下の式(6)により求めた距離データ差分の限界値を合焦深度に代入し、上記式(1)〜(4)により絞り値を演算する(S909)。   In S908, the CPU 110 compares the reduction rate obtained in S907 with the limit value. If the reduction rate is smaller than the limit value, the limit value of the distance data difference obtained by the following equation (6) is set as the in-focus depth. The aperture value is substituted and the aperture value is calculated by the above formulas (1) to (4) (S909).

距離データ差分の限界値=距離データ差分×縮小率制限値・・・(6)
S910では、CPU110は、光学系制御部170のレンズ絞り制御部303に、S909で演算した絞り値を設定する。
Distance data difference limit value = distance data difference x reduction rate limit value (6)
In S910, the CPU 110 sets the aperture value calculated in S909 in the lens aperture control unit 303 of the optical system control unit 170.

S911では、CPU110は、S907で求めた縮小率と制限値のうち大きい方の値を、画像処理部140の解像度変換部402に設定する。   In S911, the CPU 110 sets the larger value of the reduction ratio and the limit value obtained in S907 in the resolution conversion unit 402 of the image processing unit 140.

以上説明したように、本実施形態のプロジェクタは、所定距離離間した任意の少なくとも2点の合焦距離を取得し、これらの点が同時に合焦していない場合に、、画像の縮小処理を行った後に、絞りを絞る動作を行っている。これにより、プロジェクタをスクリーンに対して傾けた場合に発生する、投影画面内のフォーカスの不均一を低減し、投影画面全体で、フォーカス位置を最適化することができる。   As described above, the projector of this embodiment acquires at least two in-focus distances separated by a predetermined distance, and performs image reduction processing when these points are not in focus at the same time. After that, the aperture is reduced. As a result, it is possible to reduce non-uniform focus within the projection screen that occurs when the projector is tilted with respect to the screen, and to optimize the focus position in the entire projection screen.

[他の実施形態]本発明は、以下の処理を実行することによっても実現される。即ち、本実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。   [Other Embodiments] The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of this embodiment is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program. It is processing to do.

Claims (15)

画像を投影面に投影する投影手段と、
投影画像のフォーカス位置を調整する調整手段と、
前記投影画像の周辺の所定の距離だけ離間した少なくとも2つの位置から前記投影手段までの距離を取得する取得手段と、
前記距離の最大値と最小値の差分から前記少なくとも2つの位置が同時に合焦しているか判定する判定手段と、
前記少なくとも2つの位置が同時に合焦していない場合に、前記取得手段により得られた距離に基づいて、前記投影画像を縮小する縮小手段と、を有することを特徴とする投影装置。
Projection means for projecting an image onto a projection plane;
Adjusting means for adjusting the focus position of the projected image;
Obtaining means for obtaining distances from the at least two positions separated by a predetermined distance around the projection image to the projection means;
Determining means for determining whether the at least two positions are simultaneously focused from a difference between the maximum value and the minimum value of the distance;
A projection apparatus comprising: a reduction unit that reduces the projection image based on a distance obtained by the acquisition unit when the at least two positions are not in focus at the same time.
前記縮小手段は、前記縮小した画像における前記少なくとも2つの位置が同時に合焦するように前記投影画像の縮小率を設定することを特徴とする請求項1に記載の投影装置。   The projection apparatus according to claim 1, wherein the reduction unit sets a reduction ratio of the projection image so that the at least two positions in the reduced image are simultaneously focused. 前記縮小手段は、前記投影手段の合焦深度に基づいて前記投影画像の縮小率を設定することを特徴とする請求項1または2に記載の投影装置。   The projection apparatus according to claim 1, wherein the reduction unit sets a reduction ratio of the projection image based on a depth of focus of the projection unit. 前記投影画像の形状を補正する補正手段を更に有し、
前記補正手段により画像の形状を補正し、前記縮小手段により縮小率を設定した後、前記調整手段によりフォーカス位置を調整することを特徴とする請求項1ないし3のいずれか1項に記載の投影装置。
A correction means for correcting the shape of the projected image;
4. The projection according to claim 1, wherein the correction unit corrects the shape of the image, sets the reduction ratio by the reduction unit, and then adjusts the focus position by the adjustment unit. 5. apparatus.
前記少なくとも2つの位置が同時に合焦していない場合に、前記取得手段により得られた距離に基づいて、前記投影手段の絞りを調整する絞り制御手段を更に有し、
前記縮小手段は、前記絞り制御手段の絞り値を用いて、前記投影画像の縮小率を設定することを特徴とする請求項1ないし4のいずれか1項に記載の投影装置。
When the at least two positions are not in focus at the same time, the image forming apparatus further includes an aperture control unit that adjusts the aperture of the projection unit based on the distance obtained by the acquisition unit,
5. The projection apparatus according to claim 1, wherein the reduction unit sets a reduction ratio of the projection image using an aperture value of the aperture control unit.
画像を投影面に投影する投影手段と、
投影画像のフォーカス位置を調整する調整手段と、
前記投影画像の周辺の所定の距離だけ離間した少なくとも2つの位置から前記投影手段までの距離を取得する取得手段と、
前記距離の最大値と最小値の差分から前記少なくとも2つの位置が同時に合焦しているか判定する判定手段と、
前記少なくとも2つの位置が同時に合焦していない場合に、前記取得手段により得られた距離に基づいて、前記投影手段の絞りを調整する絞り制御手段と、を有することを特徴とする投影装置。
Projection means for projecting an image onto a projection plane;
Adjusting means for adjusting the focus position of the projected image;
Obtaining means for obtaining distances from the at least two positions separated by a predetermined distance around the projection image to the projection means;
Determining means for determining whether the at least two positions are simultaneously focused from a difference between the maximum value and the minimum value of the distance;
A projection apparatus comprising: a diaphragm control unit that adjusts a diaphragm of the projection unit based on a distance obtained by the acquisition unit when the at least two positions are not in focus at the same time.
前記絞り制御手段は、前記少なくとも2つの位置が同時に合焦するように前記投影手段の絞り値を設定することを特徴とする請求項6に記載の投影装置。   The projection apparatus according to claim 6, wherein the aperture control unit sets the aperture value of the projection unit so that the at least two positions are simultaneously focused. 前記絞り制御手段は、前記投影手段の合焦深度に基づいて前記投影手段の絞り値を設定することを特徴とする請求項6または7に記載の投影装置。   The projection apparatus according to claim 6, wherein the aperture control unit sets an aperture value of the projection unit based on a focus depth of the projection unit. 前記投影画像の形状を補正する補正手段を更に有し、
前記補正手段により画像の形状を補正し、前記絞り制御手段により前記投影手段の絞り値を設定した後、前記調整手段によりフォーカス位置を調整することを特徴とする請求項6ないし8のいずれか1項に記載の投影装置。
A correction means for correcting the shape of the projected image;
9. The focus position is adjusted by the adjusting unit after the shape of the image is corrected by the correcting unit, the aperture value of the projecting unit is set by the aperture controlling unit, and the adjusting unit adjusts the focus position. The projection device according to item.
前記絞り制御手段により前記投影手段の絞り値を設定した後、前記調整手段によりフォーカス位置を調整することを特徴とする請求項6ないし8のいずれか1項に記載の投影装置。   9. The projection apparatus according to claim 6, wherein after the aperture value of the projection unit is set by the aperture control unit, the focus position is adjusted by the adjustment unit. 前記少なくとも2つの位置が同時に合焦していない場合に、前記取得手段により得られた距離に基づいて、前記投影画像を縮小する縮小手段を更に有し、
前記絞り制御手段は、前記縮小手段の縮小率を用いて、前記投影手段の絞り値を設定することを特徴とする請求項6ないし10のいずれか1項に記載の投影装置。
A reduction means for reducing the projection image based on the distance obtained by the acquisition means when the at least two positions are not in focus at the same time;
11. The projection apparatus according to claim 6, wherein the aperture control unit sets an aperture value of the projection unit using a reduction ratio of the reduction unit.
画像を投影面に投影する投影手段と、投影画像のフォーカス位置を調整する調整手段と、を有する投影装置の制御方法であって、
前記投影画像の周辺の所定の距離だけ離間した少なくとも2つの位置から前記投影手段までの距離を取得する取得ステップと、
前記距離の最大値と最小値の差分から前記少なくとも2つの位置が同時に合焦しているか判定する判定ステップと、
前記少なくとも2つの位置が同時に合焦していない場合に、前記取得ステップにより得られた距離に基づいて、前記投影画像の縮小率を設定する設定ステップと、を有することを特徴とする制御方法。
A control method for a projection apparatus, comprising: a projection unit that projects an image onto a projection plane; and an adjustment unit that adjusts a focus position of the projection image,
An acquisition step of acquiring distances from at least two positions separated by a predetermined distance around the projection image to the projection unit;
A determination step of determining whether the at least two positions are in focus simultaneously from a difference between a maximum value and a minimum value of the distance;
And a setting step of setting a reduction ratio of the projection image based on the distance obtained by the acquisition step when the at least two positions are not in focus at the same time.
画像を投影面に投影する投影手段と、投影画像のフォーカス位置を調整する調整手段と、を有する投影装置の制御方法であって、
前記投影画像の周辺の所定の距離だけ離間した少なくとも2つの位置から前記投影手段までの距離を取得する取得ステップと、
前記距離の最大値と最小値の差分から前記少なくとも2つの位置が同時に合焦しているか判定する判定ステップと、
前記少なくとも2つの位置が同時に合焦していない場合に、前記取得ステップにより得られた距離に基づいて、前記投影手段の絞り値を設定する設定ステップと、を有することを特徴とする制御方法。
A control method for a projection apparatus, comprising: a projection unit that projects an image onto a projection plane; and an adjustment unit that adjusts a focus position of the projection image,
An acquisition step of acquiring distances from at least two positions separated by a predetermined distance around the projection image to the projection unit;
A determination step of determining whether the at least two positions are in focus simultaneously from a difference between a maximum value and a minimum value of the distance;
And a setting step of setting an aperture value of the projection unit based on the distance obtained by the acquisition step when the at least two positions are not in focus at the same time.
コンピュータを、請求項1ないし11のいずれか1項に記載の投影装置の各手段として機能させるプログラム。   The program which makes a computer function as each means of the projection apparatus of any one of Claim 1 thru | or 11. コンピュータを、請求項1ないし11のいずれか1項に記載の投影装置の各手段として機能させるプログラムを格納した記憶媒体。   A storage medium storing a program for causing a computer to function as each unit of the projection apparatus according to any one of claims 1 to 11.
JP2013010469A 2013-01-23 2013-01-23 Projection device and control method of the same, program, and storage medium Pending JP2014142466A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013010469A JP2014142466A (en) 2013-01-23 2013-01-23 Projection device and control method of the same, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013010469A JP2014142466A (en) 2013-01-23 2013-01-23 Projection device and control method of the same, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2014142466A true JP2014142466A (en) 2014-08-07

Family

ID=51423806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013010469A Pending JP2014142466A (en) 2013-01-23 2013-01-23 Projection device and control method of the same, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2014142466A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020122827A (en) * 2019-01-29 2020-08-13 キヤノン株式会社 Projection display device
CN117676107A (en) * 2024-01-31 2024-03-08 武汉中观自动化科技有限公司 Image laser projection method and laser projection device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020122827A (en) * 2019-01-29 2020-08-13 キヤノン株式会社 Projection display device
JP7204505B2 (en) 2019-01-29 2023-01-16 キヤノン株式会社 projection display
CN117676107A (en) * 2024-01-31 2024-03-08 武汉中观自动化科技有限公司 Image laser projection method and laser projection device

Similar Documents

Publication Publication Date Title
JP6757157B2 (en) Projection device and its control method
US20170214895A1 (en) Projection apparatus, projection method, and storage medium
US20170244941A1 (en) Projector and control method thereof
US9568812B2 (en) Image projection apparatus and control method thereof
JP6143473B2 (en) Image output device, system, control method thereof, program, and storage medium
JP6271837B2 (en) Projection apparatus and control method thereof
JP2013083755A (en) Display device, method of controlling display device, and program
JP6794092B2 (en) Display device
JP6635748B2 (en) Display device, display device control method, and program
JP2014142466A (en) Projection device and control method of the same, program, and storage medium
JP2014207658A (en) Image processing device and imaging apparatus and image processing method
JP2014194464A (en) Image projection device and method for controlling the same
JP6103850B2 (en) Display device and control method thereof
JP2018054912A (en) Projection-type display device and method for controlling the same
US20180376031A1 (en) Projection apparatus that improves dynamic range of luminance of printed material, control method therefor, and storage medium
JP2019114887A (en) Projection type image display device and control method thereof
JP2014137386A (en) Projector, control method therefor, and image projection system
JP6700955B2 (en) Projection apparatus and projection method
JP2020072357A (en) Projection apparatus and projection method
JP2018121194A (en) Image processing device, image processing method, and program
JP2019134205A (en) Projection apparatus and control method of the same
JP2014138411A (en) Projection device, control method therefor, program, and storage medium
JP2017040734A (en) Display device, display method, and display system
JP6562653B2 (en) Projection device
JP2016166966A (en) Liquid crystal projector