JP2018121201A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2018121201A
JP2018121201A JP2017011274A JP2017011274A JP2018121201A JP 2018121201 A JP2018121201 A JP 2018121201A JP 2017011274 A JP2017011274 A JP 2017011274A JP 2017011274 A JP2017011274 A JP 2017011274A JP 2018121201 A JP2018121201 A JP 2018121201A
Authority
JP
Japan
Prior art keywords
image
area
screen
aspect ratio
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017011274A
Other languages
Japanese (ja)
Inventor
森 真起子
Makiko Mori
真起子 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017011274A priority Critical patent/JP2018121201A/en
Publication of JP2018121201A publication Critical patent/JP2018121201A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To project a corrected projected image as large as possible in a screen.SOLUTION: A CPU (110) determines a target region in which an input image is arranged on the basis of the captured image obtained by imaging the screen direction. A layout processing unit (320) places an input image in the target area while maintaining an aspect ratio of the image. An transformation processing unit (330) applies transformation processing to the image arranged in the target area. The CPU (110) obtains an overlapping area between a screen area and a projection area on which the image projection is performed from the captured image, and determines the target area on the basis of the aspect ratio of the rectangle that can be taken in the overlapping area. Then, in the transformation processing unit (330), deformation processing is performed on the input image such that the target area is projected within the overlapping area.SELECTED DRAWING: Figure 5

Description

本発明は、映像投影される画像を処理する画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for processing an image to be projected.

近年、液晶プロジェクタなどの投影型表示装置は、プレゼンテーションや会議などの業務用途からホームシアターなどの家庭用途にまで幅広く普及し、それに伴い小型化・軽量化が進んできている。また、プロジェクタが設置される場所も様々であり、場所の制約などから、スクリーンの正面にプロジェクタを配置できないことも多い。一般的な配置例として、プロジェクタは、やや上方のスクリーンに向かって傾斜した状態で、机上等に設置されることが多い。したがってこの場合のスクリーンには、やや斜め下方向から映像が投影されることになる。   In recent years, projection display devices such as liquid crystal projectors are widely used for business purposes such as presentations and conferences, and home uses such as home theaters, and accordingly, miniaturization and weight reduction are progressing. Also, there are various places where the projector is installed, and it is often impossible to place the projector in front of the screen due to restrictions on the place. As a general arrangement example, the projector is often installed on a desk or the like with a slight inclination toward the upper screen. Accordingly, an image is projected on the screen in this case from a slightly obliquely downward direction.

しかしこの場合、プロジェクタ本体とスクリーンとの間の相対的な傾きに起因して、スクリーン上の投影映像には、台形歪みと呼ばれる幾何学歪みが発生してしまう。これを解消するために、一般的なプロジェクタは、台形歪みを信号処理で補正する台形補正機能(キーストーン補正機能)を有するものが多い。つまり、このプロジェクタは、キーストーン補正により変形させた画像を投影用のパネル面に形成し、そのパネル面に形成された画像をスクリーンに投影することで、スクリーン上に矩形の映像を投影させる。   However, in this case, geometric distortion called trapezoidal distortion occurs in the projected image on the screen due to the relative inclination between the projector body and the screen. In order to solve this problem, many general projectors have a keystone correction function (keystone correction function) that corrects keystone distortion by signal processing. In other words, this projector forms an image deformed by the keystone correction on the projection panel surface, and projects the image formed on the panel surface onto the screen, thereby projecting a rectangular image on the screen.

また例えば、特許文献1には、撮像装置で撮像した画像を基にスクリーンのアスペクト比を算出し、入力画像信号のアスペクト比を保ったまま、スクリーンに合わせた台形補正を行う手法が記載されている。同文献に記載の手法では、キャリブレーション画像をスクリーンに投影した状態で、撮像装置によりそのスクリーンが撮像され、その撮影画像からスクリーンのアスペクト比と画像の歪とが算出されて、それらを基に台形補正処理が行われる。   Further, for example, Patent Document 1 describes a method of calculating a screen aspect ratio based on an image captured by an imaging apparatus and performing keystone correction in accordance with the screen while maintaining the aspect ratio of the input image signal. Yes. In the method described in this document, the screen is imaged by the imaging device in a state where the calibration image is projected on the screen, and the aspect ratio of the screen and the distortion of the image are calculated from the captured image, and based on them. Keystone correction processing is performed.

特開2008−251026号公報JP 2008-251026 A

特許文献1に記載された手法では、投影映像がスクリーン内に収まるように変形処理するような台形補正処理が行われる。そのため、プロジェクタが備えている投影用のパネルのアスペクト比と、スクリーンのアスペクト比とが異なる場合、入力画像信号のアスペクト比によっては、台形補正後の投影映像が、スクリーンに対して過剰に小さくなってしまう場合がある。   In the technique described in Patent Document 1, a trapezoidal correction process is performed in which a deformation process is performed so that a projected image fits within a screen. Therefore, if the aspect ratio of the projection panel provided in the projector is different from the aspect ratio of the screen, the projected image after keystone correction will be excessively small relative to the screen depending on the aspect ratio of the input image signal. May end up.

そこで、本発明は、変形処理後の投影映像をスクリーン内にできるだけ大きく投影可能にすることを目的とする。   Therefore, an object of the present invention is to make it possible to project a projection image after deformation processing as large as possible on a screen.

本発明は、スクリーンに映像投影される画像を処理する画像処理装置であって、スクリーン方向を撮像した撮像画像を基に、入力画像を配置する対象領域を決定する決定手段と、前記入力画像のアスペクト比を保ったまま、前記入力画像を前記対象領域に配置する配置手段と、前記対象領域への配置がなされた画像に対して所定の変形処理を施す変形手段と、を有し、前記決定手段は、前記撮像画像から前記スクリーンの領域と映像投影がなされる投影領域との重なり領域を求め、前記重なり領域の内で採り得る長方形のアスペクト比に基づいて、前記対象領域を決定し、前記変形手段は、前記対象領域が前記重なり領域の中に投影されるように前記入力画像に対する前記変形処理を行うことを特徴とする。   The present invention is an image processing apparatus that processes an image projected on a screen, a determination unit that determines a target region in which an input image is to be arranged based on a captured image obtained by capturing the screen direction, and the input image The determination unit includes an arrangement unit that arranges the input image in the target area while maintaining an aspect ratio, and a deformation unit that performs a predetermined deformation process on the image arranged in the target area. The means obtains an overlapping area between the area of the screen and a projection area where video projection is performed from the captured image, determines the target area based on a rectangular aspect ratio that can be taken within the overlapping area, and The deformation means performs the deformation process on the input image so that the target area is projected into the overlap area.

本発明によれば、変形処理後の投影映像をスクリーン内にできるだけ大きく投影可能となる。   According to the present invention, it is possible to project the projected image after the deformation process as large as possible on the screen.

液晶プロジェクタの全体の構成を示す図である。It is a figure which shows the whole structure of a liquid crystal projector. 液晶プロジェクタの基本動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the basic operation | movement of a liquid crystal projector. キーストーン補正形状の求め方の説明図である。It is explanatory drawing of how to obtain | require a keystone correction | amendment shape. スクリーンの一部が投影映像から外れている例の説明図である。It is explanatory drawing of the example from which a part of screen deviates from a projection image | video. 画像処理部の内部構成を示す図である。It is a figure which shows the internal structure of an image process part. 射影変換の説明図である。It is explanatory drawing of projective transformation. 投影映像の台形歪みを補正する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which correct | amends the trapezoid distortion of a projection image | video. 投影映像の歪みとその歪みを補正する画像処理の説明図である。It is explanatory drawing of the image process which correct | amends distortion of a projection image | video, and the distortion. 投影アスペクト設定の説明図である。It is explanatory drawing of a projection aspect setting. 補正前後の投影形状と液晶パネル上の配置の説明図である。It is explanatory drawing of the projection shape before and behind correction | amendment, and arrangement | positioning on a liquid crystal panel.

以下、図面を参照して本発明の好適な実施形態について詳細に説明する。
本実施形態では、画像処理装置の一適用例としての投影型表示装置、例えば、透過型液晶パネルを用いたプロジェクタを挙げる。なお、本実施形態の画像処理装置は、透過型液晶パネルを用いたプロジェクタに限らず、DLP(登録商標)を用いたプロジェクタ、LCOS(登録商標)のような反射型液晶パネルなど、どのようなものであっても適用可能である。また、液晶プロジェクタには、単板式、3板式などが一般に知られているが、本実施形態のプロジェクタはどちらの方式であってもよい。本実施形態の液晶プロジェクタは、表示するべき画像に応じて、投影用の液晶パネルにおける画素毎の光透過率を制御し、その液晶パネルを透過した光源からの光をスクリーンに投影することで、映像をユーザに提示する。
以下、このような本実施形態の液晶プロジェクタについて説明する。
DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
In the present embodiment, a projection display device as an application example of an image processing device, for example, a projector using a transmissive liquid crystal panel is given. The image processing apparatus according to the present embodiment is not limited to a projector using a transmissive liquid crystal panel, but may be any projector such as a projector using DLP (registered trademark) or a reflective liquid crystal panel such as LCOS (registered trademark). Even if it is a thing, it is applicable. Further, a single-plate type, a three-plate type, and the like are generally known as liquid crystal projectors, but the projector of this embodiment may be any type. The liquid crystal projector of this embodiment controls the light transmittance of each pixel in the liquid crystal panel for projection according to the image to be displayed, and projects light from the light source that has passed through the liquid crystal panel onto the screen. Present the video to the user.
Hereinafter, the liquid crystal projector of this embodiment will be described.

<全体構成>
図1は、本実施形態の画像処理装置の一適用例である液晶プロジェクタ100の全体構成例を示す図である。
本実施形態の液晶プロジェクタ100は、CPU110、ROM111、RAM112、操作部113、画像入力部130、画像処理部140を有する。さらに、液晶プロジェクタ100は、液晶制御部150、液晶パネル151R、151G、151B、光源制御部160、光源161、色分離部162、色合成部163、光学系制御部170、投影光学系171を有する。また、液晶プロジェクタ100は、記録再生部191、記録媒体192、通信部193、撮像部194、表示制御部195、表示部196を有していてもよい。
<Overall configuration>
FIG. 1 is a diagram illustrating an overall configuration example of a liquid crystal projector 100 that is an application example of the image processing apparatus of the present embodiment.
The liquid crystal projector 100 according to the present embodiment includes a CPU 110, a ROM 111, a RAM 112, an operation unit 113, an image input unit 130, and an image processing unit 140. The liquid crystal projector 100 further includes a liquid crystal control unit 150, liquid crystal panels 151R, 151G, and 151B, a light source control unit 160, a light source 161, a color separation unit 162, a color composition unit 163, an optical system control unit 170, and a projection optical system 171. . In addition, the liquid crystal projector 100 may include a recording / playback unit 191, a recording medium 192, a communication unit 193, an imaging unit 194, a display control unit 195, and a display unit 196.

CPU110は、液晶プロジェクタ100の各ブロックを制御する。ROM111は、CPU110の処理手順を記述した制御プログラムを記憶する。RAM112は、ワークメモリとして一時的に制御プログラムやデータを格納する。また、CPU110は、記録再生部191を介して記録媒体192から静止画データや動画データを読み出し、それらのデータをRAM112に一時的に記憶させる。また、CPU110は、通信部193を介して受信した静止画や動画のデータを、RAM112に一時的に記憶させる。また、CPU110は、撮像部194により撮像された静止画データや動画データを、RAM112に一時的に記憶させる。さらに、CPU110は、ROM111に記憶されたプログラムを実行することにより、RAM112に一時記憶されている静止画データや動画データを記録用のデータに変換し、記録再生部191を介して記録媒体192に記録させることもできる。またCPU110は、ROM111に記憶されたプログラムを実行することで、RAM112に記憶された静止画データや動画データを、画像処理部140により表示用のデータに変換させ、表示制御部195を介して表示部196に表示させることもできる。   CPU 110 controls each block of liquid crystal projector 100. The ROM 111 stores a control program that describes the processing procedure of the CPU 110. The RAM 112 temporarily stores control programs and data as work memory. Further, the CPU 110 reads still image data and moving image data from the recording medium 192 via the recording / reproducing unit 191 and temporarily stores the data in the RAM 112. Further, the CPU 110 temporarily stores the still image and moving image data received via the communication unit 193 in the RAM 112. In addition, the CPU 110 temporarily stores still image data and moving image data captured by the imaging unit 194 in the RAM 112. Further, the CPU 110 executes a program stored in the ROM 111 to convert still image data or moving image data temporarily stored in the RAM 112 into data for recording, and stores it in the recording medium 192 via the recording / playback unit 191. It can also be recorded. In addition, the CPU 110 executes the program stored in the ROM 111 to convert the still image data and moving image data stored in the RAM 112 into display data by the image processing unit 140 and display the data via the display control unit 195. It can also be displayed on the part 196.

操作部113は、ユーザからの指示を受け付け、その指示信号をCPU110に送るものである。操作部113は、例えばスイッチやダイヤル、表示部196上に設けられたタッチパネルなどからなる。そして、CPU110は、それら操作部113から入力された指示信号に基づいて、液晶プロジェクタ100の各ブロックを制御する。また、操作部113は、例えばリモートコントローラ(以下、リモコンと表記する。)からの信号(赤外線による信号)を受信する信号受信部(赤外線受信部)であってもよい。この場合の操作部113は、リモコンから赤外線によるユーザの指示信号を受信して、その指示信号をCPU110に送る。そして、CPU110は、その指示信号に基づいて、液晶プロジェクタ100の各ブロックを制御する。   The operation unit 113 receives an instruction from the user and sends the instruction signal to the CPU 110. The operation unit 113 includes, for example, a switch, a dial, a touch panel provided on the display unit 196, and the like. The CPU 110 controls each block of the liquid crystal projector 100 based on the instruction signal input from the operation unit 113. The operation unit 113 may be, for example, a signal receiving unit (infrared receiving unit) that receives a signal (infrared signal) from a remote controller (hereinafter referred to as a remote controller). In this case, the operation unit 113 receives a user instruction signal by infrared rays from the remote controller and sends the instruction signal to the CPU 110. CPU 110 controls each block of liquid crystal projector 100 based on the instruction signal.

画像入力部130は、図示しない外部装置等から送信されてくる画像信号を受信するためのインターフェース部である。なお、入力される画像信号は、静止画、動画の何れの信号であってもよい。画像入力部130は、例えば、コンポジット端子、S映像端子、D端子、コンポーネント端子、アナログRGB端子、DVI−I端子、DVI−D端子、HDMI(登録商標)端子、USB端子等の各種の入力端子をも含む。画像入力部130は、アナログ画像信号を受信した場合には、そのアナログ画像信号をデジタル画像信号に変換して画像処理部140に送り、また、デジタル画像信号を受信した場合には、そのデジタル画像信号を画像処理部140に送る。以下、デジタル画像信号を画像データと表記する。ここで、外部装置は、画像信号を出力できるものであれば、パーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機など、どのようなものであってもよい。   The image input unit 130 is an interface unit for receiving an image signal transmitted from an external device (not shown). Note that the input image signal may be either a still image or a moving image signal. The image input unit 130 includes various input terminals such as a composite terminal, an S video terminal, a D terminal, a component terminal, an analog RGB terminal, a DVI-I terminal, a DVI-D terminal, an HDMI (registered trademark) terminal, and a USB terminal. Is also included. When receiving an analog image signal, the image input unit 130 converts the analog image signal into a digital image signal and sends the digital image signal to the image processing unit 140. When receiving the digital image signal, the image input unit 130 receives the digital image signal. The signal is sent to the image processing unit 140. Hereinafter, the digital image signal is referred to as image data. Here, the external device may be any device such as a personal computer, a camera, a mobile phone, a smartphone, a hard disk recorder, or a game machine as long as it can output an image signal.

画像処理部140は、画像入力部130から受け取った画像データに対し、フレーム数の変更処理、画素数の変更処理、画像形状の変更処理などを施して、液晶制御部150に送るものである。また、画像処理部140は、フレーム間引き処理、フレーム補間処理、解像度変換処理、画素解析処理、所定の変形処理、ゲイン処理、オフセット処理、パネル処理といった各処理を行うことも可能である。所定の変形処理は、幾何学補正処理(キーストン補正処理、曲面補正処理等)を含む。また、画像処理部140は、記録媒体192から読み出された静止画や動画、通信部193を介して受信された静止画や動画、撮像部194により撮像された静止画や動画などの各画像データに対して、前述の各処理を施すこともできる。画像処理部140は、例えば画像処理用のマイクロプロセッサからなる。なお、画像処理部140は専用のマイクロプロセッサとして設けられる必要はなく、例えば、ROM111に記憶されたプログラムに基づいて、CPU110が画像処理部140と同様の処理を実行してもよい。   The image processing unit 140 subjects the image data received from the image input unit 130 to frame number change processing, pixel number change processing, image shape change processing, and the like, and sends the image data to the liquid crystal control unit 150. The image processing unit 140 can also perform various processes such as a frame thinning process, a frame interpolation process, a resolution conversion process, a pixel analysis process, a predetermined deformation process, a gain process, an offset process, and a panel process. The predetermined deformation process includes a geometric correction process (keystone correction process, curved surface correction process, etc.). The image processing unit 140 also displays each image such as a still image or moving image read from the recording medium 192, a still image or moving image received via the communication unit 193, or a still image or moving image captured by the imaging unit 194. The above-described processes can be performed on the data. The image processing unit 140 is composed of, for example, a microprocessor for image processing. Note that the image processing unit 140 does not need to be provided as a dedicated microprocessor. For example, the CPU 110 may execute the same processing as the image processing unit 140 based on a program stored in the ROM 111.

光源制御部160は、光源161のオン/オフの制御や光量の制御をするものであり、制御用のマイクロプロセッサにて構成されている。なお、光源制御部160は専用のマイクロプロセッサとして設けられる必要はなく、例えば、ROM111に記憶されたプログラムに基づいて、CPU110が光源制御部160と同様の制御を実行してもよい。光源161は、不図示のスクリーンに映像を投影するための光を発生するものであり、例えば、ハロゲンランプ、キセノンランプ、高圧水銀ランプなどであってもよい。色分離部162は、光源161からの光を、赤、緑、青(以下、R,G,Bと表記する。)の三原色の光に分離するものであり、例えば、ダイクロイックミラーやプリズムなどからなる。なお、光源161として、R,G,Bの各色に対応するLED等を使用する場合には、色分離部162は不要である。光源161の光が色分離部162により分離されたR,G,Bの各色の光は、R,G,Bの各色に対応して設けられている液晶パネル151R、151G、151Bに入射する。   The light source control unit 160 controls the on / off of the light source 161 and the amount of light, and is configured by a control microprocessor. The light source control unit 160 does not need to be provided as a dedicated microprocessor. For example, the CPU 110 may execute the same control as the light source control unit 160 based on a program stored in the ROM 111. The light source 161 generates light for projecting an image on a screen (not shown), and may be, for example, a halogen lamp, a xenon lamp, a high-pressure mercury lamp, or the like. The color separation unit 162 separates light from the light source 161 into light of three primary colors of red, green, and blue (hereinafter referred to as R, G, and B). For example, from the dichroic mirror and the prism Become. In addition, when using LED etc. corresponding to each color of R, G, B as the light source 161, the color separation part 162 is unnecessary. The light of each color of R, G, and B separated from the light of the light source 161 by the color separation unit 162 is incident on the liquid crystal panels 151R, 151G, and 151B provided corresponding to the colors of R, G, and B.

液晶パネル151R、151G、151Bは、液晶制御部150から供給される駆動信号に基づいて、パネル面に画像を形成する。パネル面への画像形成は、画素(ドット)毎に入射光の透過量を変化させることにより行われる。これら液晶パネル151R、151G、151Bは、それぞれ対応したR,G,Bの各色の入射光に対して画素毎に光変調を行う光変調パネルである。なお、本実施形態では、光変調パネルは透過型のパネルとなされているが、反射型のパネルであってもよい。液晶パネル151Rは、色分離部162によりR,G,Bの各色に分離された光のうち、R光に対応して設けられた液晶パネルである。液晶パネル151Rは、複数の画素が二次元配列されて構成され、画素毎にR光の透過量を調整する。液晶パネル151Gは、色分離部162によりR,G,Bの各色に分離された光のうち、G光に対応して設けられた液晶パネルである。液晶パネル151Gは、複数の画素が二次元配列されて構成され、画素毎にG光の透過量を調整する。液晶パネル151Bは、色分離部162によりR,G,Bの各色に分離された光のうち、B光に対応して設けられた液晶パネルである。液晶パネル151Bは、複数の画素が二次元配列されて構成され、画素毎にB光の透過量を調整する。   The liquid crystal panels 151R, 151G, and 151B form an image on the panel surface based on the drive signal supplied from the liquid crystal control unit 150. Image formation on the panel surface is performed by changing the amount of transmitted incident light for each pixel (dot). The liquid crystal panels 151R, 151G, and 151B are light modulation panels that perform light modulation for each pixel with respect to incident light of corresponding colors R, G, and B, respectively. In this embodiment, the light modulation panel is a transmissive panel, but may be a reflective panel. The liquid crystal panel 151 </ b> R is a liquid crystal panel provided corresponding to the R light among the light separated into R, G, and B colors by the color separation unit 162. The liquid crystal panel 151R is configured by two-dimensionally arranging a plurality of pixels, and adjusts the transmission amount of R light for each pixel. The liquid crystal panel 151 </ b> G is a liquid crystal panel provided corresponding to the G light among the lights separated into the R, G, and B colors by the color separation unit 162. The liquid crystal panel 151G is configured by two-dimensionally arranging a plurality of pixels, and adjusts the transmission amount of G light for each pixel. The liquid crystal panel 151 </ b> B is a liquid crystal panel provided corresponding to the B light among the lights separated into the R, G, and B colors by the color separation unit 162. The liquid crystal panel 151B is configured by two-dimensionally arranging a plurality of pixels, and adjusts the transmission amount of B light for each pixel.

液晶制御部150は、画像処理部140による処理後の各フレームの画像データに基づいて、液晶パネル151R、151G、151Bの各画素における光透過率を調整するための駆動信号を生成する。具体的には、液晶制御部150により生成される駆動信号は、液晶パネル151R、151G、151Bの各画素の液晶に印加する電圧を制御する信号である。液晶制御部150は、画像処理部140から送られてきた各フレーム画像のR,G,Bの各色成分の画素毎の階調レベルに応じて、液晶パネル151R、151G、151Bの各画素に印加する電圧を制御することで、各画素の光透過率を調整する。液晶制御部150は、例えば制御用のマイクロプロセッサにより構成される。なお、液晶制御部150は専用のマイクロプロセッサとして設けられる必要はなく、例えば、ROM111に記憶されたプログラムに基づいて、CPU110が液晶制御部150と同様の制御を実行してもよい。   The liquid crystal control unit 150 generates a drive signal for adjusting the light transmittance in each pixel of the liquid crystal panels 151R, 151G, and 151B based on the image data of each frame processed by the image processing unit 140. Specifically, the drive signal generated by the liquid crystal control unit 150 is a signal that controls the voltage applied to the liquid crystal of each pixel of the liquid crystal panels 151R, 151G, and 151B. The liquid crystal control unit 150 applies to each pixel of the liquid crystal panels 151R, 151G, and 151B according to the gradation level for each pixel of the R, G, and B color components of each frame image sent from the image processing unit 140. By controlling the voltage to be adjusted, the light transmittance of each pixel is adjusted. The liquid crystal control unit 150 is configured by, for example, a control microprocessor. The liquid crystal control unit 150 does not need to be provided as a dedicated microprocessor. For example, the CPU 110 may execute the same control as the liquid crystal control unit 150 based on a program stored in the ROM 111.

光学系制御部170は、投影光学系171を制御するものであり、例えば制御用のマイクロプロセッサからなる。なお、光学系制御部170は専用のマイクロプロセッサとして設けられる必要はなく、例えば、ROM111に記憶されたプログラムに基づいて、CPU110が光学系制御部170と同様の制御を実行してもよい。色合成部163は、液晶パネル151R、151G、151Bをそれぞれ透過したR,G,Bの各光を合成するものであり、例えば、ダイクロイックミラーやプリズムなどからなる。色合成部163によりR,G,Bの光が合成された光は、投影光学系171に入射する。投影光学系171は、色合成部163にて合成された光による投影像をスクリーン上に形成するための光学系である。投影光学系171は、複数のレンズ、レンズ駆動用のアクチュエータを含み、レンズをアクチュエータにより駆動することで、投影映像の拡大、縮小、焦点調整、レンズシフトなどを行うことができる。本実施形態では、液晶パネル151R、151G、151Bは、画像処理部140からの画像データに基づいて液晶制御部150により各画素の透過率が調整される。そして、色合成部163は、液晶パネル151R、151G、151Bを介したR,G,Bの各光を合成し、その合成された光が投影光学系171によりスクリーンに投影される。このため、スクリーン上には、画像処理部140からの画像データに対応した映像が投影されて表示されることになる。   The optical system control unit 170 controls the projection optical system 171 and includes, for example, a control microprocessor. The optical system control unit 170 does not need to be provided as a dedicated microprocessor. For example, the CPU 110 may execute the same control as the optical system control unit 170 based on a program stored in the ROM 111. The color synthesizing unit 163 synthesizes R, G, and B lights respectively transmitted through the liquid crystal panels 151R, 151G, and 151B, and includes, for example, a dichroic mirror and a prism. The light obtained by combining the R, G, and B lights by the color combining unit 163 enters the projection optical system 171. The projection optical system 171 is an optical system for forming a projected image by the light combined by the color combining unit 163 on the screen. The projection optical system 171 includes a plurality of lenses and lens driving actuators, and by driving the lenses with the actuators, the projection image can be enlarged, reduced, focused, lens shifted, and the like. In the present embodiment, in the liquid crystal panels 151R, 151G, and 151B, the transmittance of each pixel is adjusted by the liquid crystal control unit 150 based on the image data from the image processing unit 140. The color combining unit 163 combines the R, G, and B lights via the liquid crystal panels 151R, 151G, and 151B, and the combined light is projected onto the screen by the projection optical system 171. Therefore, an image corresponding to the image data from the image processing unit 140 is projected and displayed on the screen.

記録再生部191は、記録媒体192から静止画データや動画データを再生する。また、記録再生部191は、撮像部194により得られた静止画データや動画データを記録媒体192に記録する。記録再生部191は、通信部193より受信された静止画データや動画データを、記録媒体192に記録することもできる。記録再生部191は、例えば、記録媒体192に対して画像データの記録や再生等を行うためのインターフェースやマイクロプロセッサからなる。なお、記録再生部191は専用のマイクロプロセッサを有していなくてもよく、例えば、ROM111に記憶されたプログラムに基づいて、CPU110が記録再生部191と同様の処理を実行してもよい。記録媒体192は、静止画データや動画データをはじめ、本実施形態の液晶プロジェクタにおいて必要な制御データなどをも記録することができる。記録媒体192は、磁気ディスク、光学式ディスク、半導体メモリなどのあらゆる方式の記録媒体であってよく、着脱可能な記録媒体であっても、内蔵型の記録媒体であってもよい。   The recording / playback unit 191 plays back still image data and moving image data from the recording medium 192. The recording / playback unit 191 records still image data and moving image data obtained by the imaging unit 194 on the recording medium 192. The recording / playback unit 191 can also record still image data and moving image data received from the communication unit 193 on the recording medium 192. The recording / playback unit 191 includes, for example, an interface or a microprocessor for recording or playing back image data on the recording medium 192. Note that the recording / reproducing unit 191 does not need to have a dedicated microprocessor. For example, the CPU 110 may execute the same processing as the recording / reproducing unit 191 based on a program stored in the ROM 111. The recording medium 192 can record still image data and moving image data as well as control data necessary for the liquid crystal projector of this embodiment. The recording medium 192 may be any type of recording medium such as a magnetic disk, an optical disk, or a semiconductor memory, and may be a detachable recording medium or a built-in recording medium.

通信部193は、外部機器からの制御信号、静止画データや動画データなどを受信する。通信部193は、例えば、無線LAN、有線LAN、USB、Bluetooth(登録商標)などに準拠したものであってもよく、特定の通信方式に限定されるものではない。また、画像入力部130の端子が例えばHDMI(登録商標)端子である場合には、通信部193は、その端子を介してCEC通信を行うものであってもよい。なお、外部装置は、液晶プロジェクタ100と通信を行うことができるものであれば、パーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機、リモコンなど、どのようなものであってもよい。   The communication unit 193 receives control signals, still image data, moving image data, and the like from an external device. The communication unit 193 may be compliant with, for example, a wireless LAN, a wired LAN, USB, Bluetooth (registered trademark), and the like, and is not limited to a specific communication method. When the terminal of the image input unit 130 is, for example, an HDMI (registered trademark) terminal, the communication unit 193 may perform CEC communication via the terminal. The external device may be any device such as a personal computer, a camera, a mobile phone, a smartphone, a hard disk recorder, a game machine, or a remote controller as long as it can communicate with the liquid crystal projector 100.

撮像部194は、本実施形態の液晶プロジェクタ100の周辺を撮像して画像を取得するものであり、投影光学系171を介してスクリーンに投影された映像及びスクリーンの周辺を含む撮像範囲を、撮影可能(スクリーン方向を撮影可能)となされている。撮像部194は、被写体の光学像を撮像素子の撮像面上に形成するレンズ(撮像光学系)、レンズを駆動するアクチュエータ、アクチュエータを制御するマイクロプロセッサ、撮像面上に形成された光学像を画像信号に変換する撮像素子を含む。撮像部194はまた、撮像素子により得られたアナログ画像信号をデジタル画像データに変換するAD変換部なども有する。撮像部194は、撮像した画像データをCPU110に送り、CPU110は、撮像部194からの画像データを一時的にRAM112に記憶させる。そして、CPU110は、ROM111に記憶されたプログラムを実行することにより、RAM112に一時記憶した画像データを、液晶プロジェクタ100で扱われるデータに変換する。なお、撮像部194は、スクリーン方向を撮影するだけでなく、例えばスクリーンと逆方向の視聴者側を撮影可能となされていてもよい。   The imaging unit 194 captures an image of the periphery of the liquid crystal projector 100 according to the present embodiment and acquires an image, and captures an imaging range including a video projected on the screen via the projection optical system 171 and the periphery of the screen. It is possible (shooting the screen direction). The imaging unit 194 images a lens (imaging optical system) that forms an optical image of a subject on the imaging surface of the imaging device, an actuator that drives the lens, a microprocessor that controls the actuator, and an optical image that is formed on the imaging surface. It includes an image sensor that converts signals. The imaging unit 194 also includes an AD conversion unit that converts an analog image signal obtained by the imaging element into digital image data. The imaging unit 194 sends the captured image data to the CPU 110, and the CPU 110 temporarily stores the image data from the imaging unit 194 in the RAM 112. Then, the CPU 110 converts the image data temporarily stored in the RAM 112 into data handled by the liquid crystal projector 100 by executing a program stored in the ROM 111. Note that the imaging unit 194 may not only shoot the screen direction but also be able to shoot the viewer side in the opposite direction to the screen, for example.

表示制御部195は、表示部196に、液晶プロジェクタ100を操作するための操作画面やスイッチアイコン等の映像を表示させるための制御を行うものであり、表示制御を行うマイクロプロセッサなどからなる。なお、表示制御部195は専用のマイクロプロセッサとして設けられる必要はなく、例えば、ROM111に記憶されたプログラムに基づいて、CPU110が表示制御部195と同様の処理を実行してもよい。表示部196は、表示制御部195による制御の下、液晶プロジェクタ100を操作するための操作画面やスイッチアイコンを表示する。表示部196は、映像を表示できればどのようなものであってもよい。例えば、液晶ディスプレイ、CRTディスプレイ、有機ELディスプレイ、LEDディスプレイであってよい。また、表示部196は、例えば、特定のボタンをユーザに認識可能に掲示するために、各ボタンに対応するLED等を発光させるものであってもよい。   The display control unit 195 performs control for causing the display unit 196 to display an image such as an operation screen for operating the liquid crystal projector 100 and a switch icon, and includes a microprocessor that performs display control. The display control unit 195 does not need to be provided as a dedicated microprocessor. For example, the CPU 110 may execute the same processing as the display control unit 195 based on a program stored in the ROM 111. The display unit 196 displays an operation screen and a switch icon for operating the liquid crystal projector 100 under the control of the display control unit 195. The display unit 196 may be anything as long as it can display an image. For example, it may be a liquid crystal display, a CRT display, an organic EL display, or an LED display. In addition, the display unit 196 may emit an LED or the like corresponding to each button in order to post a specific button so that the user can recognize it.

なお、本実施形態の画像処理部140、液晶制御部150、光源制御部160、光学系制御部170、記録再生部191、表示制御部195は、これらの各ブロックと同様の処理を行うことのできる単数または複数のマイクロプロセッサあってもよい。または、例えば、ROM111に記憶されたプログラムに基づいて、CPU110が各ブロックと同様の処理を実行してもよい。   Note that the image processing unit 140, the liquid crystal control unit 150, the light source control unit 160, the optical system control unit 170, the recording / playback unit 191 and the display control unit 195 of the present embodiment perform the same processing as those of these blocks. There may be one or more possible microprocessors. Or for example, based on the program memorize | stored in ROM111, CPU110 may perform the process similar to each block.

<基本動作>
図2は、本実施形態の液晶プロジェクタ100の基本動作を説明するためのフローチャートである。図2に示すフローチャートの動作は、基本的には、CPU110が、ROM111に記憶されたプログラムに基づいて、各ブロックを制御することにより実行される。図2のフローチャートの処理は、操作部113や不図示のリモコンによりユーザが液晶プロジェクタ100の電源のオンを指示した時点で開始される。なお、以下の説明では、図2のフローチャートのステップS201〜S210をS201〜S210と略記し、このことは後述する他のフローチャートにおいても同様とする。
<Basic operation>
FIG. 2 is a flowchart for explaining the basic operation of the liquid crystal projector 100 of the present embodiment. The operation of the flowchart shown in FIG. 2 is basically executed by the CPU 110 controlling each block based on a program stored in the ROM 111. The processing of the flowchart of FIG. 2 is started when the user instructs the liquid crystal projector 100 to be turned on by the operation unit 113 or a remote controller (not shown). In the following description, steps S201 to S210 in the flowchart of FIG. 2 are abbreviated as S201 to S210, and this also applies to other flowcharts described later.

操作部113や不図示のリモコンによりユーザが液晶プロジェクタ100の電源のオンを指示すると、CPU110は、不図示の電源部の電源回路から、液晶プロジェクタ100の各部に電源を供給させる。また、CPU110は、S201の処理として投影開始処理を実行する。具体的には、CPU110は、S201の投影開始処理として、光源制御部160への指示を介した光源161の点灯制御、液晶制御部150への指示を介した液晶パネル151R、151G、151Bの駆動制御、画像処理部140の動作設定などを行う。なお、以下の説明では、液晶パネル151R、151G、151Bをそれぞれ区別せずに液晶パネル151と表記する。   When the user instructs the liquid crystal projector 100 to be turned on by the operation unit 113 or a remote controller (not shown), the CPU 110 supplies power to each unit of the liquid crystal projector 100 from a power supply circuit of the power supply unit (not shown). In addition, the CPU 110 executes a projection start process as the process of S201. Specifically, the CPU 110 performs lighting control of the light source 161 via an instruction to the light source controller 160 and driving of the liquid crystal panels 151R, 151G, and 151B via an instruction to the liquid crystal controller 150 as the projection start process of S201. Control and operation setting of the image processing unit 140 are performed. In the following description, the liquid crystal panels 151R, 151G, and 151B are referred to as the liquid crystal panel 151 without being distinguished from each other.

次に、CPU110は、S202において、画像入力部130からの入力信号に変化があったか否かを判定する。CPU110は、S202において、入力信号変化が無かったと判定(No)した場合にはS204に処理を進め、一方、入力信号変化があったと判定(Yes)した場合にはS203に処理を進める。   Next, in S202, the CPU 110 determines whether or not the input signal from the image input unit 130 has changed. If the CPU 110 determines in S202 that the input signal has not changed (No), the CPU 110 proceeds to S204. If the CPU 110 determines that the input signal has changed (Yes), the CPU 110 proceeds to S203.

S203に進むと、CPU110は、画像入力部130から入力された画像信号を画像処理部140に送り、画像処理部140を制御して入力切替処理を行わせる。このときの画像処理部140は、入力された画像信号の解像度、フレームレートなどを検知して、それに適したタイミングで入力画像をサンプリングし、必要な画像処理を行った上で、液晶制御部150に出力する。これにより、画像入力部130から入力された画像信号を基に生成された画像が、液晶パネル151のパネル面上に形成されて、映像投影が行われることになる。S203の後、CPU110は、S204に処理を進める。   In step S203, the CPU 110 sends the image signal input from the image input unit 130 to the image processing unit 140, and controls the image processing unit 140 to perform input switching processing. At this time, the image processing unit 140 detects the resolution, frame rate, and the like of the input image signal, samples the input image at a timing suitable for the detection, performs necessary image processing, and then performs the liquid crystal control unit 150. Output to. Thus, an image generated based on the image signal input from the image input unit 130 is formed on the panel surface of the liquid crystal panel 151, and video projection is performed. After S203, the CPU 110 advances the process to S204.

S204に進むと、CPU110は、操作部113を介してユーザ操作が入力されたか否かを判定する。CPU110は、S204において、ユーザ操作が入力されていないと判定(No)した場合にはS208に処理を進め、一方、ユーザ操作が入力されたと判定(Yes)した場合にはS205に処理を進める。   In step S <b> 204, the CPU 110 determines whether a user operation is input via the operation unit 113. If the CPU 110 determines in S204 that no user operation has been input (No), the process proceeds to S208. If the CPU 110 determines that a user operation has been input (Yes), the CPU 110 proceeds to S205.

S205に進むと、CPU110は、操作部113を介して入力されたユーザ操作は終了操作か否かを判定する。CPU110は、S205において、ユーザ操作が終了操作であると判定(Yes)した場合にはS206に処理を進め、投影終了処理を実行する。具体的には、CPU110は、投影終了処理として、光源制御部160への指示を介した光源161の消灯制御、液晶制御部150への指示を介した液晶パネル151の駆動停止制御、必要な設定のROM111への保存などを行う。S206の投影終了処理の実行後、CPU110は、図2の基本動作のフローチャートの処理を終了する。一方、S205において、ユーザ操作が終了操作ではないと判定(No)した場合、CPU110は、S207に処理を進める。   In step S205, the CPU 110 determines whether the user operation input via the operation unit 113 is an end operation. If the CPU 110 determines in S205 that the user operation is an end operation (Yes), the CPU 110 advances the process to S206 and executes the projection end process. Specifically, the CPU 110 performs, as projection termination processing, a light source 161 turn-off control via an instruction to the light source control unit 160, a drive stop control of the liquid crystal panel 151 via an instruction to the liquid crystal control unit 150, and necessary settings. Is stored in the ROM 111. After executing the projection end process of S206, the CPU 110 ends the process of the basic operation flowchart of FIG. On the other hand, if it is determined in S205 that the user operation is not an end operation (No), the CPU 110 advances the process to S207.

S207に進むと、CPU110は、操作部113を介して入力されたユーザ操作の内容に対応したユーザ処理を実行する。例えば、CPU110は、ユーザ処理として、設置設定の変更、入力信号の変更、画像処理の変更、情報の表示制御などを行う。S207の後、CPU110は、S208に処理を進める。   In step S207, the CPU 110 executes user processing corresponding to the content of the user operation input via the operation unit 113. For example, the CPU 110 performs changes in installation settings, input signals, image processing, information display control, and the like as user processing. After S207, the CPU 110 advances the process to S208.

S208に進むと、CPU110は、通信部193がコマンドを受信したか否かを判定する。CPU110は、S208において、コマンドが受信されていないと判定(No)した場合にはS202に処理を戻す。一方、S208において、コマンドが受信されたと判定(Yes)した場合、CPU110は、S209に処理を進める。   In step S208, the CPU 110 determines whether the communication unit 193 has received a command. CPU110 returns a process to S202, when it determines with the command not being received in S208 (No). On the other hand, if it is determined in S208 that the command has been received (Yes), the CPU 110 advances the process to S209.

S209に進むと、CPU110は、通信部193にて受信されたコマンドが終了コマンドか否かを判定する。CPU110は、S209において、終了コマンドであると判定(Yes)した場合にはS206に処理を進め、前述した投影終了処理を実行する。一方、S209において、終了コマンドではないと判定(No)した場合、CPU110は、S210に処理を進める。   In step S209, the CPU 110 determines whether the command received by the communication unit 193 is an end command. If the CPU 110 determines in S209 that the command is an end command (Yes), the CPU 110 advances the process to S206 and executes the above-described projection end process. On the other hand, if it is determined in S209 that the command is not an end command (No), the CPU 110 advances the process to S210.

S210に進むと、CPU110は、受信したコマンドの内容に対応したコマンド処理を実行する。例えば、CPU110は、コマンド処理として、設置設定、入力信号設定、画像処理設定、状態取得などを行う。S210の後、CPU110は、S202に処理を戻す。   In step S210, the CPU 110 executes command processing corresponding to the content of the received command. For example, the CPU 110 performs installation setting, input signal setting, image processing setting, status acquisition, and the like as command processing. After S210, the CPU 110 returns the process to S202.

なお、本実施形態の液晶プロジェクタ100では、画像入力部130より入力された映像のほか、記録再生部191により記録媒体192から読み出された静止画データや動画データの映像を表示することもできる。また、液晶プロジェクタ100は、通信部193から受信した静止画データや動画データの映像を表示することもできる。   In the liquid crystal projector 100 of the present embodiment, in addition to the video input from the image input unit 130, still image data or video data read from the recording medium 192 by the recording / playback unit 191 can be displayed. . The liquid crystal projector 100 can also display still image data and video data received from the communication unit 193.

<キーストーン補正による台形補正の概要説明>
以下、本実施形態の液晶プロジェクタ100で行われる後述する補正処理に対する比較例として、図3(a)〜図3(c)及び図4を用い、前述した特許文献1等に記載された既存の台形補正処理とその問題点を説明する。
図3(a)は、アスペクト比が例えば4:3のスクリーン910に対し、キーストーン補正処理が行われていない未補正の映像を斜め下方向から投影した状態を表した図である。図3(a)の例の場合、投影映像920は、キーストーン補正処理されていないため、斜めに歪んだ映像となっている。
<Overview of keystone correction by keystone correction>
Hereinafter, as a comparative example for a correction process to be described later performed in the liquid crystal projector 100 according to the present embodiment, the existing processes described in Patent Document 1 and the like described above with reference to FIGS. 3A to 3C and FIG. The trapezoid correction process and its problems will be described.
FIG. 3A is a diagram showing a state in which an uncorrected image that has not been subjected to keystone correction processing is projected obliquely downward on a screen 910 having an aspect ratio of, for example, 4: 3. In the case of the example of FIG. 3A, the projected image 920 is an image that is obliquely distorted because the keystone correction processing is not performed.

ここで、図3(a)に例示したスクリーン910のアスペクト比は4:3であるが、一方、プロジェクタの投影用の液晶パネルのアスペクト比は例えば16:10であるとする。図3(b)は、特許文献1等に記載の手法を用いて、スクリーン910のアスペクト比に合わせる補正処理を行った後の映像(以下、補正済映像930とする。)が投影された状態を示した図である。なお、図3(b)には、比較のため、補正処理が行われていない投影映像920(以下、未補正映像920とする。)も示されている。この図3(b)に示すように、補正済映像930は、スクリーン910内に入るように補正処理が施されている。この図3(b)の例の場合、スクリーン910のアスペクト比(4:3)と投影用の液晶パネルのアスペクト比(16:10)とは異なっている。このため、アスペクト比を保った補正処理を実現する場合には、未補正映像920の図中黒丸B1〜B4で示される四つの頂点を、補正済映像930ではそれぞれ対応した図中白丸W1〜W4で示される四つの頂点に移動するようなキーストーン補正が行われる。その結果、図3(b)に示すように、スクリーン910の上下には、補正済映像930が投影されない領域が生ずることになる。なお、スクリーン910のアスペクト比と投影用の液晶パネルのアスペクト比との組み合わせによっては、スクリーン910の左右に映像が投影されない領域ができる場合もある。   Here, the aspect ratio of the screen 910 illustrated in FIG. 3A is 4: 3, while the aspect ratio of the liquid crystal panel for projection of the projector is, for example, 16:10. FIG. 3B shows a state in which an image (hereinafter referred to as a corrected image 930) after being subjected to correction processing that matches the aspect ratio of the screen 910 is projected using the method described in Patent Document 1 and the like. FIG. FIG. 3B also shows a projected image 920 that has not been subjected to correction processing (hereinafter referred to as an uncorrected image 920) for comparison. As shown in FIG. 3B, the corrected image 930 has been subjected to correction processing so as to enter the screen 910. In the example of FIG. 3B, the aspect ratio (4: 3) of the screen 910 is different from the aspect ratio (16:10) of the liquid crystal panel for projection. For this reason, when realizing the correction process with the aspect ratio maintained, the four vertices indicated by the black circles B1 to B4 in the uncorrected image 920 in the figure and the white circles W1 to W4 in the corrected image 930 respectively corresponding to the four vertices. Keystone correction is performed to move to the four vertices indicated by. As a result, as shown in FIG. 3B, areas where the corrected image 930 is not projected are formed above and below the screen 910. Note that, depending on the combination of the aspect ratio of the screen 910 and the aspect ratio of the liquid crystal panel for projection, there may be a region where an image is not projected on the left and right of the screen 910.

図3(c)は、投影用の液晶パネルのアスペクト比が16:10で、スクリーン910のアスペクト比が4:3である場合において、アスペクト比が4:3の入力画像信号にキーストーン補正処理を行った後の映像を投影した状態を表した図である。この例の場合、入力画像信号のアスペクト比が4:3であるため、その画像信号にキーストーン補正を行った後の補正済映像940は、スクリーン910上では図3(c)中の斜線で示すような大きさの映像として投影されることになる。すなわち、特許文献1等の手法を用いた場合、スクリーン910のアスペクト比と入力画像信号のアスペクト比とが共に等しい(4:3)にも関わらず、補正済映像940はスクリーン910に対して過剰に小さくなされて投影されてしまう。   FIG. 3C shows a keystone correction process for an input image signal having an aspect ratio of 4: 3 when the aspect ratio of the projection liquid crystal panel is 16:10 and the aspect ratio of the screen 910 is 4: 3. It is a figure showing the state which projected the image after performing. In this example, since the aspect ratio of the input image signal is 4: 3, the corrected video 940 after the keystone correction is performed on the image signal is indicated by the diagonal lines in FIG. It will be projected as an image of the size shown. That is, when the method of Patent Document 1 is used, the corrected video 940 is excessive with respect to the screen 910 even though the aspect ratio of the screen 910 and the aspect ratio of the input image signal are both equal (4: 3). It is made small and projected.

また、投影用の液晶パネルではパネル面全面を使って映像が投写されるため、補正済映像930は、必ず未補正映像920が投影されていた投影領域内に包含される投影映像となる。一方、液晶プロジェクタ100の設置の仕方によっては、例えば図4に示すように、スクリーン910の一部に、投影映像(この例では未補正映像920を示している。)が投影されない部分が生ずる場合もある。この場合、特許文献1に記載の手法のように、スクリーン910のアスペクト比に合わせた補正処理を行ったとしても、スクリーン910上で未補正映像920が投影されなかった部分にはやはり映像が投影されず、スクリーン910を有効に利用できない。   In addition, since an image is projected using the entire panel surface in the projection liquid crystal panel, the corrected image 930 is always a projection image included in the projection area where the uncorrected image 920 was projected. On the other hand, depending on how the liquid crystal projector 100 is installed, for example, as shown in FIG. 4, a portion where a projected image (uncorrected image 920 is shown in this example) is not projected on a part of the screen 910. There is also. In this case, even if the correction processing according to the aspect ratio of the screen 910 is performed as in the method described in Patent Document 1, the image is still projected on the portion where the uncorrected image 920 is not projected on the screen 910. The screen 910 cannot be used effectively.

<第1の実施形態の画像処理部の構成及び動作説明>
このため、本実施形態の液晶プロジェクタ100は、図5に示す画像処理部140を有し、以下に説明する処理を行うことで、入力画像信号のアスペクト比を保持したまま、補正済みの映像をスクリーンに対してできる限り大きく投影すること可能としている。
図5は、本実施形態の液晶プロジェクタ100の画像処理部140の詳細な構成を示したブロック図である。本実施形態の画像処理部140は、各種画像処理部310、レイアウト処理部320、変形処理部330を有している。なお、図5にはCPU110、液晶制御部150、フレームメモリ340も示されている。フレームメモリ340は、変形処理部330がキーストーン補正前若しくは補正後の画像を格納するためのメモリであり、例えばRAM112に含まれる。
<Description of Configuration and Operation of Image Processing Unit of First Embodiment>
For this reason, the liquid crystal projector 100 according to the present embodiment includes the image processing unit 140 illustrated in FIG. 5, and performs a process described below to display a corrected video while maintaining the aspect ratio of the input image signal. It is possible to project as large as possible on the screen.
FIG. 5 is a block diagram illustrating a detailed configuration of the image processing unit 140 of the liquid crystal projector 100 according to the present embodiment. The image processing unit 140 according to the present embodiment includes various image processing units 310, a layout processing unit 320, and a deformation processing unit 330. 5 also shows the CPU 110, the liquid crystal control unit 150, and the frame memory 340. The frame memory 340 is a memory for the deformation processing unit 330 to store an image before or after the keystone correction, and is included in the RAM 112, for example.

図5において、元画像信号3010は、前述した画像入力部130、記録再生部191、通信部193などから入力される画像信号である。タイミング信号3020は、元画像信号3010に同期した垂直同期信号、水平同期信号、クロックなどのタイミング信号であって、元画像信号3010の供給元から供給される。画像処理部140内の各ブロックはタイミング信号3020に基づいて動作する。なお、画像処理部140は、タイミング信号3020から、それぞれ各ブロックに必要なタイミング信号を作り直すようになされていてもよい。   In FIG. 5, an original image signal 3010 is an image signal input from the above-described image input unit 130, recording / reproducing unit 191, communication unit 193, and the like. The timing signal 3020 is a timing signal such as a vertical synchronization signal, a horizontal synchronization signal, and a clock synchronized with the original image signal 3010, and is supplied from the source of the original image signal 3010. Each block in the image processing unit 140 operates based on the timing signal 3020. Note that the image processing unit 140 may be configured to regenerate a timing signal necessary for each block from the timing signal 3020.

各種画像処理部310は、CPU110と連携して、元画像信号3010に対して統計処理を行い、ヒストグラムやAPL(Average_Picture_Level)をはじめとする統計情報を取得する。また、各種画像処理部310は、元画像信号3010に対して各種画像処理を施す。各種画像処理部310は、各種画像処理後の画像信号である画処理後信号3030を、レイアウト処理部320に出力する。なお、各種画像処理の種類としては、IP変換、フレームレート変換、解像度変換、γ変換、色域変換、ゲイン処理、色補正、エッジ強調などを挙げることができ、これらの各種画像処理は公知であるのでその説明は省略する。統計情報は、ゲイン処理等に用いられるがその説明についても省略する。   The various image processing units 310 perform statistical processing on the original image signal 3010 in cooperation with the CPU 110, and acquire statistical information including a histogram and APL (Average_Picture_Level). Various image processing units 310 perform various image processing on the original image signal 3010. Various image processing units 310 output post-image processing signals 3030 that are image signals after various image processings to the layout processing unit 320. Examples of various types of image processing include IP conversion, frame rate conversion, resolution conversion, γ conversion, color gamut conversion, gain processing, color correction, edge enhancement, and the like. Since there is, the description is omitted. The statistical information is used for gain processing or the like, but the description thereof is also omitted.

レイアウト処理部320は、CPU110からの指示に基づいて、画処理後信号3030に対する液晶パネル151上の配置を決定するレイアウト処理を行う。詳細については後述するが、CPU110は、投影対象領域とそのアスペクト比を求め、それら投影対象領域とアスペクト比を基に、レイアウト処理部320におけるレイアウト処理を制御する。レイアウト処理部320は、CPU110からの指示を基に画処理後信号3030をレイアウト処理したレイアウト後信号3040を、変形処理部330に出力する。また、レイアウト処理部320は、いわゆるOSD(オンスクリーンディスプレイ)合成などの処理を行うこともできる。OSDの具体例は後述する。
なお、各種画像処理部310とレイアウト処理部320の順序は、図5の例に限ったものではなく、レイアウト処理後に各種画像処理を行うような構成であってもよい。
The layout processing unit 320 performs layout processing for determining the arrangement on the liquid crystal panel 151 with respect to the post-image processing signal 3030 based on an instruction from the CPU 110. Although details will be described later, the CPU 110 obtains the projection target area and its aspect ratio, and controls the layout processing in the layout processing unit 320 based on the projection target area and the aspect ratio. The layout processing unit 320 outputs a post-layout signal 3040 obtained by performing layout processing on the post-image processing signal 3030 based on an instruction from the CPU 110 to the deformation processing unit 330. The layout processing unit 320 can also perform processing such as so-called OSD (on-screen display) composition. A specific example of OSD will be described later.
Note that the order of the various image processing units 310 and the layout processing unit 320 is not limited to the example of FIG. 5, and may be configured to perform various image processing after the layout processing.

変形処理部330は、レイアウト後信号3040の画像に対し、以下の式(1)、式(2)に基づく所定の変形処理、つまりキーストーン補正処理を施す。そして、変形処理部330は、その変形処理後の画像信号(以下、変形後画像信号3050とする。)を、液晶制御部150へ出力する。
ここで、キーストーン補正は射影変換により実現でき、補正処理前の元画像の任意の画素の座標を(xs,ys)とすると、その画素に対応した、変形処理後の座標(xd,yd)は式(1)で表わされる。
The deformation processing unit 330 performs predetermined deformation processing based on the following equations (1) and (2), that is, keystone correction processing, on the image of the post-layout signal 3040. Then, the deformation processing unit 330 outputs the image signal after the deformation processing (hereinafter referred to as a post-deformation image signal 3050) to the liquid crystal control unit 150.
Here, the keystone correction can be realized by projective transformation. If the coordinates of an arbitrary pixel of the original image before the correction process are (xs, ys), the coordinates (xd, yd) after the deformation process corresponding to the pixel are set. Is represented by equation (1).

Figure 2018121201
Figure 2018121201

式(1)のMは、3×3行列で、元画像から変形処理後の画像への射影変換行列である。(xso,yso)は、図6中の実線で示す元画像800の一つの頂点の座標であり、(xdo,ydo)は、図6中の一点鎖線で示す変形処理後の画像810の各頂点のうち、元画像800の頂点(xso,yso)に対応した頂点の座標値である。   M in Expression (1) is a 3 × 3 matrix, which is a projective transformation matrix from the original image to the image after the deformation process. (Xso, yso) is the coordinates of one vertex of the original image 800 indicated by the solid line in FIG. 6, and (xdo, ydo) is each vertex of the image 810 after the deformation process indicated by the one-dot chain line in FIG. Among the coordinate values of the vertices corresponding to the vertices (xso, yso) of the original image 800.

また、変形処理部330は、CPU110から式(1)の行列Mの逆行列M-1と、オフセット情報とが入力され、式(2)に従って変形処理後の画像810の座標値(xd,yd)に対応する元画像の座標(xs,ys)を求める。オフセット情報は、元画像800の各頂点における(xso,yso)の座標値、及び、変形処理後の画像810の各頂点における(xdo,ydo)の座標値である。 In addition, the transformation processing unit 330 receives the inverse matrix M −1 of the matrix M of Equation (1) and the offset information from the CPU 110, and the coordinate values (xd, yd) of the image 810 after transformation processing according to Equation (2). ) To obtain the coordinates (xs, ys) of the original image corresponding to. The offset information is a coordinate value of (xso, yso) at each vertex of the original image 800 and a coordinate value of (xdo, ydo) at each vertex of the image 810 after the deformation process.

Figure 2018121201
Figure 2018121201

ここで、式(2)から求められた元画像の座標が整数になれば、その元画像の座標(xs,ys)の画素値を、そのまま変形処理後の画像810の座標(xd,yd)の画素値としてもよい。しかし、式(2)により求められた元画像の座標は整数になるとは限らないので、式(2)で求めた元画像の座標が整数にならない場合、変形処理部330は、周辺画素の値を用いた補間処理により、変形処理後の画像810の座標(xd,yd)の画素値を求める。補間の方法は、バイリニア、バイキュービック、その他の任意の補間方法を用いればよい。また、式(2)から求められた元画像の座標が、元画像800の領域の範囲外である場合、変形処理部330は、その画素値を黒またはユーザが設定した背景色の値とする。   Here, if the coordinates of the original image obtained from Equation (2) become an integer, the pixel value of the coordinates (xs, ys) of the original image is used as it is as the coordinates (xd, yd) of the image 810 after the transformation processing. It is good also as a pixel value. However, since the coordinates of the original image obtained by Expression (2) are not always integers, when the coordinates of the original image obtained by Expression (2) do not become integers, the deformation processing unit 330 calculates the values of peripheral pixels. The pixel value of the coordinates (xd, yd) of the image 810 after the deformation process is obtained by the interpolation process using. The interpolation method may be bilinear, bicubic, or any other interpolation method. When the coordinates of the original image obtained from Expression (2) are outside the range of the area of the original image 800, the deformation processing unit 330 sets the pixel value to the value of black or the background color set by the user. .

変形処理部330は、前述のようにして変形処理後の全ての座標の画素値を求めて、変形後画像を生成し、その変形後画像信号3050を液晶制御部150に出力する。これにより液晶パネル151のパネル面上には変形処理後の画像が表示される。
なお、上述の説明では、画像処理部140には、CPU110から行列Mの逆行列M-1の情報が入力されるとしたが、行列Mの情報のみが入力され、画像処理部140の内部で逆行列M-1を求めてもよい。
The deformation processing unit 330 obtains the pixel values of all coordinates after the deformation processing as described above, generates a post-deformation image, and outputs the post-deformation image signal 3050 to the liquid crystal control unit 150. As a result, the image after the deformation process is displayed on the panel surface of the liquid crystal panel 151.
In the above description, the information of the inverse matrix M −1 of the matrix M is input from the CPU 110 to the image processing unit 140, but only the information of the matrix M is input to the image processing unit 140. An inverse matrix M −1 may be obtained.

以下、本実施形態の液晶プロジェクタ100において、前述したような変形処理後の画像を液晶パネル151上に形成する場合に、映像をスクリーンにできるだけ大きく投影する手法について、図7〜図9を参照しながら説明する。
図7は、CPU110が、ROM111に記憶されている本実施形態に係るプログラムに基づいて各ブロックを制御することにより実行される処理の流れを示すフローチャートである。図7のフローチャートの処理は、操作部113や不図示のリモコンによりユーザがキーストーンの自動補正処理の実行開始を選択した場合にスタートする。なお、図7のフローチャートの処理は、液晶プロジェクタ100本体の設置場所が移動されたことや傾きがが変えられたこと等を、不図示の振動センサにより検出したことでキーストーンの自動補正機能が起動される場合にスタートしてもよい。
Hereinafter, in the liquid crystal projector 100 of the present embodiment, a method for projecting a video image as large as possible on the screen when the image after the deformation process as described above is formed on the liquid crystal panel 151 will be described with reference to FIGS. While explaining.
FIG. 7 is a flowchart showing the flow of processing executed by the CPU 110 controlling each block based on the program according to the present embodiment stored in the ROM 111. The process of the flowchart in FIG. 7 starts when the user selects the execution start of the automatic correction process of the keystone by the operation unit 113 or a remote controller (not shown). The processing of the flowchart of FIG. 7 is performed by the automatic correction function of the keystone by detecting that the installation location of the main body of the liquid crystal projector 100 is moved or the inclination is changed by a vibration sensor (not shown). It may start when it is activated.

CPU110は、キーストーンの自動補正処理を開始すると、先ず、S401において、液晶制御部150を制御して液晶パネル151上に黒画像を形成させる。これにより、投影光学系171からは、スクリーン方向に黒画像が投写されることになる。   When the CPU 110 starts the keystone automatic correction process, first, in step S401, the CPU 110 controls the liquid crystal control unit 150 to form a black image on the liquid crystal panel 151. As a result, a black image is projected from the projection optical system 171 in the screen direction.

次に、CPU110は、S402において、撮像部194を制御してスクリーン方向を撮像させる。なお、撮像部194の撮像範囲は、スクリーンの全面だけでなくその周辺をも含む範囲となされている。したがって、撮像部194は、スクリーン及びその周辺を撮像する。そして、撮像部194により取得された撮像画像のデータは、CPU110による制御の下、RAM112に記憶される。このように、スクリーン方向に黒画像を投写し、スクリーン及びその周辺の撮像を行うのは、投影映像の影響を少なくし、後述するS403で行われるスクリーン領域検知処理を行い易くするためである。なお、本実施形態では、黒画像を投写するとしたが、光源161の光量を少なくする制御を行うことで、投影映像の影響を少なくしてもよい。   Next, in step S <b> 402, the CPU 110 controls the imaging unit 194 to image the screen direction. Note that the imaging range of the imaging unit 194 is a range that includes not only the entire surface of the screen but also its periphery. Therefore, the imaging unit 194 images the screen and its surroundings. The captured image data acquired by the imaging unit 194 is stored in the RAM 112 under the control of the CPU 110. The reason why the black image is projected in the screen direction and the screen and its surroundings are imaged is to reduce the influence of the projected image and facilitate the screen area detection process performed in S403 described later. In the present embodiment, a black image is projected. However, the influence of the projected image may be reduced by performing control to reduce the light amount of the light source 161.

ここで、図8(b)は、液晶プロジェクタ100がスクリーン530に対して正対せずに斜めに設置されている場合の、液晶プロジェクタ100の撮像部194とスクリーン530との間の相対的な位置関係を示した図である。なお、図8(b)中の四角形の領域540は、撮像部194が備えている撮像素子の撮像面(以下、撮像面540とする。)を模式的に表現したものである。撮像面540は、撮像部194の撮像光学系の光軸zに対して垂直な面となされている。なお、撮像部194の光軸zは、投影光学系171の光軸と平行な軸となされている。一方、図8(b)の例の場合、液晶プロジェクタ100はスクリーン530に対して正対せずに斜めに設置されているため、スクリーン530は光軸zに対して斜めになっている。   Here, FIG. 8B shows the relative relationship between the imaging unit 194 of the liquid crystal projector 100 and the screen 530 when the liquid crystal projector 100 is installed obliquely without facing the screen 530. It is the figure which showed the positional relationship. Note that a rectangular area 540 in FIG. 8B schematically represents an imaging surface (hereinafter, referred to as an imaging surface 540) of an imaging element provided in the imaging unit 194. The imaging surface 540 is a surface perpendicular to the optical axis z of the imaging optical system of the imaging unit 194. The optical axis z of the imaging unit 194 is an axis parallel to the optical axis of the projection optical system 171. On the other hand, in the example of FIG. 8B, the liquid crystal projector 100 is installed obliquely without facing the screen 530, so the screen 530 is inclined with respect to the optical axis z.

図8(a)は、図8(b)に示した位置関係の例において、未補正の黒画像が投写された状態のスクリーン方向を、撮像部194により撮像して得られた撮像画像510の一例を示した図である。図8(a)の撮像画像510には、図8(b)の撮像部194により撮像されたスクリーン530の画像領域(以下、スクリーン領域520とする。)が含まれている。すなわち、図8(b)のように液晶プロジェクタ100がスクリーン530に対して斜めに設置されている場合、実際には長方形であるスクリーン530が、図8(a)の撮像画像510のスクリーン領域520のように歪んだ四辺形の画像として撮像される。   FIG. 8A shows an example of a captured image 510 obtained by imaging the screen direction in a state in which an uncorrected black image is projected in the example of the positional relationship shown in FIG. It is the figure which showed an example. The captured image 510 in FIG. 8A includes an image area of the screen 530 (hereinafter, referred to as a screen area 520) captured by the imaging unit 194 in FIG. That is, when the liquid crystal projector 100 is installed obliquely with respect to the screen 530 as shown in FIG. 8B, the screen 530 that is actually rectangular is the screen area 520 of the captured image 510 in FIG. The image is captured as a distorted quadrilateral image.

前述のようにしてS402で撮像画像が取得されると、次に、CPU110は、S403において、S402で撮像されてRAM112に記憶された撮像画像510から、スクリーン領域520を検知する。図8(b)のように液晶プロジェクタ100がスクリーン530に対して斜めに設置されている場合、S403において、CPU110は、図8(a)の撮像画像510から、歪んだ四辺形のスクリーン領域520を検知することになる。本実施形態の場合、CPU110は、撮像画像510から、スクリーン画像の4辺或いは4頂点を求めることにより、スクリーン領域520を検出する。より具体的には、CPU110は、撮像画像510を2値画像に変換し、その変換後の2値画像の各画素点に対してハフ変換を行って線分を検出する方法などを用いることにより、スクリーン領域520の4辺を検出する。また、CPU110は、スクリーン領域520の各辺が交わる点を4頂点として検出可能である。   When the captured image is acquired in S402 as described above, the CPU 110 next detects the screen area 520 from the captured image 510 captured in S402 and stored in the RAM 112 in S403. When the liquid crystal projector 100 is installed obliquely with respect to the screen 530 as shown in FIG. 8B, in S403, the CPU 110 determines from the captured image 510 of FIG. Will be detected. In the present embodiment, the CPU 110 detects the screen area 520 by obtaining four sides or four vertices of the screen image from the captured image 510. More specifically, the CPU 110 converts the captured image 510 into a binary image, and performs a Hough transform on each pixel point of the converted binary image to detect a line segment. The four sides of the screen area 520 are detected. Further, the CPU 110 can detect the points where the sides of the screen area 520 intersect as four vertices.

次に、CPU110は、S404において、液晶プロジェクタ100(具体的には撮像部194)を基準座標RCとして、スクリーン530の三次元座標を算出する。ここで、液晶プロジェクタ100の撮像部194は、スクリーン530及びその周辺を撮像しているため、図8(b)に示したように、撮像部194の撮像面540上には、スクリーン530の写像(以下、スクリーン写像541とする。)が形成される。このため、撮像面540上のスクリーン写像541の各頂点P1'〜P4'は、スクリーン530の各頂点P1〜P4に対応し、さらに、図8(a)の撮像画像510内のスクリーン領域520の各頂点P1'〜P4'とも対応している。つまり、S403にて検知されたスクリーン領域520の4頂点P1'〜P4'のxy座標は、撮像部194の撮像面540上のスクリーン写像541の各頂点P1'〜P4'のxy座標にそれぞれ対応している。また、スクリーン530の各頂点P1〜P4の三次元座標は、基準座標RCからスクリーン写像541の各頂点P1'〜P4'をそれぞれ通る直線の延長線上の座標である。そして、撮像部194の撮像面540上の各画素の座標は既知であるため、スクリーン写像541の各頂点P1'〜P4'のxy座標についてもそれぞれ既知である。したがって、基準座標RCからスクリーン写像541の各頂点P1'〜P4'を通る各直線の延長線上において、基準座標RCからスクリーン530の各頂点P1〜P4までの各距離z1〜z4が判れば、それら各頂点P1〜P4の各三次元座標を算出できる。   Next, in S404, the CPU 110 calculates the three-dimensional coordinates of the screen 530 using the liquid crystal projector 100 (specifically, the imaging unit 194) as the reference coordinates RC. Here, since the imaging unit 194 of the liquid crystal projector 100 images the screen 530 and its surroundings, the image of the screen 530 is mapped on the imaging surface 540 of the imaging unit 194 as shown in FIG. (Hereinafter referred to as screen mapping 541) is formed. Therefore, the vertices P1 ′ to P4 ′ of the screen map 541 on the imaging surface 540 correspond to the vertices P1 to P4 of the screen 530, and further, the screen area 520 in the captured image 510 of FIG. Each vertex P1 ′ to P4 ′ also corresponds. That is, the xy coordinates of the four vertices P1 ′ to P4 ′ of the screen area 520 detected in S403 correspond to the xy coordinates of the vertices P1 ′ to P4 ′ of the screen mapping 541 on the imaging surface 540 of the imaging unit 194, respectively. doing. Further, the three-dimensional coordinates of the vertices P1 to P4 of the screen 530 are coordinates on an extension line of a straight line passing through the vertices P1 ′ to P4 ′ of the screen mapping 541 from the reference coordinate RC. Since the coordinates of each pixel on the imaging surface 540 of the imaging unit 194 are known, the xy coordinates of the vertices P1 ′ to P4 ′ of the screen mapping 541 are also known. Therefore, if the distances z1 to z4 from the reference coordinate RC to the vertices P1 to P4 of the screen 530 are found on the extended line of each straight line passing through the vertices P1 ′ to P4 ′ of the screen mapping 541 from the reference coordinates RC, Each three-dimensional coordinate of each vertex P1-P4 can be calculated.

また、本実施形態において、スクリーン530の実際の形状は長方形であるため、それぞれ向かい合う辺の長さは等しく、また対角線の長さも等しい。つまり、スクリーン530の各頂点間の距離は下記式(3)〜式(5)に示す関係を有している。
(P1とP2との間の距離)=(P3とP4との間の距離) 式(3)
(P1とP4との間の距離)=(P2とP3との間の距離) 式(4)
(P1とP3との間の距離)=(P2とP4との間の距離) 式(5)
ここで、スクリーン530の三次元座標を算出する場合において、これら式(3)〜式(5)と四つの未知数(各距離z1〜z4)のうち、各距離z1〜z4については実際の距離の値が必要なのではなく、それぞれ相対値が判ればよい。このため、各距離z1〜z4のうち一つの距離の値を任意の値に仮定すれば、式(3)〜式(5)を基に、スクリーン530の各頂点P1〜P4の各三次元座標を算出することが可能となる。CPU110は、S404において、このようにしてスクリーン530の三次元座標を算出する。
In the present embodiment, since the actual shape of the screen 530 is a rectangle, the lengths of the sides facing each other are equal, and the lengths of the diagonal lines are also equal. That is, the distance between the vertices of the screen 530 has a relationship represented by the following formulas (3) to (5).
(Distance between P1 and P2) = (Distance between P3 and P4) Equation (3)
(Distance between P1 and P4) = (Distance between P2 and P3) Equation (4)
(Distance between P1 and P3) = (Distance between P2 and P4) Equation (5)
Here, when calculating the three-dimensional coordinates of the screen 530, among these equations (3) to (5) and the four unknowns (each distance z1 to z4), each distance z1 to z4 is an actual distance. You don't need a value, you just know the relative value of each. For this reason, if the value of one of the distances z1 to z4 is assumed to be an arbitrary value, the three-dimensional coordinates of the vertices P1 to P4 of the screen 530 are based on the expressions (3) to (5). Can be calculated. In step S404, the CPU 110 calculates the three-dimensional coordinates of the screen 530 in this way.

次に、CPU110は、S405において、液晶制御部150を制御して液晶パネル151に、キーストーン補正されていない白画像を形成させる。これにより、投影光学系171からは、スクリーン方向に白画像が投写されることになる。さらに、CPU110は、S406において、撮像部194を制御してスクリーン方向の画像を撮像させる。撮像部194により取得された撮像画像のデータは、CPU110による制御の下、RAM112に記憶される。   Next, in step S405, the CPU 110 controls the liquid crystal control unit 150 to cause the liquid crystal panel 151 to form a white image that has not been subjected to keystone correction. As a result, a white image is projected from the projection optical system 171 in the screen direction. In step S406, the CPU 110 controls the imaging unit 194 to capture an image in the screen direction. Data of the captured image acquired by the imaging unit 194 is stored in the RAM 112 under the control of the CPU 110.

次に、S407において、CPU110は、S406での白投影時の撮像画像と、S402での黒投影時の撮像画像とを比較解析することで、キーストーン補正されていない未補正映像が投影された投影映像領域とスクリーン530との重なり領域の検出を行う。
図8(c)は、S406で取得された撮像画像511を示しており、未補正映像(この場合は未補正の白画像)の投影映像領域550とスクリーン領域520との重なり具合の一例を示した図である。なお、図8(c)では、未補正映像の投影映像領域550を便宜的に長方形の領域として示しているが、これはスクリーン530の外側がスクリーンと略々同一平面の壁などである場合に限られる。スクリーン530からはみ出す領域については、周辺環境に依存するためこの限りではない。
Next, in S407, the CPU 110 compares and analyzes the captured image at the time of white projection in S406 and the captured image at the time of black projection in S402, thereby projecting an uncorrected video that has not been subjected to keystone correction. An overlapping area between the projected video area and the screen 530 is detected.
FIG. 8C shows the captured image 511 acquired in S406, and shows an example of how the projected video area 550 of the uncorrected video (in this case, the uncorrected white image) and the screen area 520 overlap. It is a figure. In FIG. 8C, the projected image area 550 of the uncorrected image is shown as a rectangular area for convenience, but this is the case when the outside of the screen 530 is a wall or the like that is substantially flush with the screen. Limited. The region that protrudes from the screen 530 is not limited to this because it depends on the surrounding environment.

ここで、黒投影時にS402で取得した図8(a)の撮像画像510と比べると、白投影時にS406で取得した図8(c)の撮像画像511は、未補正映像の投影映像領域550、つまり白画像が投影されている領域の画素値が著しく大きくなる。そこで、CPU110は、スクリーン領域520の辺上において、画素値が大きく変わる点(画素値の変化量が大きい点、以下変化点とする。)の、撮像部194の撮像面上でのxy座標を求める。図8(c)の例において、スクリーン領域520の辺上で、頂点P1'の画素から点Q1'の一つ手前の画素まで、及び、頂点P1'の画素から点Q2'の一つ手前の画素までは、それぞれ画素値が低く、また画素値の変化も殆どないとする。一方、スクリーン領域520の辺上で、頂点P2'の画素から点Q1'の画素まで、及び、頂点P4'の画素から点Q2'の画素までは、それぞれ画素値が高く、また画素値の変化も殆どないとする。この場合、点Q1'の画素は、その点Q1'から頂点P1'側の一つ手前の画素に対して画素値の変化量が大きい画素である。したがってCPU110は、スクリーン領域520の辺上の点Q1'を変化点Q1'として検出し、この変化点Q1'の画素のxy座標を求める。同様に、点Q2'の画素は、その点Q2'から頂点P1'側の一つ手前の画素に対して画素値の変化量が大きい画素である。したがってCPU110は、スクリーン領域520の辺上の点Q2'を変化点Q2'として検出し、この変化点Q2'の画素のxy座標を求める。   Here, compared with the captured image 510 of FIG. 8A acquired in S402 during black projection, the captured image 511 of FIG. 8C acquired in S406 during white projection is a projected video region 550 of an uncorrected video, That is, the pixel value of the area where the white image is projected is significantly increased. Therefore, the CPU 110 sets the xy coordinates on the imaging surface of the imaging unit 194 at a point where the pixel value changes greatly on the side of the screen area 520 (a point where the change amount of the pixel value is large, hereinafter referred to as a changing point). Ask. In the example of FIG. 8C, on the side of the screen area 520, from the pixel at the vertex P1 ′ to the pixel immediately before the point Q1 ′, and from the pixel at the vertex P1 ′ to the pixel immediately before the point Q2 ′. It is assumed that each pixel value is low up to the pixel and the pixel value hardly changes. On the other hand, on the side of the screen region 520, the pixel value is high from the pixel at the vertex P2 ′ to the pixel at the point Q1 ′, and from the pixel at the vertex P4 ′ to the pixel at the point Q2 ′, and the change in the pixel value Suppose that there is almost no. In this case, the pixel at the point Q1 ′ is a pixel whose amount of change in pixel value is larger than the pixel immediately before the point Q1 ′ on the vertex P1 ′ side. Therefore, the CPU 110 detects the point Q1 ′ on the side of the screen area 520 as the change point Q1 ′, and obtains the xy coordinates of the pixel at the change point Q1 ′. Similarly, the pixel at the point Q2 ′ is a pixel whose amount of change in pixel value is larger than the pixel immediately before the point Q2 ′ on the vertex P1 ′ side. Therefore, the CPU 110 detects the point Q2 ′ on the side of the screen area 520 as the change point Q2 ′, and obtains the xy coordinates of the pixel at the change point Q2 ′.

また、変化点Q1'が対応する、スクリーン530上の点(点Q1とする。)の三次元座標は、撮像部194の基準座標RCと撮像面上の変化点Q1'とを結ぶ直線の延長線と、スクリーン530の頂点P1〜P2を結ぶ線分P1−P2との交点の座標である。同様に、変化点Q2'が対応する、スクリーン530上の点(点Q2とする。)の三次元座標は、撮像部194の基準座標RCと撮像面上の変化点Q2'とを結ぶ直線の延長線と、スクリーン530の頂点P1〜P4を結ぶ線分P1−P4との交点の座標である。図8(d)は、スクリーン530の平面上に点Q1と点Q2を表した図であり、この例では各点Q1,P2,P3,P4,Q2を頂点とする五角形の領域が、スクリーン530と未補正映像の投影映像領域550との重なり領域560である。CPU110は、S407において、上述のようにして重なり領域560を検出する。   The three-dimensional coordinates of the point on the screen 530 (referred to as point Q1) to which the change point Q1 ′ corresponds correspond to the extension of a straight line connecting the reference coordinate RC of the image pickup unit 194 and the change point Q1 ′ on the image pickup surface. This is the coordinates of the intersection of the line and the line segment P1-P2 connecting the vertices P1-P2 of the screen 530. Similarly, the three-dimensional coordinate of the point on the screen 530 (referred to as point Q2) corresponding to the change point Q2 ′ is a straight line connecting the reference coordinate RC of the image pickup unit 194 and the change point Q2 ′ on the image pickup surface. The coordinates of the intersection of the extension line and the line segment P1-P4 connecting the vertices P1 to P4 of the screen 530. FIG. 8D is a diagram showing points Q1 and Q2 on the plane of the screen 530. In this example, a pentagonal region having the points Q1, P2, P3, P4, and Q2 as vertices is a screen 530. And an uncorrected video projection video area 550 is an overlapping area 560. In S407, the CPU 110 detects the overlapping region 560 as described above.

なお、図8(c)では、スクリーン領域520の一部が未補正映像の投影映像領域550内から外れている例を挙げたため、重なり領域560は図8(d)に示した各点Q1,P2,P3,P4,Q2を頂点とする五角形の領域として検出される。これに対し、図示は省略するが、例えば、未補正映像の投影映像領域内にスクリーン領域の全てが収まっている場合、CPU110は、スクリーン領域520を重なり領域として検出することになる。   In FIG. 8C, an example in which a part of the screen area 520 is out of the projected image area 550 of the uncorrected image is given, and thus the overlapping area 560 includes the points Q1, Q1 shown in FIG. It is detected as a pentagonal region having apexes P2, P3, P4 and Q2. On the other hand, although not shown, for example, when the entire screen area is within the projected video area of the uncorrected video, the CPU 110 detects the screen area 520 as an overlapping area.

次に、S408において、CPU110は、投影対象領域のアスペクト比を算出する。
ここで、CPU110は、以下のようにして投影対象領域を決定する。CPU110は、先ず、重なり領域を基に長方形の領域を求める。
図8(d)の例の場合、CPU110は、重なり領域560内で採り得る長方形の領域として、各点Q1,P2,P3を頂点として含む長方形の領域と、各点Q2,P4,P3を頂点として含む長方形の領域とを求める。そして、CPU110は、これら重なり領域560内で採り得る各長方形の領域のうち、面積が最も大きい長方形の領域を、投影対象領域として採用し、その投影対象領域のアスペクト比を算出する。例えば、図8(d)の場合は、各点Q1,P2,P3を頂点として含む長方形が投影対象領域として採用されることになる。そして、CPU110は、S404で求めた各頂点P1〜P4の三次元座標と、S407で求めた点Q1の三次元座標とから、線分P2−P3の長さと線分Q1−P2の長さを求める。さらに、CPU110は、それら線分P2−P3の長さと線分Q1−P2の長さとの比を、投影対象領域のアスペクト比として算出する。
Next, in S408, the CPU 110 calculates the aspect ratio of the projection target area.
Here, the CPU 110 determines the projection target area as follows. The CPU 110 first obtains a rectangular area based on the overlapping area.
In the case of the example of FIG. 8D, the CPU 110, as rectangular areas that can be taken in the overlapping area 560, is a rectangular area that includes the points Q1, P2, and P3 as vertices and the points Q2, P4, and P3 as vertices. And the rectangular area to include. Then, the CPU 110 employs the rectangular area having the largest area among the rectangular areas that can be taken in the overlapping area 560 as the projection target area, and calculates the aspect ratio of the projection target area. For example, in the case of FIG. 8D, a rectangle including the points Q1, P2, and P3 as vertices is adopted as the projection target area. Then, the CPU 110 calculates the length of the line segment P2-P3 and the length of the line segment Q1-P2 from the three-dimensional coordinates of the vertices P1 to P4 obtained in S404 and the three-dimensional coordinate of the point Q1 obtained in S407. Ask. Further, the CPU 110 calculates the ratio of the length of the line segments P2-P3 and the length of the line segments Q1-P2 as the aspect ratio of the projection target area.

なお、未補正映像の投影映像領域内にスクリーン領域の全てが収まっているため、スクリーン領域520が重なり領域として検出された場合、CPU110は、スクリーン530の頂点P1〜P4の三次元座標に基づく長方形の領域を投影対象領域する。そして、CPU110は、その投影対象領域のアスペクト比、つまりスクリーン530のアスペクト比を算出することになる。   Note that since the entire screen area is within the projected video area of the uncorrected video, when the screen area 520 is detected as an overlapping area, the CPU 110 is a rectangle based on the three-dimensional coordinates of the vertices P1 to P4 of the screen 530. Is the projection target area. Then, the CPU 110 calculates the aspect ratio of the projection target area, that is, the aspect ratio of the screen 530.

次に、S409において、CPU110は、S408で算出した投影対象領域のアスペクト比と、例えばGUI(グラフィカルユーザインターフェイス)メニュー等を介してユーザにより設定されている投影アスペクト比とを比較する。投影アスペクト比は、液晶パネル151のパネル面上において画像をレイアウト可能な領域のアスペクト比であり、本実施形態の場合、図5の画処理後信号3030の画像がレイアウトされる領域のアスペクト比である。投影アスペクト比の具体例については図9(a)〜図9(c)等を用いて説明する。そして、CPU110は、その投影対象領域のアスペクト比と投影アスペクト比との比較結果を基に、各種画像処理部310における解像度変換を制御し、また、レイアウト処理部320におけるレイアウト処理を制御する。詳細は図10(a)〜図10(f)で説明するが、CPU110は、各種画像処理部310とレイアウト処理部320に対し、元画像信号3010を投影アスペクト比と液晶パネル151の解像度とに合わせて解像度変換及びレイアウトする処理を行わせる。   Next, in S409, the CPU 110 compares the aspect ratio of the projection target area calculated in S408 with the projection aspect ratio set by the user via, for example, a GUI (Graphical User Interface) menu. The projected aspect ratio is an aspect ratio of an area in which an image can be laid out on the panel surface of the liquid crystal panel 151. In the present embodiment, the projected aspect ratio is an aspect ratio of an area in which an image of the post-image processing signal 3030 in FIG. is there. Specific examples of the projection aspect ratio will be described with reference to FIGS. 9A to 9C. The CPU 110 controls resolution conversion in the various image processing units 310 and controls layout processing in the layout processing unit 320 based on the comparison result between the aspect ratio of the projection target area and the projection aspect ratio. Although details will be described with reference to FIGS. 10A to 10F, the CPU 110 converts the original image signal 3010 into the projection aspect ratio and the resolution of the liquid crystal panel 151 to the various image processing units 310 and the layout processing unit 320. In addition, resolution conversion and layout processing are performed.

図9(a)〜図9(c)は、それぞれ液晶パネル151のパネル面、つまり画像が形成される領域である表示領域610を示した図であり、表示領域610のアスペクト比は16:10であるとする。投影アスペクト比が16:10に設定されている場合、液晶パネル151の表示領域610のアスペクト比と等しいので、図9(a)に示すように、画像をレイアウト可能な領域620は液晶パネル151の表示領域610と一致する。一方、投影アスペクト比が16:10よりも横長に設定されている場合、図9(b)に示すように、画像をレイアウト可能な領域630は、表示領域610の上下にそれぞれ斜線で示した領域を除いた領域となされる。表示領域610の上下の斜線で示した領域は、有効領域外となされ、例えば黒画像が形成(表示)される。また、投影アスペクト比が16:10よりも縦長に設定されている場合、図9(c)に示すように、画像をレイアウト可能な領域640は、表示領域610の左右にそれぞれ斜線で示した領域を除いた領域となされる。表示領域610の左右の斜線で示した領域は、有効領域外となされ、例えば黒画像が形成(表示)される。   FIGS. 9A to 9C are diagrams showing a panel surface of the liquid crystal panel 151, that is, a display area 610 that is an area where an image is formed. The aspect ratio of the display area 610 is 16:10. Suppose that When the projection aspect ratio is set to 16:10, the aspect ratio of the display area 610 of the liquid crystal panel 151 is equal to the aspect ratio. Therefore, as shown in FIG. It matches the display area 610. On the other hand, when the projection aspect ratio is set to be longer than 16:10, areas 630 in which an image can be laid out are areas indicated by diagonal lines above and below the display area 610, as shown in FIG. The area is excluded. An area indicated by diagonal lines above and below the display area 610 is outside the effective area, and, for example, a black image is formed (displayed). When the projection aspect ratio is set to be vertically longer than 16:10, the area 640 where the image can be laid out is an area indicated by diagonal lines on the left and right sides of the display area 610 as shown in FIG. The area is excluded. An area indicated by diagonal lines on the left and right of the display area 610 is outside the effective area, and for example, a black image is formed (displayed).

S409において、CPU110は、比較した二つのアスペクト比が等しいと判定(Yes)した場合にはS410に処理を進める。S410に進むと、CPU110は、適切な投影アスペクト比の設定がなされているので、画像処理部140を制御して、変形処理部330による変形処理を実行させる。S410における変形処理の詳細は後述する。このS410の後、CPU110は、図7のフローチャートの処理を終了する。   In S409, when the CPU 110 determines that the two compared aspect ratios are equal (Yes), the process proceeds to S410. In step S410, the CPU 110 controls the image processing unit 140 to execute the deformation process by the deformation processing unit 330 because an appropriate projection aspect ratio has been set. Details of the deformation process in S410 will be described later. After S410, the CPU 110 ends the process of the flowchart of FIG.

一方、S409において、CPU110は、比較した二つのアスペクト比が等しくないと判定(No)した場合にはS411に処理を進める。S411に進むと、CPU110は、画像処理部140のレイアウト処理部320を制御してOSD画像を生成させ、液晶制御部150を介して液晶パネル151に送ることによりOSD表示を行わせる。このときのOSD表示では、例えば投影アスペクト比の設定変更ダイアログの表示等が行われる。例えば、S408で得られた投影対象領域のアスペクト比がM:Nであったのに、投影アスペクト比がM:N以外であった場合、CPU110は、「投影アスペクトはM:Nが最適です。変更しますか?」などのメッセージのOSD表示を行わせる。なお、S408で得られた投影対象領域のアスペクト比は、一般的なアスペクト比(16:9、4:3、16:10など)とならない可能性が高いが、それは問題ない。   On the other hand, in S409, if the CPU 110 determines that the two compared aspect ratios are not equal (No), the process proceeds to S411. In step S411, the CPU 110 controls the layout processing unit 320 of the image processing unit 140 to generate an OSD image, and sends it to the liquid crystal panel 151 via the liquid crystal control unit 150 to perform OSD display. In the OSD display at this time, for example, a display change dialog of the projection aspect ratio is displayed. For example, when the aspect ratio of the projection target area obtained in S408 is M: N, but the projection aspect ratio is other than M: N, the CPU 110 determines that “M: N is the optimal projection aspect. Make OSD display of a message such as “Do you want to change it?”. Note that there is a high possibility that the aspect ratio of the projection target area obtained in S408 does not become a general aspect ratio (16: 9, 4: 3, 16:10, etc.), but this is not a problem.

次に、S412において、CPU110は、ユーザが操作部113や不図示のリモコンなどを用いて入力した操作の内容を判定する。例えば、ユーザ操作がキャンセル操作であった場合、CPU110は、投影アスペクト比の設定は行わず、S410に処理を進める。一方、ユーザ操作が例えば投影アスペクト比の設定操作であった場合、CPU110は、S413に処理を進める。   Next, in S412, the CPU 110 determines the content of the operation input by the user using the operation unit 113 or a remote controller (not shown). For example, if the user operation is a cancel operation, the CPU 110 does not set the projection aspect ratio and advances the process to S410. On the other hand, when the user operation is, for example, a projection aspect ratio setting operation, the CPU 110 advances the process to step S413.

S413に進むと、CPU110は、ユーザが操作部113等を用いて入力した投影アスペクト比の設定を行う。具体的には、CPU110は、図5のレイアウト処理部320に対し、画像をレイアウト可能な領域のアスペクト比、つまり投影アスペクト比を変更する。また、それに伴い、CPU110は、各種画像処理部310に対し、その投影アスペクト比に対して適切な解像度変換を行うような設定を行わせる。S413の後、CPU110は、S410に処理を進める。   In step S413, the CPU 110 sets the projection aspect ratio input by the user using the operation unit 113 or the like. Specifically, the CPU 110 changes the aspect ratio of the area where the image can be laid out, that is, the projection aspect ratio, with respect to the layout processing unit 320 of FIG. Along with this, the CPU 110 causes the various image processing units 310 to perform settings for performing appropriate resolution conversion for the projection aspect ratio. After S413, the CPU 110 advances the process to S410.

S410の変形処理に進むと、CPU110は、表示するべき元画像の4頂点の座標を、投影アスペクト比の設定に基づいて設定する。具体的には、CPU110は、元画像の4頂点の座標を、投影アスペクト比の設定に応じて、図9(a)〜図9(c)に示した領域620〜640の何れか決定された領域の4頂点の座標に設定する。また、CPU110は、キーストーン補正の変形処理後の画像の4頂点の座標を、S408で決定した投影対象領域に基づいて設定する。なお例えば、撮像光学系と投影光学系171が同じである場合、つまり撮像部194が投影光学系171を撮像光学系として使用する構成となされている場合、CPU110は、図8(c)の各点Q1',P2',P3'の座標から三つの頂点座標を求める。残りの1点の頂点座標は、補正後の投影映像がスクリーン530上で長方形になり、三次元座標は一意に定まるため、撮像面540上に写像される座標から求める。一方、投影光学系171と撮像光学系がそれぞれ別に用意されている場合には、それら光学系の光軸間の距離に応じて座標変換を行うことで、変形処理後の画像の4頂点の座標を求めてもよい。或いは、一旦、各点Q1',P2',P3'の座標に基づいて変形及び投影を行い、再度、撮像部194を用いて撮像することによって誤差を検出し、その誤差を補正することにより、4頂点の座標を求めるようにしてもよい。また、撮像画像を用いず、GUIメニューなどから設定されるキーストーン補正設定値や、ズームレンズ、シフトレンズのポジションに基づいて、変形処理後の画像の4頂点の座標を計算してもよい。   In step S410, the CPU 110 sets the coordinates of the four vertices of the original image to be displayed based on the setting of the projection aspect ratio. Specifically, the CPU 110 determines the coordinates of the four vertices of the original image as one of the areas 620 to 640 shown in FIGS. 9A to 9C according to the setting of the projection aspect ratio. Set to the coordinates of the four vertices of the region. In addition, the CPU 110 sets the coordinates of the four vertices of the image after the keystone correction deformation process based on the projection target area determined in S408. Note that, for example, when the imaging optical system and the projection optical system 171 are the same, that is, when the imaging unit 194 is configured to use the projection optical system 171 as the imaging optical system, the CPU 110 performs processing shown in FIG. Three vertex coordinates are obtained from the coordinates of the points Q1 ′, P2 ′, and P3 ′. The vertex coordinates of the remaining one point are obtained from the coordinates mapped on the imaging surface 540 because the corrected projected image becomes a rectangle on the screen 530 and the three-dimensional coordinates are uniquely determined. On the other hand, when the projection optical system 171 and the imaging optical system are prepared separately, coordinate conversion is performed according to the distance between the optical axes of the optical systems, so that the coordinates of the four vertices of the transformed image are obtained. You may ask for. Alternatively, once deformation and projection are performed based on the coordinates of the points Q1 ′, P2 ′, and P3 ′, an error is detected again by imaging using the imaging unit 194, and the error is corrected, The coordinates of the four vertices may be obtained. Alternatively, the coordinates of the four vertices of the image after the deformation process may be calculated based on the keystone correction setting value set from the GUI menu or the like, and the positions of the zoom lens and the shift lens without using the captured image.

図10(a)〜図10(f)は、液晶パネル151の表示領域に対する画像の配置と、投影映像の投影状態との関係を説明する図である。
図10(a)は、アスペクト比が4:3のスクリーン530に対し、液晶プロジェクタ100が斜めに設置され、未補正映像の投影が行われた場合の投影状態例を示した図である。図10(a)の投影状態例の場合、未補正映像の投影映像710は、スクリーン530から一部が外れ、且つその形状も歪んでいる。
FIG. 10A to FIG. 10F are diagrams for explaining the relationship between the arrangement of images in the display area of the liquid crystal panel 151 and the projection state of the projected video.
FIG. 10A is a diagram showing an example of a projection state when the liquid crystal projector 100 is installed obliquely on the screen 530 having an aspect ratio of 4: 3 and an uncorrected video is projected. In the case of the projection state example in FIG. 10A, the uncorrected projected image 710 is partly off the screen 530 and the shape thereof is also distorted.

図10(b)は、液晶パネル151上の表示領域610のアスペクト比が16:10であり、S413における投影アスペクト比の設定を、投影対象領域と同じM:Nに変更した場合の投影状態例を示した図である。図10(b)の投影状態例の場合、液晶パネル151上で画像をレイアウト可能な領域640のアスペクト比がM:Nとなされている。したがって、図10(b)の図中斜線で示す領域は前述したように有効領域外となされ、例えば黒画像が形成(表示)される。以下の図10(c)〜図10(f)の例についても、有効領域外には黒画像が形成(表示)されるとする。   FIG. 10B shows an example of a projection state when the aspect ratio of the display area 610 on the liquid crystal panel 151 is 16:10, and the setting of the projection aspect ratio in S413 is changed to the same M: N as the projection target area. FIG. In the case of the projection state example in FIG. 10B, the aspect ratio of the area 640 where the image can be laid out on the liquid crystal panel 151 is M: N. Accordingly, the area indicated by the oblique lines in FIG. 10B is outside the effective area as described above, and, for example, a black image is formed (displayed). In the following examples shown in FIGS. 10C to 10F, it is assumed that a black image is formed (displayed) outside the effective area.

図10(c)は、S410において変形処理が行われ、投影アスペクト比の設定で定められる未補正映像の投影映像720の4頂点(図中黒丸B1〜B4)を、投影対象領域のそれぞれ対応した4頂点(図中白丸W1〜W4)に合致させた状態を示す図である。   In FIG. 10C, deformation processing is performed in S410, and the four vertices (black circles B1 to B4 in the figure) of the uncorrected projected image 720 determined by the setting of the projection aspect ratio correspond to the projection target areas, respectively. It is a figure which shows the state matched with 4 vertex (white circle W1-W4 in a figure).

図10(d)は、図10(c)の場合において液晶パネル151上に変形処理後の画像を形成したときの画像形状(変形後形状730とする)を示す図である。図10(d)中の黒丸B1〜B4と白丸W1〜W4は、図10(c)の黒丸B1〜B4と白丸W1〜W4に対応する位置を表している。変形後形状730は、液晶パネル151上で画像をレイアウト可能な領域640よりも大きくなる場合もある。これにより、アスペクト比がM:Nの画像を入力した場合には、投影対象領域いっぱいに映像が投影されることになる。他のアスペクト比の画像が入力された場合には、投影対象領域の縦幅又は横幅のどちらかが、液晶パネル151上で画像をレイアウト可能な領域640内でいっぱいとなるように画像が配置される。   FIG. 10D is a diagram showing an image shape (deformed shape 730) when an image after deformation processing is formed on the liquid crystal panel 151 in the case of FIG. 10C. Black circles B1 to B4 and white circles W1 to W4 in FIG. 10D represent positions corresponding to the black circles B1 to B4 and white circles W1 to W4 in FIG. The deformed shape 730 may be larger than the area 640 in which an image can be laid out on the liquid crystal panel 151. As a result, when an image having an aspect ratio of M: N is input, the video is projected over the entire projection target area. When an image with another aspect ratio is input, the image is arranged so that either the vertical width or the horizontal width of the projection target area is filled in the area 640 where the image can be laid out on the liquid crystal panel 151. The

図10(e)は、表示するべき画像としてアスペクト比がM:Nよりも横長の画像が入力された場合の、液晶パネル151上における変形処理後の画像(変形後形状730)のレイアウト例を示す図である。この図10(e)の場合、レイアウトの候補としては、画像を上側に配置して下側に黒帯を表示するレイアウト、画像を下側に配置して上側に黒帯を表示するレイアウト、画像を中央に配置して上下側に黒帯を表示するレイアウトがある。図10(e)の例では、変形後形状730の上辺と下辺のうち長い方に寄せる(この例では長い方の下辺に近い位置に配置する)レイアウトが選択され、上辺側には黒帯740が配置される。   FIG. 10E shows a layout example of an image after deformation processing (deformed shape 730) on the liquid crystal panel 151 when an image having an aspect ratio greater than M: N is input as an image to be displayed. FIG. In the case of FIG. 10E, layout candidates include a layout in which an image is arranged on the upper side and a black band is displayed on the lower side, a layout in which the image is arranged on the lower side and a black band is displayed on the upper side, and an image There is a layout in which a black band is displayed on the upper and lower sides with the center in the center. In the example of FIG. 10 (e), a layout that is closer to the longer one of the upper side and the lower side of the deformed shape 730 (arranged in a position close to the lower side of the longer side in this example) is selected. Is placed.

図10(f)は、表示するべき画像としてアスペクト比がM:Nよりも縦長の画像が入力された場合の、液晶パネル151上における変形処理後の画像(変形後形状730)のレイアウト例を示す図である。この図10(f)の場合、レイアウトの候補としては、画像を左側に配置して右側に黒帯を表示するレイアウト、画像を右側に配置して左側に黒帯を表示するレイアウト、画像を中央に配置して左右側に黒帯を表示するレイアウトがある。図10(f)の例では、変形後形状730の左辺と右辺の長い方に寄せる(この例では長い方の左辺に近い位置に配置する)レイアウトが選択され、右辺側には黒帯750が配置される。   FIG. 10F shows a layout example of an image (deformed shape 730) after deformation processing on the liquid crystal panel 151 when an image having an aspect ratio that is longer than M: N is input as an image to be displayed. FIG. In the case of FIG. 10F, layout candidates are a layout in which an image is arranged on the left side and a black band is displayed on the right side, a layout in which an image is arranged on the right side and a black band is displayed on the left side, and the image is the center There is a layout that displays black bands on the left and right sides. In the example of FIG. 10 (f), a layout is selected that is closer to the longer side of the left side and the right side of the deformed shape 730 (in this example, arranged at a position close to the longer left side), and a black belt 750 is placed on the right side. Be placed.

本実施形態の液晶プロジェクタ100によれば、これら図10(a)〜図10(f)に示すように、液晶パネル151上の画素を出来る限り多く使って画像を表示することができるので、高画質な表示が可能となる。   According to the liquid crystal projector 100 of the present embodiment, as shown in FIGS. 10A to 10F, an image can be displayed using as many pixels on the liquid crystal panel 151 as possible. Display with high image quality is possible.

以上説明したように、本実施形態によれば、入力画像信号は、投影アスペクト比の設定に応じて解像度変換及びレイアウト処理され、投影アスペクト設定に応じた領域が、前述した重なり領域内で採り得る長方形に合致するように変形される。これにより、キーストーン補正による変形処理後の画像は、入力画像信号のアスペクト比を保ったまま、スクリーンに表示できる最大サイズで投影される。
なお、本実施形態では、スクリーンのアスペクト比と投影アスペクト比とが異なるときに設定変更ダイアログを表示してユーザの入力を反映したが、ユーザの入力無しに自動で投影アスペクト設定が行われてもよい。
As described above, according to this embodiment, the input image signal is subjected to resolution conversion and layout processing according to the setting of the projection aspect ratio, and the area according to the projection aspect setting can be taken within the above-described overlapping area. It is transformed to fit the rectangle. As a result, the image after the transformation process by the keystone correction is projected at the maximum size that can be displayed on the screen while maintaining the aspect ratio of the input image signal.
In the present embodiment, when the screen aspect ratio and the projection aspect ratio are different, the setting change dialog is displayed to reflect the user input. However, even if the projection aspect setting is automatically performed without the user input. Good.

<第2の実施形態の説明>
以下、第2の実施形態について説明する。第2の実施形態の液晶プロジェクタ100の全体構成及び基本動作は前述した第1の実施形態と同様であるためその説明は省略する。第1の実施形態では、投影対象領域を決定するときに、面積の大きい方の長方形を採用していたが、第2の実施形態では、画像入力部130が有する各種の入力端子のなかで、選択されている(入力画像信号が入力される)入力端子に応じて投影対象領域を決定する。
<Description of Second Embodiment>
Hereinafter, the second embodiment will be described. Since the overall configuration and basic operation of the liquid crystal projector 100 of the second embodiment are the same as those of the first embodiment described above, description thereof is omitted. In the first embodiment, when determining the projection target region, the rectangle having the larger area is adopted. However, in the second embodiment, among the various input terminals of the image input unit 130, The projection target area is determined according to the selected input terminal (input image signal is input).

前述したように、画像入力部130は、パーソナルコンピュータ(PC)からのPC信号や音声・映像信号(AV信号)が入力される各種の入力端子を含んでいる。これら入力端子のうち、例えばアナログRGB端子、コンポーネント端子、HDMI端子、DVI端子などでは、アスペクト比が16:9や4:3のような横長の画像信号が入力されることが多い。したがって、CPU110は、画像入力部130において選択されている(接続されている)入力端子が、それらアナログRGB端子、コンポーネント端子、HDMI端子、DVI端子などである場合には、投影対象領域として横長の長方形を採用する。また、USB端子など、写真等の画像データ等が入力される端子が選択(接続)されている場合、写真画像は縦長の画像である場合も多いため、CPU110は、第1の実施形態の場合と同様に面積の大きい方を投影対象領域として採用する。   As described above, the image input unit 130 includes various input terminals to which a PC signal and an audio / video signal (AV signal) from a personal computer (PC) are input. Among these input terminals, for example, an analog RGB terminal, a component terminal, an HDMI terminal, a DVI terminal, and the like often input a horizontally long image signal having an aspect ratio of 16: 9 or 4: 3. Therefore, when the input terminal selected (connected) in the image input unit 130 is the analog RGB terminal, the component terminal, the HDMI terminal, the DVI terminal, or the like, the CPU 110 has a horizontally long projection target area. A rectangle is adopted. In addition, when a terminal for inputting image data such as a photograph is selected (connected), such as a USB terminal, the photograph image is often a vertically long image. Therefore, the CPU 110 is the case of the first embodiment. Similarly, the larger area is adopted as the projection target area.

このように、第2の実施形態においては、選択(接続)されている入力端子により、適切な投影対象領域を選ぶことができ、これによりできるだけ大きいサイズでスクリーンへの投影表示を行うことができる。   As described above, in the second embodiment, an appropriate projection target area can be selected by the selected (connected) input terminal, and thus, the projection display on the screen can be performed with the largest possible size. .

<第3の実施形態の説明>
以下、第3の実施形態について説明する。第3の実施形態の液晶プロジェクタ100の全体構成及び基本動作は前述した第1の実施形態と同様であるためその説明は省略する。第1の実施形態では、投影対象領域とは異なるアスペクト比の画像信号が入力された場合、液晶パネル151の画素を出来る限り多く使えるようなレイアウトを決定したが、第3の実施形態では、投影光学系171の光軸に近い方に画像を配置するレイアウトとする。
<Description of Third Embodiment>
Hereinafter, a third embodiment will be described. Since the overall configuration and basic operation of the liquid crystal projector 100 of the third embodiment are the same as those of the first embodiment described above, description thereof is omitted. In the first embodiment, when an image signal having an aspect ratio different from that of the projection target area is input, the layout is determined so that the pixels of the liquid crystal panel 151 can be used as much as possible. However, in the third embodiment, the projection is performed. The layout is such that an image is arranged closer to the optical axis of the optical system 171.

すなわち、CPU110は、光学系制御部170を介して投影光学系171の光軸に対応した画素位置を把握しているため、投影対象領域とは異なるアスペクト比の画像信号が入力された場合には、その光軸に近い方に画像を配置するレイアウトを決定する。
投影光学系171の光学特性は、周辺部よりも中央部の方が良いことが多いため、第3の実施形態のように、光軸に近い方に画像を配置することで、光学歪、色収差などの少ない高画質な映像投影が可能となる。
That is, since the CPU 110 grasps the pixel position corresponding to the optical axis of the projection optical system 171 via the optical system control unit 170, when an image signal having an aspect ratio different from that of the projection target area is input. Then, the layout for arranging the image closer to the optical axis is determined.
Since the optical characteristic of the projection optical system 171 is often better in the central part than in the peripheral part, by arranging an image closer to the optical axis as in the third embodiment, optical distortion and chromatic aberration can be achieved. This makes it possible to project high-quality images with little image quality.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、本発明は、上述の実施形態の各機能は回路(例えばASIC)とプログラムとの協働により実現することも可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a recording medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. In the present invention, each function of the above-described embodiment can be realized by cooperation of a circuit (for example, ASIC) and a program.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

100 液晶プロジェクタ、110 CPU、140 画像処理部、150 液晶制御部、151R、151G、151B 液晶パネル、171 投影光学系、194 撮像部、310 各種画像処理部、320 レイアウト処理部、330 変形処理部、340 フレームメモリ   100 liquid crystal projector, 110 CPU, 140 image processing unit, 150 liquid crystal control unit, 151R, 151G, 151B liquid crystal panel, 171 projection optical system, 194 imaging unit, 310 various image processing units, 320 layout processing unit, 330 deformation processing unit, 340 frame memory

Claims (12)

スクリーンに映像投影される画像を処理する画像処理装置であって、
スクリーン方向を撮像した撮像画像を基に、入力画像を配置する対象領域を決定する決定手段と、
前記入力画像のアスペクト比を保ったまま、前記入力画像を前記対象領域に配置する配置手段と、
前記対象領域への配置がなされた画像に対して所定の変形処理を施す変形手段と、を有し、
前記決定手段は、前記撮像画像から、前記スクリーンの領域と映像投影がなされる投影領域との重なり領域を求め、前記重なり領域の内で採り得る長方形のアスペクト比に基づいて、前記対象領域を決定し、
前記変形手段は、前記対象領域が前記重なり領域の中に投影されるように前記入力画像に対する前記変形処理を行うことを特徴とする画像処理装置。
An image processing apparatus for processing an image projected on a screen,
A determination means for determining a target area in which an input image is to be arranged based on a captured image obtained by capturing the screen direction;
Arrangement means for arranging the input image in the target area while maintaining the aspect ratio of the input image;
Deformation means for performing a predetermined deformation process on the image arranged in the target area,
The determining means obtains an overlapping area between the screen area and a projection area where video projection is performed from the captured image, and determines the target area based on a rectangular aspect ratio that can be taken within the overlapping area. And
The image processing apparatus, wherein the deformation unit performs the deformation process on the input image so that the target area is projected into the overlap area.
前記配置手段は、前記入力画像のアスペクト比と前記対象領域のアスペクト比とが異なる場合には、前記入力画像を配置する複数の候補の中から、前記スクリーン領域の形状に応じた候補を選択することを特徴とする請求項1に記載の画像処理装置。   When the aspect ratio of the input image is different from the aspect ratio of the target area, the arrangement unit selects a candidate according to the shape of the screen area from a plurality of candidates for arranging the input image. The image processing apparatus according to claim 1. 前記配置手段は、前記入力画像のアスペクト比が、前記対象領域のアスペクト比よりも横長のアスペクト比である場合には、前記スクリーン領域の形状の上辺と下辺を比較して長い方の辺に近い位置に前記入力画像を配置することを特徴とする請求項2に記載の画像処理装置。   When the aspect ratio of the input image is a horizontally long aspect ratio than the aspect ratio of the target area, the arrangement unit is closer to the longer side by comparing the upper side and the lower side of the shape of the screen area. The image processing apparatus according to claim 2, wherein the input image is arranged at a position. 前記配置手段は、前記入力画像のアスペクト比が、前記対象領域のアスペクト比よりも縦長のアスペクト比である場合には、前記スクリーン領域の形状の左辺と右辺を比較して長い方の辺に近い位置に前記入力画像を配置することを特徴とする請求項2に記載の画像処理装置。   When the aspect ratio of the input image is an aspect ratio that is vertically longer than the aspect ratio of the target area, the arrangement unit compares the left side and the right side of the shape of the screen area and is closer to the longer side The image processing apparatus according to claim 2, wherein the input image is arranged at a position. 前記配置手段は、更に、ユーザにより設定されたアスペクト比に合わせるようにして前記入力画像を前記対象領域に配置することを特徴とする請求項1から4の何れか1項に記載の画像処理装置。   5. The image processing apparatus according to claim 1, wherein the arrangement unit further arranges the input image in the target area so as to match an aspect ratio set by a user. 6. . 前記決定手段は、黒画像が投写された前記スクリーン方向の撮像画像と、白画像が投写された前記スクリーン方向の撮像画像とを基に、前記重なり領域を求めることを特徴とする請求項1から5の何れか1項に記載の画像処理装置。   The determination unit obtains the overlapping region based on the captured image in the screen direction on which the black image is projected and the captured image in the screen direction on which the white image is projected. The image processing apparatus according to any one of 5. 前記決定手段は、前記重なり領域の内で採り得る長方形が複数ある場合、前記長方形の面積の大きさに基づいて、前記対象領域を決定することを特徴とする請求項1から6の何れか1項に記載の画像処理装置。   The said determination means determines the said object area | region based on the magnitude | size of the area of the said rectangle, when there are two or more rectangles which can be taken in the said overlap area | region, The any one of Claim 1 to 6 characterized by the above-mentioned. The image processing apparatus according to item. 前記決定手段は、前記面積が最も大きい前記長方形の領域を、前記対象領域として決定することを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the determination unit determines the rectangular region having the largest area as the target region. 前記決定手段は、前記重なり領域の内で採り得る前記長方形を、前記入力画像の信号が入力される入力端子に応じて決定することを特徴とする請求項1から6の何れか1項に記載の画像処理装置。   The said determination means determines the said rectangle which can be taken within the said overlap area | region according to the input terminal into which the signal of the said input image is input, The any one of Claim 1 to 6 characterized by the above-mentioned. Image processing apparatus. 前記配置手段は、前記入力画像のアスペクト比と前記対象領域のアスペクト比が異なる場合には、前記入力画像の対角線の交点が、前記スクリーンに映像を投影する光学系の光軸に近い位置になるように前記入力画像を配置することを特徴とする請求項1から6の何れか1項に記載の画像処理装置。   When the aspect ratio of the input image is different from the aspect ratio of the target area, the arrangement means has an intersection of diagonal lines of the input image at a position close to the optical axis of the optical system that projects an image on the screen. The image processing apparatus according to claim 1, wherein the input image is arranged as described above. スクリーンに映像投影される画像を処理する画像処理装置の画像処理方法であって、
スクリーン方向を撮像した撮像画像を基に、入力画像を配置する対象領域を決定する決定工程と、
前記入力画像のアスペクト比を保ったまま、前記入力画像を前記対象領域に配置する配置工程と、
前記対象領域への配置がなされた画像に対して所定の変形処理を施す変形工程と、を有し、
前記決定工程では、前記撮像画像から前記スクリーンの領域と映像投影がなされる投影領域との重なり領域を求め、前記重なり領域の内で採り得る長方形のアスペクト比に基づいて、前記対象領域を決定し、
前記変形工程では、前記対象領域が前記重なり領域の中に投影されるように前記入力画像に対する前記変形処理を行うことを特徴とする画像処理方法。
An image processing method of an image processing apparatus for processing an image projected on a screen,
A determination step of determining a target region in which an input image is to be arranged based on a captured image obtained by capturing the screen direction;
An arrangement step of arranging the input image in the target area while maintaining an aspect ratio of the input image;
A deformation step of performing a predetermined deformation process on the image arranged in the target area,
In the determination step, an overlapping area between the screen area and a projection area on which video projection is performed is obtained from the captured image, and the target area is determined based on a rectangular aspect ratio that can be taken in the overlapping area. ,
In the deformation step, the deformation process is performed on the input image so that the target area is projected into the overlapping area.
コンピュータを、請求項1から10の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claim 1 to 10.
JP2017011274A 2017-01-25 2017-01-25 Image processing device, image processing method, and program Pending JP2018121201A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017011274A JP2018121201A (en) 2017-01-25 2017-01-25 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017011274A JP2018121201A (en) 2017-01-25 2017-01-25 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2018121201A true JP2018121201A (en) 2018-08-02

Family

ID=63044045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017011274A Pending JP2018121201A (en) 2017-01-25 2017-01-25 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2018121201A (en)

Similar Documents

Publication Publication Date Title
JP6164820B2 (en) Projector, control method therefor, and image projection system
JP6645687B2 (en) Display device and control method
US20170244941A1 (en) Projector and control method thereof
JP6793483B2 (en) Display devices, electronic devices and their control methods
US20190281266A1 (en) Control apparatus, readable medium, and control method
JP6271837B2 (en) Projection apparatus and control method thereof
JP2018125819A (en) Control device, control method, program, and storage medium
JP2013083755A (en) Display device, method of controlling display device, and program
JP6794092B2 (en) Display device
JP2020071354A (en) Projection system and projection method
JP2018054912A (en) Projection-type display device and method for controlling the same
JP6700955B2 (en) Projection apparatus and projection method
WO2020162051A1 (en) Projection type video display system
JP2018121201A (en) Image processing device, image processing method, and program
JP2020053710A (en) Information processing apparatus, projection device, control method of projection device, and program
JP2020191589A (en) Projection device, projection method, program, and storage medium
JP2014137386A (en) Projector, control method therefor, and image projection system
JP2019114887A (en) Projection type image display device and control method thereof
JP2020150481A (en) Information processing device, projection system, information processing method, and program
JP2019149633A (en) Projector, control device, image projection system, control method, and program
JP2014142466A (en) Projection device and control method of the same, program, and storage medium
JP2019186628A (en) Control device of display apparatus, control method, display system, and program
JP2019047355A (en) projector
JP2017169237A (en) Projector, control method thereof, program, and storage medium
JP2017198779A (en) Projection type display device and control method thereof