JP2011064859A - Projection type image display device and focus control circuit - Google Patents

Projection type image display device and focus control circuit Download PDF

Info

Publication number
JP2011064859A
JP2011064859A JP2009214225A JP2009214225A JP2011064859A JP 2011064859 A JP2011064859 A JP 2011064859A JP 2009214225 A JP2009214225 A JP 2009214225A JP 2009214225 A JP2009214225 A JP 2009214225A JP 2011064859 A JP2011064859 A JP 2011064859A
Authority
JP
Japan
Prior art keywords
lens
image
unit
period
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009214225A
Other languages
Japanese (ja)
Inventor
Tatsuya Takahashi
達也 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009214225A priority Critical patent/JP2011064859A/en
Publication of JP2011064859A publication Critical patent/JP2011064859A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To shorten a processing time in an autofocus processing using a contrast detection method. <P>SOLUTION: A projection part 10 projects an image to a projection surface 200 through a lens 13. A lens driving part 20 moves the position of the lens 13. An imaging part 30 picks up an image projected to the projection surface 200. A control part 40 decides the position of the lens 13 based on definition of a plurality of images respectively picked up by the imaging part 30 at a plurality of lens positions. The control part 40 allows the lens driving part 20 to move the lens by a plurality of number of times in one frame period, and obtains the definition of a plurality of partial images exposed at the respective lens positions from one frame image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、オートフォーカス機能を搭載した投写型映像表示装置、およびフォーカス制御回路に関する。   The present invention relates to a projection display apparatus equipped with an autofocus function, and a focus control circuit.

近年、オートフォーカス機能を搭載した投写型映像表示装置(以下適宜、プロジェクタと表記する)が実用化されている。たとえば、プロジェクタ本体に測距センサ(たとえば、一対のラインセンサで構成される)を搭載し、プロジェクタ本体とスクリーンとの距離を測定することにより、ピントを合わせる手法が実用化されている(たとえば、特許文献1参照)。   2. Description of the Related Art In recent years, a projection display apparatus (hereinafter referred to as a projector as appropriate) equipped with an autofocus function has been put into practical use. For example, a distance measuring sensor (for example, composed of a pair of line sensors) is mounted on the projector main body, and a method of focusing by measuring the distance between the projector main body and the screen has been put into practical use (for example, Patent Document 1).

また、プロジェクタ本体にカメラを搭載し、複数のレンズ位置でそれぞれ撮像された画像のコントラストを算出し、コントラストが最大となるレンズ位置を検出することにより、ピントを合わせる手法も提案されている(たとえば、特許文献2参照)。この手法は、プロジェクタ本体とスクリーンとの距離が大きく離れていても、対応することができる。上記測距センサを用いる手法では、プロジェクタ本体とスクリーンとの距離が、所定の範囲を超えて離れてしまうと対応できなくなる。その場合、ユーザの目視により手動でフォーカスを調整する必要がある。   In addition, a method has been proposed in which a camera is mounted on the projector body, the contrast of images captured at a plurality of lens positions is calculated, and the lens position at which the contrast is maximized is detected to thereby adjust the focus (for example, , See Patent Document 2). This method can be used even when the distance between the projector body and the screen is large. The method using the distance measuring sensor cannot cope with the distance between the projector main body and the screen exceeding a predetermined range. In that case, it is necessary to manually adjust the focus by visual observation of the user.

特開2007−271760号公報JP 2007-271760 A 特開2006−285016号公報JP 2006-285016 A

上述したカメラを用いる手法では、複数のレンズ位置でそれぞれ撮像された画像のコントラストを算出する必要があるため、合焦位置を決定するまでに、ある程度の時間が必要となる。一般的に、デジタルカメラでは、オートフォーカス調整を開始してから、合焦位置を決定するまでの時間が1秒以内であることが要求される。プロジェクタにおいても、この時間は短いほど好ましい。   In the method using the camera described above, since it is necessary to calculate the contrast of images captured at a plurality of lens positions, a certain amount of time is required until the in-focus position is determined. In general, a digital camera is required to have a time of 1 second or less after the start of autofocus adjustment until the in-focus position is determined. Also in the projector, it is preferable that this time is shorter.

本発明はこうした状況に鑑みなされたものであり、その目的は、コントラスト検出法を用いたオートフォーカス処理にて、処理時間を短縮する技術を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for reducing processing time in autofocus processing using a contrast detection method.

本発明のある態様の投写型映像表示装置は、投影面にレンズを介して画像を投写する投写部と、レンズの位置を移動させるレンズ駆動部と、投影面に投影された画像を撮像する撮像部と、複数のレンズ位置にて撮像部によりそれぞれ撮像された複数の画像の鮮明度をもとに、レンズの位置を決定する制御部と、を備える。制御部は、一フレーム周期内に、レンズ駆動部にレンズを複数回移動させ、一枚のフレーム画像内から、それぞれのレンズ位置で露光された複数の部分画像の鮮明度を取得する。   A projection display apparatus according to an aspect of the present invention includes a projection unit that projects an image on a projection surface via a lens, a lens driving unit that moves the position of the lens, and an image that captures an image projected on the projection surface. And a control unit that determines the position of the lens based on the sharpness of the plurality of images respectively captured by the imaging unit at the plurality of lens positions. The control unit moves the lens to the lens driving unit a plurality of times within one frame period, and acquires the definition of the plurality of partial images exposed at the respective lens positions from one frame image.

本発明の別の態様は、フォーカス制御回路である。このフォーカス制御回路は、撮像素子と、レンズと、当該レンズを移動させるための駆動素子と、を備える装置に搭載されるべきフォーカス制御回路であって、複数のレンズ位置にて撮像素子によりそれぞれ撮像された複数の画像の鮮明度を算出する画像処理部と、画像処理部により算出された複数の画像の鮮明度をもとに、レンズの位置を決定するフォーカス調整部と、を備える。フォーカス調整部は、一フレーム周期内に、駆動素子にレンズを複数回移動させ、画像処理部にそれぞれのレンズ位置で露光された複数の部分画像の鮮明度を算出させる。   Another aspect of the present invention is a focus control circuit. The focus control circuit is a focus control circuit to be mounted on a device including an image sensor, a lens, and a drive element for moving the lens, and each image is captured by the image sensor at a plurality of lens positions. An image processing unit that calculates the sharpness of the plurality of images, and a focus adjustment unit that determines the position of the lens based on the sharpness of the plurality of images calculated by the image processing unit. The focus adjustment unit causes the driving element to move the lens a plurality of times within one frame period, and causes the image processing unit to calculate the sharpness of the plurality of partial images exposed at the respective lens positions.

本発明によれば、コントラスト検出法を用いたオートフォーカス処理にて、処理時間を短縮することができる。   According to the present invention, the processing time can be shortened by the autofocus processing using the contrast detection method.

本発明の実施の形態に係る投写型映像表示装置の構成を示す図である。It is a figure which shows the structure of the projection type video display apparatus concerning embodiment of this invention. フォーカスレンズの合焦位置の決定処理について説明するための図である。It is a figure for demonstrating the determination process of the focus position of a focus lens. CMOSイメージセンサで撮像されるフレーム画像を用いる、コントラスト検出法を説明するためのタイミングチャートである。It is a timing chart for demonstrating the contrast detection method using the frame image imaged with a CMOS image sensor. 図3に示したコントラスト検出法を用いたオートフォーカス処理の、デジタルカメラへの適用例1を説明するためのタイミングチャートである。4 is a timing chart for explaining an application example 1 of the autofocus process using the contrast detection method shown in FIG. 3 to a digital camera. 図3に示したコントラスト検出法を用いたオートフォーカス処理の、デジタルカメラへの適用例2を説明するためのタイミングチャートである。4 is a timing chart for explaining an application example 2 of the autofocus process using the contrast detection method shown in FIG. 3 to a digital camera. 投影面に投影されるパターン画像の一例を示す図である。It is a figure which shows an example of the pattern image projected on a projection surface. パターン画像に含まれる複数の部分画像の一例を示す図である。It is a figure which shows an example of the some partial image contained in a pattern image. 本発明の実施の形態に係る投写型映像表示装置の動作例1を説明するための図である。It is a figure for demonstrating the operation example 1 of the projection type video display apparatus concerning embodiment of this invention. 本発明の実施の形態に係る投写型映像表示装置の動作例2を説明するための図である。It is a figure for demonstrating the operation example 2 of the projection type video display apparatus concerning embodiment of this invention.

図1は、本発明の実施の形態に係る投写型映像表示装置100の構成を示す図である。投写型映像表示装置100は、投写部10、レンズ駆動部20、撮像部30および制御部40を備える。   FIG. 1 is a diagram showing a configuration of a projection display apparatus 100 according to an embodiment of the present invention. The projection display apparatus 100 includes a projection unit 10, a lens driving unit 20, an imaging unit 30, and a control unit 40.

投写部10は、スクリーンなどの投影面200に画像を投写する。オートフォーカス時には、所定のパターン画像を投写する。投写部10は、光源11、光変調部12およびフォーカスレンズ13を含む。光源11には、フィラメント型の電極構造を有するハロゲンランプ、アーク放電を発生させる電極構造を有するメタルハライドランプ、キセノンショートアークランプ、高圧型の水銀ランプ、LEDランプなどを採用することができる。   The projection unit 10 projects an image on a projection surface 200 such as a screen. During autofocus, a predetermined pattern image is projected. The projection unit 10 includes a light source 11, a light modulation unit 12, and a focus lens 13. As the light source 11, a halogen lamp having a filament-type electrode structure, a metal halide lamp having an electrode structure for generating arc discharge, a xenon short arc lamp, a high-pressure mercury lamp, an LED lamp, or the like can be employed.

光変調部12は、制御部40(より具体的には、後述する画像信号設定部46)から設定される画像信号に応じて、光源11から入射される光を変調する。たとえば、光変調部12にはDMD(Digital Micromirror Device)を採用することができる。DMDは、画素数に対応した複数のマイクロミラーを備え、各マイクロミラーの向きが各画素信号に応じて制御されることにより、所望の画像を形成する。   The light modulation unit 12 modulates light incident from the light source 11 in accordance with an image signal set by the control unit 40 (more specifically, an image signal setting unit 46 described later). For example, a DMD (Digital Micromirror Device) can be employed for the light modulator 12. The DMD includes a plurality of micromirrors corresponding to the number of pixels, and a desired image is formed by controlling the direction of each micromirror according to each pixel signal.

フォーカスレンズ13は、光変調部12から入射される光の焦点位置を調整する。フォーカスレンズ13は、レンズ駆動部20によりそのレンズ位置が光軸上で移動される。   The focus lens 13 adjusts the focal position of the light incident from the light modulation unit 12. The lens position of the focus lens 13 is moved on the optical axis by the lens driving unit 20.

レンズ駆動部20は、制御部40(より具体的には、後述する駆動信号設定部48)から設定される駆動信号に応じて、フォーカスレンズ13の位置を移動させる。レンズ駆動部20には、ステッピングモータ、ボイスコイルモータ(VCM)、ピエゾ素子などを採用することができる。   The lens driving unit 20 moves the position of the focus lens 13 in accordance with a driving signal set from the control unit 40 (more specifically, a driving signal setting unit 48 described later). For the lens driving unit 20, a stepping motor, a voice coil motor (VCM), a piezoelectric element, or the like can be employed.

撮像部30は、投影面200に投影された画像を撮像する。オートフォーカス時には上記パターン画像を撮像する。撮像部30は、固体撮像素子31および信号処理回路32を含む。固体撮像素子31には、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを採用することができる。グローバルシャッタ方式など、走査ライン単位でシャッタタイミングを制御可能な撮像素子であれば、採用することができる。なお、グローバルシャッタ方式のCCD(Charge Coupled Devices)は採用することがきない。信号処理回路32は、固体撮像素子31から出力される信号に対して、A/D変換などの各種信号処理を施し、制御部40に出力する。   The imaging unit 30 captures an image projected on the projection plane 200. The pattern image is captured during autofocus. The imaging unit 30 includes a solid-state imaging device 31 and a signal processing circuit 32. A CMOS (Complementary Metal Oxide Semiconductor) image sensor or the like can be adopted as the solid-state imaging device 31. Any image sensor that can control shutter timing in units of scanning lines, such as a global shutter system, can be used. Note that a global shutter type CCD (Charge Coupled Devices) cannot be adopted. The signal processing circuit 32 performs various signal processing such as A / D conversion on the signal output from the solid-state imaging device 31 and outputs the signal to the control unit 40.

制御部40は、複数のレンズ位置にて撮像部30によりそれぞれ撮像された複数のパターン画像の鮮明度をもとに、フォーカスレンズ13の位置を決定する。本実施の形態では、制御部40は、一フレーム周期内に、レンズ駆動部20にレンズを複数回移動させ、一枚のフレーム画像内から、それぞれのレンズ位置で露光された複数の部分画像の鮮明度を取得する。   The control unit 40 determines the position of the focus lens 13 based on the sharpnesses of the plurality of pattern images respectively captured by the imaging unit 30 at the plurality of lens positions. In the present embodiment, the control unit 40 causes the lens driving unit 20 to move the lens a plurality of times within one frame period, and from a single frame image, a plurality of partial images exposed at the respective lens positions. Get the definition.

以下、より具体的に説明する。制御部40は、画像処理部41、画像メモリ45、画像信号設定部46、フォーカス調整部47および駆動信号設定部48を備える。画像処理部41は、エリア設定部42、HPF43および積算部44を含む。   More specific description will be given below. The control unit 40 includes an image processing unit 41, an image memory 45, an image signal setting unit 46, a focus adjustment unit 47, and a drive signal setting unit 48. The image processing unit 41 includes an area setting unit 42, an HPF 43, and an integrating unit 44.

制御部40の構成は、ハードウェア的には、任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。   The configuration of the control unit 40 can be realized by an arbitrary processor, memory, or other LSI in terms of hardware, and can be realized by a program loaded into the memory in terms of software. Draw functional blocks. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

画像処理部41は、撮像部30から供給される画像信号を処理する。以下、より具体的に説明する。エリア設定部42は、投影面200を写した画像のうち、上記パターン画像が写っているエリアの画像信号を抽出して、その抽出した画像信号をHPF43に渡す。HPF43は、上記エリアの画像信号の高周波成分を抽出して、その抽出した高周波成分を積算部44に渡す。積算部44は、上記エリアのフレーム画像に含まれる上記部分画像ごとに、高周波成分を積算して、その積算値をフォーカス調整部47に渡す。   The image processing unit 41 processes the image signal supplied from the imaging unit 30. More specific description will be given below. The area setting unit 42 extracts an image signal of an area in which the pattern image is captured from an image of the projection plane 200 and passes the extracted image signal to the HPF 43. The HPF 43 extracts a high frequency component of the image signal in the area and passes the extracted high frequency component to the integrating unit 44. The integrating unit 44 integrates the high frequency components for each partial image included in the frame image of the area, and passes the integrated value to the focus adjusting unit 47.

画像メモリ45は、投影面200に投写すべき画像データを保持する。当該画像データは、図示しない外部インタフェースを介して、PCなどから供給される。本実施の形態では、オートフォーカス時に投写されるパターン画像も保持する。画像信号設定部46は、画像メモリ45に保持される画像データにもとづく画像信号を光変調部12に設定する。   The image memory 45 holds image data to be projected on the projection plane 200. The image data is supplied from a PC or the like via an external interface (not shown). In the present embodiment, a pattern image projected during autofocus is also held. The image signal setting unit 46 sets an image signal based on the image data held in the image memory 45 in the light modulation unit 12.

フォーカス調整部47は、オートフォーカス時に、画像信号設定部46にパターン画像の信号を光変調部12に設定させることにより、投影面200に当該パターン画像を投影させる。それとともに、フォーカス調整部47は、フォーカスレンズ13を所定のステップ幅で順次、移動させるための制御信号を駆動信号設定部48に供給する。なお、この一ステップの移動ごとに、画像処理部41により上記積算値が算出される。フォーカス調整部47は、積算部44から渡される複数の積算値のうち、最大値をとるフォーカスレンズ13の位置を、合焦位置に決定する。   The focus adjustment unit 47 causes the image signal setting unit 46 to set the signal of the pattern image in the light modulation unit 12 and causes the pattern image to be projected onto the projection plane 200 during autofocus. At the same time, the focus adjustment unit 47 supplies a control signal for sequentially moving the focus lens 13 with a predetermined step width to the drive signal setting unit 48. Note that the integrated value is calculated by the image processing unit 41 for each movement of one step. The focus adjustment unit 47 determines the position of the focus lens 13 that takes the maximum value among the plurality of integration values delivered from the integration unit 44 as the in-focus position.

図2は、フォーカスレンズ13の合焦位置の決定処理について説明するための図である。オートフォーカス機能が有効化されると、フォーカス調整部47は、画像信号設定部46にパターン画像の投写を指示するとともに、フォーカスレンズ13をニア側からファー側へまたはファー側からニア側へ、所定のステップ幅で順次、移動させるための制御信号を駆動信号設定部48に設定する。画像信号設定部46は、パターン画像の信号を光変調部12に設定し、駆動信号設定部48は、上記制御信号に応じた駆動信号をレンズ駆動部20に設定する。   FIG. 2 is a diagram for explaining the determination process of the focus position of the focus lens 13. When the autofocus function is enabled, the focus adjustment unit 47 instructs the image signal setting unit 46 to project a pattern image, and moves the focus lens 13 from the near side to the far side or from the far side to the near side. A control signal for sequentially moving in the step width is set in the drive signal setting unit 48. The image signal setting unit 46 sets a pattern image signal in the light modulation unit 12, and the drive signal setting unit 48 sets a drive signal corresponding to the control signal in the lens driving unit 20.

画像処理部41は、フォーカスレンズ13の各レンズ位置において撮像されたパターン画像に含まれる部分画像のシャープネス(上記積算値を用いることができる)を算出する。このシャープネスは、フォーカスレンズ13が合焦位置に近づくにつれ、上昇する。その上昇がピークをうち、下降に転換したとき、フォーカス調整部47は、その一つ前のレンズ位置を合焦位置に決定する。   The image processing unit 41 calculates the sharpness (the integrated value can be used) of the partial image included in the pattern image captured at each lens position of the focus lens 13. This sharpness increases as the focus lens 13 approaches the in-focus position. When the rise peaks and falls, the focus adjustment unit 47 determines the previous lens position as the focus position.

なお、上述したオートフォーカス機能が有効化される条件としては、投写型映像表示装置100の電源投入、ユーザ操作、定期的な自動発動などが該当する。   Note that the conditions for enabling the above-described autofocus function include power-on of the projection display apparatus 100, user operation, periodic automatic activation, and the like.

まず、本実施の形態に係る投写型映像表示装置100で実行される、コントラスト検出法を用いたオートフォーカス処理の説明に先立ち、コンパクトデジタルカメラや携帯電話機に搭載されるカメラ(以下、まとめてデジタルカメラと記載する)で実行されるオートフォーカス処理について説明する。   First, prior to the description of the autofocus process using the contrast detection method executed by the projection display apparatus 100 according to the present embodiment, a compact digital camera or a camera mounted on a mobile phone (hereinafter collectively referred to as digital). The autofocus process executed in (described as “camera”) will be described.

図3は、CMOSイメージセンサで撮像されるフレーム画像を用いる、コントラスト検出法を説明するためのタイミングチャートである。CMOSイメージセンサでは、ローリングシャッタ方式が採用されるため、各走査ラインの露光開始タイミングが順次、ずれていく。図3では、一フレームにm(mは自然数)行の走査ラインが含まれる例を描いている。   FIG. 3 is a timing chart for explaining a contrast detection method using a frame image captured by a CMOS image sensor. Since the CMOS image sensor employs a rolling shutter system, the exposure start timing of each scanning line is sequentially shifted. FIG. 3 shows an example in which m (m is a natural number) scanning lines are included in one frame.

一フレーム周期の開始を示す垂直同期信号(VSYNC)が設定されると、CMOSイメージセンサの一行目の走査ラインからm行目の走査ラインへ向けて、露光を順次開始する。全行の走査ラインの露光期間は等しいため、一行目の走査ラインからm行目の走査ラインへ向けて、順次、露光が終了する。各走査ラインの画素データは、露光が終了すると、CMOSイメージセンサから信号処理回路32を経て画像処理部41に出力され、各画素データの高周波成分が順次、算出される。   When a vertical synchronization signal (VSYNC) indicating the start of one frame period is set, exposure is sequentially started from the first scanning line to the mth scanning line of the CMOS image sensor. Since the exposure periods of all the scanning lines are equal, the exposure is sequentially completed from the first scanning line toward the mth scanning line. When the exposure is completed, the pixel data of each scanning line is output from the CMOS image sensor to the image processing unit 41 via the signal processing circuit 32, and the high frequency components of each pixel data are sequentially calculated.

m行目の走査ラインの露光、およびその画素データの高周波成分の算出が終了すると、その時点で、当該フレーム画像全体の鮮明度を示す評価値(たとえば、上述したシャープネス)の算出が可能となる。   When the exposure of the m-th scanning line and the calculation of the high-frequency component of the pixel data are completed, it is possible to calculate an evaluation value (for example, the above-described sharpness) indicating the sharpness of the entire frame image. .

図4は、図3に示したコントラスト検出法を用いたオートフォーカス処理の、デジタルカメラへの適用例1を説明するためのタイミングチャートである。適用例1では、二フレームに一回、フォーカスレンズ13を移動させる。より具体的には、奇数フレーム(または偶数フレーム)の評価値算出の終了後にフォーカスレンズ13を移動させる。図4では、フォーカスレンズ13の移動を、レンズ駆動部20に搭載されるモータへの駆動信号で表現している。   FIG. 4 is a timing chart for explaining an application example 1 of the autofocus process using the contrast detection method shown in FIG. 3 to a digital camera. In application example 1, the focus lens 13 is moved once every two frames. More specifically, the focus lens 13 is moved after the evaluation value calculation for odd frames (or even frames) is completed. In FIG. 4, the movement of the focus lens 13 is expressed by a drive signal to a motor mounted on the lens drive unit 20.

上述したように、ローリングシャッタ方式を採用したCMOSイメージセンサでは、各走査ラインの露光開始タイミングが一律ではない。したがって、露光期間中にフォーカスレンズ13が移動してしまう走査ラインも発生する。図4では、二番目のフレームに含まれる走査ラインが、露光期間の途中でレンズが移動してしまう。この場合、一つの露光期間で撮像された一走査ラインの画素データ内に、フォーカスレンズ13の移動前の成分と移動後の成分が混在することになる。   As described above, in the CMOS image sensor adopting the rolling shutter system, the exposure start timing of each scanning line is not uniform. Therefore, a scanning line in which the focus lens 13 moves during the exposure period is also generated. In FIG. 4, the scanning line included in the second frame moves the lens during the exposure period. In this case, the component before movement of the focus lens 13 and the component after movement are mixed in the pixel data of one scanning line imaged in one exposure period.

この点、適用例1のように一フレーム飛ばしでフレーム画像の評価値を採用することにより、フォーカスレンズ13の移動前の成分と移動後の成分が混在する走査ラインを含むフレーム画像を対象外とすることができる。図4では、一番目のフレームおよび三番目のフレームに含まれる走査ラインの露光期間の途中で、フォーカスレンズ13が移動することはない。   In this regard, by adopting the evaluation value of the frame image by skipping one frame as in Application Example 1, the frame image including the scanning line in which the component before moving the focus lens 13 and the component after moving is mixed is excluded. can do. In FIG. 4, the focus lens 13 does not move during the exposure period of the scanning lines included in the first frame and the third frame.

図5は、図3に示したコントラスト検出法を用いたオートフォーカス処理の、デジタルカメラへの適用例2を説明するためのタイミングチャートである。適用例2では、一フレームごとにフォーカスレンズ13を移動させる。より具体的には、各フレームの評価値算出の終了後にフォーカスレンズ13を移動させる。   FIG. 5 is a timing chart for explaining an application example 2 of the autofocus process using the contrast detection method shown in FIG. 3 to a digital camera. In Application Example 2, the focus lens 13 is moved for each frame. More specifically, the focus lens 13 is moved after the evaluation value calculation for each frame is completed.

一フレームごとにフォーカスレンズ13を移動させると、各フレームに含まれるいくつかの走査ラインでは、その露光期間の途中でフォーカスレンズ13が移動する。図5では、各露光期間のうち、フォーカスレンズ13の移動前のレンズ位置で露光される期間を実線で、移動後のレンズ位置で露光される期間を点線で描いている。一行目に近い走査ラインほど移動前のレンズ位置で露光される期間の割合が大きく、反対に、m行目に近い走査ラインほど移動後のレンズ位置で露光される期間の割合が大きくなる。   When the focus lens 13 is moved for each frame, the focus lens 13 is moved during the exposure period in some scanning lines included in each frame. In FIG. 5, of each exposure period, the period exposed at the lens position before the focus lens 13 is moved is drawn by a solid line, and the period exposed at the lens position after the movement is drawn by a dotted line. The ratio of the period exposed at the lens position before the movement is larger as the scanning line is closer to the first line, and the ratio of the period of exposure at the lens position after the movement is larger as the scanning line is closer to the m-th line.

適用例2では、制御部40は、ある走査ラインの露光期間に占める、移動前のレンズ位置で露光された第1期間と移動後のレンズ位置で露光された第2期間との比率から、当該走査ラインの当該露光期間に対応する一つのレンズ位置を擬制する。たとえば、第1期間と第2期間との比率が1:1の場合、擬製されるべきレンズ位置は、移動前のレンズ位置と移動後のレンズ位置との間のちょうど中間地点となる。また、第1期間と第2期間との比率が1:3の場合、擬製されるべきレンズ位置は、移動前のレンズ位置と移動後のレンズ位置との間の3/4地点となる。   In Application Example 2, the control unit 40 calculates the ratio of the first period exposed at the lens position before movement and the second period exposed at the lens position after movement, which occupies the exposure period of a certain scanning line. One lens position corresponding to the exposure period of the scanning line is simulated. For example, when the ratio between the first period and the second period is 1: 1, the lens position to be counterfeited is just an intermediate point between the lens position before the movement and the lens position after the movement. When the ratio between the first period and the second period is 1: 3, the lens position to be counterfeited is a 3/4 point between the lens position before the movement and the lens position after the movement.

このように、適用例2ではフォーカスレンズ13の移動前の成分と移動後の成分が混在する走査ラインを含むフレーム画像も、上記評価値算出の対象とすることができ、適用例1より、合焦位置を決定するまでの時間を短縮することができる。   As described above, in application example 2, a frame image including a scanning line in which the component before movement of the focus lens 13 and the component after movement are mixed can be the target of the evaluation value calculation. The time required to determine the focal position can be shortened.

図6は、投影面に投影されるパターン画像の一例を示す図である。投影面200に投影されるパターン画像PIは、模様、文字列などで形成される。図6では縦縞模様で形成される例を描いている。   FIG. 6 is a diagram illustrating an example of a pattern image projected on the projection plane. The pattern image PI projected on the projection plane 200 is formed with a pattern, a character string, or the like. FIG. 6 illustrates an example in which a vertical stripe pattern is formed.

図7は、パターン画像に含まれる複数の部分画像の一例を示す図である。図7では、一枚のパターン画像PIから、四つの部分画像(第1部分画像Ip1、第2部分画像Ip2、第3部分画像Ip3および第4部分画像Ip4)が抽出される。これらの部分画像のそれぞれは、固体撮像素子31のn(nは自然数)行の主走査ラインで撮像される画像である。たとえば、四行の主走査ラインで撮像される画像であってもよいし、一行の主走査ラインで撮像される画像であってもよい。   FIG. 7 is a diagram illustrating an example of a plurality of partial images included in the pattern image. In FIG. 7, four partial images (first partial image Ip1, second partial image Ip2, third partial image Ip3, and fourth partial image Ip4) are extracted from one pattern image PI. Each of these partial images is an image picked up by n (n is a natural number) main scanning lines of the solid-state image sensor 31. For example, an image captured by four main scanning lines or an image captured by one main scanning line may be used.

一枚のパターン画像PIから抽出される複数の部分画像は、それぞれ同じ内容である必要がある。図7では、縦縞模様のパターン画像PIから、水平方向の幅が揃った四つの部分画像が抽出されるため、その四つの部分画像の模様は同じになる。なお、この条件を満たしていれば、一枚のパターン画像PIから抽出される部分画像の数、形状、位置は、任意に設定可能である。抽出される部分画像の間にスペースを設けるか、設けないかも任意に設定可能である。単純に、パターン画像PIを上下に二分割して、その上半分を第1部分画像、その下半分を第2部分画像としてもよい。   A plurality of partial images extracted from one pattern image PI need to have the same content. In FIG. 7, four partial images having the same horizontal width are extracted from the vertically striped pattern image PI, so the patterns of the four partial images are the same. If this condition is satisfied, the number, shape, and position of partial images extracted from one pattern image PI can be arbitrarily set. It is possible to arbitrarily set whether or not to provide a space between the extracted partial images. Simply, the pattern image PI may be divided into upper and lower parts, and the upper half of the pattern image PI may be used as the first partial image and the lower half thereof as the second partial image.

以下、図7に示したパターン画像PIから、第1部分画像Ip1、第2部分画像Ip2、第3部分画像Ip3および第4部分画像Ip4が抽出される例を用いて、本実施の形態に係る投写型映像表示装置100の動作例について説明する。   Hereinafter, according to the present embodiment, the first partial image Ip1, the second partial image Ip2, the third partial image Ip3, and the fourth partial image Ip4 are extracted from the pattern image PI illustrated in FIG. An operation example of the projection display apparatus 100 will be described.

図8は、本発明の実施の形態に係る投写型映像表示装置100の動作例1を説明するための図である。動作例1は、一枚のパターン画像PIから抽出された、複数の部分画像のそれぞれの露光期間が互いに重複しないよう、固体撮像素子31のそれぞれ対応する部分領域の露光タイミングが設定される例である。この例では、制御部40は、露光タイミングに同期して、レンズ駆動部20にフォーカスレンズ13を移動させる。   FIG. 8 is a diagram for explaining an operation example 1 of the projection display apparatus 100 according to the embodiment of the present invention. The operation example 1 is an example in which the exposure timings of the corresponding partial areas of the solid-state imaging device 31 are set so that the exposure periods of the plurality of partial images extracted from one pattern image PI do not overlap each other. is there. In this example, the control unit 40 moves the focus lens 13 to the lens driving unit 20 in synchronization with the exposure timing.

図8では、第1部分画像Ip1、第2部分画像Ip2、第3部分画像Ip3および第4部分画像Ip4のそれぞれの露光期間を短くすることにより、それらの露光期間を重複させずに、それらの露光期間を一フレーム周期内に収めている。より具体的には、第1部分画像Ip1の露光期間の終了とともに、第2部分画像Ip2の露光期間を開始し、第2部分画像Ip2の露光期間の終了とともに、第3部分画像Ip3の露光期間を開始し、第3部分画像Ip3の露光期間の終了とともに、第4部分画像Ip4の露光期間を開始する。   In FIG. 8, by shortening the exposure periods of the first partial image Ip1, the second partial image Ip2, the third partial image Ip3, and the fourth partial image Ip4, without overlapping the exposure periods, The exposure period is within one frame period. More specifically, the exposure period of the second partial image Ip2 starts with the end of the exposure period of the first partial image Ip1, and the exposure period of the third partial image Ip3 with the end of the exposure period of the second partial image Ip2. And the exposure period of the fourth partial image Ip4 is started together with the end of the exposure period of the third partial image Ip3.

フォーカス調整部47は、各露光期間の終了に同期してフォーカスレンズ13を移動させるよう、駆動信号設定部48に指示する。駆動信号設定部48は、フォーカス調整部47の指示にしたがい、レンズ駆動部20に、各露光期間の終了に同期した駆動信号を設定する。画像処理部41は、第1部分画像Ip1、第2部分画像Ip2、第3部分画像Ip3および第4部分画像Ip4のそれぞれについて、上記評価値を算出し、フォーカス調整部47に渡す。フォーカス調整部47は、上記評価値が最も高い部分画像を選択し、その部分画像のレンズ位置を合焦位置に決定する。   The focus adjustment unit 47 instructs the drive signal setting unit 48 to move the focus lens 13 in synchronization with the end of each exposure period. The drive signal setting unit 48 sets a drive signal synchronized with the end of each exposure period in the lens drive unit 20 in accordance with an instruction from the focus adjustment unit 47. The image processing unit 41 calculates the evaluation value for each of the first partial image Ip1, the second partial image Ip2, the third partial image Ip3, and the fourth partial image Ip4, and passes the evaluation value to the focus adjustment unit 47. The focus adjustment unit 47 selects the partial image with the highest evaluation value, and determines the lens position of the partial image as the in-focus position.

図9は、本発明の実施の形態に係る投写型映像表示装置100の動作例2を説明するための図である。動作例2は、動作例1と異なり、フォーカスレンズ13のレンズ位置が切り換わる間の期間より、上記部分画像の露光期間が長く設定される例である。   FIG. 9 is a diagram for explaining an operation example 2 of the projection display apparatus 100 according to the embodiment of the present invention. In the second operation example, unlike the first operation example, the exposure period of the partial image is set longer than the period during which the lens position of the focus lens 13 is switched.

動作例1で説明したように、各部分画像の露光期間を短くすれば、当該レンズ位置の更新間隔を短くしても、各露光期間の途中でフォーカスレンズ13が移動してしまうケースを回避することができる。ただし、当該露光期間を短くすると、上記評価値を算出するために必要十分な情報(すなわち、必要十分な光量)を取得できない場合がある。たとえば、投影面200と固体撮像素子31との距離が大きく離れている場合や、投影面200に投影されたパターン画像PIの輝度が低い場合などである。   As described in the operation example 1, if the exposure period of each partial image is shortened, the case where the focus lens 13 is moved during each exposure period can be avoided even if the update interval of the lens position is shortened. be able to. However, if the exposure period is shortened, necessary and sufficient information (that is, necessary and sufficient light amount) may not be obtained for calculating the evaluation value. For example, there is a case where the distance between the projection surface 200 and the solid-state imaging device 31 is large, or a case where the brightness of the pattern image PI projected on the projection surface 200 is low.

動作例2は、各露光期間の長さを確保しつつ、当該レンズ位置の更新間隔を短くすることができる手法を提供する。制御部40は、当該部分画像の露光期間に占める、フォーカスレンズ13の移動前のレンズ位置で露光された第1期間と、移動後のレンズ位置で露光された第2期間との比率から、当該部分画像の露光期間に対応する一つのレンズ位置を擬制する。   The operation example 2 provides a technique capable of shortening the update interval of the lens position while ensuring the length of each exposure period. Based on the ratio of the first period exposed at the lens position before the movement of the focus lens 13 to the second period exposed at the lens position after the movement, the controller 40 occupies the exposure period of the partial image. One lens position corresponding to the exposure period of the partial image is simulated.

図9では、各露光期間の半分の地点で、フォーカスレンズ13を移動させる例を示している。したがって、各露光期間の第1期間と第2期間との比率は、1:1であり、擬製されるべきレンズ位置は、移動前のレンズ位置と移動後のレンズ位置との間のちょうど中間地点となる。図9でも、図5と同様に、各露光期間のうちフォーカスレンズ13の移動前のレンズ位置で露光される期間を実線で、移動後のレンズ位置で露光される期間を点線で描いている。   FIG. 9 shows an example in which the focus lens 13 is moved at a half point of each exposure period. Therefore, the ratio between the first period and the second period in each exposure period is 1: 1, and the lens position to be imitated is just an intermediate point between the lens position before the movement and the lens position after the movement. It becomes. In FIG. 9, as in FIG. 5, the exposure period at the lens position before the movement of the focus lens 13 in each exposure period is indicated by a solid line, and the exposure period at the lens position after the movement is indicated by a dotted line.

フレーム周期間にはブランク期間が挿入されるため、フォーカスレンズ13のレンズ位置を等間隔で更新していくと、ブランク期間を跨いで最初に露光される第1部分画像Ip1の露光期間では、その中間地点で当該レンズ位置が更新されないことになる。   Since a blank period is inserted between the frame periods, when the lens position of the focus lens 13 is updated at equal intervals, in the exposure period of the first partial image Ip1 that is first exposed across the blank period, The lens position is not updated at the intermediate point.

これに対し、動作例2では、第1期間と第2期間との比率を常に一定にするため、あるフレーム周期の最後のレンズ位置の移動タイミングと、その次のフレーム周期の、最初のレンズ位置の移動タイミングとの間の期間を、それ以外の移動タイミング間の期間に上記ブランク期間を加えた期間に設定している。これにより、上記次のフレーム周期の第1部分画像Ip1の露光期間の中間地点で当該レンズ位置が更新されることになる。   On the other hand, in the operation example 2, in order to always keep the ratio between the first period and the second period constant, the movement timing of the last lens position in a certain frame period and the first lens position in the next frame period Is set to a period obtained by adding the blank period to the period between the other movement timings. Thereby, the lens position is updated at the midpoint of the exposure period of the first partial image Ip1 in the next frame period.

フォーカス調整部47は、各露光期間の特定の地点でフォーカスレンズ13を移動させるよう、駆動信号設定部48に指示する。駆動信号設定部48は、フォーカス調整部47の指示にしたがい、レンズ駆動部20に、各露光期間の特定の地点でフォーカスレンズ13を移動させる駆動信号を設定する。画像処理部41は、第1部分画像Ip1、第2部分画像Ip2、第3部分画像Ip3および第4部分画像Ip4のそれぞれについて、上記評価値を算出し、フォーカス調整部47に渡す。フォーカス調整部47は、上記評価値が最も高い部分画像を選択し、その部分画像の擬製されたレンズ位置を合焦位置に決定する。   The focus adjustment unit 47 instructs the drive signal setting unit 48 to move the focus lens 13 at a specific point in each exposure period. The drive signal setting unit 48 sets a drive signal for moving the focus lens 13 at a specific point in each exposure period in the lens driving unit 20 in accordance with an instruction from the focus adjustment unit 47. The image processing unit 41 calculates the evaluation value for each of the first partial image Ip1, the second partial image Ip2, the third partial image Ip3, and the fourth partial image Ip4, and passes the evaluation value to the focus adjustment unit 47. The focus adjustment unit 47 selects the partial image having the highest evaluation value, and determines the forged lens position of the partial image as the in-focus position.

以上説明したように実施の形態によれば、フォーカスレンズ13のレンズ位置の更新間隔を短くし、一フレーム画像に含まれる複数の部分画像のそれぞれから上記評価値を取得することにより、コントラスト検出法を用いたオートフォーカス処理にて、処理時間を短縮することができる。すなわち、当該レンズ位置の更新間隔を短くすることは、合焦判定に必要な情報を早く取得することにつながり、合焦位置決定までの処理時間を短縮することにつながる。   As described above, according to the embodiment, a contrast detection method is obtained by shortening the lens position update interval of the focus lens 13 and acquiring the evaluation value from each of a plurality of partial images included in one frame image. Processing time can be shortened by auto-focus processing using the. In other words, shortening the lens position update interval leads to early acquisition of information necessary for focus determination, and shortens the processing time until the focus position is determined.

動作例1では、各部分画像の露光期間を短くすることにより、上記レンズ位置の更新間隔を短くしても、各露光期間の途中でレンズ位置が変化することがない。したがって、各部分画像の評価値が一つのレンズ位置での評価値を単的に表現していることになり、動作例2で必要な比率計算が不要となり、動作例2より演算量を低減することができる。   In the first operation example, by shortening the exposure period of each partial image, the lens position does not change during each exposure period even if the update interval of the lens position is shortened. Therefore, the evaluation value of each partial image simply represents the evaluation value at one lens position, and the ratio calculation required in the operation example 2 is not necessary, and the amount of calculation is reduced compared to the operation example 2. be able to.

動作例2では、一つの露光期間の途中でレンズ位置が変化しても、その露光期間に占める上記第1期間と上記第2期間との比率から、当該露光期間に対応する一つのレンズ位置を演算により擬制することにより、露光期間の長さを確保しつつ、当該レンズ位置の更新間隔を短くすることができる。露光時間の長さを確保することにより、固体撮像素子31が各部分画像の光量を十分に取得することができ、上記評価値の算出精度の低下を抑制することができる。   In the operation example 2, even if the lens position is changed during one exposure period, one lens position corresponding to the exposure period is determined from the ratio of the first period and the second period in the exposure period. By falsifying by calculation, the update interval of the lens position can be shortened while ensuring the length of the exposure period. By ensuring the length of the exposure time, the solid-state imaging device 31 can sufficiently acquire the light amount of each partial image, and the deterioration of the calculation accuracy of the evaluation value can be suppressed.

動作例1および動作例2で説明した手法は、プロジェクタへの適用に好適である。プロジェクタのオートフォーカスでは、被写体深度が撮像領域全体で実質的に一定であるという特質、および上記評価値の基礎とすべき画像を、設計者がパターン画像として指定できるという特質がある。   The method described in the operation example 1 and the operation example 2 is suitable for application to a projector. The autofocus of the projector has a characteristic that the depth of field is substantially constant over the entire imaging region, and a characteristic that a designer can designate an image that should be the basis of the evaluation value as a pattern image.

したがって、一つのフレーム画像に含まれる複数の部分画像の被写体深度が実質的に一定となる。自然画像の場合、フレーム画像の領域によって、被写体深度が異なってしまうケースが発生する。たとえば、メインの被写体が写っている深度と、背景が写っている領域の深度とが異なってしまうケースなどである。   Therefore, the subject depth of the plurality of partial images included in one frame image is substantially constant. In the case of a natural image, there are cases where the subject depth varies depending on the region of the frame image. For example, there is a case where the depth at which the main subject is reflected differs from the depth at which the background is reflected.

また、規則的な模様のパターン画像を投影させることにより、フレーム画像内のどの領域を抽出しても、同じパターンの部分画像とすることができる。したがって、一つのフレーム画像から、同じパターンの複数の部分画像を抽出することができる。   Further, by projecting a pattern image having a regular pattern, it is possible to obtain a partial image having the same pattern no matter which region in the frame image is extracted. Therefore, a plurality of partial images having the same pattern can be extracted from one frame image.

このように、動作例1および動作例2で説明した手法は、上記特質を備えるプロジェクタへの適用に好適である。しかしながら、当該手法は、プロジェクタへの適用に限るものではなく、カメラ全般に適用することが可能である。とくに、上記特質の一部を備えている場合に有効である。たとえば、スタジオ撮影では、メインの被写体および背景までのそれぞれの距離が略固定であり、その構図も略固定である。撮影ボックス内での自動撮影も同様である。   As described above, the method described in the operation example 1 and the operation example 2 is suitable for application to a projector having the above characteristics. However, the method is not limited to application to a projector, but can be applied to all cameras. This is particularly effective when some of the above characteristics are provided. For example, in studio photography, the distance to the main subject and the background is substantially fixed, and the composition is also substantially fixed. The same applies to the automatic shooting in the shooting box.

また、デジタルカメラで自然画像を撮影する場合でも、フレーム画像を左右に二分割して二つの部分画像を抽出する場合、左右の部分画像で被写体深度が、ある程度共通する可能性が高い。   Even when a natural image is taken with a digital camera, when a frame image is divided into left and right parts and two partial images are extracted, there is a high possibility that the left and right partial images have a certain depth of subject.

なお、動作例1および動作例2をカメラに適用する場合、フォーカスレンズは、カメラの撮像部に搭載される固体撮像素子の前段に設けられる。   In addition, when the operation example 1 and the operation example 2 are applied to the camera, the focus lens is provided in the front stage of the solid-state imaging device mounted on the imaging unit of the camera.

以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. is there.

たとえば、フォーカス調整部47は、上記部分画像のサイズを、固体撮像素子31で露光される光量に応じて、適応的に変化させてもよい。たとえば、当該光量が所定の閾値を下回ったとき、上記部分画像のサイズをより大きなサイズに切り換えてもよい。これにより、オートフォーカス精度を向上させることができる。   For example, the focus adjustment unit 47 may adaptively change the size of the partial image according to the amount of light exposed by the solid-state imaging device 31. For example, when the amount of light falls below a predetermined threshold, the size of the partial image may be switched to a larger size. Thereby, the autofocus accuracy can be improved.

10 投写部、 11 光源、 12 光変調部、 13 フォーカスレンズ、 20 レンズ駆動部、 30 撮像部、 31 固体撮像素子、 32 信号処理回路、 40 制御部、 41 画像処理部、 42 エリア設定部、 43 HPF、 44 積算部、 45 画像メモリ、 46 画像信号設定部、 47 フォーカス調整部、 48 駆動信号設定部、 100 投写型映像表示装置、 200 投影面。   DESCRIPTION OF SYMBOLS 10 Projection part, 11 Light source, 12 Light modulation part, 13 Focus lens, 20 Lens drive part, 30 Imaging part, 31 Solid-state image sensor, 32 Signal processing circuit, 40 Control part, 41 Image processing part, 42 Area setting part, 43 HPF, 44 integration unit, 45 image memory, 46 image signal setting unit, 47 focus adjustment unit, 48 drive signal setting unit, 100 projection display apparatus, 200 projection plane.

Claims (5)

投影面にレンズを介して画像を投写する投写部と、
前記レンズの位置を移動させるレンズ駆動部と、
前記投影面に投影された前記画像を撮像する撮像部と、
複数のレンズ位置にて前記撮像部によりそれぞれ撮像された複数の画像の鮮明度をもとに、前記レンズの位置を決定する制御部と、を備え、
前記制御部は、一フレーム周期内に、前記レンズ駆動部に前記レンズを複数回移動させ、一枚のフレーム画像内から、それぞれのレンズ位置で露光された複数の部分画像の鮮明度を取得することを特徴とする投写型映像表示装置。
A projection unit that projects an image onto a projection surface via a lens;
A lens driving unit that moves the position of the lens;
An imaging unit that captures the image projected on the projection plane;
A control unit for determining the position of the lens based on the definition of the plurality of images respectively captured by the imaging unit at a plurality of lens positions;
The control unit moves the lens to the lens driving unit a plurality of times within one frame period, and acquires the definition of a plurality of partial images exposed at each lens position from within one frame image. A projection display apparatus characterized by the above.
前記複数の部分画像のそれぞれの露光期間が互いに重複しないよう、前記撮像部に搭載される固体撮像素子のそれぞれ対応する部分領域の露光タイミングが設定され、
前記制御部は、前記露光タイミングに同期して、前記レンズ駆動部に前記レンズを移動させることを特徴とする請求項1に記載の投写型映像表示装置。
The exposure timing of each corresponding partial region of the solid-state imaging device mounted on the imaging unit is set so that the exposure periods of the plurality of partial images do not overlap each other,
The projection display apparatus according to claim 1, wherein the control unit moves the lens to the lens driving unit in synchronization with the exposure timing.
前記レンズ位置が切り換わる間の期間より、前記部分画像の露光期間が長く設定される場合、
前記制御部は、前記露光期間に占める、移動前のレンズ位置で露光された期間と移動後のレンズ位置で露光された期間との比率から、当該部分画像の当該露光期間に対応する一つのレンズ位置を擬制することを特徴とする請求項1に記載の投写型映像表示装置。
When the exposure period of the partial image is set to be longer than the period during which the lens position is switched,
The control unit is a lens corresponding to the exposure period of the partial image, based on a ratio of a period exposed at the lens position before the movement and a period exposed at the lens position after the movement in the exposure period. The projection display apparatus according to claim 1, wherein the position is simulated.
前記部分画像は、前記撮像部に搭載される固体撮像素子のn(nは自然数)行の主走査ラインで撮像される画像であることを特徴とする請求項1から3のいずれかに記載の投写型映像表示装置。   4. The partial image according to claim 1, wherein the partial image is an image picked up by n (n is a natural number) main scanning lines of a solid-state image pickup element mounted on the image pickup unit. Projection display device. 撮像素子と、レンズと、当該レンズを移動させるための駆動素子と、を備える装置に搭載されるべきフォーカス制御回路であって、
複数のレンズ位置にて前記撮像素子によりそれぞれ撮像された複数の画像の鮮明度を算出する画像処理部と、
前記画像処理部により算出された複数の画像の鮮明度をもとに、前記レンズの位置を決定するフォーカス調整部と、を備え、
前記フォーカス調整部は、一フレーム周期内に、前記駆動素子に前記レンズを複数回移動させ、前記画像処理部にそれぞれのレンズ位置で露光された複数の部分画像の鮮明度を算出させることを特徴とするフォーカス制御回路。
A focus control circuit to be mounted on a device including an imaging element, a lens, and a driving element for moving the lens,
An image processing unit that calculates the sharpness of a plurality of images respectively captured by the imaging device at a plurality of lens positions;
A focus adjustment unit that determines the position of the lens based on the sharpness of the plurality of images calculated by the image processing unit,
The focus adjustment unit causes the driving element to move the lens a plurality of times within one frame period, and causes the image processing unit to calculate the definition of a plurality of partial images exposed at the respective lens positions. Focus control circuit.
JP2009214225A 2009-09-16 2009-09-16 Projection type image display device and focus control circuit Pending JP2011064859A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009214225A JP2011064859A (en) 2009-09-16 2009-09-16 Projection type image display device and focus control circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009214225A JP2011064859A (en) 2009-09-16 2009-09-16 Projection type image display device and focus control circuit

Publications (1)

Publication Number Publication Date
JP2011064859A true JP2011064859A (en) 2011-03-31

Family

ID=43951187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009214225A Pending JP2011064859A (en) 2009-09-16 2009-09-16 Projection type image display device and focus control circuit

Country Status (1)

Country Link
JP (1) JP2011064859A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015081941A (en) * 2013-10-21 2015-04-27 キヤノン株式会社 Focus adjustment device, focus adjustment method and program, and imaging device
WO2018037948A1 (en) * 2016-08-24 2018-03-01 ソニー株式会社 Image processing apparatus and method
EP3139600B1 (en) * 2014-04-28 2020-09-30 Boe Technology Group Co. Ltd. Projection method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015081941A (en) * 2013-10-21 2015-04-27 キヤノン株式会社 Focus adjustment device, focus adjustment method and program, and imaging device
EP3139600B1 (en) * 2014-04-28 2020-09-30 Boe Technology Group Co. Ltd. Projection method
WO2018037948A1 (en) * 2016-08-24 2018-03-01 ソニー株式会社 Image processing apparatus and method
JPWO2018037948A1 (en) * 2016-08-24 2019-06-20 ソニー株式会社 Image processing apparatus and method
US10991340B2 (en) 2016-08-24 2021-04-27 Sony Corporation Image processing apparatus and image processing method
JP7070417B2 (en) 2016-08-24 2022-05-18 ソニーグループ株式会社 Image processing equipment and methods

Similar Documents

Publication Publication Date Title
JP5950678B2 (en) Imaging apparatus, control method, and program
JP2006222935A (en) Electronic still camera, image capturing method, program and storage medium
JP2009077057A (en) Imaging apparatus, and control method for imaging apparatus
JP2007336470A (en) Imaging apparatus and imaging method
KR20150074641A (en) Auto focus adjusting method and auto focus adjusting apparatus
JP2008070611A (en) Imaging apparatus, exposure condition adjustment method and program
JP2010074313A (en) Imaging apparatus and method for controlling the same
US20110279738A1 (en) Control device and projection video display device
JP2021010162A (en) Projection system and projection method thereof
KR20100104050A (en) Method and apparatus for controlling flash emission
JP2010074618A (en) Photography apparatus device and method
US9894339B2 (en) Image processing apparatus, image processing method and program
JP5800664B2 (en) Imaging apparatus and control method thereof
JP2011064859A (en) Projection type image display device and focus control circuit
JP5246590B2 (en) Imaging apparatus, image generation method, and program
JP7002050B2 (en) Imaging device
JP5618765B2 (en) Imaging apparatus and control method thereof
JP2017169027A (en) Flash band determination device, control method therefor, and control program, and imaging device
JP2006135381A (en) Calibration method and calibration apparatus
JP5188293B2 (en) Imaging apparatus, control method thereof, and program
JP2006157342A (en) Imaging apparatus
JP2003032556A (en) Imaging apparatus
JP2008283477A (en) Image processor, and image processing method
JP6089232B2 (en) Imaging device
JP5268839B2 (en) Projection display device