JP2016058897A - Image projection device - Google Patents

Image projection device Download PDF

Info

Publication number
JP2016058897A
JP2016058897A JP2014183774A JP2014183774A JP2016058897A JP 2016058897 A JP2016058897 A JP 2016058897A JP 2014183774 A JP2014183774 A JP 2014183774A JP 2014183774 A JP2014183774 A JP 2014183774A JP 2016058897 A JP2016058897 A JP 2016058897A
Authority
JP
Japan
Prior art keywords
image
projection
light
unit
projection apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014183774A
Other languages
Japanese (ja)
Inventor
拓真 慈幸
Takuma Jiko
拓真 慈幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014183774A priority Critical patent/JP2016058897A/en
Publication of JP2016058897A publication Critical patent/JP2016058897A/en
Pending legal-status Critical Current

Links

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image projection device that can detect a stable projection image during black insertion.SOLUTION: An image forming apparatus includes: light modulation means for modulating light from light source means; projection means for projecting the light modulated by the light modulation means as a projection image; image insertion means for inserting predetermined images into partial areas of the projection image different from each other at different timings in at least one frame of a plurality of frames of the projection image; and control means for controlling a timing at which detection means detects the projection image so that the predetermined images are inserted into the respective partial areas in the same period of time.SELECTED DRAWING: Figure 1

Description

本発明は、液晶プロジェクタなどの画像投射装置に関し、特に投射画像の検出方法に関する。   The present invention relates to an image projection apparatus such as a liquid crystal projector, and more particularly to a method for detecting a projected image.

従来から、黒挿入と呼ばれる手法(黒挿入方法)を用いて動画ぼけを改善する方法が知られている。黒挿入方法とは、液晶パネルなどのホールド型表示デバイスを使用した表示装置において、サブフレーム期間に黒を挿入する手法である。サブフレーム期間とは、1フレーム期間を複数に分割した期間のことである。   2. Description of the Related Art Conventionally, a method for improving motion blur using a technique called black insertion (black insertion method) is known. The black insertion method is a method of inserting black in a subframe period in a display device using a hold type display device such as a liquid crystal panel. The subframe period is a period obtained by dividing one frame period into a plurality of periods.

特許文献1には、黒挿入方法として、黒画像表示の走査開始のタイミングに基づいて複数の光源ブロックの消点灯タイミングを制御する方法が開示されている。特許文献2には、投射画像を撮像する方法として、複数の色成分ごとに時分割投影された画像を撮像する方法が開示されている。   Patent Document 1 discloses a method for controlling the extinction / lighting timing of a plurality of light source blocks based on the scanning start timing of black image display as a black insertion method. Patent Document 2 discloses a method for capturing an image that is time-divisionally projected for each of a plurality of color components as a method for capturing a projected image.

特開2009−244717号公報JP 2009-244717 A 特開2006−094445号公報JP 2006-094445 A

しかしながら、特許文献1、2に開示された技術では、黒挿入中に投射画像を撮影することが考慮されていない。このため、黒挿入中に投射画像を撮影すると、撮像結果が黒挿入の影響を受け、サブフレームしか撮像されない、撮像ごとの輝度が安定しない、急激な階調変動箇所が撮影されるなどの影響がある。その結果、撮像結果に基づいてオートフォーカス、台形補正、色補正などの処理を実施すると、誤作動の可能性がある。   However, in the techniques disclosed in Patent Documents 1 and 2, taking a projected image during black insertion is not considered. For this reason, if a projected image is shot during black insertion, the imaging result is affected by black insertion, and only subframes are picked up. There is. As a result, if processing such as autofocus, keystone correction, and color correction is performed based on the imaging result, there is a possibility of malfunction.

そこで本発明は、黒挿入の際に安定した投射画像を検出可能な画像投射装置を提供する。   Therefore, the present invention provides an image projection apparatus capable of detecting a stable projection image when black is inserted.

本発明の一側面としての画像投射装置は、光源手段からの光を変調する光変調手段と、前記光変調手段による変調光を投射画像として投射する投射手段と、前記投射画像の複数のフレームのうち少なくとも一部のフレームにおいて、異なるタイミングで、前記投射画像の互いに異なる部分領域に所定の画像を挿入する画像挿入手段と、前記部分領域のそれぞれにおける前記所定の画像の挿入時間が等しくなるように検出手段による前記投射画像の検出タイミングを制御する制御手段とを有する。   An image projection apparatus according to one aspect of the present invention includes a light modulation unit that modulates light from a light source unit, a projection unit that projects modulated light from the light modulation unit as a projection image, and a plurality of frames of the projection image. In at least some of the frames, the image insertion means for inserting a predetermined image into different partial areas of the projection image at different timings, and the insertion time of the predetermined image in each of the partial areas are made equal. Control means for controlling the detection timing of the projection image by the detection means.

本発明の他の側面としての画像投射装置は、光源手段からの光を変調する光変調手段と、前記光変調手段による変調光を投射画像として投射する投射手段と、前記投射画像の複数のフレームのうち少なくとも一部のフレームにおいて、異なるタイミングで、前記投射画像の互いに異なる部分領域に所定の画像を挿入する画像挿入手段と、前記部分領域のそれぞれにおける前記所定の画像の挿入時間を含まないように検出手段による前記投射画像の検出タイミングを制御する制御手段とを有する。   An image projection apparatus according to another aspect of the present invention includes: a light modulation unit that modulates light from a light source unit; a projection unit that projects modulated light from the light modulation unit as a projection image; and a plurality of frames of the projection image. And at least some of the frames, an image insertion unit that inserts a predetermined image into different partial areas of the projection image at different timings, and does not include an insertion time of the predetermined image in each of the partial areas Control means for controlling the detection timing of the projection image by the detection means.

本発明の他の目的及び特徴は、以下の実施形態において説明される。   Other objects and features of the invention are described in the following embodiments.

本発明によれば、黒挿入の際に安定した投射画像を検出可能な画像投射装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image projection apparatus which can detect the stable projection image in the case of black insertion can be provided.

第1の実施形態における画像投射装置のブロック図である。It is a block diagram of the image projection apparatus in a 1st embodiment. 第1の実施形態における動作シーケンスを示すタイミングチャートである。It is a timing chart which shows the operation | movement sequence in 1st Embodiment. 第1の実施形態における制御方法を示すフローチャートである。It is a flowchart which shows the control method in 1st Embodiment. 第2の実施形態における動作シーケンスを示すタイミングチャートである。It is a timing chart which shows the operation sequence in a 2nd embodiment. 第2の実施形態における制御方法を示すフローチャートである。It is a flowchart which shows the control method in 2nd Embodiment. 第3の実施形態における画像投射装置のブロック図である。It is a block diagram of the image projection apparatus in 3rd Embodiment. 第3の実施形態における制御方法を示すフローチャートである。It is a flowchart which shows the control method in 3rd Embodiment. 第3の実施形態におけるセンシング開始タイミング算出方法を示すフローチャートである。It is a flowchart which shows the sensing start timing calculation method in 3rd Embodiment. 第3の実施形態におけるセンシング開始動作を示すタイミングチャートである。It is a timing chart which shows sensing start operation in a 3rd embodiment. 第3の実施形態におけるサブフレーム変更後のセンシング開始動作を示すタイミングチャートである。It is a timing chart which shows the sensing start operation | movement after the sub-frame change in 3rd Embodiment.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
まず、図1乃至図3を参照して、本発明の第1の実施形態における画像投射装置による黒挿入中のAF処理について説明する。なお本実施形態の画像投射装置は、イメージセンサを用いてAF処理を行うが、これに限定されるものではない。
(First embodiment)
First, an AF process during black insertion by the image projection apparatus according to the first embodiment of the present invention will be described with reference to FIGS. In addition, although the image projection apparatus of this embodiment performs AF processing using an image sensor, it is not limited to this.

図1は、本実施形態におけるプロジェクタ1(画像投射装置)のブロック図である。プロジェクタ1は、入力画像信号に応じてパネル62により変調された光を投射手段である投射レンズ80を介して、投射像としてスクリーンなどの被投射面に投射する画像投射装置である。プロジェクタ1は、映像信号入力部10、画像処理エンジン20、制御マイコン30、操作部40、光源ユニット50、光変調ユニット60、イメージセンサ70、および、投射レンズ80を有する。映像信号入力部10は、単一または複数の映像信号を受信する。   FIG. 1 is a block diagram of a projector 1 (image projection apparatus) in the present embodiment. The projector 1 is an image projection apparatus that projects light modulated by the panel 62 in accordance with an input image signal onto a projection surface such as a screen as a projection image via a projection lens 80 as projection means. The projector 1 includes a video signal input unit 10, an image processing engine 20, a control microcomputer 30, an operation unit 40, a light source unit 50, a light modulation unit 60, an image sensor 70, and a projection lens 80. The video signal input unit 10 receives a single or a plurality of video signals.

画像処理エンジン20は、映像信号入力部10からの入力映像信号に対して各種画像処理や同期タイミングの変更を行い、処理された出力映像信号をパネル駆動部61へ出力する画像処理手段である。また、画像処理エンジン20は、入力信号の有無にかかわらず、内部で生成された画像を出力映像信号として出力することができる。画像処理エンジン20は、更新周期決定部21を有する。更新周期決定部21は、所定の周期で更新されるフレームバッファ更新周期を決定する。ここでフレームバッファ更新周期とは、入力映像信号や内部で生成された画像を、メモリ上に格納し形成されるフレームバッファの更新周期である。更新周期決定部21は、入力映像の垂直同期信号や内部生成タイミングに基づいてフレームバッファ更新周期を決定し、フレームバッファ更新信号を制御マイコン30へ出力する。   The image processing engine 20 is an image processing unit that performs various image processing and synchronization timing change on the input video signal from the video signal input unit 10 and outputs the processed output video signal to the panel driving unit 61. The image processing engine 20 can output an internally generated image as an output video signal regardless of the presence or absence of an input signal. The image processing engine 20 includes an update cycle determination unit 21. The update cycle determination unit 21 determines a frame buffer update cycle that is updated at a predetermined cycle. Here, the frame buffer update cycle is an update cycle of a frame buffer formed by storing an input video signal or an internally generated image on a memory. The update cycle determination unit 21 determines the frame buffer update cycle based on the vertical synchronization signal of the input video and the internal generation timing, and outputs the frame buffer update signal to the control microcomputer 30.

制御マイコン30は、操作部40からの入力に従いプロジェクタ1の各部を制御するように、マイクロコンピュータから構成される制御手段である。制御マイコン30は、サブフレーム生成部31、サブフレーム挿入部32、および、センシングタイミング制御部33を有する。サブフレーム生成部31は、更新周期決定部21から出力された信号に基づいて、フレームバッファ更新周期の1周期を複数のサブフレーム期間に分割し、サブフレーム開始信号を生成する。サブフレーム挿入部32は、サブフレーム生成部31により生成されたサブフレーム開始信号に同期して光源駆動回路51を制御し、各サブフレームに対応する黒挿入処理を行う、サブフレーム挿入手段として機能する。センシングタイミング制御部33は、サブフレーム生成部31により生成されたサブフレーム開始信号に基づいて、表示画像の全領域において黒挿入時間が均一となるようにイメージセンサ70(光センシング手段)の撮像タイミングを制御する。   The control microcomputer 30 is a control unit configured by a microcomputer so as to control each unit of the projector 1 in accordance with an input from the operation unit 40. The control microcomputer 30 includes a subframe generation unit 31, a subframe insertion unit 32, and a sensing timing control unit 33. Based on the signal output from the update cycle determination unit 21, the subframe generation unit 31 divides one cycle of the frame buffer update cycle into a plurality of subframe periods, and generates a subframe start signal. The subframe insertion unit 32 functions as a subframe insertion unit that controls the light source driving circuit 51 in synchronization with the subframe start signal generated by the subframe generation unit 31 and performs black insertion processing corresponding to each subframe. To do. The sensing timing control unit 33 is based on the subframe start signal generated by the subframe generation unit 31 and the imaging timing of the image sensor 70 (light sensing means) so that the black insertion time is uniform in the entire region of the display image. To control.

操作部40は、ユーザからの各種操作を受け付ける不図示のスイッチ、ボタン、および、リモコン受光部などから構成される。光源ユニット50は、制御マイコン30から出力された光源駆動信号に基づいて、投射する光を生成する光源手段として機能する。光源ユニット50は、光源駆動回路51およびLEDユニット52を有する。光源駆動回路51は、サブフレーム挿入部32から出力される光源駆動信号に同期して、LEDユニット52へ光量制御信号を出力する。LEDユニット52は、複数のLEDから構成され、各LEDにより照明される領域が異なる。各LEDは、光源駆動回路51から出力される光量制御信号に基づいて個別に光量制御される。   The operation unit 40 includes a switch, a button (not shown) that accepts various operations from the user, a remote control light receiving unit, and the like. The light source unit 50 functions as light source means for generating light to be projected based on the light source drive signal output from the control microcomputer 30. The light source unit 50 includes a light source driving circuit 51 and an LED unit 52. The light source drive circuit 51 outputs a light amount control signal to the LED unit 52 in synchronization with the light source drive signal output from the subframe insertion unit 32. The LED unit 52 includes a plurality of LEDs, and the areas illuminated by the LEDs are different. Each LED is individually controlled in light quantity based on a light quantity control signal output from the light source driving circuit 51.

光変調ユニット60は、画像処理エンジン20から出力された信号に基づいて、光源ユニット50により生成された光を変調する光変調手段として機能する。光変調ユニット60は、パネル駆動部61およびパネル62を有する。パネル駆動部61は、画像処理エンジン20から出力されるパネル駆動信号に基づいて、パネル62を駆動する。パネル62は、パネル駆動部61から出力される信号に基づいて、光変調パターンを形成する。   The light modulation unit 60 functions as a light modulation unit that modulates light generated by the light source unit 50 based on a signal output from the image processing engine 20. The light modulation unit 60 includes a panel drive unit 61 and a panel 62. The panel drive unit 61 drives the panel 62 based on the panel drive signal output from the image processing engine 20. The panel 62 forms a light modulation pattern based on the signal output from the panel drive unit 61.

イメージセンサ70は、プロジェクタ1による投射画像の反射光を検知する光センシング手段(撮像手段)として機能する。本実施形態において、イメージセンサ70は、プロジェクタ1の前面に2つ配置されており、各々のイメージセンサ70が被投射面に投射された画像を撮像することにより、互いに異なる位置から撮像された2つの二次元画像データを得ることができる。撮像して得られた2つの像(2つの画像データ)は、投射像までの距離に応じて位相が互いに異なる。本実施形態のイメージセンサ70は、この位相差を利用して、位相差方式によるオートフォーカス機能を実現する。なお、本実施形態では位相の異なる2つの画像データから位相差方式によりオートフォーカス機能を実現するが、これに限定されるものではなく、1つのイメージセンサを利用し、コントラスト方式によりオートフォーカス機能を実現してもよい。また本実施形態では、光センシング手段としてイメージセンサ70(撮像手段)を用いているが、これに限定されるものではなく、光量センサなどの他の光センシング手段を用いることもできる。   The image sensor 70 functions as an optical sensing unit (imaging unit) that detects reflected light of an image projected by the projector 1. In the present embodiment, two image sensors 70 are arranged on the front surface of the projector 1, and each image sensor 70 picks up an image projected on the projection surface, thereby picking up images 2 taken from different positions. Two two-dimensional image data can be obtained. Two images (two image data) obtained by imaging have different phases depending on the distance to the projected image. The image sensor 70 of the present embodiment uses this phase difference to realize an autofocus function using a phase difference method. In this embodiment, the autofocus function is realized by the phase difference method from two image data having different phases. However, the present invention is not limited to this, and the autofocus function is realized by the contrast method using one image sensor. It may be realized. In the present embodiment, the image sensor 70 (imaging unit) is used as the optical sensing unit. However, the present invention is not limited to this, and other optical sensing units such as a light amount sensor may be used.

投射レンズ80は、光変調ユニット60からの光から投射像を形成する投射手段として機能する。投射レンズ80は、レンズ位置検知部81およびモータ82を有する。レンズ位置検知部81は、投射レンズ80に含まれるフォーカスレンズの位置を制御マイコン30へ伝達する。フォーカスレンズの位置は、例えば、投射レンズ80のフォーカス環の回転角を検知することにより検知可能である。フォーカス環の回転角は、例えば、パルスエンコーダによるデジタル出力や、可変抵抗器によるアナログ出力により、レンズ位置検知部81から制御マイコン30へ伝達される。いずれの伝達方法においても、フォーカスレンズの位置は、制御マイコン30によりデジタル値に変換される。モータ82は、投射レンズ80に含まれるフォーカスレンズを、投射レンズ80の光軸方向に移動させるアクチュエータである。投射レンズ80に含まれるフォーカスレンズをモータ82により移動させることにより、投射画像のピント状態(焦点状態)を変化させることができる。   The projection lens 80 functions as a projection unit that forms a projection image from the light from the light modulation unit 60. The projection lens 80 includes a lens position detection unit 81 and a motor 82. The lens position detection unit 81 transmits the position of the focus lens included in the projection lens 80 to the control microcomputer 30. The position of the focus lens can be detected by detecting the rotation angle of the focus ring of the projection lens 80, for example. The rotation angle of the focus ring is transmitted from the lens position detection unit 81 to the control microcomputer 30 by, for example, digital output from a pulse encoder or analog output from a variable resistor. In any transmission method, the position of the focus lens is converted into a digital value by the control microcomputer 30. The motor 82 is an actuator that moves the focus lens included in the projection lens 80 in the optical axis direction of the projection lens 80. The focus state (focus state) of the projection image can be changed by moving the focus lens included in the projection lens 80 by the motor 82.

続いて、図2を参照して、黒挿入の動作について説明する。図2は、本実施形態におけるイメージセンサ70および制御マイコン30によるAFの動作シーケンスを示すタイミングチャートである。図2に示されるように、本実施形態において、1周期におけるサブフレーム数は5である。また、サブフレーム2、3、4において、表示画像の一部に黒が挿入されている。各サブフレームにおける黒挿入方法は、表示画像の黒挿入領域を照明するLEDの光量を0に設定することで実現可能である。なお、本実施形態のサブフレーム数、黒挿入が行われるサブフレーム番号、および、黒挿入方法は一例であり、適宜変更可能である。   Next, the black insertion operation will be described with reference to FIG. FIG. 2 is a timing chart showing an AF operation sequence by the image sensor 70 and the control microcomputer 30 in the present embodiment. As shown in FIG. 2, in this embodiment, the number of subframes in one cycle is five. In subframes 2, 3, and 4, black is inserted in a part of the display image. The black insertion method in each subframe can be realized by setting the light quantity of the LED that illuminates the black insertion region of the display image to zero. Note that the number of subframes, the number of subframes in which black insertion is performed, and the black insertion method in this embodiment are examples, and can be changed as appropriate.

黒挿入が実行されると、まず、画像処理エンジン20(更新周期決定部21)は、映像信号入力部10から出力された映像信号に基づいて、フレームバッファの更新周期を決定し、制御マイコン30へフレームバッファ更新信号を出力する。続いて、制御マイコン30のサブフレーム生成部31は、フレームバッファ更新信号に基づいて、サブフレーム開始信号を生成する。そしてサブフレーム挿入部32は、サブフレーム開始信号に同期して、各サブフレームに対応する黒挿入の点灯パターンに対応する光源駆動信号を光源駆動回路51へ出力する。光源駆動回路51は、光源駆動信号に基づいて、LEDユニット52の各LEDの光量を制御し、黒挿入パターンに応じた光量を生成する。   When black insertion is executed, first, the image processing engine 20 (update cycle determining unit 21) determines the frame buffer update cycle based on the video signal output from the video signal input unit 10, and the control microcomputer 30 Output frame buffer update signal to. Subsequently, the subframe generation unit 31 of the control microcomputer 30 generates a subframe start signal based on the frame buffer update signal. Then, the sub-frame insertion unit 32 outputs a light source driving signal corresponding to the black insertion lighting pattern corresponding to each sub-frame to the light source driving circuit 51 in synchronization with the sub-frame start signal. The light source drive circuit 51 controls the light amount of each LED of the LED unit 52 based on the light source drive signal, and generates a light amount corresponding to the black insertion pattern.

続いて、黒挿入中に投射画像を撮像した場合において、安定した投射画像を撮像する方法について説明する。イメージセンサ70により任意のタイミングで撮像を行った場合、図2中のイメージセンサ(誤)のように、黒挿入領域ごとに輝度の異なる画像が撮像される。これは、撮像時間中に発生する各領域の黒挿入回数が異なるためである。このような結果を回避するには、イメージセンサ70の撮像時間中に発生する各領域の黒挿入回数が均一となるように撮像時間を制御すればよい。   Next, a method for capturing a stable projection image when a projection image is captured during black insertion will be described. When imaging is performed at an arbitrary timing by the image sensor 70, images having different luminances are captured for each black insertion region, as in the image sensor (error) in FIG. This is because the number of black insertions in each region generated during the imaging time is different. In order to avoid such a result, it is only necessary to control the imaging time so that the number of black insertions in each region generated during the imaging time of the image sensor 70 becomes uniform.

図3を参照して、黒挿入中にイメージセンサ70を用いて安定した撮像画像を撮像し、オートフォーカス(AF)を行う具体例について説明する。図3は、本実施形態における制御方法(イメージセンサ70を用いたAF制御方法)を示すフローチャートである。図3の各ステップ(AF処理)は、制御マイコン30がコンピュータプログラムに従って実行される。   With reference to FIG. 3, a specific example in which a stable captured image is captured using the image sensor 70 during black insertion and autofocus (AF) is performed will be described. FIG. 3 is a flowchart showing a control method (AF control method using the image sensor 70) in the present embodiment. Each step (AF process) in FIG. 3 is executed by the control microcomputer 30 in accordance with a computer program.

AFが開始すると、まずステップS101において、制御マイコン30はAFパターンの投射を開始する。AFパターンは、AFパターンに対応する画像データをフレームバッファに格納することで、被投射面に投射される。このとき用いられるAFパターンは、コントラストが高く、エッジが明瞭な画像であることが好ましい。例えば、AFパターンとして、白と黒のラインが交互に表示される画像が用いられる。   When AF starts, first, in step S101, the control microcomputer 30 starts projecting an AF pattern. The AF pattern is projected onto the projection surface by storing image data corresponding to the AF pattern in the frame buffer. The AF pattern used at this time is preferably an image with high contrast and clear edges. For example, an image in which white and black lines are alternately displayed is used as the AF pattern.

続いてステップS102において、制御マイコン30は、サブフレーム生成部31から出力されるサブフレーム2開始信号(黒挿入開始信号)を検出したか否かを判定する。制御マイコン30は、サブフレーム2開始信号を検出していない場合、ステップS102の判定を繰り返す。一方、制御マイコン30は、サブフレーム2開始信号を検出した場合、ステップS103へ進む。ステップS103において、制御マイコン30は、イメージセンサ70を用いて投射画像を撮像する。前述のように、本実施形態のイメージセンサ70は、プロジェクタ1の前面に2つ配置されている。このため、各々のイメージセンサ70を用いて、被投射面に投射された画像を撮像することにより、互いに異なる位置から撮像された2つの二次元画像データが得られる。   Subsequently, in step S102, the control microcomputer 30 determines whether or not the subframe 2 start signal (black insertion start signal) output from the subframe generation unit 31 has been detected. When the control microcomputer 30 has not detected the subframe 2 start signal, the control microcomputer 30 repeats the determination in step S102. On the other hand, when the control microcomputer 30 detects the subframe 2 start signal, the control microcomputer 30 proceeds to step S103. In step S <b> 103, the control microcomputer 30 captures a projected image using the image sensor 70. As described above, two image sensors 70 according to the present embodiment are arranged on the front surface of the projector 1. For this reason, by using each image sensor 70 to capture an image projected on the projection surface, two two-dimensional image data captured from different positions can be obtained.

続いてステップS104において、制御マイコン30は、サブフレーム生成部31から出力されるサブフレーム5開始信号(黒挿入終了信号)を検出したか否かを判定する。制御マイコン30は、サブフレーム5開始信号を検出していない場合、ステップS103へ戻り、イメージセンサ70を用いて撮像を継続する。一方、制御マイコン30は、サブフレーム5開始信号を検出した場合、ステップS105へ進む。ステップS105において、制御マイコン30は、撮像終了条件を満たしているかを判定する。撮像終了条件を満たしていない場合、ステップS103に戻り、イメージセンサ70を用いて撮像を継続する。一方、撮像終了条件を満たしている場合、ステップS106へ進み、イメージセンサ70を用いた撮像を終了する。ここで、ステップS102〜S106にて撮影された画像(投射画像)は、画像中のいずれの領域においても黒挿入回数が等しくなる。例えば、図2に示されるように、投射画像の上領域、中領域、および、下領域の3領域のそれぞれにおいて、黒挿入回数が各領域で2回となるように撮像時間が設定される。このため、黒挿入による輝度低下が均一である安定した画像が得られる。   Subsequently, in step S104, the control microcomputer 30 determines whether or not the subframe 5 start signal (black insertion end signal) output from the subframe generation unit 31 has been detected. If the control microcomputer 30 does not detect the subframe 5 start signal, the control microcomputer 30 returns to step S103 and continues imaging using the image sensor 70. On the other hand, when the control microcomputer 30 detects the subframe 5 start signal, the control microcomputer 30 proceeds to step S105. In step S105, the control microcomputer 30 determines whether the imaging end condition is satisfied. When the imaging end condition is not satisfied, the process returns to step S103, and imaging is continued using the image sensor 70. On the other hand, when the imaging end condition is satisfied, the process proceeds to step S106, and imaging using the image sensor 70 is ended. Here, the images (projected images) taken in steps S102 to S106 have the same number of black insertions in any region in the image. For example, as shown in FIG. 2, the imaging time is set so that the number of black insertions is twice in each area in each of the upper area, the middle area, and the lower area of the projection image. For this reason, a stable image with uniform luminance reduction due to black insertion can be obtained.

続いてステップS107において、制御マイコン30は、ステップS102〜S106にて撮像した2つの像(画像データ)の位相差を算出する。そしてステップS108において、制御マイコン30は、ステップS107にて算出された位相差に基づいて、フォーカスレンズの位置(フォーカス位置)を算出する。フォーカス位置は、投射画像までの距離により決定される。また、以下の式(1)のように、位相差と、投射画像(被写体)までの距離の逆数は、比例関係となる。   Subsequently, in step S107, the control microcomputer 30 calculates the phase difference between the two images (image data) captured in steps S102 to S106. In step S108, the control microcomputer 30 calculates the position of the focus lens (focus position) based on the phase difference calculated in step S107. The focus position is determined by the distance to the projected image. Further, as shown in the following formula (1), the phase difference and the reciprocal of the distance to the projection image (subject) have a proportional relationship.

(位相差)∝(1/投射画像までの距離) … (1)
このため、位相差を決定されると、フォーカス位置の算出が可能となる。位相差とフォーカス位置との対応関係については、既知であるとする。例えば、製造時に2つの距離(近距離と遠距離)における、位相差とフォーカス位置の関係を記憶しておく。ステップS107にて算出される位相差に対応するフォーカス位置は、その2点(2つの距離)から線形補完で算出することが可能である。
(Phase difference) ∝ (1 / Distance to projected image) (1)
For this reason, when the phase difference is determined, the focus position can be calculated. The correspondence between the phase difference and the focus position is assumed to be known. For example, the relationship between the phase difference and the focus position at two distances (short distance and long distance) is stored at the time of manufacture. The focus position corresponding to the phase difference calculated in step S107 can be calculated by linear interpolation from the two points (two distances).

続いてステップS109において、制御マイコン30は、ステップS108にて算出したフォーカス位置まで、投射レンズ80内のフォーカスレンズを移動させる。このとき制御マイコン30は、モータ82を駆動し、レンズ位置検知部81の出力を監視する。そしてレンズ位置検知部81の出力がステップS108にて算出したフォーカス位置まで到達した場合、制御マイコン30はモータ82の駆動を停止する。そしてステップS110において、制御マイコン30は、AFパターンの出力を停止し、AF処理を終了する。   Subsequently, in step S109, the control microcomputer 30 moves the focus lens in the projection lens 80 to the focus position calculated in step S108. At this time, the control microcomputer 30 drives the motor 82 and monitors the output of the lens position detector 81. When the output of the lens position detector 81 reaches the focus position calculated in step S108, the control microcomputer 30 stops driving the motor 82. In step S110, the control microcomputer 30 stops outputting the AF pattern and ends the AF process.

このように、本実施形態の画像投射装置(プロジェクタ1)は、光源手段(光源ユニット50)からの光を変調する光変調手段(光変調ユニット60)、および、光変調手段による変調光を投射画像として投射する投射手段(投射レンズ80)を有する。また画像投射装置は、フレーム分割手段(サブフレーム生成部31)、画像挿入手段(サブフレーム挿入部32)、および、制御手段(センシングタイミング制御部33)を有する。フレーム分割手段は、投射画像のフレームを複数のサブフレーム(例えば、サブフレーム1〜5)に分割する。画像挿入手段は、複数のサブフレームのうち少なくとも一部のサブフレーム(例えば、サブフレーム2〜4)において、異なるタイミングで、投射画像の異なる部分領域(例えば、上領域、中領域、および、下領域の3つの部分領域)に所定の画像を挿入する。制御手段は、部分領域のそれぞれにおける所定の画像の挿入時間が等しく(均一に)なるように、検出手段(イメージセンサ70)による投射画像の検出タイミングを制御する。   Thus, the image projection apparatus (projector 1) of the present embodiment projects light modulation means (light modulation unit 60) that modulates light from the light source means (light source unit 50), and light modulated by the light modulation means. Projection means (projection lens 80) for projecting as an image is provided. The image projection apparatus also includes a frame dividing unit (subframe generation unit 31), an image insertion unit (subframe insertion unit 32), and a control unit (sensing timing control unit 33). The frame dividing unit divides the frame of the projection image into a plurality of subframes (for example, subframes 1 to 5). The image insertion unit is configured to perform different partial areas (for example, an upper area, a middle area, and a lower area) of the projection image at different timings in at least some of the subframes (for example, subframes 2 to 4). A predetermined image is inserted into three partial areas). The control means controls the detection timing of the projected image by the detection means (image sensor 70) so that the insertion times of the predetermined images in each of the partial areas are equal (uniform).

なお本実施形態において、フレーム分割が不要な場合には、フレーム分割手段(サブフレーム生成手段31)を備えていなくてもよい。この場合、画像挿入手段(サブフレーム挿入部32に対応するフレーム挿入部)は、投射画像の複数のフレームのうち少なくとも一部のフレームにおいて、異なるタイミングで、投射画像の互いに異なる部分領域に所定の画像を挿入する。   In the present embodiment, when frame division is not necessary, the frame division unit (subframe generation unit 31) may not be provided. In this case, the image insertion unit (a frame insertion unit corresponding to the sub-frame insertion unit 32) performs predetermined processing on different partial areas of the projection image at different timings in at least some of the plurality of frames of the projection image. Insert an image.

好ましくは、フレーム分割手段は、投射画像のフレームを第1のサブフレーム(例えば、サブフレーム2〜4の一つ)および第2のサブフレーム(例えば、サブフレーム2〜4の他の一つ)を含む複数のサブフレームに分割する。そして画像挿入手段は、第1のサブフレームにおいて投射画像の第1の部分領域(3つの部分領域の一つ)に所定の画像を挿入し、第2のサブフレームにおいて投射画像の第2の部分領域(3つの部分領域の他の一つ)に所定の画像を挿入する。   Preferably, the frame dividing means converts the frame of the projection image into a first subframe (for example, one of subframes 2 to 4) and a second subframe (for example, another one of subframes 2 to 4). Is divided into a plurality of subframes including Then, the image insertion means inserts a predetermined image into the first partial area (one of the three partial areas) of the projection image in the first subframe, and the second portion of the projection image in the second subframe. A predetermined image is inserted into an area (one of the three partial areas).

好ましくは、光源手段は、複数の部分領域を照明するように互いに独立に発光可能な複数の光源を有する。そして画像挿入手段は、複数の部分領域のそれぞれにおいて、投射画像として設定される第1の光量と異なる第2の光量を発するように複数の光源を制御する。より好ましくは、画像挿入手段は、第2の光量をゼロに設定することにより所定の画像を挿入する(黒挿入を行う)。   Preferably, the light source means has a plurality of light sources capable of emitting light independently of each other so as to illuminate the plurality of partial regions. Then, the image insertion unit controls the plurality of light sources so as to emit a second light amount different from the first light amount set as the projection image in each of the plurality of partial regions. More preferably, the image insertion means inserts a predetermined image (performs black insertion) by setting the second light quantity to zero.

好ましくは、画像挿入手段は、所定の画像として、投射画像のフレームバッファに記録されている第1の画像と異なる第2の画像を挿入する。より好ましくは、画像挿入手段は、第2の画像として黒画像を挿入する(黒挿入を行う)。   Preferably, the image insertion unit inserts a second image different from the first image recorded in the frame buffer of the projection image as the predetermined image. More preferably, the image insertion means inserts a black image as the second image (performs black insertion).

好ましくは、画像投射装置は、投射画像のフレームを更新する周期を決定する周期決定手段(更新周期決定部21)、および、映像信号を入力する入力手段(映像信号入力部10)を有する。そして周期決定手段は、入力手段からの入力画像または画像投射装置の内部で生成された画像を、メモリへ格納してフレームを形成する周期的なタイミングを決定する。また好ましくは、検出手段は、投射画像を撮像する撮像手段(イメージセンサ70)である。より好ましくは、撮像手段は、投射画像の被投射面からの反射光を検出する。また好ましくは、画像投射装置は、検出手段から得られた像信号に基づいてオートフォーカス制御(AF制御)を行うフォーカス制御手段(制御マイコン30)を有する。   Preferably, the image projection apparatus includes a cycle determination unit (update cycle determination unit 21) that determines a cycle for updating a frame of the projection image, and an input unit (video signal input unit 10) that inputs a video signal. The cycle determining unit determines a periodic timing for storing the input image from the input unit or the image generated inside the image projection apparatus in the memory and forming a frame. Preferably, the detection unit is an imaging unit (image sensor 70) that captures a projected image. More preferably, the imaging unit detects reflected light from the projection surface of the projection image. Preferably, the image projection apparatus includes a focus control unit (control microcomputer 30) that performs autofocus control (AF control) based on an image signal obtained from the detection unit.

このように本実施形態において、制御マイコン30は、イメージセンサ70の撮像時間中に発生する画像中の各領域の黒挿入回数が均一となるように(等しくなるように)撮像時間を制御する。これにより、黒挿入による輝度低下の程度が画像中の各領域において均一となり、安定した画像が得られる。また、安定した画像が得られることにより、正しい位相差を算出することができる。その結果、AF処理の誤動作や失敗を低減することが可能となる。   As described above, in the present embodiment, the control microcomputer 30 controls the imaging time so that the number of black insertions in each region in the image generated during the imaging time of the image sensor 70 is uniform (equal). As a result, the degree of luminance reduction due to black insertion is uniform in each region in the image, and a stable image can be obtained. Moreover, a correct phase difference can be calculated by obtaining a stable image. As a result, it is possible to reduce malfunctions and failures of AF processing.

なお本実施形態において、黒挿入中に撮像した画像を用いてAF処理を行っているが、これに限定されるものではない。本実施形態は、AF処理に限定されるものではなく、キーストーン(台形)補正処理など、他の処理を行う際にも適用可能である。この場合、画像投射装置は、検出手段から得られた像信号に基づいてオートキーストーン制御を行うキーストーン制御手段(制御マイコン30)を有する。   In the present embodiment, AF processing is performed using an image captured during black insertion, but the present invention is not limited to this. The present embodiment is not limited to AF processing, and can also be applied when performing other processing such as keystone (trapezoid) correction processing. In this case, the image projection apparatus includes keystone control means (control microcomputer 30) that performs auto keystone control based on the image signal obtained from the detection means.

また、本実施形態の黒挿入方法は、表示画像の黒挿入領域を照明するLEDの光量を0に設定することにより実現しているが、これに限定されるものではなく、液晶パネルに黒を表示するなど、他の方法を用いて黒挿入を実現することもできる。   Further, the black insertion method of the present embodiment is realized by setting the light quantity of the LED that illuminates the black insertion area of the display image to 0, but the present invention is not limited to this, and black is applied to the liquid crystal panel. Black insertion can also be realized using other methods such as displaying.

(第2の実施形態)
次に、図4および図5を参照して、本発明の第2の実施形態における画像投射装置による黒挿入中のAF処理について説明する。なお、本実施形態において、イメージセンサを用いてAF処理を行うが、これに限定されるものではない。
(Second Embodiment)
Next, with reference to FIGS. 4 and 5, the AF process during black insertion by the image projection apparatus in the second embodiment of the present invention will be described. In the present embodiment, the AF process is performed using an image sensor, but the present invention is not limited to this.

本実施形態は、撮像期間中の黒挿入が行われていない期間のみを有効撮像期間とする点で、画像中の各領域の黒挿入期間が均一となるように撮像タイミングを制御する第1の実施形態とは異なる。なお、本実施形態のプロジェクタ(画像投射装置)の基本構成は、図1を参照して説明した第1の実施形態のプロジェクタ1と共通であるため、その説明は省略する。   In the present embodiment, the imaging timing is controlled so that the black insertion period of each region in the image is uniform in that the effective imaging period is only a period during which black insertion is not performed during the imaging period. Different from the embodiment. The basic configuration of the projector (image projection apparatus) of this embodiment is the same as that of the projector 1 of the first embodiment described with reference to FIG.

図4を参照して、黒挿入中に投射画像を撮像した場合に安定した投射画像を取得する方法について説明する。図4は、本実施形態におけるイメージセンサ70および制御マイコン30によるAFの動作シーケンスを示すタイミングチャートである。図4に示されるように、1周期におけるサブフレーム数は5である。また、サブフレーム2、3、4において、表示画像の一部の領域に黒が挿入されている。各サブフレームにおける黒挿入方法は、表示画像の黒挿入領域を照明するLEDの光量を0に設定することにより実現される。なお、本実施形態のサブフレーム数、黒挿入が行われるサブフレーム番号、および、黒挿入方法は、一例であり、適宜変更可能である。本実施形態では、図4に示されるように、イメージセンサ70を用いた撮像期間中のうち、黒が挿入されていないサブフレーム期間を有効撮像期間とし、有効撮像期間のみの投射画像を撮像に用いる。   With reference to FIG. 4, a method of acquiring a stable projection image when a projection image is captured during black insertion will be described. FIG. 4 is a timing chart showing an AF operation sequence by the image sensor 70 and the control microcomputer 30 in the present embodiment. As shown in FIG. 4, the number of subframes in one cycle is five. In subframes 2, 3, and 4, black is inserted in a partial area of the display image. The black insertion method in each subframe is realized by setting the light quantity of the LED that illuminates the black insertion region of the display image to zero. Note that the number of subframes, the number of subframes in which black insertion is performed, and the black insertion method in this embodiment are examples, and can be changed as appropriate. In the present embodiment, as shown in FIG. 4, during the imaging period using the image sensor 70, a subframe period in which black is not inserted is set as an effective imaging period, and a projection image only in the effective imaging period is captured. Use.

続いて、図5を参照して、黒挿入中にイメージセンサ70を用いて安定した撮像画像を撮像し、オートフォーカス(AF)を行う具体例について説明する。図5は、本実施形態における制御方法(イメージセンサ70を用いたAF制御方法)を示すフローチャートである。図5の各ステップ(AF処理)は、制御マイコン30がコンピュータプログラムに従って実行される。   Next, a specific example in which a stable captured image is captured using the image sensor 70 during black insertion and autofocus (AF) is performed will be described with reference to FIG. FIG. 5 is a flowchart showing a control method (AF control method using the image sensor 70) in the present embodiment. Each step (AF process) in FIG. 5 is executed by the control microcomputer 30 in accordance with a computer program.

AFが開始すると、まずステップS201において、制御マイコン30はAFパターンの投射を開始する。続いてステップS202において、制御マイコン30は、現在表示しているサブフレームに黒挿入領域が含まれているか否かを判定し、その判定結果に応じて撮像有効状態を更新する。具体的には、現在表示しているサブフレームに黒挿入領域が含まれている場合、制御マイコン30は撮像有効状態を無効にする。一方、黒挿入領域が含まれない場合、撮像有効状態を有効にする。   When AF starts, first, in step S201, the control microcomputer 30 starts projecting an AF pattern. Subsequently, in step S202, the control microcomputer 30 determines whether or not a black insertion area is included in the currently displayed subframe, and updates the imaging effective state according to the determination result. Specifically, when a black insertion area is included in the currently displayed subframe, the control microcomputer 30 invalidates the imaging enabled state. On the other hand, when the black insertion area is not included, the imaging valid state is validated.

続いてステップS203において、制御マイコン30は、撮像有効状態が有効であるか否かを判定する。撮像有効状態が有効である場合、ステップS204へ進む。ステップS204において、制御マイコン30は、イメージセンサ70により表示されているAFパターンの撮像を行う。一方、撮像有効状態が無効である場合、ステップS205へ進む。ステップS205において、制御マイコン30は、イメージセンサ70により表示されているAFパターンの撮像を一時停止させ、撮像を行わないように制御する。   Subsequently, in step S203, the control microcomputer 30 determines whether or not the imaging valid state is valid. If the imaging valid state is valid, the process proceeds to step S204. In step S <b> 204, the control microcomputer 30 captures the AF pattern displayed by the image sensor 70. On the other hand, when the imaging valid state is invalid, the process proceeds to step S205. In step S <b> 205, the control microcomputer 30 controls to temporarily stop imaging of the AF pattern displayed by the image sensor 70 and not to perform imaging.

続いてステップS206において、制御マイコン30は、サブフレーム開始信号を検出したか否かを判定する。サブフレーム開始信号が検出されていない場合、ステップS203に戻り、ステップS204、S205を継続して実行する。一方、サブフレーム開始信号が検出された場合、ステップS207へ進む。   Subsequently, in step S206, the control microcomputer 30 determines whether or not a subframe start signal is detected. When the subframe start signal is not detected, the process returns to step S203, and steps S204 and S205 are continuously executed. On the other hand, if a subframe start signal is detected, the process proceeds to step S207.

ステップS207において、制御マイコン30は、撮像終了条件を満たしているかを判定する。撮像終了条件を満たしている場合、ステップS208へ進む。一方、撮像終了条件を満たしていない場合、ステップS202へ戻る。なお撮像終了条件は、撮像時間が規定時間に達する場合や、有効撮像時間が規定時間に達した場合など、適宜設定可能である。続くステップS208〜S211は、図3を参照して説明した第1実施形態のステップS107〜S110とそれぞれ同様であるため、それらの説明は省略する。   In step S207, the control microcomputer 30 determines whether the imaging end condition is satisfied. If the imaging end condition is satisfied, the process proceeds to step S208. On the other hand, when the imaging end condition is not satisfied, the process returns to step S202. The imaging end condition can be set as appropriate when the imaging time reaches the specified time or when the effective imaging time reaches the specified time. Subsequent steps S208 to S211 are the same as steps S107 to S110 of the first embodiment described with reference to FIG.

このように本実施形態において、制御手段(センシングタイミング制御部33)は、部分領域における所定の画像の挿入時間を含まないように、検出手段(イメージセンサ70)による投射画像の検出タイミングを制御する。すなわち本実施形態では、イメージセンサ70の撮像期間中の黒挿入が行われていない期間のみを有効撮像期間として撮像を行う。これにより、撮像画像の各領域の黒挿入による輝度のばらつきを抑制した安定した画像が得られる。また、安定した画像が得られることにより、正しい位相差を算出することができる。その結果、AF処理の誤動作や失敗を低減することが可能である。なお本実施形態は、AF処理に限定されるものではなく、キーストーン(台形)補正処理など、他の処理を行う際にも適用可能である。   As described above, in this embodiment, the control unit (sensing timing control unit 33) controls the detection timing of the projected image by the detection unit (image sensor 70) so as not to include the predetermined image insertion time in the partial region. . That is, in the present embodiment, imaging is performed using only the period during which black insertion is not performed during the imaging period of the image sensor 70 as the effective imaging period. As a result, a stable image in which variation in luminance due to black insertion in each region of the captured image is suppressed can be obtained. Moreover, a correct phase difference can be calculated by obtaining a stable image. As a result, it is possible to reduce malfunctions and failures of AF processing. Note that the present embodiment is not limited to the AF process, and can be applied to other processes such as a keystone (trapezoid) correction process.

(第3の実施形態)
次に、図6乃至図10を参照して、本発明の第3の実施形態における画像投射装置による黒挿入中のAF処理について説明する。なお、本実施形態において、ステレオカメラを用いてAF処理を行うが、これに限定されるものではない。
(Third embodiment)
Next, with reference to FIGS. 6 to 10, an AF process during black insertion by the image projection apparatus according to the third embodiment of the present invention will be described. In this embodiment, AF processing is performed using a stereo camera, but the present invention is not limited to this.

図6は、本実施形態におけるプロジェクタ100(画像投射装置)のブロック図である。プロジェクタ100は、センシング時間取得部334を備えた制御マイコン300を有し、また、イメージセンサ70に代えてステレオカメラ370を利用する点で、第1の実施形態におけるプロジェクタ1とは異なる。プロジェクタ100の他の構成は、プロジェクタ1と同様であるため、それらの説明は省略する。   FIG. 6 is a block diagram of the projector 100 (image projection apparatus) in the present embodiment. The projector 100 has a control microcomputer 300 including a sensing time acquisition unit 334, and differs from the projector 1 in the first embodiment in that a stereo camera 370 is used instead of the image sensor 70. Since the other configuration of the projector 100 is the same as that of the projector 1, the description thereof is omitted.

ステレオカメラ370は、プロジェクタ100による投射画像の反射光を検知する外部光イメージセンサとして機能する。ステレオカメラ370は、一定の間隔で配置された2つのレンズを有し、一度の撮像で互いに異なる位置から撮像された2枚の二次元画像を撮像することができる。ステレオカメラ370は、プロジェクタ100の外部にあり、通信手段によりプロジェクタ100と通信可能に構成される。ステレオカメラ370とプロジェクタ100との通信は、ケーブル接続または無線通信(通信手段)により行われる。   Stereo camera 370 functions as an external light image sensor that detects the reflected light of the image projected by projector 100. The stereo camera 370 has two lenses arranged at a constant interval, and can capture two two-dimensional images captured from different positions with one imaging. Stereo camera 370 is external to projector 100 and is configured to be able to communicate with projector 100 by communication means. Communication between the stereo camera 370 and the projector 100 is performed by cable connection or wireless communication (communication means).

制御マイコン300のセンシング時間取得部334は、ステレオカメラ370から通信手段を通じて撮像時間を取得する。センシングタイミング制御部33は、ステレオカメラ370へセンシングタイミングを通知するセンシングタイミング制御手段として機能する。センシングタイミング制御部33は、センシング時間取得部334により取得されたステレオカメラ370の撮像時間からセンシング開始タイミングを算出し、ステレオカメラ370にセンシング開始通知信号を送信する。ステレオカメラ370は、センシング開始通知信号を受信すると、投射画像の撮像を開始する。撮像が完了すると、ステレオカメラ370は、センシング終了通知信号をセンシングタイミング制御部33へ通知する。制御マイコン300は、センシング終了通知信号と同時に撮像結果を通信手段によりステレオカメラ370から受信し、AF処理を行う。   The sensing time acquisition unit 334 of the control microcomputer 300 acquires the imaging time from the stereo camera 370 through communication means. The sensing timing control unit 33 functions as a sensing timing control unit that notifies the stereo camera 370 of the sensing timing. The sensing timing control unit 33 calculates the sensing start timing from the imaging time of the stereo camera 370 acquired by the sensing time acquisition unit 334, and transmits a sensing start notification signal to the stereo camera 370. When the stereo camera 370 receives the sensing start notification signal, the stereo camera 370 starts capturing a projected image. When the imaging is completed, the stereo camera 370 notifies the sensing timing control unit 33 of a sensing end notification signal. The control microcomputer 300 receives the imaging result simultaneously with the sensing end notification signal from the stereo camera 370 by the communication means, and performs AF processing.

図7を参照して、黒挿入中にステレオカメラ370を用いて安定した撮像画像を撮像し、オートフォーカス(AF)を行う具体例について説明する。図7は、本実施形態における制御方法(ステレオカメラ370を用いたAF制御方法)を示すフローチャートである。図7の各ステップ(AF処理)は、制御マイコン300がコンピュータプログラムに従って実行される。   With reference to FIG. 7, a specific example in which a stable captured image is captured using the stereo camera 370 during black insertion and autofocus (AF) is performed will be described. FIG. 7 is a flowchart showing a control method (AF control method using the stereo camera 370) in the present embodiment. Each step (AF process) in FIG. 7 is executed by the control microcomputer 300 according to a computer program.

AFが開始すると、まずステップS301において、制御マイコン300はAFパターンの投射を開始する。AFパターンは、AFパターンに対応する画像データをフレームバッファに格納することにより被投射面に投射される。このとき用いられるAFパターンは、コントラストが高く、エッジが明瞭な画像であることが好ましい。例えば、白と黒のラインが交互に表示される画像が用いられる。   When AF starts, first, in step S301, the control microcomputer 300 starts projecting an AF pattern. The AF pattern is projected onto the projection surface by storing image data corresponding to the AF pattern in the frame buffer. The AF pattern used at this time is preferably an image with high contrast and clear edges. For example, an image in which white and black lines are alternately displayed is used.

続いてステップS302において、センシング時間取得部334は、ステレオカメラ370から撮像時間(撮像時間に関する情報)を取得する。そしてステップS303において、センシングタイミング制御部33は、ステップS302にて取得された撮像時間に基づいて、センシング開始タイミングを設定する。   Subsequently, in step S302, the sensing time acquisition unit 334 acquires the imaging time (information regarding the imaging time) from the stereo camera 370. In step S303, the sensing timing control unit 33 sets the sensing start timing based on the imaging time acquired in step S302.

ここで、図8乃至図10を参照して、センシングタイミング制御部33によるセンシング開始タイミングの算出方法について説明する。図8は、本実施形態におけるセンシング開始タイミング算出方法(ステップS303)を示すフローチャートである。図9は、センシング開始動作を示すタイミングチャートである。図10は、サブフレーム変更後のセンシング開始動作を示すタイミングチャートである。   Here, a method for calculating the sensing start timing by the sensing timing control unit 33 will be described with reference to FIGS. FIG. 8 is a flowchart showing the sensing start timing calculation method (step S303) in the present embodiment. FIG. 9 is a timing chart showing the sensing start operation. FIG. 10 is a timing chart showing the sensing start operation after changing the subframe.

まず、図8のステップS303aにおいて、センシングタイミング制御部33は、ステップS302にて取得したセンシング時間、および、フレームバッファ更新信号に基づいて、余剰時間を算出する。ここで余剰時間とは、センシング時間からフレームバッファ更新周期の整数倍を引いた時間(余剰時間<フレームバッファ更新周期)である。   First, in step S303a in FIG. 8, the sensing timing control unit 33 calculates the surplus time based on the sensing time acquired in step S302 and the frame buffer update signal. Here, the surplus time is a time obtained by subtracting an integral multiple of the frame buffer update period from the sensing time (surplus time <frame buffer update period).

続いてステップS303bにおいて、センシングタイミング制御部33は、ステップS303aにて算出した余剰時間に関し、各領域の黒挿入時間が等しくなるように設定可能であるか否かを判定する。各領域の黒挿入時間が等しくなるように設定することができない場合、ステップS303cへ進む。一方、各領域の黒挿入時間が等しくなるように設定可能である場合、ステップS303dへ進む。本実施形態において、各領域の黒挿入時間が等しくなるように設定可能な条件は、以下の条件(1)、(2)を満たす場合である。   Subsequently, in step S303b, the sensing timing control unit 33 determines whether the black insertion time of each region can be set to be equal with respect to the surplus time calculated in step S303a. If the black insertion times of the respective areas cannot be set to be equal, the process proceeds to step S303c. On the other hand, if it can be set so that the black insertion times of the respective regions are equal, the process proceeds to step S303d. In the present embodiment, the conditions that can be set so that the black insertion times of the respective regions are equal are the cases where the following conditions (1) and (2) are satisfied.

条件(1):連続する黒挿入が行われない期間>余剰時間
条件(2):黒挿入時間<余剰時間
図9に示されるように、連続する黒挿入が行われない期間>余剰時間を満たす場合(条件(1)を満たす場合)、センシング開始タイミングを黒挿入が終了したサブフレーム開始信号に設定することで、各領域の黒挿入時間が等しくなるように設定可能である。また、図9に示されるように、黒挿入時間<余剰時間を満たす場合(条件(2)を満たす場合)、センシング開始タイミングを黒挿入開始のサブフレーム開始信号に設定することで、各領域の黒挿入時間が等しくなるように設定可能である。
Condition (1): Period in which continuous black insertion is not performed> Surplus time Condition (2): Black insertion time <surplus time As shown in FIG. 9, a period in which continuous black insertion is not performed> Surplus time is satisfied. In this case (when the condition (1) is satisfied), it is possible to set the black insertion time of each region to be equal by setting the sensing start timing to the subframe start signal after the black insertion is completed. Also, as shown in FIG. 9, when the black insertion time <the surplus time is satisfied (when the condition (2) is satisfied), the sensing start timing is set to the black insertion start subframe start signal, so that The black insertion time can be set to be equal.

図8のステップS303cにおいて、図10に示されるように、サブフレーム生成部31およびサブフレーム挿入部32は、ステップS303aにて算出された余剰時間で黒挿入時間が等しくなるようにサブフレームを設定する。サブフレームの設定方法としては、例えばサブフレーム生成部31において分割するサブフレーム数を変更し、または、サブフレーム挿入部32において黒挿入の対象となるサブフレーム数を変更し、サブフレーム開始信号を生成するなどの方法がある。なお本実施形態において、サブフレーム生成部31およびサブフレーム挿入部32によりサブフレーム開始信号を変更するが、これに限定されるものではなく、画像処理エンジン20おいてフレームバッファ更新周期を変更するなど適宜変更可能である。   In step S303c of FIG. 8, as shown in FIG. 10, the subframe generation unit 31 and the subframe insertion unit 32 set the subframes so that the black insertion time is equal to the surplus time calculated in step S303a. To do. As a subframe setting method, for example, the number of subframes to be divided is changed in the subframe generation unit 31, or the number of subframes to be black inserted is changed in the subframe insertion unit 32, and the subframe start signal is changed. There are methods such as creating. In this embodiment, the subframe start signal is changed by the subframe generation unit 31 and the subframe insertion unit 32. However, the present invention is not limited to this, and the image processing engine 20 changes the frame buffer update period. It can be changed as appropriate.

そしてステップS303dにおいて、センシングタイミング制御部33は、図9に示されるタイミングをセンシング開始タイミングとして設定する。   In step S303d, the sensing timing control unit 33 sets the timing shown in FIG. 9 as the sensing start timing.

続いて、図7のステップS304において、制御マイコン30は、ステップS303にて設定したセンシング開始タイミング信号を検出したか否かを判定する。センシング開始タイミング信号を検出していない場合、ステップS304を繰り返す。一方、センシング開始タイミング信号が検出された場合、ステップS305へ進む。ステップS305において、制御マイコン30は、通信手段を介して、ステレオカメラ370へセンシング開始を通知する。そしてステレオカメラ370は、投射画像の撮像を開始する。   Subsequently, in step S304 in FIG. 7, the control microcomputer 30 determines whether or not the sensing start timing signal set in step S303 has been detected. If the sensing start timing signal is not detected, step S304 is repeated. On the other hand, when the sensing start timing signal is detected, the process proceeds to step S305. In step S305, the control microcomputer 30 notifies the stereo camera 370 of the start of sensing via the communication unit. Then, the stereo camera 370 starts capturing a projection image.

続いてステップS306において、制御マイコン30は、通信手段を介して、ステレオカメラ370からセンシング終了通知信号を検知したか否かを判定する。センシング終了通知信号を検知していない場合、ステップS306を繰り返す。一方、センシング終了通知信号を検知した場合、撮像が終了したためステップS307へ進む。   Subsequently, in step S306, the control microcomputer 30 determines whether a sensing end notification signal is detected from the stereo camera 370 via the communication unit. If the sensing end notification signal is not detected, step S306 is repeated. On the other hand, when the sensing end notification signal is detected, since the imaging is completed, the process proceeds to step S307.

ステップS307において、制御マイコン30は、通信手段を介して、ステレオカメラ370から2つの撮像結果を受信する。続いてステップS308において、制御マイコン30は、ステップS302〜S307にて撮像した2つの像の位相差を算出する。そしてステップS309において、制御マイコン30は、ステップS308にて算出した位相差に基づいて、フォーカス位置を算出する。続いてステップS310において、制御マイコン30は、ステップS309にて算出したフォーカス位置まで投射レンズ80内のフォーカスレンズを移動させる。このとき制御マイコン30は、モータ82を駆動し、レンズ位置検知部81の出力を監視する。レンズ位置検知部81の出力がステップS309にて算出したフォーカス位置まで到達した場合、制御マイコン30はモータ82の駆動を停止する。   In step S307, the control microcomputer 30 receives two imaging results from the stereo camera 370 via the communication unit. Subsequently, in step S308, the control microcomputer 30 calculates the phase difference between the two images captured in steps S302 to S307. In step S309, the control microcomputer 30 calculates the focus position based on the phase difference calculated in step S308. Subsequently, in step S310, the control microcomputer 30 moves the focus lens in the projection lens 80 to the focus position calculated in step S309. At this time, the control microcomputer 30 drives the motor 82 and monitors the output of the lens position detector 81. When the output of the lens position detection unit 81 reaches the focus position calculated in step S309, the control microcomputer 30 stops driving the motor 82.

続いてステップS311において、制御マイコン30は、ステップS303cにてサブフレームの設定が変更されたか否かを判定する。サブフレームの設定が変更されている場合、ステップS312へ進み、サブフレームの設定を戻す。一方、サブフレームの設定が変更されていない場合、ステップS313へ進む。ステップS313において、制御マイコン30は、AFパターンの出力を停止し、AF処理を終了する。   Subsequently, in step S311, the control microcomputer 30 determines whether the setting of the subframe has been changed in step S303c. If the subframe setting has been changed, the process proceeds to step S312 to return the subframe setting. On the other hand, if the setting of the subframe has not been changed, the process proceeds to step S313. In step S313, the control microcomputer 30 stops outputting the AF pattern and ends the AF process.

このように本実施形態の画像投射装置(プロジェクタ100)において、検出手段は、画像投射装置の外部に設けられたステレオカメラ370である。好ましくは、画像投射装置は、検出手段による検出時間を取得する取得手段(センシング時間取得部334)を有する。そして制御手段(センシングタイミング制御部33)は、取得手段により取得された検出時間に基づいて、検出手段による投射画像の検出タイミングを制御する。より好ましくは、フレーム分割手段(サブフレーム生成部31)は、検出時間に応じてサブフレームの設定を変更する。   Thus, in the image projection apparatus (projector 100) of the present embodiment, the detection means is the stereo camera 370 provided outside the image projection apparatus. Preferably, the image projection apparatus includes an acquisition unit (sensing time acquisition unit 334) that acquires a detection time by the detection unit. And a control means (sensing timing control part 33) controls the detection timing of the projection image by a detection means based on the detection time acquired by the acquisition means. More preferably, the frame dividing means (subframe generating unit 31) changes the setting of the subframe according to the detection time.

このように本実施形態では、ステレオカメラ370の撮像時間に基づいて、撮像時間中に発生する各領域の黒挿入回数が均一となるように撮像時間を制御する。これにより、外部光イメージセンサを使用した場合でも、黒挿入による輝度低下が均一となり安定した画像が得られる。また、安定した画像が得られることにより、正しい位相差を算出することができる。その結果、AF処理の誤動作や失敗を低減することが可能である。   As described above, in the present embodiment, the imaging time is controlled based on the imaging time of the stereo camera 370 so that the number of black insertions in each region that occurs during the imaging time is uniform. As a result, even when an external light image sensor is used, the luminance drop due to black insertion is uniform and a stable image can be obtained. Moreover, a correct phase difference can be calculated by obtaining a stable image. As a result, it is possible to reduce malfunctions and failures of AF processing.

なお本実施形態において、黒挿入中に撮像した画像を用いてAF処理を行っているが、これに限定されるものではない。本実施形態は、AF処理に限定されるものではなく、キーストーン(台形)補正処理など、他の処理を行う際にも適用可能である。また本実施形態において、ステレオカメラを用いて2つの撮像結果から位相差方式によりオートフォーカス機能を実現しているが、通常のカメラなどを使用し単独の撮像結果からコントラスト方式によりオートフォーカス機能を実現してもよい。また、キーストーン補正処理などを行う場合、ステレオカメラ370に代えて、通常のカメラで実現することが可能である。   In the present embodiment, AF processing is performed using an image captured during black insertion, but the present invention is not limited to this. The present embodiment is not limited to AF processing, and can also be applied when performing other processing such as keystone (trapezoid) correction processing. In this embodiment, the autofocus function is realized by the phase difference method from the two imaging results using a stereo camera, but the autofocus function is realized by the contrast method from a single imaging result using a normal camera or the like. May be. Further, when performing the keystone correction process or the like, it can be realized by a normal camera instead of the stereo camera 370.

各実施形態によれば、黒挿入の際に安定した投射画像を検出可能な画像投射装置を提供することができる。   According to each embodiment, it is possible to provide an image projection apparatus capable of detecting a stable projection image when black is inserted.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

1、100 プロジェクタ(画像投射装置)
32 サブフレーム挿入部(画像挿入手段)
33 センシングタイミング制御部(制御手段)
60 光変調ユニット(光変調手段)
80 投射レンズ(投射手段)
1, 100 Projector (image projection device)
32 Subframe insertion part (image insertion means)
33 Sensing timing control unit (control means)
60 Light modulation unit (light modulation means)
80 Projection lens (projection means)

Claims (15)

光源手段からの光を変調する光変調手段と、
前記光変調手段による変調光を投射画像として投射する投射手段と、
前記投射画像の複数のフレームのうち少なくとも一部のフレームにおいて、異なるタイミングで、前記投射画像の互いに異なる部分領域に所定の画像を挿入する画像挿入手段と、
前記部分領域のそれぞれにおける前記所定の画像の挿入時間が等しくなるように検出手段による前記投射画像の検出タイミングを制御する制御手段と、を有することを特徴とする画像投射装置。
Light modulating means for modulating light from the light source means;
Projection means for projecting modulated light by the light modulation means as a projection image;
Image insertion means for inserting predetermined images into different partial areas of the projection image at different timings in at least some of the plurality of frames of the projection image;
An image projection apparatus comprising: control means for controlling the detection timing of the projection image by the detection means so that the insertion times of the predetermined images in each of the partial areas are equal.
光源手段からの光を変調する光変調手段と、
前記光変調手段による変調光を投射画像として投射する投射手段と、
前記投射画像の複数のフレームのうち少なくとも一部のフレームにおいて、異なるタイミングで、前記投射画像の互いに異なる部分領域に所定の画像を挿入する画像挿入手段と、
前記部分領域のそれぞれにおける前記所定の画像の挿入時間を含まないように検出手段による前記投射画像の検出タイミングを制御する制御手段と、を有することを特徴とする画像投射装置。
Light modulating means for modulating light from the light source means;
Projection means for projecting modulated light by the light modulation means as a projection image;
Image insertion means for inserting predetermined images into different partial areas of the projection image at different timings in at least some of the plurality of frames of the projection image;
An image projection apparatus comprising: control means for controlling the detection timing of the projection image by the detection means so as not to include the insertion time of the predetermined image in each of the partial areas.
前記投射画像の各フレームを複数のサブフレームに分割するフレーム分割手段を更に有し、
前記画像挿入手段は、前記複数のサブフレームのうち少なくとも一部のサブフレームにおいて、異なるタイミングで、前記投射画像の互いに異なる前記部分領域に前記所定の画像を挿入することを特徴とする請求項1または2に記載の画像投射装置。
Frame division means for dividing each frame of the projection image into a plurality of subframes;
The image insertion means inserts the predetermined image into the different partial areas of the projection image at different timings in at least some of the plurality of subframes. Or the image projection apparatus of 2.
前記フレーム分割手段は、前記投射画像のフレームを第1のサブフレームおよび第2のサブフレームを含む前記複数のサブフレームに分割し、
前記画像挿入手段は、前記第1のサブフレームにおいて前記投射画像の第1の部分領域に前記所定の画像を挿入し、前記第2のサブフレームにおいて該投射画像の第2の部分領域に該所定の画像を挿入することを特徴とする請求項3に記載の画像投射装置。
The frame dividing means divides a frame of the projection image into the plurality of subframes including a first subframe and a second subframe,
The image insertion means inserts the predetermined image into the first partial area of the projection image in the first subframe, and inserts the predetermined image into the second partial area of the projection image in the second subframe. The image projection apparatus according to claim 3, wherein the image is inserted.
前記光源手段は、前記異なるタイミングで、前記部分領域を照明するように互いに独立に発光可能な複数の光源を有し、
前記画像挿入手段は、前記部分領域において、前記投射画像として設定される第1の光量と異なる第2の光量を発するように該複数の光源を制御することを特徴とする請求項1乃至4のいずれか1項に記載の画像投射装置。
The light source means has a plurality of light sources capable of emitting light independently of each other so as to illuminate the partial area at the different timings,
The image insertion means controls the plurality of light sources so as to emit a second light amount different from the first light amount set as the projection image in the partial region. The image projection apparatus of any one of Claims.
前記画像挿入手段は、前記第2の光量をゼロに設定することにより前記所定の画像を挿入することを特徴とする請求項5に記載の画像投射装置。   The image projection apparatus according to claim 5, wherein the image insertion unit inserts the predetermined image by setting the second light amount to zero. 前記画像挿入手段は、前記所定の画像として、前記投射画像のフレームバッファに記録されている第1の画像と異なる第2の画像を挿入することを特徴とする請求項1乃至4のいずれか1項に記載の画像投射装置。   The said image insertion means inserts the 2nd image different from the 1st image currently recorded on the frame buffer of the said projection image as said predetermined image, The any one of Claim 1 thru | or 4 characterized by the above-mentioned. The image projection apparatus according to item. 前記画像挿入手段は、前記第2の画像として黒画像を挿入することを特徴とする請求項7に記載の画像投射装置。   The image projection apparatus according to claim 7, wherein the image insertion unit inserts a black image as the second image. 映像信号を入力する入力手段と、
前記投射画像の前記フレームを更新する周期を決定する周期決定手段と、を更に有し、
前記周期決定手段は、前記入力手段からの入力画像または前記画像投射装置の内部で生成された画像を、メモリへ格納して前記フレームを形成する周期的なタイミングを決定することを特徴とする請求項1乃至8のいずれか1項に記載の画像投射装置。
An input means for inputting a video signal;
A period determining means for determining a period for updating the frame of the projection image;
The cycle determining means determines the periodic timing for storing an input image from the input means or an image generated inside the image projection apparatus in a memory and forming the frame. Item 9. The image projection device according to any one of Items 1 to 8.
前記検出手段は、前記投射画像を撮像する撮像手段であることを特徴とする請求項1乃至9のいずれか1項に記載の画像投射装置。   The image projection apparatus according to claim 1, wherein the detection unit is an imaging unit that captures the projection image. 前記撮像手段は、前記投射画像の被投射面からの反射光を検出することを特徴とする請求項10に記載の画像投射装置。   The image projection apparatus according to claim 10, wherein the imaging unit detects reflected light from a projection surface of the projection image. 前記検出手段は、前記画像投射装置の外部に設けられたカメラであることを特徴とする請求項1乃至8のいずれか1項に記載の画像投射装置。   The image projection apparatus according to claim 1, wherein the detection unit is a camera provided outside the image projection apparatus. 前記検出手段による検出時間を取得する取得手段を更に有し、
前記制御手段は、前記取得手段により取得された前記検出時間に基づいて、前記検出手段による前記投射画像の前記検出タイミングを制御することを特徴とする請求項12に記載の画像投射装置。
It further has an acquisition means for acquiring a detection time by the detection means,
The image projection apparatus according to claim 12, wherein the control unit controls the detection timing of the projection image by the detection unit based on the detection time acquired by the acquisition unit.
前記検出手段から得られた像信号に基づいてオートフォーカス制御を行うフォーカス制御手段を更に有することを特徴とする請求項1乃至13のいずれか1項に記載の画像投射装置。   The image projection apparatus according to claim 1, further comprising a focus control unit that performs autofocus control based on an image signal obtained from the detection unit. 前記検出手段から得られた像信号に基づいてオートキーストーン制御を行うキーストーン制御手段を更に有することを特徴とする請求項1乃至14のいずれか1項に記載の画像投射装置。
15. The image projection apparatus according to claim 1, further comprising keystone control means for performing auto keystone control based on an image signal obtained from the detection means.
JP2014183774A 2014-09-10 2014-09-10 Image projection device Pending JP2016058897A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014183774A JP2016058897A (en) 2014-09-10 2014-09-10 Image projection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014183774A JP2016058897A (en) 2014-09-10 2014-09-10 Image projection device

Publications (1)

Publication Number Publication Date
JP2016058897A true JP2016058897A (en) 2016-04-21

Family

ID=55756736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014183774A Pending JP2016058897A (en) 2014-09-10 2014-09-10 Image projection device

Country Status (1)

Country Link
JP (1) JP2016058897A (en)

Similar Documents

Publication Publication Date Title
KR102534698B1 (en) Pass-through display of captured images
US8089524B2 (en) Flicker correction apparatus, flicker correction method, and image sensing apparatus
JP6601790B2 (en) Real-time measurement and projection apparatus and three-dimensional projection and measurement apparatus
CN110622107A (en) Tracking wearable devices and handheld object gestures
US20140267427A1 (en) Projector, method of controlling projector, and program thereof
EP3136377B1 (en) Information processing device, information processing method, program
JP2016208380A5 (en)
JP6326895B2 (en) POSITION DETECTION DEVICE, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP5917116B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6035947B2 (en) Image display device, image display method, and image display program
TW201535162A (en) Position detection device, position detection system, and position detection method
CN104658462B (en) The control method of projector and projector
US10627962B2 (en) Projector
WO2020110929A1 (en) Information processing apparatus, information processing system, device for position/attitude acquisition, and device information acquisition method
JP2015158889A (en) Position detection device, position detection system, and control method of position detection device
JP2014032159A (en) Projection and imaging system, and method for controlling projection and imaging system
JP2015158885A5 (en)
JP2019176356A (en) Projector, and method for controlling projector
CN104898894B (en) Position detection device and position detection method
JP2020039082A (en) Display device, display system, and method for controlling display device
US11616915B2 (en) Apparatus and method thereof, and storage medium for detecting a change in external light that occurs during shooting an image
JP2016058897A (en) Image projection device
JP5924577B2 (en) Position detection device
JP2015142157A (en) Image projection system, projection controller, projection controlling program
JP6291912B2 (en) Position detection apparatus and position detection method