WO2011039837A1 - プロジェクタおよび画像処理方法 - Google Patents

プロジェクタおよび画像処理方法 Download PDF

Info

Publication number
WO2011039837A1
WO2011039837A1 PCT/JP2009/066946 JP2009066946W WO2011039837A1 WO 2011039837 A1 WO2011039837 A1 WO 2011039837A1 JP 2009066946 W JP2009066946 W JP 2009066946W WO 2011039837 A1 WO2011039837 A1 WO 2011039837A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
projected
projector
projection surface
lens
Prior art date
Application number
PCT/JP2009/066946
Other languages
English (en)
French (fr)
Inventor
猛 加藤
Original Assignee
Necディスプレイソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necディスプレイソリューションズ株式会社 filed Critical Necディスプレイソリューションズ株式会社
Priority to JP2011533977A priority Critical patent/JP5317238B2/ja
Priority to PCT/JP2009/066946 priority patent/WO2011039837A1/ja
Publication of WO2011039837A1 publication Critical patent/WO2011039837A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/317Convergence or focusing systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/53Means for automatic focusing, e.g. to compensate thermal effects

Definitions

  • the present invention relates to a projector that projects an image on a projection surface and an image processing method.
  • FIG. 1A When projecting an image onto a projection surface using a projector, as shown in FIG. 1A, not only is the projection performed from a position where the projector 10 faces the projection surface 200, but also as shown in FIG. 1B. In some cases, the projector 10 may project 200 from an oblique position.
  • a state in which projection is performed from a position where the projector 10 directly faces the projection surface 200 is referred to as normal projection.
  • a state in which the projector 10 projects from an oblique position with respect to the projection surface 200 is referred to as oblique projection.
  • the difference between the distance from the projector 10 to the upper end point of an image projected on the projection surface 200 (hereinafter referred to as a projected image) and the distance to the lower end point of the projected image is the normal projection. Larger than the case.
  • Patent Document 1 describes a projector that focuses a projected image when oblique projection is performed.
  • the projector described in Patent Document 1 is a display surface of a display unit that displays an image to be projected, and a main lens that projects an enlarged image displayed on the display unit.
  • the projected image is focused even when oblique projection is performed.
  • the lens has a width (depth of field) at which the projected image looks in focus on the near side and the far side of the projection surface 200.
  • the distance from the projector 10 to the lower end point is the width of the depth of field.
  • the distance to the upper end point may be out of the range of the depth of field.
  • Patent Document 1 since the projector described in Patent Document 1 only adjusts the tilt of the display unit, the image projected beyond the width of the depth of field of the lens becomes an unfocused and unclear image. There is a problem that the quality of the image is degraded.
  • An object of the present invention is to provide a projector capable of preventing an unclear image from being projected even when oblique projection is performed beyond the depth of field, and suppressing deterioration in the quality of the projected image. It is to provide an image processing method.
  • the projector of the present invention provides: A projector that projects an image on a projection surface based on an image signal, An image based on the image signal is divided into a plurality of image areas, and an image is projected only in one of the plurality of image areas that is sequentially switched at predetermined time intervals, and masks other than the image area to which the image is projected are masked.
  • an image processing method of the present invention comprises: An image processing method applied to a projector that projects an image on a projection surface based on an image signal, An image based on the image signal is divided into a plurality of image areas, and an image is projected only in one of the plurality of image areas that is sequentially switched at predetermined time intervals, and masks other than the image area to which the image is projected are masked.
  • Output video signal The image by the video signal is focused on the image area where the image is currently projected.
  • the projector divides the image based on the image signal into a plurality of image areas, and the image is projected only in one of the image areas that are sequentially switched at predetermined time intervals, and the image area is projected. Otherwise, the masked video signal is output, and the image based on the video signal is focused on the image area where the current image is projected.
  • FIG. 2 is a block diagram showing the configuration of the projector 100 according to the embodiment of the present invention.
  • the projector 100 shown in FIG. 2 includes a lens unit 110, distance measuring sensors 120A and 120B, an ADC (Analog Digital Converter) 130, a storage unit 140, a lens position adjustment unit 150, a stepping motor driving unit 160, an image. It has a processing unit 170, an LCD driving unit 180, and an LCD (Liquid Crystal Display) 190.
  • ADC Analog Digital Converter
  • LCD Liquid Crystal Display
  • the lens position adjustment unit 150 is an example of a focusing unit.
  • distance measuring sensors 120A and 120B are not specified, they are referred to as distance measuring sensors 120.
  • the lens unit 110 projects an image displayed on the LCD 190 described later on the projection surface 200 in an enlarged manner.
  • FIG. 3 is a diagram illustrating a configuration of the lens unit 110.
  • the lens unit 110 shown in FIG. 3 has a stepping motor 111 and a lens 112.
  • the lens unit 110 shown in FIG. 3 has a stepping motor 111 and a lens 112.
  • Stepping motor 111 rotates by a certain angle each time a pulse signal is input.
  • the lens 112 moves in the optical axis direction when the stepping motor 111 rotates. By moving the lens 112, the focus of the projected image can be adjusted.
  • the distance measuring sensor 120 is arranged around the lens unit 110, and as shown in FIG. 4, from the position of the distance measuring sensor 120 to the distance measuring points A and B of the image area 210 on which the projection image on the projection surface 200 is projected. Measure distance.
  • the distance measuring sensor 120A measures the distance to the distance measuring point A
  • the distance measuring sensor 120B measures the distance to the distance measuring point B.
  • the distance to each distance measuring point may be obtained by one distance measuring sensor 120A or the distance measuring sensor 120.
  • the distance to each distance measuring point is measured, for example, by emitting infrared light toward each distance measuring point on the projection surface 200 and receiving the reflected light with a PSD (Position Sensitive Detector). can do.
  • PSD Position Sensitive Detector
  • the distance measuring sensor 120 outputs a measured value of the measured distance to the ADC 130.
  • the ADC 130 performs analog / digital conversion on the measurement value output from the distance measuring sensor 120 and outputs the result to the lens position adjustment unit 150.
  • the storage unit 140 measures the distance to the projection surface, which is measured in advance, and the number of pulse signals that need to be input to the stepping motor 111 in order to move the lens 112 from the reference position to the position where the projection image is in focus. (Number of pulses) is stored.
  • the lens position adjustment unit 150 always manages how many pulses the lens 112 has moved from the reference position.
  • the lens position adjustment unit 150 stores the number of pulses output from the ADC 130 corresponding to the distance from the arrangement position of the distance measurement sensor 120 to the distance measurement points A and B on the projection surface 200 in the storage unit 140. Find each based on the relationship.
  • the lens position adjustment unit 150 moves the lens 112 at a predetermined time interval from the position where the distance measuring sensor 120 is placed to the position where the distance measuring point A or the distance measuring point B is in focus. Is output to the stepping motor drive unit 160.
  • the lens position adjusting unit 150 notifies the image processing unit 170 of a distance measuring point to be focused based on the number of pulses output to the stepping motor driving unit 160.
  • the stepping motor drive unit 160 outputs pulse signals for the number of pulses output from the lens position adjustment unit 150 to the stepping motor 111.
  • the image processing unit 170 receives an image signal of an image to be projected and a synchronization signal indicating a display period of one frame of the image from the outside.
  • the image processing unit 170 generates a video signal for driving the LCD 190, and outputs the generated video signal and the synchronization signal to the LCD driving unit 180.
  • the image processing unit 170 In the case of oblique projection, trapezoidal distortion occurs in the projected image as shown in FIG. Therefore, the image processing unit 170 generates a video signal in which the trapezoidal distortion is corrected.
  • the image processing unit 170 outputs a synchronization signal to the lens position adjusting unit 150.
  • the LCD driving unit 180 drives the LCD 190 based on the video signal and the synchronization signal output from the image processing unit 170.
  • the LCD 190 is driven by the LCD driving unit 180 to display an image.
  • the image displayed on the LCD 190 by the lens unit 110 is enlarged and projected onto the projection surface 200.
  • FIG. 5 is a flowchart showing the operation of the projector 100.
  • the stepping motor 111 moves to the reference position and enters a standby state.
  • the lens position adjustment unit 150 manages how many pulses the lens 112 has moved from the reference position. The number of pulses from this reference position is “x”.
  • the image processing unit 170 drives the LCD 190 by the LCD driving unit 180 and performs projection onto the projection surface 200.
  • the image processing unit 170 divides the image area 210 into two upper and lower image areas 210A and 210B in the vertical direction, and the distance measurement points A and A included in the image areas 210A and 210B. B is determined.
  • the distance measurement points A and B are preferably the center points of the image areas 210A and 210B, respectively.
  • the image processing unit 170 notifies the distance measurement point A to the distance measurement sensor 120A and the distance measurement point B to the distance measurement sensor 120B.
  • the distance measuring sensor 120A measures the distance “a” from the arrangement position to the distance measuring point A notified (step S301).
  • the distance measuring sensor 120B measures the distance “b” from the arrangement position to the distance measuring point B notified (step S302).
  • the lens position adjustment unit 150 calculates a distance difference “c” between the distance “a” and the distance “b” measured by the distance measuring sensors 120A and 120B (step S303).
  • the image processing unit 170 cancels the output when the black signal is output as the video signal for the image regions 210A and 210B (step S304). .
  • the lens position adjustment unit 150 obtains the pulse number “e” that needs to be input to the stepping motor 111 in order for the lens 112 to move from the reference position to the position where the projected image is in focus, corresponding to the distance “a”.
  • the lens 112 moves from the reference position to the position where the projected image is in focus by the distance to the projection surface measured by the distance measuring sensor 120. Therefore, a relationship with the number of pulses that need to be input is stored in the stepping motor 111.
  • the lens position adjustment unit 150 can obtain the pulse number “e” corresponding to the distance “a” based on the relationship stored in the storage unit 140.
  • the lens position adjustment unit 150 obtains a pulse number difference “f” between the pulse number “e” and the managed pulse number “x” (step S306).
  • the lens position adjusting unit 150 outputs the pulse number “f” to the stepping motor driving unit 160, and the stepping motor driving unit 160 inputs the pulse signal by the pulse number “f” to the stepping motor 111.
  • the stepping motor 111 rotates by the number “f” of the input pulse signals to move the lens 112 (step S307).
  • the lens position adjustment unit 150 uses the distance sensor 120 to measure the distance difference “c” calculated in step S303 and the distance difference “d” between the distance “a” and the distance “b” during normal projection. It is determined whether or not it is greater than the sum of the depth of field width “n” at the intermediate distance between the distance “a” and the distance “b” (step S308).
  • the distance difference “d” and the depth of field “n” are measured in advance and stored in the lens position adjustment unit 150.
  • the depth “n” of the depth of field is determined by the distance to the projection surface, and can be obtained by measurement in advance.
  • the lens position adjustment unit 150 can determine whether or not a projection image that is out of focus is projected by performing oblique projection exceeding the depth of field by the processing in step S308. .
  • step S308 NO
  • the projection image is in focus, and the projector 100 is The process waits until a trigger is input (step S309).
  • a predetermined time has elapsed as an example of the input trigger. In this case, every time the predetermined time elapses, the projector 100 starts processing from step S301.
  • the input trigger there is detection of the movement of the projector 100.
  • the projector 100 starts processing from step S301.
  • step S308 when the distance difference “c” is larger than the sum of the distance difference “d” and the depth of field “n” (step S308: YES), the lens position adjustment unit 150 Then, it is determined that a projection exceeding the width “n” of the depth of field is performed and a projection image that is out of focus is projected.
  • the lens position adjustment unit 150 uses the stepping motor 111 to move the lens 112 from the reference position corresponding to the distance “b” to the position where the projected image is in focus, based on the relationship stored in the storage unit 140.
  • the number of pulses “g” that needs to be input is obtained (step S310).
  • the lens position adjusting unit 150 obtains the difference “h” between the number of pulses “e” and the number of pulses “g” (step S311).
  • the lens position adjustment unit 150 notifies the image processing unit 170 that the position of the lens 112 is adjusted so as to be focused at the distance measurement point B.
  • the image processing unit 170 Upon receiving the notification from the lens position adjustment unit 150, the image processing unit 170 outputs a black signal that masks the image projected on the image region 210A to the LCD driving unit 180 as a video signal for the image region 210A (step S312). ).
  • the lens position adjusting unit 150 outputs a pulse number “h” to the stepping motor driving unit 160, and the stepping motor driving unit 160 inputs a pulse signal to the stepping motor 111 by the number of pulses “h”.
  • the stepping motor 111 rotates by the number “h” of the input pulse signals and moves the lens 112 (step S313).
  • the lens position adjustment unit 150 After the elapse of the display period of one frame, the lens position adjustment unit 150 notifies the image processing unit 170 that the position of the lens 112 is adjusted to focus at the distance measurement point A.
  • the lens position adjustment unit 150 can specify the display period of one frame based on the synchronization signal output from the image processing unit 170.
  • the image processing unit 170 outputs a black signal that masks the image projected on the image region 210B to the LCD driving unit 180 as a video signal for the image region 210B.
  • the image processing unit 170 cancels the output of the black signal for the image region 210A, and outputs a video signal for projecting an image to the LCD driving unit 180 (step S314).
  • the lens position adjusting unit 150 outputs a pulse number “ ⁇ h” to the stepping motor driving unit 160, and the stepping motor driving unit 160 inputs a pulse signal to the stepping motor 111 by the number of pulses “h”.
  • the stepping motor 111 rotates by the number “h” of the input pulse signals in the opposite direction to step S313, and moves the lens 112 (step S315).
  • step S312 to S315 is repeated for every frame, and the focused projection image is always projected on image area 210A, 210B alternately.
  • the projector 100 sequentially switches between the image area 210A and the image area 210B at predetermined time intervals, and an image is projected only in either the image area 210A or the image area 210B.
  • the video signal for masking the other image area is output.
  • the lens position adjustment unit 150 notifies the image processing unit 170 that the position of the lens 112 is adjusted so as to focus at the distance measurement point A or the distance measurement point B, and the image processing unit 170 In the example described above, the image area for projecting the image is switched in response to the notification.
  • the present invention is not limited to this.
  • the image processing unit 170 sequentially switches the image area on which the image is projected, and the lens position adjustment unit 150 causes the lens so that the image based on the video signal is focused on the image area on which the image is projected according to the switching.
  • the position 112 may be adjusted.
  • the image area 210 when oblique projection in the vertical direction is performed from a position that is vertically shifted from the position where the projector 100 is directly facing the projection surface 200, the image area 210 is vertically moved into two images.
  • the image area 210 may be divided into two areas on the left and right in the horizontal direction, or may be divided into four areas on the top, bottom, left and right. Also good.
  • how the image area 210 is divided can be set by the user of the projector 100 or can be set according to the detected inclination by mounting a sensor for detecting the inclination in the projector 100.
  • the divided image area 210 By dividing the image area 210 to the left and right, the divided image area can be obtained even when oblique projection in the horizontal direction is performed from a position that is horizontally shifted from the position where the projector 100 faces the projection plane 200 in the horizontal direction. In addition, sequentially focused images can be projected.
  • the image area 210 is divided into upper, lower, left, and right, so that the vertical and horizontal oblique projections are performed on the projection surface 200, or the projection surface 200 is divided into a spherical surface and a cylindrical shape. Sequentially focused images can be projected onto the image area.
  • the image processing unit 170 performs geometric correction of the video signal.
  • the image processing unit 170 has described the example in which the black signal is output as the video signal for the image region 210 other than the image projection region on which the image is projected.
  • the present invention is not limited to this.
  • the image processing unit 170 instead of the black signal, the image processing unit 170 outputs a video signal that projects an image having a lower brightness than the projected image projected on the image area 210 on which the projected image is focused. It may be.
  • the black signal When the black signal is output, the brightness of the projected image is halved.
  • a video signal for projecting a low-luminance image instead of a black signal, it is possible to reduce the influence of a decrease in the luminance of the projected image.
  • the images projected on the image areas 210A and 210B are masked for each frame. Therefore, when a moving image is projected, an image with smooth motion may not be projected. The problem arises. In addition, if the luminance difference between the projected images for each frame is large between when the mask is masked and when the mask is not masked, there is a problem that flicker may occur in the projected image.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Abstract

 本発明のプロジェクタは、画像信号に基づき、画像を投射面に投射するプロジェクタであって、前記画像信号による画像を複数の画像領域に分割し、所定の時間間隔ごとに順次切り替えられる前記複数の画像領域の1つについてのみ画像が投射され、該画像が投射される画像領域以外をマスクする映像信号を出力する画像処理部と、現在画像が投射されている画像領域について映像信号による画像を合焦させる合焦部と、を有する。

Description

プロジェクタおよび画像処理方法
 本発明は、投射面に画像を投射するプロジェクタおよび画像処理方法に関する。
 プロジェクタを用いて投射面に画像を投射する場合、図1Aに示すように、投射面200に対してプロジェクタ10が正対する位置から投射が行われるだけでなく、図1Bに示すように、投射面200に対してプロジェクタ10が斜め方向の位置から投射が行われることがある。
 なお、以下の説明では、投射面200に対してプロジェクタ10が正対する位置から投射が行われる状態を通常投射と称する。また、投射面200に対してプロジェクタ10が斜め方向の位置から投射が行われる状態を斜め投射と称する。
 斜め投射の場合、プロジェクタ10から、投射面200上に投射される画像(以下、投射画像と称する)の上端点までの距離と、投射画像の下端点までの距離との差は、通常投射の場合よりも大きくなる。
 特許文献1には、斜め投射が行われた場合に、投射画像を合焦するプロジェクタが記載されている。
 特許文献1に記載のプロジェクタは、特許文献1の図4に記載のように、投射する画像を表示する表示部の表示面と、表示部に表示された画像を拡大して投射するレンズの主面と、投射面と、が1箇所で交わるように表示部の傾きを調整することで、斜め投射が行われる場合にも投射画像の合焦を行う。
特開2006-352514号公報
 一般に、レンズには、投射面200の手前側および奥側に、投射画像が合焦して見える幅(被写界深度)がある。
 従って、斜め投射の場合のように、プロジェクタ10から投射画像の上端点および下端点までの距離の差が大きいと、例えば、プロジェクタ10から、下端点までの距離は、被写界深度の幅の範囲内に入るが、上端点までの距離は、被写界深度の幅の範囲から外れるということがある。
 この場合、特許文献1に記載のプロジェクタでは、表示部の傾きを調整するだけなので、レンズの被写界深度の幅を超えて投射される画像は合焦していない不明瞭な画像となり、投射画像の品質が低下するという課題がある。
 本発明の目的は、被写界深度の幅を超えて斜め投射が行われる場合にも、不明瞭な画像が投射されるのを防ぎ、投射画像の品質の低下を抑制することができるプロジェクタおよび画像処理方法を提供することにある。
 上記目的を達成するために本発明のプロジェクタは、
 画像信号に基づき、画像を投射面に投射するプロジェクタであって、
 前記画像信号による画像を複数の画像領域に分割し、所定の時間間隔ごとに順次切り替えられる前記複数の画像領域の1つについてのみ画像が投射され、該画像が投射される画像領域以外をマスクする映像信号を出力する画像処理部と、
 現在画像が投射されている画像領域について映像信号による画像を合焦させる合焦部と、を有する。
 上記目的を達成するために本発明の画像処理方法は、
 画像信号に基づき、画像を投射面に投射するプロジェクタに適用される画像処理方法であって、
 前記画像信号による画像を複数の画像領域に分割し、所定の時間間隔ごとに順次切り替えられる前記複数の画像領域の1つについてのみ画像が投射され、該画像が投射される画像領域以外をマスクする映像信号を出力し、
 現在画像が投射されている画像領域について映像信号による画像を合焦させる。
 本発明によれば、プロジェクタは、画像信号による画像を複数の画像領域に分割し、所定の時間間隔ごとに順次切り替えられる画像領域の1つについてのみ画像が投射され、画像が投射される画像領域以外についてはマスクされた映像信号を出力し、現在画像が投射されている画像領域について映像信号による画像を合焦させる。
 そのため、合焦していない不明瞭な投射画像が投射面に投射されることを防ぎ、投射画像の品質が低下するのを抑制することができる。
通常投射の状態を示す図である。 斜め投射の状態を示す図である。 本発明の一実施形態のプロジェクタの構成を示すブロック図である。 図2に示すレンズ部の構成を示す図である。 図2に示す測距センサーによる測距を説明するための図である。 図2に示すプロジェクタの動作を示すフローチャートである。 画像領域の分割の一例を示す図である。 図2に示す格納部に格納される、投射面までの距離と、投射画像が合焦するレンズ位置となるまでにステッピングモーターに入力されるパルス数との関係を示す図である。 被写界深度の幅を説明するための図である。 図2に示すレンズ位置調整部により行われるステップS308の処理を模式的に示した図である。 図2に示すプロジェクタにより投射面に投射される投射画像の一例を示す図である。
 以下に、本発明を実施するための形態について図面を参照して説明する。
 図2は、本発明の一実施形態のプロジェクタ100の構成を示すブロックである。
 図2に示すプロジェクタ100は、レンズ部110と、測距センサー120A,120Bと、ADC(Analog Digital Converter)130と、格納部140と、レンズ位置調整部150と、ステッピングモーター駆動部160と、画像処理部170と、LCD駆動部180と、LCD(Liquid Crystal Display)190と、を有する。
 なお、レンズ位置調整部150は、合焦部の一例である。
 また、測距センサー120A,120Bを特定しない場合には、測距センサー120と称する。
 レンズ部110は、後述するLCD190に表示される画像を投射面200に拡大して投射する。
 図3は、レンズ部110の構成を示す図である。
 図3に示すレンズ部110は、ステッピングモーター111と、レンズ112と、を有する。
 ステッピングモーター111は、パルス信号が入力されるたびに一定角度ずつ回転する。
 レンズ112は、ステッピングモーター111が回転することにより光軸方向に移動する。レンズ112を移動させることにより、投射画像の焦点を調整することができる。
 測距センサー120は、レンズ部110の周囲に配置され、図4に示すように、その配置位置から、投射面200上の投射画像が投射される画像領域210の測距ポイントA,Bまでの距離を測定する。
 図4の例では、測距センサー120Aは、測距ポイントAまでの距離を測定し、測距センサー120Bは、測距ポイントBまでの距離を測定する。
 なお、1つの測距センサー120Aまたは測距センサー120により、各測距ポイントまでの距離を求めるようにしてもよい。
 また、各測距ポイントまでの距離は、例えば、投射面200上の各測距ポイントに向けて赤外線を発光し、その反射光をPSD(Position Sensitive Detector:位置検出素子)で受光することで測定することができる。
 そして、測距センサー120は、測定した距離の測定値をADC130に出力する。
 ADC130は、測距センサー120から出力された測定値をアナログ/デジタル変換して、レンズ位置調整部150に出力する。
 格納部140は、予め測定された、投射面までの距離と、その距離で基準位置から投射画像が合焦する位置までレンズ112が移動するためにステッピングモーター111に入力が必要なパルス信号の数(パルス数)と、の関係を格納する。
 レンズ位置調整部150は、レンズ112が基準位置から何パルス数分移動した位置にあるかを常に管理する。
 また、レンズ位置調整部150は、ADC130から出力された、測距センサー120の配置位置から投射面200上の測距ポイントA,Bまでの距離に対応するパルス数を、格納部140に格納された関係に基づき、それぞれ求める。
 そして、レンズ位置調整部150は、所定の時間間隔ごとに、測距センサー120の配置位置から測距ポイントA、または、測距ポイントBまでの距離で合焦する位置までレンズ112が移動するのに必要なパルス数を、ステッピングモーター駆動部160に出力する。
 また、レンズ位置調整部150は、ステッピングモーター駆動部160に出力したパルス数により合焦する測距ポイントを画像処理部170に通知する。
 ステッピングモーター駆動部160は、レンズ位置調整部150から出力されたパルス数分のパルス信号をステッピングモーター111に出力する。
 画像処理部170は、投射を行う画像の画像信号と、その画像の1フレームの表示期間を示す同期信号とが、外部から入力される。
 そして、画像処理部170は、LCD190を駆動する映像信号を生成し、生成した映像信号と同期信号とをLCD駆動部180に出力する。
 なお、斜め投射の場合、図4に示すように、投射画像には台形歪みが生じる。そこで、画像処理部170は、台形歪みを補正した映像信号を生成する。
 また、画像処理部170は、同期信号をレンズ位置調整部150に出力する。
 LCD駆動部180は、画像処理部170から出力された映像信号と同期信号とに基づき、LCD190を駆動する。
 LCD190は、LCD駆動部180により駆動されることで画像を表示する。
 そして、レンズ部110によりLCD190に表示された画像が拡大されて、投射面200に投射される。
 次に、プロジェクタ100の動作について説明する。
 図5は、プロジェクタ100の動作を示すフローチャートである。
 なお、以下では、図1Bに示すように、投射面200に対して、垂直方向下側から斜め投射が行われる例を説明する。
 まず、プロジェクタ100の電源が投入され、起動を開始すると、ステッピングモーター111は、基準位置に移動し、待機した状態となる。
 レンズ位置調整部150は、レンズ112が基準位置からの何パルス数分だけ移動した位置にあるかを管理する。この基準位置からのパルス数を「x」とする。
 画像処理部170は、LCD駆動部180によりLCD190を駆動させ、投射面200への投射を行う。
 次に、画像処理部170は、図6に示すように、画像領域210を垂直方向に上下2つの画像領域210A,210Bに分割し、各画像領域210A,210B内に含まれる測距ポイントA,Bを決定する。
 なお、測距ポイントA,Bは、それぞれ画像領域210A,210Bの中心点とするのが望ましい。
 そして、画像処理部170は、測距ポイントAの位置を測距センサー120Aに、測距ポイントBの位置を測距センサー120Bに、それぞれ通知する。
 測距センサー120Aは、配置位置から通知された測距ポイントAまでの距離「a」を測定する(ステップS301)。
 測距センサー120Bは、配置位置から通知された測距ポイントBまでの距離「b」を測定する(ステップS302)。
 レンズ位置調整部150は、測距センサー120A,120Bによりそれぞれ測定された、距離「a」と距離「b」との距離差「c」を計算する(ステップS303)。
 画像処理部170は、外部から画像信号と同期信号とが入力されると、画像領域210A,210Bについて、映像信号として黒信号を出力している場合には、その出力を解除する(ステップS304)。
 レンズ位置調整部150は、距離「a」に対応する、基準位置から投射画像が合焦する位置までレンズ112が移動するためにステッピングモーター111に入力が必要なパルス数「e」を求める。
 ここで、格納部140には、図7に示すように、測距センサー120により測定された投射面までの距離と、その距離で基準位置から投射画像が合焦する位置までレンズ112が移動するためにステッピングモーター111に入力が必要なパルス数との関係が格納されている。
 従って、レンズ位置調整部150は、格納部140に格納された関係に基づき、距離「a」に対応するパルス数「e」を求めることができる。
 次に、レンズ位置調整部150は、パルス数「e」と、管理しているパルス数「x」とのパルス数の差「f」を求める(ステップS306)。
 そして、レンズ位置調整部150は、ステッピングモーター駆動部160にパルス数「f」を出力し、ステッピングモーター駆動部160は、ステッピングモーター111にパルス数「f」だけパルス信号を入力する。
 ステッピングモーター111は、入力されたパルス信号の数「f」分だけ回転し、レンズ112を移動させる(ステップS307)。
 次に、レンズ位置調整部150は、ステップS303で計算した距離差「c」が、通常投射時における距離「a」と距離「b」との距離差「d」と、測距センサー120により測定された距離「a」と距離「b」との中間の距離における被写界深度の幅「n」の和よりも大きいか否かを判定する(ステップS308)。
 ここで、距離差「d」および被写界深度の幅「n」は予め測定され、レンズ位置調整部150に格納されている。
 なお、被写界深度の幅「n」は、投射面までの距離により定まるので、予め測定により求めることができる。
 ここで、図8に示すように、被写界深度の幅を超えて斜め投射が行われると、被写界深度の幅を超える範囲の投射画像は、焦点の合っていない不明瞭なものとなる。
 従って、ステップS308の処理により、レンズ位置調整部150は、被写界深度の幅を超えた斜め投射が行われ、焦点が合っていない投射画像が投射されているか否かを判定することができる。
 距離差「c」が、距離差「d」と被写界深度の幅「n」との和以下の場合(ステップS308:NO)、投射画像は合焦しているので、プロジェクタ100は、何らかのトリガーが入力されるまで待機状態となる(ステップS309)。
 なお、入力されるトリガーの例として、所定時間の経過がある。この場合、所定時間が経過するたびに、プロジェクタ100は、ステップS301から処理を開始する。
 また、入力されるトリガーの例として、プロジェクタ100の移動の検出がある。この場合、例えば、プロジェクタ100に加速度センサーを搭載し、その加速度センサーによりプロジェクタ100の移動が検出されると、プロジェクタ100は、ステップS301から処理を開始する。
 一方、図9に示すように、距離差「c」が、距離差「d」と被写界深度の幅「n」との和より大きい場合(ステップS308:YES)、レンズ位置調整部150は、被写界深度の幅「n」を超えた投射が行われ、焦点が合っていない投射画像が投射されていると判定する。
 そして、レンズ位置調整部150は、格納部140に格納された関係に基づき、距離「b」に対応する、基準位置から投射画像が合焦する位置までレンズ112が移動するためにステッピングモーター111に入力が必要なパルス数「g」を求める(ステップS310)。
 次に、レンズ位置調整部150は、パルス数「e」とパルス数「g」とのパルス数の差「h」を求める(ステップS311)。
 そして、レンズ位置調整部150は、測距ポイントBで合焦するようにレンズ112の位置を調整する旨を画像処理部170に通知する。
 画像処理部170は、レンズ位置調整部150からの通知を受けると、画像領域210Aについて、画像領域210Aに投射される画像をマスクする黒信号を映像信号としてLCD駆動部180に出力する(ステップS312)。
 また、レンズ位置調整部150は、ステッピングモーター駆動部160にパルス数「h」を出力し、ステッピングモーター駆動部160は、ステッピングモーター111にパルス数「h」だけパルス信号を入力する。
 ステッピングモーター111は、入力されたパルス信号の数「h」分だけ回転し、レンズ112を移動させる(ステップS313)。
 1フレームの表示期間の経過後、レンズ位置調整部150は、測距ポイントAで合焦するようにレンズ112の位置を調整する旨を画像処理部170に通知する。
 なお、レンズ位置調整部150は、画像処理部170から出力された同期信号に基づき、1フレームの表示期間を特定することができる。
 そして、画像処理部170は、レンズ位置調整部150からの通知を受けると、画像領域210Bについて、画像領域210Bに投射される画像をマスクする黒信号を映像信号としてLCD駆動部180に出力する。
 また、画像処理部170は、画像領域210Aについて、黒信号の出力を解除し、画像を投射する映像信号をLCD駆動部180に出力する(ステップS314)。
 また、レンズ位置調整部150は、ステッピングモーター駆動部160にパルス数「-h」を出力し、ステッピングモーター駆動部160は、ステッピングモーター111にパルス数「h」だけパルス信号を入力する。
 ステッピングモーター111は、ステップS313とは逆方向に、入力されたパルス信号の数「h」だけ回転し、レンズ112を移動させる(ステップS315)。
 そして、図10に示すように、ステップS312からS315までの処理を1フレームごとに繰り返すことで、画像領域210A,210Bに交互に、常に、合焦した投射画像が投射される。
 このように本実施形態によれば、プロジェクタ100は、所定の時間間隔ごとに、画像領域210Aと画像領域210Bとを順次切り替えて、画像領域210Aまたは画像領域210Bのいずれか一方についてのみ画像が投射され、他方の画像領域をマスクする映像信号を出力する。
 そのため、合焦していない不明瞭な投射画像が投射されることを防ぎ、投射画像の品質が低下するのを抑制することができる。
 なお、本実施形態では、レンズ位置調整部150が、測距ポイントAまたは測距ポイントBで合焦するようにレンズ112の位置を調整する旨を画像処理部170に通知し、画像処理部170は、その通知を受けて、画像を投射する画像領域の切り替えを行う例を説明したが、これに限られるものではない。
 画像処理部170が、画像が投射される画像領域を順次切り替え、レンズ位置調整部150は、その切り替えに応じて、画像が投射される画像領域について映像信号による画像を合焦させるように、レンズ112の位置を調整するようにしてもよい。
 また、本実施形態では、投射面200に対してプロジェクタ100が正対する位置から垂直方向に上下にずれた位置から、垂直方向の斜め投射が行われる場合に、画像領域210を上下に2つの画像領域210A,210Bに分割する例を説明したが、これに限られるものではなく、画像領域210を水平方向に左右2つの領域に分割したり、上下左右4つの領域に分割したりするようにしてもよい。
 なお、画像領域210をどのように分割するかは、プロジェクタ100の使用者が設定したり、プロジェクタ100に傾きを検出するセンサーを搭載し、検出した傾きに応じて設定したりすることができる。
 画像領域210を左右に分割することで、投射面200に対してプロジェクタ100が正対する位置から水平方向に左右にずれた位置から、水平方向の斜め投射が行われる場合にも、分割した画像領域に、順次合焦した画像を投射することができる。
 また、画像領域210を上下左右に分割することにより、投射面200に対して垂直方向および水平方向の斜め投射が行われる場合や、投射面200が球面や円柱状である場合にも、分割した画像領域に、順次合焦した画像を投射することができる。
 なお、投射面200が球面や円柱状である場合には、画像処理部170により、映像信号の幾何学補正が行われる。
 また、本実施形態では、画像処理部170は、画像が投射される画像投射領域以外の画像領域210について、黒信号を映像信号として出力する例を説明したが、これに限られるものではない。
 例えば、画像処理部170は、黒信号の代わりに、投射される画像が合焦される画像領域210に投射される投射される投射画像よりも輝度の低い画像を投射する映像信号を出力するようにしてもよい。
 黒信号を出力すると、投射画像の輝度は半減する。しかし、黒信号の変わりに輝度の低い画像を投射する映像信号を出力することで、投射画像の輝度の低下の影響を軽減することができる。
 また、一般に、人間の目は、より輝度の高い画像に強く反応するため、輝度の低い投射画像が合焦していなくても、それによる投射画像の品質への影響は少ない。
 また、本実施形態では、各画像領域210A,210Bに投射される画像は、1フレームごとにマスクされるので、動画像の投射が行われる場合には、動きの滑らかな画像が投射されない可能性があるという問題が生じる。また、マスクされる場合と、マスクされない場合とで、1フレームごとの投射画像の輝度差が大きいと、投射画像にフリッカが生じる可能性があるという問題が生じる。
 このような場合、同期信号により示される1フレームの表示期間をよりも短い間隔で、投射画像の切り替えを行うことにより、上述した問題が生じるのを防ぐことができる。
 以上、実施形態を参照して本願発明を説明したが、本発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。

Claims (12)

  1.  画像信号に基づき、画像を投射面に投射するプロジェクタであって、
     前記画像信号による画像を複数の画像領域に分割し、所定の時間間隔ごとに順次切り替えられる前記複数の画像領域の1つについてのみ画像が投射され、該画像が投射される画像領域以外をマスクする映像信号を出力する画像処理部と、
     現在画像が投射されている画像領域について映像信号による画像を合焦させる合焦部と、を有するプロジェクタ。
  2.  前記画像処理部は、
     前記投射面に対して垂直方向の斜め投射が行われる場合、前記画像を垂直方向に複数の画像領域に分割する、請求項1に記載のプロジェクタ。
  3.  前記画像処理部は、
     前記投射面に対して水平方向の斜め投射が行われる場合、前記画像を水平方向に複数の画像領域に分割する、請求項1または2に記載のプロジェクタ。
  4.  前記所定の時間間隔ごとに切り替えられる1つの画像領域以外をマスクする前記映像信号は、
     前記所定の時間間隔ごとに切り替えられる1つの画像領域に投射される画像よりも輝度が低い画像を、該画像領域以外に投射する映像信号である、請求項1から3のいずれか1項に記載のプロジェクタ。
  5.  前記所定の時間間隔は、
     前記画像の1フレームの表示時間である、請求項1から4のいずれか1項に記載のプロジェクタ。
  6.  前記映像信号による画像を前記投射面に投射するレンズと、
     前記レンズの周囲に配置され、前記複数の画像領域ごとに、該配置位置から前記投射面上の該画像領域に含まれる所定の地点までの距離を測定する測距センサーと、
     前記測距センサーにより測定された距離を隔てて前記投射面に投射される画像が合焦する前記レンズの位置を格納する格納部と、をさらに有し、
     前記合焦部は、
     前記レンズの位置を、前記測距センサーにより測定された、前記配置位置から、前記所定の時間間隔ごとに切り替えられる1つの画像領域に含まれる前記所定の地点までの距離を隔てて前記投射面に投射される画像が合焦する位置に調整する、請求項1から5のいずれか1項に記載のプロジェクタ。
  7.  画像信号に基づき、画像を投射面に投射するプロジェクタに適用される画像処理方法であって、
     前記画像信号による画像を複数の画像領域に分割し、所定の時間間隔ごとに順次切り替えられる前記複数の画像領域の1つについてのみ画像が投射され、該画像が投射される画像領域以外をマスクする映像信号を出力し、
     現在画像が投射されている画像領域について映像信号による画像を合焦させる、画像処理方法。
  8.  前記投射面に対して垂直方向の斜め投射が行われる場合、前記画像を垂直方向に複数の画像領域に分割する、請求項7に記載の画像処理方法。
  9.  前記投射面に対して水平方向の斜め投射が行われる場合、前記画像を水平方向に複数の画像領域に分割する、請求項7または8に記載の画像処理方法。
  10.  前記所定の時間間隔ごとに切り替えられる1つの画像領域以外をマスクする前記映像信号は、
     前記所定の時間間隔ごとに切り替えられる1つの画像領域に投射される画像よりも輝度が低い画像を、該画像領域以外に投射する映像信号である、請求項7から9のいずれか1項に記載の画像処理方法。
  11.  前記所定の時間間隔は、
     前記画像の1フレームの表示時間である、請求項7から10のいずれか1項に記載の画像処理方法。
  12.  前記プロジェクタは、
     前記映像信号による画像を前記投射面に投射するレンズと、
     前記レンズの周囲に配置され、前記複数の画像領域ごとに、該配置位置から前記投射面上の該画像領域に含まれる所定の地点までの距離を測定する測距センサーと、を有し、
     前記測定された距離を隔てて前記投射面に投射される画像が合焦する前記レンズの位置を格納し、
     前記レンズの位置を、前記測定された、前記配置位置から、前記所定の時間間隔ごとに切り替えられる1つの画像領域に含まれる前記所定の地点までの距離を隔てて前記投射面に投射される画像が合焦する位置に調整する、請求項7から11のいずれか1項に記載の画像処理方法。
PCT/JP2009/066946 2009-09-29 2009-09-29 プロジェクタおよび画像処理方法 WO2011039837A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011533977A JP5317238B2 (ja) 2009-09-29 2009-09-29 プロジェクタおよび画像処理方法
PCT/JP2009/066946 WO2011039837A1 (ja) 2009-09-29 2009-09-29 プロジェクタおよび画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/066946 WO2011039837A1 (ja) 2009-09-29 2009-09-29 プロジェクタおよび画像処理方法

Publications (1)

Publication Number Publication Date
WO2011039837A1 true WO2011039837A1 (ja) 2011-04-07

Family

ID=43825694

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/066946 WO2011039837A1 (ja) 2009-09-29 2009-09-29 プロジェクタおよび画像処理方法

Country Status (2)

Country Link
JP (1) JP5317238B2 (ja)
WO (1) WO2011039837A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015138084A (ja) * 2014-01-21 2015-07-30 株式会社リコー 映像ディスプレイ装置および映像ディスプレイシステム
DE102021211052A1 (de) 2021-09-30 2023-03-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Einstellbare projektionsvorrichtung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005070687A (ja) * 2003-08-28 2005-03-17 Nec Viewtechnology Ltd オートフォーカス機能をもつプロジェクタ
JP2006099115A (ja) * 2005-09-26 2006-04-13 Casio Comput Co Ltd 撮影機能付投射装置、及び投射画像撮影システム
JP2007316461A (ja) * 2006-05-29 2007-12-06 Seiko Epson Corp プロジェクタ及び画像投写方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3941379B2 (ja) * 2000-11-02 2007-07-04 セイコーエプソン株式会社 投射型立体表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005070687A (ja) * 2003-08-28 2005-03-17 Nec Viewtechnology Ltd オートフォーカス機能をもつプロジェクタ
JP2006099115A (ja) * 2005-09-26 2006-04-13 Casio Comput Co Ltd 撮影機能付投射装置、及び投射画像撮影システム
JP2007316461A (ja) * 2006-05-29 2007-12-06 Seiko Epson Corp プロジェクタ及び画像投写方法

Also Published As

Publication number Publication date
JPWO2011039837A1 (ja) 2013-02-21
JP5317238B2 (ja) 2013-10-16

Similar Documents

Publication Publication Date Title
EP2590019B1 (en) Projector device, distortion correction method, and distortion correction program
US20140285778A1 (en) Projection apparatus, projection method, and projection program medium
EP2590018B1 (en) Projector device, distortion correction method, and distortion correction program
JP2001215642A (ja) マルチディスプレイ装置
JP2014187531A (ja) 投影装置、投影方法及び投影プログラム
US20110298828A1 (en) Projection display apparatus
JP5317238B2 (ja) プロジェクタおよび画像処理方法
JP2007065542A (ja) 画像投写装置
JP4689948B2 (ja) プロジェクタ
WO2006077671A1 (ja) プロジェクタ装置
JP2008203491A (ja) プロジェクタ
JP5029444B2 (ja) 投射型画像表示装置
JP4474144B2 (ja) 画像投影装置
JP2005150818A (ja) 歪補正手段を有するコンピュータを備えたプロジェクタシステム
JP3709405B2 (ja) 傾斜角度測定装置を有するプロジェクタ
KR20120111412A (ko) 화상투영장치
JP3730979B2 (ja) 傾斜角度測定装置を有するプロジェクタ
JP3716264B2 (ja) 台形歪補正手段を備えたプロジェクタ
JP5017837B2 (ja) 画像表示装置
JP2008211353A (ja) プロジェクタ、プログラム、情報記憶媒体および画像歪み補正方法
JP4535749B2 (ja) 距離傾斜角度測定装置を有するプロジェクタ
JP2005351960A (ja) 撮像装置
CN116016877A (zh) 投影校正方法、投影设备、投影系统以及存储介质
JP2005159828A (ja) 台形歪補正手段を備えたプロジェクタ
JP2006186469A (ja) 投射型表示装置および投射型表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09850028

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011533977

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09850028

Country of ref document: EP

Kind code of ref document: A1