WO2022064932A1 - 投写装置 - Google Patents

投写装置 Download PDF

Info

Publication number
WO2022064932A1
WO2022064932A1 PCT/JP2021/030940 JP2021030940W WO2022064932A1 WO 2022064932 A1 WO2022064932 A1 WO 2022064932A1 JP 2021030940 W JP2021030940 W JP 2021030940W WO 2022064932 A1 WO2022064932 A1 WO 2022064932A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
optical system
image
focus
region
Prior art date
Application number
PCT/JP2021/030940
Other languages
English (en)
French (fr)
Inventor
力 山本
和紀 井上
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022551211A priority Critical patent/JP7408829B2/ja
Priority to CN202190000756.XU priority patent/CN220323624U/zh
Publication of WO2022064932A1 publication Critical patent/WO2022064932A1/ja
Priority to US18/183,885 priority patent/US20230213845A1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/04Reversed telephoto objectives
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/16Optical objectives specially designed for the purposes specified below for use in conjunction with image converters or intensifiers, or for use with projectors, e.g. objectives for projection TV
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/18Optical objectives specially designed for the purposes specified below with lenses having one or more non-spherical faces, e.g. for reducing geometrical aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/147Optical correction of image distortions, e.g. keystone
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/53Means for automatic focusing, e.g. to compensate thermal effects

Definitions

  • the technology of this disclosure relates to a projection device.
  • Japanese Patent Application Laid-Open No. 2017-187572 describes an image projection device capable of projecting an image on a curved surface to be projected, and adjusts the focus on a first region including an optical axis position of a projection optical system.
  • An image projection device including a control unit that controls the drive of the second focus adjustment unit is described.
  • One embodiment according to the technique of the present disclosure provides a projection device capable of autofocusing a projected image projected over a wide range at low cost without increasing the size of the device.
  • the projection apparatus of the present disclosure has a display element for displaying an image, a projection optical system for projecting an image to form a projection image, and an imaging optical system for photographing a first region including an optical axis of the projection optical system in the projection image.
  • the focus adjustment is controlled for the second region of the projected image that does not include the optical axis. Equipped with a processor, it is possible to change the position of the projected image by changing the relative position of at least a part of the projection optical system and the display element, and the longest diameter of the display area in the display element is H1, projection.
  • the projection apparatus of the present disclosure preferably satisfies at least one of the following conditional expressions (1-1) and (2-1). 3 ⁇ H1 /
  • the long side direction of the projected image and the short side direction of the first region are parallel.
  • the projected image may be an image for measuring the projection distance of the projected image.
  • the projection optical system may be configured so that the focus can be adjusted in the third region, which is the entire projected image.
  • the movable portion for the focus adjustment in the second region and the third region can be adjusted. It is preferable that it is different from the movable part at the time of focus adjustment.
  • the projection optical system has at least one optical path deflecting member that deflects the optical path, and a part of the projection optical system can rotate around the optical axis of the projection optical system and is located on the magnifying side of the optical path deflecting member on the most expanding side. It may be configured so that the photographing unit is arranged.
  • parallel or “vertical”, respectively, includes perfectly parallel or perfectly vertical, as well as substantially parallel or generally tolerable errors in the art to which the techniques of the present disclosure belong. Refers to almost vertical.
  • FIG. 1 shows the usage state of the projection device 10 according to the embodiment of the technique of the present disclosure.
  • the projection device 10 includes a projection unit 11, a photographing unit 12, and a main body 13.
  • the main body 13 includes a display element 14 and a light source unit 15 inside.
  • FIG. 1 conceptually shows the display element 14 and the light source unit 15.
  • the display element 14 displays an image.
  • the projection unit 11 projects an enlarged image of the image displayed by the display element 14 on the screen 16 as a projection image 18.
  • the photographing unit 12 photographs a region near the optical axis of the projection optical system 1 in the projection image 18.
  • the screen 16 means an object on which the projected image 18 is projected.
  • the screen 16 may be a dedicated screen, a wall surface of a room, a floor surface, a ceiling, or the like. Further, when the projection device 10 is used outdoors, the outer wall of the building and the like are also included in the screen 16.
  • FIG. 2 schematically shows a schematic configuration diagram of the projection device 10.
  • the projection device 10 includes a projection focus mechanism 21, a shooting focus mechanism 22, a lens shift mechanism 24, a processor 26, and an operation unit 28.
  • the light source unit 15 can be configured as follows as an example.
  • the light source unit 15 includes a lamp, a rotation color filter, and an illumination optical system.
  • the lamp emits white light.
  • the rotation color filter is provided with three color filters of blue, green, and red on the circumference. When the rotation color filter rotates, the filter of each color is selectively inserted in the optical path of the white light emitted by the lamp. As a result, white light is selectively converted into blue light, green light, and red light in a time-division manner.
  • the illumination optical system acts to enhance the uniformity of the light amount distribution in the cross section perpendicular to the optical axis with respect to the light emitted from the rotating color filter, and guides the light to the display element 14.
  • a DMD Digital Micromirror Device: registered trademark
  • the DMD has a plurality of micromirrors capable of changing the reflection direction of the light emitted from the light source unit 15, and is an image display element in which each micromirror is arranged two-dimensionally on a pixel-by-pixel basis.
  • the DMD performs optical modulation according to the image by changing the direction of each micromirror according to the image and switching on / off the reflected light of the light from the light source unit 15.
  • the projection unit 11 includes a projection optical system 1 and a projection focus mechanism 21.
  • the projection optical system 1 is composed of a plurality of optical elements.
  • the projection optical system 1 of this example includes a plurality of lenses arranged along the optical axis AX1 of the projection optical system 1.
  • FIG. 2 conceptually shows a plurality of lenses included in the projection optical system 1.
  • the projection optical system 1 projects an image displayed by the display element 14 onto the screen 16 to form a projection image 18.
  • the focus group 1A is a movable portion for performing focus adjustment on a region of the projected image 18 that does not include the optical axis AX1.
  • the projection focus mechanism 21 is electrically connected to the processor 26, and moves the focus group 1A along the optical axis AX1 based on the drive signal from the processor 26. As a result, the focus is adjusted for the above area.
  • the projection focus mechanism 21 includes, for example, an actuator (not shown) such as a motor.
  • the photographing unit 12 is used for measuring the projection distance of the projected image 18.
  • the “projection distance” is the distance from the optical element on the screen 16 side to the screen 16 on the optical path of the projection optical system 1.
  • the photographing unit 12 includes a photographing optical system 2, an image pickup element 3, and a photographing focus mechanism 22.
  • the photographing optical system 2 photographs a region including the optical axis AX1 of the projection optical system 1 in the projection image 18, and forms an image of the region.
  • the image sensor 3 captures an image imaged by the photographing optical system 2.
  • the image pickup device 3 is electrically connected to the processor 26.
  • the image pickup device 3 sends a captured image, which is an image of the captured image, to the processor 26.
  • a CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • the photographing optical system 2 includes a plurality of lenses arranged along the optical axis AX2 of the photographing optical system 2.
  • FIG. 2 conceptually shows a plurality of lenses included in the photographing optical system 2.
  • a part of the plurality of lenses included in the photographing optical system 2 functions as a focus group 2A that moves during focus adjustment.
  • the photographing focus mechanism 22 is electrically connected to the processor 26, and moves the focus group 2A along the optical axis AX2 based on the drive signal from the processor 26. As a result, the focus of the photographing optical system 2 is adjusted.
  • the photographing focus mechanism 22 includes, for example, an actuator (not shown) such as a motor.
  • the lens shift mechanism 24 is electrically connected to the processor 26.
  • the lens shift mechanism 24 moves the projection unit 11 relatively parallel to the display element 14 in a plane perpendicular to the optical axis AX1 based on the drive signal from the processor 26 (hereinafter, this operation is referred to as lens shift).
  • the projection optical system 1 moves relative to the display element 14 in the direction perpendicular to the optical axis AX1.
  • the position of the projection image 18 on the screen 16 can be changed.
  • changes in the position of the projected image 18 are schematically shown by arrows in the vertical direction and the horizontal direction.
  • the lens shift mechanism 24 includes, for example, an actuator (not shown) such as a solenoid or a motor.
  • the photographing unit 12 is fixedly arranged on the upper surface of the projection unit 11, for example. Therefore, when the lens shift is performed, the photographing unit 12 also moves integrally with the projection unit 11.
  • "Move integrally” means to move in the same amount and in the same direction at the same time.
  • the processor 26 adjusts the focus of the photographing optical system 2 when the photographing optical system 2 takes a picture. Further, the processor 26 adjusts the focus of the projected image 18 not including the optical axis AX1 based on the information acquired from the photographing unit 12 at the time of the above photographing.
  • the processor 26 of this example adjusts the focus of the photographing optical system 2 by using the contrast detection method. Specifically, the processor 26 sends a drive signal to the shooting focus mechanism 22, moves the focus group 2A, and analyzes the captured image input from the image pickup element 3 at any time to acquire the contrast characteristics of the captured image.
  • the processor 26 sets the state in which the contrast is maximized as the in-focus state of the photographing optical system 2, causes the photographing optical system 2 to take an image in the in-focus state, and acquires the position information of the focus group 2A in the in-focus state.
  • the processor 26 derives a projection distance from the position information of the focus group 2A, and sends a drive signal for performing focus adjustment according to the derived projection distance to the projection focus mechanism 21.
  • the processor 26 controls the focus adjustment for the region of the projected image 18 not including the optical axis AX1 by moving the focus group 1A by the amount of movement according to the drive signal.
  • the processor 26 is, for example, a CPU (Central Processing Unit), and by executing a control program in cooperation with a memory (not shown), the projection focus mechanism 21, the shooting focus mechanism 22, and the lens shift mechanism 24 Control each part including.
  • the operation unit 28 accepts the user's operation input.
  • the operation unit 28 includes, for example, an operation switch and a turn signal key.
  • the operation switch is, for example, a power switch, an adjustment switch, or the like.
  • the direction indicating key is used, for example, to specify the moving direction and the moving amount of the projection unit 11 in the lens shift.
  • the operation unit 28 may be provided in the main body unit 13, or may be provided as a remote control device separate from the main body unit 13.
  • an operation signal is input to the processor 26.
  • the processor 26 controls each part based on the operation signal.
  • the projection optical system 1 included in the projection device 10 is an optical system having a very wide angle of view.
  • the projection device 10 having the lens shift function has a variable position of the projection image 18 on the screen 16, the area in which the projection image 18 can be projected (hereinafter referred to as the projectable area) is very wide. .. Further, in recent years, the projection image 18 has been improved in definition.
  • the projection optical system 1 is an optical system having a very wide angle of view
  • only the region near the optical axis AX1 of the projection image 18 is photographed by the photographing unit 12 to perform autofocus. conduct.
  • an optical system having a very wide angle of view such as the projection optical system 1 of this example, has a short focal length and therefore a deep depth of field.
  • the region near the optical axis AX1 of the projected image 18 is in a state close to the deep focus state, and even if the projection distance changes, the focused state, that is, the so-called in-focus state is maintained. be.
  • the influence of curvature of field and the like cannot be ignored. Therefore, when the projection distance changes, a state of being out of focus, a so-called out-of-focus state, occurs. Therefore, of the projected image 18, only the region near the optical axis AX1 in the focused state is photographed by the photographing unit 12, the projection distance is derived based on the photographed information, and the optical axis of the projected image 18 is derived using this projection distance. By adjusting the focus on a region remote from AX1, it is possible to obtain a projected image 18 in which the entire projected image 18 is almost in focus.
  • FIG. 3 schematically shows how the photographing unit 12 photographs an area near the optical axis AX1.
  • the projection optical system 1 has a large maximum half-angle of view ⁇ 1, and the projectable area 30 on the screen 16 is also wide.
  • the photographing area 34 which is an area to be photographed by the photographing unit 12, is only a part of the wide range projectable area 30.
  • FIG. 3 shows, as an example of the projection optical system 1, an optical system including a plurality of lenses and two mirrors R1 and mirrors R2 for deflecting an optical path to form an optical path having a bent shape.
  • the mirror R1 and the mirror R2 are examples of the optical path deflection member of the technique of the present disclosure. Note that FIG. 3 is a schematic diagram, and the projectable area 30, the photographing area 34, and the maximum half-angle of view ⁇ 1 are not drawn in accurate sizes.
  • the direction of the optical axis AX1 of the projection optical system 1 is the Z direction
  • the direction perpendicular to the Z direction and the vertical direction in FIG. 3 is the Y direction
  • the direction is perpendicular to both the Z direction and the Y direction. Is in the X direction.
  • the direction of the optical axis AX1 is the direction of the optical axis of the optical element closest to the screen 16 on the optical path of the projection optical system 1.
  • the inside of the screen 16 is the inside of the XY plane.
  • the screen side and the display element side on the optical path of the projection optical system 1 may be referred to as an enlargement side and a reduction side, respectively.
  • FIG. 4 shows an example of a projectable area 30, a projection image 18, a focus area 32, and a shooting area 34 on the screen 16.
  • FIG. 4 shows an example when the center of the projected image 18 is on the optical axis AX1.
  • the optical axis AX1 corresponds to the intersection of the X-axis and the Y-axis in FIG.
  • the in-focus area 32 is an area that can be regarded as maintaining the in-focus state even if the projection distance changes.
  • the focusing region 32 is a circular region centered on the optical axis AX1.
  • the photographing area 34 is a rectangle inscribed in the focusing area 32.
  • most of the area of the projected image 18 overlaps with the in-focus area 32, and the area of the projected image 18 not overlapped with the in-focus area 32 (the area with dot hatching) is small.
  • FIG. 6 is an example of a projectable area 30, a projected image 18, a focused area 32, and a shooting area 34 on a screen 16 when a lens shift is performed from the state of FIG. 4 and the projected image 18 is moved upward. Shown in 5.
  • the area and the position of the area of the projection image 18 that does not overlap with the in-focus area 32 are different, but the shooting area 34 is the same, and both shooting areas 34 have the optical axis AX1. Includes nearby areas.
  • the projection device 10 even if the projection image 18 is located at an arbitrary position in the projectable area 30, it is not necessary to shoot the entire projectable area 30, and only the inside of the in-focus area 32 near the optical axis AX1 is captured. Since it is only necessary to take a picture, the size of the device can be reduced.
  • the projection device 10 is configured to satisfy the following conditional expression (1) when the longest diameter of the display area 14A in the display element 14 is H1 and the focal length of the projection optical system 1 is f1. ing.
  • the projection optical system 1 becomes an optical system having a very short focal length, and therefore the depth of field becomes very deep and it is easy to have a very wide angle of view. It becomes.
  • the conditional expression (1) even if the focus is adjusted on the peripheral portion of the projectable region 30, the region near the optical axis AX1 can be kept in focus. 2.2 ⁇ H1 /
  • the depth of field is relatively shallow, so projection is performed.
  • the focus is adjusted on the peripheral portion of the possible region 30, the focus shift occurs in the region near the optical axis AX1.
  • the projection device 10 further satisfies the following conditional expression (1-1).
  • the conditional expression (1-1) it is advantageous to suppress the increase in size of the projection optical system 1.
  • the maximum half angle of view of the projection optical system 1 is ⁇ 1
  • the focal length of the image pickup optical system 2 is f2. It is configured to satisfy the following conditional expression (2).
  • ⁇ 1 is the maximum half angle of view that can be projected. Since
  • the conditional expression (2) is an expression relating to the photographing area 34 having a suitable size. By not exceeding the upper limit of the conditional expression (2), it is advantageous to suppress the increase in size of the photographing optical system 2. 0 ⁇ H2 / (f2 ⁇ tan ⁇ 1)
  • the projection device 10 further satisfies the following conditional expression (2-1). 0 ⁇ H2 / (f2 ⁇ tan ⁇ 1)
  • the "longest diameter of the display region 14A in the display element 14" regarding H1 is the point farthest from the optical axis AX1 in the radial direction in the display region 14A whose center of gravity coincides with the optical axis AX1 and the optical axis AX1. It means a value that is twice the distance from.
  • the diagonal length of the display area 14A is set to H1.
  • the diameter of the display area 14A is H1
  • the major diameter is H1.
  • the "display area 14A in the display element 14" means an area in which an image is actually displayed.
  • the display element 14 includes a display unit having an aspect ratio of 4: 3 in which a plurality of pixels are arranged and displays an image having an aspect ratio of 3: 2 in a part of the display unit
  • the display area 14A is , Refers to the area where an image with an aspect ratio of 3: 2 is displayed. Therefore, the diameter of the display element 14 and the longest diameter of the display area 14A do not always match.
  • the "longest diameter of the image pickup region 3A in the image pickup element 3" regarding H2 is the point farthest from the optical axis AX2 in the radial direction and the optical axis AX2 in the image pickup region 3A whose center of gravity coincides with the optical axis AX2. It means a value that is twice the distance from. As an example, as shown in FIG. 7, when the imaging region 3A is rectangular, the diagonal length of the imaging region 3A is set to H2. Further, for example, when the imaging region 3A is a perfect circle, the diameter of the imaging region 3A is H2, and when the imaging region 3A is an ellipse, the major axis is H2.
  • FIG. 8 shows an example of the projected image 18 and the shooting area 34 when the lens shift is performed from the state of FIG. 4 and the projected image 18 moves to the right.
  • the projected image 18 and the photographing area 34 are both rectangular.
  • FIG. 9 shows an example in which the projected image 18 and the shooting area 34 are rectangular, and the long side direction of the projected image 18 and the short side direction of the shooting area 34 are perpendicular to each other.
  • the long side direction of the projected image 18 and the short side direction of the shooting area 34 are parallel to each other, it becomes easier to shoot in a smaller shooting area 34 as compared with the case where these are made vertical.
  • an image for measuring the projection distance of the projection image 18 may be used.
  • the display element 14 may display a chart or the like composed of black and white geometric figures.
  • the focus adjustment of the photographing optical system 2 can be performed more easily and with higher accuracy than in the case of using an image of a landscape or a person.
  • FIG. 10 shows a projection image 18 composed of a black and white line pattern as an example of an image for distance measurement. This is because the image for distance measurement is often a monochrome binarized image, which is advantageous for detecting contrast as compared with an image of a landscape or a person having a relatively large number of halftones. ..
  • the processor 26 monitors whether or not the projected image 18 is projected (step S10).
  • the processor 26 continues monitoring while the projected image 18 is not projected (step S10: NO).
  • the processor 26 determines that the projected image 18 is projected (step S10: YES)
  • the processor 26 sends a drive signal to the shooting focus mechanism 22, and while moving the focus group 2A, the image pickup input from the image pickup element 3 is performed.
  • the image is analyzed at any time to acquire the contrast characteristics of the captured image.
  • the processor 26 sets the state in which the contrast is maximized as the focusing state of the photographing optical system 2, and causes the photographing optical system 2 to photograph the region near the optical axis AX1 of the projection image 18 in the focusing state (step S11).
  • the processor 26 acquires the focus position information of the photographing optical system 2 in the focused state (step S12). For example, the processor 26 counts the drive pulses input to the actuator of the photographing focus mechanism 22, and detects the movement amount of the focus group 2A based on the counted number of drive pulses. If the amount of movement of the focus group 2A from the reference position can be detected, the position of the focus group 2A can be detected. Alternatively, when the photographing focus mechanism 22 is configured to include a sensor (not shown) for detecting the movement amount of the focus group 2A, the processor 26 detects the movement amount based on the signal output by the sensor. You may.
  • the sensor for example, a potentiometer, a linear encoder, or the like for detecting the amount of movement of the projection optical system 1 from the reference position can be used.
  • the output value from the sensor is an analog value
  • the output value is input to the processor 26 after A / D conversion (Analog to Digital Conversion).
  • the processor 26 derives the projection distance from the acquired position information (step S13). For example, a look-up table corresponding to the position of the focus group 2A and the projection distance is stored in the memory provided in the processor 26. The processor 26 derives the projection distance by referring to this look-up table.
  • the processor 26 acquires the position information of the projected image 18 on the screen 16 (step S14). For example, the processor 26 counts the drive pulses input to the actuator of the lens shift mechanism 24, and detects the movement amount of the projection unit 11 based on the counted number of drive pulses. If the amount of movement of the projection unit 11 from the reference position can be detected, the relative position between the display element 14 and the projection unit 11 can be detected, and the position information of the projection image 18 can be acquired. Alternatively, when the lens shift mechanism 24 is configured to include a sensor (not shown) for detecting the movement amount of the projection unit 11, the processor 26 detects the movement amount based on the signal output by the sensor. You may.
  • the sensor for example, a potentiometer and a linear encoder for detecting the amount of movement of the projection unit 11 from the reference position can be used.
  • the output value from the sensor is an analog value
  • the output value is input to the processor 26 after A / D conversion (Analog to Digital Conversion).
  • the position information of the projected image 18 is, for example, the coordinates of the center point of the projected image 18 in the XY plane, the coordinates of the point farthest from the optical axis AX1 of the projected image 18 (hereinafter referred to as the farthest point), and the like. be.
  • the processor 26 adjusts the focus of the region remote from the optical axis AX1 of the projection image 18 based on the projection distance derived in step S13 and the position information of the projection image 18 acquired in step S14 (step S15), and performs processing. finish.
  • a look-up table in which the projection distance, the coordinates of each point of the projection image 18 in the XY plane, and the position of the focus group 1A correspond to each other is stored in the memory provided in the processor 26.
  • the position of the focus group 1A in which each point of the projected image 18 is in the focused state is recorded for each combination of the projection distance and the coordinates of each point.
  • the processor 26 derives the position of the focus group 1A by referring to this look-up table.
  • which point of the projected image 18 to derive the position of the focus group 1A may be set in advance. For example, it may be the farthest point, or it may be 80% of the distance from the optical axis AX1 to the farthest point in the radial direction from the optical axis AX1.
  • the processor 26 sends a drive signal to the projection focus mechanism 21 so as to move the focus group 1A to the derived position.
  • the projection focus mechanism 21 moves the focus group 1A based on this drive signal.
  • the device since it is only necessary to shoot the vicinity of the optical axis AX1, it is possible to configure the device in a compact size at a lower cost than the method of shooting the entire projectable area and performing autofocus. can. Further, according to the present embodiment, it is possible to perform autofocus on an accurate position of the projected image 18 in a wide range as compared with a method of performing autofocus based on distance measurement using a laser beam.
  • a process for determining the flatness of the projected image 18 may be added between steps S10 and S11.
  • the projection optical system 1 projects a specific chart for determining flatness such as a grid chart
  • the processor 26 draws a line from the captured image obtained by photographing the projection image 18 of the chart by the photographing optical system 2. Distortion is detected.
  • the processor 26 detects the number of distorted points and / or the amount of distortion, and compares these predetermined threshold values with the detected values. If the detected value does not exceed the threshold value, the processor 26 proceeds to the process of step S11.
  • the processor 26 divides the shooting area 34 into a plurality of areas, detects the number of distorted points and / or the amount of distortion for each area, and these predetermined threshold values. And the detected value are compared. The processor 26 extracts only the areas where the detected value does not exceed the threshold value, and performs the process of step S11 using only these areas. If there is no area where the detected value does not exceed the threshold value, the processor 26 determines that the flatness of the projected image 18 is low, and displays an error message indicating that automatic autofocus is not possible (not shown). ).
  • a plurality of specific charts having different resolutions may be prepared, and a process of switching the chart according to the contrast value may be added in step S11.
  • the processor 26 compares a predetermined contrast threshold value with the acquired contrast value. If the acquired contrast value exceeds the threshold value, the processor 26 performs the process of step S11. When the acquired contrast value is equal to or less than the threshold value, the processor 26 selects a chart having a lower resolution than the projected chart from the plurality of prepared charts, projects the chart through the projection unit 11, and steps. The process of S11 is performed. If the contrast value of any of the prepared charts is equal to or less than the threshold value, the processor 26 may detect the boundary between the projected image 18 and the screen 16 and use this boundary instead of the chart.
  • step S11 when the contrast characteristic is acquired, the movement amplitude of the focus group 2A of the photographing optical system 2 is increased, and after the state where the contrast is maximized is obtained, the movement amplitude of the focus group 2A is reduced again.
  • the state where the contrast is maximized may be detected and acquired with high accuracy. Since the projected image 18 during the autofocus operation is a still image rather than a moving image, the above method can be adopted for high accuracy. This is effective when high accuracy is prioritized over high speed autofocus.
  • the photographing area 34 may be divided into a plurality of areas, and the average value may be obtained from the calculation results such as the contrast of each area and used.
  • the photographing area 34 may be divided into a plurality of areas, a contrast value may be calculated for each area, and only those areas in which this value exceeds a predetermined threshold value may be adopted. That is, the data in the area of the abnormal value that is equal to or less than the threshold value may be excluded.
  • the photographing area 34 may be divided into a plurality of areas, and only a part of the areas may be used according to the relative positions of the projected image 18 and the photographing area 34.
  • This method can shorten the time required for autofocus as compared with the method using the entire shooting area 34. For example, when the center of the projected image 18 is on the optical axis AX1 as in the example of FIG. 4, only the image in the central area of the photographing region 34 may be used. Further, when only the area around the photographing area 34 is superimposed on the projected image 18 as in the example of FIG. 5, only the area around the photographing area 34 may be used. By not using the area of the photographing region 34 that is not superimposed on the projected image 18, it is possible to contribute to improving the accuracy of the focus adjustment.
  • step S11 when the lens shift amount is equal to or less than a predetermined threshold value, it is considered that there are many overlapping portions between the projected image 18 and the photographing region 34, and the focus adjustment of the photographing optical system 2 is performed only once.
  • the lens shift amount exceeds a predetermined threshold value, the noise ratio of the signal becomes high because the overlapping portion between the projected image 18 and the photographing area 34 is small, so that the focus adjustment of the photographing optical system 2 is performed a plurality of times.
  • the processor 26 drives the lens shift mechanism 24 so that the lens shift amount is equal to or less than the predetermined limit threshold, and takes a picture. After adjusting the focus of the optical system 2, the lens shift mechanism 24 is driven to return to the initial lens shift amount. In this case, as the position information of the projected image 18 in step S14, the information corresponding to the initial lens shift amount is used. Alternatively, when the lens shift amount exceeds a predetermined limit threshold value, the processor 26 displays an instruction message on the display unit (not shown) to reduce the lens shift amount, or the automatic autofocus is set. An error message may be displayed indicating that it is not possible.
  • the optical state of the photographing optical system 2 may be appropriately set according to the photographing conditions.
  • the aperture value and / or the shutter speed of the photographing optical system 2 may be appropriately set according to the illuminance and / or the intensity of the external light of the projected image 18 to obtain an appropriate exposure for shooting.
  • a zoom optical system may be used as the photographing optical system 2, and the zoom state may be changed according to the projected image 18 to obtain an appropriate shooting resolution and shooting range.
  • the photographing optical system 2 may be set to the telephoto state, and when the lens shift amount is large, the photographing optical system 2 may be set to the wide-angle state.
  • the projection optical system 1 may be configured so that the focus can be adjusted for the entire region of the projection image 18.
  • the movable portion for adjusting the focus of the entire region of the projected image 18 is configured to be different from the movable portion for adjusting the focus of the region not including the optical axis AX1 (focus group 1A in the above example). .. According to this configuration, the focus adjustment of the entire projected image 18 can be performed better.
  • FIG. 12 An example of this configuration is shown in FIG. 12 as a modified example.
  • the projection device 110 shown in FIG. 12 is different from the projection device 10 of FIG. 2 in that the projection unit 11 is replaced with the projection unit 111.
  • the projection unit 111 of FIG. 12 is different from the projection unit 11 of FIG. 2 in that it includes a projection focus mechanism 23 and a part of the lens of the projection optical system 1 functions as the focus group 1B.
  • the focus group 1B is a lens group different from the focus group 1A, and is arranged on the reduction side of the focus group 1A.
  • the projection focus mechanism 23 is electrically connected to the processor 26.
  • the projection focus mechanism 23 moves the focus group 1B along the optical axis AX1 of the projection optical system 1 based on the drive signal from the processor 26. As a result, the focus is adjusted for the entire area of the projected image 18.
  • the projection focus mechanism 23 includes, for example, an actuator (not shown) such as a motor.
  • the entire projection optical system 1 may be used as a movable portion, and this movable portion may be moved with respect to the display element 14.
  • the variation in the distance between the mount of the projection optical system 1 and the display element 14 can be adjusted by making the entire projection optical system 1 a movable portion.
  • the projection optical system 1 has at least one optical path deflection member that deflects the optical path, and a part of the projection optical system 1 is rotatable around the optical axis of the projection optical system 1. It may be configured as follows.
  • FIG. 13 is a diagram showing a state in which the mirror R2 of the projection optical system 1 of FIG. 3 and the optical element on the reduction side of the mirror R2 are rotated by 90 degrees around the Y axis.
  • the optical element on the reduction side of the mirror R2 and the mirror R2 is shown as a rectangle.
  • the projection optical system 1 has an optical path deflecting member, so that the optical path has a bent shape, and it is easy to partially rotate the optical path. By making a part of the projection optical system 1 rotatable, the projection direction can be changed without changing the orientation of the main body 13, so that the usefulness can be enhanced.
  • the projection optical system 1 has an optical path deflection member and a part of the projection optical system 1 is rotatable around the optical axis of the projection optical system 1, it is the most enlarged side. It is preferable that the photographing unit 12 is arranged on the enlarged side of the optical path deflection member. With this configuration, even if a part of the projection optical system 1 is rotated, the photographing unit 12 can be easily positioned at the enlarged side portion of the projection optical system 1 and always near the optical axis AX1 on the screen 16. It becomes easy to shoot.
  • FIG. 14 shows a structural cross-sectional view of an embodiment of the projection optical system according to the technique of the present disclosure.
  • FIG. 14 shows the luminous fluxes having an angle of view of 0, an intermediate angle of view, and a maximum angle of view.
  • the projection optical system 101 of FIG. 14 has a linear optical path excluding the mirror R1 and the mirror R2 from the projection optical system 1 of FIG.
  • the projection optical system 101 includes lenses L1 to L16, an aperture stop St, lenses L17 to L20, and an optical member PP1 in order from the enlargement side to the reduction side along the optical axis AX1.
  • the optical member PP1 is a member that does not have a refractive power assuming a prism or the like.
  • the optical member PP1 is not an essential component.
  • the position of the surface of the optical member PP1 on the reduction side coincides with the position of the image display surface of the display element 14.
  • An intermediate image MI is formed inside the projection optical system 101.
  • the numerical data of the projection optical system 101 the basic lens data is shown in Table 1, the specifications are shown in Table 2, and the aspherical coefficient is shown in Table 3. In each table shown below, numerical values rounded with predetermined digits are listed. The numerical data of the projection optical system 101 shown below are standardized so that the absolute value of the focal length of the projection optical system 101 is 1.00. The optical system can exhibit the same performance even if it is proportionally expanded or contracted.
  • screen is entered in the column of the surface number of the surface corresponding to the screen 16.
  • the surface number column shows the surface number when the enlargement side surface of the lens on the enlargement side is the first surface and the number is increased one by one toward the reduction side
  • the curvature radius column shows the surface number.
  • the surface spacing column indicates the surface spacing on the optical axis AX1 between each surface and the surface adjacent to the reduced side thereof.
  • the column of Nd shows the refractive index of each component with respect to the d-line
  • the column of ⁇ d shows the Abbe number of each component with respect to the d-line.
  • Table 1 the sign of the radius of curvature of the surface having the convex surface facing the enlargement side is positive, and the sign of the radius of curvature of the surface having the convex surface facing the reduction side is negative.
  • Table 1 also shows the optical member PP1.
  • the terms (intermediate image) and (aperture) are described together with the surface numbers in the columns of the paraxial imaging position of the intermediate image MI and the surface number of the surface corresponding to the aperture stop St, respectively. ..
  • Table 2 shows the absolute value of the focal length
  • the value of the longest diameter H1 of the display area 14A of the display element 14 is twice the value of the maximum image height on the reduction side of the projection optical system 1. [°] in the column of all angles of view means that the unit is degrees.
  • the values shown in Table 2 are values when the d line is used as a reference.
  • Zd C ⁇ h 2 / ⁇ 1 + (1-KA ⁇ C 2 ⁇ h 2 ) 1/2 ⁇ + ⁇ Am ⁇ h m
  • Zd Aspherical depth (length of a perpendicular line drawn from a point on the aspherical surface at height h to a plane perpendicular to the optical axis where the aspherical apex touches)
  • h Height (distance from the optical axis to the lens surface)
  • C The reciprocal of the radius of curvature of the near axis KA
  • Am the aspherical coefficient
  • the aspherical ⁇ means the sum with respect to m.
  • FIG. 15 shows a structural cross-sectional view of an embodiment of the photographing optical system according to the technique of the present disclosure.
  • FIG. 15 shows the luminous flux having the angle of view 0 and the maximum angle of view together, and also shows the image sensor 3.
  • the photographing optical system 2 of FIG. 15 includes lenses L21 to L26, an aperture stop St, lenses L27 to L31, and an optical member PP2 in order from the enlargement side to the reduction side along the optical axis AX2.
  • the aperture stop St shown in FIG. 15 indicates the position in the optical axis AX2 direction, not the size and shape.
  • the optical member PP2 is a member that does not have a refractive power assuming a filter, a cover glass, or the like.
  • the optical member PP2 is not an essential component.
  • the basic lens data is shown in Table 4
  • the specifications are shown in Table 5
  • the aspherical coefficient is shown in Table 6. Since the display methods of Tables 4 to 6 are basically the same as those of Tables 1 to 3, some duplicate explanations will be omitted.
  • Table 4 the phrase (aperture) is described together with the surface number in the column of the surface number of the surface corresponding to the aperture stop St.
  • Table 5 shows the focal length f2, the back focus Bf at the air equivalent distance, and the F number FNo. , Total angle of view 2 ⁇ , and H2.
  • the value of the longest diameter H2 of the image pickup region 3A of the image pickup element 3 is twice the value of the maximum image height of the photographing optical system 2.
  • the values shown in Table 5 are values when the d line is used as a reference.
  • Table 7 shows the corresponding values of the conditional expressions (1) and (2) of the above embodiment.
  • the above embodiment satisfies the conditional expressions (1) and (2).
  • the projection optical system and the photographing optical system are not limited to the above examples, and various modifications are possible.
  • the radius of curvature, surface spacing, refractive index, Abbe number, aspherical coefficient, etc. of each optical element such as a lens included in these optical systems are not limited to the values shown in the above numerical examples, and are other values. Can be taken. Further, for an optical system having a bending optical path, the number of times the optical path is deflected and the deflection direction can be arbitrarily selected within a possible range.
  • the focus group is not limited to the configuration composed of a plurality of optical elements, and may be configured to be composed of a single optical element.
  • the processor 26 for adjusting the focus of the photographing optical system 2 is provided outside the photographing unit 12, but the processor 26 for adjusting the focus of the photographing optical system 2 may be provided inside the photographing unit 12. good.
  • the contrast detection method is used for the focus adjustment of the photographing optical system 2
  • the image plane phase difference method or the phase difference detection method may be used.
  • a transmissive display element using a liquid crystal display element may be used instead of the DMD.
  • a self-luminous element such as an LED (Light Emitting Diode) or an OLED (Organic Light Emitting Diode) may be used.
  • processors 26 include a CPU, which is a general-purpose processor 26 that executes software (program) and functions, and a processor 26 whose circuit configuration can be changed after manufacturing such as FPGA (Field Programmable Gate Array). Is done.
  • the FPGA includes a dedicated electric circuit, which is a processor 26 having a circuit configuration specially designed for executing a specific process such as a PLD (Programmable Logic Device) or an ASIC (Application Specific Integrated Circuit).
  • the processor 26 may be composed of one of these various types of processors 26, or may be a combination of two or more processors 26 of the same type or different types (for example, a combination of a plurality of FPGAs or a CPU and an FPGA). It may be composed of a combination).

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

投写装置は、画像を表示する表示素子と、画像を投写して投写像を形成する投写光学系と、投写像における投写光学系の光軸を含む第1の領域を撮影する撮影光学系、および撮影光学系によって結像される像を撮像する撮像素子を含む撮影ユニットと、撮影ユニットから取得した情報に基づき、投写像における光軸を含まない第2の領域についてフォーカス調整を制御するプロセッサとを備え、投写光学系の少なくとも一部と表示素子との相対位置を変化させることによって投写像の位置を変化させることが可能であり、予め定められた条件式を満足する。

Description

投写装置
 本開示の技術は、投写装置に関する。
 従来、投写装置の投写像のオートフォーカスに関する技術が種々提案されている。例えば、特開2017-187572号公報には、曲面状の被投写面に画像を投写可能な画像投写装置であって、投写光学系の光軸位置を含む第1の領域に対しフォーカス調整する第1のフォーカス調整部と、第1の領域よりも周辺側の第2の領域に対しフォーカス調整する第2のフォーカス調整部と、フォーカス調整用のチャートを生成可能な画像生成部と、第1および第2のフォーカス調整部の駆動を制御する制御部とを有する画像投写装置が記載されている。
 本開示の技術に係る1つの実施形態は、装置を大型化することなく、低コストで、広範囲に投写される投写像についてオートフォーカスが可能な投写装置を提供する。
 本開示の投写装置は、画像を表示する表示素子と、画像を投写して投写像を形成する投写光学系と、投写像における投写光学系の光軸を含む第1の領域を撮影する撮影光学系、および撮影光学系によって結像される像を撮像する撮像素子を含む撮影ユニットと、撮影ユニットから取得した情報に基づき、投写像における光軸を含まない第2の領域についてフォーカス調整を制御するプロセッサとを備え、投写光学系の少なくとも一部と表示素子との相対位置を変化させることによって投写像の位置を変化させることが可能であり、表示素子における表示領域の最長の径をH1、投写光学系の焦点距離をf1、撮像素子における撮像領域の最長の径をH2、投写光学系の最大半画角をθ1、撮影光学系の焦点距離をf2とした場合、下記条件式(1)および(2)を満足する。
  2.2<H1/|f1|  (1)
  0<|H2/(f2×tanθ1)|<1.2  (2)
 本開示の投写装置は、下記条件式(1-1)および(2-1)の少なくとも一方を満足することが好ましい。
  3<H1/|f1|<8  (1-1)
  0<|H2/(f2×tanθ1)|<0.8  (2-1)
 投写像および第1の領域がともに矩形状の場合は、投写像の長辺方向と第1の領域の短辺方向とが平行であることが好ましい。
 投写像は、投写像の投写距離の測定用の画像であってもよい。
 投写光学系は投写像全体となる第3の領域についてフォーカス調整が可能であるように構成してもよく、その場合は、第2の領域のフォーカス調整の際の可動部と、第3の領域のフォーカス調整の際の可動部とは異なることが好ましい。
 投写光学系は光路を偏向する少なくとも1つの光路偏向部材を有し、投写光学系の一部は投写光学系の光軸の周りに回転可能であり、最も拡大側の光路偏向部材より拡大側に撮影ユニットが配設されているように構成してもよい。
投写装置の使用状態を模式的に示す図である。 一実施形態に係る投写装置の概略構成図である。 撮影ユニットが光軸付近の領域を撮影する様子を模式的に示す図である。 投写像の中心が光軸上にある場合の、投写像、合焦領域、撮影領域を示す図である。 投写像が光軸から上方へ離隔した場合の、投写像、合焦領域、撮影領域を示す図である。 H1を説明するための図である。 H2を説明するための図である。 投写像が光軸から右方へ離隔した場合の、投写像、合焦領域、撮影領域を示す図である。 投写像の長辺方向と撮影領域の短辺方向とが垂直の状態を示す図である。 測距用の投写像の一例を示す図である。 オートフォーカス処理を説明するためのフローチャートである。 変形例の投写装置の概略構成図である。 投写光学系の回転を説明するための図である。 一実施例の投写光学系の断面構成を示す図である。 一実施例の撮影光学系の断面構成を示す図である。
 以下、本開示の技術の実施形態の一例を、図面を参照しつつ説明する。
 本明細書の説明において、「平行」又は「垂直」はそれぞれ、完全な平行又は完全な垂直の他に、本開示の技術が属する技術分野で一般的に許容される誤差が含まれる略平行又は略垂直を指す。
 図1に本開示の技術の一実施形態に係る投写装置10の使用状態を示す。投写装置10は、投写ユニット11と、撮影ユニット12と、本体部13とを備える。本体部13は、表示素子14と、光源ユニット15とを内部に備える。図1では、表示素子14と、光源ユニット15とを概念的に示している。表示素子14は、画像を表示する。投写ユニット11は、表示素子14が表示した画像の拡大像を投写像18としてスクリーン16に投写する。撮影ユニット12は、投写像18における投写光学系1の光軸付近の領域を撮影する。
 スクリーン16は、投写像18が投写される対象物を意味する。スクリーン16としては、専用のスクリーンの他、部屋の壁面の他、床面および天井などでもよい。また、投写装置10を室外で使用する場合は、建物の外壁などもスクリーン16に含まれる。
 図2に、投写装置10の概略構成図を模式的に示す。投写装置10は、上述した構成に加え、投写フォーカス機構21と、撮影フォーカス機構22と、レンズシフト機構24と、プロセッサ26と、操作部28とを備える。
 光源ユニット15は一例として以下のように構成することができる。光源ユニット15は、ランプと、回転カラーフィルタと、照明光学系とを含む。ランプは白色光を発光する。回転カラーフィルタは、円周上に青色、緑色、および赤色の3色のフィルタが設けられている。回転カラーフィルタが回転すると、ランプが発した白色光の光路内に各色のフィルタが選択的に挿入される。これによって、白色光が青色光、緑色光、および赤色光の各色光に時分割で選択的に変換される。照明光学系は、回転カラーフィルタから出射された光に対し、光軸と垂直な断面における光量分布の均一性を高める作用を施し、表示素子14へ導光する。
 表示素子14としては例えば、DMD(Digital Micromirror Device:登録商標)を用いることができる。DMDは、光源ユニット15から照射される光の反射方向を変化させることが可能な複数のマイクロミラーを有しており、各マイクロミラーを画素単位で二次元に配列した画像表示素子である。DMDは、画像に応じて各マイクロミラーの向きを変化させて、光源ユニット15からの光の反射光のオンオフを切り替えることにより、画像に応じた光変調を行う。
 投写ユニット11は、投写光学系1と、投写フォーカス機構21とを含む。投写光学系1は、複数の光学素子からなる。本例の投写光学系1は、投写光学系1の光軸AX1に沿って配列された複数のレンズを含む。図2では、投写光学系1が含む複数のレンズを概念的に示している。投写光学系1は、表示素子14が表示する画像をスクリーン16に投写して投写像18を形成する。
 投写光学系1が含む複数のレンズの一部は、フォーカス群1Aとして機能する。フォーカス群1Aは、投写像18における光軸AX1を含まない領域についてフォーカス調整を行う際の可動部である。投写フォーカス機構21は、プロセッサ26と電気的に接続されており、プロセッサ26からの駆動信号に基づきフォーカス群1Aを光軸AX1に沿って移動させる。これによって、上記領域についてフォーカス調整が行われる。投写フォーカス機構21は、例えば、モータ等のアクチュエータ(不図示)を含んで構成される。
 撮影ユニット12は、投写像18の投写距離の測定に用いられる。「投写距離」とは、投写光学系1の光路上で最もスクリーン16側の光学素子からスクリーン16までの距離である。撮影ユニット12は、撮影光学系2と、撮像素子3と、撮影フォーカス機構22とを含む。撮影光学系2は、投写像18における投写光学系1の光軸AX1を含む領域を撮影し、その像を結像する。
 撮像素子3は、撮影光学系2によって結像される像を撮像する。撮像素子3は、プロセッサ26と電気的に接続されている。撮像素子3は、撮像した像の画像である撮像画像をプロセッサ26に送る。撮像素子3としては、例えば、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)を用いることができる。
 撮影光学系2は、撮影光学系2の光軸AX2に沿って配列された複数のレンズを含む。図2では、撮影光学系2が含む複数のレンズを概念的に示している。撮影光学系2が含む複数のレンズの一部は、フォーカス調整の際に移動するフォーカス群2Aとして機能する。撮影フォーカス機構22は、プロセッサ26と電気的に接続されており、プロセッサ26からの駆動信号に基づき、フォーカス群2Aを光軸AX2に沿って移動させる。これによって、撮影光学系2のフォーカス調整が行われる。撮影フォーカス機構22は、例えば、モータ等のアクチュエータ(不図示)を含んで構成される。
 レンズシフト機構24は、プロセッサ26と電気的に接続されている。レンズシフト機構24は、プロセッサ26からの駆動信号に基づき、投写ユニット11を光軸AX1に垂直な面内で表示素子14に対し相対的に平行移動させる(以下、この動作をレンズシフトという)。これによって、投写光学系1は、表示素子14に対し光軸AX1に垂直な方向に相対移動する。投写光学系1と表示素子14との相対位置を変化させることによって、スクリーン16上での投写像18の位置を変化させることが可能である。図1では、投写像18の位置の変化を上下方向および左右方向の矢印で模式的に示している。レンズシフト機構24は、例えば、ソレノイド又はモータ等のアクチュエータ(不図示)を含んで構成される。
 撮影ユニット12は、例えば、投写ユニット11の上面に固定配設されている。従って、レンズシフトが行われると、撮影ユニット12も投写ユニット11と一体的に移動する。「一体的に移動」とは、同時に同量同方向に移動することを意味する。
 プロセッサ26は、撮影光学系2が撮影する際に撮影光学系2のフォーカス調整を行う。また、プロセッサ26は、上記撮影の際に撮影ユニット12から取得した情報に基づき、投写像18における光軸AX1を含まない領域についてフォーカス調整を行う。本例のプロセッサ26は、コントラスト検出方式を用いて撮影光学系2のフォーカス調整を行う。具体的には、プロセッサ26は、撮影フォーカス機構22へ駆動信号を送り、フォーカス群2Aを移動させながら、撮像素子3から入力された撮像画像を随時解析して撮像画像のコントラスト特性を取得する。プロセッサ26は、コントラストが最大になる状態を撮影光学系2の合焦状態とし、合焦状態で撮影光学系2に撮影させ、合焦状態でのフォーカス群2Aの位置情報を取得する。プロセッサ26は、フォーカス群2Aの位置情報から、投写距離を導出し、導出した投写距離に応じたフォーカス調整を行わせるための駆動信号を投写フォーカス機構21へ送る。そして、プロセッサ26は、駆動信号に応じた移動量だけフォーカス群1Aを移動させることにより、投写像18の光軸AX1を含まない領域についてフォーカス調整を制御する。プロセッサ26は例えば、CPU(Central Processing Unit)であり、メモリ(不図示)と協働して、制御プログラムを実行することにより、投写フォーカス機構21と、撮影フォーカス機構22と、レンズシフト機構24とを含む各部を制御する。
 操作部28は、ユーザーの操作入力を受け付ける。操作部28は、例えば、操作スイッチおよび方向指示キーを含んで構成される。操作スイッチは、例えば、電源スイッチおよび調整用スイッチ等である。方向指示キーは、例えば、レンズシフトにおける投写ユニット11の移動方向および移動量を指定するために用いられる。操作部28は、本体部13に設けられていてもよく、本体部13とは別のリモートコントロール装置として設けられていてもよい。ユーザーが操作部28を操作すると、操作信号がプロセッサ26に入力される。プロセッサ26は操作信号に基づいて、各部を制御する。
 次に、投写装置10におけるオートフォーカスの概要について説明する。近年では短い投写距離で大きな投写像18を得たいという要望が多いことから、投写装置10が備える投写光学系1は非常に画角の広い光学系となっている。それに加えて、レンズシフト機能を有する投写装置10は、スクリーン16上での投写像18の位置が可変であるため、投写像18を投写可能な領域(以下、投写可能領域という)は非常に広い。さらに、近年では投写像18の高精細化が進んでいる。
 オートフォーカスの方法として、スクリーン16上の投写像18を撮影してオートフォーカスを行うことが考えられる。しかし、仮に、投写像18全体を撮影してオートフォーカスを行おうとすると、上記事情から、非常に広範囲の投写可能領域全てにおいて高解像に投写像18を撮影しなくてはならない。そうすると、装置が大型化してしまい、また、コストも高くなってしまう。
 別のオートフォーカスの方法として、レーザー光を用いた測距に基づきオートフォーカスを行うことが考えられる。しかし、この方法では、レーザー光の照射位置が限定されているため投写像18の位置の変化に対応できない、および、手前に障害物がある場合等はフォーカス調整したい投写像18の位置とレーザー光の照射位置とが一致しない等の理由から、広範囲のオートフォーカスには不向きである。
 そこで、本実施形態では、投写光学系1が非常に画角の広い光学系であるという特性を生かして、投写像18の光軸AX1付近の領域のみを撮影ユニット12で撮影してオートフォーカスを行う。一般に、本例の投写光学系1のような非常に画角の広い光学系は、焦点距離が短く、従って、被写界深度が深い。その結果、投写像18の光軸AX1付近の領域は、ディープフォーカス状態に近い状態となっており、投写距離が変化しても、合焦状態、いわゆる、ピントが合った状態を保持したままである。一方、投写像18の光軸AX1から遠隔した領域は、像面湾曲等の影響を無視できないため、投写距離が変化すると、合焦状態から外れた状態、いわゆる、ピントずれの状態が生じる。よって、投写像18のうち、合焦状態の光軸AX1付近の領域のみ撮影ユニット12で撮影し、その撮影の情報に基づき投写距離を導出し、この投写距離を用いて投写像18の光軸AX1から遠隔した領域についてフォーカス調整を行えば、投写像18全体がほぼ合焦状態となった投写像18を得ることができる。
 図3に、撮影ユニット12が光軸AX1付近の領域を撮影する様子を模式的に示す。図3に示すように、投写光学系1は、大きな最大半画角θ1を有し、スクリーン16上の投写可能領域30も広範囲となる。撮影ユニット12が撮影する領域である撮影領域34は、その広範囲の投写可能領域30の一部のみである。図3では、投写光学系1の一例として、複数のレンズと光路を偏向する2つのミラーR1およびミラーR2とを含み、屈曲形状の光路を形成する光学系を示す。ミラーR1およびミラーR2は、本開示の技術の光路偏向部材の一例である。なお、図3は概略的な図であり、投写可能領域30、撮影領域34、および最大半画角θ1は、正確な大きさで描かれているわけではない。
 以下の説明において、投写光学系1の光軸AX1の方向をZ方向とし、Z方向に垂直であり図3の上下方向となる方向をY方向とし、Z方向およびY方向の両方に垂直な方向をX方向とする。図3の例のように投写光学系1の光路が屈曲形状の場合は、光軸AX1の方向は、投写光学系1の光路上で最もスクリーン16側の光学素子の光軸の方向とする。スクリーン16の面内はXY面内となる。また、以下の説明では、投写光学系1の光路上におけるスクリーン側、表示素子側をそれぞれ拡大側、縮小側ということがある。
 図4に、スクリーン16上での、投写可能領域30、投写像18、合焦領域32、および撮影領域34の例を示す。図4には、投写像18の中心が光軸AX1上にある場合の例を示す。光軸AX1は、図4におけるX軸とY軸との交点に対応する。合焦領域32は、投写距離が変化しても、合焦状態が保持されているとみなすことができる領域である。合焦領域32は、光軸AX1を中心とする円形の領域である。本例では、撮影領域34は、合焦領域32に内接する矩形である。図4の例では、投写像18の大部分の領域が合焦領域32と重畳しており、合焦領域32と重畳していない投写像18の領域(ドットハッチングを付した領域)は少ない。
 図4の状態からレンズシフトが行われて投写像18が上方に移動した場合の、スクリーン16上での、投写可能領域30、投写像18、合焦領域32、および撮影領域34の例を図5に示す。図5の例では、合焦領域32と重畳していない投写像18の領域(ドットハッチングを付した領域)が多い。よって、図5の例では、図4の例と比較して、投写像18の多くの領域についてフォーカス調整を行うことになる。
 図4の例と図5の例では、合焦領域32と重畳していない投写像18の領域の面積も位置も異なるが、撮影領域34は同一であり、どちらの撮影領域34も光軸AX1付近の領域を含んでいる。投写装置10においては、投写可能領域30の任意の位置に投写像18が位置していても、投写可能領域30全てを撮影する必要はなく、光軸AX1付近の合焦領域32の内部のみを撮影すればよいため、装置の小型化を図ることができる。
 より詳細には、投写装置10は、表示素子14における表示領域14Aの最長の径をH1、投写光学系1の焦点距離をf1とした場合、下記条件式(1)を満足するように構成されている。投写光学系1は条件式(1)を満足することによって、焦点距離が非常に短い光学系となり、従って、被写界深度が非常に深くなり、また、非常に広い画角を有することが容易となる。条件式(1)を満足することによって、投写可能領域30の周辺部についてフォーカス調整を行っても、光軸AX1付近の領域は合焦状態を保ったままにすることができる。
  2.2<H1/|f1|  (1)
 仮に、本例の投写光学系1とは異なり、相対的に画角が狭く、相対的に焦点距離が長い投写光学系1を用いる場合は、相対的に被写界深度が浅くなるため、投写可能領域30の周辺部についてフォーカス調整を行うと、光軸AX1付近の領域においてピントずれが発生してしまう。
 投写装置10は、さらに下記条件式(1-1)を満足することが好ましい。条件式(1-1)の上限以上とならないようにすることによって、投写光学系1の大型化を抑制することに有利となる。
  3<H1/|f1|<8  (1-1)
 さらに、投写装置10は、撮影ユニット12の撮像素子3における撮像領域3Aの最長の径をH2、投写光学系1の最大半画角をθ1、撮影光学系2の焦点距離をf2とした場合、下記条件式(2)を満足するように構成されている。θ1は投写可能な最大半画角である。|H2/(f2×tanθ1)|は絶対値のため、0<|H2/(f2×tanθ1)|となる。条件式(2)は、好適な大きさの撮影領域34に関する式である。条件式(2)の上限以上とならないようにすることによって、撮影光学系2の大型化を抑制することに有利となる。
  0<|H2/(f2×tanθ1)|<1.2  (2)
 撮影光学系2の大型化をより抑制するためには、投写装置10は、さらに下記条件式(2-1)を満足することがより好ましい。
  0<|H2/(f2×tanθ1)|<0.8  (2-1)
 なお、上記のH1に関する「表示素子14における表示領域14Aの最長の径」とは、重心が光軸AX1と一致する表示領域14Aにおいて、径方向における最も光軸AX1から離れた点と光軸AX1との距離の2倍の値を意味する。一例として図6に示すように、表示領域14Aが矩形の場合は、表示領域14Aの対角線の長さをH1とする。また、例えば、表示領域14Aが正円の場合は、表示領域14Aの直径をH1とし、表示領域14Aが楕円の場合は、長径をH1とする。
 また、「表示素子14における表示領域14A」とは、実際に画像が表示される領域を意味する。例えば、表示素子14が、複数の画素が配置されたアスペクト比が4:3の表示部を備え、表示部のうち一部にアスペクト比が3:2の画像を表示する場合、表示領域14Aは、アスペクト比が3:2の画像が表示される領域を指す。したがって、表示素子14の径と表示領域14Aの最長の径とは、必ずしも一致しない。
 なお、上記のH2に関する「撮像素子3における撮像領域3Aの最長の径」とは、重心が光軸AX2と一致する撮像領域3Aにおいて、径方向における最も光軸AX2から離れた点と光軸AX2との距離の2倍の値を意味する。一例として図7に示すように、撮像領域3Aが矩形の場合は、撮像領域3Aの対角線の長さをH2とする。また、例えば、撮像領域3Aが正円の場合は、撮像領域3Aの直径をH2とし、撮像領域3Aが楕円の場合は、長径をH2とする。
 図8に、図4の状態からレンズシフトが行われて投写像18が右方向に移動した場合の、投写像18および撮影領域34の例を示す。図4、図5、および図8に示す例では、表示領域14Aおよび撮像領域3Aが矩形状のため、投写像18および撮影領域34はともに矩形状である。このような形状の場合、図4、図5、および図8に示すように、投写像18の長辺方向と撮影領域34の短辺方向とが平行になるように構成することが好ましい。
 比較例として、図9に、投写像18および撮影領域34が矩形状であり、投写像18の長辺方向と撮影領域34の短辺方向とが垂直になる例を示す。図9の例と比べると、図5および図8の例は、投写像18と撮影領域34との重畳部分の面積を大きくすることが容易である。このことから、投写像18の長辺方向と撮影領域34の短辺方向とを平行にした場合は、これらを垂直にした場合に比べ、より小さな撮影領域34で撮影することが容易となる。その結果、撮像素子3の小型化、および撮影光学系2の小型化に有利となる。
 撮影の際に投写される投写像18としては、投写像18の投写距離の測定用の画像を用いてもよい。例えば、フォーカス調整の際には、黒と白の幾何学的図形からなるチャート等を表示素子14に表示させるようにしてもよい。測距用の画像を用いることによって、風景又は人物等の画像を用いる場合と比べて、撮影光学系2のフォーカス調整を、より容易に、より高精度に行うことができる。その理由は次に示すとおりである。図10に、測距用の画像の一例として、黒と白のラインパターンからなる投写像18を示す。このように測距用の画像は、モノクロームの2値化画像である場合が多いため、中間調が相対的に多くなる風景又は人物等の画像と比較して、コントラストの検出に有利だからである。
 次に、図11に示すフローチャートを参照しながら、オートフォーカスの処理について説明する。まず、プロセッサ26は、投写像18が投写されているか否かを監視する(ステップS10)。プロセッサ26は、投写像18が投写されていない間は(ステップS10:NO)、監視を継続する。
 プロセッサ26は、投写像18が投写されていると判定した場合は(ステップS10:YES)、撮影フォーカス機構22へ駆動信号を送り、フォーカス群2Aを移動させながら、撮像素子3から入力された撮像画像を随時解析して撮像画像のコントラスト特性を取得する。プロセッサ26は、コントラストが最大になる状態を撮影光学系2の合焦状態とし、合焦状態で撮影光学系2に投写像18の光軸AX1付近の領域を撮影させる(ステップS11)。
 プロセッサ26は、合焦状態での撮影光学系2のフォーカスの位置情報を取得する(ステップS12)。例えば、プロセッサ26は、撮影フォーカス機構22のアクチュエータに入力する駆動パルスをカウントし、カウントした駆動パルス数に基づいてフォーカス群2Aの移動量を検出する。フォーカス群2Aの基準位置からの移動量を検出できれば、フォーカス群2Aの位置を検出することができる。あるいは、撮影フォーカス機構22がフォーカス群2Aの移動量を検出するためのセンサ(不図示)を含んで構成されている場合は、プロセッサ26はセンサが出力する信号に基づいて、移動量を検出してもよい。センサとしては、例えば、投写光学系1の基準位置からの移動量を検出するためのポテンショメーターおよびリニアエンコーダなどを用いることができる。センサからの出力値がアナログ値の場合は、出力値はA/D変換(Analog to Digital Conversion)された後、プロセッサ26に入力される。
 プロセッサ26は、取得した位置情報から投写距離を導出する(ステップS13)。例えば、プロセッサ26が備えるメモリに、フォーカス群2Aの位置と、投写距離とを対応させたルックアップテーブルを記憶しておく。プロセッサ26は、このルックアップテーブルを参照することにより投写距離を導出する。
 また、プロセッサ26は、スクリーン16上での投写像18の位置情報を取得する(ステップS14)。例えば、プロセッサ26は、レンズシフト機構24のアクチュエータに入力する駆動パルスをカウントし、カウントした駆動パルス数に基づいて投写ユニット11の移動量を検出する。投写ユニット11の基準位置からの移動量を検出できれば、表示素子14と投写ユニット11の相対位置を検出することができ、投写像18の位置情報を取得できる。あるいは、レンズシフト機構24が投写ユニット11の移動量を検出するためのセンサ(不図示)を含んで構成されている場合は、プロセッサ26はセンサが出力する信号に基づいて、移動量を検出してもよい。センサとしては、例えば、投写ユニット11の基準位置からの移動量を検出するためのポテンショメーターおよびリニアエンコーダなどを用いることができる。センサからの出力値がアナログ値の場合は、出力値はA/D変換(Analog to Digital Conversion)された後、プロセッサ26に入力される。投写像18の位置情報としては、例えば、XY面内における、投写像18の中心点の座標、および投写像18の光軸AX1から最も遠隔した点(以下、最遠隔点という)の座標等である。
 プロセッサ26は、ステップS13で導出した投写距離と、ステップS14で取得した投写像18の位置情報に基づき、投写像18の光軸AX1から遠隔した領域についてフォーカスを調整し(ステップS15)、処理を終了する。例えば、プロセッサ26が備えるメモリに、投写距離と、XY面内における投写像18の各点の座標と、フォーカス群1Aの位置とを対応させたルックアップテーブルを記憶しておく。ルックアップテーブルには、投写像18の各点が合焦状態となるフォーカス群1Aの位置が、投写距離と各点の座標との組合せごとに記録されている。プロセッサ26は、このルックアップテーブルを参照することにより、フォーカス群1Aの位置を導出する。なお、投写像18のいずれの点についてフォーカス群1Aの位置を導出するかは、予め設定されていてもよい。例えば、最遠隔点でもよく、あるいは、光軸AX1からの径方向において光軸AX1から最遠隔点までの距離の8割の点としてもよい。プロセッサ26は、導出した位置にフォーカス群1Aを移動させるように投写フォーカス機構21に駆動信号を送る。投写フォーカス機構21は、この駆動信号に基づきフォーカス群1Aを移動させる。
 上述した本実施形態によれば、光軸AX1付近のみを撮影すればよいため、投写可能領域全てを撮影してオートフォーカスを行う方法に比べて、低コストで、小型に装置を構成することができる。また、本実施形態によれば、レーザー光を用いた測距に基づきオートフォーカスを行う方法に比べて、広範囲で、正確な投写像18の位置についてオートフォーカスを行うことができる。
 なお、上記処理においては、種々の処理を追加することが可能である。以下に、追加可能な処理の例を列挙する。
[投写像の平面性を判定する処理]
 ステップS10とステップS11の間に投写像18の平面性を判定する処理を追加してもよい。例えば、投写光学系1は、格子チャート等の平面性判定用の特定のチャートを投写し、撮影光学系2がこのチャートの投写像18を撮影して得られた撮像画像から、プロセッサ26が線の歪みを検出する。例えば、プロセッサ26は、歪んでいる箇所数および/又は歪み量を検出し、予め定められたこれらの閾値と検出値とを比較する。検出値が閾値を超えていない場合は、プロセッサ26はステップS11の処理へ進む。検出値が閾値を超えている場合は、プロセッサ26は、撮影領域34を複数のエリアに分割し、エリアごとに歪んでいる箇所数および/又は歪み量を検出し、予め定められたこれらの閾値と検出値とを比較する。プロセッサ26は、検出値が閾値を超えていないエリアのみを抽出し、これらのエリアのみを用いてステップS11の処理を行う。検出値が閾値を超えていないエリアが無い場合は、プロセッサ26は、投写像18の平面性が低いと判定して、自動オートフォーカスが不可であることを示すエラーメッセージを表示部(図示せず)に表示する。
[チャートを切替える処理1]
 解像度の異なる複数の特定のチャートを準備しておき、ステップS11において、コントラストの値に応じてチャートを切替える処理を追加してもよい。例えば、プロセッサ26は、予め定められたコントラストの閾値と取得したコントラストの値とを比較する。取得したコントラストの値が閾値を超えている場合は、プロセッサ26はステップS11の処理を行う。取得したコントラストの値が閾値以下の場合は、プロセッサ26は、準備しておいた複数のチャートの中から、投写されたチャートより解像度の低いチャートを選択し、投写ユニット11を通じて投写させて、ステップS11の処理を行う。準備しておいた複数のチャートのいずれについてもコントラストの値が閾値以下の場合は、プロセッサ26は、投写像18とスクリーン16との境界を検出し、この境界をチャート代わりに用いてもよい。
[チャートを切替える処理2]
 色の異なる複数種類のチャートを準備しておき、プロセッサ26は、ステップS10において、スクリーン16の色に応じて好適な色のチャートを投写光学系1に投写させるようにしてもよい。
[フォーカス調整を高精度化する処理]
 ステップS11において、コントラスト特性を取得する際、撮影光学系2のフォーカス群2Aの移動の振幅を大きくし、コントラストが最大になる状態を得た後に、フォーカス群2Aの移動の振幅を小さくして再度コントラストが最大になる状態を高精度に検出して取得してもよい。オートフォーカス動作の間の投写像18は動画ではなく静止画のため、高精度化のために上記方法を採ることができる。オートフォーカスの高速化よりも高精度化が優先される場合に有効である。
[撮影領域をエリア分割してフォーカス調整を行う処理1]
 ステップS11において、撮影領域34を複数のエリアに分割し、各エリアのコントラスト等の計算結果から平均値を求めて用いるようにしもよい。
[撮影領域をエリア分割してフォーカス調整を行う処理2]
 ステップS11において、撮影領域34を複数のエリアに分割し、エリアごとにコントラストの値を計算し、この値が予め定められた閾値を超えるエリアのもののみ採用してもよい。すなわち、閾値以下となる異常値のエリアのデータは排除してもよい。
[撮影領域をエリア分割してフォーカス調整を行う処理3]
 ステップS11において、撮影領域34を複数のエリアに分割し、投写像18と撮影領域34の相対位置に応じて、一部のエリアのみ用いるようにしてもよい。この方法は、撮影領域34全域を用いる方法に比べてオートフォーカスに要する時間を短縮できる。例えば、図4の例のように投写像18の中心が光軸AX1上にある場合は、撮影領域34の中央のエリアのもののみ用いてもよい。また、図5の例のように、撮影領域34の周辺のエリアのみ投写像18と重畳している場合は、撮影領域34の周辺のエリアのもののみ用いてもよい。投写像18と重畳していない撮影領域34のエリアは用いないことによって、フォーカス調整の高精度化に寄与することができる。
[レンズシフト量に応じて異なるオートフォーカスモードを実行する処理]
 光軸AX1に対する投写像18の中心の変位量をレンズシフト量とした場合、レンズシフト量に応じて異なるモードでオートフォーカスを行ってもよい。例えば、ステップS11において、レンズシフト量が予め定められた閾値以下の場合は、投写像18と撮影領域34との重畳部分が多いとみなし、撮影光学系2のフォーカス調整を1回のみとする。レンズシフト量が予め定められた閾値を超える場合は、投写像18と撮影領域34との重畳部分が少ないため、信号のノイズ比率が高くなるので、撮影光学系2のフォーカス調整を複数回行う。また、レンズシフト量が予め定められた限界的な閾値を超える場合は、プロセッサ26は、レンズシフト量が予め定められた限界的な閾値以下となるようにレンズシフト機構24を駆動して、撮影光学系2のフォーカス調整を行った後、レンズシフト機構24を駆動して当初のレンズシフト量に戻す。この場合、ステップS14での投写像18の位置情報は、当初のレンズシフト量に対応する情報を用いる。あるいは、レンズシフト量が予め定められた限界的な閾値を超える場合は、プロセッサ26は、表示部(図示せず)に、レンズシフト量を低減するよう指示メッセージを表示するか、自動オートフォーカスが不可であることを示すエラーメッセージを表示してもよい。
[撮影条件に応じて撮影光学系の光学的状態を設定する処理]
 ステップS11において、撮影条件に応じて撮影光学系2の光学的状態を適宜設定してもよい。例えば、投写像18の照度および/又は外光の強度に応じて、撮影光学系2の絞り値および/又はシャッタースピードを適宜設定して適正露出にして撮影してもよい。また、撮影光学系2としてズーム光学系を用い、投写像18に応じて、ズーム状態を変化させて、適正な撮影解像度および撮影範囲を得るようにしてもよい。具体的には例えば、解像度が高い投写像18の場合は、撮影光学系2を望遠状態にし、レンズシフト量が多い場合は、撮影光学系2を広角状態にするようにしてもよい。
 また、投写装置の構成についても種々の変形が可能である。例えば、投写光学系1は投写像18全体の領域についてフォーカス調整が可能であるように構成してもよい。この場合、投写像18全体の領域のフォーカス調整の際の可動部は、光軸AX1を含まない領域のフォーカス調整の際の可動部(上記例のフォーカス群1A)とは異なるように構成される。この構成によれば、投写像18全体のフォーカス調整をより良好に行うことができる。
 この構成の一例を変形例として図12に示す。図12に示す投写装置110は、図2の投写装置10と比べて、投写ユニット11が投写ユニット111に置換されている点が異なる。図12の投写ユニット111は、図2の投写ユニット11と比べて、投写フォーカス機構23を備え、投写光学系1のレンズの一部がフォーカス群1Bとして機能している点が異なる。
 フォーカス群1Bは、フォーカス群1Aとは異なるレンズ群であり、フォーカス群1Aより縮小側に配置されている。投写フォーカス機構23は、プロセッサ26と電気的に接続されている。投写フォーカス機構23は、プロセッサ26からの駆動信号に基づき、フォーカス群1Bを投写光学系1の光軸AX1に沿って移動させる。これによって、投写像18全体の領域についてフォーカス調整が行われる。投写フォーカス機構23は、例えば、モータ等のアクチュエータ(不図示)を含んで構成される。
 また、投写像18全体の領域のフォーカス調整を行う別の例としては、投写光学系1全体を可動部として、この可動部を表示素子14に対して移動させてもよい。投写光学系1が交換可能な構成の場合は、投写光学系1全体を可動部とすることによって、投写光学系1のマウントと表示素子14との間隔のバラツキを調整することができる。
 また、図13に示すように、投写光学系1は光路を偏向する少なくとも1つの光路偏向部材を有し、投写光学系1の一部は投写光学系1の光軸の周りに回転可能であるように構成してもよい。図13は、図3の投写光学系1のミラーR2およびミラーR2より縮小側の光学素子をY軸の周りに90度回転させた状態を示す図である。図13では、ミラーR2およびミラーR2より縮小側の光学素子を概略的に矩形で示している。投写光学系1は、光路偏向部材を有することによってその光路が屈曲形状となり、部分的に回転することが容易な構成となる。投写光学系1の一部を回転可能とすることによって、本体部13の向きを変えずに投写方向を変化させることができるため、有用性を高めることができる。
 なお、上記のように、投写光学系1が光路偏向部材を有し、投写光学系1の一部が投写光学系1の光軸の周りに回転可能な構成にする場合は、最も拡大側の光路偏向部材より拡大側に撮影ユニット12が配設されていることが好ましい。このように構成すれば、投写光学系1の一部を回転させても撮影ユニット12は常に投写光学系1の拡大側の部分に位置することが容易となり、常にスクリーン16上の光軸AX1付近を撮影することが容易となる。
 次に、本開示の技術に係る投写光学系と撮影光学系の実施例について説明する。図14に、本開示の技術に係る投写光学系の一実施例の構成断面図を示す。図14には、画角0、中間画角、および最大画角の光束を合わせて示している。図14の投写光学系101は、図3の投写光学系1からミラーR1およびミラーR2を除いて光路を直線状にしたものである。投写光学系101は、拡大側から縮小側へ光軸AX1に沿って順に、レンズL1~L16、開口絞りSt、レンズL17~L20、および光学部材PP1を備える。図14に示す開口絞りStは大きさおよび形状ではなく光軸AX1方向の位置を示す。光学部材PP1は、プリズム等を想定した屈折力を有しない部材である。光学部材PP1は必須の構成要素ではない。本例では、光軸AX1の方向において、光学部材PP1の縮小側の面の位置は、表示素子14の画像表示面の位置と一致している。投写光学系101の内部には中間像MIが形成されている。
 投写光学系101の数値データとして、基本レンズデータを表1に、諸元を表2に、非球面係数を表3に示す。以下に示す各表では、予め定められた桁でまるめた数値を記載している。以下に示す投写光学系101の数値データは、投写光学系101の焦点距離の絶対値が1.00となるように規格化されたものである。なお、光学系は、比例拡大又は比例縮小しても同様の性能を発揮することができる。
 表1ではスクリーン16に相当する面の面番号の欄にscreenと記入している。表1において、面番号の欄には最も拡大側のレンズの拡大側の面を第1面とし縮小側に向かうに従い1つずつ番号を増加させた場合の面番号を示し、曲率半径の欄には各面の曲率半径を示し、面間隔の欄には各面とその縮小側に隣接する面との光軸AX1上の面間隔を示す。Ndの欄には各構成要素のd線に対する屈折率を示し、νdの欄には各構成要素のd線基準のアッベ数を示す。
 表1では、拡大側に凸面を向けた形状の面の曲率半径の符号を正、縮小側に凸面を向けた形状の面の曲率半径の符号を負としている。表1には光学部材PP1も合わせて示している。表1では、中間像MIの近軸結像位置、および開口絞りStに相当する面の面番号の欄にはそれぞれ、(中間像)、および(絞り)という語句を面番号とともに記載している。
 表2には、焦点距離の絶対値|f1|、空気換算距離でのバックフォーカスBf、FナンバーFNo.、全画角2ω、およびH1を示す。本例では、表示素子14の表示領域14Aの最長の径H1の値が、投写光学系1の縮小側の最大像高の2倍の値である。全画角の欄の[°]は単位が度であることを意味する。表2に示す値は、d線を基準とした場合の値である。
 表1では、非球面の面番号には*印を付しており、非球面の曲率半径の欄には近軸の曲率半径の数値を記載している。表3において、面番号の欄には非球面の面番号を示し、KAおよびAm(m=3、4、5、・・・20)の欄には各非球面についての非球面係数の数値を示す。表3の非球面係数の数値の「E±n」(n:整数)は「×10±n」を意味する。KAおよびAmは下式で表される非球面式における非球面係数である。
  Zd=C×h/{1+(1-KA×C×h1/2}+ΣAm×h
ただし、
Zd:非球面深さ(高さhの非球面上の点から、非球面頂点が接する光軸に垂直な平面に
   下ろした垂線の長さ)
h:高さ(光軸からレンズ面までの距離)
C:近軸曲率半径の逆数
KA、Am:非球面係数
であり、非球面式のΣはmに関する総和を意味する。
Figure JPOXMLDOC01-appb-T000001
Figure JPOXMLDOC01-appb-T000002
Figure JPOXMLDOC01-appb-T000003
 図15に、本開示の技術に係る撮影光学系の一実施例の構成断面図を示す。図15には、画角0、および最大画角の光束を合わせて示し、また、撮像素子3も示している。図15の撮影光学系2は、拡大側から縮小側へ光軸AX2に沿って順に、レンズL21~L26、開口絞りSt、レンズL27~L31、および光学部材PP2を備える。図15に示す開口絞りStは大きさおよび形状ではなく光軸AX2方向の位置を示す。光学部材PP2は、フィルタ又はカバーガラス等を想定した屈折力を有しない部材である。光学部材PP2は必須の構成要素ではない。
 図15の撮影光学系2の数値データとして、基本レンズデータを表4に、諸元を表5に、非球面係数を表6に示す。表4~表6の表示方法は基本的に表1~表3と同様であるので重複説明を一部省略する。
 表4では、開口絞りStに相当する面の面番号の欄には(絞り)という語句を面番号とともに記載している。表5には、焦点距離f2、空気換算距離でのバックフォーカスBf、FナンバーFNo.、全画角2ω、およびH2を示す。本例では、撮像素子3の撮像領域3Aの最長の径H2の値が、撮影光学系2の最大像高の2倍の値である。表5に示す値は、d線を基準とした場合の値である。
Figure JPOXMLDOC01-appb-T000004
Figure JPOXMLDOC01-appb-T000005
Figure JPOXMLDOC01-appb-T000006
 表7に、上記実施例の条件式(1)および(2)の対応値を示す。上記実施例は、条件式(1)および(2)を満足している。
Figure JPOXMLDOC01-appb-T000007
 なお、投写光学系および撮影光学系は上記例に限定されず、種々の変形が可能である。これらの光学系に含まれるレンズ等の各光学素子の曲率半径、面間隔、屈折率、アッベ数、および非球面係数等は、上記各数値実施例で示した値に限定されず、他の値をとり得る。また、屈曲光路を有する光学系についても、光路を偏向する回数、および偏向方向は、可能な範囲で任意に選択可能である。フォーカス群は、複数の光学素子からなる構成に限定されず、1枚の光学素子からなる構成としてもよい。
 上記実施形態のレンズシフトの説明では投写光学系全体と表示素子14との相対位置を可変にする例を挙げて説明したが、投写光学系の一部と表示素子14との相対位置を可変にしてもよい。すなわち、投写光学系の少なくとも一部と表示素子14との相対位置を変化させることによって投写像18の位置を変化させることが可能であればよい。また、上記実施形態のレンズシフトの説明では、表示素子14に対して投写光学系を移動させることにより、表示素子14と投写光学系との相対位置を可変にする例を説明したが、投写光学系に対して表示素子14を移動させることにより表示素子14と投写光学系との相対位置を可変にしてもよい。
 上記例では、撮影光学系2のフォーカス調整を行うプロセッサ26は、撮影ユニット12の外に設けられているが、撮影ユニット12の内部に撮影光学系2のフォーカス調整を行うプロセッサ26を設けてもよい。また、上記例では、撮影光学系2のフォーカス調整は、コントラスト検出方式を用いているが、像面位相差方式、又は位相差検出方式を用いてもよい。
 表示素子14としては、DMDの代わりに液晶表示素子(LCD;Liquid Crystal Display)を使用した透過型表示素子を用いてもよい。また、DMDの代わりに、LED(Light Emitting Diode)、又はOLED(Organic Light Emitting Diode)のような自発光型素子を用いてもよい。
 上記実施形態では、光源としてランプを用いる例を説明したが、これに限らず、LED、又はレーザ光源を用いてもよい。
 上記実施形態において、プロセッサ26としては、次に示す各種のプロセッサ26を用いることができる。各種のプロセッサ26には、ソフトウェア(プログラム)を実行して機能する汎用的なプロセッサ26であるCPUに加えて、FPGA(Field Programmable gate Array)などの製造後に回路構成を変更可能なプロセッサ26が含まれる。FPGAには、PLD(Programmable Logic Device)、又はASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサ26である専用電気回路などが含まれる。プロセッサ26は、これらの各種のプロセッサ26のうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサ26の組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。これらの各種のプロセッサ26のハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。
 本開示の技術は、上述の実施形態と種々の変形例は、矛盾が生じない限り、互いに組み合わせることが可能である。また、上記実施形態に限らず、要旨を逸脱しない限り種々の構成を採用することが可能である。
 以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (7)

  1.  画像を表示する表示素子と、
     前記画像を投写して投写像を形成する投写光学系と、
     前記投写像における前記投写光学系の光軸を含む第1の領域を撮影する撮影光学系、および前記撮影光学系によって結像される像を撮像する撮像素子を含む撮影ユニットと、
     前記撮影ユニットから取得した情報に基づき、前記投写像における前記光軸を含まない第2の領域についてフォーカス調整を制御するプロセッサとを備え、
     前記投写光学系の少なくとも一部と前記表示素子との相対位置を変化させることによって前記投写像の位置を変化させることが可能であり、
     前記表示素子における表示領域の最長の径をH1、
     前記投写光学系の焦点距離をf1、
     前記撮像素子における撮像領域の最長の径をH2、
     前記投写光学系の最大半画角をθ1、
     前記撮影光学系の焦点距離をf2とした場合、
      2.2<H1/|f1|  (1)
      0<|H2/(f2×tanθ1)|<1.2  (2)
    で表される条件式(1)および(2)を満足する投写装置。
  2.  前記投写像および前記第1の領域はともに矩形状であり、
     前記投写像の長辺方向と前記第1の領域の短辺方向とは平行である請求項1に記載の投写装置。
  3.  前記投写像は、前記投写像の投写距離の測定用の画像である請求項1又は2に記載の投写装置。
  4.  前記投写光学系は前記投写像全体となる第3の領域についてフォーカス調整が可能であり、
     前記第2の領域のフォーカス調整の際の可動部と、前記第3の領域のフォーカス調整の際の可動部とは異なる請求項1から3のいずれか1項に記載の投写装置。
  5.  前記投写光学系は光路を偏向する少なくとも1つの光路偏向部材を有し、
     前記投写光学系の一部は前記投写光学系の光軸の周りに回転可能であり、
     最も拡大側の前記光路偏向部材より拡大側に前記撮影ユニットが配設されている請求項1から4のいずれか1項に記載の投写装置。
  6.   3<H1/|f1|<8  (1-1)
    で表される条件式(1-1)を満足する請求項1から5のいずれか1項に記載の投写装置。
  7.   0<|H2/(f2×tanθ1)|<0.8  (2-1)
    で表される条件式(2-1)を満足する請求項1から6のいずれか1項に記載の投写装置。
PCT/JP2021/030940 2020-09-25 2021-08-24 投写装置 WO2022064932A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022551211A JP7408829B2 (ja) 2020-09-25 2021-08-24 投写装置
CN202190000756.XU CN220323624U (zh) 2020-09-25 2021-08-24 投影装置
US18/183,885 US20230213845A1 (en) 2020-09-25 2023-03-14 Projection apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-161154 2020-09-25
JP2020161154 2020-09-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/183,885 Continuation US20230213845A1 (en) 2020-09-25 2023-03-14 Projection apparatus

Publications (1)

Publication Number Publication Date
WO2022064932A1 true WO2022064932A1 (ja) 2022-03-31

Family

ID=80845072

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/030940 WO2022064932A1 (ja) 2020-09-25 2021-08-24 投写装置

Country Status (4)

Country Link
US (1) US20230213845A1 (ja)
JP (1) JP7408829B2 (ja)
CN (1) CN220323624U (ja)
WO (1) WO2022064932A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009229807A (ja) * 2008-03-24 2009-10-08 Brother Ind Ltd プロジェクタ
JP2015215378A (ja) * 2014-05-07 2015-12-03 ソニー株式会社 投射型画像表示装置及び投射型画像表示装置の制御方法
JP2020008804A (ja) * 2018-07-12 2020-01-16 キヤノン株式会社 画像投射装置
WO2020100507A1 (ja) * 2018-11-13 2020-05-22 富士フイルム株式会社 投射装置
JP2020112660A (ja) * 2019-01-10 2020-07-27 キヤノン株式会社 プロジェクション装置およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009229807A (ja) * 2008-03-24 2009-10-08 Brother Ind Ltd プロジェクタ
JP2015215378A (ja) * 2014-05-07 2015-12-03 ソニー株式会社 投射型画像表示装置及び投射型画像表示装置の制御方法
JP2020008804A (ja) * 2018-07-12 2020-01-16 キヤノン株式会社 画像投射装置
WO2020100507A1 (ja) * 2018-11-13 2020-05-22 富士フイルム株式会社 投射装置
JP2020112660A (ja) * 2019-01-10 2020-07-27 キヤノン株式会社 プロジェクション装置およびプログラム

Also Published As

Publication number Publication date
JPWO2022064932A1 (ja) 2022-03-31
CN220323624U (zh) 2024-01-09
JP7408829B2 (ja) 2024-01-05
US20230213845A1 (en) 2023-07-06

Similar Documents

Publication Publication Date Title
JP6700345B2 (ja) フォールデッドオプティクスを用いたマルチカメラシステム
US10012815B2 (en) Projection optical system and projection type display apparatus using the same
JP6481886B2 (ja) 投射光学システムおよび画像表示装置
KR100903908B1 (ko) 투사형 표시 장치
JP3996610B2 (ja) プロジェクタ装置とその画像歪補正方法
KR101213636B1 (ko) 이미지를 투사하기 위한 투사기 및 대응 방법
US9740086B2 (en) Wide field angle projection system and projection-type image display apparatus
US10254522B2 (en) Ultra-short throw projector
US9372328B2 (en) Projection system and projector
JP2014174185A (ja) 制御装置、制御方法および撮像装置
WO2020006565A1 (en) Projection system with offset image
JP2008298856A (ja) 映像投影装置
JP2021039162A (ja) 結像光学系、投写型表示装置、および撮像装置
JP2005084581A (ja) 投影光学系および映像投影装置
KR20100066444A (ko) 광 주사 장치
JP5115032B2 (ja) 映像投影装置及び映像投影方法
JP6694761B2 (ja) 投射用ズームレンズおよび投射型画像表示装置
WO2022064932A1 (ja) 投写装置
CN110596996B (zh) 一种投影机及自动几何校正方法
KR102492059B1 (ko) 초단초점 프로젝터 장치
JP6745775B2 (ja) 結像光学系、投写型表示装置、及び撮像装置
JP2015132723A (ja) 投射光学系および画像表示装置
JP2020112587A (ja) 投射光学系およびそれを有する投射型表示装置
JP2001083418A (ja) テレセントリック・ズームレンズ
KR20120111412A (ko) 화상투영장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21872064

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022551211

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202190000756.X

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21872064

Country of ref document: EP

Kind code of ref document: A1