WO2020261884A1 - 投影システムの制御装置、投影システム、投影システムの制御方法、投影システムの制御プログラム - Google Patents

投影システムの制御装置、投影システム、投影システムの制御方法、投影システムの制御プログラム Download PDF

Info

Publication number
WO2020261884A1
WO2020261884A1 PCT/JP2020/021636 JP2020021636W WO2020261884A1 WO 2020261884 A1 WO2020261884 A1 WO 2020261884A1 JP 2020021636 W JP2020021636 W JP 2020021636W WO 2020261884 A1 WO2020261884 A1 WO 2020261884A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
range
optical system
control device
projected
Prior art date
Application number
PCT/JP2020/021636
Other languages
English (en)
French (fr)
Inventor
米山 一也
和紀 井上
伊藤 研治
林 健吉
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2020261884A1 publication Critical patent/WO2020261884A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Definitions

  • the present invention relates to a projection system control device, a projection system, a projection system control method, and a projection system control program.
  • Patent Documents 1 and 2 A system combining an imaging device and a projection device has been proposed (see, for example, Patent Documents 1 and 2).
  • the system described in Patent Document 1 detects the inclination of the projected image from the captured image of the image pickup apparatus and corrects the inclination.
  • the system described in Patent Document 2 rotates a dichroic mirror to match the angles of view of the projected image and the captured image when the angles of view are different from each other.
  • Patent Document 3 describes a projector that can manually adjust the position of the projected image on the projection surface.
  • One embodiment according to the technique of the present disclosure has been made in view of the above circumstances, and provides a projection system capable of improving the visibility of a projected image, a control device thereof, a control method, and a control program. To do.
  • the control device of the present invention is a control device for a projection system including an optical system that projects an image generated by a display unit based on input image data onto a projection target object, and an image pickup element that captures the projection target object.
  • the projection position of the projected image of the image can be changed to any of a plurality of positions in the imaging range of the image pickup element, and the image pickup of the projection target object acquired from the image pickup element. It is provided with a determination unit for determining the range of the projected image in the image.
  • the projection system of the present invention includes the control device, the optical system, and the image pickup device.
  • the control method of the present invention is a control method of a projection system including an optical system that projects an image generated by a display unit based on input image data onto a projection target object, and an image pickup element that captures the projection target object.
  • the projection position of the projected image of the image can be changed to any of a plurality of positions in the imaging range of the image pickup element, and the image pickup of the projection target object acquired from the image pickup element. It includes a determination step for determining the range of the projected image in the image.
  • the control program of the present invention is a control program of a projection system including an optical system that projects an image generated by a display unit based on input image data onto a projection target object, and an image sensor that captures the projection target object. Therefore, the projection system can change the projection position of the projected image of the image to any of a plurality of positions in the imaging range of the image sensor, and capture the image of the projection object acquired from the image sensor. This is for causing a computer to perform a determination step of determining the range of the projected image in the image.
  • a projection system capable of improving the visibility of a projected image, a control device thereof, a control method, and a control program.
  • FIG. 3 is a schematic view of the lens 34 of the optical unit 6 in the reference rotation state shown in FIG. 3 as viewed from the screen SC side. It is a schematic diagram for demonstrating the relationship between the image displayed by a display part, and the image projected on a screen. It is a schematic diagram which shows the captured image obtained by imaging the screen SC by the image pickup element 38 in each rotation state shown in FIG. It is a schematic diagram which shows the internal block structure of the projector 100 shown in FIG.
  • FIG. 3 shows the 1st modification of the projector 100 shown in FIG.
  • FIG. 3 shows the 1st modification of the projector 100 shown in FIG.
  • FIG. 3 shows the 1st modification of the projector 100 shown in FIG.
  • FIG. 3 shows the 1st modification of the projector 100 shown in FIG.
  • FIG. 3 shows the 1st modification of the projector 100 shown in FIG.
  • FIG. 3 shows the 1st modification of the projector 100 shown in FIG.
  • FIG. 3 shows the 1st modification of the projector 100 shown in FIG.
  • FIG. 3 shows the 1st modification of the projector 100 shown in FIG.
  • FIG. 3 shows the modification of the functional block of the system control part 14 of the projector 100 shown in FIG.
  • FIG. 1 shows the 1st modification of the system control part 14 of the projector 100 shown in FIG.
  • FIG. 1 shows the 1st modification of the system control part 14 of the projector 100 shown in FIG.
  • FIG. 1 shows the 1st modification of the system control part 14
  • FIG. 1 is a schematic view showing an external configuration of a projector 100, which is an embodiment of the projection system of the present invention.
  • FIG. 2 is a schematic view showing an example of the internal configuration of the light source unit 11 of FIG.
  • FIG. 3 is a schematic cross-sectional view of the optical unit 6 of the projector 100 shown in FIG. FIG. 3 shows a cross section of the light emitted from the main body 1 along the optical path.
  • the projector 100 includes a main body portion 1 and an optical unit 6 provided so as to project from the main body portion 1.
  • the optical unit 6 includes a first member 2 supported by the main body 1 and a second member 3 rotatably supported by the first member 2.
  • the optical unit 6 may be detachably configured (in other words, interchangeable) in the main body 1.
  • the main body 1 has a housing 15 (see FIG. 3) in which an opening 15a (see FIG. 3) for passing light is formed in a portion connected to the optical unit 6.
  • the light source unit 11 As shown in FIG. 1, inside the housing 15 of the main body 1, the light source unit 11 and the light modulation element that spatially modulates the light emitted from the light source unit 11 based on the input image data to generate an image.
  • An optical modulation unit 12 including 12a (see FIG. 2) is provided.
  • the display unit is composed of the light source unit 11 and the light modulation unit 12.
  • the light source unit 11 includes a light source 41 that emits white light, a color wheel 42, and an illumination optical system 43.
  • the light source 41 is configured to include a light emitting element such as a laser or an LED (Light Emitting Diode).
  • the color wheel 42 is arranged between the light source 41 and the illumination optical system 43.
  • the color wheel 42 is a disk-shaped member, and an R filter that transmits red light, a G filter that transmits green light, and a B filter that transmits blue light are provided along the circumferential direction thereof.
  • the color wheel 42 is rotated about an axis, and the white light emitted from the light source 41 is separated into red light, green light, and blue light in a time-divided manner and guided to the illumination optical system 43.
  • the light emitted from the illumination optical system 43 is incident on the light modulation element 12a.
  • a DMD Digital Micromirror Device
  • LCOS Liquid crystal on silicon
  • MEMS Micro Electro Mechanical Systems
  • liquid crystal display element or the like can also be used.
  • the image formed by the light spatially modulated by the optical modulation unit 12 passes through the opening 15a of the housing 15 and is incident on the optical unit 6 to be projected. It is projected onto the screen SC as an object, and the projected image G1 becomes visible to the observer.
  • the optical unit 6 includes a first member 2 having a hollow portion 2A connected to the inside of the main body portion 1, a second member 3 having a hollow portion 3A connected to the hollow portion 2A, and a hollow portion 2A.
  • the first optical system 21 and the reflecting member 22 arranged, and the second optical system 31, the branch member 32, the third optical system 33, the fourth optical system 37, the image sensor 38, and the lens 34 arranged in the hollow portion 3A.
  • a rotation mechanism 4 and a first sensor 36 is arranged in the hollow portion 3A.
  • the first member 2 is a member having a rectangular cross-sectional outer shape, and the openings 2a and 2b are formed on surfaces perpendicular to each other.
  • the first member 2 is supported by the main body 1 in a state where the opening 2a is arranged at a position facing the opening 15a of the main body 1.
  • the light emitted from the light modulation element 12a of the light modulation unit 12 of the main body 1 passes through the openings 15a and 2a and is incident on the hollow portion 2A of the first member 2.
  • the cross-sectional outer shape of the first member 2 and the second member 3 is arbitrary and is not limited to those described above.
  • the incident direction of the light incident on the hollow portion 2A from the main body portion 1 is described as the direction X1, the opposite direction of the direction X1 is described as the direction X2, and the direction X1 and the direction X2 are collectively referred to as the direction X.
  • the direction from the front to the back of the paper and the opposite direction are described as the direction Z.
  • the direction perpendicular to the direction X and the direction Z is described as the direction Y, and among the directions Y, the upward direction in FIG. 3 is described as the direction Y1, and the downward direction in FIG. 3 is described as the direction Y2. ..
  • the projector 100 is arranged so that the direction Y2 is the vertical direction.
  • the first optical system 21, the reflective member 22, the second optical system 31, the branch member 32, the third optical system 33, and the lens 34 are optical systems for projecting the image formed by the light modulation element 12a onto the screen SC. It constitutes (hereinafter referred to as a projection optical system).
  • FIG. 3 shows the optical axis K of this projection optical system.
  • the first optical system 21, the reflective member 22, the second optical system 31, the branch member 32, the third optical system 33, and the lens 34 are arranged along the optical axis K in this order from the light modulation element 12a side.
  • the light modulation element 12a is eccentrically arranged on the direction Y2 side with respect to the optical axis K. In other words, the center of the image formed by the light modulation element 12a does not coincide with the optical axis K and is located on the direction Y2 side of the optical axis K.
  • the first optical system 21 includes at least one lens, and guides light traveling from the main body 1 to the first member 2 in the direction X1 to the reflecting member 22.
  • the reflecting member 22 reflects the light incident from the first optical system 21 in the direction Y1.
  • the reflective member 22 is composed of, for example, a mirror or the like.
  • the first member 2 has an opening 2b formed on the optical path of the light reflected by the reflecting member 22, and the reflected light passes through the opening 2b and proceeds to the hollow portion 3A of the second member 3.
  • the second member 3 is a member having a substantially T-shaped cross section, and an opening 3a is formed at a position facing the opening 2b of the first member 2.
  • the light from the main body 1 that has passed through the opening 2b of the first member 2 is incident on the hollow portion 3A of the second member 3 through the opening 3a.
  • the second optical system 31 includes at least one lens, and guides the light incident from the first member 2 to the branch member 32.
  • the branch member 32 reflects the light incident from the second optical system 31 in the direction X2 and guides it to the third optical system 33. Further, the branch member 32 transmits the subject light incident on the lens 34 from the screen SC side and traveling in the direction X1 passing through the third optical system 33, and guides the subject light to the fourth optical system 37.
  • the branch member 32 is composed of, for example, a half mirror, a beam splitter, a polarizing member, or the like.
  • the third optical system 33 includes at least one lens, and guides the light reflected by the branch member 32 to the lens 34.
  • the third optical system 33 may include, for example, a focus lens for adjusting the focal position, an optical member for adjusting the focal length, a variable diaphragm having a variable amount of transmitted light, and the like.
  • the lens 34 is arranged at this end so as to close the opening 3c formed at the end of the second member 3 on the direction X2 side.
  • the lens 34 projects the light incident from the third optical system 33 onto the screen SC.
  • the fourth optical system 37 is arranged next to the branch member 32 on the direction X1 side, and guides the subject light that passes through the branch member 32 and travels in the direction X1 to the image sensor 38.
  • the optical axis of the fourth optical system 37 and the optical axis of the lens 34 and the third optical system 33 are substantially aligned with each other.
  • the image sensor 38 is a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like.
  • the image sensor 38 images the screen SC through the lens 34, the third optical system 33, the branch member 32, and the fourth optical system 37.
  • the captured image signal of the image pickup element 38 is input to the system control unit 14 described later.
  • the lens 34, the third optical system 33, and the branch member 32 form a part of the projection optical system.
  • the rotation mechanism 4 is a mechanism for rotatably connecting the second member 3 to the first member 2.
  • the second member 3 is rotatably configured around a rotation axis (specifically, an optical axis K) extending in the direction Y. That is, the rotation mechanism 4 makes it possible to partially rotate the projection optical system in the optical unit 6.
  • the rotation mechanism 4 is not limited to the arrangement position shown in FIG. 3, as long as the optical system can be rotated. Further, the number of rotation mechanisms is not limited to one, and a plurality of rotation mechanisms may be provided.
  • the rotation mechanism 4 causes the second member 3 to be rotated by 90 degrees from the reference rotation state (hereinafter referred to as the reference rotation state) and the rotation state (hereinafter, referred to as the reference rotation state) shown in FIG. A left rotation state), a rotation state rotated 90 degrees to the back side of the paper surface from the reference rotation state (hereinafter referred to as a right rotation state), and a rotation state rotated 180 degrees from the reference rotation state (hereinafter referred to as a 180 degree rotation state). It can take four rotation states. Regardless of which of the four rotational states the second member 3 is in, the screen SC is provided at a position facing the lens 34 and is used.
  • the rotation mechanism 4 may be one that manually rotates the second member 3 or one that electrically rotates the second member 3.
  • the configuration is such that four rotational states can be taken, but for example, by configuring the first member 2 to be rotatable with respect to the main body 1, it is possible to have a configuration in which more rotational states can be taken.
  • the first sensor 36 is for detecting the rotational state of the second member 3 (in other words, the rotational state of the projection optical system) by the rotation mechanism 4, and an acceleration sensor, an angular velocity sensor, or the like is used.
  • the first sensor 36 is composed of a three-axis acceleration sensor that detects accelerations in directions X, Y, and Z.
  • the rotation state of the second member 3 by the rotation mechanism 4 can be any of the reference rotation state, the right rotation state, the left rotation state, and the 180 degree rotation state. It can be determined whether or not.
  • a plurality of first sensors 36 may be provided in order to improve the detection accuracy of the rotational state of the second member 3.
  • the first sensor 36 may be additionally arranged in the vicinity of the rotation mechanism 4.
  • FIG. 4 is a schematic view of the lens 34 of the optical unit 6 in the reference rotation state shown in FIG. 3 as viewed from the screen SC side.
  • FIG. 4 shows a straight line L2 passing through the optical axis K and extending in the direction Y, and a straight line L1 passing through the optical axis K and extending in the direction Z.
  • the lens 34 can be divided into four regions, a region 34A, a region 34B, a region 34C, and a region 34D, by a straight line L1 and a straight line L2.
  • the images generated by the light modulation elements 12a can be ejected from different regions of the lens 34 and projected toward the screen SC according to the rotational state of the second member 3 by the rotation mechanism 4.
  • the projection optical system is being designed.
  • the first projection mode in which the image is projected from the areas 34A and 34D shown in FIG. 4 toward the screen SC and the first projection mode in which the image is projected from the areas 34A and 34B shown in FIG. 4 toward the screen SC. It is possible to switch between the two projection modes and the third projection mode in which an image is projected from the areas 34C and 34D shown in FIG. 4 toward the screen SC.
  • the rotation state of the second member 3 is the reference rotation state and the rotation state of 180 degrees, in other words, the portion of the optical axis K between the branch member 32 and the lens 34 extends in the direction X. In this state, the image is projected in the first projection mode.
  • the rotation state of the second member 3 is a clockwise rotation state, in other words, the portion of the optical axis K between the branch member 32 and the lens 34 extends in the direction Z, and the lens 34 is the branch member 32.
  • the lens is located closer to the direction Z1, the image is projected in the second projection mode.
  • the rotation state of the second member 3 is the left rotation state, in other words, the portion of the optical axis K between the branch member 32 and the lens 34 extends in the direction Z, and the lens 34 is the branch member 32.
  • the lens is located closer to the direction Z2, the image is projected in the third projection mode.
  • FIG. 5 is a schematic diagram for explaining the relationship between the image displayed by the display unit and the image projected on the screen.
  • the image D1 generated by the light modulation element 12a in a state where the light modulation element 12a is viewed from the opening 15a side in the direction X2 is shown at the uppermost part.
  • the light modulation element 12a has a configuration in which display pixels for forming one pixel of the projected image G1 have a display surface arranged in a two-dimensional manner, and the image D1 may be an image displayed on this display surface. it can.
  • the image D1 shows an image of the maximum size that can be projected on the screen SC by the projector 100, in other words, corresponds to a screen on which the image can be displayed.
  • FIG. 5 is a schematic diagram for explaining the relationship between the image displayed by the display unit and the image projected on the screen.
  • an L-shaped mark is attached to the lower left corner of the image D1. This mark is for making it easy to recognize the orientation of the image D1 and is actually projected on the screen SC. is not.
  • the right side in the figure is the direction Z1 side
  • the left side in the figure is the direction Z2 side
  • the upper side in the figure is the direction Y1 side
  • the lower side in the figure is the direction Y2 side.
  • FIG. 5 shows a projected image G1 of the image D1 projected on the screen SC when the screen SC is viewed from the side opposite to the lens 34 side in the reference rotation state, and an imaging range IM of the image sensor 38 in the screen SC. It is shown.
  • FIG. 5 shows a projected image G1 of the image D1 projected on the screen SC when the screen SC is viewed from the side opposite to the lens 34 side in the clockwise rotation state, and an image pickup range IM of the image sensor 38 in the screen SC. It is shown.
  • FIG. 5 shows a projected image G1 of the image D1 projected on the screen SC when the screen SC is viewed from the side opposite to the lens 34 side in the counterclockwise rotation state, and an image pickup range IM of the image sensor 38 in the screen SC. It is shown.
  • the position of the projected image G1 in the left rotation state and the position of the projected image G1 in the right rotation state have a line-symmetrical relationship with respect to a straight line passing through the optical axis K and extending in the direction Y. Further, the projected image G1 in the left rotation state and the projected image G1 in the right rotation state have a point-symmetrical relationship with respect to the optical axis K.
  • the projected image G1 of the image D1 projected on the screen SC when the screen SC is viewed from the side opposite to the lens 34 side in the 180-degree rotation state, and the image pickup element 38 on the screen SC are captured.
  • the range IM is shown.
  • the position of the projected image G1 in the 180-degree rotation state coincides with the position of the projected image G1 in the reference projection state. Further, the projected image G1 in the 180-degree rotation state is a 180-degree rotation of the projected image G1 in the reference rotation state as it is.
  • the positions of the projected image G1 can take three positions in the imaging range IM depending on the rotational state of the second member 3. Specifically, the position of the projected image G1 in the reference rotation state and the 180-degree rotation state is a position above the optical axis K in FIG. Further, the position of the projected image G1 in the left rotation state is a position on the left side of the optical axis K in FIG. Further, the position of the projected image G1 in the clockwise rotation state is the position on the right side of the optical axis K in FIG.
  • FIG. 6 is a schematic view showing an captured image obtained by imaging the screen SC with the image sensor 38 in each rotation state shown in FIG.
  • the captured image P1 is an image obtained by imaging the imaging range IM in the reference rotation state of FIG.
  • the captured image P2 is an image obtained by imaging the imaging range IM in the counterclockwise rotation state of FIG.
  • the captured image P3 is an image obtained by imaging the imaging range IM in the clockwise rotation state of FIG.
  • the captured image P4 is an image obtained by imaging the imaging range IM in the 180-degree rotation state of FIG.
  • FIG. 7 is a schematic view showing the internal block configuration of the projector 100 shown in FIG.
  • the main body 1 of the projector 100 includes a light source unit 11, a light modulation unit 12 including a light modulation element 12a and a light modulation element drive unit 12b for driving the light modulation element 12a, and a system control unit 14 that controls the whole. , Are provided.
  • the light modulation element driving unit 12b drives the light modulation element 12a based on the input image data input from the system control unit 14, and spatially modulates the light from the light source unit 11 with the input image data.
  • the system control unit 14 includes various processors, a memory 14a such as a ROM (Read Only Memory), and a RAM (Random Access Memory).
  • the memory 14a constitutes a storage unit.
  • programmable logic which is a processor whose circuit configuration can be changed after manufacturing
  • CPU Central Processing Unit
  • FPGA Field Programmable Gate Array
  • a dedicated electric circuit or the like which is a processor having a circuit configuration specially designed for executing a specific process such as a device (Programmable Logic Device: PLD) or an ASIC (Application Special Integrated Circuit), and the like are included.
  • PLD Process Control Deformation Device
  • ASIC Application Special Integrated Circuit
  • the processor of the system control unit 14 may be composed of one of various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). It may be composed of.
  • rotation state information indicating the rotation state of the projection optical system (information indicating the reference rotation state, information indicating the right rotation state, information indicating the left rotation state, rotation of 180 degrees) Information indicating that the state is present) and projected image information indicating the range in which the projected image G1 exists in the captured image of the screen SC captured by the image pickup element 38 are stored in association with each other.
  • this projected image information includes, in addition to information on the range in which the projected image G1 exists in the captured image, vertical direction information indicating which direction is the vertical direction in that range.
  • the projected image information corresponding to the rotation state information indicating that the reference rotation state is included includes information indicating that the upper side of the range is the vertically lower side.
  • the projected image information corresponding to the rotation state information indicating that the rotation state is left-handed includes information indicating that the upper side of the range is the vertically lower side.
  • the projected image information corresponding to the rotation state information indicating that the rotation state is clockwise includes information indicating that the upper side of the range is the vertically lower side.
  • the projected image information corresponding to the rotation state information indicating that the rotation state is 180 degrees includes information indicating that the upper side of the range is the vertical lower side.
  • FIG. 8 is a functional block diagram of the system control unit 14 shown in FIG. 7.
  • the processor of the system control unit 14 functions as a control device including a rotation state determination unit 14A, a projected image range determination unit 14B, and a display image adjustment unit 14C by executing a control program.
  • a determination unit is composed of a rotation state determination unit 14A and a projected image range determination unit 14B.
  • the rotation state determination unit 14A determines which of the reference rotation state, the right rotation state, the left rotation state, and the 180 degree rotation state of the second member 3 is. judge.
  • the projected image range determination unit 14B acquires the captured image of the screen SC from the image sensor 38, and determines the range in which the projected image G1 exists in the acquired captured image.
  • the projected image range determination unit 14B reads out the projected image information corresponding to the rotation state information of the rotation state determined by the rotation state determination unit 14A from the memory 14a, and the captured image is based on the read projection image information.
  • the range in which the projected image G1 exists is determined.
  • the display image adjustment unit 14C cuts out the range of the projected image G1 determined by the projected image range determination unit 14B from the captured image acquired by the projected image range determination unit 14B, and based on the cutout image cut out from this range, the display image adjustment unit 14C The input image data input to the light modulation element drive unit 12b is adjusted.
  • the display image adjustment unit 14C refers to the vertical direction information included in the projected image information to recognize the vertical lower side of the cutout image, and the vertical lower side of the cutout image and the lower side of the input image data. To match. That is, the vertical direction of the cut-out image and the vertical direction of the input image data are matched. After that, the display image adjusting unit 14C makes a comparison with the cut-out image and the input image data having the same size, and based on the comparison result, for example, the unevenness or pattern in the range of the screen SC on which the projected image G1 is projected. Is detected, and the input image data is adjusted so that the unevenness or pattern is difficult to see.
  • the projected image information includes information indicating which direction in the range is the right direction or the left direction of the input image data.
  • the display image adjusting unit 14C matches the vertically lower side of the cutout image with the lower side of the input image data, and further matches the right or left side of the cutout image with the right or left side of the input image data. This makes it possible to match the orientation of the input image data with the orientation of the cropped image with higher accuracy.
  • the position of the projected image G1 can be accurately extracted, and the projector 100 is not used in the usage environment.
  • the input image data can be adjusted.
  • the vertical direction of the input image data can be matched with the vertical direction of the captured image (the above-mentioned cutout image) of the projected image G1 by the vertical direction information included in the projected image information. Therefore, the input image data can be adjusted at high speed and with high accuracy.
  • the size of the projected image G1 projected on the screen SC changes due to the change in the focal length. Therefore, the size of the range of the projected image G1 in each of the captured images P1-P4 shown in FIG. 6 also changes.
  • the pair information of the rotation state information and the projection image information corresponding thereto is stored in the memory 14a for each settable focal length.
  • the projected image range determination unit 14B reads out the projected image information corresponding to the combination of the rotation state determined by the rotation state determination unit 14A and the set focal length from the memory 14a, and converts the read projection image information into the read projection image information. Based on this, the range of the projected image G1 in the captured image may be determined. In this way, even when the focal length is variable, the projected image G1 can be extracted from the captured image at high speed and with high accuracy.
  • FIG. 9 is a schematic cross-sectional view corresponding to FIG. 3 showing a first modification of the projector 100 shown in FIG.
  • the optical unit 6 of the projector 100 of the first modification is the same as that of FIG. 3 except that the second sensor 23 and the shift mechanism 5 are added.
  • the shift mechanism 5 moves the optical axis K of the projection optical system in a direction perpendicular to the optical axis K (direction Y or direction Z in FIG. 9, in other words, a direction parallel to the display surface of the light modulation element 12a). It is the mechanism of.
  • the shift mechanism 5 is configured so that the position of the first member 2 in the direction Y with respect to the main body 1 can be changed.
  • the shift mechanism 5 may be one that manually moves the first member 2 or one that electrically moves the first member 2.
  • the shift mechanism 5 moves the first member 2 in the direction Y2, so that the positional relationship between the center of the image formed by the light modulation element 12a and the optical axis K changes.
  • the projected image G1 projected on the screen SC can be shifted in the direction Y2.
  • the shift mechanism 5 may be a mechanism for moving the display unit in a direction parallel to the display surface of the light modulation element 12a, instead of moving the projection optical system.
  • the shift mechanism 5 may be a mechanism for moving both the projection optical system and the display unit in a direction parallel to the display surface of the light modulation element 12a. Even with these configurations, the positional relationship between the center of the image formed by the light modulation element 12a and the optical axis K changes, and the projected image G1 projected on the screen SC can be shifted in the direction Y2. it can.
  • the second sensor 23 is for detecting the state of the shift mechanism 5, specifically, the position of the first member 2 in the direction Y.
  • the second sensor 23 is composed of, for example, an acceleration sensor, a Hall element, or the like.
  • the output signal of the second sensor 23 is input to the system control unit 14.
  • the projected image range determination unit 14B of the system control unit 14 further determines the range of the projected image G1 in the captured image based on the output signal of the second sensor 23.
  • the position of the first member 2 in the direction Y is changed by the shift mechanism 5
  • the position of the projected image G1 (position in the direction Y) in each of the captured images P1-P4 shown in FIG. 6 also changes.
  • the pair information of the rotation state information and the projection image information corresponding thereto is stored in the memory 14a for each shift state information indicating the state of the shift mechanism 5.
  • the projected image range determination unit 14B has projected image information corresponding to a combination of the rotation state determined by the rotation state determination unit 14A and the state of the shift mechanism 5 determined based on the output signal of the second sensor 23. Is read from the memory 14a, and the range of the projected image G1 in the captured image may be determined based on the read projected image information.
  • the projected image G1 can be extracted from the captured image at high speed and with high accuracy.
  • FIG. 10 is a diagram showing a modified example of the functional block of the system control unit 14 of the projector 100 shown in FIG.
  • the processor of the system control unit 14 shown in FIG. 10 functions as a control device having a marker addition unit 14D, a projected image range determination unit 14B, and a display image adjustment unit 14C by executing a control program.
  • the projected image range determination unit 14B constitutes a determination unit.
  • the marker addition unit 14D adds a marker to the input image data input to the light modulation element drive unit 12b.
  • the marker addition unit 14D adds, for example, the L-shaped marker used for explanation in FIG. 5 to the input image data.
  • the projected image range determination unit 14B shown in FIG. 10 determines the range of the projected image G1 in the captured image based on the above marker included in the captured image acquired from the image sensor 38.
  • FIG. 11 shows an image D1 including the marker M and captured images P1-P4 for each rotation state of the projection optical system when the image D1 is projected on the screen SC.
  • the position of the marker M with respect to the outer edge of the projected image G1 is predetermined. Therefore, the projected image range determination unit 14B can search for the marker M from the captured image and determine the range of the projected image G1 in the captured image with the detected marker M as a reference.
  • the display image adjusting unit 14C shown in FIG. 10 cuts out a range determined by the projected image range determination unit 14B from the captured image, and adjusts the input image data based on the cut out image. Specifically, the orientations of the cutout image and the input image data are adjusted so that the orientations of the marker M included in the cutout image and the marker M included in the input image data are the same. Then, the display image adjusting unit 14C makes a comparison with the cut-out image and the input image data having the same size, and based on the comparison result, for example, the unevenness or pattern in the range of the screen SC on which the projected image G1 is projected. Is detected, and the input image data is adjusted so that the unevenness or pattern is difficult to see.
  • the range of the projected image G1 in the captured image can be determined based on the marker M. Since any marker M can be used, the range of the projected image G1 in the captured image can be easily determined at high speed by using the marker M having a shape that facilitates the search from the captured image.
  • the range of the projected image G1 can be determined from the captured image without determining the rotational state of the projection optical system or the shift state of the first member 2. Therefore, the first sensor 36 and the second sensor 23 for detecting the rotation state and the shift state can be eliminated, and the cost of the projector 100 can be reduced. Further, since it is not necessary to store various information such as rotation state information, projected image information, shift state information, vertical direction information, and left-right direction information in the memory 14a, the cost of the projector 100 can be reduced. ..
  • an optical unit 6 that does not correspond to the above various information may be mounted on the main body 1. Therefore, when the optical unit 6 in which various information is stored in the memory 14a is mounted on the main body 1, the input image data is adjusted by the functional block shown in FIG. 8, and various information is stored in the memory 14a. When the unstored optical unit 6 is mounted on the main body 1, the input image data is adjusted by the functional block shown in FIG. By doing so, even when the optical unit 6 whose characteristics are unknown is mounted on the main body 1, the input image data can be adjusted at high speed and with high accuracy.
  • the optical unit 6 of the projector 100 simply uses the branch member 32 as a mirror, and reflects the light emitted from the lens 34 in front of the lens 34 and projects it onto the screen SC, and transmits the subject light from the screen SC.
  • a member similar to the branch member 32 may be arranged, and the fourth optical system 37 and the image pickup element 38 may be arranged on the optical path of the light transmitted through the optical member. In this configuration, the optical member arranged in front of the lens 34 becomes a part of the optical system for projecting an image.
  • the optical unit 6 has a built-in image sensor 38
  • the fourth optical system 37 and the image sensor 38 are removed from the optical unit 6, and the unit including the image sensor 38 that images the screen SC is referred to as the projector 100.
  • the projection system may be configured by providing the above as a separate body. For example, by arranging the unit including the image sensor 38 in the vicinity of the lens 34 in the second member 3, an image corresponding to the captured images P1-P4 shown in FIG. 6 is obtained for each rotational state of the projection optical system. It is possible.
  • a control device for a projection system including an optical system that projects an image generated by a display unit based on input image data onto a projection object, and an image sensor that images the projection object.
  • the projection system can change the projection position of the projected image of the image to any of a plurality of positions in the imaging range of the image pickup device.
  • a control device including a determination unit for determining the range of the projected image in the captured image of the projected object acquired from the image sensor.
  • the control device according to the above.
  • the projected image projected at each of the plurality of positions is a control device including two projected images that are point-symmetric with respect to the optical axis of the optical system.
  • a control device including a display image adjusting unit that cuts out the range from the captured image and adjusts the input image data based on the cut out image.
  • the control device includes a rotation mechanism for rotating the optical system, and the projection position can be changed to any of the plurality of positions depending on the rotation state of the optical system.
  • the determination unit is a control device that determines the range based on the output signal of the first sensor for detecting the rotational state of the optical system provided in the projection system.
  • the control device It is provided with a storage unit that stores the rotational state information indicating the rotational state of the optical system and the projected image information indicating the range in the captured image in association with each other.
  • the determination unit is a control device that determines the rotation state based on the output signal of the first sensor, and determines the range based on the rotation state, the rotation state information, and the projected image information.
  • the control device includes a mechanism for shifting at least one of the optical system and the display unit in a direction parallel to the display surface of the display unit.
  • the determination unit is a control device that determines the range based on the output signal of the second sensor for detecting the state of the shift mechanism provided in the projection system.
  • the control device is provided with a storage unit that stores the shift state information indicating the state of the shift mechanism and the projected image information indicating the range in the captured image in association with each other.
  • the determination unit is a control device that determines the state of the shift mechanism based on the output signal of the second sensor, and determines the range based on the state, the shift state information, and the projected image information.
  • the control device according to (5) or (7).
  • the projected image information includes information in the vertical direction in the above range.
  • the display image adjusting unit is a control device that adjusts the input image data in a state where the vertical direction of the cutout image and the vertical direction of the input image data are matched based on the information in the vertical direction.
  • the control device according to any one of (4) to (8).
  • the focal length of the above optical system can be changed.
  • the determination unit is a control device that further determines the range by using the information of the focal length of the optical system.
  • the control device according to any one of (1) to (8).
  • a marker addition part for adding a marker to the input image data is provided.
  • the determination unit is a control device that determines the range based on the marker included in the captured image.
  • a display image adjusting unit that cuts out the above range from the captured image and adjusts the input image data based on the cut out image is provided.
  • the display image adjusting unit is a control device that adjusts the input image data in a state where the direction of the marker included in the cutout image and the marker included in the input image data are matched.
  • the control device according to any one of (1) to (11).
  • the image sensor is a control device that images an object to be projected through a part of the optical system.
  • the control device according to any one of (1) to (13).
  • the above optical system is a control device that is configured to be replaceable.
  • a control method for a projection system including an optical system that projects an image generated by a display unit based on input image data onto a projection object, and an image pickup element that captures the projection object.
  • the projection system can change the projection position of the projected image of the image to any of a plurality of positions in the imaging range of the image pickup device.
  • a control method including a determination step for determining a range of the projected image in the captured image of the projected object acquired from the image sensor.
  • a control method in which the projected image projected at each of the plurality of positions includes two projected images that are point-symmetric with respect to the optical axis of the optical system.
  • a control method including a display image adjustment step of cutting out the above range from the captured image and adjusting the input image data based on the cut out image.
  • the projection system includes a rotation mechanism for rotating the optical system, and the projection position can be changed to any of the plurality of positions depending on the rotation state of the optical system.
  • the determination step is a control method for determining the range based on the output signal of the first sensor for detecting the rotational state of the optical system provided in the projection system.
  • the rotation state is determined based on the output signal of the first sensor, the rotation state, the rotation state information indicating the rotation state of the optical system, and the projection image information indicating the range in the captured image.
  • the projection system includes a shift mechanism that moves at least one of the optical system and the display unit in a direction parallel to the display surface of the display unit.
  • the determination step is a control method for determining the range based on the output signal of the second sensor for detecting the state of the shift mechanism provided in the projection system.
  • the determination step determines the state of the shift mechanism based on the output signal of the second sensor, and the state, shift state information indicating the state of the shift mechanism, and projected image information indicating the range in the captured image.
  • the control method according to (20) or (22) The projected image information includes information in the vertical direction in the above range.
  • the display image adjustment step is a control method for adjusting the input image data in a state where the vertical direction of the cutout image and the vertical direction of the input image data are matched based on the information in the vertical direction.
  • the focal length of the above optical system can be changed.
  • the determination step is a control method for determining the range by using the focal length information of the optical system.
  • a marker addition step for adding a marker to the input image data is provided.
  • the determination step is a control method for determining the range based on the marker included in the captured image.
  • a display image adjustment step of cutting out the above range from the captured image and adjusting the input image data based on the cut out image is provided.
  • the display image adjustment step is a control method for adjusting the input image data in a state where the directions of the marker included in the cutout image and the marker included in the input image data are matched.
  • the image pickup device is a control method for imaging the projection object through a part of the optical system.
  • a control program for a projection system including an optical system that projects an image generated by a display unit based on input image data onto a projection object, and an image sensor that images the projection object.
  • the projection system can change the projection position of the projected image of the image to any of a plurality of positions in the imaging range of the image pickup device.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Projection Apparatus (AREA)

Abstract

投影画像の視認性を向上させることのできる投影装置を提供する。 入力画像データに基づいて表示部にて生成される画像をスクリーンSCに投影する光学系と、スクリーンSCを撮像する撮像素子(38)と、を有するプロジェクタ(100)は、上記画像の投影画像G1の投影位置を、撮像素子(38)の撮像範囲IMにおける複数の位置のいずれかに変更可能であり、プロジェクタ(100)のシステム制御部(14)は、撮像素子(38)から取得したスクリーンの撮像画像P1-P4における投影画像G1の範囲を判定する。

Description

投影システムの制御装置、投影システム、投影システムの制御方法、投影システムの制御プログラム
 本発明は、投影システムの制御装置、投影システム、投影システムの制御方法、投影システムの制御プログラムに関する。
 撮像装置と投影装置とを組み合わせたシステムが提案されている(例えば、特許文献1,2参照)。特許文献1に記載のシステムは、投影画像の傾きを撮像装置の撮像画像によって検出し、その傾きを補正することを行っている。特許文献2に記載のシステムは、投影画像と撮像画像の画角がずれている場合に、ダイクロイックミラーを回転させて両者の画角を一致させることを行っている。
 また、特許文献3には、投影面上における投影画像の位置を手動にて調整可能なプロジェクタが記載されている。
日本国特開2015-016610号公報 日本国特開2017-158042号公報 国際公開第2017/169903号公報
 本開示の技術に係る1つの実施形態は、上記事情に鑑みてなされたものであり、投影画像の視認性を向上させることのできる投影システムと、その制御装置、制御方法、及び制御プログラムを提供する。
 本発明の制御装置は、入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、上記投影対象物を撮像する撮像素子と、を有する投影システムの制御装置であって、上記投影システムは、上記画像の投影画像の投影位置を、上記撮像素子の撮像範囲における複数の位置のいずれかに変更可能であり、上記撮像素子から取得した上記投影対象物の撮像画像における上記投影画像の範囲を判定する判定部を備えるものである。
 本発明の投影システムは、上記制御装置と、上記光学系と、上記撮像素子と、を備えるものである。
 本発明の制御方法は、入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、上記投影対象物を撮像する撮像素子と、を有する投影システムの制御方法であって、上記投影システムは、上記画像の投影画像の投影位置を、上記撮像素子の撮像範囲における複数の位置のいずれかに変更可能であり、上記撮像素子から取得した上記投影対象物の撮像画像における上記投影画像の範囲を判定する判定ステップを備えるものである。
 本発明の制御プログラムは、入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、上記投影対象物を撮像する撮像素子と、を有する投影システムの制御プログラムであって、上記投影システムは、上記画像の投影画像の投影位置を、上記撮像素子の撮像範囲における複数の位置のいずれかに変更可能であり、上記撮像素子から取得した上記投影対象物の撮像画像における上記投影画像の範囲を判定する判定ステップをコンピュータに実行させるためのものである。
 本発明によれば、投影画像の視認性を向上させることのできる投影システムと、その制御装置、制御方法、及び制御プログラムを提供することができる。
本発明の投影システムの一実施形態であるプロジェクタ100の外観構成を示す模式図である。 図1の光源ユニット11の内部構成の一例を示す模式図である。 図1に示すプロジェクタ100の光学ユニット6の断面模式図である。 図3に示す基準回転状態における光学ユニット6のレンズ34をスクリーンSC側から見た模式図である。 表示部によって表示される画像とスクリーンに投影される画像との関係を説明するための模式図である。 図5に示した各回転状態において撮像素子38によってスクリーンSCを撮像して得られる撮像画像を示す模式図である。 図1に示すプロジェクタ100の内部ブロック構成を示す模式図である。 図7に示すシステム制御部14の機能ブロック図である。 図1に示すプロジェクタ100の第一変形例を示す図3に相当する断面模式図である。 図1に示すプロジェクタ100のシステム制御部14の機能ブロックの変形例を示す図である。 マーカーMを含む画像D1と撮像画像との関係を示す模式図である。
 以下、本発明の実施形態について図面を参照して説明する。
 図1は、本発明の投影システムの一実施形態であるプロジェクタ100の外観構成を示す模式図である。図2は、図1の光源ユニット11の内部構成の一例を示す模式図である。図3は、図1に示すプロジェクタ100の光学ユニット6の断面模式図である。図3は、本体部1から出射される光の光路に沿った面での断面を示している。
 図1に示すように、プロジェクタ100は、本体部1と、本体部1から突出して設けられた光学ユニット6と、を備える。光学ユニット6は、本体部1に支持される第一部材2と、第一部材2に回転自在に支持された第二部材3と、を備える。なお、光学ユニット6は、本体部1に着脱自在に構成(換言すると交換可能に構成)されていてもよい。
 本体部1は、光学ユニット6と連結される部分に光を通すための開口15a(図3参照)が形成された筐体15(図3参照)を有する。
 本体部1の筐体15の内部には、図1に示すように、光源ユニット11と、光源ユニット11から出射される光を入力画像データに基づいて空間変調して画像を生成する光変調素子12a(図2参照)を含む光変調ユニット12と、が設けられている。光源ユニット11と光変調ユニット12によって表示部が構成される。
 図2に示す例では、光源ユニット11は、白色光を出射する光源41と、カラーホイール42と、照明光学系43と、を備える。光源41は、レーザ又はLED(Light Emitting Diode)等の発光素子を含んで構成される。カラーホイール42は、光源41と照明光学系43の間に配置されている。カラーホイール42は、円板状の部材であり、その周方向に沿って、赤色光を透過するRフィルタ、緑色光を透過するGフィルタ、及び青色光を透過するBフィルタが設けられている。カラーホイール42は軸周りに回転され、光源41から出射される白色光を時分割にて赤色光、緑色光、及び青色光に分光して照明光学系43に導く。照明光学系43から出射された光は光変調素子12aに入射される。
 光変調ユニット12に含まれる光変調素子12aは、図2の光源ユニット11の構成であればDMD(Digital Micromirror Device)が例えば用いられる。光変調素子12aとしては、LCOS(Liquid crystal on silicon)、MEMS(Micro Electro Mechanical Systems)素子、又は液晶表示素子等を用いることもできる。図3に示すように、光変調ユニット12によって空間変調された光によって形成される画像(表示部の表示画像)は、筐体15の開口15aを通過して光学ユニット6に入射され、投影対象物としてのスクリーンSCに投影されて、投影画像G1が観察者から視認可能となる。
 図3に示すように、光学ユニット6は、本体部1の内部と繋がる中空部2Aを有する第一部材2と、中空部2Aと繋がる中空部3Aを有する第二部材3と、中空部2Aに配置された第一光学系21及び反射部材22と、中空部3Aに配置された第二光学系31、分岐部材32、第三光学系33、第四光学系37、撮像素子38、及びレンズ34と、回転機構4と、第一センサ36と、を備える。
 第一部材2は、断面外形が矩形の部材であり、開口2aと開口2bが互いに垂直な面に形成されている。第一部材2は、本体部1の開口15aと対面する位置に開口2aが配置される状態にて、本体部1によって支持されている。本体部1の光変調ユニット12の光変調素子12aから射出された光は、開口15a及び開口2aを通って第一部材2の中空部2Aに入射される。第一部材2や第二部材3の断面外形は任意であり、上述したものには限定されない。
 本体部1から中空部2Aに入射される光の入射方向を方向X1と記載し、方向X1の逆方向を方向X2と記載し、方向X1と方向X2を総称して方向Xと記載する。また、図3において、紙面手前から奥に向かう方向とその逆方向を方向Zと記載する。また、方向X及び方向Zに垂直な方向を方向Yと記載し、方向Yのうち、図3において上に向かう方向を方向Y1と記載し、図3において下に向かう方向を方向Y2と記載する。図3の例では、方向Y2が鉛直方向となるようにプロジェクタ100が配置されている。
 第一光学系21、反射部材22、第二光学系31、分岐部材32、第三光学系33、及びレンズ34は、光変調素子12aによって形成された画像をスクリーンSCに投影するための光学系(以下、投影光学系という)を構成している。図3には、この投影光学系の光軸Kが示されている。第一光学系21、反射部材22、第二光学系31、分岐部材32、第三光学系33、及びレンズ34は、光変調素子12a側からこの順に光軸Kに沿って配置されている。図3の例では、光変調素子12aは、光軸Kよりも方向Y2側に偏心して配置されている。換言すると、光変調素子12aによって形成される画像の中心は、光軸Kとは一致しておらず、光軸Kよりも方向Y2側に位置する。
 第一光学系21は、少なくとも1つのレンズを含み、本体部1から第一部材2に入射された方向X1に進む光を反射部材22に導く。
 反射部材22は、第一光学系21から入射された光を方向Y1に反射させる。反射部材22は、例えばミラー等によって構成される。第一部材2には、反射部材22にて反射した光の光路上に開口2bが形成されており、この反射した光は開口2bを通過して第二部材3の中空部3Aへと進む。
 第二部材3は、断面外形が略T字状の部材であり、第一部材2の開口2bと対面する位置に開口3aが形成されている。第一部材2の開口2bを通過した本体部1からの光は、この開口3aを通って第二部材3の中空部3Aに入射される。
 第二光学系31は、少なくとも1つのレンズを含み、第一部材2から入射された光を、分岐部材32に導く。
 分岐部材32は、第二光学系31から入射される光を方向X2に反射させて第三光学系33に導く。また、分岐部材32は、スクリーンSC側からレンズ34に入射されて第三光学系33を通過した方向X1に進む被写体光を透過させて、第四光学系37に導く。分岐部材32は、例えばハーフミラー、ビームスプリッター、又は偏光部材等によって構成される。
 第三光学系33は、少なくとも1つのレンズを含み、分岐部材32にて反射された光をレンズ34に導く。第三光学系33には、例えば、焦点位置を調節するためのフォーカスレンズ、焦点距離を調節するための光学部材、又は透過光量が可変の可変絞り等が含まれていてもよい。
 レンズ34は、第二部材3の方向X2側の端部に形成された開口3cを塞ぐ形でこの端部に配置されている。レンズ34は、第三光学系33から入射された光をスクリーンSCに投影する。
 第四光学系37は、分岐部材32の方向X1側の隣に配置されており、分岐部材32を透過して方向X1に進む被写体光を撮像素子38に導く。第四光学系37の光軸と、レンズ34及び第三光学系33の光軸とは実質的に一致している。
 撮像素子38は、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等である。撮像素子38は、レンズ34、第三光学系33、分岐部材32、及び第四光学系37を通して、スクリーンSCを撮像する。撮像素子38の撮像画像信号は、後述のシステム制御部14に入力される。レンズ34、第三光学系33、分岐部材32は、投影光学系の一部を構成している。
 回転機構4は、第一部材2に対して第二部材3を回転自在に連結する機構である。この回転機構4によって、第二部材3は、方向Yに延びる回転軸(具体的には光軸K)の回りに回転自在に構成されている。つまり、この回転機構4によって、光学ユニット6内の投影光学系を部分的に回転させることが可能になっている。なお、回転機構4は、光学系を回転させることができればよく、図3に示した配置位置に限定されない。また、回転機構の数も1つに限らず、複数設けられていてもよい。
 具体的には、回転機構4により、第二部材3は、図3に示す回転状態(以下、基準回転状態という)と、基準回転状態から紙面手前側に90度回転された回転状態(以下、左回転状態という)と、基準回転状態から紙面奥側に90度回転された回転状態(以下、右回転状態という)と、基準回転状態から180度回転された回転状態(以下、180度回転状態という)と、の4つの回転状態をとることができる。第二部材3が、この4つの回転状態のどの回転状態となっている場合でも、レンズ34に対向する位置にスクリーンSCが設けられて使用される。なお、回転機構4は、手動にて第二部材3を回転させるものの他、電動にて第二部材3を回転させるものであってもよい。ここでは、4つの回転状態をとれる構成としているが、例えば、第一部材2を本体部1に対して回転可能に構成することで、より多くの回転状態をとれる構成も可能である。
 第一センサ36は、回転機構4による第二部材3の回転状態(換言すると投影光学系の回転状態)を検出するためのものであり、加速度センサ又は角速度センサ等が用いられる。例えば、第一センサ36は、方向X、方向Y、及び方向Zの加速度を検出する3軸加速度センサによって構成される。第一センサ36によって検出される加速度の情報を用いることで、回転機構4による第二部材3の回転状態が、基準回転状態、右回転状態、左回転状態、及び180度回転状態のうちのいずれであるのかを判定することができる。なお、第一センサ36は、第二部材3の回転状態の検出精度を高めるために、複数設けられていてもよい。例えば、回転機構4の近傍に第一センサ36が追加で配置されていてもよい。
 図4は、図3に示す基準回転状態における光学ユニット6のレンズ34をスクリーンSC側から見た模式図である。図4には、光軸Kを通り且つ方向Yに延びる直線L2と、光軸Kを通り且つ方向Zに延びる直線L1とが示されている。
 図4に示すように、レンズ34は、直線L1と直線L2によって領域34A、領域34B、領域34C、及び領域34Dの4つの領域に分割することができる。プロジェクタ100では、回転機構4による第二部材3の回転状態によって、光変調素子12aによって生成された画像を、レンズ34の異なる領域から射出させてスクリーンSCに向けて投影することができるように、投影光学系の設計が行われている。
 具体的には、図4に示した領域34A及び34DからスクリーンSCに向けて画像を投影する第一投影モードと、図4に示した領域34A及び34BからスクリーンSCに向けて画像を投影する第二投影モードと、図4に示した領域34C及び34DからスクリーンSCに向けて画像を投影する第三投影モードと、を切り替え可能となっている。
 より具体的には、第二部材3の回転状態が基準回転状態と180度回転状態である場合、換言すると、光軸Kのうちの分岐部材32とレンズ34の間の部分が方向Xに延びている状態である場合には、第一投影モードにて画像の投影が行われる。
 また、第二部材3の回転状態が右回転状態である場合、換言すると、光軸Kのうちの分岐部材32とレンズ34の間の部分が方向Zに延び、且つ、レンズ34が分岐部材32よりも方向Z1側に位置する状態である場合には、第二投影モードにて画像の投影が行われる。
 また、第二部材3の回転状態が左回転状態である場合、換言すると、光軸Kのうちの分岐部材32とレンズ34の間の部分が方向Zに延び、且つ、レンズ34が分岐部材32よりも方向Z2側に位置する状態である場合には、第三投影モードにて画像の投影が行われる。
 図5は、表示部によって表示される画像とスクリーンに投影される画像との関係を説明するための模式図である。図5には、光変調素子12aを開口15a側から方向X2に見た状態における光変調素子12aによって生成される画像D1が最上部に示されている。光変調素子12aは、投影画像G1の1画素を形成するための表示画素が二次元状に配置された表示面を有する構成であり、この画像D1はこの表示面に表示される画像ということもできる。画像D1は、プロジェクタ100によってスクリーンSCに投影可能な最大サイズの画像を示しており、換言すると、画像を表示可能な画面に相当する。図5では、画像D1の左下隅にL字状のマークを付してあるが、このマークは、画像D1の向きを認識しやすくするためのものであり、実際にスクリーンSCに投影されるものではない。図5に示す画像D1は、図中右側が方向Z1側であり、図中左側が方向Z2側であり、図中上側が方向Y1側であり、図中下側が方向Y2側である。
 図5には、基準回転状態においてスクリーンSCをレンズ34側と反対側から見た状態におけるスクリーンSC上に投影された画像D1の投影画像G1と、そのスクリーンSCにおける撮像素子38の撮像範囲IMとが示されている。
 図5には、右回転状態においてスクリーンSCをレンズ34側と反対側から見た状態におけるスクリーンSC上に投影された画像D1の投影画像G1と、そのスクリーンSCにおける撮像素子38の撮像範囲IMとが示されている。
 図5には、左回転状態においてスクリーンSCをレンズ34側と反対側から見た状態におけるスクリーンSC上に投影された画像D1の投影画像G1と、そのスクリーンSCにおける撮像素子38の撮像範囲IMとが示されている。
 撮像範囲IMにおいて、左回転状態における投影画像G1の位置と右回転状態における投影画像G1の位置とは、光軸Kを通り且つ方向Yに延びる直線に対して線対称の関係となっている。また、左回転状態における投影画像G1と右回転状態における投影画像G1は、光軸Kに対して点対称の関係となっている。
 また、図5には、180度回転状態においてスクリーンSCをレンズ34側と反対側から見た状態におけるスクリーンSC上に投影された画像D1の投影画像G1と、そのスクリーンSCにおける撮像素子38の撮像範囲IMとが示されている。
 撮像範囲IMにおいて、180度回転状態における投影画像G1の位置は、基準投影状態における投影画像G1の位置と一致している。また、180度回転状態における投影画像G1は、基準回転状態における投影画像G1をそのまま180度回転させたものとなっている。
 このように、投影画像G1の位置は、第二部材3の回転状態によって、撮像範囲IMにおいて3つの位置を取り得る。具体的には、基準回転状態及び180度回転状態における投影画像G1の位置は、図5において光軸Kよりも上側の位置となっている。また、左回転状態における投影画像G1の位置は、図5において光軸Kよりも左側の位置となっている。また、右回転状態における投影画像G1の位置は、図5において光軸Kよりも右側の位置となっている。
 図6は、図5に示した各回転状態において撮像素子38によってスクリーンSCを撮像して得られる撮像画像を示す模式図である。撮像画像P1は、図5の基準回転状態における撮像範囲IMを撮像して得られる画像である。撮像画像P2は、図5の左回転状態における撮像範囲IMを撮像して得られる画像である。撮像画像P3は、図5の右回転状態における撮像範囲IMを撮像して得られる画像である。撮像画像P4は、図5の180度回転状態における撮像範囲IMを撮像して得られる画像である。
 図7は、図1に示すプロジェクタ100の内部ブロック構成を示す模式図である。プロジェクタ100の本体部1には、光源ユニット11と、光変調素子12a及び光変調素子12aを駆動する光変調素子駆動部12bを含む光変調ユニット12と、全体を統括制御するシステム制御部14と、が設けられている。
 光変調素子駆動部12bは、システム制御部14から入力される入力画像データに基づいて光変調素子12aを駆動し、光源ユニット11からの光をこの入力画像データによって空間変調させる。
 システム制御部14は、各種のプロセッサと、ROM(Read Only Memory)等のメモリ14aと、RAM(Random Access Memory)と、を備える。メモリ14aは記憶部を構成する。
 各種のプロセッサとしては、プログラムを実行して各種処理を行う汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、又はASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。これら各種のプロセッサの構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
 システム制御部14のプロセッサは、各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAの組み合わせ)で構成されてもよい。
 メモリ14aには、投影光学系の回転状態を示す回転状態情報(基準回転状態であることを示す情報、右回転状態であることを示す情報、左回転状態であることを示す情報、180度回転状態であることを示す情報)と、撮像素子38によって撮像されたスクリーンSCの撮像画像における投影画像G1の存在する範囲を示す投影画像情報とが対応付けて記憶されている。
 なお、この投影画像情報には、撮像画像における投影画像G1の存在する範囲の情報に加えて、その範囲においてどの方向が、鉛直方向であるのかを示す鉛直方向情報が含まれる。
 基準回転状態では、撮像画像P1の投影画像G1の存在する範囲における上側(方向Y1側)が鉛直方向となる。したがって、基準回転状態であることを示す回転状態情報に対応する投影画像情報には、範囲の上側が鉛直下側であることを示す情報が含まれる。
 左回転状態では、撮像画像P2の投影画像G1の存在する範囲における上側(方向Y1側)が鉛直方向となる。したがって、左回転状態であることを示す回転状態情報に対応する投影画像情報には、範囲の上側が鉛直下側であることを示す情報が含まれる。
 右回転状態では、撮像画像P3の投影画像G1の存在する範囲における上側(方向Y1側)が鉛直方向となる。したがって、右回転状態であることを示す回転状態情報に対応する投影画像情報には、範囲の上側が鉛直下側であることを示す情報が含まれる。
 180度回転状態では、撮像画像P4の投影画像G1の存在する範囲における上側(方向Y1側)が鉛直方向となる。したがって、180度回転状態であることを示す回転状態情報に対応する投影画像情報には、範囲の上側が鉛直下側であることを示す情報が含まれる。
 図8は、図7に示すシステム制御部14の機能ブロック図である。システム制御部14のプロセッサは、制御プログラムを実行することにより、回転状態判定部14A、投影画像範囲判定部14B、及び表示画像調整部14Cを備える制御装置として機能する。回転状態判定部14Aと投影画像範囲判定部14Bによって判定部が構成される。
 回転状態判定部14Aは、第一センサ36の出力信号に基づいて、第二部材3の回転状態が、基準回転状態、右回転状態、左回転状態、及び180度回転状態のどれであるのかを判定する。
 投影画像範囲判定部14Bは、撮像素子38からスクリーンSCの撮像画像を取得し、取得した撮像画像における投影画像G1の存在する範囲を判定する。
 具体的には、投影画像範囲判定部14Bは、メモリ14aから、回転状態判定部14Aによって判定された回転状態の回転状態情報に対応する投影画像情報を読み出し、読み出した投影画像情報によって、撮像画像における投影画像G1の存在する範囲を判定する。
 表示画像調整部14Cは、投影画像範囲判定部14Bによって取得された撮像画像から、投影画像範囲判定部14Bによって判定された投影画像G1の範囲を切り出し、この範囲から切り出した切り出し画像に基づいて、光変調素子駆動部12bに入力する入力画像データを調整する。
 具体的には、表示画像調整部14Cは、投影画像情報に含まれる鉛直方向情報を参照して、切り出し画像の鉛直下側を認識し、切り出し画像の鉛直下側と、入力画像データの下側とを一致させる。つまり、切り出し画像の鉛直方向と、入力画像データの上下方向とを一致させる。その後、表示画像調整部14Cは、切り出し画像と入力画像データのサイズを同じにして比較を行い、その比較結果に基づいて、例えば、投影画像G1が投影されているスクリーンSCの範囲の凹凸や模様を検出し、その凹凸や模様を視認しにくくするような入力画像データの調整を行う。
 なお、投影画像情報には、範囲におけるどの方向が入力画像データの右方向または左方向なのかを示す情報を含ませておくことが好ましい。このようにすると、表示画像調整部14Cは、切り出し画像の鉛直下側と入力画像データの下側とを一致させ、更に、切り出し画像の右または左側と入力画像データの右または左側とを一致させることができ、入力画像データの向きと切り出し画像の向きとをより高精度に一致させることができる。
(実施形態のプロジェクタの効果)
 以上のようにプロジェクタ100によれば、撮像範囲IMの複数の位置にて投影画像G1が投影される場合であっても、第一センサ36の出力信号を用いて判定した投影光学系の回転状態に基づいて、投影画像G1の撮像画像上の位置を判断することができる。このため、撮像画像から、投影画像G1の範囲だけを精度よく抽出することができ、投影画像G1の撮像画像を用いた入力画像データの調整を高精度に行うことができる。また、例えば撮像画像から投影画像G1をパターンマッチング等によって検索して抽出する場合と比較すると、入力画像データの調整にかかる時間や処理負荷を軽減することができる。また、本形態によれば、撮像画像中の投影画像G1と入力画像データとに大きな違いがあった場合でも、投影画像G1の位置を正確に抽出することができ、プロジェクタ100の使用環境にされない入力画像データの調整が可能となる。
 また、プロジェクタ100によれば、投影画像情報に含まれる鉛直方向情報によって、入力画像データの上下方向と投影画像G1の撮像画像(上述の切り出し画像)の鉛直方向とを一致させることができる。このため、入力画像データの調整を高速かつ高精度に行うことができる。
 なお、光学ユニット6の投影光学系が焦点距離を変えることのできる構成の場合には、この焦点距離の変化によって、スクリーンSCに投影される投影画像G1のサイズが変化する。このため、図6に示した撮像画像P1-P4の各々における投影画像G1の範囲の大きさも変化することになる。
 そこで、投影光学系の焦点距離が可変の構成においては、回転状態情報とこれに対応する投影画像情報とのペアの情報を、設定可能な焦点距離毎にメモリ14aに記憶しておく。そして、投影画像範囲判定部14Bは、回転状態判定部14Aによって判定された回転状態と、設定されている焦点距離との組み合わせに対応する投影画像情報をメモリ14aから読み出し、読み出した投影画像情報に基づいて、撮像画像における投影画像G1の範囲を判定すればよい。このように、焦点距離が可変の場合であっても、撮像画像から投影画像G1を高速かつ高精度に抽出することができる。
(実施形態のプロジェクタの第一変形例)
 図9は、図1に示すプロジェクタ100の第一変形例を示す図3に相当する断面模式図である。第一変形例のプロジェクタ100の光学ユニット6は、第二センサ23とシフト機構5が追加された点を除いては、図3と同じである。
 シフト機構5は、投影光学系の光軸Kをその光軸Kに垂直な方向(図9の方向Y又は方向Z、換言すると、光変調素子12aの表示面に平行な方向)に移動させるための機構である。例えば、シフト機構5は、第一部材2の本体部1に対する方向Yの位置を変更することができるように構成されている。シフト機構5は、手動にて第一部材2を移動させるものの他、電動にて第一部材2を移動させるものであってもよい。
 例えば、図9に示す状態から、シフト機構5によって第一部材2が方向Y2に移動することで、光変調素子12aによって形成される画像の中心と光軸Kとの位置関係が変化して、スクリーンSCに投影されている投影画像G1を方向Y2にシフトさせることができる。なお、シフト機構5は、投影光学系を移動させるのではなく、表示部を、光変調素子12aの表示面に平行な方向に移動させるための機構であってもよい。あるいは、シフト機構5は、投影光学系と表示部の両方を、光変調素子12aの表示面に平行な方向に移動させるための機構であってもよい。これらの構成であっても、光変調素子12aによって形成される画像の中心と光軸Kとの位置関係が変化して、スクリーンSCに投影されている投影画像G1を方向Y2にシフトさせることができる。
 第二センサ23は、シフト機構5の状態、具体的には第一部材2が方向Yのどの位置にあるのかを検出するためのものである。第二センサ23は、例えば加速度センサやホール素子等によって構成される。第二センサ23の出力信号はシステム制御部14に入力される。
 図9に示すプロジェクタ100では、システム制御部14の投影画像範囲判定部14Bは、更に、第二センサ23の出力信号に基づいて、撮像画像における投影画像G1の範囲を判定する。シフト機構5によって第一部材2の方向Yの位置が変化すると、図6に示した撮像画像P1-P4の各々における投影画像G1の位置(方向Yの位置)も変化する。
 そこで、第一変形例においては、回転状態情報とこれに対応する投影画像情報とのペアの情報を、シフト機構5の状態を示すシフト状態情報毎に、メモリ14aに記憶しておく。そして、投影画像範囲判定部14Bは、回転状態判定部14Aによって判定された回転状態と、第二センサ23の出力信号に基づいて判定したシフト機構5の状態と、の組み合わせに対応する投影画像情報をメモリ14aから読み出し、読み出した投影画像情報に基づいて、撮像画像における投影画像G1の範囲を判定すればよい。
 このように、投影画像G1のシフトが可能な構成であっても、撮像画像における投影画像G1の範囲を容易に判定できる。このため、撮像画像から投影画像G1を高速かつ高精度に抽出することができる。
(実施形態のプロジェクタの第二変形例)
 図10は、図1に示すプロジェクタ100のシステム制御部14の機能ブロックの変形例を示す図である。図10に示したシステム制御部14のプロセッサは、制御プログラムを実行することにより、マーカー付加部14D、投影画像範囲判定部14B、及び表示画像調整部14Cを有する制御装置として機能する。この投影画像範囲判定部14Bは判定部を構成する。
 マーカー付加部14Dは、光変調素子駆動部12bに入力する入力画像データにマーカーを付加する。マーカー付加部14Dは、例えば、図5において説明のために用いたL字状のマーカーを入力画像データに付加する。
 図10に示す投影画像範囲判定部14Bは、撮像素子38から取得した撮像画像に含まれる上記のマーカーに基づいて、その撮像画像における投影画像G1の範囲を判定する。
 図11には、マーカーMを含む画像D1と、その画像D1がスクリーンSCに投影された場合の投影光学系の回転状態毎の撮像画像P1-P4が示されている。投影画像G1の外縁に対するマーカーMの位置はあらかじめ決められている。そのため、投影画像範囲判定部14Bは、撮像画像からマーカーMを探索し、検出したマーカーMを基準として、撮像画像における投影画像G1の範囲を判定することができる。
 図10に示す表示画像調整部14Cは、撮像画像から、投影画像範囲判定部14Bによって判定された範囲を切り出し、切り出した切り出し画像に基づいて、入力画像データを調整する。具体的には、切り出し画像に含まれるマーカーMと、入力画像データに含まれるマーカーMとの向きが同じとなるように、切り出し画像と入力画像データの向きを調整する。そして、表示画像調整部14Cは、切り出し画像と入力画像データのサイズを同じにして比較を行い、その比較結果に基づいて、例えば、投影画像G1が投影されているスクリーンSCの範囲の凹凸や模様を検出し、その凹凸や模様を視認しにくくするような入力画像データの調整を行う。
 第二変形例によれば、撮像画像における投影画像G1の範囲を、マーカーMに基づいて判定することができる。マーカーMは任意のものを用いることができるため、撮像画像からの探索が容易となる形状のマーカーMを用いることで、撮像画像における投影画像G1の範囲を高速かつ容易に判定することができる。
 また、マーカーMを用いることで、投影光学系の回転状態や第一部材2のシフト状態を判定することなく、撮像画像から投影画像G1の範囲を判定することができる。このため、これら回転状態やシフト状態を検出するための第一センサ36や第二センサ23をなくすことができ、プロジェクタ100の低コスト化が可能になる。また、メモリ14aには、回転状態情報、投影画像情報、シフト状態情報、鉛直方向情報、左右方向情報等の各種情報を記憶しておく必要がないため、プロジェクタ100の低コスト化が可能になる。
 なお、図1に示すプロジェクタ100において光学ユニット6を交換可能とする場合には、例えば、上記の各種情報に対応していない光学ユニット6が本体部1に装着されることも考えられる。そこで、各種情報がメモリ14aに記憶されている光学ユニット6が本体部1に装着されている場合には、図8に示す機能ブロックにて入力画像データの調整を行い、各種情報がメモリ14aに記憶されていない光学ユニット6が本体部1に装着されている場合には、図10に示す機能ブロックにて入力画像データの調整を行う。このようにすることで、特性のわからない光学ユニット6が本体部1に装着された場合であっても、入力画像データの調整を高速かつ高精度に行うことができる。
(実施形態のプロジェクタのその他変形例)
 プロジェクタ100の光学ユニット6は、分岐部材32を単にミラーとし、レンズ34の前方に、レンズ34から射出された光を反射させてスクリーンSCに投影し且つスクリーンSCからの被写体光を透過させる光学部材(分岐部材32と同様の部材)を配置し、この光学部材を透過した光の光路上に第四光学系37及び撮像素子38を配置した構成であってもよい。この構成では、レンズ34の前方に配置される光学部材が、画像を投影するための光学系の一部となる。
 また、光学ユニット6は撮像素子38を内蔵するものであるが、光学ユニット6から第四光学系37及び撮像素子38を削除し、スクリーンSCを撮像する撮像素子38を含むユニットを、プロジェクタ100とは別体として設けることで投影システムが構成されてもよい。例えば、撮像素子38を含むユニットを、第二部材3におけるレンズ34の近傍に配置することで、投影光学系の回転状態毎に、図6に示した撮像画像P1-P4に相当する画像を得ることは可能である。
 以上説明してきたように、本明細書には以下の事項が開示されている。
(1)
 入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、上記投影対象物を撮像する撮像素子と、を有する投影システムの制御装置であって、
 上記投影システムは、上記画像の投影画像の投影位置を、上記撮像素子の撮像範囲における複数の位置のいずれかに変更可能であり、
 上記撮像素子から取得した上記投影対象物の撮像画像における上記投影画像の範囲を判定する判定部を備える制御装置。
(2)
 (1)記載の制御装置であって、
 上記複数の位置の各々に投影される投影画像は、上記光学系の光軸に対して点対称となる2つの投影画像を含む制御装置。
(3)
 (1)又は(2)記載の制御装置であって、
 上記撮像画像から上記範囲を切り出し、切り出した切り出し画像に基づいて上記入力画像データを調整する表示画像調整部を備える制御装置。
(4)
 (3)記載の制御装置であって、
 上記投影システムは、上記光学系を回転させる回転機構を含み、上記光学系の回転状態によって上記投影位置を上記複数の位置のいずれかに変更可能であり、
 上記判定部は、上記投影システムに設けられた、上記光学系の回転状態を検出するための第一センサ、の出力信号に基づいて上記範囲を判定する制御装置。
(5)
 (4)記載の制御装置であって、
 上記光学系の回転状態を示す回転状態情報と上記撮像画像における上記範囲を示す投影画像情報とを対応付けて記憶する記憶部を備え、
 上記判定部は、上記第一センサの出力信号に基づいて上記回転状態を判定し、その回転状態と上記回転状態情報及び上記投影画像情報とに基づいて上記範囲を判定する制御装置。
(6)
 (4)又は(5)記載の制御装置であって、
 上記投影システムは、上記光学系及び上記表示部の少なくとも一方を上記表示部の表示面に平行な方向にシフト機構を含み、
 上記判定部は、上記投影システムに設けられた、上記シフト機構の状態を検出するための第二センサ、の出力信号に基づいて上記範囲を判定する制御装置。
(7)
 (6)記載の制御装置であって、
 上記シフト機構の状態を示すシフト状態情報と上記撮像画像における上記範囲を示す投影画像情報とを対応付けて記憶する記憶部を備え、
 上記判定部は、上記第二センサの出力信号に基づいて上記シフト機構の状態を判定し、その状態と上記シフト状態情報及び上記投影画像情報とに基づいて上記範囲を判定する制御装置。
(8)
 (5)又は(7)記載の制御装置であって、
 上記投影画像情報は、上記範囲における鉛直方向の情報を含み、
 上記表示画像調整部は、上記鉛直方向の情報に基づいて、上記切り出し画像の鉛直方向と、上記入力画像データの上下方向とを一致させた状態にて、上記入力画像データを調整する制御装置。
(9)
 (4)から(8)のいずれか1つに記載の制御装置であって、
 上記光学系は、焦点距離を変更可能であり、
 上記判定部は、更に、上記光学系の焦点距離の情報を用いて上記範囲を判定する制御装置。
(10)
 (1)から(8)のいずれか1つに記載の制御装置であって、
 上記入力画像データにマーカーを付加するマーカー付加部を備え、
 上記判定部は、上記撮像画像に含まれる上記マーカーに基づいて、上記範囲を判定する制御装置。
(11)
 (10)記載の制御装置であって、
 上記撮像画像から上記範囲を切り出し、切り出した切り出し画像に基づいて上記入力画像データを調整する表示画像調整部を備え、
 上記表示画像調整部は、上記切り出し画像に含まれる上記マーカーと、上記入力画像データに含まれる上記マーカーとの向きを一致させた状態にて、上記入力画像データを調整する制御装置。
(12)
 (1)から(11)のいずれか1つに記載の制御装置であって、
 上記撮像素子は、上記光学系の一部を通して上記投影対象物を撮像する制御装置。
(13)
 (12)記載の制御装置であって、
 上記光学系の一部は、レンズを含む制御装置。
(14)
 (1)から(13)のいずれか1つに記載の制御装置であって、
 上記光学系は交換可能に構成される制御装置。
(15)
 (1)から(14)のいずれか1つに記載の制御装置と、
 上記光学系と、
 上記撮像素子と、を備える投影システム。
(16)
 入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、上記投影対象物を撮像する撮像素子と、を有する投影システムの制御方法であって、
 上記投影システムは、上記画像の投影画像の投影位置を、上記撮像素子の撮像範囲における複数の位置のいずれかに変更可能であり、
 上記撮像素子から取得した上記投影対象物の撮像画像における上記投影画像の範囲を判定する判定ステップを備える制御方法。
(17)
 (16)記載の制御方法であって、
 上記複数の位置の各々に投影される投影画像は、上記光学系の光軸に対して点対称となる2つの投影画像を含む制御方法。
(18)
 (16)又は(17)記載の制御方法であって、
 上記撮像画像から上記範囲を切り出し、切り出した切り出し画像に基づいて上記入力画像データを調整する表示画像調整ステップを備える制御方法。
(19)
 (18)記載の制御方法であって、
 上記投影システムは、上記光学系を回転させる回転機構を含み、上記光学系の回転状態によって上記投影位置を上記複数の位置のいずれかに変更可能であり、
 上記判定ステップは、上記投影システムに設けられた、上記光学系の回転状態を検出するための第一センサ、の出力信号に基づいて上記範囲を判定する制御方法。
(20)
 (19)記載の制御方法であって、
 上記判定ステップは、上記第一センサの出力信号に基づいて上記回転状態を判定し、その回転状態と、上記光学系の回転状態を示す回転状態情報と上記撮像画像における上記範囲を示す投影画像情報とを対応付けて記憶する記憶部における上記回転状態情報及び上記投影画像情報と、に基づいて上記範囲を判定する制御方法。
(21)
 (19)又は(20)記載の制御方法であって、
 上記投影システムは、上記光学系及び上記表示部の少なくとも一方を上記表示部の表示面に平行な方向に移動させるシフト機構を含み、
 上記判定ステップは、上記投影システムに設けられた、上記シフト機構の状態を検出するための第二センサ、の出力信号に基づいて上記範囲を判定する制御方法。
(22)
 (21)記載の制御方法であって、
 上記判定ステップは、上記第二センサの出力信号に基づいて上記シフト機構の状態を判定し、その状態と、上記シフト機構の状態を示すシフト状態情報と上記撮像画像における上記範囲を示す投影画像情報とを対応付けて記憶する記憶部における上記シフト状態情報及び上記投影画像情報と、に基づいて上記範囲を判定する制御方法。
(23)
 (20)又は(22)記載の制御方法であって、
 上記投影画像情報は、上記範囲における鉛直方向の情報を含み、
 上記表示画像調整ステップは、上記鉛直方向の情報に基づいて、上記切り出し画像の鉛直方向と、上記入力画像データの鉛直方向とを一致させた状態にて、上記入力画像データを調整する制御方法。
(24)
 (19)から(23)のいずれか1つに記載の制御方法であって、
 上記光学系は、焦点距離を変更可能であり、
 上記判定ステップは、更に、上記光学系の焦点距離の情報を用いて上記範囲を判定する制御方法。
(25)
 (16)から(23)のいずれか1つに記載の制御方法であって、
 上記入力画像データにマーカーを付加するマーカー付加ステップを備え、
 上記判定ステップは、上記撮像画像に含まれる上記マーカーに基づいて、上記範囲を判定する制御方法。
(26)
 (25)記載の制御方法であって、
 上記撮像画像から上記範囲を切り出し、切り出した切り出し画像に基づいて上記入力画像データを調整する表示画像調整ステップを備え、
 上記表示画像調整ステップは、上記切り出し画像に含まれる上記マーカーと、上記入力画像データに含まれる上記マーカーとの向きを一致させた状態にて、上記入力画像データを調整する制御方法。
(27)
 (16)から(26)のいずれか1つに記載の制御方法であって、
 上記撮像素子は、上記光学系の一部を通して上記投影対象物を撮像する制御方法。
(28)
 入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、上記投影対象物を撮像する撮像素子と、を有する投影システムの制御プログラムであって、
 上記投影システムは、上記画像の投影画像の投影位置を、上記撮像素子の撮像範囲における複数の位置のいずれかに変更可能であり、
 上記撮像素子から取得した上記投影対象物の撮像画像における上記投影画像の範囲を判定する判定ステップをコンピュータに実行させるための制御プログラム。
 以上、図面を参照しながら各種の実施の形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。
 なお、本出願は、2019年6月28日出願の日本特許出願(特願2019-121541)に基づくものであり、その内容は本出願の中に参照として援用される。
100 プロジェクタ
1 本体部
2 第一部材
2a、2b 開口
2A 中空部
21 第一光学系
22 反射部材
23 第二センサ
3 第二部材
3a、3c 開口
3A 中空部
31 第二光学系
32 分岐部材
33 第三光学系
34 レンズ
34A、34B、34C、34D 領域
L1、L2 直線
36 第一センサ
37 第四光学系
38 撮像素子
4 回転機構
5 シフト機構
6 光学ユニット
11 光源ユニット
41 光源
42 カラーホイール
43 照明光学系
12 光変調ユニット
12a 光変調素子
12b 光変調素子駆動部
14 システム制御部
14a メモリ
14A 回転状態判定部
14B 投影画像範囲判定部
14C 表示画像調整部
14D マーカー付加部
15 筐体
15a 開口
K 光軸
SC スクリーン
D1 画像
G1 投影画像
IM 撮像範囲
P1-P4 撮像画像
M マーカー
 

Claims (28)

  1.  入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、前記投影対象物を撮像する撮像素子と、を有する投影システムの制御装置であって、
     前記投影システムは、前記画像の投影画像の投影位置を、前記撮像素子の撮像範囲における複数の位置のいずれかに変更可能であり、
     前記撮像素子から取得した前記投影対象物の撮像画像における前記投影画像の範囲を判定する判定部を備える制御装置。
  2.  請求項1記載の制御装置であって、
     前記複数の位置の各々に投影される投影画像は、前記光学系の光軸に対して点対称となる2つの投影画像を含む制御装置。
  3.  請求項1又は2記載の制御装置であって、
     前記撮像画像から前記範囲を切り出し、切り出した切り出し画像に基づいて前記入力画像データを調整する表示画像調整部を備える制御装置。
  4.  請求項3記載の制御装置であって、
     前記投影システムは、前記光学系を回転させる回転機構を含み、前記光学系の回転状態によって前記投影位置を前記複数の位置のいずれかに変更可能であり、
     前記判定部は、前記投影システムに設けられた、前記光学系の回転状態を検出するための第一センサの出力信号に基づいて前記範囲を判定する制御装置。
  5.  請求項4記載の制御装置であって、
     前記光学系の回転状態を示す回転状態情報と前記撮像画像における前記範囲を示す投影画像情報とを対応付けて記憶する記憶部を備え、
     前記判定部は、前記第一センサの出力信号に基づいて前記回転状態を判定し、当該回転状態と前記回転状態情報及び前記投影画像情報とに基づいて前記範囲を判定する制御装置。
  6.  請求項4又は5記載の制御装置であって、
     前記投影システムは、前記光学系及び前記表示部の少なくとも一方を前記表示部の表示面に平行な方向に移動させるシフト機構を含み、
     前記判定部は、前記投影システムに設けられた、前記シフト機構の状態を検出するための第二センサ、の出力信号に基づいて前記範囲を判定する制御装置。
  7.  請求項6記載の制御装置であって、
     前記シフト機構の状態を示すシフト状態情報と前記撮像画像における前記範囲を示す投影画像情報とを対応付けて記憶する記憶部を備え、
     前記判定部は、前記第二センサの出力信号に基づいて前記シフト機構の状態を判定し、当該状態と前記シフト状態情報及び前記投影画像情報とに基づいて前記範囲を判定する制御装置。
  8.  請求項5又は7記載の制御装置であって、
     前記投影画像情報は、前記範囲における鉛直方向の情報を含み、
     前記表示画像調整部は、前記鉛直方向の情報に基づいて、前記切り出し画像の鉛直方向と、前記入力画像データの上下方向とを一致させた状態にて、前記入力画像データを調整する制御装置。
  9.  請求項4から8のいずれか1項記載の制御装置であって、
     前記光学系は、焦点距離を変更可能であり、
     前記判定部は、更に、前記光学系の焦点距離の情報を用いて前記範囲を判定する制御装置。
  10.  請求項1から8のいずれか1項記載の制御装置であって、
     前記入力画像データにマーカーを付加するマーカー付加部を備え、
     前記判定部は、前記撮像画像に含まれる前記マーカーに基づいて、前記範囲を判定する制御装置。
  11.  請求項10記載の制御装置であって、
     前記撮像画像から前記範囲を切り出し、切り出した切り出し画像に基づいて前記入力画像データを調整する表示画像調整部を備え、
     前記表示画像調整部は、前記切り出し画像に含まれる前記マーカーと、前記入力画像データに含まれる前記マーカーとの向きを一致させた状態にて、前記入力画像データを調整する制御装置。
  12.  請求項1から11のいずれか1項記載の制御装置であって、
     前記撮像素子は、前記光学系の一部を通して前記投影対象物を撮像する制御装置。
  13.  請求項12記載の制御装置であって、
     前記光学系の一部は、レンズを含む制御装置。
  14.  請求項1から13のいずれか1項記載の制御装置であって、
     前記光学系は交換可能に構成される制御装置。
  15.  請求項1から14のいずれか1項記載の制御装置と、
     前記光学系と、
     前記撮像素子と、を備える投影システム。
  16.  入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、前記投影対象物を撮像する撮像素子と、を有する投影システムの制御方法であって、
     前記投影システムは、前記画像の投影画像の投影位置を、前記撮像素子の撮像範囲における複数の位置のいずれかに変更可能であり、
     前記撮像素子から取得した前記投影対象物の撮像画像における前記投影画像の範囲を判定する判定ステップを備える制御方法。
  17.  請求項16記載の制御方法であって、
     前記複数の位置の各々に投影される投影画像は、前記光学系の光軸に対して点対称となる2つの投影画像を含む制御方法。
  18.  請求項16又は17記載の制御方法であって、
     前記撮像画像から前記範囲を切り出し、切り出した切り出し画像に基づいて前記入力画像データを調整する表示画像調整ステップを備える制御方法。
  19.  請求項18記載の制御方法であって、
     前記投影システムは、前記光学系を回転させる回転機構を含み、前記光学系の回転状態によって前記投影位置を前記複数の位置のいずれかに変更可能であり、
     前記判定ステップは、前記投影システムに設けられた、前記光学系の回転状態を検出するための第一センサ、の出力信号に基づいて前記範囲を判定する制御方法。
  20.  請求項19記載の制御方法であって、
     前記判定ステップは、前記第一センサの出力信号に基づいて前記回転状態を判定し、当該回転状態と、前記光学系の回転状態を示す回転状態情報と前記撮像画像における前記範囲を示す投影画像情報とを対応付けて記憶する記憶部における前記回転状態情報及び前記投影画像情報と、に基づいて前記範囲を判定する制御方法。
  21.  請求項19又は20記載の制御方法であって、
     前記投影システムは、前記光学系及び前記表示部の少なくとも一方を前記表示部の表示面に平行な方向に移動させるシフト機構を含み、
     前記判定ステップは、前記投影システムに設けられた、前記シフト機構の状態を検出するための第二センサ、の出力信号に基づいて前記範囲を判定する制御方法。
  22.  請求項21記載の制御方法であって、
     前記判定ステップは、前記第二センサの出力信号に基づいて前記シフト機構の状態を判定し、当該状態と、前記シフト機構の状態を示すシフト状態情報と前記撮像画像における前記範囲を示す投影画像情報とを対応付けて記憶する記憶部における前記シフト状態情報及び前記投影画像情報と、に基づいて前記範囲を判定する制御方法。
  23.  請求項20又は22記載の制御方法であって、
     前記投影画像情報は、前記範囲における鉛直方向の情報を含み、
     前記表示画像調整ステップは、前記鉛直方向の情報に基づいて、前記切り出し画像の鉛直方向と、前記入力画像データの鉛直方向とを一致させた状態にて、前記入力画像データを調整する制御方法。
  24.  請求項19から23のいずれか1項記載の制御方法であって、
     前記光学系は、焦点距離を変更可能であり、
     前記判定ステップは、更に、前記光学系の焦点距離の情報を用いて前記範囲を判定する制御方法。
  25.  請求項16から23のいずれか1項記載の制御方法であって、
     前記入力画像データにマーカーを付加するマーカー付加ステップを備え、
     前記判定ステップは、前記撮像画像に含まれる前記マーカーに基づいて、前記範囲を判定する制御方法。
  26.  請求項25記載の制御方法であって、
     前記撮像画像から前記範囲を切り出し、切り出した切り出し画像に基づいて前記入力画像データを調整する表示画像調整ステップを備え、
     前記表示画像調整ステップは、前記切り出し画像に含まれる前記マーカーと、前記入力画像データに含まれる前記マーカーとの向きを一致させた状態にて、前記入力画像データを調整する制御方法。
  27.  請求項16から26のいずれか1項記載の制御方法であって、
     前記撮像素子は、前記光学系の一部を通して前記投影対象物を撮像する制御方法。
  28.  入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、前記投影対象物を撮像する撮像素子と、を有する投影システムの制御プログラムであって、
     前記投影システムは、前記画像の投影画像の投影位置を、前記撮像素子の撮像範囲における複数の位置のいずれかに変更可能であり、
     前記撮像素子から取得した前記投影対象物の撮像画像における前記投影画像の範囲を判定する判定ステップをコンピュータに実行させるための制御プログラム。
     
PCT/JP2020/021636 2019-06-28 2020-06-01 投影システムの制御装置、投影システム、投影システムの制御方法、投影システムの制御プログラム WO2020261884A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019121541 2019-06-28
JP2019-121541 2019-06-28

Publications (1)

Publication Number Publication Date
WO2020261884A1 true WO2020261884A1 (ja) 2020-12-30

Family

ID=74061220

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/021636 WO2020261884A1 (ja) 2019-06-28 2020-06-01 投影システムの制御装置、投影システム、投影システムの制御方法、投影システムの制御プログラム

Country Status (1)

Country Link
WO (1) WO2020261884A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115128895A (zh) * 2021-03-17 2022-09-30 中强光电股份有限公司 投影系统及影像投影方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08201915A (ja) * 1995-01-23 1996-08-09 Canon Inc 情報処理装置
JP2007306613A (ja) * 2007-07-10 2007-11-22 Casio Comput Co Ltd 表示制御装置、情報端末装置、表示制御プログラム
JP2011135445A (ja) * 2009-12-25 2011-07-07 Canon Inc 画像投射装置
JP2013020199A (ja) * 2011-07-14 2013-01-31 Seiko Epson Corp プロジェクションシステム、画像供給装置、プロジェクター、及び、画像投射方法
JP2018182539A (ja) * 2017-04-13 2018-11-15 キヤノン株式会社 映像処理装置、映像処理方法、及びプログラム
WO2019107482A1 (ja) * 2017-11-30 2019-06-06 富士フイルム株式会社 プロジェクタ

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08201915A (ja) * 1995-01-23 1996-08-09 Canon Inc 情報処理装置
JP2007306613A (ja) * 2007-07-10 2007-11-22 Casio Comput Co Ltd 表示制御装置、情報端末装置、表示制御プログラム
JP2011135445A (ja) * 2009-12-25 2011-07-07 Canon Inc 画像投射装置
JP2013020199A (ja) * 2011-07-14 2013-01-31 Seiko Epson Corp プロジェクションシステム、画像供給装置、プロジェクター、及び、画像投射方法
JP2018182539A (ja) * 2017-04-13 2018-11-15 キヤノン株式会社 映像処理装置、映像処理方法、及びプログラム
WO2019107482A1 (ja) * 2017-11-30 2019-06-06 富士フイルム株式会社 プロジェクタ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115128895A (zh) * 2021-03-17 2022-09-30 中强光电股份有限公司 投影系统及影像投影方法

Similar Documents

Publication Publication Date Title
JP6905116B2 (ja) 投射レンズ及びプロジェクタ
JP6847189B2 (ja) プロジェクタ
JP5360683B2 (ja) プロジェクター
US7781714B2 (en) Projection display adopting line type light modulator including a scroll unit
JP6717264B2 (ja) 虚像表示装置、中間像形成部および画像表示光生成ユニット
JP5002319B2 (ja) 投写型表示装置
US20110063580A1 (en) Projection display apparatus
WO2020261884A1 (ja) 投影システムの制御装置、投影システム、投影システムの制御方法、投影システムの制御プログラム
JP5217630B2 (ja) プロジェクタ及びマルチプロジェクションシステム
US8096666B2 (en) Laser projector performing laser raster scan using a scanning mirror
US20140246573A1 (en) Electronic device
CN110764341A (zh) 投影机
WO2020250739A1 (ja) 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム
JP6873799B2 (ja) 車両用表示装置
JP2005189733A (ja) プロジェクタ
JP6060729B2 (ja) 三次元投射装置
JP2008292570A (ja) 投射型映像表示装置
WO2021131646A1 (ja) 投影装置、投影方法、及び制御プログラム
WO2021019897A1 (ja) 制御装置、投影システム、制御方法、制御プログラム
WO2020261852A1 (ja) 投影装置
JP2001042464A (ja) ステレオ画像生成方法及び装置
JP2016220080A (ja) 撮像装置及び投影システム
US20220307821A1 (en) Detection apparatus, detection method, and spatial projection apparatus
WO2020261851A1 (ja) 投影装置
WO2020261850A1 (ja) 投影装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20832762

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20832762

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP