WO2021019897A1 - 制御装置、投影システム、制御方法、制御プログラム - Google Patents

制御装置、投影システム、制御方法、制御プログラム Download PDF

Info

Publication number
WO2021019897A1
WO2021019897A1 PCT/JP2020/021641 JP2020021641W WO2021019897A1 WO 2021019897 A1 WO2021019897 A1 WO 2021019897A1 JP 2020021641 W JP2020021641 W JP 2020021641W WO 2021019897 A1 WO2021019897 A1 WO 2021019897A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
captured image
projected
distance
control device
Prior art date
Application number
PCT/JP2020/021641
Other languages
English (en)
French (fr)
Inventor
智紀 増田
一樹 石田
晶啓 石塚
和紀 井上
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2021536633A priority Critical patent/JP7125561B2/ja
Priority to CN202080053911.4A priority patent/CN114175624B/zh
Publication of WO2021019897A1 publication Critical patent/WO2021019897A1/ja
Priority to US17/569,560 priority patent/US20220132080A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/317Convergence or focusing systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/16Picture reproducers using cathode ray tubes
    • H04N9/28Arrangements for convergence or focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes

Definitions

  • the present invention relates to a control device, a projection system, a control method, and a control program.
  • Patent Document 1 describes measuring the distance to an obstacle between a projection surface and an apparatus by using a plurality of cameras.
  • Patent Document 2 describes that the touch position of a finger on a projection surface is detected by using infrared rays or the like.
  • One embodiment according to the technique of the present disclosure is a control device capable of determining a distance between an optical system that projects an image on a projection object and an object between the projection objects at low cost. , Projection system, control method, and control program.
  • the control device of the present invention is a control device for a projection system including an optical system that projects an image generated by a display unit based on input image data onto a projection target object, and an imaging unit that captures the projection target object.
  • the first captured image data of the image projected on the projection object is acquired from the imaging unit, and a part or all of the first sharpness of the first captured image data and the input image data are obtained. It is provided with a distance determination unit for determining the distance from the object existing between the projection object and the optical system to the optical system based on the second sharpness of the above.
  • the projection system of the present invention includes the control device, the optical system, and the imaging unit.
  • the control method of the present invention is a control method for a projection system including an optical system that projects an image generated by a display unit based on input image data onto a projection target object, and an imaging unit that captures the projection target object.
  • the first captured image data of the image projected on the projection object is acquired from the imaging unit, and a part or all of the first sharpness of the first captured image data and the input image data are obtained. It includes a distance determination step of determining the distance from the object existing between the projection object and the optical system to the optical system based on the second sharpness of the above.
  • the control program of the present invention is a control program of a projection system including an optical system that projects an image generated by a display unit based on input image data onto a projection target object, and an imaging unit that captures the projection target object.
  • the first captured image data of the image projected on the projection object is acquired from the imaging unit, and a part or all of the first sharpness of the first captured image data and the input image data are obtained.
  • This is for causing a computer to perform a distance determination step of determining a distance from an object existing between the projection object and the optical system to the optical system based on the second sharpness of the above.
  • a control device capable of determining the distance between an optical system that projects an image on a projection object and an object between the projection objects at low cost.
  • a program can be provided.
  • FIG. 1 is a schematic view showing an external configuration of a projector 100, which is an embodiment of the projection system of the present invention.
  • FIG. 2 is a schematic view showing an example of the internal configuration of the light source unit 11 of FIG.
  • FIG. 3 is a schematic cross-sectional view of the optical unit 6 of the projector 100 shown in FIG. FIG. 3 shows a cross section of the light emitted from the main body 1 along the optical path.
  • the projector 100 includes a main body portion 1 and an optical unit 6 provided so as to project from the main body portion 1.
  • the optical unit 6 includes a first member 2 supported by the main body 1 and a second member 3 supported by the first member 2.
  • the second member 3 may be fixed to the first member 2 in a rotatable state. Further, the first member 2 and the second member 3 may be integrated members.
  • the optical unit 6 may be detachably configured (in other words, interchangeable) in the main body 1.
  • the main body 1 has a housing 15 in which an opening 15a for passing light is formed in a portion connected to the optical unit 6 (see FIG. 3).
  • the light source unit 11 As shown in FIG. 1, inside the housing 15 of the main body 1, the light source unit 11 and the light modulation element that spatially modulates the light emitted from the light source unit 11 based on the input image data to generate an image.
  • An optical modulation unit 12 including 12a (see FIG. 2) is provided.
  • the display unit is composed of the light source unit 11 and the light modulation unit 12.
  • the light source unit 11 includes a light source 41 that emits white light, a color wheel 42, and an illumination optical system 43.
  • the light source 41 is configured to include a light emitting element such as a laser or an LED (Light Emitting Diode).
  • the color wheel 42 is arranged between the light source 41 and the illumination optical system 43.
  • the color wheel 42 is a disk-shaped member, and an R filter that transmits red light, a G filter that transmits green light, and a B filter that transmits blue light are provided along the circumferential direction thereof.
  • the color wheel 42 is rotated about an axis, and the white light emitted from the light source 41 is separated into red light, green light, and blue light in a time-divided manner and guided to the illumination optical system 43.
  • the light emitted from the illumination optical system 43 is incident on the light modulation element 12a.
  • a DMD Digital Micromirror Device
  • LCOS Liquid crystal on silicon
  • MEMS Micro Electro Mechanical Systems
  • liquid crystal display element or the like
  • the image G1 formed by the light spatially modulated by the light modulation unit 12 passes through the opening 15a of the housing 15 and is incident on the optical unit 6 on the screen SC as a projection object. It is projected (see FIG. 3).
  • the optical unit 6 includes a first member 2 having a hollow portion 2A connected to the inside of the main body portion 1, a second member 3 having a hollow portion 3A connected to the hollow portion 2A, and a hollow portion 2A.
  • the first optical system 21 and the reflecting member 22 arranged, and the second optical system 31, the branch member 32, the third optical system 33, the fourth optical system 37, the image sensor 38, and the lens 34 arranged in the hollow portion 3A. And.
  • the first member 2 is a member having a rectangular cross-sectional outer shape, for example, and the openings 2a and 2b are formed on surfaces perpendicular to each other.
  • the first member 2 is supported by the main body 1 in a state where the opening 2a is arranged at a position facing the opening 15a of the main body 1.
  • the light emitted from the light modulation element 12a of the light modulation unit 12 of the main body 1 passes through the openings 15a and 2a and is incident on the hollow portion 2A of the first member 2.
  • the incident direction of the light incident on the hollow portion 2A from the main body portion 1 is described as the direction X1, the opposite direction of the direction X1 is described as the direction X2, and the direction X1 and the direction X2 are collectively referred to as the direction X.
  • the direction from the front to the back of the paper and the opposite direction are described as the direction Z.
  • the direction perpendicular to the direction X and the direction Z is described as the direction Y, of the directions Y, the upward direction in FIG. 3 is described as the direction Y1, and the downward direction in FIG. 3 is described as the direction Y2. ..
  • the first optical system 21, the reflective member 22, the second optical system 31, the branch member 32, the third optical system 33, and the lens 34 are images formed by the light modulation element 12a (images generated by the display unit). Consists of an optical system that projects images onto the screen SC.
  • FIG. 3 shows the optical axis K of this optical system.
  • the first optical system 21, the reflective member 22, the second optical system 31, the branch member 32, the third optical system 33, and the lens 34 are arranged along the optical axis K in this order from the light modulation element 12a side.
  • the first optical system 21 includes at least one lens, and guides light traveling from the main body 1 to the first member 2 in the direction X1 to the reflecting member 22.
  • the reflecting member 22 reflects the light incident from the first optical system 21 in the direction Y1.
  • the reflective member 22 is composed of, for example, a mirror or the like.
  • the first member 2 has an opening 2b formed on the optical path of the light reflected by the reflecting member 22, and the reflected light passes through the opening 2b and proceeds to the hollow portion 3A of the second member 3.
  • the second member 3 is, for example, a member having a substantially T-shaped cross section, and an opening 3a is formed at a position facing the opening 2b of the first member 2.
  • the light from the main body 1 that has passed through the opening 2b of the first member 2 is incident on the hollow portion 3A of the second member 3 through the opening 3a.
  • the second optical system 31 includes at least one lens, and guides the light incident from the first member 2 to the branch member 32.
  • the branch member 32 reflects the light incident from the second optical system 31 in the direction X2 and guides it to the third optical system 33. Further, the branch member 32 transmits the subject light incident on the lens 34 from the screen SC side and has passed through the third optical system 33, and guides the subject light to the fourth optical system 37.
  • the branch member 32 is composed of, for example, a half mirror, a beam splitter, a polarizing member, or the like.
  • the third optical system 33 includes at least one lens, and guides the light reflected by the branch member 32 to the lens 34.
  • the third optical system 33 includes, for example, a focus lens for adjusting the focal position of the optical system (the focal position of the image projected on the screen SC), a zoom lens for adjusting the focal length of the optical system, or transmission.
  • a variable aperture with a variable amount of light and the like may be included.
  • the focus lens constitutes a focus position adjusting optical system with a variable focus position.
  • the focus lens may be included in the first optical system 21 or the second optical system 31 instead of the third optical system 33.
  • the lens 34 is arranged at this end so as to close the opening 3c formed at the end of the second member 3 on the direction X2 side.
  • the lens 34 projects the light incident from the third optical system 33 onto the screen SC.
  • the fourth optical system 37 is arranged next to the branch member 32 on the direction X1 side, and guides the subject light that passes through the branch member 32 and travels in the direction X1 to the image sensor 38.
  • the optical axis of the fourth optical system 37 and the optical axis of the lens 34 and the third optical system 33 are substantially the same.
  • the image sensor 38 is a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like.
  • the image sensor 38 images the screen SC through the lens 34, the third optical system 33, the branch member 32, and the fourth optical system 37.
  • the captured image signal of the image pickup device 38 is input to the image processing unit 39 described later.
  • the lens 34, the third optical system 33, and the branch member 32 form a part of the optical system.
  • FIG. 4 is a schematic view showing the internal block configuration of the projector 100 shown in FIG.
  • the main body 1 of the projector 100 includes a light source unit 11, a light modulation unit 12 including a light modulation element 12a and a light modulation element drive unit 12b for driving the light modulation element 12a, and a system control unit 14 that controls the whole. , Are provided.
  • the optical unit 6 is provided with an image sensor 38 and an image processing unit 39 that processes an image image signal input from the image sensor 38 to generate image image data.
  • the captured image data generated by the image processing unit 39 is input to the system control unit 14.
  • the image pickup unit 38 is composed of the image pickup element 38 and the image processing unit 39.
  • the light modulation element driving unit 12b drives the light modulation element 12a based on the input image data input from the system control unit 14, and spatially modulates the light from the light source unit 11 with the input image data.
  • the input image data is not limited to the image data input from an external device such as a personal computer, a smartphone, or a tablet terminal, and may be input image data generated inside the projector 100.
  • the data format of the input image data may be either digital data or analog data after digital-to-analog conversion.
  • the system control unit 14 includes various processors, a ROM (Read Only Memory), and a RAM (Random Access Memory).
  • programmable logic which is a processor whose circuit configuration can be changed after manufacturing
  • CPU Central Processing Unit
  • FPGA Field Programmable Gate Array
  • a dedicated electric circuit or the like which is a processor having a circuit configuration specially designed for executing a specific process such as a device (Programmable Logic Device: PLD) or an ASIC (Application Special Integrated Circuit), is included.
  • PLD Process Control Deformation Device
  • ASIC Application Special Integrated Circuit
  • the processor of the system control unit 14 may be composed of one of various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). It may be composed of.
  • FIG. 5 is a functional block diagram of the system control unit 14 shown in FIG.
  • the processor of the system control unit 14 functions as a control device including the distance determination unit 14A and the image control unit 14B by executing the control program.
  • the distance determination unit 14A acquires the first captured image data of the image G1 projected on the screen SC from the imaging unit (specifically, the image processing unit 39), and the total sharpness (first) of the first captured image data.
  • An object for example, a human head
  • An object existing between the screen SC and the optical system of the optical unit 6 based on the sharpness (first sharpness) and the sharpness (second sharpness) of the input image data that is the source of the image G1.
  • the distance from (or hand, etc.) to this optical system is determined.
  • the sharpness of the image data is an index showing the sharpness of the image data, in other words, the degree of blurring, and various evaluation values such as the contrast value of the image data can be used.
  • the first captured image data includes an image G1 and a background portion (screen SC or object) on which the image G1 is projected.
  • the image G1 included in the first captured image data constitutes a part of the first captured image data.
  • the image G1 and the background portion included in the first captured image data constitute the entire first captured image data.
  • the image control unit 14B controls the input image data input to the light modulation element 12a based on the distance from the optical system to the object determined by the distance determination unit 14A. Specifically, when this distance is a distance indicating that an object exists in the vicinity of the screen SC, the image control unit 14B determines that the touch operation to the screen SC has been performed, and performs the touch operation. Control according to that, that is, change the input image data. Thereby, the image G1 projected on the screen SC by the touch operation can be changed to another one.
  • FIG. 6 is a schematic diagram for explaining the principle of determining the distance to the object by the distance determination unit 14A.
  • FIG. 6 shows the screen SC and the lens 34 located closest to the screen SC in the optical system of the optical unit 6. Further, FIG. 6 shows the position P1 of the end portion of the lens 34 on the screen SC side in the direction X and the position P3 of the end portion of the screen SC on the lens 34 side in the direction X. Further, FIG. 6 shows a position P2 between the position P3 and the position P1 and in the vicinity of the position P3. The focusing position of the image G1 projected from the optical unit 6 on the screen SC is set to the position P3.
  • FIG. 7 is a schematic diagram showing an example of the input image data g1 and the image G1 based on the input image data g1.
  • the image G1 based on the input image data g1 is projected on the screen SC.
  • FIG. 6 when an object OB such as a human finger exists on the passage path of the image G1, a part of the image G1 is displayed on the screen SC as shown in FIG. It is in a state of being projected on the object OB without being projected. Therefore, the captured image data IP obtained by capturing the image G1 shown in FIG. 7 with the image pickup device 38 is as shown in FIG. 8 (data including the object region ob corresponding to the object OB).
  • the sharpness of the object region ob in the captured image data IP shown in FIG. 8 is significantly lower than the sharpness of the region corresponding to the object region ob in the input image data g1. That is, the difference between the sharpness C1 of the input image data g1 and the sharpness C2 of the captured image data IP is a large value (for example, the second threshold value TH2 or more described later).
  • the sharpness of the object region ob in the captured image data IP shown in FIG. 8 is slightly lower than the sharpness of the region corresponding to the object region ob in the input image data g1. That is, the difference between the sharpness C1 of the input image data g1 and the sharpness C2 of the captured image data IP is smaller than that when the object OB exists between the positions P2 and P1 (for example, the first described later).
  • the sharpness C1 of the input image data g1 and the sharpness C2 of the captured image data IP have substantially the same value. That is, the difference between the sharpness C1 and the sharpness C2 is smaller than that when the object OB exists between the positions P3 and P2 (for example, less than the first threshold value TH1 described later).
  • the distance determination unit 14A is the difference between the sharpness of the input image data g1 and the sharpness of the first captured image data obtained by imaging the image G1 in a state where the image G1 is projected on the screen SC.
  • the presence or absence of the object OB and the size of the distance from the optical system to the object OB are determined based on the size of
  • FIG. 9 is a flowchart for explaining the gesture detection operation of the projector 100.
  • the image control unit 14B of the system control unit 14 acquires the input image data g1 and inputs the input image data g1 to the light modulation element 12a to project the image G1 based on the input image data g1 on the screen SC (step S1).
  • the distance determination unit 14A of the system control unit 14 drives the image sensor 38 to image the screen SC on which the image G1 is projected (step S2).
  • the image pickup image signal is output from the image pickup device 38 in the image pickup in step S2
  • the image pickup image signal is processed by the image processing unit 39 to generate the image pickup image data.
  • the distance determination unit 14A acquires the first captured image data, which is a portion of the captured image data corresponding to the image G1, from the image processing unit 39 (step S3).
  • the distance determination unit 14A performs a process of matching the sizes of the input image data g1 and the first captured image data (step S4).
  • the distance determination unit 14A may further perform a process of aligning the brightness of the input image data g1 and the first captured image data.
  • the distance determination unit 14A derives the sharpness C1 of the input image data g1 and the sharpness C2 of the first captured image data, respectively, and calculates the difference ⁇ C (absolute value) between the sharpness C1 and the sharpness C2 (absolute value). Step S5).
  • the distance determination unit 14A determines whether or not the difference ⁇ C is less than the first threshold value TH1 (step S6).
  • step S6 the distance determination unit 14A determines that there is no object that blocks the image G1 being projected (step S7), and determines that the gesture is not detected. End the process.
  • step S6 NO
  • the distance determination unit 14A determines that there is an object blocking the image G1 being projected, and the difference ⁇ C is equal to or greater than the second threshold value TH2. It is determined whether or not there is (step S8).
  • the distance determination unit 14A determines that the distance from the optical system to the object is the distance between the positions P1 and P2 shown in FIG.
  • the first distance is less than L1, in other words, it is determined that no object exists in the vicinity of the screen SC (step S9), and the process is terminated as gesture non-detection.
  • the distance determination unit 14A indicates that the distance from the optical system to the object is equal to or greater than the first distance L1, in other words, near the screen SC. It is determined that the object exists (that is, the gesture (touch operation to the screen SC) is performed) (step S10).
  • step S10 the image control unit 14B updates, for example, a part of the input image data g1 or changes the input image data g1 to another input image data based on the position of the object region in the first captured image data. Control is performed (step S11).
  • the distance determination unit 14A may calculate the ratio of the two sharpnesses in step S5 of FIG. 9, and determine the distance from the optical system to the object based on this ratio. For example, the distance determination unit 14A sets a value obtained by dividing the sharpness C1 of the input image data g1 by the sharpness C2 of the first captured image data as the above ratio, and if this ratio is “1”, the process is performed in step S7. Transition. If the ratio is greater than "1" and less than the threshold value th1, the distance determination unit 14A shifts the process to step S10. Further, if the ratio is equal to or higher than the threshold value th1, the distance determination unit 14A shifts the process to step S9.
  • the distance from the optical system to the object blocking the image G1 is determined based on the sharpness of the input image data g1 and the sharpness of the first captured image data. Can be done. This determination does not require expensive hardware such as infrared rays or stereo cameras or complicated calculations. Therefore, the distance to the object can be determined at low cost and with a light load.
  • FIG. 10 is a flowchart for explaining a modified example of the gesture detection operation of the projector 100.
  • the same processing as in FIG. 9 is designated by the same reference numerals and description thereof will be omitted.
  • the distance determination unit 14A drives the image sensor 38 to image the screen SC in a state where the image G1 is not projected on the screen SC (step S21).
  • the image pickup image signal is output from the image pickup device 38 in the image pickup in step S21, the image pickup image signal is processed by the image processing unit 39 to generate the image pickup image data.
  • the distance determination unit 14A acquires the second captured image data, which is a portion of the captured image data corresponding to the projection range of the image G1, from the image processing unit 39 (step S22).
  • the distance determination unit 14A subtracts the second captured image data from the first captured image data to generate the third captured image data (step S23). ).
  • FIG. 11 shows an example of the second captured image data IP2 acquired in step S22, the first captured image data IP1 acquired in step S3, and the third captured image data IP3 generated in step S23. It is a figure which shows.
  • the object region ob in the first captured image data IP1 shown in FIG. 11 is obtained in a state where a part of the image G1 overlaps the object OB. Therefore, if a complicated pattern exists in the object OB itself (for example, assuming a case where a part of the clothes of the pattern blocks the image G1), this complicated pattern and a part of the image G1 are present. Images will be taken in an overlapping state. In this case, the total sharpness of the first captured image data IP1 may be larger than the sharpness of the input image data g1 even if the object OB exists in the vicinity of the screen SC.
  • the third captured image data IP3 from which the object OB has been removed can be obtained.
  • the region ob1 in the third captured image data IP3 is a portion where the image G1 is projected on the front side of the screen SC. Therefore, the sharpness of this region ob1 is lower than that of other regions of the third captured image data IP3. Therefore, the distance to the object OB can be determined based on the sharpness of the first captured image data IP1 and the sharpness of the third captured image data.
  • the distance determination unit 14A performs a process of matching the sizes of the input image data g1 and the third captured image data (step S4a).
  • the distance determination unit 14A derives the sharpness C1 of the input image data g1 and the sharpness C3 of the third captured image data, respectively, and calculates the difference Ca (absolute value) between the sharpness C1 and the sharpness C3 (absolute value).
  • the sharpness C3 constitutes the first sharpness.
  • the distance determination unit 14A determines whether or not the difference ⁇ Ca is less than the first threshold value TH1 (step S6a). When the difference ⁇ Ca is less than the first threshold value TH1 (step S6a: YES), the distance determination unit 14A shifts the process to step S7.
  • step S6a NO
  • the distance determination unit 14A determines that there is an object that blocks the image G1 being projected, and determines that the difference ⁇ Ca is equal to or greater than the second threshold TH2. It is determined whether or not there is (step S8a).
  • step S8a When the difference ⁇ Ca is equal to or greater than the second threshold TH2 (step S8a: YES), the distance determination unit 14A shifts the process to step S9, and when the difference ⁇ Ca is less than the second threshold TH2 (step S8a). : NO), the process shifts to step S10.
  • the distance from the optical system to the object blocking the image G1 can be determined based on the sharpness of the input image data g1 and the sharpness of the third captured image data.
  • the distance to the object OB can be accurately determined even when the object OB contains a pattern that increases the contrast.
  • the third captured image data described here is image data in which the portion of the object OB and the portion of the screen SC (that is, the background portion described above) are removed from the first captured image data IP1. That is, the third captured image data can be said to be a part of the first captured image data.
  • the ratio of the sharpness of the input image data g1 to the sharpness of the third captured image data can be used instead of the difference ⁇ Ca.
  • the third captured image data is generated by subtracting the second captured image data from the first captured image data.
  • the third captured image data may be any data in which the background portion included in the first captured image data is removed.
  • each pixel of the first captured image data and each pixel of the second captured image data By obtaining the brightness ratio and multiplying each pixel of the first captured image data by this brightness ratio, the third captured image data in which the background portion is removed may be generated.
  • FIG. 12 is a diagram showing a first modification of the functional block of the system control unit 14 shown in FIG.
  • the processor of the system control unit 14 functions as a control device including a distance determination unit 14A, an image control unit 14B, and an object determination unit 14C by executing a control program.
  • the object determination unit 14C determines the presence or absence of an object existing between the screen SC and the optical system based on the captured image data output from the image processing unit 39 prior to the distance determination process by the distance determination unit 14A.
  • the functions of the distance determination unit 14A and the image control unit 14B shown in FIG. 12 are the same as those described above. However, the distance determination unit 14A determines the distance to the object described above only when the object determination unit 14C determines that an object exists between the screen SC and the optical system.
  • FIG. 13 is a flowchart for explaining the gesture detection operation by the system control unit 14 shown in FIG.
  • the object determination unit 14C drives the image sensor 38 in a state where the image G1 is not projected on the screen SC to image the screen SC (step S31).
  • the image pickup image signal is output from the image pickup device 38 in the image pickup in step S31, the image pickup image signal is processed by the image processing unit 39 to generate the image pickup image data.
  • the object determination unit 14C acquires the image data of the portion of the captured image data corresponding to the projection range of the image G1 from the image processing unit 39, sets this image data as the reference image data, and stores it in the RAM ( Step S32).
  • the image control unit 14B acquires the input image data g1 and inputs it to the light modulation element 12a to project the image G1 based on the input image data g1 on the screen SC (step S33).
  • the object determination unit 14C temporarily stops the projection of the image G1 (step S34). Then, the object determination unit 14C drives the image pickup device 38 to image the screen SC in a state where the projection of the image G1 is stopped (step S35).
  • the image pickup image signal is output from the image pickup device 38 in the image pickup in step S35, the image pickup image signal is processed by the image processing unit 39 to generate the image pickup image data.
  • the object determination unit 14C acquires a portion of the captured image data corresponding to the projection range of the image G1 from the image processing unit 39, and compares this portion with the reference image data (step S36).
  • step S37 NO
  • the process returns to step S33.
  • the time from the processing of step S34 to the processing of step S33 is short enough that no human can detect it.
  • step S37 When the brightness difference between the two image data is equal to or greater than this threshold value (step S37: YES), the process shifts to step S38.
  • step S38 the object determination unit 14C determines that there is a possibility that an object that blocks the image G1 exists. Then, when the process of step S38 is performed, the process after step S1 in FIG. 9 or the process after step S21 in FIG. 10 is started.
  • the presence or absence of an object is determined based on the magnitude of the difference in brightness between the two image data. For example, a difference image data of the two image data is generated, and the difference image data has an edge. If it is included, it may be determined that an object may exist in the portion surrounded by the edge.
  • the object determination unit 14C rewrites the reference image data stored in the RAM with the captured image data acquired in step S36, and uses this captured image data as a reference. It may be reset as image data. By doing so, even if the brightness of the environment in which the screen SC is placed changes after the projector 100 is started, the presence or absence of an object can be determined with high accuracy.
  • the presence or absence of an object that blocks the projected image is determined by comparing two captured image data obtained by imaging the screen SC in a non-projected state and at different timings.
  • the object determination unit 14C determines whether or not there is an object that blocks the projected image by comparing two captured image data obtained by imaging the screen SC in a state where the image is projected and at different timings. You may.
  • FIG. 14 is a flowchart for explaining a modified example of the gesture detection operation by the system control unit 14 shown in FIG.
  • the flowchart shown in FIG. 14 is the same as the flowchart shown in FIG. 13, except that step S39 is added.
  • the same processing as in FIG. 13 is designated by the same reference numerals and description thereof will be omitted.
  • step S38 determines in step S38 that an object may exist, it determines whether or not the characteristics of the object satisfy the specific conditions (step S39).
  • the object determination unit 14C generates the difference image data of the two captured image data used for the comparison in step S37.
  • This difference image data is image data indicating an object.
  • the object determination unit 14C obtains the frequency (spatial frequency) of the difference image data, determines that the feature of the object does not satisfy the specific condition when the frequency is equal to or higher than the predetermined value, and the frequency is less than the predetermined value. If, it is determined that the characteristics of the object satisfy the specific conditions.
  • the frequency is a characteristic of the object, and the specific condition is that the frequency is less than a predetermined value (in other words, the object does not include a fine pattern).
  • step S39 If it is determined in step S39 that the characteristics of the object satisfy the specific conditions, the processes after step S21 in FIG. 10 are performed. According to the operation shown in FIG. 14, the process of FIG. 10 is performed only when the object that blocks the image projected on the screen SC does not include a complicated pattern having a high spatial frequency.
  • the process of FIG. 10 can eliminate the influence of the pattern of the object, but by performing the process of step S39 of FIG. 14, this influence can be more strongly eliminated.
  • a modification described in FIG. 13 (a point at which the reference image data is updated when the determination in step S37 is NO, a screen SC is imaged in a state where the image is projected and at different timings).
  • a point for determining the presence or absence of an object that blocks the projected image) can be applied by comparing the two captured image data obtained.
  • FIG. 15 is a diagram showing a second modification of the functional block of the system control unit 14 shown in FIG.
  • the processor of the system control unit 14 functions as a control device including a distance determination unit 14A, an image control unit 14B, an object determination unit 14C, and a focus control unit 14D by executing a control program.
  • this second modification it is premised that the optical system included in the optical unit 6 includes the above-mentioned focus lens.
  • the functions of the distance determination unit 14A, the image control unit 14B, and the object determination unit 14C shown in FIG. 15 are the same as those in FIG. 12, the description thereof will be omitted.
  • the focus control unit 14D controls the focus lens to control the focal position of the optical system when the object determination unit 14C determines that there is no object.
  • FIG. 16 is a flowchart for explaining the gesture detection operation by the system control unit 14 shown in FIG.
  • the flowchart shown in FIG. 16 is the same as the flowchart shown in FIG. 13, except that steps S41 and S42 are added.
  • FIG. 16 the same processing as in FIG. 13 is designated by the same reference numerals and description thereof will be omitted.
  • the focus control unit 14D determines whether or not the focus adjustment of the optical system is necessary based on the captured image acquisition data acquired in step S36 (step S41). For example, the focus control unit 14D obtains the sharpness of the captured image data, and determines that the focus adjustment is necessary when the sharpness is equal to or less than a predetermined value.
  • step S41 determines that focus adjustment is necessary (step S41: YES)
  • the focus control unit 14D determines the drive amount of the focus lens by a contrast AF (Auto Focus) method, a phase difference AF method, or the like, and determines the drive amount of the focus lens. According to this, the focus lens is driven to adjust the focus position (step S42). After step S42, the process shifts to step S33. Even if the determination in step S41 is NO, the process is shifted to step S33.
  • a contrast AF Auto Focus
  • steps S41 and S42 of FIG. 16 are performed in each of the case where the determination in step S37 is NO and the case where the determination in step S39 is NO. It may be.
  • a modification described in FIG. 13 (a point at which the reference image data is updated when the determination in step S37 is NO, a screen SC is imaged in a state where the image is projected and at different timings).
  • a point for determining the presence or absence of an object that blocks the projected image) can be applied by comparing the two captured image data obtained.
  • the focus of the optical system is adjusted in a state where the object determination unit 14C determines that there is no object. Therefore, it is possible to prevent the object in front of the screen SC from being focused and to project the focused image on the screen SC.
  • the system control unit 14 when the determination in step S37 is NO, the system control unit 14 automatically adjusts the focus. As a modification of this, when the determination in step S37 is NO and the determination in step S41 is YES, the system control unit 14 may issue information prompting the adjustment of the focal position of the optical system.
  • the system control unit 14 in this case functions as an information generation unit.
  • the system control unit 14 outputs information prompting adjustment of the focal position of the optical system, for example, by displaying a message on a display unit such as a liquid crystal display (not shown) or outputting a message from a speaker (not shown). ..
  • a control device for a projection system having an optical system that projects an image generated by a display unit based on input image data onto a projection object, and an imaging unit that images the projection object.
  • the first captured image data of the image projected on the projection object is acquired from the imaging unit, and a part or all of the first sharpness of the first captured image data and the second sharpness of the input image data are obtained.
  • a control device including a distance determination unit that determines the distance from an object existing between the projection object and the optical system to the optical system based on the degree.
  • the distance determination unit is a control device that determines the distance based on the difference between the first sharpness and the second sharpness.
  • the distance determination unit determines that the distance is equal to or greater than the first distance when the difference is equal to or greater than the first threshold and less than the second threshold, and when the difference is greater than or equal to the second threshold, the distance is said to be greater than or equal to the second threshold.
  • a control device that determines that the distance is less than the first distance.
  • the distance determination unit is a control device that determines the distance based on the ratio of the first sharpness to the second sharpness.
  • a control device including an image control unit that controls the input image data based on the distance.
  • the control device according to the above.
  • An image control unit that controls the input image data based on the distance is provided.
  • the image control unit is a control device that changes the input image data when the distance is equal to or greater than the first distance.
  • the control device is a control device that sets all the sharpness of the first captured image data as the first sharpness.
  • the control device according to any one of (1) to (6).
  • the distance determination unit acquires the second captured image data of the projected object in a state where the image is not projected on the projected object from the imaging unit, and the first captured image data and the second captured image data.
  • a control device that generates a third captured image data that is a part of the first captured image data based on the above, and sets the sharpness of the third captured image data as the first sharpness.
  • the control device is a control device that generates the third captured image data by subtracting the second captured image data from the first captured image data.
  • the control device according to any one of (1) to (9).
  • An object determination unit for determining the presence or absence of an object existing between the projection object and the optical system based on the captured image data output from the imaging unit is further provided.
  • the distance determination unit is a control device that determines the distance when the object determination unit determines that an object exists.
  • the object determination unit acquires the captured image data of the projected object in a state where the image is not projected on the projected object from the imaging unit and sets it as the reference image data, and the reference image data is set.
  • the presence or absence of the object is obtained from the imaging unit in a state in which the image is not projected onto the projection object, and based on the comparison between the captured image data and the reference image data.
  • a control device that determines.
  • the control device (10) The control device according to the above.
  • the object determination unit acquires the captured image data of the projected object in a state where the image is not projected on the projected object from the imaging unit at different timings, and the captured image data acquired at the first timing.
  • a control device that determines the presence or absence of the object based on the comparison with the captured image data acquired at the second timing before the first timing.
  • the control device (10) The control device according to the above.
  • the object determination unit acquires the captured image data of the projected object in a state where the image is projected on the projected object from the imaging unit at different timings, and the captured image data acquired at the first timing.
  • a control device that determines the presence or absence of the object based on the comparison with the captured image data acquired at the second timing before the first timing.
  • the control device according to any one of (1) to (6).
  • the distance determination unit acquires the second captured image data of the projected object in a state where the image is not projected on the projected object from the imaging unit, and the first captured image data and the second captured image data. Based on the above, the third captured image data which is a part of the first captured image data is generated, and the sharpness of the third captured image data is defined as the first sharpness.
  • An object determination unit for determining the presence or absence of an object existing between the projection object and the optical system based on the captured image data output from the imaging unit is further provided.
  • the distance determination unit is a control device that determines the distance when it is determined by the object determination unit that an object exists and the characteristics of the object satisfy a specific condition.
  • the object determination unit acquires the captured image data of the projected object in a state where the image is not projected on the projected object from the imaging unit and sets it as the reference image data, and the reference image data is set.
  • the presence or absence of the object is obtained from the imaging unit in a state where the image is not projected onto the projection object, and based on the comparison between the captured image data and the reference image data.
  • the distance determination unit is a control device characterized by the frequency of the object obtained by comparing the captured image data and the reference image data when the object determination unit determines that an object exists.
  • the object determination unit acquires the captured image data of the projected object in a state where the image is not projected on the projected object from the imaging unit at different timings, and the captured image data acquired at the first timing. And, based on the comparison with the captured image data acquired at the second timing before the first timing, the presence / absence of the object is determined.
  • the distance determination unit is a control device characterized by the frequency of the object obtained by the comparison of the two captured image data when the object determination unit determines that the object exists.
  • the control device according to any one of (10) to (16).
  • the optical system is a control device including a focal position adjusting optical system having a variable focal position.
  • a control device further comprising a focus control unit that controls the focal position of the focus position adjusting optical system when the object determination unit determines that there is no object.
  • a control device further comprising an information generating unit that emits information prompting adjustment of the focal position of the focal position adjusting optical system when the object determining unit determines that there is no object.
  • the control device is a control device that displays the information on the display unit.
  • the control device according to any one of (1) to (20).
  • the imaging unit is a control device that images the projection object through a part of the optical system.
  • a control method for a projection system including an optical system that projects an image generated by a display unit based on input image data onto a projection object, and an imaging unit that captures the projection object.
  • the first captured image data of the image projected on the projection object is acquired from the imaging unit, and a part or all of the first sharpness of the first captured image data and the second sharpness of the input image data are obtained.
  • a control method including a distance determination step of determining the distance from an object existing between the projection object and the optical system to the optical system based on the degree.
  • the distance determination step is a control method for determining the distance based on the difference between the first sharpness and the second sharpness.
  • the distance determination step determines that the distance is equal to or greater than the first distance when the difference is equal to or greater than the first threshold and less than the second threshold, and when the difference is greater than or equal to the second threshold, the distance is said to be greater than or equal to the second threshold.
  • the distance determination step is a control method for determining the distance based on the ratio of the first sharpness to the second sharpness.
  • control method according to any one of (23) to (26).
  • a control method including an image control step that controls the input image data based on the distance.
  • the distance determination step is a control method in which all the sharpness of the first captured image data is set as the first sharpness.
  • the distance determination step is a control method for generating the third captured image data by subtracting the second captured image data from the first captured image data.
  • the control method according to any one of (23) to (31). Further provided with an object determination step for determining the presence or absence of an object existing between the projection object and the optical system based on the captured image data output from the imaging unit.
  • the distance determination step is a control method for determining the distance when it is determined by the object determination step that an object exists.
  • the captured image data of the projected object in a state where the image is not projected on the projected object is acquired from the imaging unit and set as the reference image data, and the reference image data is set.
  • the presence or absence of the object is obtained from the imaging unit in a state in which the image is not projected onto the projection object, and based on the comparison between the captured image data and the reference image data. Control method to determine.
  • the control method according to the above.
  • the captured image data of the projected object in a state where the image is not projected on the projected object is acquired from the imaging unit at different timings, and the captured image data acquired at the first timing.
  • the control method according to the above.
  • the captured image data of the projected object in a state where the image is projected on the projected object is acquired from the imaging unit at different timings, and the captured image data acquired at the first timing.
  • the control method according to any one of (23) to (28).
  • the second captured image data of the projected object in a state where the image is not projected on the projected object is acquired from the imaging unit, and the first captured image data and the second captured image data are obtained.
  • the third captured image data which is a part of the first captured image data is generated, and the sharpness of the third captured image data is defined as the first sharpness.
  • an object determination step for determining the presence or absence of an object existing between the projection object and the optical system based on the captured image data output from the imaging unit.
  • the distance determination step is a control method for determining the distance when it is determined by the object determination step that an object exists and the characteristics of the object satisfy a specific condition.
  • the captured image data of the projected object in a state where the image is not projected on the projected object is acquired from the imaging unit and set as the reference image data, and the reference image data is set.
  • the presence or absence of the object is obtained from the imaging unit in a state where the image is not projected onto the projection object, and based on the comparison between the captured image data and the reference image data.
  • the distance determination step is a control method characterized by the frequency of the object obtained by comparing the captured image data and the reference image data when the presence of the object is determined by the object determination step.
  • the captured image data of the projected object in a state where the image is not projected on the projected object is acquired from the imaging unit at different timings, and the captured image data acquired at the first timing. And, based on the comparison with the captured image data acquired at the second timing before the first timing, the presence / absence of the object is determined.
  • the distance determination step is a control method characterized by the frequency of the object obtained by the comparison of the two captured image data when the object is determined to be present by the object determination step.
  • the above optical system is a control method including a focal position adjusting optical system having a variable focal position.
  • a control method further comprising a focus control step for controlling the focal position of the focal position adjusting optical system when it is determined by the object determination step that there is no object.
  • a control method further comprising an information generation step that emits information prompting adjustment of the focal position of the focal position adjusting optical system when it is determined by the object determination step that there is no object.
  • the information generation step is a control method for displaying the information on the display unit.
  • the imaging unit is a control method for imaging the projection object through a part of the optical system.
  • the first captured image data of the image projected on the projection object is acquired from the imaging unit, and a part or all of the first sharpness of the first captured image data and the second sharpness of the input image data are obtained.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

投影対象物に画像を投影する光学系とその投影対象物との間にある物体までの距離を低コストにて判定可能とする制御装置、投影システム、制御方法、及び制御プログラムを提供する。 入力画像データに基づいて表示部にて生成される画像をスクリーンSCに投影する光学系と、投影対象物を撮像する撮像部と、を有するプロジェクタ(100)のシステム制御部(14)は、スクリーンSCに投影された画像の第一撮像画像データを撮像部から取得し、第一撮像画像データの第一鮮鋭度と、入力画像データの第二鮮鋭度とに基づいて、スクリーンSCと光学系の間に存在する物体から光学系までの距離を判定する距離判定部(14A)を備える。

Description

制御装置、投影システム、制御方法、制御プログラム
 本発明は、制御装置、投影システム、制御方法、制御プログラムに関する。
 撮像装置と投影装置とを組み合わせたシステムが提案されている(例えば特許文献1,2参照)。特許文献1には、複数のカメラを用いることで、投影面と装置との間の障害物までの距離を測定することが記載されている。特許文献2には、赤外線等を用いて、投影面における指のタッチ位置を検出することが記載されている。
日本国特開2005-229415号公報 日本国特開2016-139396号公報
 本開示の技術に係る1つの実施形態は、投影対象物に画像を投影する光学系とその投影対象物との間にある物体までの距離を低コストにて判定することを可能とする制御装置、投影システム、制御方法、及び制御プログラムを提供する。
 本発明の制御装置は、入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、上記投影対象物を撮像する撮像部と、を有する投影システムの制御装置であって、上記投影対象物に投影された上記画像の第一撮像画像データを上記撮像部から取得し、上記第一撮像画像データの一部又は全部の第一鮮鋭度と、上記入力画像データの第二鮮鋭度とに基づいて、上記投影対象物と上記光学系の間に存在する物体から上記光学系までの距離を判定する距離判定部を備えるものである。
 本発明の投影システムは、上記制御装置と、上記光学系と、上記撮像部と、を備えるものである。
 本発明の制御方法は、入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、上記投影対象物を撮像する撮像部と、を有する投影システムの制御方法であって、上記投影対象物に投影された上記画像の第一撮像画像データを上記撮像部から取得し、上記第一撮像画像データの一部又は全部の第一鮮鋭度と、上記入力画像データの第二鮮鋭度とに基づいて、上記投影対象物と上記光学系の間に存在する物体から上記光学系までの距離を判定する距離判定ステップを含むものである。
 本発明の制御プログラムは、入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、上記投影対象物を撮像する撮像部と、を有する投影システムの制御プログラムであって、上記投影対象物に投影された上記画像の第一撮像画像データを上記撮像部から取得し、上記第一撮像画像データの一部又は全部の第一鮮鋭度と、上記入力画像データの第二鮮鋭度とに基づいて、上記投影対象物と上記光学系の間に存在する物体から上記光学系までの距離を判定する距離判定ステップをコンピュータに実行させるためのものである。
 本発明によれば、投影対象物に画像を投影する光学系とその投影対象物との間にある物体までの距離を低コストにて判定可能とする制御装置、投影システム、制御方法、及び制御プログラムを提供することができる。
本発明の投影システムの一実施形態であるプロジェクタ100の外観構成を示す模式図である。 図1の光源ユニット11の内部構成の一例を示す模式図である。 図1に示すプロジェクタ100の光学ユニット6の断面模式図である。 図1に示すプロジェクタ100の内部ブロック構成を示す模式図である。 図4に示すシステム制御部14の機能ブロック図である。 距離判定部14Aによる物体までの距離の判定原理を説明するための模式図である。 入力画像データg1と入力画像データg1に基づく画像G1の一例を示す模式図である。 図7に示す画像G1を撮像素子38によって撮像して得られる撮像画像データIPの例を示す模式図である。 プロジェクタ100のジェスチャ検出動作を説明するためのフローチャートである。 プロジェクタ100のジェスチャ検出動作の変形例を説明するためのフローチャートである。 ステップS22にて取得された第二撮像画像データIP2と、ステップS3にて取得された第一撮像画像データIP1と、ステップS23にて生成された第三撮像画像データIP3の例を示す図である。 図4に示すシステム制御部14の機能ブロックの第一変形例を示す図である。 図12に示すシステム制御部14によるジェスチャ検出動作を説明するためのフローチャートである。 図12に示すシステム制御部14によるジェスチャ検出動作の変形例を説明するためのフローチャートである。 図4に示すシステム制御部14の機能ブロックの第二変形例を示す図である。 図15に示すシステム制御部14によるジェスチャ検出動作を説明するためのフローチャートである。
 以下、本発明の実施形態について図面を参照して説明する。
 図1は、本発明の投影システムの一実施形態であるプロジェクタ100の外観構成を示す模式図である。図2は、図1の光源ユニット11の内部構成の一例を示す模式図である。図3は、図1に示すプロジェクタ100の光学ユニット6の断面模式図である。図3は、本体部1から出射される光の光路に沿った面での断面を示している。
 図1に示すように、プロジェクタ100は、本体部1と、本体部1から突出して設けられた光学ユニット6と、を備える。光学ユニット6は、本体部1に支持される第一部材2と、第一部材2に支持された第二部材3と、を備える。なお、第二部材3は、第一部材2に回転可能な状態にて固定されていてもよい。また、第一部材2と第二部材3は一体化された部材であってもよい。光学ユニット6は、本体部1に着脱自在に構成(換言すると交換可能に構成)されていてもよい。
 本体部1は、光学ユニット6と連結される部分に光を通すための開口15aが形成された筐体15を有する(図3参照)。
 本体部1の筐体15の内部には、図1に示すように、光源ユニット11と、光源ユニット11から射出される光を入力画像データに基づいて空間変調して画像を生成する光変調素子12a(図2参照)を含む光変調ユニット12と、が設けられている。光源ユニット11と光変調ユニット12によって表示部が構成される。
 図2に示す例では、光源ユニット11は、白色光を出射する光源41と、カラーホイール42と、照明光学系43と、を備える。光源41は、レーザ又はLED(Light Emitting Diode)等の発光素子を含んで構成される。カラーホイール42は、光源41と照明光学系43の間に配置されている。カラーホイール42は、円板状の部材であり、その周方向に沿って、赤色光を透過するRフィルタ、緑色光を透過するGフィルタ、及び青色光を透過するBフィルタが設けられている。カラーホイール42は軸周りに回転され、光源41から出射される白色光を時分割にて赤色光、緑色光、及び青色光に分光して照明光学系43に導く。照明光学系43から出射された光は光変調素子12aに入射される。
 光変調ユニット12に含まれる光変調素子12aは、図2の光源ユニット11の構成であればDMD(Digital Micromirror Device)が例えば用いられる。光変調素子12aとしては、LCOS(Liquid crystal on silicon)、MEMS(Micro Electro Mechanical Systems)素子、又は液晶表示素子等を用いることもできる。図3に示すように、光変調ユニット12によって空間変調された光によって形成される画像G1は、筐体15の開口15aを通過して光学ユニット6に入射され、投影対象物としてのスクリーンSCに投影される(図3参照)。
 図3に示すように、光学ユニット6は、本体部1の内部と繋がる中空部2Aを有する第一部材2と、中空部2Aと繋がる中空部3Aを有する第二部材3と、中空部2Aに配置された第一光学系21及び反射部材22と、中空部3Aに配置された第二光学系31、分岐部材32、第三光学系33、第四光学系37、撮像素子38、及びレンズ34と、を備える。
 第一部材2は、断面外形が例えば矩形の部材であり、開口2aと開口2bが互いに垂直な面に形成されている。第一部材2は、本体部1の開口15aと対面する位置に開口2aが配置される状態にて、本体部1によって支持されている。本体部1の光変調ユニット12の光変調素子12aから射出された光は、開口15a及び開口2aを通って第一部材2の中空部2Aに入射される。
 本体部1から中空部2Aに入射される光の入射方向を方向X1と記載し、方向X1の逆方向を方向X2と記載し、方向X1と方向X2を総称して方向Xと記載する。また、図3において、紙面手前から奥に向かう方向とその逆方向を方向Zと記載する。また、方向X及び方向Zに垂直な方向を方向Yと記載し、方向Yのうち、図3において上に向かう方向を方向Y1と記載し、図3において下に向かう方向を方向Y2と記載する。
 第一光学系21、反射部材22、第二光学系31、分岐部材32、第三光学系33、及びレンズ34は、光変調素子12aによって形成された画像(表示部にて生成された画像)をスクリーンSCに投影する光学系を構成している。図3には、この光学系の光軸Kが示されている。第一光学系21、反射部材22、第二光学系31、分岐部材32、第三光学系33、及びレンズ34は、光変調素子12a側からこの順に光軸Kに沿って配置されている。
 第一光学系21は、少なくとも1つのレンズを含み、本体部1から第一部材2に入射された方向X1に進む光を反射部材22に導く。
 反射部材22は、第一光学系21から入射された光を方向Y1に反射させる。反射部材22は、例えばミラー等によって構成される。第一部材2には、反射部材22にて反射した光の光路上に開口2bが形成されており、この反射した光は開口2bを通過して第二部材3の中空部3Aへと進む。
 第二部材3は、断面外形が例えば略T字状の部材であり、第一部材2の開口2bと対面する位置に開口3aが形成されている。第一部材2の開口2bを通過した本体部1からの光は、この開口3aを通って第二部材3の中空部3Aに入射される。
 第二光学系31は、少なくとも1つのレンズを含み、第一部材2から入射された光を、分岐部材32に導く。
 分岐部材32は、第二光学系31から入射される光を方向X2に反射させて第三光学系33に導く。また、分岐部材32は、スクリーンSC側からレンズ34に入射されて第三光学系33を通過した被写体光を透過させて、第四光学系37に導く。分岐部材32は、例えばハーフミラー、ビームスプリッター、又は偏光部材等によって構成される。
 第三光学系33は、少なくとも1つのレンズを含み、分岐部材32にて反射された光をレンズ34に導く。第三光学系33には、例えば、光学系の焦点位置(スクリーンSCに投影される画像の焦点位置)を調節するためのフォーカスレンズ、光学系の焦点距離を調節するためのズームレンズ、又は透過光量が可変の可変絞り等が含まれていてもよい。フォーカスレンズは、焦点位置可変の焦点位置調節光学系を構成する。なお、フォーカスレンズは、第三光学系33ではなく、第一光学系21又は第二光学系31に含まれる構成としてもよい。
 レンズ34は、第二部材3の方向X2側の端部に形成された開口3cを塞ぐ形でこの端部に配置されている。レンズ34は、第三光学系33から入射された光をスクリーンSCに投影する。
 第四光学系37は、分岐部材32の方向X1側の隣に配置されており、分岐部材32を透過して方向X1に進む被写体光を撮像素子38に導く。第四光学系37の光軸と、レンズ34及び第三光学系33の光軸とは略一致している。
 撮像素子38は、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等である。撮像素子38は、レンズ34、第三光学系33、分岐部材32、及び第四光学系37を通して、スクリーンSCを撮像する。撮像素子38の撮像画像信号は、後述の画像処理部39に入力される。レンズ34、第三光学系33、及び分岐部材32は、光学系の一部を構成する。
 図4は、図1に示すプロジェクタ100の内部ブロック構成を示す模式図である。プロジェクタ100の本体部1には、光源ユニット11と、光変調素子12a及び光変調素子12aを駆動する光変調素子駆動部12bを含む光変調ユニット12と、全体を統括制御するシステム制御部14と、が設けられている。光学ユニット6には、撮像素子38と、撮像素子38から入力された撮像画像信号を処理して撮像画像データを生成する画像処理部39と、が設けられている。画像処理部39によって生成された撮像画像データはシステム制御部14に入力される。撮像素子38と画像処理部39によって撮像部が構成される。
 光変調素子駆動部12bは、システム制御部14から入力される入力画像データに基づいて光変調素子12aを駆動し、光源ユニット11からの光をこの入力画像データによって空間変調させる。入力画像データとは、パーソナルコンピュータ、スマートフォン、タブレット端末等の外部装置から入力される画像データに限定されず、プロジェクタ100内部で生成した入力画像データでもよい。また、入力画像データのデータ形式は、デジタルデータ、デジタルアナログ変換後のアナログデータのどちらであってもよい。
 システム制御部14は、各種のプロセッサと、ROM(Read Only Memory)と、RAM(Random Access Memory)と、を備える。
 各種のプロセッサとしては、プログラムを実行して各種処理を行う汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、又はASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。これら各種のプロセッサの構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
 システム制御部14のプロセッサは、各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAの組み合わせ)で構成されてもよい。
 図5は、図4に示すシステム制御部14の機能ブロック図である。システム制御部14のプロセッサは、制御プログラムを実行することにより、距離判定部14A及び画像制御部14Bを備える制御装置として機能する。
 距離判定部14Aは、スクリーンSCに投影された画像G1の第一撮像画像データを撮像部(具体的には画像処理部39)から取得し、この第一撮像画像データの全部の鮮鋭度(第一鮮鋭度)と、画像G1の元となる入力画像データの鮮鋭度(第二鮮鋭度)とに基づいて、スクリーンSCと光学ユニット6の光学系の間に存在する物体(例えば、人の頭や手等)からこの光学系までの距離を判定する。
 画像データの鮮鋭度とは、その画像データの鮮鋭さ(シャープネス)、換言するとボケ具合を表す指標であり、例えば、画像データのコントラスト値等の各種の評価値を用いることができる。
 第一撮像画像データには、画像G1と、その画像G1が投影された背景部分(スクリーンSCや物体)とが含まれている。第一撮像画像データに含まれる画像G1は、第一撮像画像データの一部を構成する。第一撮像画像データに含まれる画像G1と背景部分は、第一撮像画像データの全部を構成する。
 画像制御部14Bは、距離判定部14Aによって判定された光学系から物体までの距離に基づいて、光変調素子12aに入力する入力画像データを制御する。具体的には、画像制御部14Bは、この距離がスクリーンSCの近傍に物体が存在することを示す距離である場合には、スクリーンSCへのタッチ操作がなされたと判断して、そのタッチ操作に応じた制御、つまり、入力画像データの変更を行う。これにより、タッチ操作によってスクリーンSCに投影された画像G1を別のものに変更することができる。
 図6は、距離判定部14Aによる物体までの距離の判定原理を説明するための模式図である。図6には、スクリーンSCと、光学ユニット6の光学系のうちの最もスクリーンSC側に位置するレンズ34と、が示されている。また、図6には、方向Xにおけるレンズ34のスクリーンSC側の端部の位置P1と、方向XにおけるスクリーンSCのレンズ34側の端部の位置P3が示されている。また、図6には、位置P3と位置P1の間であって位置P3近傍の位置P2が示されている。光学ユニット6からスクリーンSCに投影される画像G1の合焦位置は、位置P3に設定されている。
 図7は、入力画像データg1と入力画像データg1に基づく画像G1の一例を示す模式図である。図7に示す入力画像データg1が光変調素子12aに入力されると、この入力画像データg1に基づく画像G1がスクリーンSCに投影される。ここで、図6に示すように、画像G1の通過経路上に人の指等の物体OBが存在していると、図7に示すように、画像G1のうちの一部は、スクリーンSCに投影されることなく、物体OBに投影された状態となる。したがって、図7に示す画像G1を撮像素子38によって撮像して得られる撮像画像データIPは、図8に示すようなもの(物体OBに対応する物体領域obを含むデータ)となる。
 ここで、物体OBが、図6に示した位置P2と位置P1の間に存在している場合を想定する。この場合には、画像G1の合焦位置から遠く離れた位置に物体OBが存在している。このため、図8に示した撮像画像データIPにおける物体領域obの鮮鋭度は、入力画像データg1における物体領域obと対応する領域の鮮鋭度に対し、大きく低下することになる。つまり、入力画像データg1の鮮鋭度C1と撮像画像データIPの鮮鋭度C2の差は大きな値(例えば後述の第二閾値TH2以上)となる。
 また、物体OBが、図6に示した位置P3と位置P2の間に存在している場合を想定する。この場合には、画像G1の合焦位置近傍に物体OBが存在している。このため、図8に示した撮像画像データIPにおける物体領域obの鮮鋭度は、入力画像データg1における物体領域obと対応する領域の鮮鋭度に対し、僅かに低下することになる。つまり、入力画像データg1の鮮鋭度C1と撮像画像データIPの鮮鋭度C2の差は、物体OBが位置P2と位置P1の間に存在している場合よりは小さい値(例えば、後述の第一閾値TH1以上且つ第二閾値TH2未満の範囲の値)となる。
 更に、図6に示す物体OBが存在していない場合を想定する。この場合には、入力画像データg1の鮮鋭度C1と撮像画像データIPの鮮鋭度C2はほぼ同じ値となる。つまり、鮮鋭度C1と鮮鋭度C2の差は、物体OBが位置P3と位置P2の間に存在している場合よりも小さい値(例えば、後述の第一閾値TH1未満)となる。
 このように、距離判定部14Aは、入力画像データg1の鮮鋭度と、画像G1をスクリーンSCに投影した状態にてその画像G1を撮像して得られる第一撮像画像データの鮮鋭度との差の大きさによって、物体OBの存在の有無と、光学系から物体OBまでの距離の大きさとを判定する。
 図9は、プロジェクタ100のジェスチャ検出動作を説明するためのフローチャートである。システム制御部14の画像制御部14Bは、入力画像データg1を取得し、これを光変調素子12aに入力して、入力画像データg1に基づく画像G1をスクリーンSCに投影させる(ステップS1)。
 次に、システム制御部14の距離判定部14Aは、撮像素子38を駆動して、画像G1が投影されているスクリーンSCを撮像させる(ステップS2)。ステップS2の撮像にて撮像素子38から撮像画像信号が出力されると、この撮像画像信号が画像処理部39によって処理されて、撮像画像データが生成される。距離判定部14Aは、この撮像画像データのうちの画像G1に対応する部分である第一撮像画像データを画像処理部39から取得する(ステップS3)。
 次に、距離判定部14Aは、入力画像データg1と第一撮像画像データのサイズを一致させる処理を行う(ステップS4)。このステップS4において、距離判定部14Aは、更に、入力画像データg1と第一撮像画像データの明るさを揃える処理を行ってもよい。
 次に、距離判定部14Aは、入力画像データg1の鮮鋭度C1と第一撮像画像データの鮮鋭度C2をそれぞれ導出し、鮮鋭度C1と鮮鋭度C2の差ΔC(絶対値)を算出する(ステップS5)。
 次に、距離判定部14Aは、差ΔCが第一閾値TH1未満となるか否かを判定する(ステップS6)。距離判定部14Aは、差ΔCが第一閾値TH1未満であった場合(ステップS6:YES)には、投影中の画像G1を遮る物体は存在しないと判定し(ステップS7)、ジェスチャ非検出として処理を終了させる。
 距離判定部14Aは、差ΔCが第一閾値TH1以上であった場合(ステップS6:NO)には、投影中の画像G1を遮る物体が存在すると判定し、差ΔCが第二閾値TH2以上であるか否かを判定する(ステップS8)。
 距離判定部14Aは、差ΔCが第二閾値TH2以上であった場合(ステップS8:YES)には、光学系から物体までの距離が、図6に示した位置P1と位置P2の間の距離である第一距離L1未満である、換言すると、スクリーンSC近傍に物体が存在していないと判定し(ステップS9)、ジェスチャ非検出として処理を終了させる。
 距離判定部14Aは、差ΔCが第二閾値TH2未満であった場合(ステップS8:NO)には、光学系から物体までの距離が第一距離L1以上である、換言すると、スクリーンSC近傍に物体が存在している(すなわちジェスチャ(スクリーンSCへのタッチ操作)が行われている)と判定する(ステップS10)。
 ステップS10の後、画像制御部14Bは、第一撮像画像データにおける物体領域の位置に基づいて、例えば入力画像データg1の一部を更新したり、入力画像データg1を他の入力画像データに変更したりする制御を行う(ステップS11)。
 なお、距離判定部14Aは、図9のステップS5において、2つの鮮鋭度の比を算出し、この比に基づいて、光学系から物体までの距離を判定してもよい。例えば、距離判定部14Aは、入力画像データg1の鮮鋭度C1を第一撮像画像データの鮮鋭度C2で除算した値を上記の比とし、この比が“1”であればステップS7に処理を移行する。また、距離判定部14Aは、この比が“1”より大きく閾値th1未満であればステップS10に処理を移行する。また、距離判定部14Aは、この比が閾値th1以上であればステップS9に処理を移行する。
 以上のように、プロジェクタ100によれば、入力画像データg1の鮮鋭度と第一撮像画像データの鮮鋭度とに基づいて、光学系から、画像G1を遮っている物体までの距離を判定することができる。この判定には、赤外線やステレオカメラ等の高価なハードウェアや複雑な演算は不要である。このため、物体までの距離の判定を低コスト且つ軽負荷にて行うことができる。
 図10は、プロジェクタ100のジェスチャ検出動作の変形例を説明するためのフローチャートである。図10において図9と同じ処理には同一符号を付して説明を省略する。
 ステップS1に先立ち、距離判定部14Aは、スクリーンSCに画像G1が非投影の状態において、撮像素子38を駆動して、スクリーンSCを撮像させる(ステップS21)。ステップS21の撮像にて撮像素子38から撮像画像信号が出力されると、この撮像画像信号が画像処理部39によって処理されて、撮像画像データが生成される。距離判定部14Aは、この撮像画像データのうちの画像G1の投影範囲に対応する部分である第二撮像画像データを画像処理部39から取得する(ステップS22)。
 ステップS22の後、ステップS1からステップS3の処理が行われると、距離判定部14Aは、第一撮像画像データから第二撮像画像データを減算して、第三撮像画像データを生成する(ステップS23)。
 図11は、ステップS22にて取得された第二撮像画像データIP2と、ステップS3にて取得された第一撮像画像データIP1と、ステップS23にて生成された第三撮像画像データIP3の例を示す図である。
 図11に示す第一撮像画像データIP1における物体領域obは、画像G1の一部が物体OBに重なった状態で得られる。そのため、物体OBそのものに複雑な模様が存在している(例えば柄物の洋服の一部が画像G1を遮っているようなケースを想定)と、この複雑な模様と、画像G1の一部とが重なった状態にて撮像されることになる。この場合、第一撮像画像データIP1の全部の鮮鋭度は、物体OBがスクリーンSC近傍に存在していても、入力画像データg1の鮮鋭度より大きくなる可能性がある。
 図11に示す第一撮像画像データIP1から第二撮像画像データIP2を減算すると、物体OBが除去された第三撮像画像データIP3を得ることができる。一方で、第三撮像画像データIP3における領域ob1は、スクリーンSCよりも手前側に画像G1が投影された部分である。このため、この領域ob1の鮮鋭度は第三撮像画像データIP3の他の領域と比べて低下する。そのため、第一撮像画像データIP1の鮮鋭度と第三撮像画像データの鮮鋭度に基づいて、物体OBまでの距離を判定することができる。
 距離判定部14Aは、ステップS23にて第三撮像画像データを生成すると、入力画像データg1と第三撮像画像データのサイズを一致させる処理を行う(ステップS4a)。
 次に、距離判定部14Aは、入力画像データg1の鮮鋭度C1と第三撮像画像データの鮮鋭度C3をそれぞれ導出し、鮮鋭度C1と鮮鋭度C3の差Ca(絶対値)を算出する(ステップS5a)。本変形例において鮮鋭度C3は第一鮮鋭度を構成する。
 次に、距離判定部14Aは、差ΔCaが第一閾値TH1未満となるか否かを判定する(ステップS6a)。距離判定部14Aは、差ΔCaが第一閾値TH1未満であった場合(ステップS6a:YES)には、ステップS7に処理を移行する。
 距離判定部14Aは、差ΔCが第一閾値TH1以上であった場合(ステップS6a:NO)には、投影中の画像G1を遮る物体が存在すると判定し、差ΔCaが第二閾値TH2以上であるか否かを判定する(ステップS8a)。
 距離判定部14Aは、差ΔCaが第二閾値TH2以上であった場合(ステップS8a:YES)には、ステップS9に処理を移行し、差ΔCaが第二閾値TH2未満であった場合(ステップS8a:NO)には、ステップS10に処理を移行する。
 以上のように、入力画像データg1の鮮鋭度と第三撮像画像データの鮮鋭度とに基づいて、光学系から、画像G1を遮っている物体までの距離を判定することができる。第三撮像画像データを用いることで、物体OBにコントラストが高くなるような模様が含まれている場合であっても、その物体OBまでの距離を正確に判定することができる。ここで説明した第三撮像画像データは、第一撮像画像データIP1のうち物体OBの部分とスクリーンSCの部分(つまり、上述した背景部分)が除去された画像データである。つまり、第三撮像画像データは、第一撮像画像データの一部ということができる。
 なお、図10に示す変形例においても、差ΔCaの代わりに、入力画像データg1の鮮鋭度と第三撮像画像データの鮮鋭度の比を用いることができる。
 また、図10の説明では、第三撮像画像データを、第一撮像画像データから第二撮像画像データを減算して生成するものとした。しかし、第三撮像画像データは、第一撮像画像データに含まれる背景部分が除去されたものであればよく、例えば、第一撮像画像データの各画素と第二撮像画像データの各画素との輝度比を求め、この輝度比を第一撮像画像データの各画素に乗じることで、背景部分が除去された第三撮像画像データを生成してもよい。
 図12は、図4に示すシステム制御部14の機能ブロックの第一変形例を示す図である。システム制御部14のプロセッサは、制御プログラムを実行することにより、距離判定部14A、画像制御部14B、物体判定部14Cを備える制御装置として機能する。
 物体判定部14Cは、距離判定部14Aによる距離判定の処理に先立ち、画像処理部39から出力される撮像画像データに基づいて、スクリーンSCと光学系の間に存在する物体の有無を判定する。
 図12に示した距離判定部14Aと画像制御部14Bの機能は、上述してきたものと同じである。ただし、距離判定部14Aは、物体判定部14CによってスクリーンSCと光学系の間に物体が存在すると判定された場合に限って、上述した物体までの距離の判定を行うものとなっている。
 図13は、図12に示すシステム制御部14によるジェスチャ検出動作を説明するためのフローチャートである。
 プロジェクタ100の電源が投入されると、まず、物体判定部14Cは、スクリーンSCに画像G1が非投影の状態において、撮像素子38を駆動して、スクリーンSCを撮像させる(ステップS31)。ステップS31の撮像にて撮像素子38から撮像画像信号が出力されると、この撮像画像信号が画像処理部39によって処理されて、撮像画像データが生成される。物体判定部14Cは、この撮像画像データのうちの画像G1の投影範囲に対応する部分の画像データを画像処理部39から取得し、この画像データを基準画像データとして設定し、RAMに記憶する(ステップS32)。
 次に、画像制御部14Bが、入力画像データg1を取得し、これを光変調素子12aに入力して、入力画像データg1に基づく画像G1をスクリーンSCに投影させる(ステップS33)。
 次に、物体判定部14Cは、画像G1の投影を一時的に停止させる(ステップS34)。そして、物体判定部14Cは、画像G1の投影が停止されている状態において、撮像素子38を駆動して、スクリーンSCを撮像させる(ステップS35)。ステップS35の撮像にて撮像素子38から撮像画像信号が出力されると、この撮像画像信号が画像処理部39によって処理されて、撮像画像データが生成される。物体判定部14Cは、この撮像画像データのうちの画像G1の投影範囲に対応する部分を画像処理部39から取得し、この部分と、基準画像データとを比較する(ステップS36)。
 比較の結果、2つの画像データの輝度差が閾値未満であった場合(ステップS37:NO)には、ステップS33に処理が戻る。なお、ステップS34の処理が行われてからステップS33の処理が行われるまでの時間は、人に検知できない程度の短時間にて行われる。
 2つの画像データの輝度差がこの閾値以上であった場合(ステップS37:YES)には、ステップS38に処理が移行される。ステップS38において、物体判定部14Cは、画像G1を遮る物体が存在する可能性ありと判定する。そして、ステップS38の処理が行われると、図9のステップS1以降の処理又は図10のステップS21以降の処理が開始される。
 なお、ステップS37とステップS38では、2つの画像データの輝度差の大きさによって物体の有無を判定しているが、例えば2つの画像データの差分画像データを生成し、その差分画像データにエッジが含まれる場合に、そのエッジで囲まれる部分に物体が存在する可能性があると判定してもよい。
 以上のように、画像G1を遮る物体が存在する可能性がある場合に限って、図9又は図10に示す処理を行うことで、システム制御部14の処理量の増大を防ぐことができる。
 図13のステップS37の判定がNOとなった場合に、物体判定部14Cは、RAMに記憶している基準画像データを、ステップS36にて取得した撮像画像データに書き換え、この撮像画像データを基準画像データとして再設定してもよい。このようにすることで、プロジェクタ100の起動後に、スクリーンSCの置かれている環境の明るさが変化した場合であっても、物体の有無の判定を高精度に行うことができる。
 また、図13では、画像が非投影の状態且つ異なるタイミングにてスクリーンSCを撮像して得られる2つの撮像画像データの比較により、投影される画像を遮る物体の有無を判定している。この変形例として、物体判定部14Cは、画像が投影された状態且つ異なるタイミングにてスクリーンSCを撮像して得られる2つの撮像画像データの比較により、投影される画像を遮る物体の有無を判定してもよい。
 図14は、図12に示すシステム制御部14によるジェスチャ検出動作の変形例を説明するためのフローチャートである。図14に示すフローチャートは、ステップS39が追加された点を除いては、図13に示すフローチャートと同じである。図14において図13と同じ処理には同一符号を付して説明を省略する。
 物体判定部14Cは、ステップS38において物体が存在する可能性があると判定すると、その物体の特徴が特定条件を満たすか否かを判定する(ステップS39)。
 具体的には、物体判定部14Cは、ステップS37の比較に用いた2つの撮像画像データの差分画像データを生成する。この差分画像データは、物体を示す画像データとなる。物体判定部14Cは、この差分画像データの周波数(空間周波数)を求め、周波数が所定値以上となっている場合に、物体の特徴が特定条件を満たしていないと判定し、周波数が所定値未満となっている場合に、物体の特徴が特定条件を満たしていると判定する。この例では、周波数が物体の特徴であり、周波数が所定値未満となること(換言すると、細かい模様を含まない物体であること)が特定条件である。
 ステップS39において物体の特徴が特定条件を満たすと判定されると、図10のステップS21以降の処理が行われる。図14に示す動作によれば、スクリーンSCに投影された画像を遮る物体に、空間周波数が高くなる複雑な模様が含まれない場合に限って、図10の処理が行われる。図10の処理は、物体の模様の影響を排除できるものであるが、図14のステップS39の処理を行うことで、この影響をより強力に排除することが可能となる。
 図14のフローチャートにおいても、図13にて説明した変形例(ステップS37の判定がNOとなった場合に基準画像データを更新する点、画像が投影された状態且つ異なるタイミングにてスクリーンSCを撮像して得られる2つの撮像画像データの比較により、投影される画像を遮る物体の有無を判定する点)を適用可能である。
 図15は、図4に示すシステム制御部14の機能ブロックの第二変形例を示す図である。システム制御部14のプロセッサは、制御プログラムを実行することにより、距離判定部14A、画像制御部14B、物体判定部14C、及び焦点制御部14Dを備える制御装置として機能する。この第二変形例では、光学ユニット6に含まれる光学系に、上述したフォーカスレンズが含まれることを前提としている。
 図15に示した距離判定部14A、画像制御部14B、物体判定部14Cの機能は、図12と同様であるため説明を省略する。
 焦点制御部14Dは、物体判定部14Cによって物体が無しと判定されている場合に、フォーカスレンズを制御して光学系の焦点位置を制御する。
 図16は、図15に示すシステム制御部14によるジェスチャ検出動作を説明するためのフローチャートである。図16に示すフローチャートは、ステップS41とステップS42が追加された点を除いては、図13に示すフローチャートと同じである。図16において図13と同じ処理には同一符号を付して説明を省略する。
 ステップS37の判定がNOとなった場合、焦点制御部14Dは、ステップS36にて取得された撮像画像得データに基づいて、光学系の焦点調節が必要か否かを判定する(ステップS41)。例えば、焦点制御部14Dは、この撮像画像データの鮮鋭度を求め、この鮮鋭度が所定値以下となっている場合に、焦点調節が必要であると判定する。
 焦点制御部14Dは、焦点調節が必要と判定した場合(ステップS41:YES)には、コントラストAF(Auto Focus)方式や位相差AF方式等によって、フォーカスレンズの駆動量を決定し、この駆動量にしたがってフォーカスレンズを駆動して焦点位置の調節を行う(ステップS42)。ステップS42の後は、ステップS33に処理が移行される。ステップS41の判定がNOとなった場合にも、ステップS33に処理が移行される。
 なお、図14に示すフローチャートにおいて、ステップS37の判定がNOとなった場合と、ステップS39の判定がNOとなった場合とのそれぞれにおいて、図16のステップS41及びステップS42の処理が行われるようにしてもよい。
 図16のフローチャートにおいても、図13にて説明した変形例(ステップS37の判定がNOとなった場合に基準画像データを更新する点、画像が投影された状態且つ異なるタイミングにてスクリーンSCを撮像して得られる2つの撮像画像データの比較により、投影される画像を遮る物体の有無を判定する点)を適用可能である。
 図16に示す動作によれば、物体判定部14Cによって物体が無いと判定されている状態において、光学系の焦点調節が行われる。このため、スクリーンSC前方の物体に焦点があってしまうのを防いで、スクリーンSC上に焦点のあった画像を投影可能となる。
 図16に示す動作では、ステップS37の判定がNOとなった場合に、システム制御部14が自動的に焦点調節を行うものとした。この変形例として、ステップS37の判定がNOとなり且つステップS41の判定がYESとなった場合に、システム制御部14は、光学系の焦点位置の調節を促す情報を発してもよい。この場合のシステム制御部14は、情報発生部として機能する。システム制御部14は、例えば、図示省略の液晶ディスプレイ等の表示部にメッセージを表示させたり、図示省略のスピーカからメッセージを出力させたりすることで、光学系の焦点位置の調節を促す情報を発する。
 以上説明してきたように、本明細書には以下の事項が開示されている。
(1)
 入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、上記投影対象物を撮像する撮像部と、を有する投影システムの制御装置であって、
 上記投影対象物に投影された上記画像の第一撮像画像データを上記撮像部から取得し、上記第一撮像画像データの一部又は全部の第一鮮鋭度と、上記入力画像データの第二鮮鋭度とに基づいて、上記投影対象物と上記光学系の間に存在する物体から上記光学系までの距離を判定する距離判定部を備える制御装置。
(2)
 (1)記載の制御装置であって、
 上記距離判定部は、上記第一鮮鋭度と上記第二鮮鋭度との差に基づいて上記距離を判定する制御装置。
(3)
 (2)記載の制御装置であって、
 上記距離判定部は、上記差が第一閾値以上第二閾値未満の状態では、上記距離が第一距離以上であると判定し、上記差が上記第二閾値以上の状態では、上記距離が上記第一距離未満であると判定する制御装置。
(4)
 (1)記載の制御装置であって、
 上記距離判定部は、上記第一鮮鋭度と上記第二鮮鋭度との比に基づいて上記距離を判定する制御装置。
(5)
 (1)から(4)のいずれか1つに記載の制御装置であって、
 上記距離に基づいて上記入力画像データを制御する画像制御部を備える制御装置。
(6)
 (3)記載の制御装置であって、
 上記距離に基づいて上記入力画像データを制御する画像制御部を備え、
 上記画像制御部は、上記距離が上記第一距離以上の状態において、上記入力画像データを変更する制御装置。
(7)
 (1)から(6)のいずれか1つに記載の制御装置であって、
 上記距離判定部は、上記第一撮像画像データの上記全部の鮮鋭度を上記第一鮮鋭度とする制御装置。
(8)
 (1)から(6)のいずれか1つに記載の制御装置であって、
 上記距離判定部は、上記投影対象物に上記画像が非投影の状態における上記投影対象物の第二撮像画像データを上記撮像部から取得し、上記第一撮像画像データと上記第二撮像画像データに基づいて、上記第一撮像画像データの上記一部である第三撮像画像データを生成し、上記第三撮像画像データの鮮鋭度を上記第一鮮鋭度とする制御装置。
(9)
 (8)記載の制御装置であって、
 上記距離判定部は、上記第一撮像画像データから上記第二撮像画像データを減算して上記第三撮像画像データを生成する制御装置。
(10)
 (1)から(9)のいずれか1つに記載の制御装置であって、
 上記撮像部から出力される撮像画像データに基づいて、上記投影対象物と上記光学系の間に存在する物体の有無を判定する物体判定部を更に備え、
 上記距離判定部は、上記物体判定部によって物体が有りと判定された場合に、上記距離の判定を行う制御装置。
(11)
 (10)記載の制御装置であって、
 上記物体判定部は、上記投影対象物に上記画像が非投影の状態における上記投影対象物の撮像画像データを上記撮像部から取得して基準画像データに設定し、上記基準画像データが設定された状態且つ上記投影対象物に上記画像が非投影の状態における上記投影対象物の撮像画像データを上記撮像部から取得し、その撮像画像データと上記基準画像データの比較に基づいて、上記物体の有無を判定する制御装置。
(12)
 (10)記載の制御装置であって、
 上記物体判定部は、上記投影対象物に上記画像が非投影の状態における上記投影対象物の撮像画像データを上記撮像部から異なるタイミングにて取得し、第一タイミングにて取得した上記撮像画像データと、上記第一タイミングより前の第二タイミングにて取得した上記撮像画像データとの比較に基づいて、上記物体の有無を判定する制御装置。
(13)
 (10)記載の制御装置であって、
 上記物体判定部は、上記投影対象物に上記画像が投影された状態における上記投影対象物の撮像画像データを上記撮像部から異なるタイミングにて取得し、第一タイミングにて取得した上記撮像画像データと、上記第一タイミングより前の第二タイミングにて取得した上記撮像画像データとの比較に基づいて、上記物体の有無を判定する制御装置。
(14)
 (1)から(6)のいずれか1つに記載の制御装置であって、
 上記距離判定部は、上記投影対象物に上記画像が非投影の状態における上記投影対象物の第二撮像画像データを上記撮像部から取得し、上記第一撮像画像データと上記第二撮像画像データに基づいて、上記第一撮像画像データの上記一部である第三撮像画像データを生成し、上記第三撮像画像データの鮮鋭度を上記第一鮮鋭度とし、
 上記撮像部から出力される撮像画像データに基づいて、上記投影対象物と上記光学系の間に存在する物体の有無を判定する物体判定部を更に備え、
 上記距離判定部は、上記物体判定部によって物体が有りと判定され且つその物体の特徴が特定条件を満たす場合に、上記距離の判定を行う制御装置。
(15)
 (14)記載の制御装置であって、
 上記物体判定部は、上記投影対象物に上記画像が非投影の状態における上記投影対象物の撮像画像データを上記撮像部から取得して基準画像データに設定し、上記基準画像データが設定された状態且つ上記投影対象物に上記画像が非投影の状態における上記投影対象物の撮像画像データを上記撮像部から取得し、その撮像画像データと上記基準画像データの比較に基づいて、上記物体の有無を判定し、
 上記距離判定部は、上記物体判定部によって物体が有りと判定された場合に、上記撮像画像データと上記基準画像データの比較によって求まるその物体の周波数を上記特徴とする制御装置。
(16)
 (14)記載の制御装置であって、
 上記物体判定部は、上記投影対象物に上記画像が非投影の状態における上記投影対象物の撮像画像データを上記撮像部から異なるタイミングにて取得し、第一タイミングにて取得した上記撮像画像データと、上記第一タイミングより前の第二タイミングにて取得した上記撮像画像データとの比較に基づいて、上記物体の有無を判定し、
 上記距離判定部は、上記物体判定部によって物体が有りと判定された場合に、2つの上記撮像画像データの上記比較によって求まるその物体の周波数を上記特徴とする制御装置。
(17)
 (10)から(16)のいずれか1つに記載の制御装置であって、
 上記光学系は、焦点位置可変の焦点位置調整光学系を含む制御装置。
(18)
 (17)記載の制御装置であって、
 上記物体判定部によって物体が無しと判定されている場合に上記焦点位置調整光学系の焦点位置を制御する焦点制御部を更に備える制御装置。
(19)
 (17)記載の制御装置であって、
 上記物体判定部によって物体が無しと判定されている場合に上記焦点位置調整光学系の焦点位置の調節を促す情報を発する情報発生部を更に備える制御装置。
(20)
 (19)記載の制御装置であって、
 上記情報発生部は、上記情報を表示部に表示させる制御装置。
(21)
 (1)から(20)のいずれか1つに記載の制御装置であって、
 上記撮像部は、上記光学系の一部を通して上記投影対象物を撮像する制御装置。
(22)
 (1)から(21)のいずれか1つに記載の制御装置と、
 上記光学系と、
 上記撮像部と、を備える投影システム。
(23)
 入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、上記投影対象物を撮像する撮像部と、を有する投影システムの制御方法であって、
 上記投影対象物に投影された上記画像の第一撮像画像データを上記撮像部から取得し、上記第一撮像画像データの一部又は全部の第一鮮鋭度と、上記入力画像データの第二鮮鋭度とに基づいて、上記投影対象物と上記光学系の間に存在する物体から上記光学系までの距離を判定する距離判定ステップを含む制御方法。
(24)
 (23)記載の制御方法であって、
 上記距離判定ステップは、上記第一鮮鋭度と上記第二鮮鋭度との差に基づいて上記距離を判定する制御方法。
(25)
 (24)記載の制御方法であって、
 上記距離判定ステップは、上記差が第一閾値以上第二閾値未満の状態では、上記距離が第一距離以上であると判定し、上記差が上記第二閾値以上の状態では、上記距離が上記第一距離未満であると判定する制御方法。
(26)
 (23)記載の制御方法であって、
 上記距離判定ステップは、上記第一鮮鋭度と上記第二鮮鋭度との比に基づいて上記距離を判定する制御方法。
(27)
 (23)から(26)のいずれか1つに記載の制御方法であって、
 上記距離に基づいて上記入力画像データを制御する画像制御ステップを含む制御方法。
(28)
 (25)記載の制御方法であって、
 上記距離に基づいて上記入力画像データを制御する画像制御ステップを含み、
 上記画像制御ステップにおいて、上記距離が上記第一距離以上の状態において、上記入力画像データを変更する制御方法。
(29)
 (23)から(28)のいずれか1つに記載の制御方法であって、
 上記距離判定ステップは、上記第一撮像画像データの上記全部の鮮鋭度を上記第一鮮鋭度とする制御方法。
(30)
 (23)から(28)のいずれか1つに記載の制御方法であって、
 上記距離判定ステップは、上記投影対象物に上記画像が非投影の状態における上記投影対象物の第二撮像画像データを上記撮像部から取得し、上記第一撮像画像データと上記第二撮像画像データに基づいて、上記第一撮像画像データの上記一部である第三撮像画像データを生成し、上記第三撮像画像データの鮮鋭度を上記第一鮮鋭度とする制御方法。
(31)
 (30)記載の制御方法であって、
 上記距離判定ステップは、上記第一撮像画像データから上記第二撮像画像データを減算して上記第三撮像画像データを生成する制御方法。
(32)
 (23)から(31)のいずれか1つに記載の制御方法であって、
 上記撮像部から出力される撮像画像データに基づいて、上記投影対象物と上記光学系の間に存在する物体の有無を判定する物体判定ステップを更に備え、
 上記距離判定ステップは、上記物体判定ステップによって物体が有りと判定された場合に、上記距離の判定を行う制御方法。
(33)
 (32)記載の制御方法であって、
 上記物体判定ステップは、上記投影対象物に上記画像が非投影の状態における上記投影対象物の撮像画像データを上記撮像部から取得して基準画像データに設定し、上記基準画像データが設定された状態且つ上記投影対象物に上記画像が非投影の状態における上記投影対象物の撮像画像データを上記撮像部から取得し、その撮像画像データと上記基準画像データの比較に基づいて、上記物体の有無を判定する制御方法。
(34)
 (32)記載の制御方法であって、
 上記物体判定ステップは、上記投影対象物に上記画像が非投影の状態における上記投影対象物の撮像画像データを上記撮像部から異なるタイミングにて取得し、第一タイミングにて取得した上記撮像画像データと、上記第一タイミングより前の第二タイミングにて取得した上記撮像画像データとの比較に基づいて、上記物体の有無を判定する制御方法。
(35)
 (32)記載の制御方法であって、
 上記物体判定ステップは、上記投影対象物に上記画像が投影された状態における上記投影対象物の撮像画像データを上記撮像部から異なるタイミングにて取得し、第一タイミングにて取得した上記撮像画像データと、上記第一タイミングより前の第二タイミングにて取得した上記撮像画像データとの比較に基づいて、上記物体の有無を判定する制御方法。
(36)
 (23)から(28)のいずれか1つに記載の制御方法であって、
 上記距離判定ステップは、上記投影対象物に上記画像が非投影の状態における上記投影対象物の第二撮像画像データを上記撮像部から取得し、上記第一撮像画像データと上記第二撮像画像データに基づいて、上記第一撮像画像データの上記一部である第三撮像画像データを生成し、上記第三撮像画像データの鮮鋭度を上記第一鮮鋭度とし、
 上記撮像部から出力される撮像画像データに基づいて、上記投影対象物と上記光学系の間に存在する物体の有無を判定する物体判定ステップを更に備え、
 上記距離判定ステップは、上記物体判定ステップによって物体が有りと判定され且つその物体の特徴が特定条件を満たす場合に、上記距離の判定を行う制御方法。
(37)
 (36)記載の制御方法であって、
 上記物体判定ステップは、上記投影対象物に上記画像が非投影の状態における上記投影対象物の撮像画像データを上記撮像部から取得して基準画像データに設定し、上記基準画像データが設定された状態且つ上記投影対象物に上記画像が非投影の状態における上記投影対象物の撮像画像データを上記撮像部から取得し、その撮像画像データと上記基準画像データの比較に基づいて、上記物体の有無を判定し、
 上記距離判定ステップは、上記物体判定ステップによって物体が有りと判定された場合に、上記撮像画像データと上記基準画像データの比較によって求まるその物体の周波数を上記特徴とする制御方法。
(38)
 (36)記載の制御方法であって、
 上記物体判定ステップは、上記投影対象物に上記画像が非投影の状態における上記投影対象物の撮像画像データを上記撮像部から異なるタイミングにて取得し、第一タイミングにて取得した上記撮像画像データと、上記第一タイミングより前の第二タイミングにて取得した上記撮像画像データとの比較に基づいて、上記物体の有無を判定し、
 上記距離判定ステップは、上記物体判定ステップによって物体が有りと判定された場合に、2つの上記撮像画像データの上記比較によって求まるその物体の周波数を上記特徴とする制御方法。
(39)
 (32)から(38)のいずれか1つに記載の制御方法であって、
 上記光学系は、焦点位置可変の焦点位置調整光学系を含む制御方法。
(40)
 (39)記載の制御方法であって、
 上記物体判定ステップによって物体が無しと判定されている場合に上記焦点位置調整光学系の焦点位置を制御する焦点制御ステップを更に備える制御方法。
(41)
 (39)記載の制御方法であって、
 上記物体判定ステップによって物体が無しと判定されている場合に上記焦点位置調整光学系の焦点位置の調節を促す情報を発する情報発生ステップを更に備える制御方法。
(42)
 (41)記載の制御方法であって、
 上記情報発生ステップは、上記情報を表示部に表示させる制御方法。
(43)
 (23)から(42)のいずれか1つに記載の制御方法であって、
 上記撮像部は、上記光学系の一部を通して上記投影対象物を撮像する制御方法。
(44)
 入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、上記投影対象物を撮像する撮像部と、を有する投影システムの制御プログラムであって、
 上記投影対象物に投影された上記画像の第一撮像画像データを上記撮像部から取得し、上記第一撮像画像データの一部又は全部の第一鮮鋭度と、上記入力画像データの第二鮮鋭度とに基づいて、上記投影対象物と上記光学系の間に存在する物体から上記光学系までの距離を判定する距離判定ステップをコンピュータに実行させるための制御プログラム。
 以上、図面を参照しながら各種の実施の形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。
 なお、本出願は、2019年7月26日出願の日本特許出願(特願2019-138118)に基づくものであり、その内容は本出願の中に参照として援用される。
1 本体部
2 第一部材
2A,3A 中空部
2a,2b,3a,3c,15a 開口
3 第二部材
6 光学ユニット
11 光源ユニット
12 光変調ユニット
12a 光変調素子
12b 光変調素子駆動部
14 システム制御部
14A 距離判定部
14B 画像制御部
14C 物体判定部
14D 焦点制御部
15 筐体
21 第一光学系
22 反射部材
31 第二光学系
32 分岐部材
33 第三光学系
34 レンズ
37 第四光学系
38 撮像素子
39 画像処理部
41 光源
42 カラーホイール
43 照明光学系
100 プロジェクタ
G1 画像
g1 入力画像データ
IP 撮像画像データ
IP1 第一撮像画像データ
IP2 第二撮像画像データ
IP3 第三撮像画像データ
K 光軸
SC スクリーン
OB 物体
ob 物体領域
 

Claims (44)

  1.  入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、前記投影対象物を撮像する撮像部と、を有する投影システムの制御装置であって、
     前記投影対象物に投影された前記画像の第一撮像画像データを前記撮像部から取得し、前記第一撮像画像データの一部又は全部の第一鮮鋭度と、前記入力画像データの第二鮮鋭度とに基づいて、前記投影対象物と前記光学系の間に存在する物体から前記光学系までの距離を判定する距離判定部を備える制御装置。
  2.  請求項1記載の制御装置であって、
     前記距離判定部は、前記第一鮮鋭度と前記第二鮮鋭度との差に基づいて前記距離を判定する制御装置。
  3.  請求項2記載の制御装置であって、
     前記距離判定部は、前記差が第一閾値以上第二閾値未満の状態では、前記距離が第一距離以上であると判定し、前記差が前記第二閾値以上の状態では、前記距離が前記第一距離未満であると判定する制御装置。
  4.  請求項1記載の制御装置であって、
     前記距離判定部は、前記第一鮮鋭度と前記第二鮮鋭度との比に基づいて前記距離を判定する制御装置。
  5.  請求項1から4のいずれか1項記載の制御装置であって、
     前記距離に基づいて前記入力画像データを制御する画像制御部を備える制御装置。
  6.  請求項3記載の制御装置であって、
     前記距離に基づいて前記入力画像データを制御する画像制御部を備え、
     前記画像制御部は、前記距離が前記第一距離以上の状態において、前記入力画像データを変更する制御装置。
  7.  請求項1から6のいずれか1項記載の制御装置であって、
     前記距離判定部は、前記第一撮像画像データの前記全部の鮮鋭度を前記第一鮮鋭度とする制御装置。
  8.  請求項1から6のいずれか1項記載の制御装置であって、
     前記距離判定部は、前記投影対象物に前記画像が非投影の状態における前記投影対象物の第二撮像画像データを前記撮像部から取得し、前記第一撮像画像データと前記第二撮像画像データに基づいて、前記第一撮像画像データの前記一部である第三撮像画像データを生成し、前記第三撮像画像データの鮮鋭度を前記第一鮮鋭度とする制御装置。
  9.  請求項8記載の制御装置であって、
     前記距離判定部は、前記第一撮像画像データから前記第二撮像画像データを減算して前記第三撮像画像データを生成する制御装置。
  10.  請求項1から9のいずれか1項記載の制御装置であって、
     前記撮像部から出力される撮像画像データに基づいて、前記投影対象物と前記光学系の間に存在する物体の有無を判定する物体判定部を更に備え、
     前記距離判定部は、前記物体判定部によって物体が有りと判定された場合に、前記距離の判定を行う制御装置。
  11.  請求項10記載の制御装置であって、
     前記物体判定部は、前記投影対象物に前記画像が非投影の状態における前記投影対象物の撮像画像データを前記撮像部から取得して基準画像データに設定し、前記基準画像データが設定された状態且つ前記投影対象物に前記画像が非投影の状態における前記投影対象物の撮像画像データを前記撮像部から取得し、当該撮像画像データと前記基準画像データの比較に基づいて、前記物体の有無を判定する制御装置。
  12.  請求項10記載の制御装置であって、
     前記物体判定部は、前記投影対象物に前記画像が非投影の状態における前記投影対象物の撮像画像データを前記撮像部から異なるタイミングにて取得し、第一タイミングにて取得した前記撮像画像データと、前記第一タイミングより前の第二タイミングにて取得した前記撮像画像データとの比較に基づいて、前記物体の有無を判定する制御装置。
  13.  請求項10記載の制御装置であって、
     前記物体判定部は、前記投影対象物に前記画像が投影された状態における前記投影対象物の撮像画像データを前記撮像部から異なるタイミングにて取得し、第一タイミングにて取得した前記撮像画像データと、前記第一タイミングより前の第二タイミングにて取得した前記撮像画像データとの比較に基づいて、前記物体の有無を判定する制御装置。
  14.  請求項1から6のいずれか1項記載の制御装置であって、
     前記距離判定部は、前記投影対象物に前記画像が非投影の状態における前記投影対象物の第二撮像画像データを前記撮像部から取得し、前記第一撮像画像データと前記第二撮像画像データに基づいて、前記第一撮像画像データの前記一部である第三撮像画像データを生成し、前記第三撮像画像データの鮮鋭度を前記第一鮮鋭度とし、
     前記撮像部から出力される撮像画像データに基づいて、前記投影対象物と前記光学系の間に存在する物体の有無を判定する物体判定部を更に備え、
     前記距離判定部は、前記物体判定部によって物体が有りと判定され且つ当該物体の特徴が特定条件を満たす場合に、前記距離の判定を行う制御装置。
  15.  請求項14記載の制御装置であって、
     前記物体判定部は、前記投影対象物に前記画像が非投影の状態における前記投影対象物の撮像画像データを前記撮像部から取得して基準画像データに設定し、前記基準画像データが設定された状態且つ前記投影対象物に前記画像が非投影の状態における前記投影対象物の撮像画像データを前記撮像部から取得し、当該撮像画像データと前記基準画像データの比較に基づいて、前記物体の有無を判定し、
     前記距離判定部は、前記物体判定部によって物体が有りと判定された場合に、前記撮像画像データと前記基準画像データの比較によって求まる当該物体の周波数を前記特徴とする制御装置。
  16.  請求項14記載の制御装置であって、
     前記物体判定部は、前記投影対象物に前記画像が非投影の状態における前記投影対象物の撮像画像データを前記撮像部から異なるタイミングにて取得し、第一タイミングにて取得した前記撮像画像データと、前記第一タイミングより前の第二タイミングにて取得した前記撮像画像データとの比較に基づいて、前記物体の有無を判定し、
     前記距離判定部は、前記物体判定部によって物体が有りと判定された場合に、2つの前記撮像画像データの前記比較によって求まる当該物体の周波数を前記特徴とする制御装置。
  17.  請求項10から16のいずれか1項記載の制御装置であって、
     前記光学系は、焦点位置可変の焦点位置調整光学系を含む制御装置。
  18.  請求項17記載の制御装置であって、
     前記物体判定部によって物体が無しと判定されている場合に前記焦点位置調整光学系の焦点位置を制御する焦点制御部を更に備える制御装置。
  19.  請求項17記載の制御装置であって、
     前記物体判定部によって物体が無しと判定されている場合に前記焦点位置調整光学系の焦点位置の調節を促す情報を発する情報発生部を更に備える制御装置。
  20.  請求項19記載の制御装置であって、
     前記情報発生部は、前記情報を表示部に表示させる制御装置。
  21.  請求項1から20のいずれか1項記載の制御装置であって、
     前記撮像部は、前記光学系の一部を通して前記投影対象物を撮像する制御装置。
  22.  請求項1から21のいずれか1項記載の制御装置と、
     前記光学系と、
     前記撮像部と、を備える投影システム。
  23.  入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、前記投影対象物を撮像する撮像部と、を有する投影システムの制御方法であって、
     前記投影対象物に投影された前記画像の第一撮像画像データを前記撮像部から取得し、前記第一撮像画像データの一部又は全部の第一鮮鋭度と、前記入力画像データの第二鮮鋭度とに基づいて、前記投影対象物と前記光学系の間に存在する物体から前記光学系までの距離を判定する距離判定ステップを含む制御方法。
  24.  請求項23記載の制御方法であって、
     前記距離判定ステップは、前記第一鮮鋭度と前記第二鮮鋭度との差に基づいて前記距離を判定する制御方法。
  25.  請求項24記載の制御方法であって、
     前記距離判定ステップは、前記差が第一閾値以上第二閾値未満の状態では、前記距離が第一距離以上であると判定し、前記差が前記第二閾値以上の状態では、前記距離が前記第一距離未満であると判定する制御方法。
  26.  請求項23記載の制御方法であって、
     前記距離判定ステップは、前記第一鮮鋭度と前記第二鮮鋭度との比に基づいて前記距離を判定する制御方法。
  27.  請求項23から26のいずれか1項記載の制御方法であって、
     前記距離に基づいて前記入力画像データを制御する画像制御ステップを含む制御方法。
  28.  請求項25記載の制御方法であって、
     前記距離に基づいて前記入力画像データを制御する画像制御ステップを含み、
     前記画像制御ステップにおいて、前記距離が前記第一距離以上の状態において、前記入力画像データを変更する制御方法。
  29.  請求項23から28のいずれか1項記載の制御方法であって、
     前記距離判定ステップは、前記第一撮像画像データの前記全部の鮮鋭度を前記第一鮮鋭度とする制御方法。
  30.  請求項23から28のいずれか1項記載の制御方法であって、
     前記距離判定ステップは、前記投影対象物に前記画像が非投影の状態における前記投影対象物の第二撮像画像データを前記撮像部から取得し、前記第一撮像画像データと前記第二撮像画像データに基づいて、前記第一撮像画像データの前記一部である第三撮像画像データを生成し、前記第三撮像画像データの鮮鋭度を前記第一鮮鋭度とする制御方法。
  31.  請求項30記載の制御方法であって、
     前記距離判定ステップは、前記第一撮像画像データから前記第二撮像画像データを減算して前記第三撮像画像データを生成する制御方法。
  32.  請求項23から31のいずれか1項記載の制御方法であって、
     前記撮像部から出力される撮像画像データに基づいて、前記投影対象物と前記光学系の間に存在する物体の有無を判定する物体判定ステップを更に備え、
     前記距離判定ステップは、前記物体判定ステップによって物体が有りと判定された場合に、前記距離の判定を行う制御方法。
  33.  請求項32記載の制御方法であって、
     前記物体判定ステップは、前記投影対象物に前記画像が非投影の状態における前記投影対象物の撮像画像データを前記撮像部から取得して基準画像データに設定し、前記基準画像データが設定された状態且つ前記投影対象物に前記画像が非投影の状態における前記投影対象物の撮像画像データを前記撮像部から取得し、当該撮像画像データと前記基準画像データの比較に基づいて、前記物体の有無を判定する制御方法。
  34.  請求項32記載の制御方法であって、
     前記物体判定ステップは、前記投影対象物に前記画像が非投影の状態における前記投影対象物の撮像画像データを前記撮像部から異なるタイミングにて取得し、第一タイミングにて取得した前記撮像画像データと、前記第一タイミングより前の第二タイミングにて取得した前記撮像画像データとの比較に基づいて、前記物体の有無を判定する制御方法。
  35.  請求項32記載の制御方法であって、
     前記物体判定ステップは、前記投影対象物に前記画像が投影された状態における前記投影対象物の撮像画像データを前記撮像部から異なるタイミングにて取得し、第一タイミングにて取得した前記撮像画像データと、前記第一タイミングより前の第二タイミングにて取得した前記撮像画像データとの比較に基づいて、前記物体の有無を判定する制御方法。
  36.  請求項23から28のいずれか1項記載の制御方法であって、
     前記距離判定ステップは、前記投影対象物に前記画像が非投影の状態における前記投影対象物の第二撮像画像データを前記撮像部から取得し、前記第一撮像画像データと前記第二撮像画像データに基づいて、前記第一撮像画像データの前記一部である第三撮像画像データを生成し、前記第三撮像画像データの鮮鋭度を前記第一鮮鋭度とし、
     前記撮像部から出力される撮像画像データに基づいて、前記投影対象物と前記光学系の間に存在する物体の有無を判定する物体判定ステップを更に備え、
     前記距離判定ステップは、前記物体判定ステップによって物体が有りと判定され且つ当該物体の特徴が特定条件を満たす場合に、前記距離の判定を行う制御方法。
  37.  請求項36記載の制御方法であって、
     前記物体判定ステップは、前記投影対象物に前記画像が非投影の状態における前記投影対象物の撮像画像データを前記撮像部から取得して基準画像データに設定し、前記基準画像データが設定された状態且つ前記投影対象物に前記画像が非投影の状態における前記投影対象物の撮像画像データを前記撮像部から取得し、当該撮像画像データと前記基準画像データの比較に基づいて、前記物体の有無を判定し、
     前記距離判定ステップは、前記物体判定ステップによって物体が有りと判定された場合に、前記撮像画像データと前記基準画像データの比較によって求まる当該物体の周波数を前記特徴とする制御方法。
  38.  請求項36記載の制御方法であって、
     前記物体判定ステップは、前記投影対象物に前記画像が非投影の状態における前記投影対象物の撮像画像データを前記撮像部から異なるタイミングにて取得し、第一タイミングにて取得した前記撮像画像データと、前記第一タイミングより前の第二タイミングにて取得した前記撮像画像データとの比較に基づいて、前記物体の有無を判定し、
     前記距離判定ステップは、前記物体判定ステップによって物体が有りと判定された場合に、2つの前記撮像画像データの前記比較によって求まる当該物体の周波数を前記特徴とする制御方法。
  39.  請求項32から38のいずれか1項記載の制御方法であって、
     前記光学系は、焦点位置可変の焦点位置調整光学系を含む制御方法。
  40.  請求項39記載の制御方法であって、
     前記物体判定ステップによって物体が無しと判定されている場合に前記焦点位置調整光学系の焦点位置を制御する焦点制御ステップを更に備える制御方法。
  41.  請求項39記載の制御方法であって、
     前記物体判定ステップによって物体が無しと判定されている場合に前記焦点位置調整光学系の焦点位置の調節を促す情報を発する情報発生ステップを更に備える制御方法。
  42.  請求項41記載の制御方法であって、
     前記情報発生ステップは、前記情報を表示部に表示させる制御方法。
  43.  請求項23から42のいずれか1項記載の制御方法であって、
     前記撮像部は、前記光学系の一部を通して前記投影対象物を撮像する制御方法。
  44.  入力画像データに基づいて表示部にて生成される画像を投影対象物に投影する光学系と、前記投影対象物を撮像する撮像部と、を有する投影システムの制御プログラムであって、
     前記投影対象物に投影された前記画像の第一撮像画像データを前記撮像部から取得し、前記第一撮像画像データの一部又は全部の第一鮮鋭度と、前記入力画像データの第二鮮鋭度とに基づいて、前記投影対象物と前記光学系の間に存在する物体から前記光学系までの距離を判定する距離判定ステップをコンピュータに実行させるための制御プログラム。
     
PCT/JP2020/021641 2019-07-26 2020-06-01 制御装置、投影システム、制御方法、制御プログラム WO2021019897A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021536633A JP7125561B2 (ja) 2019-07-26 2020-06-01 制御装置、投影システム、制御方法、制御プログラム
CN202080053911.4A CN114175624B (zh) 2019-07-26 2020-06-01 控制装置、投影系统、控制方法及存储介质
US17/569,560 US20220132080A1 (en) 2019-07-26 2022-01-06 Control device, projection system, control method, and control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019138118 2019-07-26
JP2019-138118 2019-07-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/569,560 Continuation US20220132080A1 (en) 2019-07-26 2022-01-06 Control device, projection system, control method, and control program

Publications (1)

Publication Number Publication Date
WO2021019897A1 true WO2021019897A1 (ja) 2021-02-04

Family

ID=74230558

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/021641 WO2021019897A1 (ja) 2019-07-26 2020-06-01 制御装置、投影システム、制御方法、制御プログラム

Country Status (4)

Country Link
US (1) US20220132080A1 (ja)
JP (1) JP7125561B2 (ja)
CN (1) CN114175624B (ja)
WO (1) WO2021019897A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114979596B (zh) * 2022-05-27 2024-05-07 峰米(重庆)创新科技有限公司 投影画面控制方法、投影设备、计算机设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0829163A (ja) * 1994-07-20 1996-02-02 Fujitsu Ltd カメラ撮影測距装置
JP2007156325A (ja) * 2005-12-08 2007-06-21 Nippon Telegr & Teleph Corp <Ntt> 情報提示装置及び情報提示方法とそのプログラム
JP2010230864A (ja) * 2009-03-26 2010-10-14 Toshiba Corp 情報処理装置
JP2014138411A (ja) * 2013-01-18 2014-07-28 Canon Inc 投影装置及びその制御方法、プログラム、並びに記憶媒体
JP2018025809A (ja) * 2017-09-13 2018-02-15 カシオ計算機株式会社 光照射制御装置、及びプログラム
JP2019007826A (ja) * 2017-06-23 2019-01-17 ミツミ電機株式会社 測距カメラおよび測距方法
KR20190074585A (ko) * 2017-12-20 2019-06-28 (주)이더블유비엠 비디오 프로젝터용 포커싱방법, 장치 및 저장매체에 저장된 프로그램

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007078821A (ja) * 2005-09-12 2007-03-29 Casio Comput Co Ltd 投影装置、投影方法及びプログラム
JP6350175B2 (ja) * 2014-09-26 2018-07-04 セイコーエプソン株式会社 位置検出装置、プロジェクター、及び、位置検出方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0829163A (ja) * 1994-07-20 1996-02-02 Fujitsu Ltd カメラ撮影測距装置
JP2007156325A (ja) * 2005-12-08 2007-06-21 Nippon Telegr & Teleph Corp <Ntt> 情報提示装置及び情報提示方法とそのプログラム
JP2010230864A (ja) * 2009-03-26 2010-10-14 Toshiba Corp 情報処理装置
JP2014138411A (ja) * 2013-01-18 2014-07-28 Canon Inc 投影装置及びその制御方法、プログラム、並びに記憶媒体
JP2019007826A (ja) * 2017-06-23 2019-01-17 ミツミ電機株式会社 測距カメラおよび測距方法
JP2018025809A (ja) * 2017-09-13 2018-02-15 カシオ計算機株式会社 光照射制御装置、及びプログラム
KR20190074585A (ko) * 2017-12-20 2019-06-28 (주)이더블유비엠 비디오 프로젝터용 포커싱방법, 장치 및 저장매체에 저장된 프로그램

Also Published As

Publication number Publication date
JP7125561B2 (ja) 2022-08-24
US20220132080A1 (en) 2022-04-28
JPWO2021019897A1 (ja) 2021-02-04
CN114175624A (zh) 2022-03-11
CN114175624B (zh) 2024-05-03

Similar Documents

Publication Publication Date Title
US9195115B2 (en) Image projection device, image protection method, distance measuring device and distance measuring method
US10672349B2 (en) Device for project an image
US20120218523A1 (en) Projection type image display device
US11002534B2 (en) Patterned light projection apparatus and method
WO2011102299A1 (ja) 制御装置および投写型映像表示装置
CN108292084B (zh) 图像投影装置
WO2020202786A1 (ja) 画像処理装置、投影システム、画像処理方法、及び画像処理プログラム
CN104658462A (zh) 投影机以及投影机的控制方法
WO2020250739A1 (ja) 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム
WO2021019897A1 (ja) 制御装置、投影システム、制御方法、制御プログラム
JP2009180821A (ja) レーザプロジェクタ
JP2012018214A (ja) 投写型映像表示装置
WO2019064968A1 (ja) 投影装置および投影方法
JP7062751B2 (ja) 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム
CN110596996B (zh) 一种投影机及自动几何校正方法
JP2008292570A (ja) 投射型映像表示装置
CN110597003B (zh) 一种投影机及自动对焦方法
JP6492588B2 (ja) プロジェクター及びプロジェクターの制御方法
WO2021131646A1 (ja) 投影装置、投影方法、及び制御プログラム
JP4913356B2 (ja) 視覚情報処理装置及びその視覚情報処理方法
JP2013156318A (ja) プロジェクタ及び投影制御方法
JP6347126B2 (ja) プロジェクター、及び、プロジェクターの制御方法
WO2020261852A1 (ja) 投影装置
WO2021019898A1 (ja) 制御装置、投影装置、制御方法、及び制御プログラム
WO2021039002A1 (ja) 制御装置、投影装置、制御方法、及び制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20847504

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021536633

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20847504

Country of ref document: EP

Kind code of ref document: A1