WO2022070462A1 - 制御装置、制御方法、制御プログラム、及び投影システム - Google Patents

制御装置、制御方法、制御プログラム、及び投影システム Download PDF

Info

Publication number
WO2022070462A1
WO2022070462A1 PCT/JP2021/008310 JP2021008310W WO2022070462A1 WO 2022070462 A1 WO2022070462 A1 WO 2022070462A1 JP 2021008310 W JP2021008310 W JP 2021008310W WO 2022070462 A1 WO2022070462 A1 WO 2022070462A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
region
image
control
control device
Prior art date
Application number
PCT/JP2021/008310
Other languages
English (en)
French (fr)
Inventor
一樹 石田
和紀 井上
智紀 増田
晶啓 石塚
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022553442A priority Critical patent/JP7427804B2/ja
Publication of WO2022070462A1 publication Critical patent/WO2022070462A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Definitions

  • the present invention relates to a control device, a control method, a control program, and a projection system.
  • Patent Document 1 front projection, which is installed on the viewer side and projects a projected image from the front of the screen, and rear projection, which is installed on the operator side and projects a projected image from the back of the screen, can be performed.
  • a configuration for performing multi-projection using a plurality of possible projectors is described.
  • Patent Document 2 the main image is flipped horizontally and projected on the screen so that the viewer can view the main image in the correct orientation, and the menu screen is projected and displayed on the screen in a non-reversed state without flipping left and right.
  • a liquid crystal projector is described.
  • Patent Document 3 describes a projector that reverses an icon indicating a correction direction in which an image signal is corrected based on installation posture information indicating a combination of a front projection posture, a rear projection posture, a normal placement posture, and a ceiling suspension posture. Is described.
  • One embodiment according to the technique of the present disclosure provides a control device, a control method, a control program, and a projection system capable of visually recognizing an image in the correct orientation by a viewer of a content image and an operator of the projection device, respectively. ..
  • the control device of one embodiment according to the technique of the present disclosure is a control device of a projection device that projects an image onto a projection object having a transmission region capable of transmitting a part of the projected light, and is content based on content information. Control to project an image from the projection device onto the transmission region in an inverted state in a direction based on installation information, and to project an operation image for operating the projection device from the projection device onto the projection object in a non-inverted state. It is equipped with a processor to perform the above.
  • the control method of one embodiment according to the technique of the present disclosure is a control method of a projection device that projects an image onto a projection object having a transmission region capable of transmitting a part of the projected light, and the processor controls the content information.
  • the content image based on the above is projected from the projection device onto the transmission region in the inverted state in the direction based on the installation information, and the operation image for operating the projection device is projected from the projection device to the projection object in the non-inverted state. It controls the projection.
  • the control program of one embodiment according to the technique of the present disclosure is a control program of a projection device that projects an image onto a projection object having a transmission region capable of transmitting a part of the projected light, and the content information is transmitted to the processor.
  • the content image based on the above is projected from the projection device onto the transmission region in the inverted state in the direction based on the installation information, and the operation image for operating the projection device is projected from the projection device to the projection object in the non-inverted state. It is for executing processing that controls projection.
  • the projection system of one embodiment according to the technique of the present disclosure is a projection device that projects an image onto a projection object having a transmission region capable of transmitting a part of the projected light, and the projection device that projects a content image based on the content information.
  • a control device that controls the projection of the image for operation of the projection device from the projection device to the projection target in the non-reversal state by projecting the image in the inverted state in the direction based on the installation information on the transmission region.
  • control device a control method, a control program, and a projection system capable of visually recognizing an image in the correct orientation by a viewer of a content image and an operator of the projection device, respectively.
  • FIG. 10 It is a figure which shows an example of the usage form of the projection apparatus 10 of an embodiment. It is a schematic diagram which shows the schematic structure of the projection apparatus 10 of an embodiment. It is a schematic diagram which shows an example of the internal structure of the projection part 1 shown in FIG. It is a schematic diagram which shows the appearance structure of the projection apparatus 10. It is sectional drawing of the optical unit 106 of the projection apparatus 10 shown in FIG. It is a figure which shows an example of the image to be projected by the projection apparatus 10. It is a figure which shows an example of the projection by the projection apparatus 10 of the image to be projected of FIG. It is a flowchart which shows an example of the processing by a control device 4. It is a flowchart which shows an example of the processing of the overlay method in step S83 of FIG.
  • FIG. 1 is a diagram showing an example of a usage mode of the projection device 10 of the embodiment.
  • the projection device 10 projects an image on the projection object 6.
  • the projection object 6 is an object that can be projected, such as a screen or a wall, and has a transmission region 6a.
  • the transmission region 6a is a region capable of transmitting a part of the projected light from the projection device 10, that is, a region having a transmittance of more than 0%.
  • the transmittance region 6a is a region having a transmittance of about 60% (reflectance is about 40%).
  • the non-transmissive region 6b different from the transmissive region 6a is a region having a lower reflectance than the transmissive region 6a.
  • the non-transmissive region 6b is a region having a transmittance of about 0% (reflectance is about 100%), that is, a region that does not transmit the projected light from the projection device 10.
  • the non-transmissive region 6b may be capable of transmitting a part of the projected light from the projection device 10 as long as the transmittance is lower than that of the transmission region 6a.
  • the viewer 7 is a person located on the opposite side of the projection device 10 with respect to the projection object 6.
  • the viewer 7 visually recognizes a projected image projected from the projection device 10 and transmitted through the projection object 6.
  • the projection device 10 is capable of rear projection in which projection is performed from the rear side of the projection object 6 when viewed from the viewer 7.
  • the operator 8 is a person who operates the projection device 10, and is located on the side of the projection device 10 with respect to the projection object 6. The operator 8 visually recognizes the projected image projected from the projection device 10 and reflected by the projection object 6.
  • FIG. 2 is a schematic diagram showing a schematic configuration of the projection device 10 of the embodiment.
  • the projection device 10 includes a projection unit 1, a control device 4, and an operation reception unit 2.
  • the projection unit 1 is configured by, for example, a liquid crystal projector, a projector using LCOS (Liquid Crystal On Silicon), or the like. Hereinafter, it is assumed that the projection unit 1 is a liquid crystal projector.
  • the control device 4 is an example of the control device of the present invention that controls the projection by the projection device 10.
  • the control device 4 includes a control unit composed of various processors, a communication interface (not shown) for communicating with each unit, and a storage medium such as a hard disk, SSD (Solid State Drive), or ROM (Read Only Memory). It is a device including 4a, and controls the projection unit 1 in an integrated manner.
  • the circuit configuration is changed after manufacturing the CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute programs to perform various processes.
  • Programmable Logic Device which is a possible processor, or a dedicated electric circuit, which is a processor having a circuit configuration specially designed to execute a specific process such as ASIC (Application Specific Integrated Circuit), etc. Is included.
  • the structure of these various processors is an electric circuit in which circuit elements such as semiconductor elements are combined.
  • the control unit of the control device 4 may be composed of one of various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). It may be composed of.
  • the operation reception unit 2 detects instructions from the user by receiving various operations from the user.
  • the operation receiving unit 2 may be a button, a key, a joystick, or the like provided on the control device 4, or may be a receiving unit or the like that receives a signal from a remote controller that remotely controls the control device 4.
  • the projection range 11 shown by the alternate long and short dash line is the area of the projection object 6 to which the projection light is irradiated by the projection unit 1.
  • the projection range 11 is a rectangle.
  • the projection range 11 is a part or the whole of the projectable range that can be projected by the projection unit 1.
  • the projection unit 1, the control device 4, and the operation reception unit 2 are realized by, for example, one device (see, for example, FIGS. 4 and 5).
  • the projection unit 1, the control device 4, and the operation reception unit 2 may be separate devices that cooperate with each other by communicating with each other.
  • FIG. 3 is a schematic diagram showing an example of the internal configuration of the projection unit 1 shown in FIG.
  • the projection unit 1 includes a light source 21, an optical modulation unit 22, a projection optical system 23, and a control circuit 24.
  • the light source 21 includes a light emitting element such as a laser or an LED (Light Emitting Diode), and emits white light, for example.
  • a light emitting element such as a laser or an LED (Light Emitting Diode), and emits white light, for example.
  • the light modulation unit 22 modulates each color light emitted from the light source 21 and separated into three colors of red, blue, and green by a color separation mechanism (not shown) based on image information, and emits each color image. It is composed of a liquid crystal panel. Red, blue, and green filters may be mounted on each of the three liquid crystal panels, and the white light emitted from the light source 21 may be modulated by each liquid crystal panel to emit each color image.
  • the projection optical system 23 is for incident light from the light source 21 and the optical modulation unit 22, and is composed of, for example, a relay optical system including at least one lens. The light that has passed through the projection optical system 23 is projected onto the projection object 6.
  • the region irradiated with the light transmitted through the entire range of the light modulation unit 22 is the projectable range that can be projected by the projection unit 1.
  • the region where the light actually transmitted from the light modulation unit 22 is irradiated is the projection range 11.
  • the size, position, and shape of the projection range 11 change in the projectable range.
  • the control circuit 24 controls the light source 21, the optical modulation unit 22, and the projection optical system 23 based on the display data input from the control device 4, so that the image based on the display data is displayed on the projection object 6.
  • the display data input to the control circuit 24 is composed of three components: red display data, blue display data, and green display data.
  • control circuit 24 expands or contracts the projection range 11 (see FIG. 1) of the projection unit 1 by changing the projection optical system 23 based on the command input from the control device 4. Further, the control device 4 may move the projection range 11 of the projection unit 1 by changing the projection optical system 23 based on the operation from the user accepted by the operation reception unit 2.
  • the projection device 10 includes a shift mechanism for mechanically or optically moving the projection range 11 while maintaining the image circle of the projection optical system 23.
  • the image circle of the projection optical system 23 is a region in which the projected light incident on the projection optical system 23 appropriately passes through the projection optical system 23 from the points of light loss, color separation, peripheral curvature, and the like.
  • the shift mechanism is realized by at least one of an optical system shift mechanism that shifts the optical system and an electronic shift mechanism that performs electronic shift.
  • the optical system shift mechanism is, for example, a mechanism for moving the projection optical system 23 in a direction perpendicular to the optical axis (see, for example, FIGS. 4 and 5), or an optical modulation unit 22 instead of moving the projection optical system 23. It is a mechanism that moves in the direction perpendicular to the axis. Further, the optical system shift mechanism may be a combination of the movement of the projection optical system 23 and the movement of the optical modulation unit 22.
  • the electronic shift mechanism is a mechanism that shifts the pseudo projection range 11 by changing the range through which light is transmitted in the optical modulation unit 22.
  • the projection device 10 may include a projection direction changing mechanism for moving the projection range 11 together with the image circle of the projection optical system 23.
  • the projection direction changing mechanism is a mechanism that changes the projection direction of the projection unit 1 by changing the direction of the projection unit 1 by mechanical rotation (see, for example, FIGS. 4 and 5).
  • FIG. 4 is a schematic view showing an external configuration of the projection device 10.
  • FIG. 5 is a schematic cross-sectional view of the optical unit 106 of the projection device 10 shown in FIG.
  • FIG. 5 shows a cross section of the light emitted from the main body 101 shown in FIG. 4 along the optical path.
  • the projection device 10 includes a main body portion 101 and an optical unit 106 provided so as to project from the main body portion 101.
  • the operation reception unit 2, the control device 4, the light source 21, the light modulation unit 22, and the control circuit 24 in the projection unit 1 are provided in the main body unit 101.
  • the projection optical system 23 in the projection unit 1 is provided in the optical unit 106.
  • the optical unit 106 includes a first member 102 supported by the main body 101 and a second member 103 supported by the first member 102.
  • the first member 102 and the second member 103 may be integrated members.
  • the optical unit 106 may be detachably configured (in other words, interchangeable) on the main body 101.
  • the main body 101 has a housing 15 (see FIG. 5) in which an opening 15a (see FIG. 5) for passing light is formed in a portion connected to the optical unit 106.
  • a light source 21 and a light modulation unit 22 Inside the housing 15 of the main body 101, as shown in FIG. 4, a light source 21 and a light modulation unit 22 (a light modulation unit 22 that spatially modulates the light emitted from the light source 21 based on input image data to generate an image) ( An optical modulation unit 12 including (see FIG. 3) is provided.
  • the light emitted from the light source 21 is incident on the optical modulation unit 22 of the optical modulation unit 12, and is spatially modulated by the optical modulation unit 22 and emitted.
  • the image formed by the light spatially modulated by the optical modulation unit 12 passes through the opening 15a of the housing 15 and is incident on the optical unit 106, and the projection object 6 as a projection object 6
  • the image G1 is projected onto the image and becomes visible to the observer.
  • the optical unit 106 includes a first member 102 having a hollow portion 2A connected to the inside of the main body portion 101, a second member 103 having a hollow portion 3A connected to the hollow portion 2A, and a hollow portion 2A.
  • the first optical system 121 and the reflecting member 122 arranged, the second optical system 31, the reflecting member 32, the third optical system 33, and the lens 34 arranged in the hollow portion 3A, the shift mechanism 105, and the projection direction change.
  • the mechanism 104 is provided.
  • the first member 102 is a member having a rectangular cross-sectional outer shape as an example, and the openings 2a and 2b are formed on surfaces perpendicular to each other.
  • the first member 102 is supported by the main body 101 in a state where the opening 2a is arranged at a position facing the opening 15a of the main body 101.
  • the light emitted from the optical modulation unit 22 of the optical modulation unit 12 of the main body 101 passes through the openings 15a and 2a and is incident on the hollow portion 2A of the first member 102.
  • the incident direction of the light incident on the hollow portion 2A from the main body portion 101 is described as the direction X1, the opposite direction of the direction X1 is described as the direction X2, and the direction X1 and the direction X2 are collectively referred to as the direction X.
  • the direction from the front to the back of the paper and the opposite direction are described as the direction Z.
  • the direction from the front to the back of the paper is described as the direction Z1
  • the direction from the back of the paper to the front is described as the direction Z2.
  • the projection device 10 is arranged so that the direction Y2 is the vertical direction.
  • the projection optical system 23 shown in FIG. 3 is composed of a first optical system 121, a reflection member 122, a second optical system 31, a reflection member 32, a third optical system 33, and a lens 34.
  • FIG. 5 shows the optical axis K of the projection optical system 23.
  • the first optical system 121, the reflective member 122, the second optical system 31, the reflective member 32, the third optical system 33, and the lens 34 are arranged along the optical axis K in this order from the optical modulation unit 22 side.
  • the first optical system 121 includes at least one lens, and guides light traveling in the direction X1 incident on the first member 102 from the main body 101 to the reflecting member 122.
  • the reflection member 122 reflects the light incident from the first optical system 121 in the direction Y1.
  • the reflective member 122 is composed of, for example, a mirror or the like.
  • the first member 102 has an opening 2b formed on the optical path of the light reflected by the reflecting member 122, and the reflected light passes through the opening 2b and proceeds to the hollow portion 3A of the second member 103.
  • the second member 103 is a member having a substantially T-shaped cross section, and an opening 3a is formed at a position facing the opening 2b of the first member 102.
  • the light from the main body 101 that has passed through the opening 2b of the first member 102 is incident on the hollow portion 3A of the second member 103 through the opening 3a.
  • the cross-sectional outer shape of the first member 102 and the second member 103 is arbitrary and is not limited to the above.
  • the second optical system 31 includes at least one lens, and guides the light incident from the first member 102 to the reflecting member 32.
  • the reflection member 32 reflects the light incident from the second optical system 31 in the direction X2 and guides it to the third optical system 33.
  • the reflective member 32 is composed of, for example, a mirror or the like.
  • the third optical system 33 includes at least one lens, and guides the light reflected by the reflecting member 32 to the lens 34.
  • the lens 34 is arranged at this end so as to close the opening 3c formed at the end of the second member 103 on the direction X2 side.
  • the lens 34 projects the light incident from the third optical system 33 onto the projection object 6.
  • the projection direction changing mechanism 104 is a rotation mechanism that rotatably connects the second member 103 to the first member 102.
  • the second member 103 is rotatably configured around a rotation axis (specifically, an optical axis K) extending in the direction Y.
  • the projection direction changing mechanism 104 is not limited to the arrangement position shown in FIG. 5, as long as the optical system can be rotated. Further, the number of rotation mechanisms is not limited to one, and a plurality of rotation mechanisms may be provided.
  • the shift mechanism 105 is a mechanism for moving the optical axis K (in other words, the optical unit 106) of the projection optical system in the direction perpendicular to the optical axis K (direction Y in FIG. 5). Specifically, the shift mechanism 105 is configured to be able to change the position of the first member 102 in the direction Y with respect to the main body 101.
  • the shift mechanism 105 may be one that manually moves the first member 102, or one that electrically moves the first member 102.
  • FIG. 5 shows a state in which the first member 102 is moved to the direction Y1 side as much as possible by the shift mechanism 105. From the state shown in FIG. 5, the first member 102 is moved in the direction Y2 by the shift mechanism 105, so that the center of the image (in other words, the center of the display surface) formed by the optical modulation unit 22 and the optical axis K are aligned with each other. The relative position changes, and the image G1 projected on the projection object 6 can be shifted (translated) in the direction Y2.
  • the shift mechanism 105 may be a mechanism that moves the optical modulation unit 22 in the direction Y instead of moving the optical unit 106 in the direction Y. Even in this case, the image G1 projected on the projection object 6 can be moved in the direction Y2.
  • FIG. 6 is a diagram showing an example of an image to be projected by the projection device 10.
  • FIG. 7 is a diagram showing an example of projection of the image to be projected in FIG. 6 by the projection device 10.
  • the projection device 10 projects, for example, the image 60 shown in FIG. 6 onto the projection object 6.
  • the image 60 includes a content image 61 and an operation image 62.
  • the image 60 may include the content image 61 and the operation image 62 at the same time, and the period in which only the content image 61 is included in the image 60 and the period in which only the operation image 62 is included in the image 60. There may be.
  • the content image 61 is an image of a main projection target by the projection device 10, and is, for example, an image based on a video signal input to the projection device 10.
  • the content image 61 is a text indicating “R”.
  • the content image 61 is not limited to text, but may be an image such as a photograph or an illustration, a moving image such as a video image or an animation, or a combination thereof.
  • the operation image 62 is an image for operating the projection device 10.
  • the operation image 62 is an image for operating the projection range 11 of the projection device 10 in the projection object 6.
  • the operation of the projection range 11 is, for example, a shift of the projection range 11 using the above shift mechanism, expansion / contraction of the projection range 11, distortion correction of the projection range 11 and the like.
  • the operation image 62 is an up / down / left / right cursor key image.
  • the operation image 62 is an image that imitates the up / down / left / right cursor keys provided in the projection device 10 as the operation reception unit 2, and the projection range 11 is operated by pressing the cursor keys of the projection device 10. It guides the operator 8 to what can be done. For example, when the operator 8 presses the right (R) cursor key included in the operation receiving unit 2 in the state of FIG. 6, the projection device 10 shifts the projection range 11 to the right by using the shift mechanism described above. Control to shift to.
  • the operation image 62 may guide the operator 8 to an interactive operation capable of operating the projection range 11 by performing an operation of instructing the operation image 62 in the projected image.
  • the projection device 10 shifts the projection range 11 to the right by using the shift mechanism described above. Control to shift to.
  • the operator 8 gives an instruction by an indicator having a sensor capable of detecting the indicated position in the projected image, and the projection apparatus A method can be used in which 10 obtains from this indicator.
  • an image pickup device that captures the projection object 6 is used, and the image is based on the captured image obtained by the image pickup of the image pickup device.
  • a method of detecting an instruction by the operator 8 by image recognition may be used.
  • the projection device 10 projects the content image 61 onto a portion of the transmission region 6a included in the projection range 11 in an inverted state.
  • the inverted state in this case is a state in which the projection device 10 is horizontally inverted when viewed from the side.
  • the portion of the transmission region 6a included in the projection range 11 is an example of the first region of the present invention.
  • the content image 61 By projecting the content image 61 onto the transmission region 6a in an inverted state, the content image 61 can be seen by the viewer 7 located on the side opposite to the projection device 10 (in the back side of FIG. 7) with respect to the projection object 6. It is visually recognized in the correct orientation.
  • the projection device 10 projects the operation image 62 onto the portion of the non-transparent region 6b included in the projection range 11 in a non-inverted state.
  • the non-reversed state is a state in which the left and right sides are not reversed when viewed from the side of the projection device 10.
  • the portion of the non-transmissive region 6b included in the projection range 11 is an example of the second region of the present invention.
  • the operation image 62 By projecting the operation image 62 onto the non-transparent region 6b in a non-inverted state, the operation image is viewed from the operator 8 located on the side of the projection device 10 (front side in FIG. 7) with respect to the projection object 6. 62 is visually recognized in the correct orientation.
  • the projection device 10 projects the content image 61 onto the transparent region 6a and the operation image 62 onto the non-transparent region 6b.
  • This can be realized, for example, by generating an image 60 in which the content image 61 and the operation image 62 are arranged according to the arrangement of the transparent region 6a and the non-transparent region 6b in the projection object 6.
  • the projection device 10 may acquire position information indicating the position of the operation image 62 in the image 60, and change the position to be projected by the projection device 10 based on the acquired position information. For example, the projection device 10 controls the operation image 62 to be projected onto the non-transparent region 6b based on the position information of the operation image 62.
  • FIG. 8 is a flowchart showing an example of processing by the control device 4.
  • the control device 4 sets and projects a content display area for displaying a content image and an OSD display area for displaying an operation image by an OSD (On-screen Display), for example, FIG.
  • the process shown in 8 is executed.
  • the control device 4 displays the overlay method, the divided display method, and the preset pattern method as options for the operator 8 (step S81).
  • the display of this option may be performed by projection using the projection device 10, or may be performed by screen display using a display provided in the projection device 10 or a device capable of communicating with the projection device 10.
  • the control device 4 receives from the operator 8 the selection of the method from the displayed options via the operation reception unit 2.
  • control device 4 determines whether or not the overlay method has been selected by the operator 8 (step S82).
  • the control device 4 executes the overlay method process (step S83) and ends a series of processes.
  • the overlay method processing will be described later in FIGS. 9 to 13.
  • step S82 determines whether or not the split display method is selected by the operator 8 (step S84).
  • step S84 Yes
  • the control device 4 executes the process of the split display method (step S85), and ends a series of processes. The processing of the split display method will be described later in FIGS. 14 to 19.
  • step S84 determines whether or not the preset pattern method has been selected by the operator 8 (step S86).
  • step S86 Yes
  • the control device 4 executes the process of the preset pattern method (step S87), and ends a series of processes. The processing of the preset pattern method will be described later in FIG.
  • step S86 the control device 4 ends a series of processes.
  • the control device 4 may project the content image and the operation image while keeping the settings of the content display area and the OSD display area in the initial state.
  • FIG. 9 is a flowchart showing an example of the overlay method processing in step S83 of FIG.
  • the control device 4 executes, for example, the process shown in FIG. 9 as the overlay method process.
  • control device 4 receives the input of the OSD display area from the operator 8 via the operation reception unit 2 (step S91).
  • the method of accepting the input of the OSD display area in step S91 will be described later in FIG.
  • control device 4 calculates the ratio of the area of the OSD display area to the entire area (step S92).
  • the entire area is, for example, a projection range 11.
  • the control device 4 determines whether or not the calculated ratio is equal to or less than a predetermined value (step S93).
  • This predetermined value is, for example, predetermined and stored in the storage medium 4a. Further, this predetermined value may be set by the operator 8.
  • step S93: No that is, when the area of the OSD display area is sufficiently secured, the control device 4 proceeds to step S96.
  • step S93 when the calculated ratio is equal to or less than a predetermined value (step S93: Yes), that is, when the area of the OSD display area is not sufficiently secured, the control device 4 displays the OSD to the operator 8.
  • Display the method options step S94).
  • the display of this option may be performed by projection using the projection device 10, or may be performed by screen display using a display provided in the projection device 10 or a device capable of communicating with the projection device 10.
  • the options of the OSD display method displayed by step S94 will be described later in FIGS. 10 to 13.
  • the control device 4 receives the selection from the displayed options from the operator 8 via the operation reception unit 2.
  • control device 4 applies the OSD display method selected by the operator 8 to the projection setting (step S95).
  • control device 4 projects the content image and the operation image (step S96), and ends a series of processes. Specifically, the control device 4 controls the projection unit 1 to project the content image onto the content display area and project the operation image onto the OSD display area.
  • FIG. 10 is a diagram showing an example of a method of accepting an input in the OSD display area in step S91 of FIG.
  • the window 91 and the wall 92 shown in FIG. 10 are examples of the projection object 6.
  • the window 91 is an example of the transmission region 6a of the projection object 6.
  • the wall 92 is an example of the non-transparent region 6b of the projection object 6.
  • step S91 of FIG. 9 the control device 4 controls, for example, the projection unit 1 to project the content image 93 and the OSD display area setting frame 94 on the projection range 11.
  • the OSD display area setting frame 94 may be highlighted by, for example, blinking.
  • the operator 8 can change the size and shape of the OSD display area setting frame 94 by operating through the operation receiving unit 2. Further, the operator 8 can perform an operation for confirming the OSD display area by an operation via the operation reception unit 2.
  • the control device 4 sets the range surrounded by the OSD display area setting frame 94 at that time as the OSD display area. As a result, the input of the OSD display area can be received from the operator 8.
  • FIG. 11 is a diagram showing a specific example 1 of the options of the OSD display method in step S94 of FIG.
  • the control device 4 displays to the operator 8 options including, for example, expansion of the OSD display area.
  • the control device 4 controls, for example, the projection unit 1 to cover the projection range 11, the content image 93, the OSD display area setting frame 94, and the recommended enlargement frame 94a.
  • the OSD display area setting frame 94 indicates the OSD display area input in step S91.
  • the recommended enlarged frame 94a shown by the alternate long and short dash line indicates the expanded range of the OSD display area, which is recommended for facilitating the visual recognition of the operation image displayed in the OSD display area.
  • the control device 4 controls the projection unit 1 and projects the explanatory text "It is necessary to expand to the range of the alternate long and short dash line" on the projection range 11.
  • the operator 8 can expand the OSD display area setting frame 94 to the range indicated by the recommended expansion frame 94a by operating through the operation reception unit 2. Further, the operator 8 may be able to arbitrarily expand the OSD display area setting frame 94 by operating through the operation reception unit 2 with reference to the recommended expansion frame 94a.
  • the control device 4 sets the range surrounded by the OSD display area setting frame 94 at that time in step S95 of FIG. 9 to the OSD display area. Reset as. This makes it possible to change the OSD display area.
  • FIG. 12 is a diagram showing a specific example 2 of the OSD display method options in step S94 of FIG.
  • the control device 4 displays to the operator 8 options including, for example, division of an operation image.
  • the control device 4 controls, for example, the projection unit 1 to project the content image 93 and the recommended division frames 94b and 94c onto the projection range 11. Further, in the example shown in FIG. 12, the control device 4 controls the projection unit 1 and projects the explanatory text "divide" onto the projection range 11.
  • the recommended division frames 94b and 94c indicate the range of the division area of the OSD display area, which is recommended for facilitating the visual recognition of the operation image displayed in the OSD display area.
  • the operator 8 can divide the OSD display area into each range indicated by the recommended division frames 94b and 94c by the operation via the operation reception unit 2. Further, the operator 8 may be able to arbitrarily divide the OSD display area by an operation via the operation reception unit 2 with reference to the recommended division frames 94b and 94c.
  • the control device 4 When the operator 8 performs an operation to divide the OSD display area, the control device 4 resets each divided area as the OSD display area in step S95 of FIG. This makes it possible to change the OSD display area. In this case, in step S96 of FIG. 9, the control device 4 divides the operation image and controls to project each of the divided operation images onto the divided OSD display area.
  • FIG. 13 is a diagram showing a specific example 3 of the OSD display method options in step S94 of FIG.
  • the control device 4 displays to the operator 8 options including, for example, reduction of the operation image.
  • the control device 4 controls, for example, the projection unit 1 to cover the projection range 11, the content image 93, the OSD display area setting frame 94, and the “difficult to see”. There is a possibility, but it will be displayed in a reduced size. "
  • the OSD display area setting frame 94 is the OSD display area input in step S91.
  • the operator 8 can set the operation image to be reduced and projected on the OSD display area indicated by the OSD display area setting frame 94 by the operation via the operation reception unit 2.
  • the control device 4 reduces the operation image so as to fit in the OSD display area indicated by the OSD display area setting frame 94 in step S96 of FIG. 9, and the reduced operation image. Is controlled to be projected onto the OSD display area.
  • the control device 4 displays the OSD display area setting frame 94 as shown in FIG. 13 or "it may be difficult to see, but it is reduced and displayed".
  • the content image 93 may be projected onto the content display area, and the reduced operation image may be projected onto the OSD display area setting frame 94 without projecting the description.
  • control is performed to prompt the operator 8 to perform an operation of changing at least one of the content display area (first area) and the OSD display area.
  • the control device 4 controls the operator 8 to prompt at least one of expansion and division of the OSD display area.
  • the control device 4 may perform control to urge the operator 8 to perform an operation of changing the content display area, such as reducing the content display area.
  • FIG. 14 is a flowchart showing an example of the processing of the split display method in step S85 of FIG.
  • the control device 4 executes, for example, the process shown in FIG. 14 as the process of the split display method.
  • control device 4 receives the input of the OSD display area from the operator 8 via the operation reception unit 2 (step S141).
  • the method of accepting the input of the OSD display area in step S141 will be described later in FIG.
  • control device 4 calculates the ratio of the area of the content display area to the entire area (step S142).
  • the control device 4 has the same aspect ratio as the content image (or the content display area before setting the OSD display area) in the area other than the OSD display area in which the input is received in step S141 in the projection range 11.
  • the area that maximizes the area is set as the content display area. Then, the ratio of the area of the set content display area to the projection range 11 is calculated.
  • step S143 the control device 4 determines whether or not the calculated ratio is equal to or less than a predetermined value.
  • This predetermined value is, for example, predetermined and stored in the storage medium 4a. Further, this predetermined value may be set by the operator 8.
  • step S143: No the control device 4 proceeds to step S146.
  • step S143 when the calculated ratio is equal to or less than a predetermined value (step S143: Yes), that is, when the area of the content display area is not sufficiently secured, the control device 4 displays the content to the operator 8.
  • Display the method options step S144.
  • the display of this option may be performed by projection using the projection device 10, or may be performed by screen display using a display provided in the projection device 10 or a device capable of communicating with the projection device 10.
  • the options of the content display method displayed by step S144 will be described later in FIGS. 17 to 19.
  • the control device 4 receives the selection from the displayed options from the operator 8 via the operation reception unit 2.
  • control device 4 applies the content display method selected by the operator 8 to the projection setting (step S145).
  • control device 4 projects the content image and the operation image (step S146), and ends a series of processes. Specifically, the control device 4 controls the projection unit 1 to project the content image onto the content display area and project the operation image onto the OSD display area.
  • FIG. 15 is a diagram showing an example of a method of accepting an input in the OSD display area in step S141 of FIG.
  • step S141 of FIG. 14 the control device 4 controls, for example, the projection unit 1 to project the content image 93 and the OSD display area setting frame 94 on the projection range 11.
  • the OSD display area setting frame 94 may be highlighted by, for example, blinking.
  • the operator 8 can change the size and shape of the OSD display area setting frame 94 by operating through the operation receiving unit 2. Further, the operator 8 can perform an operation for confirming the OSD display area by an operation via the operation reception unit 2.
  • the control device 4 sets the range surrounded by the OSD display area setting frame 94 at that time as the OSD display area. As a result, the input of the OSD display area can be received from the operator 8. In the example of FIG. 15, the OSD display area including a part of the content image 93 is set.
  • FIG. 16 is a diagram showing an example of projection of a content image in step S146 of FIG.
  • the OSD display area is input as in the example of FIG. 15, and the ratio of the area of the content display area to the projection range 11 is not equal to or less than a predetermined value.
  • step S146 of FIG. 14 the control device 4 reduces the content image 93 while maintaining the aspect ratio, as shown in FIG. Further, the control device 4 sets a content display area that does not overlap with the OSD display area indicated by the OSD display area setting frame 94. Then, the control device 4 controls to project the reduced content image 93 onto the set content display area.
  • FIG. 17 is a diagram showing a specific example 1 of a content display method option in step S144 of FIG.
  • the control device 4 displays to the operator 8 options including, for example, reduction of the OSD display area.
  • the control device 4 controls, for example, the projection unit 1 to cover the projection range 11, the content image 93, the OSD display area setting frame 94, and the recommended reduction frame 171.
  • the OSD display area setting frame 94 is the OSD display area input in step S141.
  • the recommended reduction frame 171 shows the reduced range of the OSD display area, which is recommended for facilitating the visual recognition of the content image displayed in the content display area. Further, in the example shown in FIG. 17, the control device 4 controls the projection unit 1 and puts an explanation in the projection range 11 that "reducing the OSD area to the range of the alternate long and short dash line can prevent deterioration of the resolution of the content". It is projecting.
  • the operator 8 can reduce the OSD display area setting frame 94 to the range indicated by the recommended reduction frame 171 by operating through the operation reception unit 2. Further, the operator 8 may be able to arbitrarily reduce the OSD display area setting frame 94 by operating through the operation receiving unit 2 with reference to the recommended reduction frame 171.
  • the control device 4 When the operator 8 performs an operation to reduce the OSD display area setting frame 94, the control device 4 resets the range surrounded by the OSD display area setting frame 94 at that time as the OSD display area. Then, the control device 4 resets the content display area based on the reset OSD display area. This makes it possible to change the content display area. Specifically, the OSD display area can be narrowed by reducing the OSD display area setting frame 94, the content display area can be expanded by that amount, and the resolution deterioration of the content image can be suppressed.
  • FIG. 18 is a diagram showing a specific example 2 of the content display method options in step S144 of FIG.
  • the control device 4 displays to the operator 8 options including, for example, expansion of the content display area.
  • the control device 4 controls, for example, the projection unit 1 to cover the projection range 11, the content image 93, the OSD display area setting frame 94, and the content display area expansion. Image 181 is projected.
  • the OSD display area setting frame 94 is the OSD display area input in step S141. Further, in the example shown in FIG. 18, the control device 4 controls the projection unit 1 and projects the explanatory text "Please specify the direction and the enlargement ratio" to the projection range 11.
  • the content display area enlarged image 181 is an image for instructing the enlargement direction and enlargement ratio of the content display area.
  • the operator 8 can change the position, size, and aspect ratio of the content display area enlarged image 181 via the operation reception unit 2.
  • the content display area enlarged image 181 is an image in which a vertical double-headed arrow and a horizontal double-headed arrow intersect, and the operator 8 has the positions and positions of the vertical double-headed arrow and the horizontal double-headed arrow, respectively. You can change the length.
  • the rectangular area in which the upper side and the lower side are defined by the vertical double-headed arrow and the left side and the right side are defined by the horizontal double-headed arrow becomes the changed content display area.
  • the control device 4 When the operator 8 performs an operation to expand the content display area, the control device 4 resets the range defined by the content display area enlarged image 181 at that time as the content display area. This makes it possible to change the content display area. Further, the control device 4 may reset the OSD display area based on the content display area that has been reset.
  • FIG. 19 is a diagram showing a specific example 3 of the content display method options in step S144 of FIG.
  • the control device 4 displays to the operator 8 options including, for example, changing the aspect ratio of the content image.
  • the control device 4 controls, for example, the projection unit 1 to cover the projection range 11, the content image 93, the OSD display area setting frame 94, and the “content content”.
  • the resolution will be degraded.
  • the content image 93 in this example is a reduced content image while allowing the aspect ratio to be changed so as not to overlap with the OSD display area setting frame 94.
  • the OSD display area setting frame 94 is the OSD display area input in step S141.
  • the operator 8 can set the content image 93 to be reduced and projected on the content display area while allowing the aspect ratio to be changed by the operation via the operation reception unit 2.
  • the control device 4 controls to reduce the content image while allowing the aspect ratio to be changed so as to fit in the content display area, and to project the reduced content image onto the content display area. conduct.
  • the control device 4 projects the OSD display area setting frame 94 as shown in FIG. 19 or the explanation that "the resolution of the content deteriorates". Even if the reduced content image is projected on the content display area while allowing the aspect ratio to be changed and the operation image is projected on the OSD display area setting frame indicated by the OSD display area setting frame 94, the operation image is projected. good.
  • control is performed to prompt the operator 8 to perform an operation of changing at least one of the content display area and the OSD display area (second area).
  • the control device 4 controls the operator 8 to prompt at least one of the reduction of the OSD display area and the change of the aspect ratio of the content display area.
  • FIG. 20 is a diagram showing an example of processing of the preset pattern method in step S87 of FIG.
  • the control device 4 controls the operator 8 to display, for example, the first pattern, the second pattern, and the third pattern shown in FIG. 20 as preset patterns as the processing of the preset pattern method. ..
  • the display of this preset pattern may be performed by projection using the projection device 10, or may be performed by screen display using a display provided in the projection device 10 or a device capable of communicating with the projection device 10.
  • the first pattern is a preset pattern in which the OSD display area setting frame 94 is arranged at the lower left of step S93
  • the second pattern is a preset pattern in which the OSD display area setting frame 94 is arranged at the lower right of step S93.
  • the three patterns are preset patterns in which the OSD display area setting frame 94 is arranged on the right side of step S93.
  • the operator 8 can select any preset pattern from the first pattern, the second pattern, and the third pattern by the operation via the operation reception unit 2. Further, the operator 8 may be able to make further changes to the selected preset pattern by an operation via the operation reception unit 2.
  • the control device 4 controls to project the content image and the operation image by using the preset pattern selected by the operator 8 (or the changed pattern if further changed).
  • the preset pattern shown in FIG. 20 is an example, and the number of preset patterns may be two or four or more. Further, the preset pattern may include a preset pattern set by the operator 8 by an operation or the like via the operation reception unit 2.
  • control device 4 projects a content image onto the content display area based on the combination selected by the operation by the operator 8 from the plurality of combinations of the content display area and the OSD display area. , You may control to project the operation image on the OSD display area.
  • control device 4 controls to project the content image on the transmission region 6a in the inverted state and to project the operation image for the operation of the projection device 10 on the projection object 6 in the non-inverted state. ..
  • the viewer 7 who visually recognizes the content image projected on the transmission region 6a of the projection object 6 from the side opposite to the projection device 10 can visually recognize the content image in the correct direction.
  • the operator 8 who operates the projection device 10 by visually recognizing the operation image projected on the projection object 6 from the side of the projection device 10 can visually recognize the operation image in the correct direction. That is, the viewer of the content image and the operator of the projection device can visually recognize the image in the correct directions.
  • FIG. 21 is a diagram showing an example of a configuration in which a sensor is provided in the projection device 10.
  • the projection device 10 may include a sensor 5 in addition to the configuration shown in FIG.
  • the sensor 5 is an example of an acquisition unit that acquires information on a projected image projected on a projection object 6.
  • the senor 5 is an image pickup sensor capable of capturing a projected image projected on a projection object 6.
  • the control device 4 may set the content display area and the OSD display area by specifying the transparent area 6a and the non-transparent area 6b in the projection object 6 based on the information obtained by the sensor 5.
  • the control device 4 projects an image having uniform brightness on the projection range 11 from the projection unit 1, and acquires the image pickup information obtained by capturing the projected image with the sensor 5. Further, the control device 4 recognizes a region of the projection range 11 in which the brightness of the projected image is relatively low as a transmission region 6a having a relatively high transmittance based on the acquired imaging information, and projects the projection in the projection range 11. The region where the brightness of the image is relatively high is recognized as the non-transmissive region 6b having a relatively low transmittance.
  • the control device 4 sets the content display area within the range of the recognized transparent area 6a, and sets the OSD display area within the range of the recognized transparent area 6a.
  • the content display area and the OSD display area can be automatically set without being operated by the operator 8.
  • the sensor 5 is not limited to the image pickup sensor, and may be a luminance sensor capable of detecting the luminance of each part of the projected image projected on the projection object 6.
  • the sensor 5 may be configured to detect at least one of the brightness and the color on the side of the projection device 10 with respect to the projection object 6.
  • the side of the projection device 10 with respect to the projection object 6 is, for example, an area between the projection object 6 and the projection device 10.
  • the side of the projection device 10 with respect to the projection object 6 may be the surface of the projection device 10 on the projection object 6, that is, the surface of the projection object 6 visible in FIG.
  • the color on the side of the projection device 10 with respect to the projection object 6 is, for example, the color temperature of the ambient light in the region between the projection object 6 and the projection device 10.
  • control device 4 controls to change at least one of the brightness and the color of the operation image based on at least one of the brightness and the color detected by the sensor 5.
  • the control device 4 increases the brightness of the operation image as the brightness detected by the sensor 5 increases.
  • the operation image projected on the non-transparent region 6b is made difficult to be visually recognized by the operator 8 due to the bright region between the projection object 6 and the projection device 10.
  • the control device 4 uses a color that stands out with respect to the color detected by the sensor 5 (for example, a color that has a complementary color relationship) as the color of the operation image.
  • a color that stands out with respect to the color detected by the sensor 5 for example, a color that has a complementary color relationship
  • FIG. 22 is a diagram showing an example of a functional block of the control device 4.
  • the control device 4 includes an inversion / non-inversion selection unit 221, an inversion processing unit 222, a synthesis unit 223, a correction unit 224, and a projection control unit 225.
  • Each of these parts may be realized by the processor of the control device 4 executing a program, or may be realized by providing hardware having each function in the control device 4.
  • An image to be projected is input to the inversion / non-inversion selection unit 221.
  • the inversion / non-inversion selection unit 221 selects whether to invert or non-invert each of the input images.
  • the inversion / non-inversion selection unit 221 selects to invert the content image and selects to invert the operation image by determining the type of each input image.
  • the inversion / non-inversion selection unit 221 outputs the image selected to be inverted to the inversion processing unit 222, and outputs the image selected to be inversion to the synthesis unit 223.
  • the inversion processing unit 222 performs inversion processing on the image output from the inversion / non-inversion selection unit 221.
  • the reversing process performed by the reversing processing unit 222 is, for example, a process of reversing left and right as described above. Further, the reversing process performed by the reversing processing unit 222 may include a process of reversing the top and bottom as described later.
  • the inversion processing unit 222 outputs the image after the inversion processing to the composition unit 223.
  • the compositing unit 223 synthesizes the image output from the inversion / non-inversion selection unit 221 (non-inverted image) and the image output from the inversion processing unit 222 (inverted image). Then, the synthesis unit 223 outputs the combined image as a projection image to the correction unit 224.
  • the correction unit 224 performs correction processing on the projected image output from the composition unit 223.
  • the correction process performed by the correction unit 224 includes, for example, a distortion correction process.
  • the distortion correction process is a process of preliminarily distorting the projected image so as to correct the distortion of the projected image due to the relative positional relationship between the projection device 10 and the projection object 6 and the angle.
  • the correction unit 224 outputs the corrected projected image to the projection control unit 225.
  • the projection control unit 225 controls the projection unit 1 to project the projection image output from the correction unit 224 onto the projection object 6.
  • FIG. 23 is a diagram showing an example of processing of a content image by the control device 4 of FIG. 22.
  • the content image 231 is a content image including the character "R" input to the inversion / non-inversion selection unit 221.
  • the inversion / non-inversion selection unit 221 selects to invert the content image 231 and outputs the content image 231 to the inversion processing unit 222.
  • the inversion processing unit 222 performs inversion processing on the content image 231. As a result, the content image 232 is generated.
  • the correction unit 224 performs distortion correction processing on the content image 232. As a result, the content image 233 is generated.
  • the correction process of the correction unit 224 gives distortion to the entire content image 233.
  • the inversion processing unit 222 is provided after the correction unit 224 and the inversion processing is performed after the correction processing, the content image 231 is inverted after the distortion correction, which is the opposite of the content image 233 shown in FIG.
  • the image becomes distorted, and the effects of distortion correction and the like change.
  • a configuration in which the correction process is changed according to the inversion / non-inversion of the image is conceivable, but the process becomes complicated.
  • the inversion processing unit 222 is provided in front of the correction unit 224, and the inversion processing is performed before the correction processing, so that the correction processing is not changed according to the inversion / non-inversion.
  • the correct distortion correction effect can be obtained.
  • control device 4 performs the inversion process of inverting the content image, projects the content image in the inverted state by the inversion process, and performs the correction process on the content image after the inversion process and before the projection. ..
  • the control device 4 may select inversion or non-inversion of the content image based on the user setting or the content of the content image.
  • the inversion / non-inversion selection unit 221 selects whether to invert or non-invert the input content image based on the user setting or the content of the content image.
  • the inversion / non-inversion selection unit 221 displays the input content image to the operator 8.
  • the display of the content image may be performed by projection using the projection device 10, or may be performed by screen display using a display provided in the projection device 10 or a device capable of communicating with the projection device 10.
  • the inversion / non-inversion selection unit 221 accepts the selection of whether to invert the displayed content image from the operator 8 via the operation reception unit 2. Then, the inversion / non-inversion selection unit 221 outputs the content image that has received the selection to be inverted to the inversion processing unit 222, and outputs the content image that has received the selection not to be inverted to the composition unit 223. As a result, the operator 8 can confirm whether or not the content image is for rear projection, and can switch between inversion and non-inversion of the content image according to the result.
  • the inversion / non-inversion selection unit 221 can switch between inversion and non-inversion of the content image based on the content of the input content image, for example, whether or not the content image contains inverted characters.
  • the inverted / non-inverted selection unit 221 when a content image that has already been inverted for rear projection is input to the inverted / non-inverted selection unit 221, the inverted / non-inverted selection unit 221 outputs the content image to the synthesis unit 223. This makes it possible to prevent the content image that has already been inverted for rear projection from being further inverted.
  • the control device 4 may perform control to set the brightness of the content image based on the transmittance of the projection object 6. For example, in the control device 4, when the transmittance of the transmission region 6a of the projection object 6 is the first transmittance, the transmittance of the transmission region 6a of the projection object 6 is higher than the first transmittance of the second transmittance. The brightness of the content image projected from the projection unit 1 is controlled to be higher than in the case of. As a result, it is possible to suppress a decrease in the brightness of the content image seen by the viewer 7 due to the low transmittance of the transmission region 6a of the projection object 6.
  • the transmittance of the transmission region 6a of the projection object 6 is set by the operator 8 to the control device 4 via, for example, the operation reception unit 2. Or, for example, in the configuration shown in FIG. 21, the control device 4 projects an image having uniform brightness from the projection unit 1 onto the transmission region 6a, and the projected image is imaged by the sensor 5. Information may be acquired and the transmittance of the transmission region 6a may be specified based on the acquired imaging information.
  • the projection device 10 may be able to switch between the rear projection described above and the front projection that projects from the front side of the projection object 6 when viewed from the viewer 7.
  • the control device 4 may set the brightness of the content image based on the transmittance of the transmission region 6a.
  • the transmittance of the transmission region 6a is higher than 50%, 60% of the transmitted light is visually recognized by the viewer 7 in the rear projection, and 40% of the reflected light is visually recognized by the operator 8 in the front projection. It is visible to the person. Therefore, the front projection looks darker to the viewer.
  • control device 4 when the transmittance of the transmission region 6a is higher than 50%, the brightness of the content image projected from the projection unit 1 is higher in the front projection than in the rear projection. Control to be higher. On the contrary, when the transmittance of the transmission region 6a is less than 50%, the control device 4 has a higher brightness of the content image projected from the projection unit 1 in the case of the rear projection than in the case of the front projection. Control to be. This makes it possible to suppress the difference in brightness of the content image visually recognized in the front projection and the rear projection due to the transmittance of the transmission region 6a.
  • FIG. 24 is a diagram showing a modified example of the projection object 6.
  • the projection object 6 may include a plurality of transmission regions 6a.
  • the projection object 6 may be composed of the wall 92 and the two windows 91A and 91B.
  • the OSD display area setting frame 94 of FIG. 24 the OSD display area included in the non-transparent area 6b may be set between a plurality of transparent areas 6a (two windows 91A and 91B).
  • FIG. 25 is a diagram showing an example of projection control based on the installation state of the projection device 10.
  • the control device 4 may perform projection control of the content image 61 and the operation image 62 based on the installation information indicating the installation state of the projection device 10.
  • the installation information is, for example, whether the projection device 10 is installed on the floor or the like in an appropriate posture, the projection device 10 is installed in an upside-down posture on the ceiling or the like, or the projection device 10 is installed in a sideways posture on a wall or the like. It is information indicating whether or not it is.
  • the installation information can be set in the control device 4 from the operator 8 via the operation reception unit 2.
  • the control device 4 may set the installation information based on the detection result by the horizontal sensor or the like provided in the projection device 10.
  • the projection device 10 is installed in a proper posture while being placed on the floor or the like.
  • FIG. 25 when the projection device 10 is installed in an inverted posture while suspended from the ceiling or the like, and the projection device 10 is turned upside down with respect to the example of FIG. 7 or the like, FIG.
  • the control device 4 performs a process of inverting the top and bottom of each image.
  • control device 4 may perform control to project each image in the direction based on the installation information.
  • projection can be performed in the correct direction according to the installation state of the projection device 10.
  • FIG. 26 is a diagram showing an example of a configuration in which the control device of the embodiment is applied to a device other than the projection device 10.
  • the control device of the embodiment for example, the control device 4
  • the control device of the embodiment is another device capable of directly or indirectly communicating with the projection device 10. You may.
  • the control device of the embodiment may be a personal computer 2501 capable of communicating with the projection device 10.
  • the personal computer 2501 executes each of the above projection controls by communicating with the projection device 10.
  • the personal computer 2501 is connected to the projection device 10 by the communication cable 2502, and controls the projection device 10 via the communication cable 2502.
  • the personal computer 2501 may control the projection device 10 by performing wireless communication with the projection device 10.
  • the personal computer 2501 projects the content image onto the transmission region 6a in an inverted state in the same manner as the control device 4, and projects the operation image for the operation of the projection device 10 on the projection object 6. Controls to project in a non-inverted state.
  • control device of the embodiment is not limited to the personal computer 2501, and may be an information terminal such as a smartphone or a tablet terminal capable of communicating with the projection device 10.
  • a control device for a projection device that projects an image onto a projection object having a transmission region capable of transmitting a part of the projected light.
  • a content image based on the content information is projected from the projection device onto the transmission area in an inverted state in the direction based on the installation information.
  • a control is performed to project an operation image for operating the projection device from the projection device onto the projection object in a non-inverted state.
  • a control unit equipped with a processor.
  • the control device Acquire the position information of the operation image projected by the projection device, and Control to change the position to be projected by the projection device based on the acquired position information. Control device.
  • control device (3) The control device according to (1) or (2).
  • the above processor The content image is projected onto the first region included in the transparent region, and the content image is projected onto the first region.
  • Control is performed to project the operation image on the second region of the projection object having a lower transmittance than the first region. Control device.
  • the control device according to the description.
  • the above processor At least one of the first area and the second area is set based on the operation by the operator.
  • the content image is projected onto the first area, and the content image is projected onto the first area.
  • Control to project the operation image on the second area. Control device.
  • control device according to any one of (3) to (8).
  • the above processor Based on the combination selected by the operation by the operator from the plurality of combinations of the first area and the second area.
  • the content image is projected onto the first area, and the content image is projected onto the first area.
  • Control to project the operation image on the second area. Control device.
  • control device according to any one of (3) to (9). Further, it is provided with an acquisition unit for acquiring information on the image projected on the projection object.
  • the above processor The first area and the second area are specified based on the information acquired by the acquisition unit.
  • the content image is projected onto the first area, and the content image is projected onto the first area. Control to project the operation image on the second area. Control device.
  • control device according to any one of (1) to (10).
  • the above processor Control is performed to change at least one of the brightness and the color of the operation image based on at least one of the brightness and the color on the side of the projection device with respect to the projection object. Control device.
  • the control device according to any one of (1) to (11).
  • the above processor Perform the inversion process to invert the above content image, By the above inversion process, the projection is performed in the inverted state in the direction based on the above installation information. Control to perform the correction process of the content image after the inversion process. Control device.
  • the control device according to the above.
  • the above correction process includes a distortion correction process. Control device.
  • control device according to any one of (1) to (13).
  • the processor selects inversion and non-inversion of the content image based on user settings or the content of the content image. Control device.
  • control device according to any one of (1) to (14).
  • the processor controls to set the brightness of the content image based on the transmittance of the projection object. Control device.
  • the control device according to any one of (1) to (15).
  • the operation image includes an image for manipulating the projection range of the projection device on the projection object. Control device.
  • the processor A content image based on the content information is projected from the projection device onto the transmission area in an inverted state in the direction based on the installation information.
  • a control is performed to project an operation image for operating the projection device from the projection device onto the projection object in a non-inverted state. Control method.
  • the control method according to the above At least one of the first area and the second area is set based on the operation by the operator.
  • the content image is projected onto the first area, and the content image is projected onto the first area.
  • Control to project the operation image on the second area. Control method.
  • the control method according to any one of (19) to (25).
  • the above processor Obtain the information of the above image projected on the projection object, Based on the acquired information, the first area and the second area are specified.
  • the content image is projected onto the first area, and the content image is projected onto the first area.
  • control method according to any one of (17) to (26).
  • the above processor Control is performed to change at least one of the brightness and the color of the operation image based on at least one of the brightness and the color on the side of the projection device with respect to the projection object. Control method.
  • the control method according to any one of (17) to (27).
  • the above processor Perform the inversion process to invert the above content image, By the above inversion process, the projection is performed in the inverted state in the direction based on the above installation information. Control to perform the correction process of the content image after the inversion process. Control method.
  • the above correction process includes a distortion correction process. Control method.
  • control method according to any one of (17) to (29).
  • the processor selects inversion and non-inversion of the content image based on user settings or the content of the content image. Control method.
  • control method according to any one of (17) to (30).
  • the processor controls to set the brightness of the content image based on the transmittance of the projection object. Control method.
  • the control method according to any one of (17) to (31).
  • the operation image includes an image for manipulating the projection range of the projection device on the projection object. Control method.
  • a content image based on the content information is projected from the projection device onto the transmission area in an inverted state in the direction based on the installation information.
  • a control is performed to project an operation image for operating the projection device from the projection device onto the projection object in a non-inverted state.
  • a control program for executing processing.
  • a projection device that projects an image onto a projection object that has a transmission area that allows a part of the projected light to pass through.
  • a content image based on the content information is projected from the projection device onto the transmission region in an inverted state in the direction based on the installation information, and an operation image for operating the projection device is not inverted from the projection device to the projection object.
  • a control device that controls projection in a state, Projection system including.
  • Projection unit 2 Operation reception unit 2A, 3A Hollow part 2a, 2b, 3a, 3c, 15a Opening 4 Control device 4a Storage medium 5 Sensor 6 Projection object 6a Transmissive area 6b Non-transmissive area 7 Viewer 8 Operator 10 Projection device 11 Projection range 12 Optical modulation unit 15 Housing 21 Light source 22 Optical modulation unit 23 Projection optical system 24 Control circuit 31 Second optical system 32,122 Reflective member 33 Third optical system 34 Lens 60 Image 61, 93, 231 to 233 Contents Image 62 Operation image 91, 91A, 91B Window 92 Wall 94 OSD display area setting frame 94a Recommended enlargement frame 94b, 94c Recommended division frame 101 Main body 102 First member 103 Second member 104 Projection direction change mechanism 105 Shift mechanism 106 Optical Unit 121 First optical system 171 Recommended reduction frame 181 Content display area enlarged image 221 Inversion / non-inversion selection unit 222 Inversion processing unit 223 Synthesis unit 224 Correction unit 225 Projection control

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

コンテンツ画像の視認者と投影装置の操作者がそれぞれ正しい向きで画像を視認することのできる制御装置、制御方法、制御プログラム、及び投影システムを提供する。 投影装置(10)は、投影光の一部を透過可能な透過領域(6a)を有する投影対象物(6)に画像を投影する。制御装置(4)は、コンテンツ情報に基づくコンテンツ画像(61)を投影装置(10)から透過領域(6a)に設置情報に基づく向きに反転状態で投影させる制御を行う。また、制御装置(4)は、投影装置(10)の操作のための操作用画像(62)を投影装置(10)から投影対象物(6)に非反転状態で投影させる制御を行う。

Description

制御装置、制御方法、制御プログラム、及び投影システム
 本発明は、制御装置、制御方法、制御プログラム、及び投影システムに関する。
 特許文献1には、視聴者側に設置してスクリーンの正面から投影画像を投影するフロント投影と、操作者側に設置してスクリーンの背面から投影画像を投影するリア投影と、を行うことが可能な複数のプロジェクタを用いてマルチ投影を行う構成が記載されている。
 特許文献2には、鑑賞者が正しい向きで主画像を鑑賞できるように主画像を左右反転してスクリーンに投影表示し、メニュー画面については左右反転処理しない非反転の状態でスクリーンに投影表示する液晶プロジェクタが記載されている。
 特許文献3には、フロント投写姿勢、リア投写姿勢、正置き姿勢、天吊り姿勢の組み合わせを示す設置姿勢情報に基づいて、画像信号の補正がなされている補正方向を示すアイコンの逆転を行うプロジェクタが記載されている。
日本国特開2017-40734号公報 日本国特開2015-141365号公報 日本国特開2012-88636号公報
 本開示の技術に係る1つの実施形態は、コンテンツ画像の視認者と投影装置の操作者がそれぞれ正しい向きで画像を視認することができる制御装置、制御方法、制御プログラム、及び投影システムを提供する。
 本開示の技術に係る1つの実施形態の制御装置は、投影光の一部を透過可能な透過領域を有する投影対象物に画像を投影する投影装置の制御装置であって、コンテンツ情報に基づくコンテンツ画像を上記投影装置から上記透過領域に設置情報に基づく向きに反転状態で投影させ、上記投影装置の操作のための操作用画像を上記投影装置から上記投影対象物に非反転状態で投影させる制御を行う、プロセッサを備えるものである。
 本開示の技術に係る1つの実施形態の制御方法は、投影光の一部を透過可能な透過領域を有する投影対象物に画像を投影する投影装置の制御方法であって、プロセッサが、コンテンツ情報に基づくコンテンツ画像を上記投影装置から上記透過領域に設置情報に基づく向きに反転状態で投影させ、上記投影装置の操作のための操作用画像を上記投影装置から上記投影対象物に非反転状態で投影させる制御を行うものである。
 本開示の技術に係る1つの実施形態の制御プログラムは、投影光の一部を透過可能な透過領域を有する投影対象物に画像を投影する投影装置の制御プログラムであって、プロセッサに、コンテンツ情報に基づくコンテンツ画像を上記投影装置から上記透過領域に設置情報に基づく向きに反転状態で投影させ、上記投影装置の操作のための操作用画像を上記投影装置から上記投影対象物に非反転状態で投影させる制御を行う、処理を実行させるためのものである。
 本開示の技術に係る1つの実施形態の投影システムは、投影光の一部を透過可能な透過領域を有する投影対象物に画像を投影する投影装置と、コンテンツ情報に基づくコンテンツ画像を上記投影装置から上記透過領域に設置情報に基づく向きに反転状態で投影させ、上記投影装置の操作のための操作用画像を上記投影装置から上記投影対象物に非反転状態で投影させる制御を行う制御装置と、を含むものである。
 本発明によれば、コンテンツ画像の視認者と投影装置の操作者がそれぞれ正しい向きで画像を視認することのできる制御装置、制御方法、制御プログラム、及び投影システムを提供することができる。
実施の形態の投影装置10の利用形態の一例を示す図である。 実施の形態の投影装置10の概略構成を示す模式図である。 図2に示す投影部1の内部構成の一例を示す模式図である。 投影装置10の外観構成を示す模式図である。 図4に示す投影装置10の光学ユニット106の断面模式図である。 投影装置10による投影対象の画像の一例を示す図である。 図6の投影対象の画像の投影装置10による投影の一例を示す図である。 制御装置4による処理の一例を示すフローチャートである。 図8のステップS83におけるオーバーレイ方式の処理の一例を示すフローチャートである。 図9のステップS91におけるOSD表示領域の入力の受け付け方法の一例を示す図である。 図9のステップS94におけるOSD表示方法の選択肢の具体例1を示す図である。 図9のステップS94におけるOSD表示方法の選択肢の具体例2を示す図である。 図9のステップS94におけるOSD表示方法の選択肢の具体例3を示す図である。 図8のステップS85における分割表示方式の処理の一例を示すフローチャートである。 図14のステップS141におけるOSD表示領域の入力の受け付け方法の一例を示す図である。 図14のステップS146におけるコンテンツ画像の投影の一例を示す図である。 図14のステップS144におけるコンテンツ表示方法の選択肢の具体例1を示す図である。 図14のステップS144におけるコンテンツ表示方法の選択肢の具体例2を示す図である。 図14のステップS144におけるコンテンツ表示方法の選択肢の具体例3を示す図である。 図8のステップS87におけるプリセットパターン方式の処理の一例を示す図である。 投影装置10にセンサを設けた構成の一例を示す図である。 制御装置4の機能ブロックの一例を示す図である。 図22の制御装置4によるコンテンツ画像の処理の一例を示す図である。 投影対象物6の変形例を示す図である。 投影装置10の設置状態に基づく投影の制御の一例を示す図である。 実施の形態の制御装置を投影装置10以外の装置に適用した構成の一例を示す図である。
 以下、本発明の実施形態の一例について、図面を参照して説明する。
<実施の形態の投影装置10の利用形態>
 図1は、実施の形態の投影装置10の利用形態の一例を示す図である。投影装置10は、投影対象物6に画像を投影する。投影対象物6は、スクリーンや壁等の投影が可能な物体であり、透過領域6aを有する。透過領域6aは、投影装置10からの投影光の一部を透過可能な領域、すなわち透過率が0%より大きい領域である。一例としては、透過領域6aは、透過率が60%程度(反射率が40%程度)の領域である。
 投影対象物6のうち透過領域6aとは異なる非透過領域6bは、透過領域6aよりも反射率が低い領域である。一例としては、非透過領域6bは、透過率が0%程度(反射率が100%程度)の領域、すなわち投影装置10からの投影光を透過させない領域である。ただし、非透過領域6bは、透過領域6aよりも透過率が低ければ、投影装置10からの投影光の一部を透過可能であってもよい。
 視認者7は、投影対象物6に対して投影装置10とは反対側に位置する者である。視認者7は、投影装置10から投影され、投影対象物6を透過した投影像を視認する。このように、投影装置10は、視認者7から見て投影対象物6のリア側から投影を行うリア投影が可能である。
 操作者8は、投影装置10の操作を行う者であり、投影対象物6に対して投影装置10の側に位置する。操作者8は、投影装置10から投影され、投影対象物6で反射した投影像を視認する。
<実施の形態の投影装置10の概略構成>
 図2は、実施の形態の投影装置10の概略構成を示す模式図である。
 投影装置10は、投影部1と、制御装置4と、操作受付部2と、を備える。投影部1は、例えば液晶プロジェクタ又はLCOS(Liquid Crystal On Silicon)を用いたプロジェクタ等によって構成される。以下では、投影部1が液晶プロジェクタであるものとして説明する。
 制御装置4は、投影装置10による投影の制御を行う、本発明の制御装置の一例である。制御装置4は、各種のプロセッサにより構成される制御部と、各部と通信するための通信インタフェース(図示省略)と、ハードディスク、SSD(Solid State Drive)、又はROM(Read Only Memory)等の記憶媒体4aと、を含む装置であり、投影部1を統括制御する。
 制御装置4の制御部の各種のプロセッサとしては、プログラムを実行して各種処理を行う汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、又はASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 これら各種のプロセッサの構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。制御装置4の制御部は、各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAの組み合わせ)で構成されてもよい。
 操作受付部2は、ユーザからの各種の操作を受け付けることにより、ユーザからの指示を検出する。操作受付部2は、制御装置4に設けられたボタン、キー、ジョイスティック等であってもよいし、制御装置4の遠隔操作を行うリモートコントローラからの信号を受け付ける受信部等であってもよい。
 一点鎖線で図示する投影範囲11は、投影対象物6のうち、投影部1により投影光が照射される領域である。図2に示す例では、投影範囲11は矩形である。投影範囲11は、投影部1により投影が可能な投影可能範囲の一部又は全部である。
 なお、投影部1、制御装置4、及び操作受付部2は、例えば一個の装置により実現される(例えば図4,図5参照)。又は、投影部1、制御装置4、及び操作受付部2は、互いに通信を行うことにより連携する、それぞれ別の装置であってもよい。
<投影部1の内部構成>
 図3は、図2に示す投影部1の内部構成の一例を示す模式図である。
 図3に示すように、投影部1は、光源21と、光変調部22と、投影光学系23と、制御回路24と、を備える。
 光源21は、レーザ又はLED(Light Emitting Diode)等の発光素子を含み、例えば白色光を出射する。
 光変調部22は、光源21から出射されて図示省略の色分離機構によって赤、青、緑の3色に分離された各色光を、画像情報に基づいて変調して各色画像を出射する3つの液晶パネルによって構成される。この3つの液晶パネルにそれぞれ赤、青、緑のフィルタを搭載し、光源21から出射された白色光を、各液晶パネルにて変調して各色画像を出射させてもよい。
 投影光学系23は、光源21及び光変調部22からの光が入射されるものであり、少なくとも1つのレンズを含む、例えばリレー光学系によって構成されている。投影光学系23を通過した光は投影対象物6に投影される。
 投影対象物6のうち、光変調部22の全範囲を透過する光が照射される領域が、投影部1により投影が可能な投影可能範囲となる。この投影可能範囲のうち、光変調部22から実際に透過する光が照射される領域が投影範囲11となる。例えば、光変調部22のうち光が透過する領域の大きさ、位置、及び形状を制御することにより、投影可能範囲において、投影範囲11の大きさ、位置、及び形状が変化する。
 制御回路24は、制御装置4から入力される表示用データに基づいて、光源21、光変調部22、及び投影光学系23を制御することにより、投影対象物6にこの表示用データに基づく画像を投影させる。制御回路24に入力される表示用データは、赤表示用データと、青表示用データと、緑表示用データとの3つによって構成される。
 また、制御回路24は、制御装置4から入力される命令に基づいて、投影光学系23を変化させることにより、投影部1の投影範囲11(図1参照)の拡大や縮小を行う。また、制御装置4は、操作受付部2によって受け付けられたユーザからの操作に基づいて投影光学系23を変化させることにより、投影部1の投影範囲11の移動を行ってもよい。
 また、投影装置10は、投影光学系23のイメージサークルを維持しつつ、投影範囲11を機械的又は光学的に移動させるシフト機構を備える。投影光学系23のイメージサークルは、投影光学系23に入射した投影光が、光量落ち、色分離、周辺湾曲などの点から適正に投影光学系23を通過する領域である。
 シフト機構は、光学系シフトを行う光学系シフト機構と、電子シフトを行う電子シフト機構と、の少なくともいずれかにより実現される。
 光学系シフト機構は、例えば、投影光学系23を光軸に垂直な方向に移動させる機構(例えば図4,図5参照)、又は、投影光学系23を移動させる代わりに光変調部22を光軸に垂直な方向に移動させる機構である。また、光学系シフト機構は、投影光学系23の移動と光変調部22の移動とを組み合わせて行うものであってもよい。
 電子シフト機構は、光変調部22において光を透過させる範囲を変化させることによる疑似的な投影範囲11のシフトを行う機構である。
 また、投影装置10は、投影光学系23のイメージサークルとともに投影範囲11を移動させる投影方向変更機構を備えてもよい。投影方向変更機構は、機械的な回転で投影部1の向きを変更することにより、投影部1の投影方向を変化させる機構である(例えば図4,図5参照)。
<投影装置10の機械的構成>
 図4は、投影装置10の外観構成を示す模式図である。図5は、図4に示す投影装置10の光学ユニット106の断面模式図である。図5は、図4に示す本体部101から出射される光の光路に沿った面での断面を示している。
 図4に示すように、投影装置10は、本体部101と、本体部101から突出して設けられた光学ユニット106と、を備える。図4に示す構成において、操作受付部2と、制御装置4と、投影部1における光源21、光変調部22、及び制御回路24と、は本体部101に設けられる。投影部1における投影光学系23は光学ユニット106に設けられる。
 光学ユニット106は、本体部101に支持される第一部材102と、第一部材102に支持された第二部材103と、を備える。
 なお、第一部材102と第二部材103は一体化された部材であってもよい。光学ユニット106は、本体部101に着脱自在に構成(換言すると交換可能に構成)されていてもよい。
 本体部101は、光学ユニット106と連結される部分に光を通すための開口15a(図5参照)が形成された筐体15(図5参照)を有する。
 本体部101の筐体15の内部には、図4に示すように、光源21と、光源21から出射される光を入力画像データに基づいて空間変調して画像を生成する光変調部22(図3参照)を含む光変調ユニット12と、が設けられている。
 光源21から出射された光は、光変調ユニット12の光変調部22に入射され、光変調部22によって空間変調されて出射される。
 図5に示すように、光変調ユニット12によって空間変調された光によって形成される画像は、筐体15の開口15aを通過して光学ユニット106に入射され、投影対象物としての投影対象物6に投影されて、画像G1が観察者から視認可能となる。
 図5に示すように、光学ユニット106は、本体部101の内部と繋がる中空部2Aを有する第一部材102と、中空部2Aと繋がる中空部3Aを有する第二部材103と、中空部2Aに配置された第一光学系121及び反射部材122と、中空部3Aに配置された第二光学系31、反射部材32、第三光学系33、及びレンズ34と、シフト機構105と、投影方向変更機構104と、を備える。
 第一部材102は、断面外形が一例として矩形の部材であり、開口2aと開口2bが互いに垂直な面に形成されている。第一部材102は、本体部101の開口15aと対面する位置に開口2aが配置される状態にて、本体部101によって支持されている。本体部101の光変調ユニット12の光変調部22から射出された光は、開口15a及び開口2aを通って第一部材102の中空部2Aに入射される。
 本体部101から中空部2Aに入射される光の入射方向を方向X1と記載し、方向X1の逆方向を方向X2と記載し、方向X1と方向X2を総称して方向Xと記載する。また、図5において、紙面手前から奥に向かう方向とその逆方向を方向Zと記載する。方向Zのうち、紙面手前から奥に向かう方向を方向Z1と記載し、紙面奥から手前に向かう方向を方向Z2と記載する。
 また、方向X及び方向Zに垂直な方向を方向Yと記載し、方向Yのうち、図5において上に向かう方向を方向Y1と記載し、図5において下に向かう方向を方向Y2と記載する。図5の例では方向Y2が鉛直方向となるように投影装置10が配置されている。
 図3に示した投影光学系23は、第一光学系121、反射部材122、第二光学系31、反射部材32、第三光学系33、及びレンズ34により構成される。図5には、この投影光学系23の光軸Kが示されている。第一光学系121、反射部材122、第二光学系31、反射部材32、第三光学系33、及びレンズ34は、光変調部22側からこの順に光軸Kに沿って配置されている。
 第一光学系121は、少なくとも1つのレンズを含み、本体部101から第一部材102に入射された方向X1に進む光を反射部材122に導く。
 反射部材122は、第一光学系121から入射された光を方向Y1に反射させる。反射部材122は、例えばミラー等によって構成される。第一部材102には、反射部材122にて反射した光の光路上に開口2bが形成されており、この反射した光は開口2bを通過して第二部材103の中空部3Aへと進む。
 第二部材103は、断面外形が略T字状の部材であり、第一部材102の開口2bと対面する位置に開口3aが形成されている。第一部材102の開口2bを通過した本体部101からの光は、この開口3aを通って第二部材103の中空部3Aに入射される。なお、第一部材102や第二部材103の断面外形は任意であり、上記のものには限定されない。
 第二光学系31は、少なくとも1つのレンズを含み、第一部材102から入射された光を、反射部材32に導く。
 反射部材32は、第二光学系31から入射される光を方向X2に反射させて第三光学系33に導く。反射部材32は、例えばミラー等によって構成される。
 第三光学系33は、少なくとも1つのレンズを含み、反射部材32にて反射された光をレンズ34に導く。
 レンズ34は、第二部材103の方向X2側の端部に形成された開口3cを塞ぐ形でこの端部に配置されている。レンズ34は、第三光学系33から入射された光を投影対象物6に投影する。
 投影方向変更機構104は、第一部材102に対して第二部材103を回転自在に連結する回転機構である。この投影方向変更機構104によって、第二部材103は、方向Yに延びる回転軸(具体的には光軸K)の回りに回転自在に構成されている。なお、投影方向変更機構104は、光学系を回転させることができればよく、図5に示した配置位置に限定されない。また、回転機構の数も1つに限らず、複数設けられていてもよい。
 シフト機構105は、投影光学系の光軸K(換言すると光学ユニット106)をその光軸Kに垂直な方向(図5の方向Y)に移動させるための機構である。具体的には、シフト機構105は、第一部材102の本体部101に対する方向Yの位置を変更することができるように構成されている。シフト機構105は、手動にて第一部材102を移動させるものの他、電動にて第一部材102を移動させるものであってもよい。
 図5は、シフト機構105によって第一部材102が方向Y1側に最大限移動された状態を示している。この図5に示す状態から、シフト機構105によって第一部材102が方向Y2に移動することで、光変調部22によって形成される画像の中心(換言すると表示面の中心)と光軸Kとの相対位置が変化して、投影対象物6に投影されている画像G1を方向Y2にシフト(平行移動)させることができる。
 なお、シフト機構105は、光学ユニット106を方向Yに移動させる代わりに、光変調部22を方向Yに移動させる機構であってもよい。この場合でも、投影対象物6に投影されている画像G1を方向Y2に移動させることができる。
<投影装置10による投影例>
 図6は、投影装置10による投影対象の画像の一例を示す図である。図7は、図6の投影対象の画像の投影装置10による投影の一例を示す図である。
 投影装置10は、例えば図6に示す画像60を投影対象物6に投影する。画像60は、コンテンツ画像61と操作用画像62を含む。なお、画像60には、コンテンツ画像61と操作用画像62とが同時に含まれていてもよいし、画像60にコンテンツ画像61のみが含まれる期間と画像60に操作用画像62のみが含まれる期間とがあってもよい。
 コンテンツ画像61は、投影装置10による主たる投影対象の画像であり、例えば、投影装置10に入力された映像信号に基づく画像である。図6に示す例では、コンテンツ画像61は「R」を示すテキストである。ただし、コンテンツ画像61は、テキストに限らず、写真やイラストなどの画像や、ビデオ映像やアニメーション等の動画像や、これらの組み合わせであってもよい。
 操作用画像62は、投影装置10の操作のための画像である。例えば、操作用画像62は、投影対象物6における投影装置10の投影範囲11を操作するための画像である。投影範囲11の操作とは、例えば上記のシフト機構を用いた投影範囲11のシフト、投影範囲11の拡縮、投影範囲11の歪み補正などである。
 図6に示す例では、操作用画像62は、上下左右のカーソルキー画像である。例えば、操作用画像62は、操作受付部2として投影装置10に設けられた上下左右のカーソルキーを模した画像であり、投影装置10のカーソルキーを押下することにより、投影範囲11を操作することができることを操作者8に案内するものである。例えば、図6の状態で操作受付部2に含まれる右(R)のカーソルキーを押下する操作を操作者8が行うと、投影装置10は、上記のシフト機構を用いて投影範囲11を右にシフトさせる制御を行う。
 又は、操作用画像62は、投影画像中の操作用画像62を指示する操作を行うことで、投影範囲11を操作することができるインタラクティブ操作を操作者8に案内するものであってもよい。例えば、投影画像中の操作用画像62のうち、右(R)を示すカーソルキーを指示する操作を操作者8が行うと、投影装置10は、上記のシフト機構を用いて投影範囲11を右にシフトさせる制御を行う。
 投影画像中の操作用画像62を指示する操作を投影装置10が検知する方法としては、例えば投影画像中の指示位置を検出可能なセンサを有する指示体により操作者8が指示を行い、投影装置10がこの指示体から取得する方法を用いることができる。
 又は、投影画像中の操作用画像62を指示する操作を投影装置10が検知する方法として、投影対象物6を撮像する撮像装置を用いて、その撮像装置の撮像により得られた撮像画像に基づく画像認識により操作者8による指示を検出する方法を用いてもよい。
 図7に示すように、投影装置10は、コンテンツ画像61を、透過領域6aのうち投影範囲11に含まれる部分に、反転状態で投影する。この場合の反転状態とは、投影装置10の側から見て左右反転した状態である。透過領域6aのうち投影範囲11に含まれる部分は、本発明の第1領域の一例である。
 コンテンツ画像61を反転状態で透過領域6aに投影することにより、投影対象物6に対して投影装置10とは反対側(図7の奥側)に位置する視認者7からは、コンテンツ画像61が正しい向きで視認される。
 また、投影装置10は、操作用画像62を、非透過領域6bのうち投影範囲11に含まれる部分に、非反転状態で投影する。非反転状態とは、投影装置10の側から見て左右反転していない状態である。非透過領域6bのうち投影範囲11に含まれる部分は、本発明の第2領域の一例である。
 操作用画像62を非反転状態で非透過領域6bに投影することにより、投影対象物6に対して投影装置10の側(図7の手前側)に位置する操作者8からは、操作用画像62が正しい向きで視認される。
 上記のように、投影装置10は、コンテンツ画像61を透過領域6aに投影し、操作用画像62を非透過領域6bに投影する。これは、例えば、投影対象物6における透過領域6a及び非透過領域6bの配置に合わせてコンテンツ画像61及び操作用画像62が配置された画像60を生成しておくことにより実現することができる。
 又は、投影装置10は、画像60のうち操作用画像62の位置を示す位置情報を取得し、取得した位置情報に基づき、投影装置10で投影する位置を変更してもよい。例えば、投影装置10は、操作用画像62の位置情報に基づいて、操作用画像62が非透過領域6bに投影されるように制御を行う。
<投影装置10による処理>
 図8は、制御装置4による処理の一例を示すフローチャートである。制御装置4は、コンテンツ画像を表示するためのコンテンツ表示領域と、操作用画像をOSD(On-screen Display)により表示するためのOSD表示領域と、を設定して投影を行う処理として、例えば図8に示す処理を実行する。
 まず、制御装置4は、操作者8に対して、オーバーレイ方式、分割表示方式、及びプリセットパターン方式を選択肢として表示する(ステップS81)。この選択肢の表示は、投影装置10を用いた投影により行われてもよいし、投影装置10や投影装置10と通信可能な装置が備えるディスプレイを用いた画面表示により行われてもよい。制御装置4は、操作受付部2を介して、表示した選択肢からの方式の選択を操作者8から受け付ける。
 次に、制御装置4は、操作者8によってオーバーレイ方式が選択されたか否かを判断する(ステップS82)。オーバーレイ方式が選択された場合(ステップS82:Yes)は、制御装置4は、オーバーレイ方式の処理を実行し(ステップS83)、一連の処理を終了する。オーバーレイ方式の処理については図9~図13において後述する。
 ステップS82において、オーバーレイ方式が選択されていない場合(ステップS82:No)は、制御装置4は、操作者8によって分割表示方式が選択されたか否かを判断する(ステップS84)。分割表示方式が選択された場合(ステップS84:Yes)は、制御装置4は、分割表示方式の処理を実行し(ステップS85)、一連の処理を終了する。分割表示方式の処理については図14~図19において後述する。
 ステップS84において、分割表示方式が選択されていない場合(ステップS84:No)は、制御装置4は、操作者8によってプリセットパターン方式が選択されたか否かを判断する(ステップS86)。プリセットパターン方式が選択された場合(ステップS86:Yes)は、制御装置4は、プリセットパターン方式の処理を実行し(ステップS87)、一連の処理を終了する。プリセットパターン方式の処理については図20において後述する。
 ステップS86において、プリセットパターン方式が選択されていない場合(ステップS86:No)は、制御装置4は、一連の処理を終了する。又は、この場合、制御装置4は、コンテンツ表示領域及びOSD表示領域の設定を初期状態にしたまま、コンテンツ画像及び操作用画像の投影を行ってもよい。
<オーバーレイ方式の処理>
 図9は、図8のステップS83におけるオーバーレイ方式の処理の一例を示すフローチャートである。図8のステップS83において、制御装置4は、オーバーレイ方式の処理として、例えば図9に示す処理を実行する。
 まず、制御装置4は、操作受付部2を介して、OSD表示領域の入力を操作者8から受け付ける(ステップS91)。ステップS91におけるOSD表示領域の入力の受け付け方法については図10において後述する。
 次に、制御装置4は、全体領域に対するOSD表示領域の面積の比率を算出する(ステップS92)。全体領域とは、例えば投影範囲11である。次に、制御装置4は、算出した比率が所定値以下であるか否かを判断する(ステップS93)。この所定値は、例えば予め定められて記憶媒体4aに記憶される。また、この所定値は、操作者8が設定可能であってもよい。算出した比率が所定値以下でない場合(ステップS93:No)、すなわちOSD表示領域の面積が十分に確保されている場合、制御装置4は、ステップS96へ移行する。
 ステップS93において、算出した比率が所定値以下である場合(ステップS93:Yes)、すなわちOSD表示領域の面積が十分に確保されていない場合、制御装置4は、操作者8に対して、OSD表示方法の選択肢を表示する(ステップS94)。この選択肢の表示は、投影装置10を用いた投影により行われてもよいし、投影装置10や投影装置10と通信可能な装置が備えるディスプレイを用いた画面表示により行われてもよい。ステップS94によって表示されるOSD表示方法の選択肢については図10~図13において後述する。制御装置4は、操作受付部2を介して、表示した選択肢からの選択を操作者8から受け付ける。
 次に、制御装置4は、操作者8によって選択されたOSD表示方法を投影設定に適用する(ステップS95)。次に、制御装置4は、コンテンツ画像及び操作用画像を投影し(ステップS96)、一連の処理を終了する。具体的には、制御装置4は、投影部1を制御して、コンテンツ画像をコンテンツ表示領域に投影し、操作用画像をOSD表示領域に投影する。
<OSD表示領域の入力の受け付け方法>
 図10は、図9のステップS91におけるOSD表示領域の入力の受け付け方法の一例を示す図である。図10に示す窓91及び壁92は、投影対象物6の一例である。窓91は、投影対象物6の透過領域6aの一例である。壁92は投影対象物6の非透過領域6bの一例である。
 図9のステップS91において、制御装置4は、例えば、投影部1を制御して、投影範囲11にコンテンツ画像93及びOSD表示領域設定枠94を投影する。OSD表示領域設定枠94は、例えば点滅などによって強調表示されてもよい。操作者8は、操作受付部2を介した操作により、OSD表示領域設定枠94の大きさや形状を変更可能である。また、操作者8は、操作受付部2を介した操作により、OSD表示領域の確定操作を行うことができる。
 操作者8によってOSD表示領域設定枠94の確定操作が行われると、制御装置4は、その時点のOSD表示領域設定枠94で囲まれた範囲を、OSD表示領域として設定する。これにより、OSD表示領域の入力を操作者8から受け付けることができる。
<OSD表示方法の選択肢の具体例1>
 図11は、図9のステップS94におけるOSD表示方法の選択肢の具体例1を示す図である。図9のステップS94において、制御装置4は、例えばOSD表示領域の拡大を含む選択肢を操作者8に表示する。
 操作者8がこのOSD表示領域の拡大を選択すると、制御装置4は、例えば、投影部1を制御して、投影範囲11に、コンテンツ画像93、OSD表示領域設定枠94、及び推奨拡大枠94aを投影する。OSD表示領域設定枠94は、ステップS91において入力されたOSD表示領域を示している。
 一点鎖線で図示する推奨拡大枠94aは、OSD表示領域に表示される操作用画像の視認を容易にするために推奨される、OSD表示領域の拡大後の範囲を示している。また、図11に示す例では、制御装置4は、投影部1を制御して、「一点鎖線の範囲まで拡大が必要です」との説明文を投影範囲11に投影している。
 操作者8は、操作受付部2を介した操作により、推奨拡大枠94aが示す範囲へのOSD表示領域設定枠94の拡大を行うことができる。また、操作者8は、操作受付部2を介した操作により、推奨拡大枠94aを参考にして、OSD表示領域設定枠94を任意に拡大することができてもよい。
 操作者8によってOSD表示領域設定枠94を拡大する操作が行われると、制御装置4は、図9のステップS95において、その時点のOSD表示領域設定枠94で囲まれた範囲を、OSD表示領域として設定し直す。これにより、OSD表示領域を変更することができる。
<OSD表示方法の選択肢の具体例2>
 図12は、図9のステップS94におけるOSD表示方法の選択肢の具体例2を示す図である。図9のステップS94において、制御装置4は、例えば操作用画像の分割を含む選択肢を操作者8に表示する。
 操作者8がこのOSD表示領域の分割を選択すると、制御装置4は、例えば、投影部1を制御して、投影範囲11に、コンテンツ画像93及び推奨分割枠94b,94cを投影する。また、図12に示す例では、制御装置4は、投影部1を制御して、「分割します」との説明文を投影範囲11に投影している。
 推奨分割枠94b,94cは、OSD表示領域に表示される操作用画像の視認を容易にするために推奨される、OSD表示領域の分割領域の範囲を示している。
 操作者8は、操作受付部2を介した操作により、推奨分割枠94b,94cが示す各範囲へのOSD表示領域の分割を行うことができる。また、操作者8は、操作受付部2を介した操作により、推奨分割枠94b,94cを参考にして、OSD表示領域を任意に分割することができてもよい。
 操作者8によってOSD表示領域を分割する操作が行われると、制御装置4は、図9のステップS95において、分割された各領域をOSD表示領域として設定し直す。これにより、OSD表示領域を変更することができる。この場合、図9のステップS96において、制御装置4は、操作用画像を分割し、分割した各操作用画像を、それぞれ分割されたOSD表示領域に投影する制御を行う。
<OSD表示方法の選択肢の具体例3>
 図13は、図9のステップS94におけるOSD表示方法の選択肢の具体例3を示す図である。図9のステップS94において、制御装置4は、例えば操作用画像の縮小を含む選択肢を操作者8に表示する。
 操作者8がこの操作用画像の縮小を選択すると、制御装置4は、例えば、投影部1を制御して、投影範囲11に、コンテンツ画像93、OSD表示領域設定枠94、及び「視認しにくい可能性がありますが縮小して表示します」との説明文を投影する。このOSD表示領域設定枠94は、ステップS91において入力されたOSD表示領域である。
 操作者8は、操作受付部2を介した操作により、OSD表示領域設定枠94が示すOSD表示領域に対して操作用画像を縮小して投影する設定を行うことができる。操作者8によってこの操作が行われると、制御装置4は、図9のステップS96において、OSD表示領域設定枠94が示すOSD表示領域に収まるように操作用画像を縮小し、縮小した操作用画像をOSD表示領域に投影する制御を行う。
 又は、操作者8が操作用画像の縮小を選択すると、制御装置4は、図13に示したようなOSD表示領域設定枠94や「視認しにくい可能性がありますが縮小して表示します」との説明文の投影を行わずに、コンテンツ画像93をコンテンツ表示領域に投影し、OSD表示領域設定枠94に縮小した操作用画像を投影する制御を行ってもよい。
 図9~図13に示したように、制御装置4は、操作者8による操作に基づいて設定したOSD表示領域(第2領域)の投影範囲11に対する面積の比率が所定値以下である場合、コンテンツ表示領域(第1領域)及びOSD表示領域の少なくともいずれかの変更を行う操作を操作者8に促す制御を行う。具体的には、制御装置4は、OSD表示領域の拡大及び分割の少なくともいずれかを操作者8に促す制御を行う。なお、この場合に、制御装置4は、コンテンツ表示領域の縮小等、コンテンツ表示領域の変更を行う操作を操作者8に促す制御を行ってもよい。
<分割表示方式の処理>
 図14は、図8のステップS85における分割表示方式の処理の一例を示すフローチャートである。図8のステップS85において、制御装置4は、分割表示方式の処理として、例えば図14に示す処理を実行する。
 まず、制御装置4は、操作受付部2を介して、OSD表示領域の入力を操作者8から受け付ける(ステップS141)。ステップS141におけるOSD表示領域の入力の受け付け方法については図14において後述する。
 次に、制御装置4は、全体領域に対するコンテンツ表示領域の面積の比率を算出する(ステップS142)。例えば、制御装置4は、投影範囲11のうち、ステップS141によって入力を受け付けたOSD表示領域以外の領域の中で、コンテンツ画像(又はOSD表示領域の設定前のコンテンツ表示領域)と同じアスペクト比で面積が最大となる領域をコンテンツ表示領域として設定する。そして、投影範囲11に対する、設定したコンテンツ表示領域の面積の比率を算出する。
 次に、制御装置4は、算出した比率が所定値以下であるか否かを判断する(ステップS143)。この所定値は、例えば予め定められて記憶媒体4aに記憶される。また、この所定値は、操作者8が設定可能であってもよい。算出した比率が所定値以下でない場合(ステップS143:No)、すなわちコンテンツ表示領域の面積が十分に確保されている場合、制御装置4は、ステップS146へ移行する。
 ステップS143において、算出した比率が所定値以下である場合(ステップS143:Yes)、すなわちコンテンツ表示領域の面積が十分に確保されていない場合、制御装置4は、操作者8に対して、コンテンツ表示方法の選択肢を表示する(ステップS144)。この選択肢の表示は、投影装置10を用いた投影により行われてもよいし、投影装置10や投影装置10と通信可能な装置が備えるディスプレイを用いた画面表示により行われてもよい。ステップS144によって表示されるコンテンツ表示方法の選択肢については図17~図19において後述する。制御装置4は、操作受付部2を介して、表示した選択肢からの選択を操作者8から受け付ける。
 次に、制御装置4は、操作者8によって選択されたコンテンツ表示方法を投影設定に適用する(ステップS145)。次に、制御装置4は、コンテンツ画像及び操作用画像を投影し(ステップS146)、一連の処理を終了する。具体的には、制御装置4は、投影部1を制御して、コンテンツ画像をコンテンツ表示領域に投影し、操作用画像をOSD表示領域に投影する。
<OSD表示領域の入力の受け付け方法>
 図15は、図14のステップS141におけるOSD表示領域の入力の受け付け方法の一例を示す図である。
 図14のステップS141において、制御装置4は、例えば、投影部1を制御して、投影範囲11にコンテンツ画像93及びOSD表示領域設定枠94を投影する。OSD表示領域設定枠94は、例えば点滅などによって強調表示されてもよい。
 操作者8は、操作受付部2を介した操作により、OSD表示領域設定枠94の大きさや形状を変更可能である。また、操作者8は、操作受付部2を介した操作により、OSD表示領域の確定操作を行うことができる。
 操作者8によってOSD表示領域設定枠94の確定操作が行われると、制御装置4は、その時点のOSD表示領域設定枠94で囲まれた範囲を、OSD表示領域として設定する。これにより、OSD表示領域の入力を操作者8から受け付けることができる。図15の例では、コンテンツ画像93の一部を含むOSD表示領域が設定されている。
<コンテンツ画像の投影>
 図16は、図14のステップS146におけるコンテンツ画像の投影の一例を示す図である。例えば図15の例のようにOSD表示領域が入力され、投影範囲11に対するコンテンツ表示領域の面積の比率が所定値以下でなかったとする。
 この場合、制御装置4は、図14のステップS146において、図16に示すように、アスペクト比を維持しながらコンテンツ画像93を縮小する。また、制御装置4は、OSD表示領域設定枠94が示すOSD表示領域とは重複しないコンテンツ表示領域を設定する。そして、制御装置4は、縮小したコンテンツ画像93を、設定したコンテンツ表示領域に投影する制御を行う。
<コンテンツ表示方法の選択肢の具体例1>
 図17は、図14のステップS144におけるコンテンツ表示方法の選択肢の具体例1を示す図である。図14のステップS144において、制御装置4は、例えばOSD表示領域の縮小を含む選択肢を操作者8に表示する。
 操作者8がこのOSD表示領域の縮小を選択すると、制御装置4は、例えば、投影部1を制御して、投影範囲11に、コンテンツ画像93、OSD表示領域設定枠94、及び推奨縮小枠171を投影する。このOSD表示領域設定枠94は、ステップS141において入力されたOSD表示領域である。
 推奨縮小枠171は、コンテンツ表示領域に表示されるコンテンツ画像の視認を容易にするために推奨される、OSD表示領域の縮小後の範囲を示している。また、図17に示す例では、制御装置4は、投影部1を制御して、「一点鎖線の範囲までOSD領域を縮小するとコンテンツの解像度劣化を防げます」との説明文を投影範囲11に投影している。
 操作者8は、操作受付部2を介した操作により、推奨縮小枠171が示す範囲へのOSD表示領域設定枠94の縮小を行うことができる。また、操作者8は、操作受付部2を介した操作により、推奨縮小枠171を参考にして、OSD表示領域設定枠94を任意に縮小することができてもよい。
 操作者8によってOSD表示領域設定枠94を縮小する操作が行われると、制御装置4は、その時点のOSD表示領域設定枠94で囲まれた範囲を、OSD表示領域として設定し直す。そして、制御装置4は、設定し直したOSD表示領域に基づいて、コンテンツ表示領域を設定し直す。これにより、コンテンツ表示領域を変更することができる。具体的には、OSD表示領域設定枠94の縮小によってOSD表示領域を狭くし、その分、コンテンツ表示領域を広げ、コンテンツ画像の解像度劣化を抑制することができる。
<コンテンツ表示方法の選択肢の具体例2>
 図18は、図14のステップS144におけるコンテンツ表示方法の選択肢の具体例2を示す図である。図14のステップS144において、制御装置4は、例えばコンテンツ表示領域の拡大を含む選択肢を操作者8に表示する。
 操作者8がこのコンテンツ表示領域の拡大を選択すると、制御装置4は、例えば、投影部1を制御して、投影範囲11に、コンテンツ画像93、OSD表示領域設定枠94、及びコンテンツ表示領域拡大画像181を投影する。このOSD表示領域設定枠94は、ステップS141において入力されたOSD表示領域である。また、図18に示す例では、制御装置4は、投影部1を制御して、「方向と拡大率を指定してください」との説明文を投影範囲11に投影している。
 コンテンツ表示領域拡大画像181は、コンテンツ表示領域の拡大の方向及び拡大率を指示するための画像である。操作者8は、操作受付部2を介してコンテンツ表示領域拡大画像181の位置、大きさ、及びアスペクト比を変更することができる。
 図18に示す例では、コンテンツ表示領域拡大画像181は、縦の両矢印と横の両矢印が交差した画像であり、操作者8は、縦の両矢印及び横の両矢印のそれぞれの位置及び長さを変更することができる。縦の両矢印によって上辺及び下辺が規定され、横の両矢印によって左辺及び右辺が規定される矩形の領域が、変更後のコンテンツ表示領域となる。
 操作者8によってコンテンツ表示領域を拡大する操作が行われると、制御装置4は、その時点のコンテンツ表示領域拡大画像181により規定される範囲を、コンテンツ表示領域として設定し直す。これにより、コンテンツ表示領域を変更することができる。さらに、制御装置4は、設定し直したコンテンツ表示領域に基づいて、OSD表示領域を設定し直してもよい。
<コンテンツ表示方法の選択肢の具体例3>
 図19は、図14のステップS144におけるコンテンツ表示方法の選択肢の具体例3を示す図である。図14のステップS144において、制御装置4は、例えばコンテンツ画像のアスペクト比変更を含む選択肢を操作者8に表示する。
 操作者8がこのコンテンツ画像のアスペクト比変更を選択すると、制御装置4は、例えば、投影部1を制御して、投影範囲11に、コンテンツ画像93、OSD表示領域設定枠94、及び「コンテンツの解像度が劣化します」との説明文を投影する。この例におけるコンテンツ画像93は、OSD表示領域設定枠94と重複しないように、アスペクト比の変更を許容しつつ縮小されたコンテンツ画像となっている。OSD表示領域設定枠94は、ステップS141において入力されたOSD表示領域である。
 操作者8は、操作受付部2を介した操作により、コンテンツ表示領域に対してコンテンツ画像93を、アスペクト比の変更を許容しつつ縮小して投影する設定を行うことができる。操作者8によってこの操作が行われると、制御装置4は、コンテンツ表示領域に収まるようにアスペクト比の変更を許容しつつコンテンツ画像を縮小し、縮小したコンテンツ画像をコンテンツ表示領域に投影する制御を行う。
 又は、操作者8がコンテンツ画像のアスペクト比変更を選択すると、制御装置4は、図19に示したようなOSD表示領域設定枠94や「コンテンツの解像度が劣化します」との説明文の投影を行わずに、アスペクト比の変更を許容しつつ縮小したコンテンツ画像をコンテンツ表示領域に投影し、OSD表示領域設定枠94が示すOSD表示領域設定枠に操作用画像を投影する制御を行ってもよい。
 図14~図19に示したように、制御装置4は、操作者8による操作に基づいて設定したコンテンツ表示領域(第1領域)の投影範囲11に対する面積の比率が所定値以下である場合、コンテンツ表示領域及びOSD表示領域(第2領域)の少なくともいずれかの変更を行う操作を操作者8に促す制御を行う。具体的には、制御装置4は、OSD表示領域の縮小及びコンテンツ表示領域のアスペクト比の変更の少なくともいずれかを操作者8に促す制御を行う。
<プリセットパターン方式の処理>
 図20は、図8のステップS87におけるプリセットパターン方式の処理の一例を示す図である。図8のステップS87において、制御装置4は、プリセットパターン方式の処理として、例えば、図20に示す第1パターン、第2パターン、及び第3パターンをプリセットパターンとして操作者8に表示する制御を行う。このプリセットパターンの表示は、投影装置10を用いた投影により行われてもよいし、投影装置10や投影装置10と通信可能な装置が備えるディスプレイを用いた画面表示により行われてもよい。
 第1パターンはOSD表示領域設定枠94がステップS93の左下に配置されたプリセットパターンであり、第2パターンはOSD表示領域設定枠94がステップS93の右下に配置されたプリセットパターンであり、第3パターンはOSD表示領域設定枠94がステップS93の右側に配置されたプリセットパターンである。
 例えば、操作者8は、操作受付部2を介した操作により、第1パターン、第2パターン、及び第3パターンのうち任意のプリセットパターンを選択することができる。また、操作者8は、選択したプリセットパターンに対して、操作受付部2を介した操作により、さらに変更を加えることができてもよい。
 制御装置4は、操作者8によって選択されたプリセットパターン(さらに変更された場合は変更後のパターン)を用いて、コンテンツ画像及び操作用画像を投影する制御を行う。なお、図20に示すプリセットパターンは一例であり、プリセットパターンの数は2つでもよいし4つ以上であってもよい。また、プリセットパターンには、操作者8が操作受付部2を介した操作等により設定したプリセットパターンが含まれていてもよい。
 図20において説明したように、制御装置4は、コンテンツ表示領域及びOSD表示領域の複数の組み合わせの中から操作者8による操作により選択された組み合わせに基づいて、コンテンツ表示領域にコンテンツ画像を投影させ、OSD表示領域に操作用画像を投影させる制御を行ってもよい。
 以上説明したように、制御装置4は、コンテンツ画像を透過領域6aに反転状態で投影させ、投影装置10の操作のための操作用画像を投影対象物6に非反転状態で投影させる制御を行う。
 これにより、投影対象物6の透過領域6aに投影されたコンテンツ画像を投影装置10とは反対側から視認する視認者7がコンテンツ画像を正しい向きで視認することができる。また、投影対象物6に投影された操作用画像を投影装置10の側から視認して投影装置10の操作を行う操作者8が、操作用画像を正しい向きで視認することができる。すなわち、コンテンツ画像の視認者と投影装置の操作者がそれぞれ正しい向きで画像を視認することができる。
<変形例1>
 操作者8による操作に基づいてコンテンツ表示領域(第1領域)やOSD表示領域(第2領域)を設定する構成について説明したが、コンテンツ表示領域(第1領域)やOSD表示領域(第2領域)を、操作者8による操作によらずに自動的に設定可能な構成としてもよい。
 図21は、投影装置10にセンサを設けた構成の一例を示す図である。図21に示すように、投影装置10は、図2に示した構成に加えてセンサ5を備えてもよい。センサ5は、投影対象物6に投影された投影画像の情報を取得する取得部の一例である。
 例えば、センサ5は、投影対象物6に投影された投影画像を撮像可能な撮像センサである。制御装置4は、センサ5により得られた情報に基づいて、投影対象物6における透過領域6a及び非透過領域6bを特定することにより、コンテンツ表示領域及びOSD表示領域を設定してもよい。
 一例としては、制御装置4は、投影部1から投影範囲11に対して輝度が一様な画像を投影させ、その投影画像をセンサ5で撮像して得られた撮像情報を取得する。また、制御装置4は、取得した撮像情報に基づいて、投影範囲11のうち投影像の輝度が比較的低い領域を、透過率が比較的高い透過領域6aとして認識し、投影範囲11のうち投影像の輝度が比較的高い領域を、透過率が比較的低い非透過領域6bとして認識する。
 そして、制御装置4は、認識した透過領域6aの範囲内でコンテンツ表示領域を設定し、認識した透過領域6aの範囲内でOSD表示領域を設定する。これにより、コンテンツ表示領域やOSD表示領域を、操作者8による操作によらずに自動的に設定可能な構成とすることができる。なお、センサ5は、撮像センサに限らず、投影対象物6に投影された投影画像の各部の輝度を検出可能な輝度センサであってもよい。
<変形例2>
 例えば図21に示した構成において、センサ5により、投影対象物6に対して投影装置10の側の明るさ及び色の少なくともいずれかを検出する構成としてもよい。投影対象物6に対して投影装置10の側とは、例えば投影対象物6と投影装置10との間の領域である。また、投影対象物6に対して投影装置10の側は、投影対象物6における投影装置10の側の表面、すなわち図21において見えている投影対象物6の表面であってもよい。投影対象物6に対して投影装置10の側の色とは、例えば、投影対象物6と投影装置10との間の領域における環境光の色温度である。
 この場合に、制御装置4は、センサ5によって検出された明るさ及び色の少なくともいずれかに基づいて、操作用画像の明るさ及び色の少なくともいずれかを変化させる制御を行う。
 例えば、センサ5として明るさセンサを用いる場合、制御装置4は、センサ5によって検出された明るさが高いほど、制御装置4は、操作用画像の明るさを高くする。これにより、投影対象物6と投影装置10との間の領域が明るいことにより非透過領域6bに投影される操作用画像が操作者8から視認しにくくなることを抑制することができる。
 また、例えばセンサ5として色センサを用いる場合、制御装置4は、センサ5によって検出された色に対して目立つ色(例えば補色の関係になる色)を、操作用画像の色として用いる。これにより、投影対象物6と投影装置10との間の領域における環境光の色温度に応じて、操作者8が視認しやすい操作用画像を投影することができる。
<変形例3>
 図22は、制御装置4の機能ブロックの一例を示す図である。図22に示すように、制御装置4は、反転/非反転選択部221と、反転処理部222と、合成部223と、補正部224と、投影制御部225と、を備える。これらの各部は、制御装置4のプロセッサがプログラムを実行することにより実現されてもよいし、それぞれの機能を有するハードウェアを制御装置4に設けることにより実現されてもよい。
 反転/非反転選択部221には、上記のコンテンツ画像や操作用画像などの、投影対象の画像が入力される。反転/非反転選択部221は、入力された画像のそれぞれについて、反転するか、又は非反転とするかを選択する。
 例えば、反転/非反転選択部221は、入力された各画像の種別を判定することにより、コンテンツ画像については反転することを選択し、操作用画像について非反転とすることを選択する。反転/非反転選択部221は、反転することを選択した画像については反転処理部222へ出力し、非反転とすることを選択した画像については合成部223へ出力する。
 反転処理部222は、反転/非反転選択部221から出力された画像に対して反転処理を行う。反転処理部222が行う反転処理は、例えば上記のように左右を反転させる処理である。また、反転処理部222が行う反転処理には、後述のように上下を反転させる処理が含まれてもよい。反転処理部222は、反転処理を行った画像を合成部223へ出力する。
 合成部223は、反転/非反転選択部221から出力された画像(非反転の画像)と、反転処理部222から出力された画像(反転した画像)と、を合成する。そして、合成部223は、合成した画像を投影画像として補正部224へ出力する。
 補正部224は、合成部223から出力された投影画像に対して補正処理を行う。補正部224が行う補正処理には、例えば歪み補正の処理が含まれる。歪み補正の処理は、例えば、投影装置10と投影対象物6との相対的な位置関係や角度に起因する投影像の歪みを補正するように、投影画像を予め逆に歪ませる処理である。補正部224は、補正処理を行った投影画像を投影制御部225へ出力する。
 投影制御部225は、投影部1を制御して、補正部224から出力された投影画像を投影対象物6に投影させる。
 図23は、図22の制御装置4によるコンテンツ画像の処理の一例を示す図である。コンテンツ画像231は、反転/非反転選択部221へ入力される、「R」の文字を含むコンテンツ画像である。反転/非反転選択部221は、コンテンツ画像231を反転することを選択し、コンテンツ画像231を反転処理部222へ出力する。
 反転処理部222は、コンテンツ画像231に対して反転処理を行う。これによりコンテンツ画像232が生成される。補正部224は、コンテンツ画像232に対して歪み補正処理を行う。これによりコンテンツ画像233が生成される。補正部224の補正処理によって、コンテンツ画像233の全体に対して歪みが与えられている。
 仮に、補正部224の後段に反転処理部222が設けられ、補正処理の後に反転処理が行われると、コンテンツ画像231は、歪み補正の後に反転するため、図23に示すコンテンツ画像233とは逆に歪んだ画像となり、歪み補正等の効果が変化してしまう。これに対して、画像の反転/非反転に応じて補正処理を変化させる構成も考えられるが、処理が複雑化する。
 これに対して、制御装置4においては、補正部224の前段に反転処理部222が設けられ、補正処理の前に反転処理が行われるため、反転/非反転に応じて補正処理を変化させなくても、正しい歪み補正の効果を得ることができる。
 このように、制御装置4は、コンテンツ画像を反転させる反転処理を行い、反転処理により反転状態でコンテンツ画像を投影させるとともに、反転処理の後、かつ投影前のコンテンツ画像に対して補正処理を行う。これにより、例えば補正処理の後に反転処理を行う構成と比べて、反転処理によって歪み補正等の効果が変化してしまうことを抑制することができる。
<変形例4>
 コンテンツ画像については反転状態で投影する構成について説明したが、制御装置4は、ユーザ設定又はコンテンツ画像の内容に基づいて、コンテンツ画像の反転及び非反転を選択してもよい。例えば、図22に示した構成において、反転/非反転選択部221は、入力されたコンテンツ画像を反転するか、又は非反転とするかを、ユーザ設定又はコンテンツ画像の内容に基づいて選択する。
 具体的には、反転/非反転選択部221は、入力されたコンテンツ画像を操作者8に表示する。このコンテンツ画像の表示は、投影装置10を用いた投影により行われてもよいし、投影装置10や投影装置10と通信可能な装置が備えるディスプレイを用いた画面表示により行われてもよい。
 また、反転/非反転選択部221は、表示したコンテンツ画像を反転させるか否かの選択を、操作受付部2を介して操作者8から受け付ける。そして、反転/非反転選択部221は、反転させる選択を受け付けたコンテンツ画像については反転処理部222へ出力し、反転させない選択を受け付けたコンテンツ画像については合成部223へ出力する。これにより、コンテンツ画像がリアプロジェクション用のものであるか否かを操作者8が確認し、その結果に応じてコンテンツ画像の反転及び非反転を切り替えることができる。
 又は、反転/非反転選択部221は、入力されたコンテンツ画像の内容、例えばコンテンツ画像に反転した文字が含まれるか否かに基づいて、コンテンツ画像の反転及び非反転を切り替えることができる。
 例えば、反転/非反転選択部221に対して、リアプロジェクション用にすでに反転されたコンテンツ画像が入力された場合、反転/非反転選択部221は、そのコンテンツ画像を合成部223へ出力する。これにより、リアプロジェクション用にすでに反転されたコンテンツ画像をさらに反転してしまうことを抑制することができる。
<変形例5>
 制御装置4は、投影対象物6の透過率に基づいて、コンテンツ画像の明るさを設定する制御を行ってもよい。例えば、制御装置4は、投影対象物6の透過領域6aの透過率が第1透過率である場合は、投影対象物6の透過領域6aの透過率が第1透過率より高い第2透過率である場合よりも、投影部1から投影されるコンテンツ画像の明るさが高くなるように制御する。これにより、投影対象物6の透過領域6aの透過率が低いことによる、視認者7から見たコンテンツ画像の明るさの低下を抑制することができる。
 投影対象物6の透過領域6aの透過率は、例えば操作受付部2を介して操作者8から制御装置4に設定される。又は、例えば図21に示した構成において、制御装置4が、投影部1から透過領域6aに対して輝度が一様な画像を投影させ、その投影画像をセンサ5で撮像して得られた撮像情報を取得し、取得した撮像情報に基づいて、透過領域6aの透過率を特定してもよい。
 また、投影装置10は、上記のリア投影と、視認者7から見て投影対象物6のフロント側から投影を行うフロント投影と、を切り替え可能であってもよい。制御装置4は、コンテンツ画像のフロント投影とリア投影とを切り替える場合に、透過領域6aの透過率に基づいてコンテンツ画像の明るさを設定してもよい。
 例えば、コンテンツ画像の明るさが一定であると仮定すると、透過領域6aの透過率が50%である場合を除いて、コンテンツ画像のフロント投影とリア投影とを切り替えると、視認者(例えば視認者7)から見たコンテンツ画像の明るさが変化する。
 例えば透過領域6aの透過率が50%より高い場合、リア投影においては60%の透過光が視認者7により視認され、フロント投影においては40%の反射光が、操作者8の側にいる視認者から視認される。このため、フロント投影の方が視認者から暗く見える。
 これに対して、制御装置4は、透過領域6aの透過率が50%より高い場合、リア投影の場合よりもフロント投影の場合の方が、投影部1から投影されるコンテンツ画像の明るさが高くなるように制御する。逆に、制御装置4は、透過領域6aの透過率が50%未満である場合、フロント投影の場合よりもリア投影の場合の方が、投影部1から投影されるコンテンツ画像の明るさが高くなるように制御する。これにより、透過領域6aの透過率に起因する、フロント投影とリア投影において視認されるコンテンツ画像の明るさの違いを抑制することができる。
<変形例6>
 図24は、投影対象物6の変形例を示す図である。投影対象物6は、複数の透過領域6aを含んでいてもよい。例えば、図24に示すように、壁92及び2つの窓91A,91Bにより投影対象物6が構成されていてもよい。また、図24のOSD表示領域設定枠94に示すように、非透過領域6bに含まれるOSD表示領域は、複数の透過領域6a(2つの窓91A,91B)の間に設定されてもよい。
<変形例7>
 図25は、投影装置10の設置状態に基づく投影の制御の一例を示す図である。制御装置4は、投影装置10の設置状態を示す設置情報に基づいて、コンテンツ画像61及び操作用画像62の投影制御を行ってもよい。設置情報は、例えば、投影装置10が床等に順当姿勢で設置されているか、又は投影装置10が天井等に逆さ姿勢で設置されているか、又は投影装置10が壁等に横向き姿勢で設置されているか等を示す情報である。
 例えば設置情報は操作受付部2を介して操作者8から制御装置4に設定可能である。又は、投影装置10に設けられた水平センサなどによる検出結果に基づいて、制御装置4が設置情報を設定してもよい。
 例えば図7等に示した例では投影装置10が床等に置いた状態にて順当姿勢で設置されている。一方で、図25に示すように投影装置10が天井等から吊った状態にて逆さ姿勢で設置されており、図7等の例に対して投影装置10が上下反対になっている場合、図7等と同じ投影を行うには、制御装置4において各画像の上下を反転させる処理を行う。
 このように、制御装置4は、各画像を設置情報に基づく向きに投影させる制御を行ってもよい。これにより、投影装置10の設置状態に応じて正しい向きで投影を行うことができる。
<変形例8>
 図26は、実施の形態の制御装置を投影装置10以外の装置に適用した構成の一例を示す図である。実施の形態の制御装置(例えば制御装置4)が投影装置10に設けられる構成について説明したが、実施の形態の制御装置は、投影装置10と直接又は間接的に通信可能な他の装置であってもよい。例えば、実施の形態の制御装置は、投影装置10と通信可能なパーソナルコンピュータ2501などであってもよい。
 この場合に、パーソナルコンピュータ2501は、投影装置10と通信を行うことにより、上記の投影の各制御を実行する。例えば、パーソナルコンピュータ2501は、通信ケーブル2502によって投影装置10と接続されており、通信ケーブル2502を介して投影装置10を制御する。又は、パーソナルコンピュータ2501は、投影装置10との間で無線通信を行うことにより投影装置10を制御してもよい。
 図26に示す構成において、パーソナルコンピュータ2501は、上記の制御装置4と同様に、コンテンツ画像を透過領域6aに反転状態で投影させ、投影装置10の操作のための操作用画像を投影対象物6に非反転状態で投影させる制御を行う。
 また、実施の形態の制御装置は、パーソナルコンピュータ2501に限らず、投影装置10と通信可能なスマートフォンやタブレット端末などの情報端末であってもよい。
 本明細書には少なくとも以下の事項が記載されている。
(1)
 投影光の一部を透過可能な透過領域を有する投影対象物に画像を投影する投影装置の制御装置であって、
 コンテンツ情報に基づくコンテンツ画像を上記投影装置から上記透過領域に設置情報に基づく向きに反転状態で投影させ、
 上記投影装置の操作のための操作用画像を上記投影装置から上記投影対象物に非反転状態で投影させる制御を行う、
 プロセッサを備える制御装置。
(2)
 (1)記載の制御装置であって、
 上記プロセッサは、
 上記投影装置で投影する上記操作用画像の位置情報を取得し、
 取得した上記位置情報に基づき上記投影装置で投影する位置を変更する制御を行う、
 制御装置。
(3)
 (1)又は(2)記載の制御装置であって、
 上記プロセッサは、
 上記透過領域に含まれる第1領域に上記コンテンツ画像を投影させ、
 上記投影対象物のうち上記第1領域より透過率が低い第2領域に上記操作用画像を投影させる制御を行う、
 制御装置。
(4)
 (3)記載の制御装置であって、
 上記プロセッサは、
 操作者による操作に基づいて上記第1領域及び上記第2領域の少なくともいずれかを設定し、
 上記第1領域に上記コンテンツ画像を投影させ、
 上記第2領域に上記操作用画像を投影させる制御を行う、
 制御装置。
(5)
 (4)記載の制御装置であって、
 上記プロセッサは、
 上記操作者による操作に基づいて設定した上記第2領域の、
 上記投影装置の投影範囲に対する比率が所定値以下である場合、
 上記第1領域及び上記第2領域の少なくともいずれかの変更を行う操作を上記操作者に促す制御を行う、
 制御装置。
(6)
 (5)記載の制御装置であって、
 上記第1領域及び上記第2領域の少なくともいずれかの変更は、
 上記第2領域の拡大及び分割の少なくともいずれかを含む、
 制御装置。
(7)
 (4)記載の制御装置であって、
 上記プロセッサは、
 上記操作者による操作に基づいて設定した上記第1領域の、
 上記投影装置の投影範囲に対する比率が所定値以下である場合、
 上記第1領域及び上記第2領域の少なくともいずれかの変更を行う操作を上記操作者に促す制御を行う、
 制御装置。
(8)
 (7)記載の制御装置であって、
 上記第1領域及び上記第2領域の少なくともいずれかの変更は、
 上記第2領域の縮小及び上記第1領域のアスペクト比の変更の少なくともいずれかを含む、
 制御装置。
(9)
 (3)から(8)のいずれか1つに記載の制御装置であって、
 上記プロセッサは、
 上記第1領域及び上記第2領域の複数の組み合わせの中から操作者による操作により選択された組み合わせに基づいて、
 上記第1領域に上記コンテンツ画像を投影させ、
 上記第2領域に上記操作用画像を投影させる制御を行う、
 制御装置。
(10)
 (3)から(9)のいずれか1つに記載の制御装置であって、
 更に、上記投影対象物に投影された上記画像の情報を取得する取得部を備え、
 上記プロセッサは、
 上記取得部により取得された上記情報に基づき上記第1領域及び上記第2領域を特定し、
 上記第1領域に上記コンテンツ画像を投影させ、
 上記第2領域に上記操作用画像を投影させる制御を行う、
 制御装置。
(11)
 (1)から(10)のいずれか1つに記載の制御装置であって、
 上記プロセッサは、
 上記投影対象物に対して上記投影装置の側の明るさ及び色の少なくともいずれかに基づいて、上記操作用画像の明るさ及び色の少なくともいずれかを変化させる制御を行う、
 制御装置。
(12)
 (1)から(11)のいずれか1つに記載の制御装置であって、
 上記プロセッサは、
 上記コンテンツ画像を反転させる反転処理を行い、
 上記反転処理により上記設置情報に基づく向きに反転状態で投影させ、
 上記反転処理の後に上記コンテンツ画像の補正処理を行う制御を行う、
 制御装置。
(13)
 (12)記載の制御装置であって、
 上記補正処理は、歪み補正の処理を含む、
 制御装置。
(14)
 (1)から(13)のいずれか1つに記載の制御装置であって、
 上記プロセッサは、ユーザ設定又は上記コンテンツ画像の内容に基づいて、上記コンテンツ画像の反転及び非反転を選択する、
 制御装置。
(15)
 (1)から(14)のいずれか1つに記載の制御装置であって、
 上記プロセッサは、上記投影対象物の透過率に基づいて、上記コンテンツ画像の明るさを設定する制御を行う、
 制御装置。
(16)
 (1)から(15)のいずれか1つに記載の制御装置であって、
 上記操作用画像は、上記投影対象物における上記投影装置の投影範囲を操作するための画像を含む、
 制御装置。
(17)
 投影光の一部を透過可能な透過領域を有する投影対象物に画像を投影する投影装置の制御方法であって、
 プロセッサが、
 コンテンツ情報に基づくコンテンツ画像を上記投影装置から上記透過領域に設置情報に基づく向きに反転状態で投影させ、
 上記投影装置の操作のための操作用画像を上記投影装置から上記投影対象物に非反転状態で投影させる制御を行う、
 制御方法。
(18)
 (17)記載の制御方法であって、
 上記プロセッサは、
 上記投影装置で投影する上記操作用画像の位置情報を取得し、
 取得した上記位置情報に基づき上記投影装置で投影する位置を変更する制御を行う、
 制御方法。
(19)
 (17)又は(18)記載の制御方法であって、
 上記プロセッサは、
 上記透過領域に含まれる第1領域に上記コンテンツ画像を投影させ、
 上記投影対象物のうち上記第1領域より透過率が低い第2領域に上記操作用画像を投影させる制御を行う、
 制御方法。
(20)
 (19)記載の制御方法であって、
 上記プロセッサは、
 操作者による操作に基づいて上記第1領域及び上記第2領域の少なくともいずれかを設定し、
 上記第1領域に上記コンテンツ画像を投影させ、
 上記第2領域に上記操作用画像を投影させる制御を行う、
 制御方法。
(21)
 (20)記載の制御方法であって、
 上記プロセッサは、
 上記操作者による操作に基づいて設定した上記第2領域の、
 上記投影装置の投影範囲に対する比率が所定値以下である場合、
 上記第1領域及び上記第2領域の少なくともいずれかの変更を行う操作を上記操作者に促す制御を行う、
 制御方法。
(22)
 (21)記載の制御方法であって、
 上記第1領域及び上記第2領域の少なくともいずれかの変更は、
 上記第2領域の拡大及び分割の少なくともいずれかを含む、
 制御方法。
(23)
 (20)記載の制御方法であって、
 上記プロセッサは、
 上記操作者による操作に基づいて設定した上記第1領域の、
 上記投影装置の投影範囲に対する比率が所定値以下である場合、
 上記第1領域及び上記第2領域の少なくともいずれかの変更を行う操作を上記操作者に促す制御を行う、
 制御方法。
(24)
 (23)記載の制御方法であって、
 上記第1領域及び上記第2領域の少なくともいずれかの変更は、
 上記第2領域の縮小及び上記第1領域のアスペクト比の変更の少なくともいずれかを含む、
 制御方法。
(25)
 (19)から(24)のいずれか1つに記載の制御方法であって、
 上記プロセッサは、
 上記第1領域及び上記第2領域の複数の組み合わせの中から操作者による操作により選択された組み合わせに基づいて、
 上記第1領域に上記コンテンツ画像を投影させ、
 上記第2領域に上記操作用画像を投影させる制御を行う、
 制御方法。
(26)
 (19)から(25)のいずれか1つに記載の制御方法であって、
 上記プロセッサは、
 上記投影対象物に投影された上記画像の情報を取得し、
 取得した上記情報に基づき上記第1領域及び上記第2領域を特定し、
 上記第1領域に上記コンテンツ画像を投影させ、
 上記第2領域に上記操作用画像を投影させる制御を行う、
 制御方法。
(27)
 (17)から(26)のいずれか1つに記載の制御方法であって、
 上記プロセッサは、
 上記投影対象物に対して上記投影装置の側の明るさ及び色の少なくともいずれかに基づいて、上記操作用画像の明るさ及び色の少なくともいずれかを変化させる制御を行う、
 制御方法。
(28)
 (17)から(27)のいずれか1つに記載の制御方法であって、
 上記プロセッサは、
 上記コンテンツ画像を反転させる反転処理を行い、
 上記反転処理により上記設置情報に基づく向きに反転状態で投影させ、
 上記反転処理の後に上記コンテンツ画像の補正処理を行う制御を行う、
 制御方法。
(29)
 (28)記載の制御方法であって、
 上記補正処理は、歪み補正の処理を含む、
 制御方法。
(30)
 (17)から(29)のいずれか1つに記載の制御方法であって、
 上記プロセッサは、ユーザ設定又は上記コンテンツ画像の内容に基づいて、上記コンテンツ画像の反転及び非反転を選択する、
 制御方法。
(31)
 (17)から(30)のいずれか1つに記載の制御方法であって、
 上記プロセッサは、上記投影対象物の透過率に基づいて、上記コンテンツ画像の明るさを設定する制御を行う、
 制御方法。
(32)
 (17)から(31)のいずれか1つに記載の制御方法であって、
 上記操作用画像は、上記投影対象物における上記投影装置の投影範囲を操作するための画像を含む、
 制御方法。
(33)
 投影光の一部を透過可能な透過領域を有する投影対象物に画像を投影する投影装置の制御プログラムであって、
 プロセッサに、
 コンテンツ情報に基づくコンテンツ画像を上記投影装置から上記透過領域に設置情報に基づく向きに反転状態で投影させ、
 上記投影装置の操作のための操作用画像を上記投影装置から上記投影対象物に非反転状態で投影させる制御を行う、
 処理を実行させるための制御プログラム。
(34)
 投影光の一部を透過可能な透過領域を有する投影対象物に画像を投影する投影装置と、
 コンテンツ情報に基づくコンテンツ画像を上記投影装置から上記透過領域に設置情報に基づく向きに反転状態で投影させ、上記投影装置の操作のための操作用画像を上記投影装置から上記投影対象物に非反転状態で投影させる制御を行う制御装置と、
 を含む投影システム。
 以上、図面を参照しながら各種の実施の形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。
 なお、本出願は、2020年9月29日出願の日本特許出願(特願2020-162955)に基づくものであり、その内容は本出願の中に参照として援用される。
 1 投影部
 2 操作受付部
 2A,3A 中空部
 2a,2b,3a,3c,15a 開口
 4 制御装置
 4a 記憶媒体
 5 センサ
 6 投影対象物
 6a 透過領域
 6b 非透過領域
 7 視認者
 8 操作者
 10 投影装置
 11 投影範囲
 12 光変調ユニット
 15 筐体
 21 光源
 22 光変調部
 23 投影光学系
 24 制御回路
 31 第二光学系
 32,122 反射部材
 33 第三光学系
 34 レンズ
 60 画像
 61,93,231~233 コンテンツ画像
 62 操作用画像
 91,91A,91B 窓
 92 壁
 94 OSD表示領域設定枠
 94a 推奨拡大枠
 94b,94c 推奨分割枠
 101 本体部
 102 第一部材
 103 第二部材
 104 投影方向変更機構
 105 シフト機構
 106 光学ユニット
 121 第一光学系
 171 推奨縮小枠
 181 コンテンツ表示領域拡大画像
 221 反転/非反転選択部
 222 反転処理部
 223 合成部
 224 補正部
 225 投影制御部
 2501 パーソナルコンピュータ
 2502 通信ケーブル
 G1 画像
 

Claims (34)

  1.  投影光の一部を透過可能な透過領域を有する投影対象物に画像を投影する投影装置の制御装置であって、
     コンテンツ情報に基づくコンテンツ画像を前記投影装置から前記透過領域に設置情報に基づく向きに反転状態で投影させ、
     前記投影装置の操作のための操作用画像を前記投影装置から前記投影対象物に非反転状態で投影させる制御を行う、
     プロセッサを備える制御装置。
  2.  請求項1記載の制御装置であって、
     前記プロセッサは、
     前記投影装置で投影する前記操作用画像の位置情報を取得し、
     取得した前記位置情報に基づき前記投影装置で投影する位置を変更する制御を行う、
     制御装置。
  3.  請求項1又は2記載の制御装置であって、
     前記プロセッサは、
     前記透過領域に含まれる第1領域に前記コンテンツ画像を投影させ、
     前記投影対象物のうち前記第1領域より透過率が低い第2領域に前記操作用画像を投影させる制御を行う、
     制御装置。
  4.  請求項3記載の制御装置であって、
     前記プロセッサは、
     操作者による操作に基づいて前記第1領域及び前記第2領域の少なくともいずれかを設定し、
     前記第1領域に前記コンテンツ画像を投影させ、
     前記第2領域に前記操作用画像を投影させる制御を行う、
     制御装置。
  5.  請求項4記載の制御装置であって、
     前記プロセッサは、
     前記操作者による操作に基づいて設定した前記第2領域の、
     前記投影装置の投影範囲に対する比率が所定値以下である場合、
     前記第1領域及び前記第2領域の少なくともいずれかの変更を行う操作を前記操作者に促す制御を行う、
     制御装置。
  6.  請求項5記載の制御装置であって、
     前記第1領域及び前記第2領域の少なくともいずれかの変更は、
     前記第2領域の拡大及び分割の少なくともいずれかを含む、
     制御装置。
  7.  請求項4記載の制御装置であって、
     前記プロセッサは、
     前記操作者による操作に基づいて設定した前記第1領域の、
     前記投影装置の投影範囲に対する比率が所定値以下である場合、
     前記第1領域及び前記第2領域の少なくともいずれかの変更を行う操作を前記操作者に促す制御を行う、
     制御装置。
  8.  請求項7記載の制御装置であって、
     前記第1領域及び前記第2領域の少なくともいずれかの変更は、
     前記第2領域の縮小及び前記第1領域のアスペクト比の変更の少なくともいずれかを含む、
     制御装置。
  9.  請求項3から8のいずれか1項記載の制御装置であって、
     前記プロセッサは、
     前記第1領域及び前記第2領域の複数の組み合わせの中から操作者による操作により選択された組み合わせに基づいて、
     前記第1領域に前記コンテンツ画像を投影させ、
     前記第2領域に前記操作用画像を投影させる制御を行う、
     制御装置。
  10.  請求項3から9のいずれか1項記載の制御装置であって、
     更に、前記投影対象物に投影された前記画像の情報を取得する取得部を備え、
     前記プロセッサは、
     前記取得部により取得された前記情報に基づき前記第1領域及び前記第2領域を特定し、
     前記第1領域に前記コンテンツ画像を投影させ、
     前記第2領域に前記操作用画像を投影させる制御を行う、
     制御装置。
  11.  請求項1から10のいずれか1項記載の制御装置であって、
     前記プロセッサは、
     前記投影対象物に対して前記投影装置の側の明るさ及び色の少なくともいずれかに基づいて、前記操作用画像の明るさ及び色の少なくともいずれかを変化させる制御を行う、
     制御装置。
  12.  請求項1から11のいずれか1項記載の制御装置であって、
     前記プロセッサは、
     前記コンテンツ画像を反転させる反転処理を行い、
     前記反転処理により前記設置情報に基づく向きに反転状態で投影させ、
     前記反転処理の後に前記コンテンツ画像の補正処理を行う制御を行う、
     制御装置。
  13.  請求項12記載の制御装置であって、
     前記補正処理は、歪み補正の処理を含む、
     制御装置。
  14.  請求項1から13のいずれか1項記載の制御装置であって、
     前記プロセッサは、ユーザ設定又は前記コンテンツ画像の内容に基づいて、前記コンテンツ画像の反転及び非反転を選択する、
     制御装置。
  15.  請求項1から14のいずれか1項記載の制御装置であって、
     前記プロセッサは、前記投影対象物の透過率に基づいて、前記コンテンツ画像の明るさを設定する制御を行う、
     制御装置。
  16.  請求項1から15のいずれか1項記載の制御装置であって、
     前記操作用画像は、前記投影対象物における前記投影装置の投影範囲を操作するための画像を含む、
     制御装置。
  17.  投影光の一部を透過可能な透過領域を有する投影対象物に画像を投影する投影装置の制御方法であって、
     プロセッサが、
     コンテンツ情報に基づくコンテンツ画像を前記投影装置から前記透過領域に設置情報に基づく向きに反転状態で投影させ、
     前記投影装置の操作のための操作用画像を前記投影装置から前記投影対象物に非反転状態で投影させる制御を行う、
     制御方法。
  18.  請求項17記載の制御方法であって、
     前記プロセッサは、
     前記投影装置で投影する前記操作用画像の位置情報を取得し、
     取得した前記位置情報に基づき前記投影装置で投影する位置を変更する制御を行う、
     制御方法。
  19.  請求項17又は18記載の制御方法であって、
     前記プロセッサは、
     前記透過領域に含まれる第1領域に前記コンテンツ画像を投影させ、
     前記投影対象物のうち前記第1領域より透過率が低い第2領域に前記操作用画像を投影させる制御を行う、
     制御方法。
  20.  請求項19記載の制御方法であって、
     前記プロセッサは、
     操作者による操作に基づいて前記第1領域及び前記第2領域の少なくともいずれかを設定し、
     前記第1領域に前記コンテンツ画像を投影させ、
     前記第2領域に前記操作用画像を投影させる制御を行う、
     制御方法。
  21.  請求項20記載の制御方法であって、
     前記プロセッサは、
     前記操作者による操作に基づいて設定した前記第2領域の、
     前記投影装置の投影範囲に対する比率が所定値以下である場合、
     前記第1領域及び前記第2領域の少なくともいずれかの変更を行う操作を前記操作者に促す制御を行う、
     制御方法。
  22.  請求項21記載の制御方法であって、
     前記第1領域及び前記第2領域の少なくともいずれかの変更は、
     前記第2領域の拡大及び分割の少なくともいずれかを含む、
     制御方法。
  23.  請求項20記載の制御方法であって、
     前記プロセッサは、
     前記操作者による操作に基づいて設定した前記第1領域の、
     前記投影装置の投影範囲に対する比率が所定値以下である場合、
     前記第1領域及び前記第2領域の少なくともいずれかの変更を行う操作を前記操作者に促す制御を行う、
     制御方法。
  24.  請求項23記載の制御方法であって、
     前記第1領域及び前記第2領域の少なくともいずれかの変更は、
     前記第2領域の縮小及び前記第1領域のアスペクト比の変更の少なくともいずれかを含む、
     制御方法。
  25.  請求項19から24のいずれか1項記載の制御方法であって、
     前記プロセッサは、
     前記第1領域及び前記第2領域の複数の組み合わせの中から操作者による操作により選択された組み合わせに基づいて、
     前記第1領域に前記コンテンツ画像を投影させ、
     前記第2領域に前記操作用画像を投影させる制御を行う、
     制御方法。
  26.  請求項19から25のいずれか1項記載の制御方法であって、
     前記プロセッサは、
     前記投影対象物に投影された前記画像の情報を取得し、
     取得した前記情報に基づき前記第1領域及び前記第2領域を特定し、
     前記第1領域に前記コンテンツ画像を投影させ、
     前記第2領域に前記操作用画像を投影させる制御を行う、
     制御方法。
  27.  請求項17から26のいずれか1項記載の制御方法であって、
     前記プロセッサは、
     前記投影対象物に対して前記投影装置の側の明るさ及び色の少なくともいずれかに基づいて、前記操作用画像の明るさ及び色の少なくともいずれかを変化させる制御を行う、
     制御方法。
  28.  請求項17から27のいずれか1項記載の制御方法であって、
     前記プロセッサは、
     前記コンテンツ画像を反転させる反転処理を行い、
     前記反転処理により前記設置情報に基づく向きに反転状態で投影させ、
     前記反転処理の後に前記コンテンツ画像の補正処理を行う制御を行う、
     制御方法。
  29.  請求項28記載の制御方法であって、
     前記補正処理は、歪み補正の処理を含む、
     制御方法。
  30.  請求項17から29のいずれか1項記載の制御方法であって、
     前記プロセッサは、ユーザ設定又は前記コンテンツ画像の内容に基づいて、前記コンテンツ画像の反転及び非反転を選択する、
     制御方法。
  31.  請求項17から30のいずれか1項記載の制御方法であって、
     前記プロセッサは、前記投影対象物の透過率に基づいて、前記コンテンツ画像の明るさを設定する制御を行う、
     制御方法。
  32.  請求項17から31のいずれか1項記載の制御方法であって、
     前記操作用画像は、前記投影対象物における前記投影装置の投影範囲を操作するための画像を含む、
     制御方法。
  33.  投影光の一部を透過可能な透過領域を有する投影対象物に画像を投影する投影装置の制御プログラムであって、
     プロセッサに、
     コンテンツ情報に基づくコンテンツ画像を前記投影装置から前記透過領域に設置情報に基づく向きに反転状態で投影させ、
     前記投影装置の操作のための操作用画像を前記投影装置から前記投影対象物に非反転状態で投影させる制御を行う、
     処理を実行させるための制御プログラム。
  34.  投影光の一部を透過可能な透過領域を有する投影対象物に画像を投影する投影装置と、
     コンテンツ情報に基づくコンテンツ画像を前記投影装置から前記透過領域に設置情報に基づく向きに反転状態で投影させ、前記投影装置の操作のための操作用画像を前記投影装置から前記投影対象物に非反転状態で投影させる制御を行う制御装置と、
     を含む投影システム。
     
PCT/JP2021/008310 2020-09-29 2021-03-03 制御装置、制御方法、制御プログラム、及び投影システム WO2022070462A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022553442A JP7427804B2 (ja) 2020-09-29 2021-03-03 制御装置、制御方法、制御プログラム、及び投影システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-162955 2020-09-29
JP2020162955 2020-09-29

Publications (1)

Publication Number Publication Date
WO2022070462A1 true WO2022070462A1 (ja) 2022-04-07

Family

ID=80950087

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/008310 WO2022070462A1 (ja) 2020-09-29 2021-03-03 制御装置、制御方法、制御プログラム、及び投影システム

Country Status (2)

Country Link
JP (1) JP7427804B2 (ja)
WO (1) WO2022070462A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275450A (ja) * 2004-03-22 2005-10-06 Canon Inc 表示装置及びその制御方法、並びに制御プログラム
JP2011145661A (ja) * 2009-12-18 2011-07-28 Canon Inc 画像表示装置、情報処理装置及びそれらの制御方法、コンピュータプログラム
JP2017040734A (ja) * 2015-08-19 2017-02-23 キヤノン株式会社 表示装置、表示方法及び表示システム
WO2018169095A1 (ja) * 2017-03-17 2018-09-20 富士フイルム株式会社 コレステリック液晶層を有する透明スクリーン、および透明スクリーンシステム
WO2019188046A1 (ja) * 2018-03-26 2019-10-03 富士フイルム株式会社 投影システム、投影制御装置、投影制御方法、投影制御プログラム
JP2020088739A (ja) * 2018-11-29 2020-06-04 株式会社オクテック 表示装置、表示システム、画像表示方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259112A (ja) 1999-03-11 2000-09-22 Matsushita Electric Ind Co Ltd 液晶表示装置
JP2010164901A (ja) 2009-01-19 2010-07-29 Sharp Corp Osd信号処理装置、av装置、映像表示システム、及びosd表示方法
JP2010278511A (ja) 2009-05-26 2010-12-09 Konica Minolta Opto Inc 電子機器
JP2010283772A (ja) 2009-06-08 2010-12-16 Toshiba Corp 映像表示制御装置、映像表示制御方法およびこの制御方法を用いる映像機器
JP2015141365A (ja) 2014-01-30 2015-08-03 キヤノン株式会社 投影表示装置
JP7371627B2 (ja) 2018-07-20 2023-10-31 ソニーグループ株式会社 画像表示装置及び画像表示方法
JP7200767B2 (ja) 2019-03-14 2023-01-10 株式会社リコー 表示装置、表示方法、及び表示システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275450A (ja) * 2004-03-22 2005-10-06 Canon Inc 表示装置及びその制御方法、並びに制御プログラム
JP2011145661A (ja) * 2009-12-18 2011-07-28 Canon Inc 画像表示装置、情報処理装置及びそれらの制御方法、コンピュータプログラム
JP2017040734A (ja) * 2015-08-19 2017-02-23 キヤノン株式会社 表示装置、表示方法及び表示システム
WO2018169095A1 (ja) * 2017-03-17 2018-09-20 富士フイルム株式会社 コレステリック液晶層を有する透明スクリーン、および透明スクリーンシステム
WO2019188046A1 (ja) * 2018-03-26 2019-10-03 富士フイルム株式会社 投影システム、投影制御装置、投影制御方法、投影制御プログラム
JP2020088739A (ja) * 2018-11-29 2020-06-04 株式会社オクテック 表示装置、表示システム、画像表示方法

Also Published As

Publication number Publication date
JP7427804B2 (ja) 2024-02-05
JPWO2022070462A1 (ja) 2022-04-07

Similar Documents

Publication Publication Date Title
EP2127367B1 (en) Multimedia player displaying 2 projection images
CN110650326B (zh) 投影仪和投影仪的控制方法
US20120105816A1 (en) Projection display device and method of controlling the same
JP6809292B2 (ja) プロジェクターおよびプロジェクターの制御方法
CN110650327A (zh) 投影仪和投影仪的控制方法
JP2011227171A (ja) 画像表示システム
JP2012018214A (ja) 投写型映像表示装置
WO2022070462A1 (ja) 制御装置、制御方法、制御プログラム、及び投影システム
US11889238B2 (en) Projection apparatus, projection method, and control program
US20220417481A1 (en) Projection system, projection method, and control program
KR101550606B1 (ko) 차량용 곡면 디스플레이 장치
JP2006054824A (ja) 投射型映像表示装置
JP6415176B2 (ja) 投射型表示装置
JP2009098325A (ja) プロジェクションシステム
US20230007219A1 (en) Projection apparatus, projection method, control device, and control program
JP2006293124A (ja) プロジェクタ
JP7350898B2 (ja) 投影装置、投影方法、及び制御プログラム
WO2022044386A1 (ja) 制御装置、制御方法、制御プログラム、及び投影システム
WO2021171907A1 (ja) 投影装置、投影方法、及び制御プログラム
WO2022107537A1 (ja) 制御装置、制御方法、制御プログラム、及び投影システム
JP2020136909A (ja) 投写画像の調整方法、及び投写装置
WO2022163207A1 (ja) 合焦支援装置、合焦支援方法、及び合焦支援プログラム
WO2023100573A1 (ja) 制御装置、制御方法、及び制御プログラム
US11789567B2 (en) Detection apparatus, detection method, and spatial projection apparatus
WO2023223760A1 (ja) 制御装置、制御方法、制御プログラム、及びシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21874770

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022553442

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21874770

Country of ref document: EP

Kind code of ref document: A1