WO2020031740A1 - 制御装置および制御方法、並びにプログラム - Google Patents

制御装置および制御方法、並びにプログラム Download PDF

Info

Publication number
WO2020031740A1
WO2020031740A1 PCT/JP2019/029363 JP2019029363W WO2020031740A1 WO 2020031740 A1 WO2020031740 A1 WO 2020031740A1 JP 2019029363 W JP2019029363 W JP 2019029363W WO 2020031740 A1 WO2020031740 A1 WO 2020031740A1
Authority
WO
WIPO (PCT)
Prior art keywords
mirror
image
projection
image content
content
Prior art date
Application number
PCT/JP2019/029363
Other languages
English (en)
French (fr)
Inventor
龍一 鈴木
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2020536466A priority Critical patent/JPWO2020031740A1/ja
Priority to US17/250,563 priority patent/US20210302753A1/en
Publication of WO2020031740A1 publication Critical patent/WO2020031740A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/145Housing details, e.g. position adjustments thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/09Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
    • G02B27/0938Using specific optical elements
    • G02B27/0977Reflective elements
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/2066Reflectors in illumination beam
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/28Reflectors in projection beam
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Definitions

  • the present disclosure relates to a control device, a control method, and a program, and more particularly, to a control device, a control method, and a program capable of appropriately projecting an image over a wider range.
  • one of the methods is a method of driving the projector itself.
  • the method of driving the projector itself requires a large-scale facility.
  • Patent Literature 1 discloses a projection device that can project images on a plurality of screens from one projection unit, and separately project a plurality of images to desired display positions by a light guide unit such as a mirror. ing.
  • the present disclosure has been made in view of such a situation, and is intended to appropriately project an image over a wider range.
  • the control device is configured to control the image content based on attitude information indicating an attitude of a mirror configured to be able to reflect at least a part of projection light output by a projection unit that projects the image content.
  • the image processing apparatus further includes a correction processing unit that performs a correction process, and a control unit that controls an output from the projection unit of the image content on which the correction processing has been performed by the correction processing unit.
  • the control method or the program according to an embodiment of the present disclosure may include a method of controlling the image content based on attitude information indicating an attitude of a mirror configured to reflect at least a part of projection light output by a projection unit that projects the image content. Performing a correction process on the image content, and controlling an output of the image content subjected to the correction process from the projection unit.
  • a correction process is performed on image content based on attitude information indicating an attitude of a mirror configured to be able to reflect at least a part of projection light output by a projection unit that projects the image content.
  • the output of the image content subjected to the correction processing from the projection unit is controlled.
  • an image can be appropriately projected over a wider range.
  • FIG. 1 is a diagram illustrating a configuration example of an embodiment of a projection system to which the present technology is applied.
  • FIG. 1 is a diagram illustrating an external configuration of a mirror reflection type projector.
  • FIG. 3 is a diagram illustrating a driving state of a mirror in the mirror reflection type projector.
  • FIG. 2 is a diagram illustrating a housed state of a mirror in a mirror reflection type projector. It is a figure showing the example of installation of a mirror reflection type projector.
  • FIG. 4 is a diagram for describing determination of a projection direction when projecting content.
  • FIG. 6 is a diagram for describing setting of a mirror non-use area.
  • FIG. 9 is a diagram illustrating image processing for combining images straddling a mirror non-use boundary.
  • FIG. 1 is a diagram illustrating an external configuration of a mirror reflection type projector.
  • FIG. 3 is a diagram illustrating a driving state of a mirror in the mirror reflection type projector.
  • FIG. 2 is a block diagram illustrating a functional configuration example of a projection system. It is a flowchart explaining a content output control process.
  • FIG. 3 is a diagram defining a sectional direction of a space with respect to a mirror reflection type projector. It is the figure which picturized the pitch rotation of a mirror.
  • FIG. 4 is a diagram illustrating a relationship between a mirror length of a mirror and a mirror tilt angle. It is a figure showing an example of an image projected without considering the direction of content.
  • FIG. 8 is a diagram illustrating mirror movement and correction processing when an image is projected without considering the orientation of content.
  • FIG. 4 is a diagram illustrating an example of an image projected in consideration of the orientation of content.
  • FIG. 3 is a block diagram illustrating a functional configuration example of a projection system. It is a flowchart explaining a content output control process.
  • FIG. 3 is a diagram defining a sectional direction of a space with respect to a mirror reflection type projector. It
  • FIG. 8 is a diagram illustrating a mirror movement and a correction process when an image is projected in consideration of a content direction.
  • FIG. 2 is a diagram illustrating an external configuration of a driving projector.
  • FIG. 3 is a diagram illustrating an example of an image projected by a driving projector.
  • FIG. 7 is a diagram illustrating movement of a driving mechanism and correction processing when an image is projected by a driving projector.
  • FIG. 21 is a block diagram illustrating a configuration example of an embodiment of a computer to which the present technology is applied.
  • FIG. 1 is a diagram illustrating a configuration example of an embodiment of a projection system to which the present technology is applied.
  • the projection system 11 is configured by connecting a sensor module 12, a mirror reflection type projector 13, and a control processing device 14.
  • the projection system 11 is assumed to be used in a room where a plurality of users are present, and projects an image on an arbitrary projection surface such as a side surface, a top surface, or a floor surface of the room.
  • the sensor module 12 acquires user information on a user who views content using the projection system 11, environment information on an environment in which the projection system 11 is used, and pointing information on pointing using a pointing device. For example, the sensor module 12 acquires, as user information, detection results of one or more users, such as a position, a posture, a face orientation, a field of view, a line of sight, and fingers. In addition, the sensor module 12 projects, as environment information, the shape of the projection surface on which the image is to be projected, the unevenness of the projection surface, the color of the projection surface, an obstacle or an obstruction when projecting the image, and the image. Acquire the detection result such as the illuminance of the environment.
  • the sensor module 12 obtains a pointing position by detecting light with a camera or the like.
  • a device using visible light such as a laser pointer, or a device using invisible light, such as infrared light of a remote controller used for home appliance operation, can be used.
  • a device that detects infrared light emitted from a fixed light source and reflected by the retroreflective material, or a device that estimates the direction using a gyro or acceleration sensor, etc. is used. May be.
  • the mirror reflection type projector 13 is an output device that outputs contents such as moving images and still images.
  • the mirror reflection type projector 13 can drive a mirror 22 as shown in FIG. 2 and project an image on a desired projection surface under the control of the control processing device 14.
  • the control processing device 14 analyzes various kinds of information acquired by the sensor module 12, analyzes the content output by the mirror reflection type projector 13, and controls the content output by the mirror reflection type projector 13. Perform control processing.
  • control processing device 14 calculates a three-dimensional positional relationship between the mirror reflection type projector 13 and the projection surface based on the information acquired by the sensor module 12. Then, the control processing device 14 analyzes how the image projected on the projection plane is visually recognized by the user according to the calculation result, and performs image processing on the image so that the image is appropriately viewed from the user. Let it.
  • control processing device 14 analyzes the attribute of the content and, for example, when a trigger for transmitting the content to the user in some form is activated, the format of the content (for example, a sentence or a moving image) and the target person to be transmitted. It is used for analyzing the positional relationship between the user and the projection surface and the positional relationship between the projection surface and the mirror reflection type projector 13 in consideration of urgency.
  • the control processing device 14 not only determines the most suitable output device for providing the content to the user from among the output devices, but also determines the output device.
  • Output device specific parameters can be optimized at the same time. For example, in the case of the mirror reflection type projector 13, the control processing device 14 determines parameters set in a zoom mechanism, a focus mechanism, and the like for adjusting brightness or size of an image projected by the mirror reflection type projector 13. .
  • the projection system 11 is configured as described above, and the control processing device 14 controls the content output from the mirror reflection type projector 13 so that an image can be appropriately projected over a wider range.
  • the mirror reflection type projector 13 has a configuration in which a mirror 22 is drivably mounted on a projection unit that projects an image from a projector main body 21.
  • the mirror 22 is fixed to the pitch arm 23, and the pitch arm 23 is rotationally driven by the pitch motor 24, whereby the mirror 22 is driven in the pitch direction with respect to the optical axis of the projection unit.
  • the pitch arm 23 and the pitch motor 24 are fixed to the roll arm 25, and the pitch arm 23 and the pitch motor 24 are driven to rotate by the roll motor 26, so that the pitch arm 23 and the pitch motor 24 are rolled with respect to the optical axis of the projection unit.
  • the mirror 22 is driven.
  • the roll arm 25 is configured so as not to block an optical axis for projecting an image from the light source 27 built in the projection unit of the projector main body 21, and is configured to be rotatable around the optical axis as a rotation axis.
  • FIG. 3 shows a state in which the mirror 22 is rotated in the roll direction by driving the roll motor 26 from the state shown in FIG.
  • the pitch arm 23 is configured so that its rotation axis does not intersect with the optical axis for projecting an image from the light source 27.
  • the mirror reflection type projector 13 can be in the housed state in which the mirror 22 is completely folded. That is, the mirror reflection type projector 13 can be used in the same manner as a normal projector that does not reflect an image on the mirror 22 by setting the mirror 22 in the housed state.
  • the mirror reflection type projector 13 is configured as described above, and the pitch motor 24 and the roll motor 26 independently drive the pitch arm 23 and the roll arm 25, respectively, so that the mirror is set to a desired angle and direction. 22 can be rotated. Therefore, the mirror reflection type projector 13 can project an image in a desired direction and direction using the reflection by the mirror 22.
  • a mechanism for projecting an image using reflection by the mirror 22 in this manner is referred to as a mirror reflection mechanism 28 as appropriate.
  • zoom, focus, lens shift, and the like provided as functions of the projector main body 21 may be used for adjustment when the mirror reflection type projector 13 projects content.
  • FIG. 5 shows an installation example of the mirror reflection type projector 13.
  • the mirror reflection type projector 13A is an installation example in which the mirror reflection mechanism 28 is embedded and installed on the floor so that the projection unit of the projector body 21 faces the top surface and the mirror reflection mechanism 28 is exposed from the floor.
  • the mirror reflection type projector 13B is an installation example in which the mirror reflection mechanism 28 is embedded and installed on the top surface such that the mirror reflection mechanism 28 is exposed from the top surface with the projection unit of the projector body 21 facing the floor surface.
  • the mirror reflection type projector 13C is a setting example in which the mirror reflection type projector 13C is installed (so-called general ceiling suspension) so as to be suspended from the top surface such that the optical axis is directed substantially horizontally.
  • the mirror reflection mechanism 28 may be attached to a normal projector, and a configuration like the mirror reflection type projector 13C may be adopted.
  • the mirror reflection type projector 13 can project an image in a desired direction and direction, and the installation of the mirror reflection type projector 13 is limited to an installation example as shown in FIG. never.
  • FIG. 6 is a diagram for explaining the determination of the projection direction when projecting the content.
  • the mirror reflection type projector 13 sends the content from the mirror reflection type projector 13 so that the content is turned upside down so that the user using the projection system 11 can easily see the content. It is desirable to project
  • the control processing device 14 determines the projection direction of the content such that the direction toward the top surface is upward. Thereby, the vertical direction of the content projected on the side surface of the room is not reversed when viewed from a standing user or a sitting user as shown in FIG. Content is properly projected.
  • the control processing device 14 determines the projection direction of the content according to the position of the user, the direction of the face, and the like. For example, when the user is lying on his / her back on the floor, the control processing device 14 determines the projection direction of the content so that the user's head side is above the content in accordance with the posture of the user, and the mirror reflection type The projector 13 appropriately projects the content.
  • the projection direction in projecting the content is determined based on the use environment such as the projection plane for projecting the content and the posture of the user who views the content.
  • FIG. 7 is a diagram illustrating setting of a mirror non-use area when the mirror reflection type projector 13 projects content.
  • a mirror non-use area that does not use the reflection of the mirror 22 is set, and control is performed according to the output position of the content.
  • a mirror non-use area is set on the top surface directly in front of the mirror reflection type projector 13. You.
  • the mirror non-use area is set within a projection range in which the mirror reflection type projector 13 can directly project contents from the projection unit of the projector main body 21 without using the mirror reflection mechanism 28.
  • the mirror non-use area is set according to the specifications (angle of view, zoom ratio, focus, lens shift, etc.) of the mirror reflection type projector 13 and the distance from the mirror reflection type projector 13 to the projection plane.
  • the inside of the mirror non-use boundary indicated by the broken line is the mirror non-use area, and the outside of the mirror non-use boundary is outside the range of the mirror non-use area.
  • a part of the projection range in which content can be directly projected from the projection unit of the projector main body 21 may be set outside the mirror non-use area, and the mirror non-use area may be set narrow.
  • the tilt angle of the mirror 22 approaches perpendicular to the mirror reflection type projector 13, so that the resolution of the image reflected and projected by the mirror 22 on the projection surface decreases.
  • the situation may not be suitable for projecting an image using the mirror 22. Therefore, for example, the user determines whether the area is suitable for projecting the image according to the resolution (fineness) of the projected image, and adjusts the mirror non-use area according to the situation. Is also good.
  • the mirror reflection type projector 13 projects the content
  • the case where the content is projected out of the range of the mirror non-use area the case where the content is projected on the mirror non-use area
  • the case where the content is A case to project occurs.
  • the mirror reflection type projector 13 reflects the content on the mirror 22. Therefore, the mirror reflection type projector 13 needs to perform image processing for correcting the content in consideration of inversion of the content due to reflection of the mirror 22.
  • the content is projected on the right side, the left side, the back side, etc., as in the case of the content projected on each side in FIG.
  • the content is rotated by the reflection of the mirror 22. Therefore, when the content has a vertical direction, as described with reference to FIG. 6, the projection direction of the content is determined, and the content is rotated or inverted so as to be in the vertical direction according to the projection direction. Image processing needs to be performed.
  • the method of driving an image is different from the method of driving the projector itself, and correction processing is performed to absorb the difference.
  • the mirror reflection type projector 13 corrects the content within the original angle of view (for example, a square image is projected obliquely). Image processing that corrects the shape and size so as not to be distorted into a trapezoidal shape.
  • the directions of the content projected on the mirror non-use area and the content projected out of the range of the mirror non-use area are reversed.
  • the projection system 11 divides the part that is inverted and projected by the mirror 22 and the other part so that the original content is obtained when projected over the mirror non-use boundary. It is necessary to perform image processing for combining parts. At this time, image processing for rotating or inverting is performed on a part that is inverted and projected by the mirror 22, and the image processing is not performed on the other part.
  • the image projected by the mirror reflection type projector 13 is divided into an image assigned to direct light not reflected by the mirror 22 and an image assigned to reflected light reflected by the mirror 22. Combined into one image.
  • the image assigned to the direct light not reflected by the mirror 22 and the image assigned to the reflected light reflected by the mirror 22 are appropriately set to be the original images.
  • the image processing is performed so as to be combined with. The combination of those two images will be described later with reference to FIGS.
  • FIG. 9 is a block diagram illustrating a functional configuration example of the projection system 11. Note that, as shown in FIG. 1, the projection system 11 includes a sensor module 12, a mirror reflection type projector 13, and a control processing device 14, and any one of the functional blocks shown in FIG. It should just be prepared as.
  • the projection system 11 includes an input unit 41, a person recognition processing unit 42, an environment recognition processing unit 43, a pointing recognition processing unit 44, an output content tint determination unit 45, an output position determination unit 46, and an output time. / Timing determination unit 47, output content correction processing unit 48, output control unit 49, and output unit 50.
  • the input unit 41 inputs images, information, and the like acquired by various input devices.
  • the input 41 includes a thermo camera 61 for acquiring a heat distribution image, a time-of-flight (TOF) camera 62 for acquiring a distance image, a stereo camera 63 for acquiring a parallax image, and a current attitude of the mirror 22 (for example, in a pitch direction).
  • Encoder 64 for obtaining attitude information indicating the angle of the roll direction
  • a voice input device 65 such as a microphone
  • an inertial measurement device 66 for measuring inertia
  • an RGB camera 67 for obtaining a color image
  • an IR for obtaining an infrared image. It has a camera 68.
  • the person recognition processing unit 42 performs a process for recognizing a user who uses the projection system 11.
  • the human recognition processing unit 42 includes a position detection unit 71 that detects the position of the user, a posture detection unit 72 that detects the posture of the user, a face direction detection unit 73 that detects the face direction of the user, and a user's view and gaze. It has a field-of-sight / line-of-sight detection unit 74 to detect, and a finger detection unit 75 to detect the user's finger.
  • the environment recognition processing unit 43 performs a process for recognizing an environment in which the projection system 11 is used.
  • the environment recognition processing unit 43 includes an illuminance detection unit 81 that detects the illuminance of the environment, a plane detection unit 82 that detects what plane the projection surface is when viewed from the mirror reflection type projector 13, and a projection surface It has a projection surface material / color detection unit 83 that detects the material and color, and a shielding object detection unit 84 that detects whether there is an shielding object.
  • the pointing recognition processing unit 44 performs processing related to recognition of a pointing device used by a user who uses the projection system 11.
  • the pointing recognition processing unit 44 includes a luminescent spot detection unit 91 that detects a luminescent spot of a laser beam output from a pointing device.
  • the output content tint determination unit 45 becomes the original color of the content when the image is projected on the projection surface according to the material and color of the projection surface detected by the projection surface material / color detection unit 83, for example. In this way, the color of the content output by the mirror reflection type projector 13 is determined.
  • the output position determining unit 46 determines an output position at which the mirror reflection type projector 13 outputs the content.
  • the output time / timing determination unit 47 determines the output time at which the mirror reflection type projector 13 outputs the content and the timing at which the content is output.
  • the output content correction processing unit 48 includes information on the current posture of the mirror 22 acquired by the encoder 64, the tint determined by the output content tint determination unit 45, the output position determined by the output position determination unit 46, and According to the output time and the timing determined by the output time / timing determination unit 47, a correction process is performed on the content output by the mirror reflection type projector 13. For example, the output content correction processing unit 48 performs a correction process of rotating or inverting the content so as to be in the vertical direction according to the projection direction. Further, according to the current attitude information of the mirror 22, the output content correction processing unit 48 causes the image assigned to the direct light and the image assigned to the reflected light to be the original images as described above with reference to FIG. Is performed to generate a combined image that is combined so as to be appropriately combined with the image.
  • the output content correction processing unit 48 outputs the projection light (or at least one of the projection lights) output from the mirror reflection type projector 13 in accordance with which projection position the image is projected based on the attitude information of the mirror 22. Part) is reflected by the mirror 22. Similarly, the output content correction processing unit 48 determines that the image projected from the mirror reflection type projector 13 straddles the mirror non-use boundary based on the attitude information of the mirror 22 (that is, a part of the image is reflected by the mirror 22). And whether or not another part of the image is not reflected by the mirror 22).
  • the output control unit 49 controls the output from the mirror reflection type projector 13 so that the content corrected by the output content correction processing unit 48 is appropriately projected.
  • the output control unit 49 performs control to change the attitude of the mirror 22, that is, the angles of the mirror 22 in the pitch direction and the roll direction according to the projection position of the image.
  • the output control unit 49 sets the current In accordance with the posture information, the target posture of the mirror 22 is controlled such that the image assigned to direct light is not reflected by the mirror 22 and the image assigned to reflected light is reflected by the mirror 22.
  • the output unit 50 outputs to the mirror reflection type projector 13.
  • the output unit 50 includes a mirror driving motor 101 for controlling the pitch motor 24 and the roll motor 26 for driving the mirror 22, a projector output device 102 for supplying an image to the mirror reflection type projector 13, and a mirror reflection type projector. 13 has a projector zoom / focus adjustment device 103 for adjusting the zoom and focus.
  • the input unit 41 and the output unit 50 are configured by the above-described various types of hardware, while, for example, the human recognition processing unit 42, the environment recognition processing unit 43, and the pointing recognition processing unit 44 are functioned by firmware. Is realized.
  • the functions of the output content color determination unit 45, the output position determination unit 46, the output time / timing determination unit 47, the output content correction processing unit 48, and the output control unit 49 are realized by an application. That is, the projection system 11 includes one or more circuits such as a CPU (Central Processing Unit) and a DSP (Digital Signal Processor) that execute firmware and applications.
  • a CPU Central Processing Unit
  • DSP Digital Signal Processor
  • the processing is performed for each frame of the image projected from the mirror reflection type projector 13, and in step S11, the human recognition processing unit 42 and the environment recognition processing unit 43 recognize the user and the environment using the projection system 11. Perform the following processing.
  • the projection system 11 can provide environment information necessary for grasping a three-dimensional shape for projecting an image without distortion in the use space, and content information for projecting an image on a floor or a ceiling. Acquires user information and the like necessary to determine the orientation.
  • the human recognition processing unit 42 performs a process for recognizing a user who uses the projection system 11 to detect a position, a posture, a face orientation, a field of view, a line of sight, a finger, and the like of the user, and a result of the detection. Is output.
  • the environment recognition processing unit 43 performs processing for recognizing the environment in which the projection system 11 is used, and determines the illuminance of the environment, what plane the projection plane is, the material and color of the projection plane, and the like. And whether or not there is an obstacle, and outputs environmental information indicating the detection result.
  • step S12 the output position determination unit 46 determines the output position of the content in the indoor space where the projection system 11 is used, that is, the projection position at which the image is projected, based on the environment information acquired in step S11.
  • step S13 according to the output position determined by the output position determination unit 51 in step S12, the output content correction processing unit 48 acquires the content in step S11 when the content has a vertical direction as described above with reference to FIG.
  • the projection direction when outputting the content is determined with reference to the user information and the environment information.
  • step S14 according to the output position of the content determined by the output position determination unit 51 in step S12, the output content correction processing unit 48 determines whether or not the content is projected within the mirror use area where the content is projected by the reflected light using the mirror 22 (see FIG. That is, it is determined whether or not to project an image on the area outside the mirror non-use area described with reference to FIG.
  • step S14 determines in step S14 that the image is to be projected within the range of the mirror use area. That is, in this case, the mirror reflection type projector 13 uses the mirror reflection mechanism 28 to output the content.
  • step S15 the output content correction processing unit 48 considers the use of the mirror reflection mechanism 28 and adjusts the image so that the vertical direction of the content matches the projection direction of the content. Is performed to invert or rotate.
  • step S14 when the output content correction processing unit 48 determines that the image is not projected within the range of the mirror use area, the process proceeds to step S16.
  • step S16 the output content correction processing unit 48 determines whether to project an image across a mirror non-use boundary.
  • step S16 when the output content correction processing unit 48 determines that the image is not projected across the mirror non-use boundary, the process proceeds to step S17. That is, in this case, the mirror reflection type projector 13 projects an image in a mirror non-use area without using the mirror reflection mechanism 28 to output contents.
  • step S17 the output content correction processing unit 48 does not consider the use of the mirror reflection mechanism 28, and outputs the image within the original angle of view of the mirror reflection type projector 13. Is corrected.
  • step S18 when the output content correction processing unit 48 determines that the image is projected across the mirror non-use boundary, the process proceeds to step S18.
  • step S18 the output content correction processing unit 48 performs the correction process of inverting or rotating the image in consideration of the use of the mirror reflection mechanism 28 as described with reference to FIG. Image processing for combining images assigned to direct light and reflected light at the boundary is performed.
  • step S19 the output content correction processing unit 48 performs space mapping correction for correcting an image such that the image is projected without distortion according to the plane of the projection surface viewed from the mirror reflection type projector 13. Do.
  • step S19 the image subjected to the spatial mapping correction in step S19 is output from the projector output device 102 to the mirror reflection type projector 13 under the control of the output control unit 49, and the image is projected on the projection position determined in step S12. Thereafter, the process ends. Then, the same process is repeated for one frame of the next image.
  • an image can be projected in a projection direction according to the user's posture and the like, and an appropriate image considering the use of the mirror reflection mechanism 28 can be obtained. Can be projected over a wide range.
  • the sectional direction of the space with respect to the mirror reflection type projector 13 is defined, and as shown in FIG. 12, the pitch rotation of the mirror 22 is schematically illustrated.
  • the pitch rotation of the mirror 22 is schematically illustrated.
  • the image assigned to the direct light not reflected by the mirror 22 and the reflected light reflected by the mirror 22 are required unless the pitch of the mirror 22 is further rotated. Are no longer combined with the image assigned to (see FIG. 8).
  • the projection system 11 adjusts the size of the space, the length of the mirror 22, the pitch rotation angle of the mirror 22, the relative distance of the pitch rotation axis to the light source 27, the angle of view of the projector main body 21, and the like. Performs image processing such that two images are combined.
  • image processing may be performed such that the two joint images are superimposed little by little and the hue and the gamma curve are adjusted so that the joint becomes inconspicuous. Further, even when the two images cannot be combined, image processing for blurring the vicinity of the boundary between the respective images may be performed so that the gap is not noticeable.
  • the image processing in the content output control processing is different between the case where the content has a vertical direction and the case where the content does not have a vertical direction.
  • FIG. 14 shows an example in which a shooting star image is projected as content having no vertical direction.
  • the output position a is outside the range of the mirror non-use area
  • the output position b straddles the mirror non-use boundary
  • the output position c is the mirror non-use area
  • the output position d straddles the mirror non-use boundary
  • the output position e is the mirror non-use area.
  • the image of a shooting star can project the direction of the content without considering the position of the user.
  • FIG. 15 shows the movement of the mirror reflection mechanism 28 from the output position a to the output position e for outputting the content as shown in FIG. 14, and the steps S13, S14 to S18, and S19 in FIG. Is shown.
  • the mirror reflection mechanism 28 continuously performs the pitch rotation from the output position a to the output position e, and performs the roll rotation only in the section of the output position c. Further, in the section between the output position a and the output position e, since an image using only the reflection of the mirror 22 is projected, a correction process is performed so that the left and right are reversed (step S15 in FIG. 10). On the other hand, in the section at the output position c, since the image is projected without using the mirror 22, a correction process for inverting left and right is not performed (step S17 in FIG. 10).
  • the image is projected so as to straddle the mirror non-use boundary, so that the image corrected so that the left and right are reversed and the image not corrected are combined into one.
  • Image processing (step S18 in FIG. 10) is performed.
  • the two images are combined while gradually shifting from the image assigned to the reflected light reflected by the mirror 22 to the image assigned to the direct light not reflected by the mirror 22.
  • the two images are combined while gradually shifting from an image assigned to direct light not reflected by the mirror 22 to an image assigned to reflected light reflected by the mirror 22.
  • the rotation is preempted so as to perform a roll rotation.
  • FIG. 16 shows an example of projecting a puppy image as content having a vertical direction.
  • FIG. 16 unlike the example described with reference to FIG. 14, shows how the orientation of the content is rotated in accordance with the position of the user. As shown in FIG. 16, a creature or object that has hijacked the laws of physics will feel uncomfortable unless its orientation is changed according to the position of a person.
  • image processing for correcting the direction of the content based on the spatial shape / position of the person that is, processing for determining the projection direction of the content (step S13 in FIG. 10), and rotating the image Is applied.
  • the calculation of the angle in this image processing is obtained by performing an inverse calculation so as to restore the rotation of the image as shown in FIG.
  • step S15, step S17, step S18 in FIG. 10 the correction process unique to the mirror mechanism (step S15, step S17, step S18 in FIG. 10) and the spatial mapping correction (step S19 in FIG. 10) are the same whether the content has a vertical direction or a content without a vertical direction. Done in
  • the correction processing for determining the projection direction when outputting the content based on the user information and the environment information can also be applied to the drive projector 131.
  • FIG. 18 shows the external configuration of the drive projector 131.
  • the drive projector 131 is configured by mounting the projector main body 21 on the tilt mechanism 132 and the pan mechanism 133. Then, the tilt mechanism 132 drives the projector main body 21 in the tilt direction, and the pan mechanism 133 drives the projector main body 21 in the pan direction.
  • FIG. 20 shows an example of image processing when an image is projected by the drive projector 131.
  • step S15 in FIG. 10 a process of rotating an image in consideration of the use of the mirror reflection mechanism 28 in the drive type projector 131 (step S15 in FIG. 10) is not performed. That is, in the drive type projector 131, the roll rotation of the projector main body 21 is performed in the space mapping correction instead of the process of rotating the image.
  • the drive-type projector 131 by effectively utilizing the angle of view of the projector main body 21 and moving the content within the image without rotating by 90 ° in the pitch direction, the expression as if moving upward by 90 ° is obtained. It can be carried out. Thereby, the drive type projector 131 can suppress that the tilt mechanism 132 and the pan mechanism 133 perform sudden braking.
  • the mirror reflection type projector 13 can project an image over a very wide area without blocking the light projected from the projector body 21 by the mirror reflection mechanism 28 itself. Further, as shown in FIG. 4, the mirror reflection type projector 13 can be used in a housed state where the mirror 22 is completely folded.
  • the projection system 11 by combining the image reflected and projected by the mirror 22 and the image projected without being reflected by the mirror 22, the projection system 11 continuously omnidirectionally excludes the occlusion of the projection system 11 itself. To move the image. Further, the present technology can be applied to the drive projector 131 as described with reference to FIGS.
  • the posture information of the mirror 22 includes a systematic target posture (a target posture to be moved) and a current physical posture (the current physical posture acquired by the encoder 64). (The rotation angles of the pitch motor 24 and the roll motor 26).
  • the image includes both a still image and a moving image.
  • control processing method can be performed by hardware or can be performed by software.
  • a program constituting the software is installed in a general-purpose computer or the like.
  • FIG. 21 is a block diagram showing a configuration example of an embodiment of a computer in which a program for executing the above-described series of processes is installed.
  • the program can be recorded in advance on a hard disk 205 or a ROM 203 as a recording medium built in the computer.
  • the program can be stored (recorded) in the removable recording medium 211 driven by the drive 209.
  • a removable recording medium 211 can be provided as so-called package software.
  • examples of the removable recording medium 211 include a flexible disk, a CD-ROM (Compact Disc Only Memory), an MO (Magneto Optical) disc, a DVD (Digital Versatile Disc), a magnetic disc, and a semiconductor memory.
  • the program can be installed on the computer from the removable recording medium 211 as described above, or can be downloaded to the computer via a communication network or a broadcast network and installed on the built-in hard disk 205. That is, for example, the program is wirelessly transferred from a download site to a computer via a satellite for digital satellite broadcasting, or is transmitted to a computer via a network such as a LAN (Local Area Network) or the Internet by wire. be able to.
  • LAN Local Area Network
  • the computer has a built-in CPU (Central Processing Unit) 202, and an input / output interface 210 is connected to the CPU 202 via a bus 201.
  • CPU Central Processing Unit
  • the CPU 202 executes a program stored in a ROM (Read Only Memory) 203 in response to a command input by the user operating the input unit 207 or the like via the input / output interface 210. .
  • the CPU 202 loads a program stored in the hard disk 205 into a RAM (Random Access Memory) 204 and executes the program.
  • the CPU 202 performs the processing according to the above-described flowchart or the processing performed by the configuration of the above-described block diagram. Then, the CPU 202 causes the processing result to be output from the output unit 206 or transmitted from the communication unit 208 via the input / output interface 210 as needed, and further recorded on the hard disk 205, for example.
  • the input unit 207 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 206 includes an LCD (Liquid Crystal Display), a speaker, and the like.
  • the processing performed by the computer according to the program does not necessarily need to be performed in chronological order in the order described in the flowchart. That is, the processing performed by the computer in accordance with the program includes processing executed in parallel or individually (for example, parallel processing or processing by an object).
  • the program may be processed by a single computer (processor) or may be processed in a distributed manner by a plurality of computers. Further, the program may be transferred to a remote computer and executed.
  • a system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network and one device housing a plurality of modules in one housing are all systems. .
  • the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units).
  • the configuration described above as a plurality of devices (or processing units) may be configured as one device (or processing unit).
  • a configuration other than those described above may be added to the configuration of each device (or each processing unit).
  • a part of the configuration of a certain device (or processing unit) may be included in the configuration of another device (or other processing unit).
  • the present technology can take a configuration of cloud computing in which one function is shared by a plurality of devices via a network and processed jointly.
  • the above-described program can be executed in any device.
  • the device only has to have necessary functions (functional blocks and the like) and can obtain necessary information.
  • each step described in the above-described flowchart can be executed by a single device, or can be shared and executed by a plurality of devices.
  • the plurality of processes included in the one step can be executed by one device or can be shared and executed by a plurality of devices.
  • a plurality of processes included in one step can be executed as a plurality of steps.
  • the processing described as a plurality of steps can be collectively executed as one step.
  • the computer-executable program may be configured so that the processing of the steps for describing the program is executed in chronological order according to the order described in this specification, or may be executed in parallel or by calling. It may be executed individually at a necessary timing such as time. That is, as long as no contradiction occurs, the processing of each step may be performed in an order different from the order described above. Further, the processing of the steps for describing the program may be executed in parallel with the processing of another program, or may be executed in combination with the processing of another program.
  • a correction processing unit that performs a correction process on the image content based on attitude information indicating an attitude of a mirror configured to be able to reflect at least a part of the projection light output by the projection unit that projects the image content;
  • a control unit that controls output from the projection unit of the image content that has been subjected to the correction processing by the correction processing unit.
  • the correction processing unit may be configured to perform the correction processing on at least a part of the image content when the posture information indicates that at least a part of projection light for projecting the image content is reflected by the mirror.
  • the correction processing unit may be configured such that the attitude information is obtained by projecting a part of projection light for projecting the image content as reflected light reflected by the mirror, and another part of the projection light being reflected by the mirror.
  • the correction process is performed on an image of a portion assigned to the reflected light in the image content, and a portion assigned to the direct light in the image content.
  • the correction processing unit generates a combined image obtained by combining an image of a portion assigned to the reflected light in the image content and an image of a portion assigned to the direct light in the image content,
  • the control device according to (3) wherein the control unit performs control to output the composite image to the projection unit.
  • the correction processing unit does not perform the correction processing on the image content when the posture information indicates that projection light for projecting the image content is projected as direct light that is not reflected by the mirror.
  • the control device according to the above (4).
  • (6) The control device according to any one of (1) to (5), wherein the correction process is an image process of rotating or inverting the image content.
  • the posture information is information corresponding to a projection position of the image content.
  • the posture information includes information indicating an angle of a pitch direction of the mirror with respect to an optical axis of the projection unit.
  • the posture information includes information indicating an angle of a roll direction of the mirror with respect to an optical axis of the projection unit.
  • the control unit performs control to change a posture of the mirror according to a projection position of the image content.
  • control device (11) The control device according to (10), wherein the control unit performs control to change a posture of the mirror in a pitch direction with respect to an optical axis of the projection unit. (12) The control device according to (10), wherein the control unit performs control to change a posture of the mirror in a roll direction with respect to an optical axis of the projection unit. (13) Any of the above (1) to (11), further comprising, as a use environment in which the projection unit is used, a user who views the image content, and an environment recognition unit that recognizes a projection plane on which the image content is projected.
  • the control device 1.
  • a control processing device that controls the projection of the image content, Performing a correction process on the image content based on attitude information indicating an attitude of a mirror configured to be able to reflect at least a part of projection light output by the projection unit that projects the image content; Controlling the output of the image content subjected to the correction processing from the projection unit.
  • the computer of the control processing device that controls the projection of the image content, Performing a correction process on the image content based on attitude information indicating an attitude of a mirror configured to be able to reflect at least a part of projection light output by the projection unit that projects the image content; Controlling the output of the image content subjected to the correction process from the projection unit.
  • 11 projection system 12 sensor module, 13 mirror reflection type projector, 14 control processing unit, 21 projector body, 22 mirror, 23 pitch arm, 24 pitch motor, 25 roll arm, 26 roll motor 2, 27 light source, 28 mirror reflection mechanism , ⁇ 41 ⁇ input section, ⁇ 42 ⁇ person recognition processing section, ⁇ 43 ⁇ environment recognition processing section, ⁇ 44 ⁇ pointing recognition processing section, ⁇ 45 ⁇ output content tint determination section, ⁇ 46 ⁇ output position determination section, ⁇ 47 ⁇ output time / timing determination section, ⁇ 48 ⁇ output content correction processing , 49 output control unit, 50 output unit, 61 thermo camera, 62 TOF camera, 63 stereo camera, 64 encoder, 65 audio input device, 66 inertial measurement device, 6 RGB camera, ⁇ 68 ⁇ IR camera, ⁇ 71 ⁇ position detector, ⁇ 72 ⁇ attitude detector, ⁇ 73 ⁇ detector, ⁇ 74 ⁇ field of view / line of sight detector, ⁇ 75 ⁇ finger detector, ⁇ 81 ⁇ illuminance detector, ⁇ 82 ⁇ plane detector, ⁇ 83 ⁇ projection surface material / color detection ,

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本開示は、より広範囲に画像を適切に投影することができるようにする制御装置および制御方法、並びにプログラムに関する。 画像コンテンツを投影する投影部が出力する投影光の少なくとも一部を反射可能に構成されたミラーの姿勢を示す姿勢情報に基づいて、画像コンテンツを回転または反転するように補正する画像処理が画像コンテンツに対して施される。そして、その画像処理が施された画像コンテンツを投影部から出力する際に、ミラーのピッチ方向およびロール方向の姿勢が制御される。本技術は、例えば、ミラー反射機構を備えたプロジェクタに適用できる。

Description

制御装置および制御方法、並びにプログラム
 本開示は、制御装置および制御方法、並びにプログラムに関し、特に、より広範囲に画像を適切に投影することができるようにした制御装置および制御方法、並びにプログラムに関する。
 従来、空間内の任意の投影面に画像を投影するために、いくつかの方式が提案されている。例えば、そのうちの一つとして、プロジェクタ自体を駆動する方式があるが、明るい環境や広範囲に画像を投影したい場合にはプロジェクタの輝度を上げる必要があり、プロジェクタが大型化することになる。その結果、プロジェクタ自体を駆動させる方式では、設備が大掛かりとなっていた。
 そこで、プロジェクタの大型化を回避するため、プロジェクタ自体を駆動させずに、ミラーを駆動させることによって画像を空間内の任意の投影面へ反射させる方式が提案されている。しかしながら、ミラーユニット自体の機構の制約やミラー自体が妨げとなってしまう結果、ミラーを駆動させる方式において画像の投影可能な範囲は、プロジェクタ自体を駆動させる方式よりも限定されることになっていた。
 例えば、特許文献1には、1台の投影手段から複数画面の画像を投影し、ミラーなどの導光手段により所望の表示位置に別々に複数の画像を投影することができる投影装置が開示されている。
特開2001-305683号公報
 ところで、上述したような方式を利用して、例えば、室内の側面や天面、床面などの広範囲に画像を投影する際に、画像が適切に投影されていないと認識されることがあり、その改善が求められていた。
 本開示は、このような状況に鑑みてなされたものであり、より広範囲に画像を適切に投影することができるようにするものである。
 本開示の一側面の制御装置は、画像コンテンツを投影する投影部が出力する投影光の少なくとも一部を反射可能に構成されたミラーの姿勢を示す姿勢情報に基づいて、前記画像コンテンツに対して補正処理を施す補正処理部と、前記補正処理部により前記補正処理が施された前記画像コンテンツの前記投影部からの出力を制御する制御部とを備える。
 本開示の一側面の制御方法またはプログラムは、画像コンテンツを投影する投影部が出力する投影光の少なくとも一部を反射可能に構成されたミラーの姿勢を示す姿勢情報に基づいて、前記画像コンテンツに対して補正処理を施すことと、前記補正処理が施された前記画像コンテンツの前記投影部からの出力を制御することとを含む。
 本開示の一側面においては、画像コンテンツを投影する投影部が出力する投影光の少なくとも一部を反射可能に構成されたミラーの姿勢を示す姿勢情報に基づいて、画像コンテンツに対して補正処理が施され、その補正処理が施された画像コンテンツの投影部からの出力が制御される。
 本開示の一側面によれば、より広範囲に画像を適切に投影することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した投影システムの一実施の形態の構成例を示す図である。 ミラー反射型プロジェクタの外観構成を示す図である。 ミラー反射型プロジェクタにおけるミラーの駆動状態を説明する図である。 ミラー反射型プロジェクタにおけるミラーの収納状態を説明する図である。 ミラー反射型プロジェクタの設置例を示す図である。 コンテンツを投影する際の投影向きの決定について説明する図である。 ミラー不使用エリアの設定について説明する図である。 ミラー不使用境界を跨ぐ画像を結合する画像処理について説明する図である。 投影システムの機能的な構成例を示すブロック図である。 コンテンツ出力制御処理を説明するフローチャートである。 ミラー反射型プロジェクタに対する空間の断面方向について定義する図である。 ミラーのピッチ回転を図式化した図である。 ミラーのミラー長とミラーチルト角との関係を示す図である。 コンテンツの向きを考慮せずに投影される画像の一例を示す図である。 コンテンツの向きを考慮せずに画像を投影する場合におけるミラーの動きおよび補正処理について説明する図である。 コンテンツの向きを考慮して投影される画像の一例を示す図である。 コンテンツの向きを考慮して画像を投影する場合におけるミラーの動きおよび補正処理について説明する図である。 駆動型プロジェクタの外観構成を示す図である。 駆動型プロジェクタにより投影される画像の一例を示す図である。 駆動型プロジェクタにより画像を投影する場合における駆動機構の動きおよび補正処理について説明する図である。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
 以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
 <投影システムの構成例>
 図1は、本技術を適用した投影システムの一実施の形態の構成例を示す図である。
 図1に示すように、投影システム11は、センサモジュール12、ミラー反射型プロジェクタ13、および制御処理装置14が接続されて構成される。例えば、投影システム11は、複数人のユーザが居る部屋内での利用が想定され、室内の側面や天面、床面などの任意の投影面に対して画像を投影する。
 センサモジュール12は、投影システム11を利用してコンテンツを視聴するユーザに関するユーザ情報、投影システム11が利用される環境に関する環境情報、および、ポインティングデバイスを利用したポインティングに関するポインティング情報を取得する。例えば、センサモジュール12は、ユーザ情報として、一人または複数人のユーザについて、位置や、姿勢、顔向き、視界、視線、手指などの検出結果を取得する。また、センサモジュール12は、環境情報として、画像を投影する対象となる投影面の形状や、投影面の凹凸、投影面の色、画像を投影する際の障害物または遮蔽物、画像を投影する環境の照度などの検出結果を取得する。
 また、センサモジュール12は、ポインティング情報として、空間内を光で指し示すポインティングデバイスをユーザが利用する場合に、カメラなどにより光を検出することによって、ポインティング位置を取得する。ポインティングデバイスとしては、レーザーポインタなどのように可視光を用いるものや、家電操作に用いるリモートコントローラの赤外線のように不可視光を用いるものなどを使用することができる。また、ポインティングデバイスとして、固定された光源から照射されて再帰性反射材で反射された赤外光を検出する方式のデバイスや、ジャイロまたは加速度センサを用いて方向を推定する方式のデバイスなどを使用してもよい。
 ミラー反射型プロジェクタ13は、動画像や静止画像などのコンテンツを出力する出力装置である。例えば、ミラー反射型プロジェクタ13は、図2に示すようなミラー22を駆動し、制御処理装置14による制御に従って、所望の投影面に画像を投影することができる。
 制御処理装置14は、センサモジュール12により取得された各種の情報の解析、および、ミラー反射型プロジェクタ13により出力されるコンテンツの解析を行い、ミラー反射型プロジェクタ13によるコンテンツの出力を制御するコンテンツ出力制御処理を行う。
 例えば、制御処理装置14は、センサモジュール12により取得された情報に基づいて、ミラー反射型プロジェクタ13と投影面との三次元的な位置関係などを計算する。そして、制御処理装置14は、計算結果に従って、投影面に投影される画像がユーザによりどのように視認されるかなどを解析し、ユーザから適切に見えるようにする画像処理を画像に施して投影させる。
 また、制御処理装置14は、コンテンツの属性を解析して、例えば、何らかの形でコンテンツをユーザに伝えるトリガが発動された際、そのコンテンツのフォーマット(例えば、文章や動画など)や、伝える対象者、緊急性などを踏まえ、ユーザと投影面との位置関係や投影面とミラー反射型プロジェクタ13との位置関係の解析に利用する。
 また、制御処理装置14は、投影システム11が複数の出力装置を備えている場合、それらの出力装置の中から、ユーザにコンテンツを提供するのに最適な出力装置を決定するだけでなく、その出力装置に特有のパラメタも同時に最適化することができる。例えば、ミラー反射型プロジェクタ13の場合は、制御処理装置14は、ミラー反射型プロジェクタ13により投影される画像の明るさまたは大きさを調整するズーム機構やフォーカス機構などに設定されるパラメタを決定する。
 このように投影システム11は構成されており、制御処理装置14がミラー反射型プロジェクタ13から出力されるコンテンツを制御することによって、より広範囲に画像を適切に投影することができる。
 <ミラー反射型プロジェクタの構成例および設置例>
 図2乃至図5を参照して、ミラー反射型プロジェクタ13の構成例および設置例について説明する。
 図2に示すように、ミラー反射型プロジェクタ13は、プロジェクタ本体21から画像を投影する投影部に、ミラー22が駆動可能に装着された構成となっている。ミラー22は、ピッチアーム23に対して固定されており、ピッチアーム23がピッチモータ24によって回転駆動することで、投影部の光軸に対してピッチ方向にミラー22が駆動される。さらに、ピッチアーム23およびピッチモータ24は、ロールアーム25に対して固定されており、ピッチアーム23およびピッチモータ24がロールモータ26によって回転駆動することで、投影部の光軸に対してロール方向にミラー22が駆動される。
 また、ロールアーム25は、プロジェクタ本体21の投影部に内蔵されている光源27から画像を投影する光軸を遮らないように構成され、その光軸を回転軸として回転可能な構成となっている。例えば、図3には、図4に示した状態から、ロールモータ26が駆動することによってミラー22をロール方向に回転させた状態が示されている。
 また、ピッチアーム23は、その回転軸が、光源27から画像を投影する光軸と交差しない構成となっている。これにより、図4に示すように、ミラー反射型プロジェクタ13は、ミラー22を完全に折り畳んだ収納状態とすることができる。つまり、ミラー反射型プロジェクタ13は、ミラー22を収納状態とすることで、ミラー22で画像を反射させない通常のプロジェクタと同様に使用することが可能である。
 このようにミラー反射型プロジェクタ13は構成されており、ピッチモータ24およびロールモータ26が、それぞれ独立してピッチアーム23およびロールアーム25を駆動することで、所望の角度および向きとなるようにミラー22を回転させることができる。従って、ミラー反射型プロジェクタ13は、ミラー22による反射を利用して、所望の方向および向きで、画像を投影することができる。なお、以下適宜、このようにミラー22による反射を利用して画像を投影する機構をミラー反射機構28と称する。
 なお、プロジェクタ本体21の機能として搭載されているズームや、フォーカス、レンズシフトなどを、ミラー反射型プロジェクタ13がコンテンツを投影する際の調整に使用してもよい。
 また、図5には、ミラー反射型プロジェクタ13の設置例が示されている。
 例えば、ミラー反射型プロジェクタ13Aは、プロジェクタ本体21の投影部が天面に向かう姿勢で、ミラー反射機構28が床面から露出するように、床面に埋め込まれて設置される設置例である。また、ミラー反射型プロジェクタ13Bは、プロジェクタ本体21の投影部が床面に向かう姿勢で、ミラー反射機構28が天面から露出するように、天面に埋め込まれて設置される設置例である。
 また、ミラー反射型プロジェクタ13Cは、ほぼ水平方向に光軸が向かうように天面に吊り下げられるように設置(いわゆる一般的な天吊り)される設定例である。なお、通常のプロジェクタにミラー反射機構28を装着して、ミラー反射型プロジェクタ13Cのような構成としてもよい。
 なお、上述したように、ミラー反射型プロジェクタ13は、所望の方向および向きで画像を投影することができ、ミラー反射型プロジェクタ13の設置は、図3に示されるような設置例に限定されることはない。
 <コンテンツの出力制御>
 図6乃至図8を参照して、投影システム11においてコンテンツを出力する際の基本的な制御について説明する。
 図6は、コンテンツを投影する際の投影向きの決定について説明する図である。
 例えば、コンテンツに上下方向がある場合には、投影システム11を利用するユーザから見やすい向きとなるように、例えば、ユーザから見てコンテンツの上下が逆さとならないように、ミラー反射型プロジェクタ13からコンテンツを投影することが望ましい。
 図6のAに示すように、投影面が部屋の側面である場合、制御処理装置14は、天面に向かう方向が上向きとなるように、コンテンツの投影向きを決定する。これにより、部屋の側面に投影されるコンテンツの上下方向は、例えば、図1に示したように立っているユーザや座っているユーザなどから見て逆さとなることなく、ミラー反射型プロジェクタ13によりコンテンツが適切に投影される。
 図6のBに示すように、投影面が部屋の床面または天面である場合、制御処理装置14は、ユーザの位置や顔の向きなどに合わせてコンテンツの投影向きを決定する。例えば、ユーザが床面に仰向けで寝ているとき、制御処理装置14は、そのユーザの姿勢に合わせて、ユーザの頭側がコンテンツの上側となるようにコンテンツの投影向きを決定し、ミラー反射型プロジェクタ13によりコンテンツが適切に投影される。
 このように、投影システム11では、コンテンツを投影する投影面や、コンテンツを見るユーザの姿勢などのような利用環境に基づき、コンテンツを投影する際の投影向きが決定される。
 図7は、ミラー反射型プロジェクタ13がコンテンツを投影する際のミラー不使用エリアの設定について説明する図である。
 例えば、投影システム11では、ミラー反射型プロジェクタ13がコンテンツを投影する際に、ミラー22の反射を使用しないミラー不使用エリアが設定され、コンテンツの出力位置に応じた制御が行われる。
 図7に示すように、投影部が天井に向かう姿勢で、ミラー反射型プロジェクタ13が床面に設置されている場合、ミラー反射型プロジェクタ13の真正面となる天面にミラー不使用エリアが設定される。ミラー不使用エリアは、ミラー反射型プロジェクタ13が、ミラー反射機構28を用いずに、プロジェクタ本体21の投影部から直接的にコンテンツを投影することが可能な投影範囲内に設定される。
 例えば、ミラー不使用エリアは、ミラー反射型プロジェクタ13のスペック(画角や、ズーム比、フォーカス、レンズシフトなど)、および、ミラー反射型プロジェクタ13から投影面までの距離に従って設定される。図7に示す例では、破線で表すミラー不使用境界の内側がミラー不使用エリアとなり、ミラー不使用境界の外側がミラー不使用エリアの範囲外となる。
 なお、プロジェクタ本体21の投影部から直接的にコンテンツを投影することが可能な投影範囲の一部を、ミラー不使用エリアの範囲外として、ミラー不使用エリアを狭く設定してもよい。例えば、ミラー不使用境界の近傍では、ミラー22のチルト角がミラー反射型プロジェクタ13に対して垂直に近づくため、ミラー22により反射されて投影される画像の投影面での解像度が低下してしまい、ミラー22を利用した画像の投影には適した状況とならない可能性がある。そのため、例えば、投影される画像の解像度(細かさ)に応じて、画像の投影に適したエリアであるかどうかをユーザが判断し、その状況に応じてミラー不使用エリアを調整するようにしてもよい。
 ここで、ミラー反射型プロジェクタ13がコンテンツを投影するとき、ミラー不使用エリアの範囲外にコンテンツを投影するケース、ミラー不使用エリアにコンテンツを投影するケース、ミラー不使用境界を跨ぐようにコンテンツを投影するケースが発生する。
 例えば、ミラー不使用エリアの範囲外にコンテンツを投影するケースでは、ミラー反射型プロジェクタ13は、ミラー22でコンテンツを反射させることになる。そのため、ミラー反射型プロジェクタ13は、ミラー22の反射によるコンテンツの反転を考慮して、コンテンツを補正する画像処理を行う必要がある。
 即ち、図7の各側面に投影されているコンテンツのように、正面に対してコンテンツの上下方向が正しくなるような向きのままでは、右側面や、左側面、背面などに投影する際に、ミラー22の反射によってコンテンツが回転してしまう。従って、コンテンツに上下方向がある場合には、図6を参照して説明したように、コンテンツの投影向きを決定して、その投影向きに従った上下方向となるようにコンテンツを回転または反転させる画像処理を施す必要がある。
 このように、ミラーを駆動させる方式では、例えば、プロジェクタ自体を駆動させる方式とは画像の投影のされ方が異なり、その違いを吸収するような補正処理が行われる。
 また、ミラー不使用エリアにコンテンツを投影するケースでは、ミラー反射型プロジェクタ13は、本来の画角内にコンテンツが収まるため、その画角内の補正処理(例えば、正方形の画像が斜めに投影されることで台形に歪んでしまわないように形状やサイズなどを補正する画像処理)を行う。
 例えば、図7に示す天面において、ミラー不使用エリアに投影されるコンテンツと、ミラー不使用エリアの範囲外に投影されるコンテンツとで、それぞれ向きが反転することになる。このように、ミラー22によりコンテンツが反転することを考慮して、ミラー不使用エリアとミラー不使用エリアの範囲外とのうち、いずれか一方のコンテンツを、予め反転させる画像処理を施す必要がある。これにより、ミラー不使用エリアに投影されるコンテンツと、ミラー不使用エリアの範囲外に投影されるコンテンツとの向きを一致させることができる。
 そして、ミラー不使用境界を跨ぐようにコンテンツを投影するケースでは、コンテンツの一部分がミラー22によって反転されて投影される一方で、その他の部分は、そのまま投影されることになる。そのため、投影システム11では、ミラー22によって反転されて投影される一部分と、その他の部分とを分割して、ミラー不使用境界を跨いで投影されたときに元のコンテンツとなるように、それぞれの部分を結合する画像処理を行う必要がある。このとき、ミラー22によって反転されて投影される一部分に対して、回転または反転させる画像処理が施され、その他の部分には、その画像処理は施されない。
 即ち、図8に示すように、ミラー反射型プロジェクタ13が投影する画像は、ミラー22で反射されない直接光に割り当てる画像と、ミラー22で反射される反射光に割り当てる画像とに分けられ、それらが1枚の画像に結合される。このとき、ミラー不使用境界を跨いで投影されたときに、ミラー22で反射されない直接光に割り当てる画像と、ミラー22で反射される反射光に割り当てる画像とが、元の画像となるように適切に結合されるように画像処理が行われる。なお、それらの2つの画像の結合については、図11乃至図13を参照して後述する。
 <投影システムの機能的な構成例>
 図9は、投影システム11の機能的な構成例を示すブロック図である。なお、図1に示したように、投影システム11は、センサモジュール12、ミラー反射型プロジェクタ13、および制御処理装置14を備えて構成されており、図9に示す機能ブロックは、いずれかが機能として備えていればよい。
 図9に示すように、投影システム11は、入力部41、人認識処理部42、環境認識処理部43、ポインティング認識処理部44、出力コンテンツ色味決定部45、出力位置決定部46、出力時間/タイミング決定部47、出力コンテンツ補正処理部48、出力制御部49、および出力部50を備えて構成される。
 入力部41は、各種の入力装置により取得される画像や情報などの入力を行う。例えば、入力41は、熱分布画像を取得するサーモカメラ61、距離画像を取得するTOF(Time of Flight)カメラ62、視差画像を取得するステレオカメラ63、ミラー22の現在の姿勢(例えば、ピッチ方向およびロール方向の角度)を示す姿勢情報を取得するエンコーダ64、マイクロフォンなどの音声入力装置65、慣性を計測する慣性計測装置66、カラー画像を取得するRGBカメラ67、および、赤外線画像を取得するIR(infrared)カメラ68を有している。
 人認識処理部42は、投影システム11を利用するユーザを認識するための処理を行う。例えば、人認識処理部42は、ユーザの位置を検出する位置検出部71、ユーザの姿勢を検出する姿勢検出部72、ユーザの顔向きを検出する顔向き検出部73、ユーザの視界および視線を検出する視界/視線検出部74、および、ユーザの手指を検出する手指検出部75を有している。
 環境認識処理部43は、投影システム11が利用される環境を認識するための処理を行う。例えば、環境認識処理部43は、環境の照度を検出する照度検出部81、ミラー反射型プロジェクタ13から見て投影面がどのような平面になっているかを検出する平面検出部82、投影面の材質および色を検出する投影面材質/色検出部83、および、遮蔽物があるか否かを検出する遮蔽物検出部84を有している。
 ポインティング認識処理部44は、投影システム11を利用するユーザにより使用されるポインティングデバイスの認識に関する処理を行う。例えば、ポインティング認識処理部44は、ポインティングデバイスから出力されるレーザ光の輝点を検出する輝点検出部91を有している。
 出力コンテンツ色味決定部45は、例えば、投影面材質/色検出部83により検出される投影面の材質および色に応じて、投影面に画像が投影されたときにコンテンツの本来の色となるように、ミラー反射型プロジェクタ13が出力するコンテンツに対する色味を決定する。
 出力位置決定部46は、ミラー反射型プロジェクタ13がコンテンツを出力する出力位置を決定する。
 出力時間/タイミング決定部47は、ミラー反射型プロジェクタ13がコンテンツを出力する出力時間、および、コンテンツを出力するタイミングを決定する。
 出力コンテンツ補正処理部48は、エンコーダ64により取得されるミラー22の現在の姿勢情報、出力コンテンツ色味決定部45により決定された色味、出力位置決定部46により決定された出力位置、並びに、出力時間/タイミング決定部47により決定された出力時間およびタイミングに従って、ミラー反射型プロジェクタ13が出力するコンテンツに対する補正処理を行う。例えば、出力コンテンツ補正処理部48は、投影向きに従った上下方向となるようにコンテンツを回転または反転させる補正処理を行う。また、出力コンテンツ補正処理部48は、ミラー22の現在の姿勢情報に従って、図8を参照して上述したように、直接光に割り当てる画像と反射光に割り当てる画像とが、元の画像となるように適切に結合されるように合成した合成画像を生成する補正処理を行う。
 ここで、ミラー22の姿勢情報は画像の投影位置に対応する。従って、出力コンテンツ補正処理部48は、ミラー22の姿勢情報に基づき、どの投影位置に画像が投影されるかに応じて、ミラー反射型プロジェクタ13から出力される投影光(または、投影光の少なくとも一部)がミラー22で反射されるか否かを判断することができる。同様に、出力コンテンツ補正処理部48は、ミラー22の姿勢情報に基づいて、ミラー反射型プロジェクタ13から投影される画像がミラー不使用境界を跨ぐ(即ち、画像の一部がミラー22で反射され、かつ、画像の他の一部がミラー22で反射されない)か否かを判断することができる。
 出力制御部49は、出力コンテンツ補正処理部48により補正処理が施されたコンテンツが、適切に投影されるように、ミラー反射型プロジェクタ13からの出力を制御する。例えば、出力制御部49は、画像の投影位置に応じてミラー22の姿勢、即ち、ミラー22のピッチ方向およびロール方向の角度を変更する制御を行う。さらに、直接光に割り当てる画像と反射光に割り当てる画像とが、元の画像となるように適切に結合されるような補正処理理が行われた場合、出力制御部49は、ミラー22の現在の姿勢情報に従って、直接光に割り当てる画像がミラー22で反射されず、かつ、反射光に割り当てる画像がミラー22で反射されるように、ミラー22の目標姿勢を制御する。
 出力部50は、ミラー反射型プロジェクタ13に対する出力を行う。例えば、出力部50は、ミラー22を駆動するピッチモータ24およびロールモータ26に対する制御を行うミラー駆動用モータ101、ミラー反射型プロジェクタ13に画像を供給するプロジェクタ出力装置102、および、ミラー反射型プロジェクタ13のズームおよびフォーカスを調整するプロジェクタズーム/フォーカス調整装置103を有している。
 なお、入力部41および出力部50は、上述したような各種のハードウェアにより構成される一方、例えば、人認識処理部42、環境認識処理部43、およびポインティング認識処理部44は、ファームウェアにより機能が実現される。また、出力コンテンツ色味決定部45、出力位置決定部46、出力時間/タイミング決定部47、出力コンテンツ補正処理部48、出力制御部49は、アプリケーションにより機能が実現される。即ち、投影システム11は、ファームウェアおよびアプリケーションを実行するCPU(Central Processing Unit)やDSP(Digital Signal Processor)などの1または複数の回路を備えて構成される。
 <コンテンツ出力制御処理>
 図10のフローチャートを参照して、投影システム11において行われるコンテンツ出力制御処理について説明する。
 例えば、ミラー反射型プロジェクタ13から投影される画像の1フレームごとに処理が行われ、ステップS11において、人認識処理部42および環境認識処理部43は、投影システム11を利用するユーザおよび環境を認識する処理を行う。これにより、投影システム11では、利用空間内に歪みなく画像を投影するための3次元的な形状を把握するのに必要な環境情報や、床面や天面に画像を投影する際のコンテンツの向きを決定するために必要なユーザ情報などを取得する。
 例えば、人認識処理部42は、投影システム11を利用するユーザを認識するための処理を行って、ユーザの位置や、姿勢、顔向き、視界、視線、手指などを検出し、それらの検出結果を示すユーザ情報を出力する。また、環境認識処理部43は、投影システム11が利用される環境を認識にするための処理を行って、環境の照度や、投影面がどのような平面であるか、投影面の材質および色、遮蔽物があるか否かなどを検出し、それらの検出結果を示す環境情報を出力する。
 ステップS12において、出力位置決定部46は、ステップS11で取得した環境情報に基づいて、投影システム11が利用される室内空間におけるコンテンツの出力位置、即ち、画像を投影する投影位置を決定する。
 ステップS13において、出力コンテンツ補正処理部48は、ステップS12で出力位置決定部51が決定した出力位置に従って、図6を参照して上述したようにコンテンツに上下方向があるとき、ステップS11で取得したユーザ情報および環境情報を参照してコンテンツを出力する際の投影向きを決定する。
 ステップS14において、出力コンテンツ補正処理部48は、ステップS12で出力位置決定部51が決定したコンテンツの出力位置に従って、ミラー22を使用して反射光によりコンテンツが投影されるミラー使用エリアの範囲内(即ち、図7を参照して説明したミラー不使用エリアの範囲外)に画像を投影するか否かを判定する。
 ステップS14において、出力位置決定部51が、ミラー使用エリアの範囲内に画像を投影すると判定した場合、処理はステップS15に進む。即ち、この場合、ミラー反射型プロジェクタ13は、コンテンツを出力するのにミラー反射機構28を使用することになる。
 ステップS15において、出力コンテンツ補正処理部48は、上述の図7を参照して説明したように、ミラー反射機構28の使用を考慮し、コンテンツに上下方向がコンテンツの投影向きに合うように、画像を反転または回転させる補正処理を行う。
 一方、ステップS14において、出力コンテンツ補正処理部48が、ミラー使用エリアの範囲内に画像を投影しないと判定した場合、処理はステップS16に進む。ステップS16において、出力コンテンツ補正処理部48は、ミラー不使用境界を跨いで画像を投影するか否かを判定する。
 ステップS16において、出力コンテンツ補正処理部48が、ミラー不使用境界を跨いで画像を投影しないと判定した場合、処理はステップS17に進む。即ち、この場合、ミラー反射型プロジェクタ13は、コンテンツを出力するのにミラー反射機構28を使用せずに、ミラー不使用エリア内に画像を投影することになる。
 ステップS17において、出力コンテンツ補正処理部48は、上述の図7を参照して説明したように、ミラー反射機構28の使用を考慮せずに、ミラー反射型プロジェクタ13の本来の画角内で画像に対する補正処理を行う。
 一方、出力コンテンツ補正処理部48が、ミラー不使用境界を跨いで画像を投影すると判定した場合、処理はステップS18に進む。
 ステップS18において、出力コンテンツ補正処理部48は、上述の図8を参照して説明したように、ミラー反射機構28の使用を考慮して画像を反転または回転させる補正処理を行うとともに、ミラー22の境界で直接光と反射光とに割り当てた画像を結合する画像処理を行う。
 そして、ステップS15、ステップS17、またはステップS18の処理後、処理はステップS19に進む。ステップS19において、出力コンテンツ補正処理部48は、ミラー反射型プロジェクタ13から見て投影面がどのような平面になっているかに従って、空間に歪みなく投影されるように画像を補正する空間マッピング補正を行う。
 その後、ステップS19で空間マッピング補正が行われた画像が、出力制御部49による制御に従ってプロジェクタ出力装置102からミラー反射型プロジェクタ13に出力され、ステップS12で決定された投影位置に画像が投影された後、処理は終了される。そして、次の画像の1フレームを対象として、以下、同様の処理が繰り返される。
 以上のように、投影システム11においてコンテンツ出力制御処理を実行することで、ユーザの姿勢などに応じた投影向きで画像を投影することができるとともに、ミラー反射機構28の使用を考慮した適切な画像を広範囲に投影することができる。
 <コンテンツ出力制御処理における画像処理>
 図11乃至図17を参照して、コンテンツ出力制御処理において行われる画像処理について説明する。
 まず、図11に示すように、ミラー反射型プロジェクタ13に対する空間の断面方向について定義し、図12に示すように、ミラー22のピッチ回転を図式化する。この場合、図13に示すように、ミラー22の長さを狭めると、ミラー22のピッチを更に回転させなければ、ミラー22で反射されない直接光に割り当てる画像と、ミラー22で反射される反射光に割り当てる画像(図8参照)との、2つの画像は結合されなくなる。
 即ち、図13において、2つの画像が結合されるミラー長およびミラーチルト角の組み合わせの条件には「OK」が示されている。一方、2つの画像が結合されないミラー長およびミラーチルト角の組み合わせの条件には「NG」が示されている。
 従って、投影システム11では、空間の広さや、ミラー22の長さ、ミラー22のピッチ回転角度、ピッチ回転軸の光源27に対する相対距離、プロジェクタ本体21の画角などを調整することで、空間内で2つの画像が結合されるような画像処理が行われる。
 なお、2つの画像のつなぎ目を目立たなくさせるために、両方の画像を少しずつ重ね合わせて、色味やガンマカーブなどを調整することで、つなぎ目が目立たなくなるような画像処理を行ってもよい。また、2つの画像を結合させることができない場合でも、それぞれの画像の境界付近をぼかす画像処理を行って、そのギャップが目立たなくするようにしてもよい。
 ここで、ユーザがコンテンツを見る際の姿勢などに従って、コンテンツに上下方向がある場合には、コンテンツの投影向きを考慮する必要があり、コンテンツに上下方向がない場合には、コンテンツの投影向きを考慮する必要はない。そして、コンテンツに上下方向がある場合と、コンテンツに上下方向がない場合とではコンテンツ出力制御処理における画像処理が異なるものとなる。
 まず、図14および図15を参照して、コンテンツに上下方向がない場合における画像処理について説明し、次に、図16および図17を参照して、コンテンツに上下方向がある場合における画像処理について説明する。
 図14には、上下方向がないコンテンツとして、流れ星の画像を投影する例が示されている。
 例えば、図14に示す出力位置aから出力位置eまで連続的にコンテンツを出力する例について説明する。例えば、出力位置aは、ミラー不使用エリアの範囲外とであり、出力位置bは、ミラー不使用境界を跨ぎ、出力位置cは、ミラー不使用エリアである。また、出力位置dは、ミラー不使用境界を跨ぎ、出力位置eは、ミラー不使用エリアである。
 そして、図14に示すように、ユーザが、ミラー反射型プロジェクタ13の右側に立っている場合、ユーザから見て右側の側面の出力位置aから、天面の出力位置cを通り、左側の側面の出力位置dへコンテンツが遷移する。ここで、流れ星の画像は、コンテンツの方向をユーザの位置を考慮することなく投影することができる。
 そして、図15には、図14に示したようにコンテンツを出力する出力位置aから出力位置eまでの、ミラー反射機構28の動きと、図10のステップS13、ステップS14乃至S18、およびステップS19の処理内容の一例が示されている。
 図15に示すように、ミラー反射機構28は、出力位置aから出力位置eまで、ピッチ回転を連続して行い、その際、出力位置cの区間のみロール回転を行うことになる。また、出力位置aおよび出力位置eの区間では、ミラー22の反射のみを用いた画像が投影されるため、左右を反転するように補正処理が施される(図10のステップS15)。一方で、出力位置cの区間では、ミラー22を用いずに画像が投影されるため、左右を反転するような補正処理は施されない(図10のステップS17)。
 また、出力位置bおよび出力位置dの区間では、ミラー不使用境界を跨ぐように投影されるため、左右を反転するように補正した画像と、その補正を行わない画像とを1つに結合する画像処理(図10のステップS18)が行われる。そして、出力位置bの区間では、ミラー22で反射される反射光に割り当てられる画像から、ミラー22で反射されない直接光に割り当てる画像へ徐々に移行させながら2つの画像が結合される。また、出力位置dの区間では、その逆に、ミラー22で反射されない直接光に割り当てる画像からミラー22で反射される反射光に割り当てる画像へ徐々に移行させながら2つの画像が結合される。さらに、連動するように、使用していないミラー22を次の投影面に使用するために、ロール回転を行うように先回りされている。
 図16には、上下方向があるコンテンツとして、子犬の画像を投影する例が示されている。
 図16には、図14で説明した例と異なり、コンテンツの向きをユーザの位置に合わせて回転させた見え方が示されている。図16に示すように、物理法則に乗っ取った生物や物などは人の位置に応じてその向きを変えなければ違和感が生じる。
 そこで、図17に示すように、空間形状/人の位置に基づくコンテンツの方向の補正、即ち、コンテンツの投影向きを決定する処理(図10のステップS13)を行って、画像を回転させる画像処理が施される。この画像処理における角度の算出は、図7に示したような画像の回転を元に戻すように逆算することで求められる。
 なお、ミラー機構特有の補正処理(図10のステップS15、ステップS17、ステップS18)、および、空間マッピング補正(図10のステップS19)は、上下方向があるコンテンツでも、上下方向がないコンテンツでも同様に行われる。
 <駆動型プロジェクタな構成例>
 図18乃至図20を参照して、プロジェクタ本体21を駆動する駆動型プロジェクタ131について説明する。
 上述したような、ユーザ情報および環境情報に基づいてコンテンツを出力する際の投影向きを決定する補正処理(図10のステップS13)や、空間に歪みなく投影するように画像を補正する空間マッピング補正を行う補正処理(図10のステップS13)は、駆動型プロジェクタ131にも適用することができる。
 図18には、駆動型プロジェクタ131の外観構成が示されている。
 図18に示すように、駆動型プロジェクタ131は、チルト機構132およびパン機構133にプロジェクタ本体21が搭載されて構成される。そして、チルト機構132がプロジェクタ本体21をチルト方向に駆動し、パン機構133がプロジェクタ本体21をパン方向に駆動する。
 このような構成の駆動型プロジェクタ131においても、図19に示すように、上述したミラー反射型プロジェクタ13と同様の軌跡で、出力位置aから出力位置eへと画像を移動させながら投影することができる。
 図20には、駆動型プロジェクタ131による画像の投影時における画像処理の例が示されている。
 駆動型プロジェクタ131では、プロジェクタ本体21が駆動するため、駆動型プロジェクタ131でのミラー反射機構28の使用を考慮して画像を回転する処理(図10のステップS15)などは行われない。即ち、駆動型プロジェクタ131では、画像を回転する処理に替えて、空間マッピング補正において、プロジェクタ本体21のロール回転が行われる。
 例えば、駆動型プロジェクタ131では、プロジェクタ本体21の画角を有効活用し、ピッチ方向に90°回らずにコンテンツを画像内で移動させることで、あたかも90°上まで移動しているような表現を行うことができる。これにより、駆動型プロジェクタ131は、チルト機構132およびパン機構133が急制動を行うことを抑制することができる。
 以上のように構成される投影システム11において、ミラー反射型プロジェクタ13は、ミラー反射機構28自体によってプロジェクタ本体21から投影される光が遮られることなく、非常に広範囲に画像を投影することができる。また、図4に示したように、ミラー反射型プロジェクタ13は、ミラー22を完全に折り畳んだ収納状態での使用も可能である。
 また、投影システム11では、ミラー22によって反射されて投影される画像と、ミラー22によって反射されずに投影される画像とを結合することにより、投影システム11自身のオクルージョンを除いた全方位へ連続して画像を移動させることができる。さらに、本技術は、図18乃至図20を参照して説明したように、駆動型プロジェクタ131にも適用することができる。
 なお、本実施の形態において、ミラー22の姿勢情報には、システム的な目標姿勢(これから動かそうとする目標となる姿勢)の値と、現在の物理的な姿勢(エンコーダ64により取得された現在のピッチモータ24およびロールモータ26の回転角)の値との、両方の値が含まれる。また、画像は、静止画像および動画像の両方を含むものである。
 <コンピュータの構成例>
 次に、上述した一連の処理(制御処理方法)は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
 図21は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示すブロック図である。
 プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク205やROM203に予め記録しておくことができる。
 あるいはまた、プログラムは、ドライブ209によって駆動されるリムーバブル記録媒体211に格納(記録)しておくことができる。このようなリムーバブル記録媒体211は、いわゆるパッケージソフトウェアとして提供することができる。ここで、リムーバブル記録媒体211としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
 なお、プログラムは、上述したようなリムーバブル記録媒体211からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク205にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
 コンピュータは、CPU(Central Processing Unit)202を内蔵しており、CPU202には、バス201を介して、入出力インタフェース210が接続されている。
 CPU202は、入出力インタフェース210を介して、ユーザによって、入力部207が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)203に格納されているプログラムを実行する。あるいは、CPU202は、ハードディスク205に格納されたプログラムを、RAM(Random Access Memory)204にロードして実行する。
 これにより、CPU202は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU202は、その処理結果を、必要に応じて、例えば、入出力インタフェース210を介して、出力部206から出力、あるいは、通信部208から送信、さらには、ハードディスク205に記録等させる。
 なお、入力部207は、キーボードや、マウス、マイク等で構成される。また、出力部206は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
 ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
 また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
 さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
 また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
 また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
 なお、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
 なお、本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
 <構成の組み合わせ例>
 なお、本技術は以下のような構成も取ることができる。
(1)
 画像コンテンツを投影する投影部が出力する投影光の少なくとも一部を反射可能に構成されたミラーの姿勢を示す姿勢情報に基づいて、前記画像コンテンツに対して補正処理を施す補正処理部と、
 前記補正処理部により前記補正処理が施された前記画像コンテンツの前記投影部からの出力を制御する制御部と
 を備える制御装置。
(2)
 前記補正処理部は、前記姿勢情報が、前記画像コンテンツを投影するための投影光の少なくとも一部が前記ミラーで反射されることを示す場合、前記画像コンテンツの少なくとも一部に対して前記補正処理を施す
 上記(1)に記載の制御装置。
(3)
 前記補正処理部は、前記姿勢情報が、前記画像コンテンツを投影するための投影光の一部が前記ミラーで反射される反射光として投影され、かつ、前記投影光の他の一部が前記ミラーで反射されない直接光として投影されることを示す場合、前記画像コンテンツのうち前記反射光に割り当てられる部分の画像に対しては前記補正処理を行い、前記画像コンテンツのうち前記直接光に割り当てられる部分の画像に対しては前記補正処理を行わない
 上記(2)に記載の制御装置。
(4)
 前記補正処理部は、前記画像コンテンツのうち前記反射光に割り当てられる部分の画像と、前記画像コンテンツのうち前記直接光に割り当てられる部分の画像とを合成した合成画像を生成し、
 前記制御部は、前記合成画像を前記投影部に出力させる制御を行う
 上記(3)に記載の制御装置。
(5)
 前記補正処理部は、前記姿勢情報が、前記画像コンテンツを投影するための投影光が前記ミラーで反射されない直接光として投影されることを示す場合、前記画像コンテンツに対して前記補正処理を行なわない
 上記(4)に記載の制御装置。
(6)
 前記補正処理は、前記画像コンテンツを回転または反転する画像処理である
 上記(1)から(5)までのいずれかに記載の制御装置。
(7)
 前記姿勢情報は、前記画像コンテンツの投影位置に対応する情報である
 上記(1)から(6)までのいずれかに記載の制御装置。
(8)
 前記姿勢情報は、前記投影部の光軸に対する前記ミラーのピッチ方向の角度を示す情報を含む
 上記(7)に記載の制御装置。
(9)
 前記姿勢情報は、前記投影部の光軸に対する前記ミラーのロール方向の角度を示す情報を含む
 上記(7)に記載の制御装置。
(10)
 前記制御部は、前記画像コンテンツの投影位置に応じて、前記ミラーの姿勢を変更する制御を行う
 上記(1)から(9)までのいずれかに記載の制御装置。
(11)
 前記制御部は、前記投影部の光軸に対してピッチ方向に、前記ミラーの姿勢を変更する制御を行う
 上記(10)に記載の制御装置。
(12)
 前記制御部は、前記投影部の光軸に対してロール方向に、前記ミラーの姿勢を変更する制御を行う
 上記(10)に記載の制御装置。
(13)
 前記投影部が利用される利用環境として、前記画像コンテンツを視聴するユーザ、および、前記画像コンテンツを投影する投影面を認識する環境認識部
 をさらに備える上記(1)から(11)までのいずれかに記載の制御装置。
(14)
 画像コンテンツの投影を制御する制御処理装置が、
 前記画像コンテンツを投影する投影部が出力する投影光の少なくとも一部を反射可能に構成されたミラーの姿勢を示す姿勢情報に基づいて、前記画像コンテンツに対して補正処理を施すことと、
 前記補正処理が施された前記画像コンテンツの前記投影部からの出力を制御することと
 を含む制御方法。
(15)
 画像コンテンツの投影を制御する制御処理装置のコンピュータに、
 前記画像コンテンツを投影する投影部が出力する投影光の少なくとも一部を反射可能に構成されたミラーの姿勢を示す姿勢情報に基づいて、前記画像コンテンツに対して補正処理を施すことと、
 前記補正処理が施された前記画像コンテンツの前記投影部からの出力を制御することと
 を含む処理を実行させるためのプログラム。
 なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 11 投影システム, 12 センサモジュール, 13 ミラー反射型プロジェクタ, 14 制御処理装置, 21 プロジェクタ本体, 22 ミラー, 23 ピッチアーム, 24 ピッチモータ, 25 ロールアーム, 26 ロールモータ2, 27 光源, 28 ミラー反射機構, 41 入力部, 42 人認識処理部, 43 環境認識処理部, 44 ポインティング認識処理部, 45 出力コンテンツ色味決定部, 46 出力位置決定部, 47 出力時間/タイミング決定部, 48 出力コンテンツ補正処理部, 49 出力制御部, 50 出力部, 61 サーモカメラ, 62 TOFカメラ, 63 ステレオカメラ, 64 エンコーダ, 65 音声入力装置, 66 慣性計測装置, 67 RGBカメラ, 68 IRカメラ, 71 位置検出部, 72 姿勢検出部, 73 検出部, 74 視界/視線検出部, 75 手指検出部, 81 照度検出部, 82 平面検出部, 83 投影面材質/色検出部, 84 遮蔽物検出部, 91 輝点検出部, 101 ミラー駆動用モータ, 102 プロジェクタ出力装置, 103 プロジェクタズーム/フォーカス調整装置

Claims (15)

  1.  画像コンテンツを投影する投影部が出力する投影光の少なくとも一部を反射可能に構成されたミラーの姿勢を示す姿勢情報に基づいて、前記画像コンテンツに対して補正処理を施す補正処理部と、
     前記補正処理部により前記補正処理が施された前記画像コンテンツの前記投影部からの出力を制御する制御部と
     を備える制御装置。
  2.  前記補正処理部は、前記姿勢情報が、前記画像コンテンツを投影するための投影光の少なくとも一部が前記ミラーで反射されることを示す場合、前記画像コンテンツの少なくとも一部に対して前記補正処理を施す
     請求項1に記載の制御装置。
  3.  前記補正処理部は、前記姿勢情報が、前記画像コンテンツを投影するための投影光の一部が前記ミラーで反射される反射光として投影され、かつ、前記投影光の他の一部が前記ミラーで反射されない直接光として投影されることを示す場合、前記画像コンテンツのうち前記反射光に割り当てられる部分の画像に対しては前記補正処理を行い、前記画像コンテンツのうち前記直接光に割り当てられる部分の画像に対しては前記補正処理を行わない
     請求項2に記載の制御装置。
  4.  前記補正処理部は、前記画像コンテンツのうち前記反射光に割り当てられる部分の画像と、前記画像コンテンツのうち前記直接光に割り当てられる部分の画像とを合成した合成画像を生成し、
     前記制御部は、前記合成画像を前記投影部に出力させる制御を行う
     請求項3に記載の制御装置。
  5.  前記補正処理部は、前記姿勢情報が、前記画像コンテンツを投影するための投影光が前記ミラーで反射されない直接光として投影されることを示す場合、前記画像コンテンツに対して前記補正処理を行なわない
     請求項4に記載の制御装置。
  6.  前記補正処理は、前記画像コンテンツを回転または反転する画像処理である
     請求項4に記載の制御装置。
  7.  前記姿勢情報は、前記画像コンテンツの投影位置に対応する情報である
     請求項1に記載の制御装置。
  8.  前記姿勢情報は、前記投影部の光軸に対する前記ミラーのピッチ方向の角度を示す情報を含む
     請求項7に記載の制御装置。
  9.  前記姿勢情報は、前記投影部の光軸に対する前記ミラーのロール方向の角度を示す情報を含む
     請求項7に記載の制御装置。
  10.  前記制御部は、前記画像コンテンツの投影位置に応じて、前記ミラーの姿勢を変更する制御を行う
     請求項1に記載の制御装置。
  11.  前記制御部は、前記投影部の光軸に対してピッチ方向に、前記ミラーの姿勢を変更する制御を行う
     請求項10に記載の制御装置。
  12.  前記制御部は、前記投影部の光軸に対してロール方向に、前記ミラーの姿勢を変更する制御を行う
     請求項10に記載の制御装置。
  13.  前記投影部が利用される利用環境として、前記画像コンテンツを視聴するユーザ、および、前記画像コンテンツを投影する投影面を認識する環境認識部
     をさらに備える請求項1に記載の制御装置。
  14.  画像コンテンツの投影を制御する制御処理装置が、
     前記画像コンテンツを投影する投影部が出力する投影光の少なくとも一部を反射可能に構成されたミラーの姿勢を示す姿勢情報に基づいて、前記画像コンテンツに対して補正処理を施すことと、
     前記補正処理が施された前記画像コンテンツの前記投影部からの出力を制御することと
     を含む制御方法。
  15.  画像コンテンツの投影を制御する制御処理装置のコンピュータに、
     前記画像コンテンツを投影する投影部が出力する投影光の少なくとも一部を反射可能に構成されたミラーの姿勢を示す姿勢情報に基づいて、前記画像コンテンツに対して補正処理を施すことと、
     前記補正処理が施された前記画像コンテンツの前記投影部からの出力を制御することと
     を含む処理を実行させるためのプログラム。
PCT/JP2019/029363 2018-08-10 2019-07-26 制御装置および制御方法、並びにプログラム WO2020031740A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020536466A JPWO2020031740A1 (ja) 2018-08-10 2019-07-26 制御装置および制御方法、並びにプログラム
US17/250,563 US20210302753A1 (en) 2018-08-10 2019-07-26 Control apparatus, control method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-151532 2018-08-10
JP2018151532 2018-08-10

Publications (1)

Publication Number Publication Date
WO2020031740A1 true WO2020031740A1 (ja) 2020-02-13

Family

ID=69415243

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/029363 WO2020031740A1 (ja) 2018-08-10 2019-07-26 制御装置および制御方法、並びにプログラム

Country Status (3)

Country Link
US (1) US20210302753A1 (ja)
JP (1) JPWO2020031740A1 (ja)
WO (1) WO2020031740A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112349309A (zh) * 2020-11-05 2021-02-09 杭州职业技术学院 一种数字媒体播放装置用的防护装置
CN113075851A (zh) * 2021-04-02 2021-07-06 江苏吉祥星智能科技有限公司 悬挂式投影装置及其控制方法及可读存储介质
CN115834847A (zh) * 2021-09-17 2023-03-21 卡西欧计算机株式会社 投影系统、投影方法以及记录介质
JP2023044611A (ja) * 2021-09-17 2023-03-30 カシオ計算機株式会社 投影システム、投影方法及びプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6621899B1 (ja) * 2018-11-13 2019-12-18 富士フイルム株式会社 投射装置
WO2020255286A1 (ja) * 2019-06-19 2020-12-24 三菱電機株式会社 ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法
CN110519577B (zh) * 2019-08-09 2021-04-23 广景视睿科技(深圳)有限公司 一种投影装置
CN114127630A (zh) * 2021-08-25 2022-03-01 广景视睿科技(深圳)有限公司 一种投影装置
CN114173103A (zh) * 2021-12-08 2022-03-11 沂普光电(天津)有限公司 一种投影系统辅助装调装置与方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112094A (ja) * 2000-09-26 2002-04-12 Nec Corp パノラマプロジェクタ装置およびパノラマ撮影装置
JP2006195318A (ja) * 2005-01-17 2006-07-27 Seiko Epson Corp プロジェクタ
JP2007086545A (ja) * 2005-09-22 2007-04-05 Matsushita Electric Works Ltd 情報提示システム
JP2007288295A (ja) * 2006-04-13 2007-11-01 Nippon Telegr & Teleph Corp <Ntt> 観察位置追従式映像提示装置及び観察位置追従式映像提示プログラム,映像提示装置及び映像提示プログラム
WO2016117540A1 (ja) * 2015-01-23 2016-07-28 三菱電機株式会社 レーザ光源装置および映像表示装置
JP2018091955A (ja) * 2016-12-01 2018-06-14 株式会社ネットアプリ ディスプレイシステム、映像コミュニケーションシステム及び位置座標検出方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7686458B2 (en) * 2004-08-18 2010-03-30 Mitsubishi Electric Corporation Supporting mechanism of reflector and projection apparatus
JP5907404B2 (ja) * 2011-03-15 2016-04-26 株式会社リコー 画像投影装置
US20190369382A1 (en) * 2018-06-01 2019-12-05 E-Lead Electronic Co., Ltd. Magnifying display screen device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112094A (ja) * 2000-09-26 2002-04-12 Nec Corp パノラマプロジェクタ装置およびパノラマ撮影装置
JP2006195318A (ja) * 2005-01-17 2006-07-27 Seiko Epson Corp プロジェクタ
JP2007086545A (ja) * 2005-09-22 2007-04-05 Matsushita Electric Works Ltd 情報提示システム
JP2007288295A (ja) * 2006-04-13 2007-11-01 Nippon Telegr & Teleph Corp <Ntt> 観察位置追従式映像提示装置及び観察位置追従式映像提示プログラム,映像提示装置及び映像提示プログラム
WO2016117540A1 (ja) * 2015-01-23 2016-07-28 三菱電機株式会社 レーザ光源装置および映像表示装置
JP2018091955A (ja) * 2016-12-01 2018-06-14 株式会社ネットアプリ ディスプレイシステム、映像コミュニケーションシステム及び位置座標検出方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112349309A (zh) * 2020-11-05 2021-02-09 杭州职业技术学院 一种数字媒体播放装置用的防护装置
CN113075851A (zh) * 2021-04-02 2021-07-06 江苏吉祥星智能科技有限公司 悬挂式投影装置及其控制方法及可读存储介质
CN113075851B (zh) * 2021-04-02 2022-07-19 深圳吉祥星科技股份有限公司 悬挂式投影装置及其控制方法及可读存储介质
CN115834847A (zh) * 2021-09-17 2023-03-21 卡西欧计算机株式会社 投影系统、投影方法以及记录介质
JP2023044611A (ja) * 2021-09-17 2023-03-30 カシオ計算機株式会社 投影システム、投影方法及びプログラム
JP7501558B2 (ja) 2021-09-17 2024-06-18 カシオ計算機株式会社 投影システム、投影方法及びプログラム

Also Published As

Publication number Publication date
US20210302753A1 (en) 2021-09-30
JPWO2020031740A1 (ja) 2021-09-09

Similar Documents

Publication Publication Date Title
WO2020031740A1 (ja) 制御装置および制御方法、並びにプログラム
US10999565B2 (en) Projecting device
US10122976B2 (en) Projection device for controlling a position of an image projected on a projection surface
WO2017154610A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
CN109644532B (zh) 光输出定位
US20160249027A1 (en) Automatic keystone correction in an automated luminaire
US9348211B2 (en) Camera module and portable device using the same
US20160188028A1 (en) User interface device, and projector device
WO2018221209A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
WO2019095210A1 (zh) 智能眼镜及其控制云台的方法、云台、控制方法和无人机
JP7052719B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
US11269250B2 (en) Information processing apparatus, information processing method, and program
WO2016185420A2 (en) Special environment projection system
JP2001305651A (ja) 投影装置
JP6146038B2 (ja) 投射装置および投射方法
US20150156447A1 (en) Curved display apparatus for vehicle
JP6307706B2 (ja) 投影装置
JP2019140530A (ja) サーバ装置、表示装置、映像表示システム、及び映像表示方法
WO2023153220A1 (ja) 情報処理装置及び情報処理方法
TWI683135B (zh) 頭戴型顯示裝置及用於其之調整方法
WO2021256423A1 (ja) 映像投射方法および映像投射システム
US20210065656A1 (en) Control method, detection device, and display device
JP2020020986A (ja) プロジェクター、投射システム、及び、投射方法
WO2015137341A1 (ja) 投光装置、及び、投光方法
KR20240045044A (ko) 프로젝션 장치 및 그 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19846083

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020536466

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19846083

Country of ref document: EP

Kind code of ref document: A1