WO2016157805A1 - プロジェクター、及び、プロジェクターの制御方法 - Google Patents

プロジェクター、及び、プロジェクターの制御方法 Download PDF

Info

Publication number
WO2016157805A1
WO2016157805A1 PCT/JP2016/001604 JP2016001604W WO2016157805A1 WO 2016157805 A1 WO2016157805 A1 WO 2016157805A1 JP 2016001604 W JP2016001604 W JP 2016001604W WO 2016157805 A1 WO2016157805 A1 WO 2016157805A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
main body
imaging
projection
image
Prior art date
Application number
PCT/JP2016/001604
Other languages
English (en)
French (fr)
Inventor
春日 博文
Original Assignee
セイコーエプソン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by セイコーエプソン株式会社 filed Critical セイコーエプソン株式会社
Priority to CN201680012996.5A priority Critical patent/CN107430321B/zh
Priority to US15/560,309 priority patent/US10469815B2/en
Publication of WO2016157805A1 publication Critical patent/WO2016157805A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/145Housing details, e.g. position adjustments thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Definitions

  • the present invention relates to a projector that projects an image and a projector control method.
  • Patent Literature 1 detects the rotation amounts of the horizontal rotation and the vertical rotation of the optical axis by angle sensors.
  • an angle sensor is used for each axis for moving the projector.
  • the more the degree of freedom of change the more sensors are required, resulting in a complicated device configuration.
  • a projector in any of a projection unit that projects an image, a main body that houses the projection unit, a mounting unit that supports the main unit, and the mounting unit or the main body. And a detection unit that detects a relative position or a relative direction between the main body and the attachment unit based on a captured image of the imaging unit.
  • a detection unit that detects a relative position or a relative direction between the main body and the attachment unit based on a captured image of the imaging unit.
  • the imaging unit is provided in the attachment unit and images the main body. According to the present invention, the relative position or relative direction of the main body with respect to the attachment portion can be detected using the captured image.
  • the imaging unit is provided in the main body and images the attachment unit.
  • the relative position or relative direction of the main body with respect to the attachment portion can be detected using the captured image.
  • the detection unit may be configured such that the main unit and the attachment unit are relative to each other based on a change from the reference state of the main unit or the attachment unit included in the captured image of the imaging unit. Detecting a target position or relative direction. According to the present invention, the relative position or the relative direction between the main body and the attachment portion can be quickly obtained using the captured image.
  • the main body or the attachment portion may have a predetermined mark in an imaging range of the imaging unit, and the detection unit may be included in a captured image of the imaging unit.
  • a relative position or a relative direction between the main body and the attachment portion is detected based on a change of the mark from a reference state. According to the present invention, the relative position or the relative direction between the main body and the attachment portion can be quickly obtained with reference to the mark.
  • the main body may be connected to the attachment portion by a connecting portion capable of rotating at least one axis, and the detection portion may be centered on a rotating shaft of the connecting portion. A relative angle between the main body and the mounting portion is detected.
  • a reference scale is disposed in an imaging range of the imaging unit, and the detection unit detects an image of the reference scale and an image of the main body that are captured in a captured image of the imaging unit.
  • the detection unit detects an image of the reference scale and an image of the main body that are captured in a captured image of the imaging unit.
  • a relative position or a relative direction between the main body and the attachment portion is detected.
  • the reference scale by using the reference scale, it is possible to detect the relative position or the relative direction between the main body and the attachment portion by processing with higher accuracy and light load.
  • the imaging unit includes an imaging lens, a cover is attached to the imaging lens, and the reference scale is formed on the cover.
  • the reference scale can be used by attaching a cover to the imaging lens.
  • the cover is attached to the imaging lens so as to be rotatable.
  • the orientation of the reference scale can be adjusted by rotating the cover.
  • the imaging unit is detachably disposed on the attachment unit or the main body. According to the present invention, the imaging unit can be used by being attached to the attachment unit, and can be removed when the imaging unit is not used.
  • the projector may further include a correction unit that corrects an image projected by the projection unit based on a relative position or a relative direction between the main body and the attachment unit detected by the detection unit. It is characterized by. According to the present invention, it is possible to appropriately correct a projection image in accordance with the orientation of the main body, and to reduce the work burden on the user.
  • the projector control method includes, in the projector described above, a projector including a main body that houses a projection unit that projects an image, and an attachment unit that supports the main body.
  • a relative position or relative direction between the main body and the mounting portion is detected based on a captured image of an imaging portion provided on the mounting portion or the main body, and a projection image is based on the detected relative position or relative direction. It is characterized by correcting.
  • FIG. 1 is an external view of a projector according to an embodiment.
  • FIG. 2 is a configuration diagram of a projector, (A) is a side view of the projector, (B) is a front view of the projector, (C) is a side view of the imaging unit, and (D) is a plan view of the imaging unit.
  • the functional block diagram which shows the structure of the control system of a projector.
  • the flowchart which shows operation
  • FIG. 1 and 2 are external views of a projector 100 according to an embodiment to which the present invention is applied.
  • FIG. 1 is a configuration diagram of the projector 100
  • FIG. 2A is a side view
  • FIG. 2B is a front view
  • 2C is a side view of the imaging unit 140
  • FIG. 2D is a plan view of the imaging unit 140.
  • FIG. 1 also shows a lighting duct 200 to which the projector 100 is attached.
  • the projector 100 is a projector that incorporates a light source, modulates light emitted from the light source into image light, and projects an image on a wall surface or a screen.
  • the projector 100 includes a power storage unit 110 (attachment unit), a projection unit main body 120 (main unit) configured separately from the power supply storage unit 110, and a support shaft that connects the power storage unit 110 and the projection unit main body 120.
  • the power supply accommodating part 110 has an elongated, substantially box-shaped housing, and houses a power supply circuit (not shown) and the like in this housing.
  • the projection unit main body 120 has a substantially cylindrical casing, and houses the light projection unit 20 (FIG. 4) and the like.
  • the projector 100 is connected to a lighting duct 200 fixed to the ceiling or wall surface.
  • the lighting duct 200 is a bowl-shaped power supply body, and corresponds to, for example, a luminaire duct, a power supply duct, or a power supply common duct according to JIS C8366 standard.
  • a lighting fixture, an adapter for supplying power, and the like can be attached to the lighting duct 200.
  • FIG. 1 shows a cross section of the lighting duct 200, but the end face in the longitudinal direction of the lighting duct 200 may be closed or open.
  • the lighting duct 200 is installed on a ceiling surface, a wall surface, or the like, connected to a commercial power source (not shown), and supplies power to the above-described lighting fixtures and adapters.
  • the lighting duct 200 has an opening 201 extending along the longitudinal shape in a hollow body having a long shape, and supports a connector or the like inserted from the opening 201.
  • the opening 201 opens downward and can be hung by attaching a lighting fixture or the like from below.
  • the lighting duct 200 may be fixed to the wall surface.
  • the opening 201 opens in the horizontal direction, and a lighting fixture or the like can be attached and fixed from the side.
  • the lighting duct 200 has a pair of conductors 205 extending along the longitudinal direction of the lighting duct 200.
  • the conductor 205 is made of copper or other metal formed into a rod shape or a tape shape, and is electrically connected to a commercial power source.
  • the conductor 205 is connected to, for example, a commercial 100V two-pole AC power supply, and one conductor 205 serves as a ground electrode, and the other conductor 205 serves as a non-ground electrode.
  • the lighting duct 200 has a groove 206 that locks a member wider than the opening 201.
  • the groove 206 is disposed on both sides of the opening 201 inside the lighting duct 200, and an object fitted into the groove 206 is supported by the lighting duct 200.
  • the power supply housing part 110 has a connector 115 that can be connected to the lighting duct 200 on the upper surface of the housing.
  • the connector 115 is a substantially cylindrical protrusion that protrudes upward from the upper surface of the housing, and a pair of locking pieces 116 and a pair of contact conductors 117 are erected on the side surface of the connector 115.
  • the locking pieces 116 are formed in a flat plate shape and protrude from the connectors 115 in opposite directions.
  • the contact conductors 117 are configured by forming copper or other metal into a flat plate shape, and each contact conductor 117 protrudes from the connector 115 in the opposite direction.
  • the connector 115 When the projector 100 is attached to the lighting duct 200, the connector 115 is inserted into the opening 201.
  • the connector 115 is inserted into the opening 201 such that the locking piece 116 and the contact conductor 117 are oriented along the longitudinal direction of the lighting duct 200.
  • the connector 115 is connected to the lighting duct 200 when the power supply accommodating portion 110 is rotated 90 degrees.
  • the contact conductor 117 comes into contact with the conductor 205 of the lighting duct 200 and becomes conductive, and power can be supplied from the conductor 205 to the contact conductor 117.
  • the connector 115 is fixed to the lighting duct 200 via the locking piece 116. In this state, the connector 115 does not move in the longitudinal direction of the lighting duct 200. Further, when the power supply accommodating section 110 is connected to the lighting duct 200, the power supply circuit of the power supply accommodating section 110 is connected to the commercial AC power supply via the contact conductor 117, and the projector 100 can be operated.
  • the projector 100 can be easily attached to the lighting duct 200, and in the attached state, the projector 100 is supported while being suspended from the lighting duct 200. Further, in the mounted state, in the projector 100, the longitudinal direction of the power supply accommodating portion 110 is oriented along the longitudinal direction of the lighting duct 200.
  • a connector (not shown) for stabilizing the installation state of the projector 100 may be provided in the power supply accommodating portion 110 in addition to the connector 115.
  • This connector has, for example, a locking piece (similar to the locking piece 116) that interlocks with the rotation of a screw (not shown).
  • the connector is fitted into the lighting duct 200 and a screw (not shown) is attached. By rotating, the lighting duct 200 is engaged.
  • the power supply accommodating part 110 can be more reliably supported in the direction along the longitudinal direction of the lighting duct 200.
  • a support shaft 131 is provided in the power supply housing part 110.
  • the support shaft 131 is a bar-like member that is erected downward on the bottom surface of the power supply accommodating unit 110 in the installed state of the projector 100.
  • the support shaft 131 is fixed to the power supply accommodating part 110 and is connected to the upper surface of the projection part main body 120 via a ball joint 132 (connection part), and supports the projection part main body 120 together with the power supply accommodation part 110.
  • the projection unit main body 120 can freely change the direction with respect to the power supply accommodation unit 110 with the ball joint 132 as a fulcrum.
  • the projection unit body 120 is configured in a substantially cylindrical shape, and a projection port 128 through which the light projection unit 20 (FIG. 4) projects light is provided on the front surface 125 that is the front end surface of the projection unit body 120.
  • the projection port 128 is an opening through which the light projection unit 20 (FIG. 4), which will be described later, emits light, and may be covered with a translucent lens or cover, or a lens may be disposed inside the projection port 128. It may be a simple opening.
  • the optical axis of the light projected from the projection port 128 is indicated by a symbol L.
  • the optical axis L is parallel to the longitudinal direction (front-rear direction) of the projection unit main body 120.
  • the Y axis is an axis parallel to the installation surface (for example, the ceiling surface) on which the lighting duct 200 is installed and along the longitudinal direction of the lighting duct 200.
  • the Y axis can also be referred to as an axis along the longitudinal direction of the power supply accommodating portion 110.
  • the X axis is an axis parallel to the installation surface and perpendicular to the Y axis
  • the Z axis is perpendicular to the X axis and the Y axis.
  • shaft of X, Y, Z specifies a direction and is not limited to the position shown in FIG. 1 and each figure mentioned later.
  • Rotating the projection unit main body 120 around the X axis with the ball joint 132 as a fulcrum causes the optical axis L to rotate about the X axis. Further, by rotating the projection unit main body 120 around the Y axis at the ball joint 132, the optical axis L rotates about the Y axis. Similarly, by rotating the projection unit main body 120 about the Z axis, the optical axis L rotates about the Z axis.
  • the optical axis L can be freely moved in any of the three directions of the X axis, the Y axis, and the Z axis in a state where the power supply accommodating portion 110 is fixed to the lighting duct 200.
  • the light can be projected from the projection port 128 in a desired direction.
  • Two imaging units 140 are arranged on the surface of the power supply accommodating unit 110 on the projection unit main body 120 side, that is, on the lower surface in the attached state.
  • the imaging unit 140 includes an imaging unit 141 configured by a digital camera and captures images under the control of the control system 10 (FIG. 4) described later.
  • the imaging unit 141 is arranged facing the projection unit main body 120 side.
  • FIG. 2A shows imaging ranges A1 and A2 of the two imaging units 141, respectively.
  • the imaging ranges A1 and A2 of the two imaging units 141 both capture the upper surface of the projection unit main body 120.
  • the projection unit main body 120 can be rotated around the Z axis by a ball joint, and for example, the front surface 125 can be directed to one side (+ X direction) and the other side ( ⁇ X direction) in the X axis direction.
  • the power storage unit 110 includes two imaging units 141 so that the tip of the projection unit main body 120 (the end on the front surface 125 side) can be imaged regardless of the orientation of the projection unit main body 120. By providing these two imaging units 140, the tip of the projection unit main body 120 is included in at least one of the imaging ranges A1 and A2. Note that in the case where the projection unit main body 120 is directed to only one of the X-axis directions, the number of the imaging unit 141 may be one. Alternatively, the imaging unit 141 may be configured with a wide-angle camera so that one imaging unit 141 can capture both sides.
  • the imaging unit 141 includes an imaging lens, an imaging device such as a CCD, and other components (not shown) such as a peripheral circuit unit that reads a signal from the imaging device and generates digital image data. These components are accommodated in the imaging unit 140. As shown in FIGS. 2C and 2D, the imaging unit 140 is configured by housing the imaging unit 141 and peripheral circuits in a synthetic resin or metal case 142. The imaging unit 140 is attached to the power storage unit 110, and each unit of the imaging unit 141 is electrically connected to the control system 10 (FIG. 4) stored in the power storage unit 110.
  • the imaging unit 140 may be configured to be detachable from the power supply accommodating unit 110.
  • each part of the imaging unit 141 accommodated in the imaging unit 140 is electrically connected to the control system 10 (FIG. 4) accommodated in the power supply accommodating unit 110.
  • a general-purpose connector can be used.
  • the imaging unit 140 is detachable, a configuration including only one imaging unit 140 may be used.
  • the mounting location for mounting the imaging unit 140 may be provided at the position of the two imaging units 140 shown in FIG. In this configuration, the imaging unit 140 may be mounted at an appropriate mounting position according to the orientation of the tip of the projection unit main body 120.
  • the imaging lens (not shown) of the imaging unit 141 has a reference line 141a (reference) so as to coincide with an axis P (FIG. 3A) that is referred to in detection processing described later.
  • a cover 141b with a scale may be attached.
  • the position of the reference line 141a is adjusted to be an ideal reference line. In the present embodiment, a description will be given assuming that the cover 141b is not attached.
  • the projection unit main body 120 (optical axis L) can be freely moved by the ball joint 132 as described above.
  • the projector 100 detects the movement (tilt) of the projection unit main body 120 as rotation about the X axis, the Y axis, and the Z axis using the captured image of the imaging unit 141.
  • FIG. 3 is an explanatory diagram of an operation in which the projector 100 detects the movement (tilt) of the optical axis L, and (A), (B), (C), and (E) show the captured image D of the imaging unit 141. , (D) and (E) show the position of the projection unit main body 120.
  • the tip of the projection unit main body 120 is reflected in at least one of the two imaging units 141.
  • the projection unit main body 120 is projected in the longitudinal direction, that is, the direction of the optical axis L is parallel to the X axis, and the projection unit main body 120 is horizontal.
  • the reference body 120 is in the reference state.
  • the angles of the projection unit main body 120 with respect to the X axis, the Y axis, and the Z axis in the reference state are all 0 degrees.
  • the longitudinal direction of the projection unit main body 120 in the reference state is defined as an axis P.
  • the imaging unit 141 Since the axis P is fixed with respect to the imaging surface of the imaging unit 141, the axis P is at a fixed position with respect to the captured image D. Moreover, it is preferable that the center of the imaging unit 141 and the center of the support shaft 131 (ball joint 132) coincide with each other in the Y-axis direction. In addition, as described above, the imaging unit 141 has an imaging region set so that the front surface 125 of the projection unit main body 120 falls within the imaging range.
  • FIG. 3B shows an example of a captured image D when the projection unit main body 120 is rotated around the Z axis.
  • the projection unit main body 120 is shown obliquely, and when the longitudinal direction of the projection unit main body 120 is the axis Q, the angle ⁇ between the axis P and the axis Q obtained from the captured image.
  • the size of the image of the projection unit main body 120 is substantially the same as that of the captured image D of FIG. This is because the projection unit main body 120 has a cylindrical shape.
  • FIG. 3C shows an example of a captured image D when the projection unit main body 120 is rotated about the X axis
  • FIG. 3D is a projector 100 when the projection unit main body 120 is rotated about the X axis.
  • the distance (shift amount) between the axis Q of the projection unit main body 120 and the axis P in the reference state is x2
  • the distance from the ball joint 132 to the center of the entire surface 125 in a plane parallel to the front surface 125 is r2.
  • the following equation (3) is established for the rotation angle ⁇ of the projection unit main body 120.
  • sin ⁇ x2 / r2 (3)
  • the distance x2 can be obtained from the captured image D. For example, if the center of the image of the projection unit main body 120 in the captured image D is obtained as the axis Q, and the position of the axis P in the captured image D in the reference state is set or stored in advance, the distance x2 is obtained. Further, the distance r2 is also known, and the value of the distance r2 may be stored in advance. Therefore, the angle ⁇ can be obtained by the arithmetic processing of the following formula (4).
  • sin ⁇ 1 (x2 / r2) (4)
  • FIG. 3E shows an example of a captured image D when the projection unit main body 120 is rotated about the X axis
  • FIG. 3F is a projector 100 when the projection unit main body 120 is rotated about the Y axis.
  • the shift amount of the tip of the projection unit main body 120 in this case is x3
  • the following formula (5) is established for the distance r1 and the rotation angle ⁇ of the projection unit main body 120 described above.
  • cos ⁇ (r1-x3) / r1 (5) Therefore, the angle ⁇ can be obtained by the following equation (6).
  • cos ⁇ 1 ⁇ (r1 ⁇ x3) / r1 ⁇ (6)
  • the projection unit main body 120 rotates around the Y axis, and the captured image D is in the state shown in FIG. 3E, when the tip of the projection unit main body 120 rotates upward and downward. Sometimes it turns.
  • the projection unit is based on the shape of this distortion. The direction of rotation of the main body 120 may be determined.
  • the projector 100 can obtain the angles ⁇ , ⁇ , and ⁇ indicating the direction of the optical axis L of the projection unit main body 120. Also, when the movement of the projection unit main body 120 includes movements centered on a plurality of axes among the X, Y, and Z axes, the direction of the optical axis L can be obtained as described above.
  • a previously stored LUT look-up table
  • FIG. 4 is a functional block diagram illustrating the configuration of the control system 10 of the projector 100.
  • the control system 10 of the projector 100 includes an interface (I / F) unit 12 that connects an image supply device 30 that outputs image data.
  • Examples of the image supply device 30 include an image reproducing device such as a DVD player, a broadcast receiving device such as a digital TV tuner, and an image output device such as a video game machine and a personal computer.
  • the image supply device 30 may be a communication device that communicates with a personal computer or the like and receives image data.
  • the image supply device 30 is not limited to a device that outputs digital image data, and may be a device that outputs an analog image signal. In this case, an analog / digital conversion device that generates digital image data from an analog image signal may be provided on the output side of the image supply device 30 or the I / F unit 12.
  • the specific specifications and number of connectors and interface circuits included in the I / F unit 12 are arbitrary.
  • the image supply device 30 outputs digital image data in a data format that can be supported by the I / F unit 12.
  • the data input by the image supply device 30 may be a still image or a moving image (video) as long as the data format is compatible with the I / F unit 12.
  • data input from the image supply device 30 to the control system 10 is referred to as image data.
  • the control system 10 includes a control unit 11 that controls each unit of the projector 100 and an optical projection unit 20 that displays (projects) an image based on image data input to the I / F unit 12 on the screen SC.
  • the I / F unit 12 is connected to an image processing unit 13 that processes image data and outputs a display image signal to the light projection unit 20.
  • the image processing unit 13 performs processing such as color correction on the image data input to the I / F unit 12 according to the control of the control unit 11.
  • the image data processed by the image processing unit 13 is converted into an image signal for each frame and input to the display driving unit 14.
  • the image processing unit 13 can also display the image data stored in the storage unit 17. In this case, the image data stored in the storage unit 17 is input from the control unit 11 to the image processing unit 13, and the image processing unit 13 performs processing on the image data and outputs an image signal to the display driving unit 14. .
  • the control unit 11 includes, for example, a CPU, a ROM, and a RAM (not shown), and controls each unit of the control system 10 when the CPU executes a program stored in the ROM.
  • the control unit 11 executes the above-described program, thereby controlling the operation of the projector 100 projecting an image, correcting the projected image, and the like.
  • the control unit 11 controls execution timing, execution conditions, and the like of processing executed by the image processing unit 13.
  • the control unit 11 also controls the light source control unit 15 of the light projection unit 20 to adjust the luminance of the light source 21 and the like.
  • the control unit 11 includes an imaging control unit 11a, a projection direction detection unit 11b, and a projection control unit 11c as functional units that control the projector 100.
  • the control unit 11 is connected to an input unit 18 that receives user input operations.
  • the input unit 18 is connected to an operation panel 19 having a switch, and detects an operation on the operation panel 19.
  • the input unit 18 is configured as an infrared light receiving unit that receives an infrared signal transmitted from the remote controller 40, and detects an operation on the remote controller 40.
  • the input unit 18 outputs operation data indicating operations on the operation panel 19 and the remote controller 40 to the control unit 11.
  • a storage unit 17 is connected to the control unit 11.
  • the storage unit 17 is a storage device that stores programs and data executed by the CPU of the control unit 11 in a nonvolatile manner.
  • the storage unit 17 stores a control program for the control unit 11 to control the control system 10, various setting data processed by the control program, and the like.
  • the storage unit 17 of the present embodiment stores direction correction data 17a.
  • the direction correction data 17a is data including parameters, setting values, and the like used for processing by the projection control unit 11c.
  • the imaging unit 141 is connected to the control unit 11. Although one imaging unit 141 is shown in FIG. 4, two imaging units 141 may be connected to the control unit 11, respectively. Alternatively, a camera interface circuit (not shown) that selects one of the two imaging units 141 to acquire a captured image and outputs it to the control unit 11 is provided, and the two imaging units 141 are connected to the camera interface circuit. Also good. Further, when the imaging unit 140 is configured to be detachable, the connection between the control unit 11 and the imaging unit 141 may be released by removing the imaging unit 140.
  • the communication unit 16 is connected to the control unit 11.
  • the communication unit 16 performs wireless data communication conforming to a standard such as a wireless LAN (Wi-Fi (registered trademark)), Bluetooth (registered trademark), or the like with a device outside the projector 100.
  • the communication unit 16 may perform communication via a wired cable.
  • the imaging control unit 11a controls the imaging unit 141 to execute imaging, and acquires captured image data.
  • the imaging control unit 11a may cause only one of the two imaging units 141 included in the projector 100 to perform imaging, or cause the two imaging units 141 to perform imaging and acquire captured image data from each imaging unit 141. Also good.
  • the projection direction detection unit 11b detects the direction of the optical axis L (FIG. 1) by analyzing the captured image data of the imaging unit 141. As described with reference to FIGS. 3A to 3F, the process executed by the projection direction detection unit 11b calculates the rotation angle of the optical axis L based on the captured image of the imaging unit 141. It is processing.
  • the projection control unit 11 c controls the image processing unit 13, the display driving unit 14, and the light source control unit 15 to display a projection image P based on image data input from the image supply device 30 to the I / F unit 12 on the screen. Project onto the SC. Further, the projection control unit 11c causes the image processing unit 13 to execute correction processing corresponding to the direction of the optical axis L detected by the projection direction detection unit 11b.
  • the projection unit main body 120 faces the screen SC that is the projection surface in the above-described reference state
  • the optical axis L rotates around the Y axis
  • the optical axis L is inclined upward or downward with respect to the screen SC.
  • trapezoidal distortion in the vertical direction occurs in the projected image P on the screen SC.
  • the optical axis L rotates around the Z axis
  • the optical axis L is inclined in the horizontal direction with respect to the screen SC, so that a lateral (horizontal) trapezoidal distortion occurs in the projected image P on the screen SC.
  • the projection control unit 11c causes the image processing unit 13 to execute a trapezoidal distortion correction process corresponding to the rotation angle of the optical axis L around the Y axis and the Z axis.
  • the storage unit 17 stores direction correction data 17a including processing conditions, parameters, and the like for the image processing unit 13 to perform trapezoidal distortion correction.
  • the direction correction data 17a is, for example, a trapezoidal distortion correction parameter corresponding to the rotation angle of the optical axis L around the Y axis and the Z axis.
  • the projection control unit 11c reads out the parameters corresponding to the rotation angle detected by the projection direction detection unit 11b from the direction correction data 17a and outputs the parameters to the image processing unit 13, thereby quickly distorting the projection image P. Can be corrected.
  • the control unit 11 does not perform correction.
  • the projection control unit 11c corrects the rotation of the projection image P. This causes the image processing unit 13 to execute processing such as rotating the image so that the projection image P is the same as when the projection image P is projected on the screen SC facing the projection unit main body 120 in the reference state.
  • the light projection unit 20 forms a projection image P by projecting the light source 21, the modulation unit 22 that modulates the light emitted from the light source 21 to generate image light, and the image light modulated by the modulation unit 22 onto the screen SC.
  • the light source 21 is configured by a lamp such as a halogen lamp, a xenon lamp, or an extra-high pressure mercury lamp, or a solid light source such as an LED or a laser light source.
  • the light source 21 is turned on by the electric power supplied from the light source control unit 15 and emits light toward the modulation unit 22.
  • the light source control unit 15 can adjust the light emission luminance of the light source 21 according to the control of the control unit 11.
  • the modulator 22 modulates the light emitted from the light source 21 to generate image light, and irradiates the projection optical system 23 with the image light.
  • the display driving unit 14 drives each pixel of the light modulation element based on the image signal output from the image processing unit 13 and draws an image on the light modulation element in units of frames (screens).
  • the projection optical system 23 includes a lens that images the light modulated by the modulation unit 22 on the screen SC.
  • the projection optical system 23 may include various lenses or lens groups such as a zoom lens and a focus lens.
  • FIG. 5 is a flowchart showing the operation of the projector 100.
  • the operation of FIG. 5 is an operation of detecting the direction of the optical axis L based on the image captured by the imaging unit 141 and correcting the projection image P.
  • the operation of FIG. 5 is executed when an instruction is input by the operation of the operation panel 19 or the remote controller 40 while the projector 100 is projecting the projection image P.
  • the control unit 11 functions as a detection unit.
  • the control unit 11 controls each of the two imaging units 141 to execute imaging (step ST11).
  • the control unit 11 acquires captured image data from each imaging unit 141 (step ST12).
  • the control unit 11 may select either of the captured image data of the two imaging units 141 as a processing target, or may be the captured image data in the order in which the captured image data is input from the imaging unit 141. .
  • you may process the two imaging parts 141 simultaneously. For example, two image capturing units 141 may be combined or combined to generate one processing target image data.
  • the control unit 11 detects the image of the projection unit main body 120 from the captured image data to be processed (step ST13), and specifies the direction and shape of the detected image of the projection unit main body 120 (step ST14).
  • the control unit 11 compares the direction and shape of the image of the projection unit main body 120 identified in step ST14 with the reference state, and performs the above-described arithmetic processing and the like, so that the X-axis, Y-axis, and Z-axis rotations are performed.
  • the rotation angle of the optical axis L that is, the projection direction is calculated (step ST15).
  • control part 11 performs correction
  • the projector 100 includes the light projection unit 20 that projects an image, the projection unit main body 120 that houses the light projection unit 20, and the power source that supports the projection unit main body 120.
  • a storage unit 110 the relative position or relative direction between the projection unit main body 120 and the power supply accommodation unit 110 is determined based on the imaging unit 141 provided in either the power supply accommodation unit 110 or the projection unit main body 120 and the captured image of the imaging unit 141.
  • a control unit 11 for detection is used for detection. Thereby, the relative position or relative direction of the power supply accommodating part 110 and the projection part main body 120 is detectable using the captured image of the imaging part 141.
  • the imaging unit 141 is disposed in the power supply housing unit 110 and the projection unit main body 120 is imaged. According to this configuration, the relative position or relative direction between the projection unit main body 120 and the power supply housing unit 110 can be detected with a simple configuration using the imaging unit 141. For this reason, for example, when the projection unit main body 120 moves relative to the power supply housing 110 and the relative position or relative direction changes, this change can be detected. Further, even a configuration with a high degree of freedom of movement can be handled without complicating the configuration.
  • the imaging unit 141 is disposed on the projection unit main body 120 side, and the power supply housing unit 110 is imaged, so that the control unit 11 obtains the relative position or relative direction between the power supply housing unit 110 and the projection unit main body 120. May be.
  • control unit 11 determines the relative position between the projection unit main body 120 and the power supply accommodation unit 110 based on the change from the reference state of the projection unit main body 120 or the power supply accommodation unit 110 included in the captured image of the imaging unit 141. Or detect the relative direction. For this reason, the relative position or relative direction between the projection unit main body 120 and the power supply housing unit 110 can be quickly obtained using the captured image.
  • the imaging unit 140 is provided with a cover having a reference line 141a (reference scale). That is, the reference line 141 a is arranged in the imaging range of the imaging unit 141.
  • the control unit 11 detects the image of the reference line 141a that appears in the captured image of the imaging unit 141 and the image of the projection unit main body 120, and detects the relative position or relative direction between the projection unit main body 120 and the power supply housing unit 110. To do. Therefore, by using the reference line 141a, it is possible to detect the relative position or the relative direction between the projection unit main body 120 and the power supply housing unit 110 by processing with higher accuracy and light load.
  • the cover may be rotatably attached to the imaging lens.
  • the imaging unit 141 may be detachably disposed on the power supply housing unit 110. In this case, the imaging unit 141 can be used by being mounted on the power supply housing unit 110, and can be removed when the imaging unit 141 is not used.
  • This rotation angle is an example of a relative positional relationship or a relative direction between the power storage unit 110 and the projection unit main body 120. That is, the control unit 11 may calculate the relative position between the power supply housing unit 110 and the projection unit main body 120 from the rotation angles of the optical axis L around the X axis, the Y axis, and the Z axis. You may ask for. Further, the control unit 11 may obtain the relative position and / or relative angle between the power storage unit 110 and the projection unit main body 120 directly from the captured image of the imaging unit 141.
  • the projection unit main body 120 is connected to the power supply housing unit 110 by a ball joint 132 capable of rotating at least one axis, and the control unit 11 is configured to connect the projection unit main body 120 around the ball joint 132 and the power supply housing unit 110. Detect relative angle.
  • the modulator 22 may have a configuration using a transmissive liquid crystal light valve, a configuration using a reflective liquid crystal panel, or a configuration including a digital mirror device (DMD).
  • a transmissive liquid crystal light valve a configuration using a reflective liquid crystal panel
  • a configuration including a digital mirror device DMD
  • the liquid crystal panel or DMD is combined with a color wheel. Also good.
  • the projector 100 is not limited to the configuration that is disposed on the front side of the screen SC and projects the projection image P on the front side of the screen SC, and may be a rear projection type projector that is disposed on the back side of the screen SC.
  • the screen SC may be a wall surface.
  • the top surface of the projection unit main body 120 can be easily detected from the captured image of the imaging unit 141 so that the position and orientation of the projection unit main body 120 can be easily detected.
  • a predetermined marker may be attached (within the imaging range of the imaging unit 141).
  • the marker is provided by painting or pasting, has a pattern (pattern) that can be optically detected by color or brightness, and may have a geometric pattern such as a striped pattern or a checkered pattern.
  • the relative position or relative direction between the projection unit main body 120 and the power supply housing unit 110 can be quickly obtained using the marker as a reference.
  • the rotation of the projection unit main body 120 is detected based on the captured image D of the imaging unit 141.
  • the present invention is not limited to this, and an inertial sensor such as a gravity sensor (acceleration sensor) is provided in the projection unit main body 120, and the rotation of the projection unit main body 120 is detected using the detection result of the inertial sensor and the captured image D. An angle or direction may be obtained.
  • the present invention is not limited to this.
  • the structure which provides the imaging part 141 in the projection part main body 120 may be sufficient.
  • the control unit 11 may obtain the relative position or direction based on the image of the power supply housing unit 110 that appears in the captured image of the imaging unit 141.
  • a scale indicating the longitudinal direction and the width direction of the projection unit main body 120 may be attached to the cover 141 b of the imaging unit 141, and the marker M may be formed on the lower surface of the power supply housing unit 110.
  • the control unit 11 analyzes the captured image of the imaging unit 141 to obtain the relative position or direction.
  • the control unit 11 transmits the captured image data of the imaging unit 141 to the communication unit 16. May be sent to an external computer.
  • a computer outside the projector 100 may obtain the relative position or direction between the power storage unit 110 and the projection unit main body 120, or may generate a correction parameter corresponding to the obtained position and direction.
  • Each functional block shown in FIG. 4 shows a functional configuration realized by cooperation of hardware and software, and a specific mounting form is not particularly limited.
  • each functional block does not necessarily have to be mounted, and it is of course possible to realize a configuration in which a function of a plurality of functional units is realized by one processor executing a program.
  • a part of the function realized by software may be realized by hardware, or a part of the function realized by hardware may be realized by software.
  • the specific detailed configuration of each other part of the projector 100 can be arbitrarily changed without departing from the gist of the present invention.
  • DESCRIPTION OF SYMBOLS 10 Control system, 11 ... Control part (detection part), 11a ... Imaging control part, 11b ... Projection direction detection part, 11c ... Projection control part, 13 ... Image processing part, 17 ... Memory

Abstract

 プロジェクターの位置或いは向きの変化を、シンプルな構成によって検出できるようにする。 プロジェクター100は、画像を投射する光投射部20と、光投射部20を収容する投射部本体120と、投射部本体120を支持する電源収容部110とを備える。また、電源収容部110または投射部本体120のいずれかに設けられる撮像部141と、撮像部141の撮像画像に基づいて投射部本体120と電源収容部110との相対的位置または相対的方向を検出する制御部11と、を備える。

Description

プロジェクター、及び、プロジェクターの制御方法
 本発明は、画像を投射するプロジェクター、及び、プロジェクターの制御方法に関する。
 従来、プロジェクターを設置した後で、プロジェクターを動かして投射光の光軸の向きを変更可能な構成が知られている(例えば、特許文献1参照)。特許文献1記載のプロジェクターは、投射光の光軸を被照射物体に向けるため、プロジェクターの水平回転および垂直回転が可能である。
特開2010-86928号公報
 特許文献1記載のプロジェクターは、光軸の水平回転及び垂直回転の回転量を、それぞれ、角度センサーによって検出する。この構成を応用すると、プロジェクターを動かす軸ごとに、角度センサーを用いることになる。このため、プロジェクターの位置や向きを変化させることが可能な構成では、変化の自由度が高いほど多くのセンサーを必要とし、装置構成の複雑化を招いてしまうという問題があった。
 本発明は、上述した事情に鑑みてなされたものであり、プロジェクターの位置或いは向きの変化を、シンプルな構成によって検出できるようにすることを目的とする。
 上記目的を達成するため、本発明のプロジェクターは、画像を投射する投射部と、前記投射部を収容する本体と、前記本体を支持する取付部と、前記取付部または前記本体のいずれかに設けられる撮像部と、前記撮像部の撮像画像に基づいて前記本体と前記取付部との相対的位置または相対的方向を検出する検出部と、を備えることを特徴とする。
 本発明によれば、撮像部を用いたシンプルな構成により、本体と取付部との相対的位置または相対的方向を検出できる。このため、例えば、取付部に対して本体が動いて相対的位置または相対的方向が変化した場合に、この変化を検出できる。また、動きの自由度が高い構成においても構成を複雑化することなく対応できる。
 また、本発明は、上記プロジェクターにおいて、前記撮像部は、前記取付部に設けられ、前記本体を撮像すること、を特徴とする。
 本発明によれば、取付部に対する本体の相対的位置または相対的方向を、撮像画像を用いて検出できる。
 また、本発明は、上記プロジェクターにおいて、前記撮像部は、前記本体に設けられ、前記取付部を撮像すること、を特徴とする。
 本発明によれば、取付部に対する本体の相対的位置または相対的方向を、撮像画像を用いて検出できる。
 また、本発明は、上記プロジェクターにおいて、前記検出部は、前記撮像部の撮像画像に含まれる前記本体または前記取付部の、基準状態からの変化に基づいて、前記本体と前記取付部との相対的位置または相対的方向を検出すること、を特徴とする。
 本発明によれば、撮像画像を利用して、本体と取付部との相対的位置または相対的方向を速やかに求めることができる。
 また、本発明は、上記プロジェクターにおいて、前記本体または前記取付部には、前記撮像部の撮像範囲内に所定のマークが付されており、前記検出部は、前記撮像部の撮像画像に含まれる前記マークの、基準状態からの変化に基づいて、前記本体と前記取付部との相対的位置または相対的方向を検出すること、を特徴とする。
 本発明によれば、マークを基準として、本体と取付部との相対的位置または相対的方向を速やかに求めることができる。
 また、本発明は、上記プロジェクターにおいて、前記本体は、少なくとも1軸の回動が可能な連結部により前記取付部に連結され、前記検出部は、前記連結部の回動軸を中心とした前記本体と前記取付部との相対的角度を検出すること、を特徴とする。
 また、本発明は、上記プロジェクターにおいて、前記撮像部の撮像範囲に、基準スケールが配置され、前記検出部は、前記撮像部の撮像画像に写る前記基準スケールの像と前記本体の像とを検出することにより、前記本体と前記取付部との相対的位置または相対的方向を検出すること、を特徴とする。
 本発明によれば、基準スケールを利用することで、より高精度、かつ負荷の軽い処理により、本体と取付部との相対的位置または相対的方向を検出できる。
 また、本発明は、上記プロジェクターにおいて、前記撮像部は撮像レンズを備え、前記撮像レンズにはカバーが付され、前記カバーに前記基準スケールが形成されること、を特徴とする。
 本発明によれば、撮像レンズにカバーを付けることで、基準スケールを利用できる。
 また、本発明は、上記プロジェクターにおいて、前記カバーは、前記撮像レンズに対し回動可能に取り付けられること、を特徴とする。
 本発明によれば、カバーを回動することにより基準スケールの向きを調整できる。
 また、本発明は、上記プロジェクターにおいて、前記撮像部は、前記取付部または前記本体に着脱可能に配置されること、を特徴とする。
 本発明によれば、撮像部を取付部に装着して利用でき、撮像部を使わない場合に取り外すことができる。
 また、本発明は、上記プロジェクターにおいて、前記検出部が検出した前記本体と前記取付部との相対的位置または相対的方向に基づいて、前記投射部が投射する画像を補正する補正部を備えることを特徴とする。
 本発明によれば、本体の向きに合わせて投射画像を適切に補正でき、ユーザーの作業負担を軽減できる。
 また、上記目的を達成するため、本発明のプロジェクターの制御方法は、上記プロジェクターにおいて、画像を投射する投射部を収容する本体と、前記本体を支持する取付部と、を備えたプロジェクターにより、前記取付部または前記本体に設けられる撮像部の撮像画像に基づいて、前記本体と前記取付部との相対的位置または相対的方向を検出し、検出した相対的位置または相対的方向に基づいて投射画像を補正すること、を特徴とする。
 本発明によれば、撮像部を用いたシンプルな構成により、本体と取付部との相対的位置または相対的方向を検出できる。このため、例えば、取付部に対して本体が動いて相対的位置または相対的方向が変化した場合に、この変化を検出できる。また、動きの自由度が高い構成においても構成を複雑化することなく対応できる。
実施形態に係るプロジェクターの外観図。 プロジェクターの構成図であり、(A)はプロジェクターの側面図、(B)はプロジェクターの正面図、(C)は撮像ユニットの側面図、(D)は撮像ユニットの平面図である。 プロジェクターが投射方向を検出する動作の説明図。 プロジェクターの制御系の構成を示す機能ブロック図。 プロジェクターの動作を示すフローチャート。
 図1及び図2は、本発明を適用した実施形態に係るプロジェクター100の外観図である。図1はプロジェクター100の構成図であり、図2(A)は側面図、図2(B)は正面図である。また、図2(C)は撮像ユニット140の側面図、図2(D)は撮像ユニット140の平面図である。図1には、プロジェクター100が取り付けられるライティングダクト200を合わせて図示する。
 プロジェクター100は、後述するように光源を内蔵し、この光源が発した光を変調して画像光とし、壁面やスクリーンに画像を投射するプロジェクターである。
 プロジェクター100は、電源収容部110(取付部)と、電源収容部110とは別体として構成される投射部本体120(本体)と、電源収容部110と投射部本体120とを連結する支持軸131とを備える。電源収容部110は、細長い略箱形の筐体を有し、この筐体に電源回路(図示略)等を収容する。投射部本体120は、略円筒形の筐体を有し、光投射部20(図4)等を収容する。
 プロジェクター100は、天井や壁面に固定されたライティングダクト200に接続する。ライティングダクト200は、樋形状の電源供給体であり、例えばJIS C8366規格の照明器具用ダクト、電源用ダクト、或いは電源共用ダクトに相当する。ライティングダクト200には、照明器具、電源供給用のアダプター等を取り付け可能である。図1には理解の便宜のため、ライティングダクト200の断面を図示するが、ライティングダクト200の長手方向の末端面は塞がっていてもよいし開口していてもよい。ライティングダクト200は、天井面または壁面等に設置され、図示しない商用電源に接続され、上記の照明器具やアダプターに電力を供給する。
 ライティングダクト200は、長尺形状を有する中空の本体に、長手形状に沿って延びる開口201を有し、この開口201から差し込まれるコネクター等を支持する。ライティングダクト200が天井面に固定された場合、開口201は下向きに開口し、下方から照明器具等を取り付けて吊り下げることができる。また、ライティングダクト200は壁面に固定してもよく、この場合、開口201は水平方向を向いて開口し、横から照明器具等を取り付けて固定できる。
 ライティングダクト200は、ライティングダクト200の長手方向に沿って延設された一対の導体205を有する。導体205は棒状またはテープ状に成形された銅または他の金属からなり、商用電源に電気的に接続される。導体205は、例えば商用の100V2極交流電源に接続され、一方の導体205が接地極となり、他方の導体205が非接地極となる。また、ライティングダクト200は、開口201より幅の広い部材を係止する溝206を有する。溝206は、ライティングダクト200の内部において、開口201の両側に配置され、溝206に嵌合する物がライティングダクト200によって支持される。
 電源収容部110は、筐体の上面に、ライティングダクト200に連結可能なコネクター115を有する。コネクター115は筐体の上面から上向きに突出する略円柱形状の突起であり、コネクター115の側面には、一対の係止片116及び一対の接触導体117が立設される。係止片116は平板状に成形され、コネクター115から互いに反対方向に突出する。接触導体117は、銅または他の金属を平板状に成形して構成され、各々の接触導体117はコネクター115から互いに反対方向に突出する。
 プロジェクター100をライティングダクト200に取り付ける場合、コネクター115が開口201に差し込まれる。コネクター115は、係止片116及び接触導体117がライティングダクト200の長手方向に沿った向きで、開口201に差し入れられる。係止片116及び接触導体117がライティングダクト200の内部に入ってから、電源収容部110を90度回転させると、コネクター115がライティングダクト200に接続する。電源収容部110を回転させることにより、接触導体117がライティングダクト200の導体205に接触して導通し、導体205から接触導体117へ電力を供給可能となる。また、係止片116が溝206に填まり込むので、係止片116を介してコネクター115がライティングダクト200に固定される。この状態では、コネクター115はライティングダクト200の長手方向にも移動しない。また、ライティングダクト200に電源収容部110を接続すると、接触導体117を介して、電源収容部110の電源回路が商用交流電源に接続され、プロジェクター100が動作可能となる。
 このように、プロジェクター100は、容易にライティングダクト200に取り付けることができ、取付状態では、プロジェクター100はライティングダクト200から吊り下げられた状態で支持される。また、取付状態において、プロジェクター100は、電源収容部110の長手方向がライティングダクト200の長手方向に沿った向きとなる。
 なお、電源収容部110に、コネクター115とは別に、プロジェクター100の設置状態を安定させるためのコネクター(図示略)を設けてもよい。このコネクターは、例えば、ネジ(図示略)の回転と連動する係止片(係止片116と同様)を有し、例えば、当該コネクターをライティングダクト200に嵌合させてネジ(図示略)を回転させることで、ライティングダクト200に係合する。このコネクターを、電源収容部110の上面においてコネクター115から離れた位置に設けることで、電源収容部110を、ライティングダクト200の長手方向に沿った向きで、より確実に支持できる。
 電源収容部110には支持軸131が設けられる。支持軸131は、電源収容部110の底面に、プロジェクター100の設置状態で下向きに立設される棒状部材である。支持軸131は、電源収容部110に固定され、ボールジョイント132(連結部)を介して投射部本体120の上面に連結され、電源収容部110とともに投射部本体120を支持する。投射部本体120は、ボールジョイント132を支点として、電源収容部110に対して自在に向きを変えることができる。
 投射部本体120は、略円筒形に構成され、投射部本体120の前端面である前面125には、光投射部20(図4)が光を投射する投射口128が設けられる。
 投射口128は、後述する光投射部20(図4)が光を発する開口であり、透光性のレンズやカバーで覆われてもよいし、投射口128の内部にレンズが配置されてもよく、単なる開口であってもよい。
 投射口128から投射される光の光軸を符号Lで示す。光軸Lは、投射部本体120の長手方向(前後方向)に平行である。
 以下では、ボールジョイント132を支点とする投射部本体120の動きについて、X、Y、Zの各軸を基準として説明する。Y軸は、ライティングダクト200が設置されている設置面(例えば、天井面)と並行でかつライティングダクト200の長手方向に沿った軸である。Y軸は、電源収容部110の長手方向に沿った軸ということもできる。X軸は、設置面と並行でかつY軸に垂直な軸であり、Z軸は、X軸及びY軸に垂直である。なお、X、Y、Zの各軸は方向を特定するものであり、図1及び後述する各図に示す位置に限定されない。
 ボールジョイント132を支点として投射部本体120をX軸まわりに回動させることにより、光軸Lは、X軸を中心として回動する。また、投射部本体120をボールジョイント132においてY軸まわりに回動させることで、光軸Lは、Y軸を中心として回動する。同様に、投射部本体120をZ軸まわりに回動させることで、光軸Lは、Z軸を中心として回動する。
 従って、プロジェクター100では、電源収容部110をライティングダクト200に取り付けて固定された状態で、光軸Lを、X軸、Y軸、及びZ軸の3軸方向のいずれの方向にも自在に動かすことができ、投射口128から所望の方向に光を投射できる。
 電源収容部110の投射部本体120側の面、すなわち、取付状態において下面には、2つの撮像ユニット140が配置される。撮像ユニット140は、デジタルカメラにより構成される撮像部141を備え、後述する制御系10(図4)の制御によって撮像する。撮像部141は、投射部本体120側を向いて配置される。図2(A)には、2つの撮像部141の撮像範囲A1、A2をそれぞれ示す。2つの撮像部141の撮像範囲A1、A2は、いずれも投射部本体120の上面を撮像する。
 投射部本体120は、ボールジョイントによりZ軸を中心として回動可能であり、例えば、前面125をX軸方向の一方側(+X方向)および他方側(-X方向)に向けることができる。電源収容部110には、投射部本体120の向きに関わらず、投射部本体120の先端(前面125側の端部)を撮像できるように、2つの撮像部141を備える。これら2つの撮像ユニット140を設けたことで、撮像範囲A1、A2の少なくともいずれかに、投射部本体120の先端が含まれる。なお、投射部本体120がX軸方向のいずれか一方にしか向けない構成の場合には、撮像部141は1つでもよい。また、撮像部141を広角カメラで構成し、1つの撮像部141で両側を撮像できるようにしてもよい。
 撮像部141は、撮像レンズ、CCD等の撮像素子、撮像素子から信号を読み取ってディジタル画像データを生成する周辺回路部等の図示しない構成部を有する。これらの構成部は、撮像ユニット140に収容される。
 図2(C)及び(D)に示すように、撮像ユニット140は、撮像部141及び周辺回路を合成樹脂製または金属製のケース142に収容してユニット化して構成される。
 撮像ユニット140は、電源収容部110に取り付けられ、撮像部141の各部が、電源収容部110に収容される制御系10(図4)に電気的に接続される。
 撮像ユニット140は、電源収容部110に対し着脱可能な構成としてもよい。この場合、撮像ユニット140が電源収容部110に嵌め込まれると、撮像ユニット140が収容する撮像部141の各部が、電源収容部110に収容される制御系10(図4)に電気的に接続されることが好ましく、例えば汎用のコネクターを利用できる。撮像ユニット140が着脱可能な場合、撮像ユニット140を1つだけ備えた構成にしてもよい。この場合、撮像ユニット140を装着する装着箇所を、図1に示す2つの撮像ユニット140の位置に設ければよい。この構成では、投射部本体120の先端の向きに応じて、適切な装着位置に撮像ユニット140を装着すればよい。
 撮像部141の撮像レンズ(図示略)には、図2(D)に示すように、後述する検出処理で参照する軸P(図3(A))に一致するように、基準線141a(基準スケール)が付されたカバー141bを装着してもよい。この場合、プロジェクター100の製造時、或いは設置時に、基準線141aの位置が理想的な基準線となるように調整される。本実施形態では、カバー141bが付されていない構成として説明する。
 プロジェクター100では、上述したようにボールジョイント132により投射部本体120(光軸L)を自在に動かすことができる。プロジェクター100は、撮像部141の撮像画像を利用して、投射部本体120の動き(傾き)を、X軸、Y軸、及びZ軸を中心とする回動として検出する。
 図3は、プロジェクター100が光軸Lの動き(傾き)を検出する動作の説明図であり、(A)、(B)、(C)及び(E)は撮像部141の撮像画像Dを示し、(D)及び(E)は投射部本体120の位置を示す。
 図3(A)に示すように、2つの撮像部141のうち少なくともいずれか一方の撮像画像Dには、投射部本体120の先端が写る。ここで、図2(A)及び(B)に示すように、投射部本体120の長手方向、すなわち光軸Lの方向がX軸に平行で、かつ投射部本体120が水平な状態を、投射部本体120の基準状態とする。基準状態における、投射部本体120のX軸、Y軸、及びZ軸に対する角度を、いずれも0度とする。また、基準状態における投射部本体120の長手方向を軸Pとする。軸Pは撮像部141の撮像面に対して固定されるので、撮像画像Dに対して軸Pは一定の位置にある。また、撮像部141の中心と支持軸131(ボールジョイント132)の中心とは、Y軸方向の位置が一致していることが好ましい。また、撮像部141は、上述のように、投射部本体120の前面125が撮像範囲に入るように撮像領域が設定されている。
 図3(B)には、投射部本体120をZ軸まわりに回動させた場合の撮像画像Dの例を示す。図3(B)の撮像画像Dには、投射部本体120が斜めに写っており、投射部本体120の長手方向を軸Qとすると、撮像画像から求められる軸Pと軸Qとの角度θは、投射部本体120のZ軸まわりの回転角に対応する。図3(B)の撮像画像Dにおいて、投射部本体120の像は、図3(A)の撮像画像Dに比べて大きさはほぼ変わらない。それは、投射部本体120が円筒形状をしているためである。
 撮像画像Dにおいて、投射部本体120の先端における軸Q上の点Q1から軸Pまでの距離をx1とし、軸Pと軸Qとの交点すなわちボールジョイント132から点Q1までの距離をr1とすると、角度θについて下記式(1)が成立する。
  sinθ=x1/r1 …(1)
 撮像部141と投射部本体120との距離は既知であるため、撮像画像Dにおける画素数から投射部本体120の上面の位置における実サイズを求めることが可能である。従って、撮像画像Dから距離x1を求めることができる。また、距離r1は前面125からボールジョイント132までの距離であり、既知である。
 従って、下記式(2)の演算処理により、角度θを求めることができる。
  θ=sin-1(x1/r1) …(2)
 図3(C)は投射部本体120をX軸まわりに回動させた場合の撮像画像Dの例を示し、(D)は投射部本体120をX軸まわりに回動させた場合のプロジェクター100の正面図である。投射部本体120の回動の中心はボールジョイント132であるから、撮像画像Dでは、回動に伴い投射部本体120の画像がシフトする。この場合の投射部本体120の軸Qと基準状態の軸Pとの間の距離(シフト量)をx2とし、前面125に平行な面におけるボールジョイント132から全面125の中心までの距離をr2とすると、投射部本体120の回動角λについて下記式(3)が成立する。
  sinλ=x2/r2 …(3)
 距離x2は撮像画像Dから求めることができる。例えば、撮像画像Dにおいて投射部本体120の画像の中心を求めて軸Qとし、予め基準状態における撮像画像D中の軸Pの位置が設定または記憶されていれば、距離x2が求められる。また、距離r2も既知であり、距離r2の値を予め記憶しておけばよい。
 従って、下記式(4)の演算処理により、角度λを求めることができる。
  λ=sin-1(x2/r2) …(4)
 図3(E)は投射部本体120をX軸まわりに回動させた場合の撮像画像Dの例を示し、(F)は投射部本体120をY軸まわりに回動させた場合のプロジェクター100の側面図である。投射部本体120の回動中心はボールジョイント132であるから、撮像画像Dにおいて、回動に伴い投射部本体120の先端の位置がシフトする。この場合の投射部本体120の先端のシフト量をx3とすると、上述した距離r1、及び、投射部本体120の回動角εについて下記式(5)が成立する。
  cosε=(r1-x3)/r1 …(5)
 従って、下記式(6)により、角度εを求めることができる。
  ε=cos-1{(r1-x3)/r1} …(6)
 なお、投射部本体120がY軸まわりに回動して、撮像画像Dが図3(E)に示す状態となるのは、投射部本体120の先端が上向きに回動した場合と、下向きに回動した場合とがある。これらの2つの場合を区別する方法としては、例えば、投射部本体120の回動により、撮像画像Dにおける投射部本体120の画像が台形に歪んだ場合に、この歪みの形状に基づき、投射部本体120の回動の方向を決定してもよい。
 以上のように、プロジェクター100は、投射部本体120の光軸Lの方向を示す角度θ、λ、εを求めることができる。また、投射部本体120の動きが、X、Y、Zの各軸のうち複数の軸を中心とする動きを含む場合も、上記のように光軸Lの方向を求めることができる。ここで、光軸Lの方向を求める方法は、上述した演算処理の他、予め記憶したLUT(ルックアップテーブル)を用いてもよい。
 図4は、プロジェクター100の制御系10の構成を示す機能ブロック図である。
 プロジェクター100の制御系10は、画像データを出力する画像供給装置30を接続するインターフェイス(I/F)部12を備える。
 画像供給装置30は、例えば、DVDプレーヤー等の画像再生装置、デジタルテレビチューナー等の放送受信装置、ビデオゲーム機やパーソナルコンピューター等の画像出力装置が挙げられる。画像供給装置30は、パーソナルコンピューター等と通信して画像データを受信する通信装置等であってもよい。また、画像供給装置30は、ディジタル画像データを出力する装置に限定されず、アナログ画像信号を出力する装置であってもよい。この場合、画像供給装置30の出力側またはI/F部12に、アナログ画像信号からディジタル画像データを生成するアナログ/ディジタル変換装置を設ければよい。また、I/F部12が備えるコネクター及びインターフェイス回路の具体的な仕様や数は任意である。
 画像供給装置30は、I/F部12が対応可能なデータフォーマットでディジタル画像データを出力する。画像供給装置30が入力するデータは、I/F部12が対応可能なデータフォーマットであれば、データの内容が静止画像であっても動画像(映像)であってもよい。以下の説明では、制御系10に画像供給装置30から入力されるデータを、画像データと呼ぶ。
 制御系10は、プロジェクター100の各部を制御する制御部11と、I/F部12に入力される画像データに基づく画像をスクリーンSCに表示(投射)する光投射部20と、を備える。また、I/F部12には、画像データを処理して表示用の画像信号を光投射部20に出力する画像処理部13が接続される。
 画像処理部13は、制御部11の制御に従って、I/F部12に入力される画像データに対し、色調補正等の処理を実行する。画像処理部13が処理した画像データは、フレーム毎に画像信号に変換され、表示駆動部14に入力される。また、画像処理部13は、記憶部17に記憶された画像データを表示することもできる。この場合、制御部11から画像処理部13に対し、記憶部17に記憶された画像データが入力され、画像処理部13は画像データに対する処理を行って、画像信号を表示駆動部14に出力する。
 制御部11は、例えば、図示しないCPU、ROM、及びRAMを備え、ROMが記憶するプログラムをCPUが実行することにより、制御系10の各部を制御する。
 制御部11は、上記プログラムを実行することにより、プロジェクター100が画像を投射する動作の制御、投射画像を補正する制御等を行う。制御部11は、画像処理部13が実行する処理の実行タイミング、実行条件等を制御する。また、制御部11は、光投射部20の光源制御部15を制御して、光源21の輝度の調整等を行う。
 制御部11は、プロジェクター100を制御する機能部として、撮像制御部11a、投射方向検出部11b、及び、投射制御部11cを備える。
 制御部11は、ユーザーの入力操作を受け付ける入力部18に接続される。入力部18は、スイッチを備えた操作パネル19に接続され、操作パネル19における操作を検出する。また、入力部18は、リモコン40が送信する赤外線信号を受信する赤外線受光部として構成され、リモコン40における操作を検出する。入力部18は、操作パネル19及びリモコン40における操作を示す操作データを制御部11に出力する。
 制御部11には記憶部17が接続される。記憶部17は、制御部11のCPUが実行するプログラムやデータを不揮発的に記憶する記憶装置である。記憶部17は、制御部11が制御系10を制御するための制御プログラム、制御プログラムで処理される各種設定データ等を記憶する。本実施形態の記憶部17は、方向補正データ17aを記憶する。方向補正データ17aは、投射制御部11cが処理に用いるパラメーターや設定値等を含むデータである。
 また、制御部11には、撮像部141が接続される。図4には1つの撮像部141を示すが、2つの撮像部141をそれぞれ制御部11に接続してもよい。或いは、2つの撮像部141のいずれか一方を選択して撮像画像を取得し制御部11に出力するカメラインターフェイス回路(図示略)を設け、このカメラインターフェイス回路に2つの撮像部141を接続してもよい。また、撮像ユニット140を着脱可能な構成とした場合は、撮像ユニット140が取り外されることで制御部11と撮像部141との接続が解除される構成とすればよい。
 また、制御部11には通信部16が接続される。通信部16は、無線LAN(Wi‐Fi(登録商標))、Bluetooth(登録商標)等の規格に準じた無線データ通信を、プロジェクター100の外部の装置と実行する。また、通信部16は有線ケーブルを介して通信を行ってもよい。
 撮像制御部11aは、撮像部141を制御して撮像を実行させ、撮像画像データを取得する。撮像制御部11aは、プロジェクター100が備える2つの撮像部141の一方のみに撮像を実行させてもよいし、2つの撮像部141に撮像させて各々の撮像部141から撮像画像データを取得してもよい。
 投射方向検出部11bは、撮像部141の撮像画像データを解析することにより、光軸L(図1)の方向を検出する。投射方向検出部11bが実行する処理は、図3(A)~(F)を参照して説明したように、撮像部141の撮像画像をもとに光軸Lの回動の角度を算出する処理である。
 投射制御部11cは、画像処理部13、表示駆動部14、及び光源制御部15を制御して、画像供給装置30からI/F部12に入力される画像データに基づく投射画像Pを、スクリーンSCに投射させる。また、投射制御部11cは、投射方向検出部11bが検出した光軸Lの方向に対応する補正処理を、画像処理部13に実行させる。
 投射部本体120が、上述した基準状態で投射面であるスクリーンSCに正対すると仮定した場合、光軸LがY軸まわりに回動すると、光軸LはスクリーンSCに対して上または下斜め方向となる。このため、スクリーンSC上の投射画像Pには縦方向(高さ方向)の台形歪みが生じる。
 また、光軸LがZ軸まわりに回動すると、光軸LはスクリーンSCに横斜め方向となるので、スクリーンSC上の投射画像Pには横方向(水平方向)の台形歪みが生じる。
 投射制御部11cは、画像処理部13に対し、Y軸まわり及びZ軸まわりの光軸Lの回動角に対応する台形歪み補正処理を実行させる。記憶部17は、画像処理部13が台形歪み補正を行うための処理条件、パラメーター等を含む方向補正データ17aを記憶する。方向補正データ17aは、例えば、Y軸まわり及びZ軸まわりの光軸Lの回動角に対応する台形歪み補正のパラメーターである。投射制御部11cは、方向補正データ17aから、投射方向検出部11bが検出する回動角に対応するパラメーター等を読み出して画像処理部13に出力することで、速やかに、投射画像Pの歪みを補正できる。
 さらに、光軸LがX軸まわりに回動すると、投射画像PがスクリーンSCの面内で回動する。この回動が、ユーザーが意図した動きである場合、制御部11は補正を行わない。操作パネル19やリモコン40の操作によって、投射画像Pの回動を補正するよう設定、または指示がされた場合、投射制御部11cは、投射画像Pの回動を補正する。これにより、投射部本体120に正対するスクリーンSCに基準状態で投射画像Pを投射する場合と同様の投射画像Pとなるように、画像を回転させる等の処理を画像処理部13に実行させる。
 光投射部20は、光源21と、光源21が発する光を変調して画像光を生成する変調部22と、変調部22が変調した画像光をスクリーンSCに投射して投射画像Pを結像する投射光学系23とを備える。
 光源21は、ハロゲンランプ、キセノンランプ、超高圧水銀ランプ等のランプ、或いは、LEDやレーザー光源等の固体光源で構成される。光源21は、光源制御部15から供給される電力により点灯し、変調部22に向けて光を発する。光源制御部15は、制御部11の制御に従って、光源21の発光輝度を調整できる。
 変調部22は、光源21が発する光を変調して画像光を生成し、画像光を投射光学系23に照射する。表示駆動部14は、画像処理部13が出力する画像信号に基づき、光変調素子の各画素を駆動して、光変調素子にフレーム(画面)単位で画像を描画する。
 投射光学系23は、変調部22で変調された光をスクリーンSC上に結像するレンズを備える。また、投射光学系23は、ズームレンズ、フォーカスレンズ等の各種のレンズまたはレンズ群を含んでもよい。
 図5は、プロジェクター100の動作を示すフローチャートである。
 この図5の動作は撮像部141の撮像画像に基づき光軸Lの方向を検出して投射画像Pを補正する動作である。図5の動作は、プロジェクター100が投射画像Pの投射中に、操作パネル19またはリモコン40の動作で指示が入力された場合に、実行される。この動作において制御部11は検出部として機能する。
 制御部11は、2つの撮像部141をそれぞれ制御して、撮像を実行させる(ステップST11)。制御部11は、各々の撮像部141から撮像画像データを取得する(ステップST12)。
 ここで、制御部11は、2つの撮像部141の撮像画像データのいずれかを、処理対象として選択してもよいし、撮像部141から撮像画像データが入力される順に撮像画像データとしてもよい。また、2つの撮像部141を同時に処理してもよい。例えば、2つの撮像部141を結合、或いは合成して、1つの処理対象の画像データを生成してもよい。
 制御部11は、処理対象の撮像画像データから投射部本体120の像を検出し(ステップST13)、検出した投射部本体120の像の方向および形状を特定する(ステップST14)。制御部11は、ステップST14で特定した投射部本体120の像の方向及び形状と、基準状態とを対比し、上述した演算処理等を行うことで、X軸、Y軸、及びZ軸まわりの光軸Lの回動角すなわち投射方向を算出する(ステップST15)。
 そして、制御部11は、算出した投射方向に対応して投射画像Pの補正を実行させる(ステップST16)。例えば、制御部11は、算出した投射方向に対応する補正用のデータを、方向補正データ17aから取得して画像処理部13に設定し、補正を行う。
 その後、制御部11は、投射を終了する条件の正否を判定する(ステップST17)。操作パネル19やリモコン40の操作により投射終了が指示された場合や、画像供給装置30が画像データの出力を停止するなど、投射終了の条件が成立した場合(ステップST17;Yes)、制御部11は本処理を終了する。
 一方、投射を終了しない場合(ステップST17;No)、制御部11はステップST11に戻り、処理を継続する。
 以上説明したように、本発明を適用した実施形態に係るプロジェクター100は、画像を投射する光投射部20と、光投射部20を収容する投射部本体120と、投射部本体120を支持する電源収容部110とを備える。また、電源収容部110または投射部本体120のいずれかに設けられる撮像部141と、撮像部141の撮像画像に基づいて投射部本体120と電源収容部110との相対的位置または相対的方向を検出する制御部11と、を備える。これにより、撮像部141の撮像画像を利用して、電源収容部110と投射部本体120との相対的位置または相対的方向を検出できる。
 また、本実施形態では、撮像部141を電源収容部110に配置し、投射部本体120を撮像する。この構成によれば、撮像部141を用いたシンプルな構成により、投射部本体120と電源収容部110との相対的位置または相対的方向を検出できる。このため、例えば、電源収容部110に対して投射部本体120が動いて相対的位置または相対的方向が変化した場合に、この変化を検出できる。また、動きの自由度が高い構成においても構成を複雑化することなく対応できる。
 また、撮像部141を、投射部本体120側に配置し、電源収容部110を撮像することにより、制御部11が電源収容部110と投射部本体120との相対的位置または相対的方向を求めてもよい。
 また、制御部11は、撮像部141の撮像画像に含まれる投射部本体120または電源収容部110の、基準状態からの変化に基づいて、投射部本体120と電源収容部110との相対的位置または相対的方向を検出する。このため、撮像画像を利用して、投射部本体120と電源収容部110との相対的位置または相対的方向を速やかに求めることができる。
 また、撮像ユニット140に、図2(D)に示すように、基準線141a(基準スケール)を有するカバーを設けている。つまり、撮像部141の撮像範囲には、基準線141aが配置される。制御部11は、撮像部141の撮像画像に写る基準線141aの像と投射部本体120の像とを検出し、投射部本体120と電源収容部110との相対的位置または相対的方向を検出する。このため、基準線141aを利用することで、より高精度、かつ負荷の軽い処理により、投射部本体120と電源収容部110との相対的位置または相対的方向を検出できる。ここで、カバーは撮像レンズに対し回動可能に取り付けられてもよい。また、撮像部141は、電源収容部110に着脱可能に配置されてもよい。この場合、撮像部141を電源収容部110に装着して利用でき、撮像部141を使わない場合に取り外すことができる。
 上記実施形態では、制御部11が、X軸、Y軸、及びZ軸まわりの光軸Lの回動角を検出する例を説明した。この回動角は、電源収容部110と投射部本体120の相対的位置関係、或いは相対的方向の一例である。すなわち、制御部11は、X軸、Y軸、及びZ軸まわりの光軸Lの回動角から、電源収容部110と投射部本体120との相対位置を算出してもよいし、相対角度を求めてもよい。また、制御部11は、撮像部141の撮像画像から直接、電源収容部110と投射部本体120との相対位置及び/又は相対角度を求めてもよい。
 投射部本体120は、少なくとも1軸の回動が可能なボールジョイント132により電源収容部110に連結され、制御部11は、ボールジョイント132を中心とした投射部本体120と電源収容部110との相対的角度を検出する。
 なお、上述した各実施形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。
 例えば、変調部22は、透過型の液晶ライトバルブを用いる構成であっても、反射型液晶パネルを用いる構成であっても、デジタルミラーデバイス(DMD)を備えた構成であってもよい。また、光源の光を3つの色光に分離して、各色光をそれぞれ液晶パネルやDMDを用いて変調する構成であっても、1つの液晶パネルまたはDMDとカラーホイールとを組み合わせた構成であってもよい。また、プロジェクター100は、スクリーンSCの正面側に配置されてスクリーンSCの正面に投射画像Pを投射する構成に限定されず、スクリーンSCの背面側に配置されるリアプロジェクション型のプロジェクターであってもよい。さらに、スクリーンSCは壁面であってもよい。
 また、例えば、図3(A)~(F)で示したように、撮像部141の撮像画像から投射部本体120の位置、及びその向きを容易に検出できるように、投射部本体120の上面(撮像部141の撮像範囲内)に所定のマーカー(マーク)を付してもよい。マーカーは、塗装や貼り付けにより設けられ、色彩や明暗により、光学的に検出可能な模様(パターン)を有し、縞模様や、市松模様等の幾何学模様を有するものとすることができる。この場合、マーカーを基準として、投射部本体120と電源収容部110との相対的位置または相対的方向を速やかに求めることができる。
 また、上記実施形態では、図3(A)~(F)を参照して説明したように、撮像部141の撮像画像Dに基づき投射部本体120の回動を検出する構成として説明した。本発明はこれに限定されず、投射部本体120に重力センサー(加速度センサー)等の慣性センサーを設けて、この慣性センサーの検出結果と撮像画像Dとを用いて投射部本体120の回動の角度や方向を求めてもよい。
 また、上記実施形態では、撮像部141を電源収容部110に設けた構成を説明したが、本発明はこれに限定されない。撮像部141を投射部本体120に設ける構成であってもよい。この場合、制御部11は、撮像部141の撮像画像に写る電源収容部110の像に基づき、相対的位置または方向を求めれば良い。この例では、撮像部141のカバー141bに、投射部本体120の長手方向および幅方向を示すスケールを付してもよく、電源収容部110の下面にマーカーMを形成してもよい。
 また、上記実施形態では、制御部11が、撮像部141の撮像画像を解析して相対的位置または方向を求める例を説明したが、制御部11が撮像部141の撮像画像データを通信部16により外部のコンピューターに送信してもよい。この場合、プロジェクター100の外部のコンピューターが電源収容部110と投射部本体120との相対的な位置または方向を求めてもよく、求めた位置及び方向に対応する補正用のパラメーターを生成してもよい。
 また、図4に示した各機能ブロックはハードウェアとソフトウェアとの協働により実現される機能的構成を示すものであって、具体的な実装形態は特に制限されない。従って、必ずしも各機能ブロックに対応するハードウェアが実装される必要はなく、1つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクター100の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
 10…制御系、11…制御部(検出部)、11a…撮像制御部、11b…投射方向検出部、11c…投射制御部、13…画像処理部、17…記憶部、17a…方向補正データ、20…光投射部、100…プロジェクター、110…電源収容部(取付部)、120…投射部本体(本体)、125…前面、128…投射口、131…支持軸、132…ボールジョイント(連結部)、140…撮像ユニット、141…撮像部、141a…基準線、141b…カバー、200…ライティングダクト、A1、A2…撮像範囲、D…撮像画像、L…光軸、P…投射画像、SC…スクリーン。

Claims (12)

  1.  画像を投射する投射部と、
     前記投射部を収容する本体と、
     前記本体を支持する取付部と、
     前記取付部または前記本体のいずれかに設けられる撮像部と、
     前記撮像部の撮像画像に基づいて前記本体と前記取付部との相対的位置または相対的方向を検出する検出部と、
     を備えることを特徴とするプロジェクター。
  2.  前記撮像部は、前記取付部に設けられ、前記本体を撮像すること、
     を特徴とする請求項1記載のプロジェクター。
  3.  前記撮像部は、前記本体に設けられ、前記取付部を撮像すること、
     を特徴とする請求項1記載のプロジェクター。
  4.  前記検出部は、前記撮像部の撮像画像に含まれる前記本体または前記取付部の、基準状態からの変化に基づいて、前記本体と前記取付部との相対的位置または相対的方向を検出すること、
     を特徴とする請求項2または3に記載のプロジェクター。
  5.  前記本体または前記取付部には、前記撮像部の撮像範囲内に所定のマークが付されており、前記検出部は、前記撮像部の撮像画像に含まれる前記マークの、基準状態からの変化に基づいて、前記本体と前記取付部との相対的位置または相対的方向を検出すること、
     を特徴とする請求項4記載のプロジェクター。
  6.  前記本体は、少なくとも1軸の回動が可能な連結部により前記取付部に連結され、
     前記検出部は、前記連結部の回動軸を中心とした前記本体と前記取付部との相対的角度を検出すること、
     を特徴とする請求項1から5のいずれかに記載のプロジェクター。
  7.  前記撮像部の撮像範囲に、基準スケールが配置され、
     前記検出部は、前記撮像部の撮像画像に写る前記基準スケールの像と前記本体の像とを検出することにより、前記本体と前記取付部との相対的位置または相対的方向を検出すること、
     を特徴とする請求項1から6のいずれかに記載のプロジェクター。
  8.  前記撮像部は、撮像レンズを備え、
     前記撮像レンズにはカバーが付され、前記カバーに前記基準スケールが形成されること、
     を特徴とする請求項7記載のプロジェクター。
  9.  前記カバーは、前記撮像レンズに対し回動可能に取り付けられること、
     を特徴とする請求項8記載のプロジェクター。
  10.  前記撮像部は、前記取付部または前記本体に着脱可能に配置されること、
     を特徴とする請求項1から9のいずれかに記載のプロジェクター。
  11.  前記検出部が検出した前記本体と前記取付部との相対的位置または相対的方向に基づいて、前記投射部が投射する画像を補正する補正部を備えることを特徴とする請求項1から9のいずれかに記載のプロジェクター。
  12.  画像を投射する投射部を収容する本体と、前記本体を支持する取付部と、を備えたプロジェクターにより、
     前記取付部または前記本体に設けられる撮像部の撮像画像に基づいて、前記本体と前記取付部との相対的位置または相対的方向を検出し、
     検出した相対的位置または相対的方向に基づいて投射画像を補正すること、
     を特徴とするプロジェクターの制御方法。
PCT/JP2016/001604 2015-03-30 2016-03-18 プロジェクター、及び、プロジェクターの制御方法 WO2016157805A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201680012996.5A CN107430321B (zh) 2015-03-30 2016-03-18 投影仪和投影仪的控制方法
US15/560,309 US10469815B2 (en) 2015-03-30 2016-03-18 Projector and control method for projector that detects a change of position based on captured image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-068263 2015-03-30
JP2015068263A JP6550849B2 (ja) 2015-03-30 2015-03-30 プロジェクター、及び、プロジェクターの制御方法

Publications (1)

Publication Number Publication Date
WO2016157805A1 true WO2016157805A1 (ja) 2016-10-06

Family

ID=57005739

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/001604 WO2016157805A1 (ja) 2015-03-30 2016-03-18 プロジェクター、及び、プロジェクターの制御方法

Country Status (4)

Country Link
US (1) US10469815B2 (ja)
JP (1) JP6550849B2 (ja)
CN (1) CN107430321B (ja)
WO (1) WO2016157805A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10499026B1 (en) * 2016-06-27 2019-12-03 Amazon Technologies, Inc. Automation correction of projection distortion
JP1581069S (ja) * 2016-10-25 2017-07-10
JP1581068S (ja) * 2016-10-25 2017-07-10
JP1581090S (ja) * 2016-12-16 2017-07-10
JP1581091S (ja) * 2016-12-16 2017-07-10
DE102018203343A1 (de) * 2018-03-07 2019-09-12 BSH Hausgeräte GmbH Interaktionsmodul
JP7119693B2 (ja) * 2018-07-23 2022-08-17 セイコーエプソン株式会社 プロジェクター、及び、投射システム
CN112051704B (zh) * 2019-06-06 2022-01-18 中强光电股份有限公司 电子设备
US11652969B2 (en) * 2020-02-10 2023-05-16 Ricoh Company, Ltd. Projection apparatus and operation detection apparatus
CN114339179A (zh) * 2021-12-23 2022-04-12 深圳市火乐科技发展有限公司 投影校正方法、装置、存储介质以及投影设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012255988A (ja) * 2011-06-10 2012-12-27 Panasonic Corp 画像投影装置およびこれを備えた携帯型情報処理装置
JP2013005073A (ja) * 2011-06-14 2013-01-07 Seiko Epson Corp プロジェクター、およびプロジェクターの制御方法
JP2013195498A (ja) * 2012-03-16 2013-09-30 Nikon Corp マルチプロジェクタシステム
JP2014187512A (ja) * 2013-03-22 2014-10-02 Casio Comput Co Ltd 投影装置、投影方法、及び投影のためのプログラム

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4036459A (en) * 1976-02-27 1977-07-19 Optical Associates, Inc. Instrument swivel bracket
US4199257A (en) * 1978-06-26 1980-04-22 Sierra Research Corporation Projected reticle optical sighting system
JPH05164835A (ja) 1991-12-16 1993-06-29 Taisei Corp 測量と監視装置、及びその方法
US5639151A (en) * 1996-02-16 1997-06-17 Mcnelley; Steve H. Pass-through reflective projection display
AU1818100A (en) * 1998-11-12 2000-05-29 Endale G. Haile-Mariam Desktop projection monitor
US7156359B2 (en) * 2003-04-11 2007-01-02 Csav, Inc. Secure mounting system for overhead mounted projector
JP2005164361A (ja) 2003-12-02 2005-06-23 Nippon Super Map Kk インテリジェントgpsとicタグ相互通信による位置検知とgisによる処理
WO2006077665A1 (ja) * 2005-01-20 2006-07-27 National University Corporation NARA Institute of Science and Technology 投影装置、投影装置の制御方法、複合投影システム、投影装置の制御プログラム、投影装置の制御プログラムが記録された記録媒体
US20070115397A1 (en) * 2005-06-24 2007-05-24 Fakespace Labs, Inc. Projection display with internal calibration bezel for video
US20070115361A1 (en) * 2005-06-24 2007-05-24 Fakespace Labs, Inc. Dual camera calibration technique for video projection systems
US8777418B2 (en) * 2006-01-26 2014-07-15 Christie Digital Systems Usa, Inc. Calibration of a super-resolution display
US7922139B2 (en) * 2006-05-05 2011-04-12 Milestone Av Technologies Llc Adjustable projector mount
US8406562B2 (en) * 2006-08-11 2013-03-26 Geo Semiconductor Inc. System and method for automated calibration and correction of display geometry and color
US20080101725A1 (en) * 2006-10-26 2008-05-01 I-Jong Lin Image display system configured to update correspondences using arbitrary features
JP2008287171A (ja) * 2007-05-21 2008-11-27 Funai Electric Co Ltd 投射型映像表示装置
JP2009009071A (ja) * 2007-06-29 2009-01-15 Brother Ind Ltd 支持脚付きプロジェクタ
US20090244492A1 (en) * 2008-03-28 2009-10-01 Christie Digital Systems Usa, Inc. Automated geometry correction for rear projection
JP2010085253A (ja) 2008-09-30 2010-04-15 Nidec Copal Corp ロータリエンコーダ
JP5308765B2 (ja) 2008-10-03 2013-10-09 パナソニック株式会社 照明装置
CN201408367Y (zh) * 2009-03-19 2010-02-17 浙江海辰空间新能源有限公司 定日跟踪探头
CN101846867B (zh) * 2010-04-30 2011-09-28 安阳工学院 一种磁场力驱动扫描的激光投影装置
JP2012058600A (ja) * 2010-09-10 2012-03-22 Hitachi Consumer Electronics Co Ltd 投写型映像表示装置の天吊構造、及びそれを備えた投写型映像表示装置
JP2014516409A (ja) * 2011-04-15 2014-07-10 ファロ テクノロジーズ インコーポレーテッド レーザトラッカの改良位置検出器
WO2012162566A1 (en) * 2011-05-25 2012-11-29 Third Dimension Ip Llc Systems and methods for alignment, calibration and rendering for an angular slice true-3d display
JP2013003185A (ja) * 2011-06-13 2013-01-07 Seiko Epson Corp プロジェクター、プロジェクターシステム、及び画像投写方法
JP5870586B2 (ja) * 2011-09-28 2016-03-01 カシオ計算機株式会社 プロジェクタ制御装置、表示装置及びプログラム。
US8652072B2 (en) * 2012-01-11 2014-02-18 Stimson Biokinematics, Llc Kinematic system
JP5842625B2 (ja) * 2012-01-19 2016-01-13 株式会社リコー 原稿読取装置及び画像形成装置と原稿読取方法
WO2014128299A1 (en) * 2013-02-25 2014-08-28 Nikon Metrology N.V. Projection system
JP2015173428A (ja) * 2014-02-19 2015-10-01 株式会社リコー 投影システム及び投影方法
WO2016018327A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Camera alignment based on an image captured by the camera that contains a reference marker
US9810975B2 (en) * 2015-02-11 2017-11-07 University Of Denver Rear-projected life-like robotic head
US9720446B2 (en) * 2015-04-21 2017-08-01 Dell Products L.P. Information handling system projected work space calibration
US9712704B2 (en) * 2015-08-21 2017-07-18 Xerox Corporation Scanner providing centered alignment marks
US11754267B2 (en) * 2015-12-10 2023-09-12 7D Surgical Inc. Optical alignment system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012255988A (ja) * 2011-06-10 2012-12-27 Panasonic Corp 画像投影装置およびこれを備えた携帯型情報処理装置
JP2013005073A (ja) * 2011-06-14 2013-01-07 Seiko Epson Corp プロジェクター、およびプロジェクターの制御方法
JP2013195498A (ja) * 2012-03-16 2013-09-30 Nikon Corp マルチプロジェクタシステム
JP2014187512A (ja) * 2013-03-22 2014-10-02 Casio Comput Co Ltd 投影装置、投影方法、及び投影のためのプログラム

Also Published As

Publication number Publication date
CN107430321A (zh) 2017-12-01
CN107430321B (zh) 2020-02-11
JP2016188903A (ja) 2016-11-04
US20180063496A1 (en) 2018-03-01
JP6550849B2 (ja) 2019-07-31
US10469815B2 (en) 2019-11-05

Similar Documents

Publication Publication Date Title
JP6550849B2 (ja) プロジェクター、及び、プロジェクターの制御方法
US9445066B2 (en) Projection apparatus, projection method and projection program medium that determine a roll angle at which the projection apparatus is to be turned to correct a projected image to be a rectangular image on a projection target
US20140285778A1 (en) Projection apparatus, projection method, and projection program medium
WO2015111402A1 (ja) 位置検出装置、位置検出システム、及び、位置検出方法
JP6343910B2 (ja) プロジェクター、及び、プロジェクターの制御方法
US9811876B2 (en) Display apparatus and control method
JP2017173574A (ja) プロジェクター
JP2014187512A (ja) 投影装置、投影方法、及び投影のためのプログラム
JP6330292B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP2013020199A (ja) プロジェクションシステム、画像供給装置、プロジェクター、及び、画像投射方法
JP5970700B2 (ja) プロジェクター、プロジェクターの制御方法、プログラム、および、プロジェクションシステム
JP4774826B2 (ja) 投影装置、投影制御方法及びプログラム
JP6191019B2 (ja) 投影装置及び投影方法
JP2012198460A (ja) プロジェクター、及び、プロジェクターの制御方法
JP7147617B2 (ja) プロジェクター及びプロジェクターの制御方法
CN110764340B (zh) 投影仪和投射系统
JP2009175322A (ja) プロジェクタ
JP2012199772A (ja) プロジェクター及びプロジェクターの設置方法
JP6197322B2 (ja) 投影装置、画像出力装置、投影方法及び投影プログラム
US20150185588A1 (en) Strobe device and image pick-up device provided with strobe device
JP2016188904A (ja) プロジェクター、及び、プロジェクターの制御方法
JP6347126B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP2022147145A (ja) プロジェクタ、投影システム、補正値修正方法及びプログラム
JP2008047406A (ja) 吊り下げ式照明装置およびランタン
JP5893384B2 (ja) パラメータ取得装置、パラメータ取得方法、及び、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16771698

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15560309

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16771698

Country of ref document: EP

Kind code of ref document: A1