WO2013140594A1 - プロジェクタシステムおよびフォーカス調整方法 - Google Patents

プロジェクタシステムおよびフォーカス調整方法 Download PDF

Info

Publication number
WO2013140594A1
WO2013140594A1 PCT/JP2012/057453 JP2012057453W WO2013140594A1 WO 2013140594 A1 WO2013140594 A1 WO 2013140594A1 JP 2012057453 W JP2012057453 W JP 2012057453W WO 2013140594 A1 WO2013140594 A1 WO 2013140594A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
projection
unit
lens
projector
Prior art date
Application number
PCT/JP2012/057453
Other languages
English (en)
French (fr)
Inventor
秀明 東
Original Assignee
Necディスプレイソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necディスプレイソリューションズ株式会社 filed Critical Necディスプレイソリューションズ株式会社
Priority to PCT/JP2012/057453 priority Critical patent/WO2013140594A1/ja
Publication of WO2013140594A1 publication Critical patent/WO2013140594A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/53Means for automatic focusing, e.g. to compensate thermal effects

Definitions

  • the present invention relates to projector technology, and more particularly to technology for automatically adjusting the focus of a projection screen.
  • Patent Document 1 describes a projector having an autofocus function.
  • the projector includes a projection lens provided with a focus driving mechanism, a distance measuring unit that measures a distance from the projector to the projection surface, and a focus driving mechanism that operates according to the distance measured by the distance measuring unit.
  • a focus adjustment unit that automatically adjusts the focus of the projection screen; an operation unit; and a control unit that receives an input operation by a user via the operation unit and controls operations of the units.
  • the projection lens, distance measuring means, focus adjustment unit and control unit are provided on the projector body side.
  • the operation unit is a remote controller, for example, and includes a plurality of operation buttons.
  • the remote controller supplies a command corresponding to the pressed operation button to the control unit on the projector main body side.
  • the command includes a command for executing autofocus.
  • the control unit receives an autofocus execution command from the remote controller, the control unit controls the operations of the distance measuring unit and the focus adjustment unit to perform focus adjustment.
  • the focus function is an essential function for the projector optical system, it is necessary to provide it for each projector.
  • the distance measurement means need only be able to measure the distance between the projection surface and the projector, and is required for each projector. There is no.
  • the distance measuring means ranging function
  • the focus function are provided in the projector body, for example, when the distance measuring means breaks down, it is necessary to send out the projector body for repair. During the repair period, the projector body cannot be used. As described above, the projector itself may not be used due to a defect in the distance measuring means that is essentially unnecessary.
  • the distance measuring means Even when the distance measuring function breaks down, it is usually possible to adjust the projection plane by moving one or both of the projector body and the projection plane to adjust the projection distance. Therefore, if the distance measuring means has a detachable unit structure, when the distance measuring means fails, only the unit can be repaired and the projector main body can be used as it is. However, when such a detachable unit structure is adopted, the apparatus cost is greatly increased.
  • An object of the present invention is to provide a projector system and a focus adjustment method in which the projector main body can be used even when the distance measuring function is broken, and the apparatus cost is not significantly increased.
  • a projector body including a projection lens including a plurality of lenses, and an image projected onto a projection surface by the projection lens;
  • a remote controller provided separately from the projector body, The remote controller has a projection distance acquisition means for acquiring a projection distance from the tip of the projection lens to the projection surface in accordance with a user operation,
  • the projection distance acquisition means measures a first distance from the remote controller to the projection plane and a second distance from the remote controller to a predetermined part of the projector main body, An angle formed by the measurement direction and the measurement direction of the second distance is detected, and the detected angle, the measured values of the first and second distances, and the tip of the projection lens that are held in advance are detected.
  • the projector body includes a focus adjustment unit that adjusts a focus by moving at least a part of the projection lens back and forth based on the projection distance calculated by the projection distance acquisition unit. Is done.
  • a projector main body comprising a plurality of lenses and including a projection lens that moves back and forth at least a part of the lenses; a projector main body that projects an image on a projection surface by the projection lens; and a remote controller provided separately from the projector main body;
  • a focus adjustment method for a projector system comprising: In the remote controller, the first control unit measures a first distance from the remote controller to the projection plane and a second distance from the remote controller to a predetermined part of the projector body, An angle formed between the measurement direction of the first distance and the measurement direction of the second distance is detected, and the detected angle and the measurement values of the first and second distances are held in advance; Calculating a projection distance from the tip of the projection lens to the projection plane based on the value of the distance from the tip of the projection lens to the predetermined portion;
  • the second control unit adjusts the focus by moving at least a part of the projection lens back and forth based on
  • FIG. 1 is a block diagram illustrating a configuration of a projector system according to a first embodiment of the present invention. It is a block diagram which shows the principal part of the remote controller of the projector system shown in FIG. It is a figure for demonstrating the principle of the distance calculation between two points performed with the remote controller of the projector system shown in FIG. It is a figure for demonstrating the principle of the distance calculation between two points performed with the remote controller of the projector system shown in FIG. It is a block diagram which shows the principal part of the projector main body of the projector system shown in FIG. It is a flowchart which shows one procedure of the focus adjustment process performed with the projector system shown in FIG.
  • FIG. 1 is a block diagram showing a configuration of a projector system according to the first embodiment of the present invention.
  • the projector system includes a remote controller 1 and a projector main body 2 provided with a reflecting portion 2a at a predetermined position of the casing.
  • Fig. 2 shows the main parts of the remote controller 1.
  • the remote controller 1 includes a control unit 10, a distance measurement unit 11, a light source 12, a transmission unit 13, a focus key 14, and an acceleration sensor 15.
  • the distance measuring unit 11 includes an optical distance measuring sensor that measures the distance from the remote controller 1 to the object to be measured.
  • Some optical distance measuring sensors include, for example, a light emitting element such as an infrared LED (Light Emitting Diode), a light projecting lens, a light receiving element, and a light receiving lens.
  • the light emitting element and the light receiving element are provided on the same plane.
  • the light emitted from the light emitting element is irradiated onto the measurement target by the light projecting lens, and the reflected light from the measurement target enters the light receiving element via the light receiving lens.
  • the light receiving element is, for example, a PSD (Position sensitive detector).
  • the distance measuring unit 11 calculates the distance from the remote controller 1 to the distance measuring object based on the position of the reflected light spot formed on the light receiving surface of the light receiving element.
  • the distance measuring unit 11 receives the light after the light is output from the light emitting element. The distance may be measured based on the time required for detection by the element.
  • the light source 12 is a light source for a laser pointer, and is composed of, for example, a semiconductor laser having a peak wavelength in the visible light wavelength band.
  • a laser pointer is formed by irradiating the projection surface with laser light from the light source 12.
  • the light emission direction of the light source 12 is substantially the same as the distance measuring direction of the distance measuring unit 11.
  • the distance measuring direction is, for example, the direction of the optical axis of the light emitting element of the distance measuring sensor.
  • the optical axis of the light source 12 is substantially parallel to the optical axis of the light emitting element of the distance measuring sensor, and the directions of both optical axes (directions along the optical axis) are substantially the same.
  • the part indicated by the laser pointer can be generally regarded as a distance measurement target.
  • the transmission unit 13 transmits information to the projector main body 2 by wireless communication.
  • an infrared communication method or a short-range wireless communication method compliant with a standard such as Bluetooth can be applied.
  • the focus key 14 outputs a signal indicating an ON state only during a period when the key is pressed, and does not output a signal during other periods.
  • the acceleration sensor 15 is a so-called three-axis acceleration sensor that detects acceleration in each of three axes (x-axis, y-axis, and z-axis).
  • the z-axis is a direction perpendicular to the substrate surface on which the sensor unit is provided.
  • the x-axis and the y-axis respectively correspond to the first and second directions orthogonal to each other in the substrate in-plane direction.
  • the acceleration in the z-axis direction gravity acceleration
  • the horizontal state (tilt with respect to the horizontal plane) of the substrate surface can be detected.
  • the posture change amount (angle change amount) of the remote controller 1 can be detected based on the change amount of the acceleration in each of the x-axis, y-axis, and z-axis directions.
  • the control unit 10 includes a CPU (Central processing unit) and controls the operations of the distance measuring unit 11, the light source 12, the transmission unit 13, and the acceleration sensor 15 in accordance with a signal from the focus key 14, and performs distance measurement processing. Do.
  • CPU Central processing unit
  • control unit 10 counts the time for which the signal is continuously received from the focus key 14 (the duration of the signal reception state), and determines that the focus key 14 is pressed for a short time when the count value is smaller than the threshold value. If the count value is equal to or greater than the threshold value, it is determined that the focus key 14 has been pressed for a long time.
  • control unit 10 performs the test pattern display command transmission process, the first and the first, according to the operation when the user performs a short press and a long press of the focus key 14 in a predetermined order. 2 distance information acquisition processing, angle displacement amount calculation processing, distance calculation processing between two points, and distance information transmission processing are executed.
  • the control unit 10 executes a test pattern display command transmission process, and when receiving a long press of the focus key 14 thereafter, performs a first distance information acquisition process. Execute. Subsequently, when the long press of the focus key 14 is accepted, the control unit 10 executes a second distance information acquisition process. Thereafter, the control unit 10 sequentially executes an angular displacement amount calculation process, a point-to-point distance calculation process, and a distance information transmission process.
  • control unit 10 causes the transmission unit 13 to transmit a command signal for displaying the test pattern to the projector body 2.
  • the control unit 10 turns on the light source 12 and sends a laser pointer at the timing when a long press is received.
  • the control unit 10 measures the distance D1 from the remote controller 1 to the distance measurement target (in this case, the distance measurement target is the projection plane 3) at the timing when the long press state is released. Let Thereafter, the control unit 10 turns off the light source 12.
  • the control unit 10 turns on the light source 12 and sends a laser pointer at the timing when a long press is received. At the timing when the long press state is released, the control unit 10 sends the distance measurement unit 11 from the remote controller 1 to the distance measurement target (in this case, the distance measurement target is the reflection unit 2a of the projector main body 2). The distance D2 is measured. Thereafter, the control unit 10 turns off the light source 12.
  • the control unit 10 is a period from the time when the distance D1 is measured in the first distance information acquisition process to the time when the distance D2 is measured in the second distance information acquisition process.
  • the change in the output value of the acceleration sensor 15 is monitored, and the angle ⁇ formed by the distance measurement direction at the time of measuring the distance D1 and the distance measurement direction at the time of measuring the distance D2 is calculated based on the change amount.
  • the change amount of the output value of the acceleration sensor 15 includes the change amount of the acceleration in the axial directions of the x axis, the y axis, and the z axis. Based on the amount of change in acceleration in each axial direction, an angular displacement amount indicating how much the remote controller 1 has rotated in which direction can be calculated.
  • control unit 10 calculates the distance (distance between the two points) from the projector body 2 to the projection plane 3 based on the distances D1 and D2 and the angle ⁇ .
  • control unit 10 causes the transmission unit 13 to transmit distance information including the value of the distance between two points (projection distance) obtained by the point-to-point distance calculation process to the projector body 2.
  • FIG. 3A and 3B are diagrams for explaining the principle of the point-to-point distance calculation.
  • FIG. 3A schematically shows a state during distance measurement of distances D1 and D2 when the projector body 2 is viewed from above.
  • FIG. 3B schematically shows a state during distance measurement of the distances D1 and D2 when the projector body 2 is viewed from the side.
  • the reflecting portion 2a has a columnar or cylindrical shape, and the entire side surface is constituted by a diffusing surface or a reflecting surface that diffuses light.
  • the reflector 2 a is provided on the upper surface of the projector body 2.
  • the center of the circle (outer edge) of the reflecting portion 2a is located on the optical axis A of the projection lens, and when the projector main body 2 is viewed from the side, the center of the reflecting portion 2a.
  • the axis (axis passing through the center of the circle) is orthogonal to the optical axis A of the projection lens.
  • the first plane orthogonal to the central axis of the reflection unit 2a is orthogonal to the second plane orthogonal to the optical axis A of the projection lens, and the central axis of the reflection unit 2a and the light of the projection lens A third plane including the axis A is orthogonal to each of the first and second planes.
  • the straight line indicated by the alternate long and short dash line indicates the optical axis of the projection lens
  • the dashed one-sided arrow indicates the direction of image projection by the projector body 2
  • the solid-line one-sided arrow indicates the distance measuring direction.
  • a symbol B indicates a distance (corresponding to the distance D2) from the front surface of the remote controller 1 to the side surface of the reflecting portion 2a.
  • a symbol C indicates a distance from the front surface of the remote controller 1 to a predetermined position on the projection surface 3 (corresponding to the distance D1).
  • the predetermined position is a position that intersects (or is orthogonal to) the optical axis A of the projection lens on the projection surface 3.
  • Symbol A1 indicates a distance (projection distance) from the front surface of the projection lens to a predetermined position on the projection surface 3.
  • Reference sign A2 indicates the distance from the front surface of the projection lens to the side surface of the reflecting portion 2a when viewed from above.
  • Symbol A3 indicates the radius of the circle when the reflecting portion 2a is viewed from the upper surface.
  • the angle ⁇ is an angle formed by the distance measuring direction when the distance B is measured and the distance measuring direction when the distance C is measured.
  • A1 ⁇ (B + A3) 2 + C 2 ⁇ 2BCcos ⁇ 1/2 ⁇ (A2 + A3) (Formula 2)
  • the distance A2 and the radius A3 are both known values, and the control unit 10 holds the values of the distance A2 and the radius A3 in advance.
  • the control unit 10 can acquire the distance C, the distance B, and the angle ⁇ , respectively. Then, in the distance calculation process between the two points, the control unit 10 calculates the distance A1 (projection distance) by the above formula 2 based on the distance C, the distance B, the angle ⁇ , the distance A2, and the radius A3.
  • the distance A1 obtained by the above equation 2 is slightly longer than the actual projection distance, but this difference usually falls within the depth of field, and thus affects the focus adjustment. do not do.
  • FIG. 4 shows the main part of the projector body 2.
  • the projector main body 2 includes a control unit 20, a reception unit 21, a projection lens 22, a lens driving unit 23, an image display unit 24, an operation unit 25, and a storage unit 26.
  • the receiving unit 21 receives information (command and distance information) from the transmitting unit 13 of the remote controller 1 by wireless communication.
  • the communication method of the reception unit 21 is the same as that of the transmission unit 13.
  • the image display unit 24 displays an image based on the input video signal.
  • the projector main body 2 includes a light source, a display device, an illumination optical system for irradiating the display device with light from the light source, and an external image. It includes a video signal input unit to which a video signal is supplied from a supply device, and a video processing unit that performs processing necessary for appropriately displaying the input video signal on a display device. Since these configurations are well known as the configuration of the projector, detailed description thereof is omitted here.
  • the projection lens 22 projects an image displayed on the image display unit 24 onto the projection surface 3, and includes a plurality of lenses and has a lens moving mechanism that moves at least a part of the lenses in the front-rear direction.
  • the lens moving mechanism includes a lens motor, and the lens moves back and forth by the rotational driving force of the lens motor. For example, when the lens motor is rotated forward, the lens moves forward, and when the lens motor is rotated backward, the lens moves backward.
  • the amount of lens movement is determined by the amount of rotation of the lens motor.
  • the focus of the projection lens 22 can be adjusted by moving the lens back and forth.
  • the moving direction of the lens is a direction along the optical axis A of the projection lens 22.
  • a lens moving mechanism capable of adjusting the focus various mechanisms such as a mechanism for moving the entire projection lens 22 and a mechanism for moving a part of the projection lens 22 are known.
  • a mechanism that can move the front lens (focus lens) of the projection lens that is generally used is used.
  • the lens driving unit 23 drives the lens motor of the lens moving mechanism.
  • the operation unit 25 has a plurality of operation keys and outputs a signal corresponding to an operation by the user.
  • the plurality of operation keys include, for example, operation keys necessary for operating the projector body 2, such as a power button, direction keys indicating up / down / left / right directions, and a determination key for determining the operation.
  • the storage unit 26 is a storage unit such as a semiconductor memory, and includes a LUT (Look Up Table) 26a and test pattern information 26b.
  • LUT Look Up Table
  • the LUT 26a stores focus adjustment data indicating the relationship between the projection distance and the position of the focus lens.
  • the focus adjustment data defines the position of the focus lens on the optical axis A at which the projection screen is focused according to the projection distance.
  • the focus lens position data may be, for example, data indicating the amount and direction of movement of the focus lens from a predetermined position on the optical axis A, for example.
  • data that stores position data of the focus lens for each projection distance when the projection distance is changed stepwise within the projection distance range in which focus adjustment is possible can be used as focus adjustment data.
  • the test pattern information 26b is image data of a test pattern that can specify a position that intersects (or is orthogonal to) the optical axis A of the projection lens 22 on the projection plane 3.
  • a test pattern an image (cross pattern) including first and second straight line portions that intersect (or are orthogonal to) each other can be used.
  • this image (cross pattern) is displayed on the image display unit 22, the intersection of the first and second straight line portions is located on the display surface at a position that intersects the optical axis A of the projection lens 22.
  • the intersection of the first and second straight line portions is located at a portion where the optical axis A of the projection lens 22 intersects the projection plane 3.
  • the test pattern is not limited to a cross pattern. As long as the user can specify the position where the optical axis A of the projection lens 22 intersects on the projection surface 3, the test pattern may be any pattern.
  • the control unit 20 controls the operation of each unit of the projector main body 2 in accordance with a signal from the operation unit 25.
  • the control unit 20 receives a signal from the remote controller 1 via the receiving unit 21 and controls the operation of each unit of the projector main body 2 in accordance with the received signal.
  • the control unit 20 reads the test pattern information 26b from the storage unit 26 according to the test pattern display command. An image based on the read test pattern information 26 b is displayed on the image display unit 24.
  • the control unit 20 When the reception unit 21 receives distance information from the transmission unit 13 of the remote controller 1, the control unit 20 refers to the LUT 26a, and the focus lens position data (movement amount and movement direction) corresponding to the received distance information. ) To get. Then, the control unit 20 moves the focus lens by controlling the rotation amount and the rotation direction of the lens motor by the lens driving unit 23 based on the acquired position data (movement amount and movement direction).
  • Position data (rotation amount and rotation direction) indicating the movement amount and the movement direction of the focus lens may be generated based on the determined distance from the predetermined position on the optical axis A at the determined position.
  • s represents the distance to the object (distance from the tip of the projection lens 22 to the display surface of the display device)
  • s ′ represents the distance to the image (distance from the tip of the projection lens 22 to the projection surface).
  • F denotes the focal length of the projection lens.
  • the focal length f is a known value.
  • the distance s ′ is given from the remote controller 1.
  • FIG. 5 is a flowchart showing a procedure of the focus adjustment process.
  • steps 100 to 109 show the operation of the remote controller 1
  • steps 200 to 205 show the operation of the projector main body 2.
  • the focus adjustment process will be described in detail below with reference to FIGS.
  • control unit 10 When the user presses the focus key 14 of the remote controller 1 for a short time, the control unit 10 accepts a short press of the focus key 14 (step 100). Then, the control unit 10 causes the transmission unit 13 to transmit a test pattern display command to the projector main body 2 (step 101).
  • the control unit 20 displays an image based on the test pattern information 26b according to the test pattern display command.
  • the data is displayed on the unit 24 (step S201). As a result, the test pattern is projected onto the projection plane 3.
  • control unit 10 accepts the long press of the focus key 14 (step 102). Then, the control unit 10 turns on the light source 12 and sends out a laser pointer (step 103).
  • Step 104 When the user maintains the long press of the focus key 14 and aligns the laser pointer with the object to be measured, and then releases the long press of the focus key 14, the control unit 10 accepts the release of the long press of the focus key 14. (Step 104).
  • control unit 10 After releasing the long-press of the focus key 14, the control unit 10 causes the distance measurement unit 11 to measure the distance from the remote controller 1 to the distance measurement object (step 105). Thereafter, the control unit 10 turns off the light source 12.
  • control unit 10 determines whether or not the two-point distance measurement is completed (step 106).
  • the two-point distance measurement the first distance measurement in which steps 102 to 105 are performed on the first distance measurement object and the second distance measurement in which steps 102 to 105 are performed on the second distance measurement object. Including.
  • the first distance measurement target is a point indicated by the test pattern on the projection surface 3 (a position that intersects the optical axis A of the projection lens 22), and the second distance measurement target is the reflecting portion of the projector main body 2. It is an arbitrary position on the side surface of 2a.
  • the first distance measurement corresponds to the first distance information acquisition process described above
  • the second distance measurement corresponds to the second distance information acquisition process described above.
  • the control unit 10 causes the distance measurement unit 11 to detect the distance from the remote controller 1 to the point indicated by the test pattern on the projection surface 3 (the distance shown in FIGS. 3A and 3B). C) is measured.
  • the control unit 10 causes the distance measurement unit 11 to measure the distance from the remote controller 1 to the reflection unit 2a (distance B shown in FIGS. 3A and 3B).
  • the two-point distance measurement is performed by the first distance measurement and the second distance measurement described above.
  • step 106 If it is determined in step 106 that the two-point distance measurement has not been completed, that is, if it is determined that only the first distance measurement has not yet been performed, the control unit 10 performs the processing of steps 102 to 105. Try again. Thereafter, the control unit 10 performs the determination in step 106.
  • step 106 If it is determined in step 106 that the two-point distance measurement has been completed, the control unit 10 subsequently changes the output of the acceleration sensor 15 during the period from the first distance measurement to the second distance measurement. Based on the above, the angle ⁇ formed by the distance measuring direction at the first distance measurement and the distance measuring direction at the second distance measurement is calculated (step 107).
  • control unit 10 calculates the distance A1 (projection distance) by the above-described equation 2 based on the acquired distance C, distance B and angle ⁇ , and the distance A2 and radius A3 given in advance (Ste 108). Then, the control unit 10 causes the transmission unit 13 to transmit distance information including the calculated distance A1 (projection distance) to the projector body 2 (step 109).
  • the control unit 20 refers to the LUT 26a, and the position data of the focus lens corresponding to the received distance information. (Moving amount and moving direction) are acquired (step 203). Then, based on the acquired position data (movement amount and movement direction), the control unit 20 controls the rotation amount and rotation direction of the lens motor by the lens driving unit 23 to move the focus lens (step 204). .
  • control unit 20 ends the display of the test pattern on the image display unit 24 (step 205).
  • the projector main body 2 when the distance measuring unit 11 breaks down, the projector main body 2 does not perform focus adjustment by the focus adjusting unit, but moves one or both of the projector main body 2 and the projection surface 3.
  • the projection plane can be adjusted by adjusting the projection distance. Therefore, even during the repair period of the remote controller 1, an image can be displayed using the projector body 2.
  • the remote controller 1 includes a distance measuring unit 11 and an acceleration sensor 15 as components necessary for acquiring the projection distance.
  • the remote controller 1 includes the acceleration sensor 15. The cost increases by that amount.
  • the acceleration sensor 15 is relatively inexpensive, and the cost of the apparatus is small compared with the configuration employing the detachable unit structure having the distance function described above.
  • the projector system of the comparative example requires a distance measuring sensor for each projector main body. Is included in the purchase cost.
  • the remote controller 1 requires one distance measuring sensor and one acceleration sensor, and the price thereof is included in the purchase cost.
  • the total price of one distance measuring sensor and one acceleration sensor in the projector system of this embodiment is the same as that of the two projector systems in the comparative example projector system. Lower than the total price of the distance sensor.
  • the purchase cost can be reduced when the user owns one remote controller 1 and a plurality of projector main bodies 2. As the number of the projector main bodies 2 increases, the effect of reducing the purchase cost increases.
  • the projector system according to the second embodiment of the present invention includes a remote controller 1 and a projector body 2.
  • the remote controller 1 is the same as that described in the first embodiment, but the control unit 10 operates the focus key 14 in addition to the processing related to the focus adjustment described in the first embodiment. Then, trapezoidal distortion correction distance information acquisition processing for acquiring distance information for correcting the trapezoidal distortion is executed.
  • the trapezoidal distortion correction distance information acquisition process is executed when the short press and long press operations of the focus key 14 are performed in a predetermined order. Note that a key different from the focus key 14 may be provided, and the control unit 10 may execute the trapezoidal distortion correction distance information acquisition process in response to pressing of the other key.
  • the trapezoidal correction test pattern is used in the trapezoidal distortion correction distance information acquisition process.
  • FIG. 6 shows an example of an image of a trapezoidal correction test pattern.
  • An image 27 shown in FIG. 6 is a trapezoidal correction test pattern, and includes a cross pattern 27-1 and four T-shaped patterns 27-2 to 27-5.
  • the cross pattern 27-1 is located at the center of the image 27.
  • the T-shaped patterns 27-2 and 27-3 are positioned at the upper and lower ends of the image 27 with the cross pattern 27-1 interposed therebetween.
  • the T-shaped patterns 27-4 and 27-5 are located at the left and right ends of the image 27 with the cross pattern 27-1 interposed therebetween.
  • the interval (D1) between the cross pattern 27-1 and the T-shaped pattern 27-2 is equal to the interval (D2) between the cross pattern 27-1 and the T-shaped pattern 27-3.
  • the interval (D3) between the cross pattern 27-1 and the T-shaped pattern 27-4 is equal to the interval (D4) between the cross pattern 27-1 and the T-shaped pattern 27-5.
  • the intersection of the two linear portions of the cross pattern 27-1 is at a position on the display surface that intersects the optical axis A of the projection lens 22. To position. Therefore, when the cross pattern 27-1 is projected onto the projection plane 3, the intersection of the straight line portions of the cross pattern 27-1 is located at a portion that intersects the optical axis A of the projection lens 22 on the projection plane 3.
  • the angle between the optical axis A of the projection lens 22 and the projection plane 3 is an angle ⁇ 1 (tilt in the vertical direction) when viewed from the vertical direction and an angle ⁇ 2 (tilt in the horizontal direction) when viewed from the horizontal direction.
  • ⁇ 1 90 °
  • ⁇ 2 90 °
  • the projected image is rectangular without trapezoidal correction.
  • the ratio of the interval D1 and the interval D2 (D1: D2) in the vertical pattern length represented by the total value of the interval D1 and the interval D2 changes according to the angle ⁇ 1. Therefore, the angle ⁇ 1 can be calculated based on the ratio (D1: D2).
  • the ratio of the distance D3 to the distance D4 (D3: D4) in the horizontal pattern length which is the total value of the distance D3 and the distance D4, changes according to the angle ⁇ 2. Therefore, the angle ⁇ 2 can be calculated based on the ratio (D3: D4).
  • control unit 10 causes the distance measurement unit 11 to measure the distances D1 to D4 in the image 27 shown in FIG.
  • the trapezoidal distortion correction distance information including the measured values of the intervals D1 to D4 is transmitted to the projector main body 2.
  • FIG. 7 is a block diagram showing the configuration of the projector body 2.
  • the projector main body 2 includes a control unit 20, a receiving unit 21, a projection lens 22, a lens driving unit 23, an image display unit 24, an operation unit 25, and a storage unit 26.
  • the LUT 26c and the test pattern information 26d are stored in the storage unit 26, and the configuration of a part of the image display unit 24 is different from that shown in FIG.
  • the test pattern information 26d includes data of the image 27 shown in FIG.
  • the LUT 26c includes first table data indicating a correspondence between the ratio (D1: D2) and the angle ⁇ 1, and second table data indicating a correspondence between the ratio (D3: D4) and the angle ⁇ 2.
  • the image display unit 24 includes an image processing unit 24-1, a trapezoidal distortion correction processing unit 24-2, a driving circuit 24-3, and a display device 24-4.
  • the display device 24-4 is a spatial modulation device typified by a liquid crystal device or the like that partially reflects or transmits a light beam from a light source (not shown).
  • the drive circuit 24-3 drives the display device 24-4 based on the digital image data supplied from the image processing unit 24-1 via the trapezoidal distortion correction processing unit 24-2. An image generated by the display device 24-4 is projected onto the projection plane 3 by the projection lens 22.
  • the image processing unit 24-1 includes a synchronization signal separation unit that separates a synchronization signal from an external video signal (including analog image data and a synchronization signal), and an A / D conversion unit that performs A / D conversion on the analog image data of the external video signal.
  • the memory unit for example, frame memory
  • the synchronization signal separated by the synchronization signal separation unit is supplied to the control unit 20.
  • analog image data from the outside is converted into digital image data and stored in the memory unit, and the digital image data is read from the memory unit based on a control signal from the control unit 20. And is supplied to the trapezoidal distortion correction processing unit 24-2.
  • the trapezoidal distortion correction processing unit 24-2 is activated in response to a control signal from the control unit 20, and converts the digital image data supplied from the image processing unit 24-1 into angle information supplied from the control unit 20. Based on this, keystone correction is performed. In this trapezoidal distortion correction, the digital image data supplied from the image processing unit 24-1 is corrected based on the angle information so that the projection screen on the projection plane 3 is rectangular.
  • the receiving unit 21 receives trapezoidal distortion correction distance information from the remote controller 1 and supplies it to the control unit 20.
  • the control unit 20 calculates the ratio (D1: D2) and the ratio (D3: D4) based on the values of the intervals D1 to D4 included in the trapezoidal distortion correction distance information, and the first and second of the LUT 26c. Referring to the table data, the inclination ( ⁇ 1, ⁇ 2) of the optical axis A of the projection lens 22 with respect to the projection plane 3 is calculated from the ratio (D1: D2) and the ratio (D3: D4).
  • FIG. 8 is a flowchart showing a procedure of operations related to trapezoid correction.
  • steps 300 to 312 indicate the operation of the remote controller 1
  • steps 400 to 405 indicate the operation of the projector main body 2.
  • steps 300, 301, and 303 to 309 correspond to steps 100 to 108 shown in FIG.
  • control unit 10 When the user presses the focus key 14 of the remote controller 1 for a short time, the control unit 10 accepts the short press of the focus key 14 (step 300), and causes the transmission unit 13 to transmit a test pattern display command to the projector body 2. (Step 301). Thereafter, the control unit 10 sets 1 to the count value n (step 302).
  • the control unit 20 displays an image based on the test pattern information 26d according to the test pattern display command.
  • the image is displayed on the display device 24-4 of the unit 24 (step S401). Thereby, the image 27 of FIG. 6 is projected on the projection plane 3.
  • control unit 10 accepts the long press of the focus key 14 (step 303), and turns on the light source 12 to send a laser pointer (step 304). ).
  • control unit 10 When the user releases the long press of the focus key 14, the control unit 10 accepts the release of the long press of the focus key 14 (step 305), and the distance measuring unit 11 receives the measurement indicated by the laser pointer from the remote controller 1. The distance to the distance object is measured (step 306). Thereafter, the control unit 10 turns off the light source 12.
  • control unit 10 determines whether or not the two-point distance measurement is completed (step 307). When it is determined that the two-point distance measurement has not been completed, the control unit 10 executes the processes of steps 303 to 306 again. Thereafter, the control unit 10 performs the determination in step 307.
  • control unit 10 then proceeds to the first based on the change amount of the output of the acceleration sensor 15 during the period from the first distance measurement time to the second distance measurement time.
  • An angle ⁇ formed by the distance measurement direction during distance measurement and the distance measurement direction during second distance measurement is calculated (step 308).
  • control unit 10 calculates the distance between the two points based on the distance and the angle ⁇ acquired by the first and second ranging (step 309).
  • the distance to the first distance measuring point is B
  • the distance to the second distance measuring point is C
  • the distance between the first and second distance measuring points the distance between the two points.
  • step 309 the control unit 10 calculates the distance between the two points using Equation 4 above.
  • control unit 10 determines whether or not the count value n has reached N (step 310).
  • N is the number of T-shaped patterns shown in FIG. 6, and the control unit 10 holds 4 as the value of N in advance.
  • the number of T-shaped patterns can be changed as appropriate, and the value of N is changed accordingly.
  • control unit 10 adds 1 to the count value n (step 311), and then executes the processing of steps 303 to 309 again.
  • the user places the laser pointer on the first distance measurement point indicated by the cross pattern 27-1 on the projection surface 3 and performs the first distance measurement. After that, the laser pointer is aligned with the second distance measuring point indicated by the T-shaped pattern 27-2 on the projection surface 3, and the second distance measuring is performed. Thereby, the distance D1 between the first and second distance measuring points can be acquired.
  • the user places the laser pointer on the first distance measurement point indicated by the cross pattern 27-1 on the projection surface 3 to perform the first distance measurement, and then The laser pointer is aligned with the third distance measuring point indicated by the T-shaped pattern 27-3 on the projection surface 3, and the second distance measurement is performed. Thereby, the distance D2 between the first and third distance measuring points can be acquired.
  • the user places the laser pointer on the first distance measurement point indicated by the cross pattern 27-1 on the projection surface 3 to perform the first distance measurement, and then The laser pointer is aligned with the fourth distance measuring point indicated by the T-shaped pattern 27-4 on the projection surface 3, and the second distance measurement is performed. Thereby, the distance D3 between the first and fourth ranging points can be acquired.
  • the user places the laser pointer on the first distance measurement point indicated by the cross pattern 27-1 on the projection surface 3 to perform the first distance measurement, and then The laser pointer is aligned with the fifth distance measuring point indicated by the T-shaped pattern 27-5 on the projection surface 3, and the second distance measuring is performed. Thereby, the distance D3 between the first and fifth ranging points can be acquired.
  • the correction distance information is transmitted to the projector main body 2 (step 312).
  • the control unit 20 when the reception unit 21 receives the trapezoidal distortion correction distance information sent from the transmission unit 13 (step S402), the control unit 20 includes the intervals D1 to D1 included in the trapezoidal distortion correction distance information. Based on D4, the ratio (D1: D2) and the ratio (D3: D4) are calculated, and the ratio (D1: D2) and the ratio (D3: D4) are referred to by referring to the first and second table data of the LUT 26c. To calculate inclinations ⁇ 1 and ⁇ 2 of the optical axis A of the projection lens 22 with respect to the projection plane 3 (step S403).
  • the trapezoidal correction processing unit 24-2 corrects the digital image data based on the inclinations ⁇ 1 and ⁇ 2 calculated in step S403 so that the projection screen on the projection surface 3 is rectangular (step 404). Then, the drive circuit 24-3 displays an image based on the corrected digital image data on the display device 24-4.
  • control unit 20 ends the test pattern display on the display device 24-4 of the image display unit 24 (step 405).
  • the user owns one remote controller 1 and a plurality of projector main bodies 2, and can use one remote controller 1 in common for the plurality of projector main bodies 2. .
  • the following effects can be obtained.
  • a projector in order to detect the vertical and horizontal tilts of the optical axis of the projection lens with respect to the projection surface, four distance measuring sensors arranged on the top, bottom, left and right sides of the projection lens are used. Tilt in the left-right direction is detected based on distance information obtained by two distance measuring sensors arranged on the left and right, and an inclination in the vertical direction based on distance information obtained by two distance measuring sensors arranged on the upper and lower sides Can be detected. Thus, it is necessary to mount four distance measuring sensors on the projector.
  • the projector system of the present embodiment it is only necessary to mount one distance measuring sensor on the remote controller 1 side, and the number of distance measuring sensors can be reduced compared to the above general projector. Cost reduction can be achieved.
  • test pattern information 26b may be deleted, and the test pattern information 26d may be used in common for focus adjustment and keystone correction.
  • a trapezoidal correction based on one of the vertical tilt and the horizontal tilt may be performed.
  • the T-shaped patterns 27-4 and 27-5 may be deleted, and when performing the keystone correction based on the horizontal tilt. May delete the T-shaped patterns 27-2 and 27-3.
  • the process related to the focus adjustment described in the first embodiment may not be performed.
  • the second embodiment has a configuration for performing the process related to the trapezoidal correction described above, thereby reducing the apparatus cost.
  • the control unit 20 of the projector main body 2 may perform the projection distance calculation process using the above-described Expression 2.
  • the control unit 10 causes the transmission unit 13 to transmit information on the distance B, the distance C, and the angle ⁇ to the projector body 2 as distance information.
  • a display device for red, a display device for green, and a display device for blue are used as display devices.
  • the light from the light source is separated into red, green, and blue light
  • the red light is applied to the red display device
  • the green light is applied to the green display device
  • the blue light is used for blue. Irradiates the display device.
  • the red image light from the red display device, the green image light from the green display device, and the blue image light from the blue display device are combined by a color combining means (for example, a color combining dichroic prism).
  • the color-combined image light is projected onto the projection plane 3 by the projection lens 22.
  • red, green, and blue solid light sources may be used as the light source.
  • a projector system includes a projection lens including a plurality of lenses, and a projector main body that projects an image on a projection surface by the projection lens, and a remote provided separately from the projector main body. And a controller.
  • the remote controller includes a projection distance acquisition unit that acquires a projection distance from the tip of the projection lens to the projection surface in accordance with a user operation.
  • the projection distance acquisition means measures a first distance from the remote controller to the projection plane and a second distance from the remote controller to a predetermined part of the projector main body, respectively. An angle formed by the measurement direction and the measurement direction of the second distance is detected, and the detected angle, the measurement values of the first and second distances, and the tip of the projection lens that are held in advance are detected.
  • the projection distance is calculated based on the value of the distance to the predetermined part.
  • the projector body includes a focus adjustment unit that adjusts the focus by moving at least a part of the projection lens back and forth based on the projection distance calculated by the projection distance acquisition unit.
  • the projection distance acquisition means can be configured by the control unit 10, the distance measuring unit 11, and the acceleration sensor 15 shown in FIG.
  • the focus adjusting means can be configured by the control unit 20 and the lens driving unit 23 shown in FIG.
  • the projector main body displays an image, and the displayed image is projected onto the projection plane by the projection lens, and a display area of the image display unit.
  • a storage unit storing image data including a test pattern for specifying a first point indicating the center and second and third points arranged at predetermined intervals on both sides of the first point;
  • a trapezoidal distortion correcting means for displaying the test pattern based on the image data stored in the storage unit on the image display unit and correcting a trapezoidal distortion of an image projected by the projection lens
  • the remote controller may further include trapezoidal distortion information acquisition means for acquiring trapezoidal distortion information indicating a degree of trapezoidal distortion of an image projected on the projection plane.
  • the trapezoidal distortion information acquisition means for the first to third points indicated by the test pattern on the projection plane, a third distance from the remote controller to the first point on the projection plane And a fourth distance from the remote controller to the second point on the projection plane, respectively, and an angle formed by the measurement direction of the third distance and the measurement direction of the fourth distance is determined. And detecting a first two-point distance between the first and second points on the projection plane based on the detected angle and the measured values of the third and fourth distances. And measuring the third distance and the fifth distance from the remote controller to the third point on the projection plane, respectively, and measuring the third distance and the fifth distance. The angle formed with the measurement direction is detected, and the detected angle , Based on the measured value of the distance of the third and fifth, to calculate a second distance between two points between the first and third points on the projection surface.
  • the trapezoidal distortion correction means corrects the trapezoidal distortion based on the distance between the first and second points calculated by the trapezoidal distortion information acquisition means.
  • the trapezoidal distortion information acquisition means can be configured by the control unit 10, the distance measuring unit 11, and the acceleration sensor 15 shown in FIG.
  • the trapezoidal distortion correcting means can be configured by the control unit 20 and the trapezoidal correction processing unit 24-2 shown in FIG.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Projection Apparatus (AREA)

Abstract

 リモートコントローラ(1)は、ユーザによる操作に応じて、投写レンズの先端から投写面までの投写距離を取得する投写距離取得手段を有し、該投写距離取得手段は、リモートコントローラ(1)から投写面までの第1の距離と、リモートコントローラ(1)からプロジェクタ本体(2)の反射部(2a)までの第2の距離とをそれぞれ測定し、第1の距離の測定方向と第2の距離の測定方向とのなす角度を検出し、該検出した角度と、第1および第2の距離の測定値と、予め保持している、投写レンズの先端から反射部(2a)までの距離の値とに基づいて投写距離を算出する。プロジェクタ本体(2)は、算出した投写距離に基づいて、投写レンズの少なくとも一部のレンズを前後に移動してフォーカスの調整を行うフォーカス調整手段を有する。

Description

プロジェクタシステムおよびフォーカス調整方法
 本発明は、プロジェクタの技術に関し、特に、投写画面のフォーカスを自動的に調整する技術に関する。
 特許文献1には、オートフォーカス機能を有するプロジェクタが記載されている。
 上記プロジェクタは、合焦駆動機構を備えた投写レンズと、プロジェクタから投写面までの距離を測定する距離測定手段と、距離測定手段により測定された距離に応じて合焦駆動機構を動作させることにより投写画面のフォーカスを自動的に調整するフォーカス調整部と、操作部と、操作部を介してユーザによる入力操作を受け付けて各部の動作を制御する制御部と、を有する。
 投写レンズ、距離測定手段、フォーカス調整部および制御部は、プロジェクタ本体側に設けられている。操作部は、例えば、リモートコントローラであって、複数の操作ボタンを備えている。
 ユーザが操作ボタンを押下すると、リモートコントローラは、その押下した操作ボタンに応じたコマンドをプロジェクタ本体側の制御部に供給する。コマンドには、オートフォーカスを実行するためのコマンドがある。制御部は、リモートコントローラからオートフォーカス実行コマンドを受信すると、距離測定手段およびフォーカス調整部の動作を制御してフォーカス調整を行う。
特開2003-131118号公報
 フォーカス機能は、プロジェクタの光学系に必須の機能であるためにプロジェクタ個々に設ける必要があるが、距離測定手段は、単に投写面とプロジェクタとの間の距離を測定できればよく、各プロジェクタに設ける必要はない。
 特許文献1に記載のものにおいては、プロジェクタ本体に距離測定手段(測距機能)およびフォーカス機能を設けているため、例えば、距離測定手段が故障した場合は、プロジェクタ本体を修理に出す必要があり、修理の期間中は、プロジェクタ本体を使用することはできない。このように、本来的には不要である距離測定手段の不具合によって、プロジェクタ自体を使用することができないことがあった。
 なお、測距機能が故障した場合でも、通常は、プロジェクタ本体と投写面の一方または両方を移動して投写距離を調整することで、投写面のフォーカスを合わせることができる。したがって、距離測定手段を着脱可能なユニット構造にすれば、距離測定手段が故障した場合に、ユニットのみを修理に出し、プロジェクタ本体についてはそのまま使用することができる。しかし、そのような着脱可能なユニット構造を採用すると、装置コストが大幅に増大する。
 本発明の目的は、測距機能が故障した場合でも、プロジェクタ本体の使用が可能であり、装置コストの大幅な増大を招くことがない、プロジェクタシステムおよびフォーカス調整方法を提供することにある。
 上記目的を達成するため、本発明の一態様によれば、
 複数のレンズからなる投写レンズを備え、該投写レンズにより画像が投写面上に投写されるプロジェクタ本体と、
 前記プロジェクタ本体とは別に設けられたリモートコントローラと、を有し、
 前記リモートコントローラは、ユーザによる操作に応じて、前記投写レンズの先端から前記投写面までの投写距離を取得する投写距離取得手段を有し、
 該投写距離取得手段は、前記リモートコントローラから前記投写面までの第1の距離と、前記リモートコントローラから前記プロジェクタ本体の所定部位までの第2の距離とをそれぞれ測定し、前記第1の距離の測定方向と前記第2の距離の測定方向とのなす角度を検出し、該検出した角度と、前記第1および第2の距離の測定値と、予め保持している、前記投写レンズの先端から前記所定部位までの距離の値とに基づいて前記投写距離を算出し、
 前記プロジェクタ本体は、前記投写距離取得手段により算出した前記投写距離に基づいて、前記投写レンズの少なくとも一部のレンズを前後に移動してフォーカスの調整を行うフォーカス調整手段を有する、プロジェクタシステムが提供される。
 また、本発明の別の態様によれば、
 複数のレンズからなり、少なくとも一部のレンズを前後に移動する投写レンズを備え、該投写レンズにより画像が投写面上に投写されるプロジェクタ本体と、前記プロジェクタ本体とは別に設けられたリモートコントローラと、を有する、プロジェクタシステムのフォーカス調整方法であって、
 前記リモートコントローラにて、第1の制御部が、前記リモートコントローラから前記投写面までの第1の距離と、前記リモートコントローラから前記プロジェクタ本体の所定部位までの第2の距離とをそれぞれ測定し、前記第1の距離の測定方向と前記第2の距離の測定方向とのなす角度を検出し、該検出した角度と、前記第1および第2の距離の測定値と、予め保持している、前記投写レンズの先端から前記所定部位までの距離の値とに基づいて前記投写レンズの先端から前記投写面までの投写距離を算出し、
 前記プロジェクタ本体にて、第2の制御部が、前記算出した投写距離に基づいて、前記投写レンズの少なくとも一部のレンズを前後に移動させてフォーカスの調整を行う、フォーカス調整方法が提供される。
本発明の第1の実施形態であるプロジェクタシステムの構成を示すブロック図である。 図1に示すプロジェクタシステムのリモートコントローラの主要部を示すブロック図である。 図1に示すプロジェクタシステムのリモートコントローラにて行われる二点間距離演算の原理を説明するための図である。 図1に示すプロジェクタシステムのリモートコントローラにて行われる二点間距離演算の原理を説明するための図である。 図1に示すプロジェクタシステムのプロジェクタ本体の主要部を示すブロック図である。 図1に示すプロジェクタシステムにて行われるフォーカス調整処理の一手順を示すフローチャートである。 本発明の第2の実施形態であるプロジェクタシステムにて用いられる台形補正用テストパターンの画像の一例を示す模式図である。 本発明の第2の実施形態のプロジェクタシステムのプロジェクタ本体の構成を示すブロック図である。 本発明の第2の実施形態のプロジェクタシステムにて行われる台形補正処理の一手順を示すフローチャートである。
1 リモートコントローラ
2 プロジェクタ本体
2a 反射部
3 投写面
10、20 制御部
11 測距部
12 光源
13 送信部
14 フォーカスキー
15 加速度センサ
21 受信部
22 投写レンズ
23 レンズ駆動部
24 画像表示部
25 操作部
26 記憶部
26a LUT
26b テストパターン情報
 次に、本発明の実施形態について図面を参照して説明する。
 (第1の実施形態)
 図1は、本発明の第1の実施形態であるプロジェクタシステムの構成を示すブロック図である。
 図1を参照すると、プロジェクタシステムは、リモートコントローラ1と、筐体の所定の位置に反射部2aを備えたプロジェクタ本体2と、を有する。
 図2に、リモートコントローラ1の主要部を示す。図2に示すように、リモートコントローラ1は、制御部10、測距部11、光源12、送信部13、フォーカスキー14、および加速度センサ15を有する。
 測距部11は、リモートコントローラ1から測距対象までの距離を測定する光学式の測距センサよりなる。
 光学式の測距センサは、例えば、赤外LED(Light Emitting Diode)等の発光素子、投光レンズ、受光素子、および受光レンズを備えるものがある。発光素子および受光素子は同一平面に設けられている。発光素子から出射した光は、投光レンズにより測定対象に照射され、測定対象からの反射光が、受光レンズを介して受光素子に入射する。受光素子は、例えば、PSD(Position sensitive Detector)である。測距部11は、受光素子の受光面上に形成された反射光のスポットの位置に基づいて、リモートコントローラ1から測距対象までの距離を計算する。
 また、測距部11は、発光素子からの光が測距対象に照射され、測距対象からの反射光が受光素子で検出される系において、例えば、光が発光素子から出力されてから受光素子で検出されるまでに要した時間に基づいて距離を測定してもよい。
 光源12は、レーザポインタ用の光源であって、例えば、可視光の波長帯域にピーク波長を有する半導体レーザより構成される。光源12からのレーザ光を投写面に照射することで、レーザポインタが形成される。
 光源12の光の出射方向は、測距部11の測距方向と略一致している。ここで、測距方向は、例えば、測距センサの発光素子の光軸の方向である。また、光源12の光軸は測距センサの発光素子の光軸と略平行であり、両光軸の方向(光軸に沿った方向)は略同じである。このように構成することで、レーザポインタで示された部位を概ね測距対象と見做すことができる。
 送信部13は、無線通信により情報をプロジェクタ本体2へ送信する。送信部13として、赤外線通信方式のものや、Bluetooth等の規格に準拠した近距離無線通信方式のものを適用することができる。
 フォーカスキー14は、キーが押下された期間においてのみ、オン状態を示す信号を出力し、それ以外の期間は、信号を出力しない。
 加速度センサ15は、3軸(x軸、y軸、z軸)それぞれの方向の加速度を検出する、いわゆる3軸加速度センサである。ここで、z軸は、センサ部が設けられた基板面に垂直な方向である。x軸およびy軸は、基板面内方向において、直交する第1及び第2の方向にそれぞれ対応する。z軸方向の加速度(重力加速度)を検出することで、基板面の水平状態(水平面に対する傾き)を検出することができる。また、x軸、y軸およびz軸それぞれの方向の加速度の変化量に基づいて、リモートコントローラ1の姿勢変化量(角度変化量)を検出することができる。
 制御部10は、CPU(Central processing unit)よりなり、フォーカスキー14からの信号に応じて、測距部11、光源12、送信部13および加速度センサ15それぞれの動作を制御し、測距処理を行う。
 例えば、制御部10は、フォーカスキー14から信号を連続して受信した時間(信号受信状態の継続時間)をカウントし、カウント値が閾値よりに小さい場合は、フォーカスキー14が短押しされたと判定し、カウント値が閾値以上である場合には、フォーカスキー14が長押しされたと判定する。
 また、測距処理において、制御部10は、ユーザがフォーカスキー14の短押しおよび長押しを所定の順序で行った場合に、その操作に応じて、テストパターン表示命令送信処理、第1および第2の距離情報取得処理、角度変位量演算処理、二点間距離演算処理、および距離情報送信処理を実行する。
 具体的には、制御部10は、フォーカスキー14の短押しを受け付けると、テストパターン表示命令送信処理を実行し、その後、フォーカスキー14の長押しを受け付けると、第1の距離情報取得処理を実行する。続いて、フォーカスキー14の長押しを受け付けると、制御部10は、第2の距離情報取得処理を実行する。その後、制御部10は、角度変位量演算処理、二点間距離演算処理、距離情報送信処理を順に実行する。
 テストパターン表示命令送信処理において、制御部10は、送信部13にて、テストパターンを表示する旨の命令信号をプロジェクタ本体2へ送信させる。
 第1の距離情報取得処理において、制御部10は、長押しを受け付けたタイミングで、光源12をオン状態としてレーザポインタを送出させる。制御部10は、長押し状態が解除されたタイミングで、測距部11に、リモートコントローラ1から測距対象(この場合は、測距対象は投写面3である。)までの距離D1を測定させる。その後、制御部10は、光源12をオフ状態にする。
 第2の距離情報取得処理において、制御部10は、長押しを受け付けたタイミングで、光源12をオン状態としてレーザポインタを送出させる。制御部10は、長押し状態が解除されたタイミングで、測距部11に、リモートコントローラ1から測距対象(この場合は、測距対象はプロジェクタ本体2の反射部2aである。)までの距離D2を測定させる。その後、制御部10は、光源12をオフ状態にする。
 角度変位量演算処理において、制御部10は、第1の距離情報取得処理の距離D1の測定が行われた時点から第2の距離情報取得処理の距離D2の測定が行われた時点までの期間における、加速度センサ15の出力値の変化を監視し、その変化量に基づいて、距離D1の測定時の測距方向と距離D2の測定時の測距方向とのなす角度θを算出する。ここで、加速度センサ15の出力値の変化量は、x軸、y軸、z軸それぞれの軸方向における加速度の変化量を含む。各軸方向における加速度の変化量に基づいて、リモートコントローラ1がどの方向にどれだけ回転したかを示す角度変位量を算出することができる。
 二点間距離演算処理において、制御部10は、距離D1、D2と角度θとに基づいて、プロジェクタ本体2から投写面3までの距離(二点間距離)を演算する。
 距離情報送信処理において、制御部10は、送信部13にて、二点間距離演算処理により得られた二点間距離の値(投写距離)を含む距離情報をプロジェクタ本体2へ送信させる。
 次に、二点間距離演算について、詳細に説明する。
 図3Aおよび図3Bは、二点間距離演算の原理を説明するための図である。図3Aには、プロジェクタ本体2を上から見た場合の距離D1、D2の測距時の状態が模式的に示されている。図3Bには、プロジェクタ本体2を横から見た場合の距離D1、D2の測距時の状態が模式的に示されている。
 図3Aおよび図3Bに示すように、反射部2aは、円柱状または円筒状のものであって、側面全体が、光を拡散する拡散面または反射面より構成さている。反射部2aは、プロジェクタ本体2の上面に設けられている。プロジェクタ本体2を上面側から見た場合、反射部2aの円(外縁)の中心が、投写レンズの光軸A上に位置し、プロジェクタ本体2を横から見た場合は、反射部2aの中心軸(円の中心を通る軸)は、投写レンズの光軸Aと直交する。具体的には、反射部2aの中心軸と直交する第1の平面が、投写レンズの光軸Aと直交する第2の平面と直交し、かつ、反射部2aの中心軸および投写レンズの光軸Aを含む第3の平面が、第1および第2の平面のそれぞれと直交する。
 図3Aおよび図3Bにおいて、一点鎖線で示した直線は投写レンズの光軸を示し、破線の片側矢印はプロジェクタ本体2による画像投写の方向を示し、実線の片側矢印は測距方向を示す。符号Bは、リモートコントローラ1の前面から反射部2aの側面までの距離(上記の距離D2に対応する)を示す。符号Cは、リモートコントローラ1の前面から投写面3の所定位置までの距離(上記の距離D1に対応する)を示す。ここで、所定位置は、投写面3の投写レンズの光軸Aと交差(または直交)する位置である。
 符号A1は、投写レンズの前面から投写面3の所定位置までの距離(投写距離)を示す。符号A2は、上から見た場合の、投写レンズの前面から反射部2aの側面までの距離を示す。符号A3は、反射部2aを上面から見た場合の円の半径を示す。角度θは、距離Bを測定した際の測距方向と距離Cを測定した際の測距方向とのなす角度である。
 図3Aおよび図3Bに示した状態において、以下の余弦定理の式1が成り立つ。
 cosθ={(B+A3)2+C2-(A1+A2+A3)2}/2BC・・・(式1)
 上記式1を変形すると、二点間距離である距離A1(投写距離)は、以下の式2で与えられる。
 A1={(B+A3)2+C2-2BCcosθ}1/2-(A2+A3)・・・(式2)
 距離A2および半径A3はいずれも既知の値であり、制御部10は、それら距離A2および半径A3の値を予め保持している。第1および第2の距離情報取得処理および角度変位量演算処理により、制御部10は、距離C、距離B、角度θをそれぞれ取得することができる。そして、二点間距離演算処理で、制御部10は、距離C、距離B、角度θ、距離A2および半径A3に基づいて上記式2により距離A1(投写距離)を算出する。
 なお、図3Bに示すように、上記の式2により求まる距離A1は、実際の投写距離よりもわずかに長くなるが、この差は、通常、被写界深度内に収まるので、フォーカス調整に影響しない。
 次に、プロジェクタ本体2の構成および動作を説明する。
 図4に、プロジェクタ本体2の主要部を示す。図4に示すように、プロジェクタ本体2は、制御部20、受信部21、投写レンズ22、レンズ駆動部23、画像表示部24、操作部25、および記憶部26を有する。
 受信部21は、無線通信によりリモートコントローラ1の送信部13から情報(命令や距離情報)を受信する。受信部21の通信方式は、送信部13と同じである。
 画像表示部24は、入力映像信号に基づく画像を表示する。なお、図3には示されていないが、画像表示に関わる構成として、プロジェクタ本体2は、光源と、表示デバイスと、光源からの光を表示デバイスに照射するための照明光学系と、外部映像供給装置から映像信号が供給される映像信号入力部と、入力映像信号を表示デバイスにて適切に表示させるために必要な処理を行う映像処理部とを含む。これらの構成は、プロジェクタの構成としてよく知られているので、ここでは、その詳細な説明は省略する。
 投写レンズ22は、画像表示部24に表示された画像を投写面3に投写するものであって、複数のレンズからなり、少なくとも一部のレンズを前後方向に移動するレンズ移動機構を有する。レンズ移動機構は、レンズモータを含み、レンズモータの回転駆動力により、レンズが前後に移動する。例えば、レンズモータを正回転させた場合は、レンズが前方に移動し、レンズモータを逆回転させた場合には、レンズが後方に移動する。レンズの移動量は、レンズモータの回転量により決まる。レンズを前後に移動させることで、投写レンズ22のフォーカス調整を行うことができる。ここで、レンズの移動方向は、投写レンズ22の光軸Aに沿った方向である。
 なお、フォーカス調整が可能なレンズ移動機構としては、投写レンズ22全体を移動する機構や、投写レンズ22の一部のレンズを移動する機構など様々な機構が知られているが、ここでは、広く一般に用いられている、投写レンズの前玉(フォーカスレンズ)が移動可能な機構を用いる。
 レンズ駆動部23は、レンズ移動機構のレンズモータを駆動する。
 操作部25は、複数の操作キーを有し、ユーザによる操作に応じた信号を出力する。複数の操作キーは、例えば、電源ボタン、上下左右の方向を示す方向キー、動作を決定するための決定キー等、プロジェクタ本体2を動作させるのに必要な操作キーを含む。
 記憶部26は、半導体メモリ等の記憶手段であって、LUT(Look Up Table)26aおよびテストパターン情報26bを有する。
 LUT26aには、投写距離とフォーカスレンズの位置との関係を示すフォーカス調整用データが格納される。フォーカス調整用データは、投写画面のフォーカスが合うような光軸A上におけるフォーカスレンズの位置を、投写距離に応じて定めたものである。このフォーカスレンズの位置データは、例えば、光軸A上の所定の位置からのフォーカスレンズの移動量および移動方向をそれぞれ示すデータであってもよい。例えば、フォーカス調整が可能な投写距離の範囲において、投写距離を段階的に変化させた場合の、投写距離毎のフォーカスレンズの位置データを格納したものを、フォーカス調整用データとして用いることができる。
 テストパターン情報26bは、投写面3上の投写レンズ22の光軸Aと交差(または直交)する位置を特定可能なテストパターンの画像データである。例えば、テストパターンとして、互いに交差(または直交)する第1および第2の直線部を含む画像(十字パターン)を用いることができる。この画像(十字パターン)は、画像表示部22に表示した場合、その表示面上の、投写レンズ22の光軸Aと交差する位置に、第1および第2の直線部の交点が位置する。これにより、画像(十字パターン)を投写面3上に投写した場合、第1および第2の直線部の交点が、投写レンズ22の光軸Aが投写面3と交わる部分に位置する。なお、テストパターンは、十字パターンに限定されない。ユーザが投写面3上の投写レンズ22の光軸Aが交わる位置を特定できるのであれば、テストパターンは、どのようなパターンであってもよい。
 制御部20は、操作部25からの信号に応じてプロジェクタ本体2の各部の動作を制御する。また、制御部20は、受信部21を介してリモートコントローラ1からの信号を受け付け、その受け付けた信号に従ってプロジェクタ本体2の各部の動作を制御する。
 具体的には、受信部21が、リモートコントローラ1の送信部13からテストパターン表示命令を受信すると、制御部20は、そのテストパターン表示命令に従って、記憶部26からテストパターン情報26bを読み出し、その読み出したテストパターン情報26bに基づく画像を画像表示部24にて表示させる。
 また、受信部21が、リモートコントローラ1の送信部13から距離情報を受信すると、制御部20は、LUT26aを参照し、その受信した距離情報に対応するフォーカスレンズの位置データ(移動量および移動方向)を取得する。そして、制御部20は、その取得した位置データ(移動量および移動方向)に基づいて、レンズ駆動部23によるレンズモータの回転量および回転方向を制御してフォーカスレンズを移動させる。
 なお、制御部20は、LUT26aに代えて、ガウスの結像公式(1/s+1/s’=1/f)を利用し、この公式を満たすように、距離情報に応じたフォーカスレンズの位置を決定し、その決定した位置の光軸A上の所定の位置からの距離に基づいて、フォーカスレンズの移動量および移動方向をそれぞれ示す位置データ(回転量および回転方向)を生成してもよい。ここで、sは、物体までの距離(投写レンズ22の先端から表示デバイスの表示面までの距離)を示し、s’は像までの距離(投写レンズ22の先端から投写面までの距離)を示し、fは投写レンズの焦点距離を示す。ここで、焦点距離fは既知の値である。距離s’は、リモートコントローラ1から与えられる。
 次に、本実施形態のプロジェクタシステムにて行われるフォーカス調整処理の動作について説明する。
 図5は、フォーカス調整処理の一手順を示すフローチャートである。図5において、ステップ100~109は、リモートコントローラ1の動作を示し、ステップ200~205は、プロジェクタ本体2の動作を示す。以下、図1~図5を参照して、フォーカス調整処理を詳細に説明する。
 ユーザが、リモートコントローラ1のフォーカスキー14を短押しすると、制御部10が、フォーカスキー14の短押しを受け付ける(ステップ100)。そして、制御部10が、送信部13にて、テストパターン表示命令をプロジェクタ本体2へ送信させる(ステップ101)。
 プロジェクタ本体2において、受信部21が、送信部13から送出されたテストパターン表示命令を受信すると(ステップS200)、制御部20が、テストパターン表示命令に従って、テストパターン情報26bに基づく画像を画像表示部24にて表示させる(ステップS201)。これにより、テストパターンが投写面3に投写される。
 次に、ユーザが、リモートコントローラ1のフォーカスキー14を長押しすると、制御部10が、フォーカスキー14の長押しを受け付ける(ステップ102)。そして、制御部10が、光源12をオン状態としてレーザポインタを送出させる(ステップ103)。
 ユーザが、フォーカスキー14の長押しを維持したまま、レーザポインタを測距対象に合わせ、その後、フォーカスキー14の長押しを解除すると、制御部10が、フォーカスキー14の長押しの解除を受け付ける(ステップ104)。
 フォーカスキー14の長押しの解除後、制御部10が、測距部11に、リモートコントローラ1から測距対象までの距離を測定させる(ステップ105)。その後、制御部10は、光源12をオフ状態にする。
 次に、制御部10は、二点測距が完了したか否かを判定する(ステップ106)。二点測距とは、第1の測距対象に対してステップ102~105を行う第1の測距と、第2の測距対象に対してステップ102~105を行う第2の測距を含む。
 例えば、第1の測距対象は、投写面3上のテストパターンにより示される点(投写レンズ22の光軸Aと交わる位置)であり、第2の測距対象は、プロジェクタ本体2の反射部2aの側面上の任意の位置である。この場合、第1の測距は、前述の第1の距離情報取得処理に対応し、第2の測距は、前述の第2の距離情報取得処理に対応する。
 上記の場合、第1の測距において、ユーザは、フォーカスキー14を長押し、その状態を維持したままで、レーザポインタを投写面3上のテストパターンにより示された点に合わせ、その後、フォーカスキー14の長押しを解除する。フォーカスキー14の長押しの解除後、制御部10が、測距部11に、リモートコントローラ1から投写面3上のテストパターンにより示された点までの距離(図3Aおよび図3Bに示した距離C)を測定させる。
 第2の測距において、ユーザは、フォーカスキー14を長押し、その状態を維持したままで、レーザポインタをプロジェクタ本体2の反射部2aの側面上の任意の位置に合わせ、その後、フォーカスキー14の長押しを解除する。フォーカスキー14の長押しの解除後、制御部10が、測距部11に、リモートコントローラ1から反射部2aまでの距離(図3Aおよび図3Bに示した距離B)を測定させる。
 上記の第1および第2の測距により、二点測距が行われたことになる。
 ステップ106で、二点測距がまだ完了していないと判定した場合、すなわち、第1の測距しか未だ行われていないと判定した場合は、制御部10は、ステップ102~105の処理を再度、実行する。その後、制御部10は、ステップ106の判定を行う。
 ステップ106で、二点測距が完了したと判定した場合は、続いて、制御部10が、第1の測距時から第2の測距時までの期間における加速度センサ15の出力の変化量に基づいて、第1の測距時の測距方向と第2の測距時の測距方向とのなす角度θを算出する(ステップ107)。
 次に、制御部10が、取得した距離C、距離Bおよび角度θと、予め与えられた距離A2および半径A3とに基づいて、上述した式2により、距離A1(投写距離)を算出する(ステップ108)。そして、制御部10が、送信部13にて、算出した距離A1(投写距離)を含む距離情報をプロジェクタ本体2へ送信させる(ステップ109)。
 プロジェクタ本体2において、受信部21が、送信部13から送出された距離情報を受信すると(ステップS202)、制御部20が、LUT26aを参照し、その受信した距離情報に対応するフォーカスレンズの位置データ(移動量および移動方向)を取得する(ステップ203)。そして、制御部20が、その取得した位置データ(移動量および移動方向)に基づいて、レンズ駆動部23によるレンズモータの回転量および回転方向を制御して、フォーカスレンズを移動させる(ステップ204)。
 レンズ移動後、制御部20が、画像表示部24におけるテストパターンの表示を終了させる(ステップ205)。
 本実施形態のプロジェクタシステムによれば、測距部11が故障した場合、プロジェクタ本体2では、フォーカス調整部によるフォーカス調整は行われないが、プロジェクタ本体2と投写面3の一方または両方を移動して投写距離を調整することで、投写面のフォーカスを合わせることができる。したがって、リモートコントローラ1の修理期間中においても、プロジェクタ本体2を使用して画像を表示させることができる。
 加えて、リモートコントローラ1は、投写距離を取得するために必要な構成として、測距部11および加速度センサ15を備えており、測距機能を備えた一般のプロジェクタと比較すると、加速度センサ15の分だけコストが増大する。しかし、加速度センサ15は比較的安価であり、前述した距離機能を備えた着脱可能なユニット構造を採用する構成と比較すると、装置コストの増大はわずかである。
 また、最近では、1つのリモートコントローラを複数のプロジェクタ本体で共通に使用するユーザも多い。このようなユーザは、通常、1つのリモートコントローラと、複数のプロジェクタ本体とを購入する。
 本実施形態のプロジェクタシステムによれば、上記のようなユーザに対して、以下のような効果を得ることもできる。
 比較例として、測距センサを備えたプロジェクタ本体と、測距センサおよび加速度センサのいずれも備えていないリモートコントローラと、を有する、プロジェクタシステムを挙げる。この比較例と同様な構成として、特許文献1に記載のプロジェクタがある。
 例えば、ユーザが、2台のプロジェクタ本体と1つのリモートコントローラを所有する場合、比較例のプロジェクタシステムでは、プロジェクタ本体毎に、測距センサが必要であるため、2つの測距センサの分の価格が購入費用に含まれる。一方、本実施形態のプロジェクタシステムでは、リモートコントローラ1に、1つの測距センサと1つの加速度センサが必要であるので、それらの価格が購入費用に含まれる。
 一般に、加速度センサに比べて、測距センサは高価であるので、本実施形態のプロジェクタシステムにおける、1つの測距センサと1つの加速度センサの合計価格は、比較例のプロジェクタシステムにおける、2つの測距センサの合計価格よりも低い。このように、本実施形態のプロジェクタシステムによれば、ユーザが、1つのリモートコントローラ1と、複数のプロジェクタ本体2とを所有する場合に、購入費用を削減することができる。プロジェクタ本体2の数が多くなればなるほど、この購入費用の削減効果は増大する。
 また、ユーザが複数のリモートコントローラ1と複数のプロジェクタ本体2を所有する場合でも、リモートコントローラ1の数が、プロジェクタ本体2の数よりも少ない場合には、上記の購入費用の削減効果を期待できる。
 (第2の実施形態)
 第1の実施形態のプロジェクタシステムにおいて、投写レンズ22の光軸Aが投写面3に対して垂直になるようにプロジェクタ本体2を設置した場合は、長方形の投写画面を表示することができる。これに対して、投写レンズ22の光軸Aが投写面3に対して傾くようにプロジェクタ本体2を設置した場合は、投写画面は台形状に歪んだものとなる。この歪みは、台形歪と呼ばれている。ここでは、リモートコントローラ1に、台形歪補正用距離情報を取得する機能を追加し、プロジェクタ本体2に、台形歪補正用距離情報に基づいて台形歪を補正する機能を追加した形態について説明する。
 本発明の第2の実施形態であるプロジェクタシステムは、リモートコントローラ1と、プロジェクタ本体2とを有する。
 リモートコントローラ1は、第1の実施形態で説明したものと同様のものであるが、制御部10が、第1の実施形態で説明したフォーカス調整に関わる処理に加えて、フォーカスキー14の操作により、台形歪を補正するための距離情報を取得する台形歪補正用距離情報取得処理を実行する。
 台形歪補正用距離情報取得処理は、フォーカスキー14の短押しおよび長押しの操作が所定の順序で行われた場合に実行される。なお、フォーカスキー14とは別のキーを設け、制御部10が、その別のキーの押下を受け付けて、台形歪補正用距離情報取得処理を実行してもよい。
 台形歪補正用距離情報取得処理において、台形補正用テストパターンが用いられる。図6に、台形補正用テストパターンの画像の一例を示す。
 図6に示す画像27は、台形補正用テストパターンであって、十字パターン27-1と4つのT字パターン27-2~27-5を含む。十字パターン27-1は、画像27の中心部に位置する。T字パターン27-2、27-3は、十字パターン27-1を挟んで画像27の上下端に位置する。T字パターン27-4、27-5は、十字パターン27-1を挟んで画像27の左右端に位置する。
 十字パターン27-1とT字パターン27-2の間隔(D1)は、十字パターン27-1とT字パターン27-3の間隔(D2)に等しい。十字パターン27-1とT字パターン27-4の間隔(D3)は、十字パターン27-1とT字パターン27-5の間隔(D4)に等しい。
 十字パターン27-1を画像表示部22の表示デバイスに表示した場合、その表示面上の、投写レンズ22の光軸Aと交差する位置に、十字パターン27-1の2つの直線部の交点が位置する。したがって、十字パターン27-1を投写面3上に投写した場合、十字パターン27-1の直線部の交点は、投写面3上の投写レンズ22の光軸Aと交わる部分に位置する。
 投写レンズ22の光軸Aと投写面3とのなす角度を、垂直方向から見た場合の角度θ1(上下方向の傾き)と、水平方向から見た場合の角度θ2(左右方向の傾き)で表すとき、θ1=90°、θ2=90°である場合、投写面3上に投写された画像27において、D1=D2で、かつ、D3=D4である。この場合は、台形補正なしで、投写画像は長方形になる。
 θ1≠90°、θ2=90°である場合、投写面3上に投写された画像27において、D1>D2またはD1<D2で、かつ、D3=D4である。
 θ1=90°、θ2≠90°である場合、投写面3上に投写された画像27において、D1=D2で、かつ、D3>D4またはD3<D4である。
 θ1≠90°、θ2≠90°である場合、投写面3上に投写された画像27において、D1>D2またはD1<D2で、かつ、D3>D4またはD3<D4である。
 投写面3上に投写された画像27において、間隔D1と間隔D2の合計値で表される垂直方向のパターン長における間隔D1と間隔D2の割合(D1:D2)は、角度θ1に応じて変化するので、割合(D1:D2)に基づいて角度θ1を算出することができる。
 また、投写面3上に投写された画像27において、間隔D3と間隔D4の合計値である水平方向のパターン長における間隔D3と間隔D4の割合(D3:D4)は、角度θ2に応じて変化するので、割合(D3:D4)に基づいて、角度θ2を算出することができる。
 リモートコントローラ1において、制御部10は、ユーザの操作により、測距部11にて、投写面3上に投写された図6に示す画像27における間隔D1~D4をそれぞれ測定させるとともに、送信部13にて、間隔D1~D4の測定値を含む台形歪補正用距離情報をプロジェクタ本体2へ送信させる。
 図7は、プロジェクタ本体2の構成を示すブロック図である。
 図7に示すように、プロジェクタ本体2は、制御部20、受信部21、投写レンズ22、レンズ駆動部23、画像表示部24、操作部25、および記憶部26を有する。LUT26cとテストパターン情報26dが記憶部26に格納されている点と、画像表示部24の一部の構成が、図4に示したものと異なる。
 テストパターン情報26dは、図6に示した画像27のデータを含む。LUT26cは、割合(D1:D2)と角度θ1との対応関係を示す第1のテーブルデータと、割合(D3:D4)と角度θ2との対応関係を示す第2のテーブルデータと、を含む。
 画像表示部24は、画像処理部24-1、台形歪補正処理部24-2、駆動回路24-3および表示デバイス24-4を有する。
 表示デバイス24-4は、不図示の光源からの光束を部分的に反射または透過する、液晶デバイス等に代表される空間変調デバイスである。駆動回路24-3は、画像処理部24-1から台形歪補正処理部24-2を介して供給されるデジタル画像データに基づいて表示デバイス24-4を駆動する。表示デバイス24-4にて生成された画像が、投写レンズ22によって投写面3上に投写される。
 画像処理部24-1は、外部映像信号(アナログ画像データおよび同期信号を含む)から同期信号を分離する同期信号分離部、外部映像信号のアナログ画像データをA/D変換するA/D変換部、そのA/D変換された信号画像データを格納するメモリ部(例えば、フレームメモリ)などの画像処理に必要な構成を有している。同期信号分離部で分離した同期信号は制御部20に供給される。
 画像処理部24-1では、外部からのアナログ画像データがデジタル画像データに変換されてメモリ部に格納されるとともに、制御部20からの制御信号に基づいて、そのメモリ部からデジタル画像データが読み出されて台形歪補正処理部24-2に供給される。
 台形歪補正処理部24-2は、制御部20からの制御信号に応じて起動し、画像処理部24-1から供給されたデジタル画像データに対して、制御部20から供給される角度情報に基づいて台形歪補正を行う。この台形歪補正では、角度情報に基づいて、投写面3上における投写画面が長方形になるように、画像処理部24-1から供給されたデジタル画像データを補正する。
 受信部21は、リモートコントローラ1から台形歪補正用距離情報を受け取り、それを制御部20へ供給する。
 制御部20は、台形歪補正用距離情報に含まれている間隔D1~D4の値に基づいて、割合(D1:D2)および割合(D3:D4)を算出し、LUT26cの第1および第2のテーブルデータを参照して、割合(D1:D2)および割合(D3:D4)から投写レンズ22の光軸Aの投写面3に対する傾き(θ1、θ2)を算出する。
 次に、本実施形態のプロジェクタシステムの動作について説明する。台形補正に関わる動作以外は、第1の実施形態のプロジェクタシステムと同様であるので、ここでは、台形補正に関わる動作について詳細に説明する。
 図8は、台形補正に関わる動作の一手順を示すフローチャートである。図8において、ステップ300~312は、リモートコントローラ1の動作を示し、ステップ400~405は、プロジェクタ本体2の動作を示す。ステップ300、301、303~309は、図5に示したステップ100~108に対応する。
 以下、図6~図8を参照して、台形補正に関わる動作を説明する。
 ユーザが、リモートコントローラ1のフォーカスキー14を短押しすると、制御部10が、フォーカスキー14の短押しを受け付け(ステップ300)、送信部13にて、テストパターン表示命令をプロジェクタ本体2へ送信させる(ステップ301)。その後、制御部10は、カウント値nに1をセットする(ステップ302)。
 プロジェクタ本体2において、受信部21が、送信部13から送出されたテストパターン表示命令を受信すると(ステップS400)、制御部20が、テストパターン表示命令に従って、テストパターン情報26dに基づく画像を画像表示部24の表示デバイス24-4にて表示させる(ステップS401)。これにより、図6の画像27が投写面3上に投写される。
 次に、ユーザが、リモートコントローラ1のフォーカスキー14を長押しすると、制御部10が、フォーカスキー14の長押しを受け付け(ステップ303)、光源12をオン状態としてレーザポインタを送出させる(ステップ304)。
 ユーザが、フォーカスキー14の長押しを解除すると、制御部10が、フォーカスキー14の長押しの解除を受け付け(ステップ305)、測距部11に、リモートコントローラ1からレーザポインタにより示された測距対象までの距離を測定させる(ステップ306)。その後、制御部10は、光源12をオフ状態にする。
 次に、制御部10は、二点測距が完了したか否かを判定する(ステップ307)。二点測距がまだ完了していないと判定した場合、制御部10は、ステップ303~306の処理を再度、実行する。その後、制御部10は、ステップ307の判定を行う。
 二点測距が完了した場合は、続いて、制御部10が、第1の測距時から第2の測距時までの期間における加速度センサ15の出力の変化量に基づいて、第1の測距時の測距方向と第2の測距時の測距方向とのなす角度θを算出する(ステップ308)。
 次に、制御部10が、第1および第2の測距で取得した距離と角度θに基づいて、二点間距離を算出する(ステップ309)。
 二点間距離の演算において、第1の測距点までの距離をBとし、第2の測距点までの距離をCとし、第1および第2の測距点の間隔(二点間距離)をDとすると、以下の余弦定理の式が成り立つ。
 cosθ={B2+C2-D2}/2BC・・・(式3)
 上記式3を変形すると、間隔Dは、以下の式4で与えられる。
 D={B2+C2-2BCcosθ}1/2・・・(式4)
 ステップ309で、制御部10は、上記の式4を用いて二点間距離を算出する。
 次いで、制御部10は、カウント値nがNに達したか否かを判定する(ステップ310)。ここで、Nは、図6に示したT字パターンの数であり、制御部10は、Nの値として4を予め保持している。T字パターンの数は適宜変更でき、それに伴ってNの値も変更される。
 カウント値nがNに達していない場合は、制御部10は、カウント値nに1を加算し(ステップ311)、その後、ステップ303~309の処理を再度、実行する。
 ステップ303~309の一連の二点間測距処理がN(=4)回実施されることで、投写面3上に投写された画像27における、十字パターン27-1とT字パターン27-2~27-5との間隔D1~D4を取得することができる。
 具体的には、1回目の二点間測距処理において、ユーザは、投写面3上の十字パターン27-1により示される第1の測距点にレーザポインタを合わせ、第1の測距を実施させ、その後、投写面3上のT字パターン27-2により示される第2の測距点にレーザポインタを合わせ、第2の測距を実施させる。これにより、第1および第2の測距点の間隔D1を取得することができる。
 2回目の二点間測距処理において、ユーザは、投写面3上の十字パターン27-1により示される第1の測距点にレーザポインタを合わせ、第1の測距を実施させ、その後、投写面3上のT字パターン27-3により示される第3の測距点にレーザポインタを合わせ、第2の測距を実施させる。これにより、第1および第3の測距点の間隔D2を取得することができる。
 3回目の二点間測距処理において、ユーザは、投写面3上の十字パターン27-1により示される第1の測距点にレーザポインタを合わせ、第1の測距を実施させ、その後、投写面3上のT字パターン27-4により示される第4の測距点にレーザポインタを合わせ、第2の測距を実施させる。これにより、第1および第4の測距点の間隔D3を取得することができる。
 3回目の二点間測距処理において、ユーザは、投写面3上の十字パターン27-1により示される第1の測距点にレーザポインタを合わせ、第1の測距を実施させ、その後、投写面3上のT字パターン27-5により示される第5の測距点にレーザポインタを合わせ、第2の測距を実施させる。これにより、第1および第5の測距点の間隔D3を取得することができる。
 上記の1回目~4回目の二点間測距処理が実施されることで、カウント値nがN(=4)に達する。
 カウント値nがNに達した場合は、制御部10は、送信部213にて、N回(=4)の二点間測距処理で得られた間隔D1~4の測定値を含む台形歪補正用距離情報をプロジェクタ本体2へ送信させる(ステップ312)。
 プロジェクタ本体2において、受信部21が、送信部13から送出された台形歪補正用距離情報を受信すると(ステップS402)、制御部20が、台形歪補正用距離情報に含まれている間隔D1~D4に基づいて、割合(D1:D2)および割合(D3:D4)を算出し、LUT26cの第1および第2のテーブルデータを参照して、割合(D1:D2)および割合(D3:D4)から投写レンズ22の光軸Aの投写面3に対する傾きθ1、θ2を算出する(ステップS403)。
 次に、台形補正処理部24-2が、ステップS403で算出した傾きθ1、θ2に基づいて、投写面3上における投写画面が長方形になるように、デジタル画像データを補正する(ステップ404)。そして、駆動回路24-3が、補正後のデジタル画像データに基づく画像を表示デバイス24-4にて表示させる。
 台形補正後、制御部20が、画像表示部24の表示デバイス24-4におけるテストパターンの表示を終了させる(ステップ405)。
 上述した本実施形態のプロジェクタシステムにおいても、ユーザは、1つのリモートコントローラ1と複数のプロジェクタ本体2とを所有し、1つのリモートコントローラ1を、複数のプロジェクタ本体2で共通に使用することができる。このような利用形態において、第1の実施形態で説明した効果に加えて、以下のような効果を得ることができる。
 一般に、プロジェクタにおいて、投写レンズの光軸の投写面に対する上下方向の傾きおよび左右方向の傾きを検出するためには、投写レンズを挟んで上下左右それぞれに配置された4つの測距センサを用いる。左右に配置された2つの測距センサにより得られた距離情報に基づいて左右方向の傾きを検出し、上下に配置された2つの測距センサにより得られた距離情報に基づいて上下方向の傾きを検出することができる。このように、4つの測距センサをプロジェクタに搭載する必要がある。
 一方、本実施形態のプロジェクタシステムによれば、リモートコントローラ1側に1つの測距センサを搭載するだけで良く、上記の一般のプロジェクタに比較して、測距センサの数を削減することができ、低コスト化を図ることができる。
 また、リモートコントローラ1において、1つの測距センサをフォーカス調整と台形補正とで共通に使用することができるというメリットもある。
 以上説明した各実施形態のプロジェクタシステムは、本発明の一例であり、その構成および動作につては、発明の趣旨を逸脱しない範囲で当業者が理解し得る変更を行うことができる。
 例えば、第2の実施形態において、テストパターン情報26bを削除し、テストパターン情報26dを、フォーカス調整と台形補正とで共通に使用してもよい。
 また、第2の実施形態において、上下方向の傾きと左右方向の傾きの一方に基づく台形補正を行うように構成してもよい。図6に示した画像27において、上下方向の傾きに基づく台形補正を行う場合は、T字パターン27-4、27-5を削除してもよく、左右方向の傾きに基づく台形補正を行う場合は、T字パターン27-2、27-3を削除してもよい。
 さらに、第2の実施形態は、装置コスト削減の観点から、第1の実施形態で説明したフォーカス調整に関わる処理を行わない形態であってもよい。この場合は、第2の実施形態は、前述の台形補正に関わる処理を行うための構成を有することで、装置コストを削減することができる。
 また、第1および第2の実施形態において、前述の式2を用いた投写距離の算出処理をプロジェクタ本体2の制御部20が行うようにしてもよい。この場合、リモートコントローラ1において、制御部10は、距離B、距離Cおよび角度θの情報を距離情報として送信部13からプロジェクタ本体2へ送信させる。
 また、第1および第2の実施形態において、カラー画像を表示する場合は、表示デバイスとして、赤用表示デバイス、緑用表示デバイスおよび青用表示デバイスが用いられる。この場合は、光源からの光を赤色、緑色、青色の光に分離し、赤色の光が赤用表示デバイスに照射され、緑色の光が緑用表示デバイスに照射され、青色の光が青用表示デバイスに照射される。赤用表示デバイスからの赤色画像光、緑用表示デバイスからの緑色画像光、および青用表示デバイスからの青色画像光が色合成手段(例えば、色合成用ダイクロイックプリズム)で合成される。色合成された画像光は、投写レンズ22により投写面3上に投写される。
 上記のカラー画像の形態において、光源として、赤色、緑色、青色の固体光源(例えば、LED)を用いてもよい。
 (他の実施形態)
 本発明の他の実施形態であるプロジェクタシステムは、複数のレンズからなる投写レンズを備え、該投写レンズにより画像が投写面上に投写されるプロジェクタ本体と、上記プロジェクタ本体とは別に設けられたリモートコントローラと、を有する。
 上記リモートコントローラは、ユーザによる操作に応じて、上記投写レンズの先端から上記投写面までの投写距離を取得する投写距離取得手段を有する。上記投写距離取得手段は、上記リモートコントローラから上記投写面までの第1の距離と、上記リモートコントローラから上記プロジェクタ本体の所定部位までの第2の距離とをそれぞれ測定し、上記第1の距離の測定方向と上記第2の距離の測定方向とのなす角度を検出し、該検出した角度と、上記第1および第2の距離の測定値と、予め保持している、上記投写レンズの先端から上記所定部位までの距離の値とに基づいて上記投写距離を算出する。
 上記プロジェクタ本体は、上記投写距離取得手段により算出した上記投写距離に基づいて、上記投写レンズの少なくとも一部のレンズを前後に移動してフォーカスの調整を行うフォーカス調整手段を有する。
 上記の他の実施形態のプロジェクタシステムによっても、前述した第1の実施形態と同様の効果を得ることができる。
 上記の他の実施形態のプロジェクタシステムにおいて、投写距離取得手段は、図1に示した制御部10、測距部11、および加速度センサ15により構成することができる。
 フォーカス調整手段は、図4に示した制御部20およびレンズ駆動部23により構成することができる。
 上記の他の実施形態のプロジェクタシステムにおいて、上記プロジェクタ本体は、画像を表示し、該表示した画像が上記投写レンズにより上記投写面に投写される画像表示部と、上記画像表示部の表示領域の中心を示す第1の点と該第1の点を挟んで両側に所定の間隔で配置された第2および第3の点とをそれぞれ特定するテストパターンを含む画像データが格納された記憶部と、上記記憶部に格納された上記画像データに基づく上記テストパターンを上記画像表示部に表示させ、上記投写レンズによって投写される画像の台形歪を補正する台形歪補正手段と、をさらに有し、上記リモートコントローラは、上記投写面に投写される画像の台形歪の度合いを示す台形歪情報を取得する台形歪情報取得手段を、さらに有していてもよい。
 上記台形歪情報取得手段は、上記投写面上の上記テストパターンにより示された上記第1乃至第3の点について、上記リモートコントローラから上記投写面上の上記第1の点までの第3の距離と、上記リモートコントローラから上記投写面上の上記第2の点までの第4の距離とをそれぞれ測定し、上記第3の距離の測定方向と上記第4の距離の測定方向とのなす角度を検出し、該検出した角度と、上記第3および第4の距離の測定値とに基づいて、上記投写面上の上記第1および第2の点の間の第1の2点間距離を算出し、上記第3の距離と、上記リモートコントローラから上記投写面上の上記第3の点までの第5の距離とをそれぞれ測定し、上記第3の距離の測定方向と上記第5の距離の測定方向とのなす角度を検出し、該検出した角度と、上記第3および第5の距離の測定値とに基づいて、上記投写面上の上記第1および第3の点の間の第2の2点間距離を算出する。
 上記台形歪補正手段は、上記台形歪情報取得手段により算出した上記第1および第2の2点間距離に基づいて、上記台形歪の補正を行う。
 上記の場合、台形歪情報取得手段は、図1に示した制御部10、測距部11、および加速度センサ15により構成することができる。台形歪補正手段は、図7に示した制御部20および台形補正処理部24-2により構成することができる。

Claims (10)

  1.  複数のレンズからなる投写レンズを備え、該投写レンズにより画像が投写面上に投写されるプロジェクタ本体と、
     前記プロジェクタ本体とは別に設けられたリモートコントローラと、を有し、
     前記リモートコントローラは、ユーザによる操作に応じて、前記投写レンズの先端から前記投写面までの投写距離を取得する投写距離取得手段を有し、
     該投写距離取得手段は、前記リモートコントローラから前記投写面までの第1の距離と、前記リモートコントローラから前記プロジェクタ本体の所定部位までの第2の距離とをそれぞれ測定し、前記第1の距離の測定方向と前記第2の距離の測定方向とのなす角度を検出し、該検出した角度と、前記第1および第2の距離の測定値と、予め保持している、前記投写レンズの先端から前記所定部位までの距離の値とに基づいて前記投写距離を算出し、
     前記プロジェクタ本体は、前記投写距離取得手段により算出した前記投写距離に基づいて、前記投写レンズの少なくとも一部のレンズを前後に移動してフォーカスの調整を行うフォーカス調整手段を有する、プロジェクタシステム。
  2.  前記投写距離取得手段は、
     前記リモートコントローラから測距対象までの距離を測定する測距部と、
     前記測距部の向きの変化に応じて出力値が変化する方向検出手段と、
     ユーザによる操作に応じて前記測距部の動作を制御し、前記投写距離を算出する第1の制御部と、を有し、
     前記第1の制御部は、前記測距部に、前記第1および第2の距離をそれぞれ測定させ、前記第1の距離の測定時点から前記第2の距離の測定時点までの期間における前記方向検出手段の出力値の変化に基づいて、前記角度を検出する、請求項1に記載のプロジェクタシステム。
  3.  前記フォーカス調整手段は、
     前記投写レンズの少なくとも一部のレンズを前後に移動するレンズ駆動部と、
     前記投写距離取得手段により算出した前記投写距離に基づいて、前記レンズ駆動部による前記レンズの移動を制御してフォーカスの調整を行う第2の制御部と、を有する、請求項1または2に記載のプロジェクタシステム。
  4.  前記プロジェクタ本体は、
     画像を表示し、該表示した画像が前記投写レンズにより前記投写面に投写される画像表示部と、
     前記画像表示部の表示領域の中心を示すテストパターンを含む画像データが格納された記憶部と、をさらに有し、
     前記第2の制御部は、前記記憶部に格納した前記画像データに基づく前記テストパターンを前記画像表示部に表示させ、
     前記第1の距離は、前記リモートコントローラから前記投写面上の前記テストパターンにより示された位置までの距離である、請求項3に記載のプロジェクタシステム。
  5.  前記プロジェクタ本体は、前記投写距離と前記レンズの移動量および移動方向との対応関係を示すデータが格納されたルックアップテーブルを、さらに有し、
     前記第2の制御部は、前記投写距離取得手段により算出した前記投写距離に対応する前記レンズの移動量および移動方向を前記ルックアップテーブルから取得し、該取得したレンズの移動量および移動方向に基づいて、前記レンズ駆動部による前記レンズの移動を制御する、請求項3または4に記載のプロジェクタシステム。
  6.  前記方向検出手段は、第1の軸と、該第1の軸に直交する第2の軸と、該第1および第2の軸のそれぞれと直交する第3の軸との3つの軸それぞれの方向に加わる加速度を検出する3軸加速度センサより構成される、請求項2に記載のプロジェクタシステム。
  7.  前記所定の部位は、円柱形状または円筒状であって、反射面または光を拡散する拡散面よりなる側面を有し、円の中心を通る軸が前記投写レンズの光軸と直交する、請求項1から6のいずれか1項に記載のプロジェクタシステム。
  8.  前記リモートコントローラは、前記測距部による測距点を示すレーザポインタを形成するレーザ光源を、さらに有する、請求項2に記載のプロジェクタシステム。
  9.  前記プロジェクタ本体は、
     画像を表示し、該表示した画像が前記投写レンズにより前記投写面に投写される画像表示部と、
     前記画像表示部の表示領域の中心を示す第1の点と該第1の点を挟んで両側に所定の間隔で配置された第2および第3の点とをそれぞれ特定するテストパターンを含む画像データが格納された記憶部と、
     前記記憶部に格納された前記画像データに基づく前記テストパターンを前記画像表示部に表示させ、前記投写レンズによって投写される画像の台形歪を補正する台形歪補正手段と、を有し、
     前記リモートコントローラは、前記投写面に投写される画像の台形歪の度合いを示す台形歪情報を取得する台形歪情報取得手段を、さらに有し、
     前記台形歪情報取得手段は、前記投写面上の前記テストパターンにより示された前記第1乃至第3の点について、
     前記リモートコントローラから前記投写面上の前記第1の点までの第3の距離と、前記リモートコントローラから前記投写面上の前記第2の点までの第4の距離とをそれぞれ測定し、前記第3の距離の測定方向と前記第4の距離の測定方向とのなす角度を検出し、該検出した角度と、前記第3および第4の距離の測定値とに基づいて、前記投写面上の前記第1および第2の点の間の第1の2点間距離を算出し、
     前記第3の距離と、前記リモートコントローラから前記投写面上の前記第3の点までの第5の距離とをそれぞれ測定し、前記第3の距離の測定方向と前記第5の距離の測定方向とのなす角度を検出し、該検出した角度と、前記第3および第5の距離の測定値とに基づいて、前記投写面上の前記第1および第3の点の間の第2の2点間距離を算出し、
     前記台形歪補正手段は、前記台形歪情報取得手段により算出した前記第1および第2の2点間距離に基づいて、前記台形歪の補正を行う、請求項1に記載のプロジェクタシステム。
  10.  複数のレンズからなり、少なくとも一部のレンズを前後に移動する投写レンズを備え、該投写レンズにより画像が投写面上に投写されるプロジェクタ本体と、前記プロジェクタ本体とは別に設けられたリモートコントローラと、を有する、プロジェクタシステムのフォーカス調整方法であって、
     前記リモートコントローラにて、第1の制御部が、前記リモートコントローラから前記投写面までの第1の距離と、前記リモートコントローラから前記プロジェクタ本体の所定部位までの第2の距離とをそれぞれ測定し、前記第1の距離の測定方向と前記第2の距離の測定方向とのなす角度を検出し、該検出した角度と、前記第1および第2の距離の測定値と、予め保持している、前記投写レンズの先端から前記所定部位までの距離の値とに基づいて前記投写レンズの先端から前記投写面までの投写距離を算出し、
     前記プロジェクタ本体にて、第2の制御部が、前記算出した投写距離に基づいて、前記投写レンズの少なくとも一部のレンズを前後に移動させてフォーカスの調整を行う、フォーカス調整方法。
PCT/JP2012/057453 2012-03-23 2012-03-23 プロジェクタシステムおよびフォーカス調整方法 WO2013140594A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/057453 WO2013140594A1 (ja) 2012-03-23 2012-03-23 プロジェクタシステムおよびフォーカス調整方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/057453 WO2013140594A1 (ja) 2012-03-23 2012-03-23 プロジェクタシステムおよびフォーカス調整方法

Publications (1)

Publication Number Publication Date
WO2013140594A1 true WO2013140594A1 (ja) 2013-09-26

Family

ID=49222088

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/057453 WO2013140594A1 (ja) 2012-03-23 2012-03-23 プロジェクタシステムおよびフォーカス調整方法

Country Status (1)

Country Link
WO (1) WO2013140594A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9959841B2 (en) 2014-04-01 2018-05-01 Beijing Zhigu Rui Tuo Tech Co., Ltd Image presentation control methods and image presentation control apparatuses
US10643334B2 (en) 2014-04-01 2020-05-05 Beijing Zhigu Rui Tuo Tech Co., Ltd Image presentation control methods and image presentation control apparatuses

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000081601A (ja) * 1998-06-26 2000-03-21 Matsushita Electric Ind Co Ltd プロジェクタ
JP2005117624A (ja) * 2003-09-16 2005-04-28 Seiko Epson Corp プロジェクタ
JP2005156261A (ja) * 2003-11-21 2005-06-16 Matsushita Electric Works Ltd レーザ測距装置
JP2009086317A (ja) * 2007-09-28 2009-04-23 Fujifilm Corp 一眼レフ型撮影装置および一眼レフ型撮影装置の調整方法
JP2011049739A (ja) * 2009-08-26 2011-03-10 Canon Inc 撮像装置及びその制御方法、並びにプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000081601A (ja) * 1998-06-26 2000-03-21 Matsushita Electric Ind Co Ltd プロジェクタ
JP2005117624A (ja) * 2003-09-16 2005-04-28 Seiko Epson Corp プロジェクタ
JP2005156261A (ja) * 2003-11-21 2005-06-16 Matsushita Electric Works Ltd レーザ測距装置
JP2009086317A (ja) * 2007-09-28 2009-04-23 Fujifilm Corp 一眼レフ型撮影装置および一眼レフ型撮影装置の調整方法
JP2011049739A (ja) * 2009-08-26 2011-03-10 Canon Inc 撮像装置及びその制御方法、並びにプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9959841B2 (en) 2014-04-01 2018-05-01 Beijing Zhigu Rui Tuo Tech Co., Ltd Image presentation control methods and image presentation control apparatuses
US10643334B2 (en) 2014-04-01 2020-05-05 Beijing Zhigu Rui Tuo Tech Co., Ltd Image presentation control methods and image presentation control apparatuses

Similar Documents

Publication Publication Date Title
JP4609734B2 (ja) 距離測定装置及びこの距離測定装置を備えたプロジェクタ
JP6387644B2 (ja) 位置検出装置、位置検出システム、及び、位置検出方法
TWI408487B (zh) 投影裝置、投影控制方法及記錄有投影控制方法之記錄媒體
JP5504781B2 (ja) プロジェクタ
JP2006313116A (ja) 距離傾斜角度検出装置および該検出装置を備えたプロジェクタ
US20180178650A1 (en) Projection type display device and projection control method
WO2011033549A1 (ja) 表示装置およびその制御方法
JP2007093245A (ja) 測距装置及び測距方法
CN1863290A (zh) 投影装置和用于投影装置的测距方法
JP2019184804A (ja) 画像投射装置およびプログラム
JP5246467B2 (ja) 距離測定装置及びプロジェクタ
JP2018164251A (ja) 画像表示装置およびその制御方法
WO2012085990A1 (ja) 投写型表示装置および設置姿勢教示方法
WO2013140594A1 (ja) プロジェクタシステムおよびフォーカス調整方法
JP2008250562A (ja) 投影システム、投影装置、投影制御方法及びプログラム
JP2009182435A (ja) 投影システム、リモコン、プロジェクタ、投影システムの操作方法およびプログラム
JP2008033116A (ja) プロジェクタ、位置調整装置および位置調整方法
JP6569259B2 (ja) 位置検出装置、表示装置、位置検出方法、及び、表示方法
JP5039185B2 (ja) 表示装置
JP4480387B2 (ja) プロジェクタ、プロジェクタの焦点自動調整システム、プロジェクタの焦点自動調整方法
JP5055806B2 (ja) 投影装置、投影方法及びプログラム
JP5125561B2 (ja) 投影装置及び投影制御方法
JP2005159426A (ja) 自動台形歪補正手段を備えたプロジェクタ
JP7266151B2 (ja) 指示位置検出装置、指示位置検出方法、指示位置検出プログラム、及び投影システム
JP3709405B2 (ja) 傾斜角度測定装置を有するプロジェクタ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12871886

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12871886

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP