WO2017141744A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
WO2017141744A1
WO2017141744A1 PCT/JP2017/004159 JP2017004159W WO2017141744A1 WO 2017141744 A1 WO2017141744 A1 WO 2017141744A1 JP 2017004159 W JP2017004159 W JP 2017004159W WO 2017141744 A1 WO2017141744 A1 WO 2017141744A1
Authority
WO
WIPO (PCT)
Prior art keywords
display device
projection
unit
image
control unit
Prior art date
Application number
PCT/JP2017/004159
Other languages
English (en)
French (fr)
Inventor
厚志 石原
倉田 宜典
邦仁 澤井
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/073,972 priority Critical patent/US20190045159A1/en
Priority to JP2018500042A priority patent/JP6807037B2/ja
Priority to EP17753004.5A priority patent/EP3418800A4/en
Publication of WO2017141744A1 publication Critical patent/WO2017141744A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/312Driving therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/10Projectors with built-in or built-on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/145Housing details, e.g. position adjustments thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • G03B21/56Projection screens
    • G03B21/60Projection screens characterised by the nature of the surface

Definitions

  • the present technology relates to a display device, and more particularly to a display device capable of changing a projection position of an image.
  • Patent Document 1 In an apparatus that performs processing according to a gesture in a three-dimensional space, it has been proposed to project an image on the upper surface of a desk from a projector installed above (see, for example, Patent Document 1).
  • projectors have been proposed that can project an image on an installation surface on which the projector is installed and a surface perpendicular to the installation surface.
  • This projector rotates a reflecting mirror having a planar reflecting surface and a curved reflecting surface, projects an image on the setting surface by the planar reflecting surface, and a surface perpendicular to the setting surface by the curved reflecting surface. Project an image onto the image (see, for example, Patent Document 2).
  • the present technology is to improve the visibility of an image.
  • One aspect of the present technology includes a projection unit that projects projection light for projecting an image, a direction change unit that changes the direction of the projection light, a projection surface that is visible from the outside, and the direction change unit that changes the direction. And a first drive unit configured to set the projection position of the image by the projection light to the projection plane or the outside by changing the direction of the projection light.
  • the projection unit, the projection surface, the direction changing unit, and a second drive unit may be provided to change the orientation of the main unit provided with the first drive unit.
  • a control unit can be further provided to move the position where the image is projected to the outside.
  • the control unit can change the orientation of the main body when an obstacle that interferes with the projection light is detected.
  • the control unit may control the first drive unit based on the surrounding condition of the display device to switch the projection position of the image to the projection plane or the outside.
  • the control unit may set the projection position of the image on the projection plane when an obstacle that interferes with the projection light is detected.
  • An output unit for outputting information may further be provided, and the control unit may output information indicating the presence of the obstacle to the output unit when an obstacle that interferes with the projection light is detected.
  • the control unit may cause the projection unit to project projection light for projecting an image informing the presence of the obstacle when an obstacle that interferes with the projection light is detected.
  • a detection unit may be further provided to detect a situation around the display device.
  • a third drive unit for changing the direction of the detection unit is further provided, and the control unit controls the third drive unit based on the situation around the display device to change the direction of the detection unit. Can.
  • the detection unit can be installed above the main body.
  • a pedestal for rotatably supporting the main body in the horizontal direction may be further provided, and the second driving part may change the orientation of the main body by rotating the main body.
  • a control unit may be further provided, which controls the first drive unit based on the situation around the display device, and switches the projection position of the image to the projection surface or the outside.
  • the direction changing unit may be provided with a mirror rotatably supported about an axis extending in the horizontal direction, and the first driving unit may change the direction of the mirror.
  • the image may be projected onto the projection plane or the plane on which the display device is placed.
  • the projection port of the projection unit and the direction changing unit are disposed in a shielding space provided with an opening, and the projection light whose direction is changed by the direction changing unit is outside the shielding space from the opening. Can be emitted downward from the horizontal direction.
  • a transparent and anti-reflective cover may be further provided to close the opening.
  • the projection plane can be directed upward from the horizontal direction.
  • the projection plane can be configured by a diffusion type screen.
  • An operation unit may be further provided to detect an operation on the projection plane.
  • projection light for projecting an image is projected, and by changing the direction of the projection light to be changed by the direction changing unit, the projection position of the image by the projection light is the projection plane or the outside Set to
  • the projection position of the image can be changed.
  • the visibility of an image can be improved.
  • FIG. 1 is a front view schematically showing a configuration example of the appearance of the display device 10
  • FIG. 2 is a left side view schematically showing a configuration example of the appearance of the display device 10. As shown in FIG. 1
  • the display device 10 is a robot-type display device capable of interactive communication with a user.
  • the display device 10 includes a head 11, a main body 12, and a pedestal 13.
  • the main body 12 has a shape close to a truncated cone.
  • the upper surface of the main body 12 faces obliquely upward in the front direction, and a circular opening 12A is formed.
  • the head 11 is exposed from the opening 12A.
  • the portion exposed from the opening 12A of the head 11 is substantially hemispherical.
  • the head 11 can rotate in the vertical direction about an axis (tilt axes A1L and A1R described later) extending in the horizontal direction.
  • the vertical rotation of the head 11 reproduces, for example, the nod movement of the robot.
  • photography part 21 provided in the head 11 can be moved up and down.
  • the head 11 can be rotated in an oblique direction about an axis (pan axis A2 described later) extending in an obliquely upward direction.
  • the oblique rotation of the head 11 reproduces, for example, an operation in which the robot turns its head or shakes its neck.
  • the photographing direction of the photographing unit 21 can be moved to the left and right.
  • the head 11 can be depressed by a predetermined distance.
  • the switch 421 (FIG. 10) provided inside the display device 10 is turned on, and when the user releases the hand, the head 11 returns to the original position. 421 turns off. Then, the switch 421 supplies an operation signal to the control unit 403 (FIG. 10).
  • a protrusion 12B protruding forward is formed at the upper front of the main body 12.
  • An emission port 12C which is a rectangular opening, is formed on the lower surface of the protrusion 12B.
  • the projection light projected from the projector 205 (FIG. 8 etc.) incorporated in the main body 12 is emitted to the outside of the main body 12 from the light emission port 12C.
  • an image is projected on the installation surface on which the screen 23 or the display device 10 is placed by the projection light emitted from the emission port 12C.
  • the image projected by the projection light may be either a moving image or a still image.
  • An inclined surface 12D is formed under the protrusion 12B.
  • the inclined surface 12D has a steeper inclination than the peripheral surface, and the upper part thereof is recessed deeper than the side surface of the main body part 12, and the lower part thereof protrudes forward than the side surface of the main body part 12.
  • a mesh hole 22 is formed at the upper end of the inclined surface 12D.
  • the mesh hole 22 is provided to output the sound from the speaker 431 (FIG. 10) contained in the main body 12 to the outside.
  • a screen 23 is provided below the mesh holes 22 of the inclined surface 12D.
  • the screen 23 is exposed to the outside, faces obliquely upward (upward from the horizontal direction), and is visible from the outside.
  • the screen 23 is used as a projection plane for projecting an image by projection light projected from the projector 205.
  • the screen 23 is combined with a touch sensor 204 described later to configure a touch panel.
  • a touch sensor 204 described later to configure a touch panel.
  • a diffusion type screen for example, a matte screen
  • the surface of the screen 23 is UV-coated so as not to deteriorate even if the user repeatedly touches it.
  • the pedestal portion 13 has a bowl-like shape having a flat bottom surface.
  • the pedestal 13 rotatably supports the main body 12 in the horizontal direction. Then, by rotating the main body 12 in the horizontal direction with the head 11 about the pedestal 13 as an axis, for example, the direction of the screen 23 is changed, or the projection position of the image is moved on the installation surface.
  • the shooting direction of the shooting unit 21 can be moved.
  • connection terminal for connecting an AC adapter, a USB cable or the like is provided.
  • FIG. 3 is a front view schematically showing the display device 10 with the exterior removed
  • FIG. 4 is a left side view schematically showing the display 10 with the exterior removed
  • FIG. 5 is a front view schematically showing the head 11 of the display device 10 with the exterior removed
  • FIG. 6 is a left side schematically showing the head 11 of the display 10 with the exterior removed
  • FIG. 7 is a front view
  • FIG. 7 is a left side view schematically showing a cross section of the head 11 of the display device 10 with the exterior removed
  • FIG. 8 is a left side view schematically showing a part of a cross section of the main body 12 of the display device 10 with the exterior removed
  • FIG. 9 is a left side view schematically showing the pedestal portion 13 of the display device 10 with the exterior removed.
  • the head 11 is configured based on a base member 101 having a near hemispherical shape.
  • the base member 101 is actually comprised by several members, in order to make a figure intelligible, it is collectively shown in figure here.
  • the upper surface of the base member 101 faces obliquely upward in the front direction, and a circular opening 101A is formed. Then, the substrate 102 and the like are provided in the opening 101A.
  • the substrate 102 is installed so as to face substantially the front of the display device 10 at a standard position where the head 11 is not rotating.
  • a camera 103 constituting the imaging unit 21 (FIG. 1) is provided in the vicinity of the center upper end of the substrate 102.
  • the camera 103 captures an image of the direction in which the head 11 is directed above the main body 12, and an image signal obtained as a result of the imaging is provided in the display unit 10 as a control unit 403 (FIG. 10).
  • An LED unit 104 is provided below the camera 103 on the substrate 102, and LED units 105L and 105R are provided on the left and right of the LED unit 104.
  • the LED unit 104 and the LED units 105L and 105R are used, for example, to express the facial expression or emotion of the robot.
  • each LED is arranged in each row in the vertical direction, the horizontal direction, the left diagonal direction, and the right diagonal direction. Among them, since the central LED is shared by each row, a total of 17 LEDs are arranged. Each LED can be individually turned on and off. For example, the blinking pattern of each LED expresses the robot's expression and emotion.
  • each of the LED units 105L and 105R five LEDs are arranged in the vertical direction.
  • the LED units 105L and 105R express, for example, the movement of the eyes of the robot. For example, from the state in which five LEDs of each of the LED units 105L and 105R are lit, the LEDs are turned off sequentially from the top to the bottom, and then the blink is reproduced by sequentially lighting the LEDs from the bottom to the top.
  • a spherical crown cover 106L and a cover 106R are provided on the left and right of the substrate 102.
  • the cover 106L is attached to a tilt axis A1L extending in the left-right direction such that the curved surface faces the left side.
  • the cover 106R is attached to a tilt axis A1R whose center coincides with the tilt axis A1L, and is disposed so as to be substantially symmetrical with the cover 106L.
  • the cover 106L and the cover 106R mainly function to hide the inside of the head 11 from the outside.
  • the substrate 102 is attached to the exterior 111 of the head 11 shown by the dotted line in FIG.
  • the exterior 111 is attached to the tilt axes A1L and A1R.
  • the rotation of the tilt axes A1L and A1R is controlled by the tilt axis drive unit 441 (FIG. 10) configured by the motor 112 and the like shown in FIG. Then, with the rotation of the tilt axes A1L and A1R, the exterior 111 and the substrate 102 of the head 11 rotate in the vertical direction about the tilt axes A1L and A1R.
  • an LED 107L and an LED 107R are provided near the upper end of the front surface of the base member 101.
  • the LEDs 107L and the LEDs 107R are configured by, for example, three-color LEDs of red, green, and blue.
  • a ring-shaped light guide tube 108 which is discontinuous on the front surface of the base member 101 is incorporated in the circumferential portion of the upper end of the base member 101. The light emitted from the LEDs 107L and the LEDs 107R is guided to the light guide tube 108 and diffused from the light guide tube 108 to the outside. As a result, light of a colorful color is emitted from the circumferential portion at the upper end of the base member 101, and the light expresses the emotion of the robot, for example.
  • the motor 109 and the gear box 110 are provided below the base member 101. Then, the rotation of the pan shaft A2 shown in FIG. 7 is controlled by the pan shaft drive unit 442 (FIG. 10) configured by the motor 109, the gear box 110 and the like.
  • the pan axis A2 faces the front diagonally upward direction of the head 11, and when the pan axis A2 rotates, the base member 101 of the head 11, the substrate 102, the exterior 111, etc. Strictly speaking, it rotates in the left and right diagonal directions).
  • the main body 12 is configured based on the base member 201.
  • the base member 201 is actually comprised by several members, in order to make a figure intelligible, it is collectively shown in figure here and in one case.
  • a cover 202 is provided to close the exit 12C so that the user's hand or an object does not enter.
  • the cover 202 is made of, for example, a transparent, anti-reflection (for example, AR coated) material, and transmits the projection light of the projector 205 without reflecting it.
  • an illuminance sensor 203 is provided on the front surface of the protrusion 201A of the base member 201.
  • the illuminance sensor 203 detects the brightness around the display device 10, and supplies a detection signal indicating the detection result to the control unit 403 (FIG. 10).
  • the touch sensor 204 contacts the screen 23 (FIG. 1) of the inclined surface 12 D. It is provided at the corresponding position.
  • the touch sensor 204 constitutes a touch panel together with the screen 23. Then, the touch sensor 204 detects an operation on the screen 23 (touch panel), and supplies an operation signal indicating the detection result to the control unit 403 (FIG. 10).
  • the method of the touch sensor 204 is not particularly limited, for example, a capacitance type is adopted. Further, the touch sensor 204 may detect not only contact of a finger or the like on the screen 23 but also proximity.
  • the projector 205 is provided so that the projection port 205A is directed obliquely upward to the front of the display device 10.
  • a mirror 206 is provided in front of the projection port 205A of the projector 205. The projection light projected from the projector 205 is reflected by the mirror 206 to change its direction to the direction of the cover 202 (exit 12C), passes through the cover 202, and is emitted out of the display device 10.
  • the mirror 206 is rotatably supported around a mirror axis A3 extending in the horizontal direction by a mirror driving unit 443 (FIG. 10) configured by the motor 207, the cam 208, and the like. Further, depending on the position of the cam 208 in the rotational direction, the installation position of the mirror 206 is switched to either the position shown by the solid line in FIG. 8 or the position shown by the dotted line, and the orientation of the mirror 206 with respect to the projection port 205A of the projector 205. (Angle) changes.
  • the projection light from the projector 205 is reflected obliquely downward in the front of the main body 12, and the display device 10 is placed with an image by the projection light It is projected on the installation surface.
  • the projection light from the projector 205 is reflected in the direction of the screen 23 and an image by the projection light is projected on the screen 23. That is, by changing the direction of the mirror 206 and changing the direction of the projection light reflected by the mirror 206, the projection position of the image is switched to the installation surface or screen 23.
  • the display size of the image can be increased as compared with the case of projecting on the screen 23.
  • the image can be reliably displayed regardless of an obstacle or the like around the display device 10.
  • the projection port 205A of the projector 205 and the mirror 206 are formed by a part of the base member 201, and are disposed in a shielding space 201C that prevents light from leaking.
  • a shielding space 201C In the shielding space 201C, an opening is provided at a position corresponding to the exit 12C of the main body 12, and the opening is closed by the cover 202. Then, the projection light projected from the emission port 12C is reflected downward by the mirror 206 and emitted from the opening.
  • the projection port 205A and the mirror 206 are disposed in the shielding space 201C, and the projection light is emitted downward from the horizontal direction from the opening of the shielding space 201C, thereby preventing the projection light from entering the eyes of the user Safety is ensured.
  • the pedestal portion 13 is configured based on a base member 301 having substantially the same shape as the pedestal portion 13.
  • the base member 301 is actually comprised by several members, in order to make a figure intelligible, it is collectively shown in figure here.
  • pyroelectric sensors 302 ⁇ / b> L and 302 ⁇ / b> R are provided in front of the side surface of the base member 301.
  • the pyroelectric sensors 302L and 302R detect an object around the display device 10, and supply a detection signal indicating the detection result to the control unit 403 (FIG. 10).
  • the pyroelectric sensors 302L and 302R are installed mainly for the purpose of detecting a person around the display device 10.
  • microphones 303F to 303RB are built along the outer periphery of the base member 301.
  • the microphone 303F is disposed substantially in front of the base member 301, and in particular, has strong directivity in the front direction of the display device 10.
  • the microphone 303 ⁇ / b> LF is installed at a position 45 ° away from the microphone 303 ⁇ / b> F in the left direction, and in particular, has strong directivity in the diagonally forward right of the display device 10.
  • the microphone 303L is disposed at a position 90 ° away from the microphone 303F in the left direction, and in particular, has strong directivity in the right direction of the display device 10.
  • the microphone 303LB is installed at a position separated by 135 ° in the left direction from the microphone 303F, and in particular, has strong directivity in the diagonally right rear of the display device 10.
  • the microphone 303RF is installed at a position symmetrical to the microphone 303LF, and in particular, has strong directivity in the left front of the display device 10.
  • the microphone 303R (not shown) is installed at a position symmetrical with the microphone 303L, and in particular, has strong directivity in the left direction of the display device 10.
  • the microphone 303RB is installed at a position symmetrical with the microphone 303LB, and in particular, has strong directivity in the left diagonal rear of the display device 10.
  • the microphones 303F to 303RB detect the sound around the display device 10, and supply an audio signal indicating the detected sound to the control unit 403 (FIG. 10).
  • the control unit 403 can detect the direction of the sound source based on the audio signals from the microphones 303F to 303RB.
  • the control unit 403 can detect the direction of the user who is the sound source based on the audio signals from the microphones 303F to 303RB.
  • a notched rotary table 304 in which a part of a circle is cut is installed.
  • the base member 201 which comprises the main-body part 12 is installed in the upper surface of the rotation stand 304.
  • FIG. A motor 305, a gear box 306, and a gear box 307 are provided on the top surface of the base member 301.
  • a base axis A4 extending vertically through the center of the base member 301 is provided.
  • the rotation of the base shaft A4 is controlled by the base shaft drive unit 444 (FIG. 10) configured by the motor 305, the gear box 306, the gear box 307, and the like. Further, with the rotation of the base axis A4, the rotary table 304 and the base member 201 installed on the rotary table 304 rotate in the horizontal direction. Thus, the head 11 and the main body 12 integrally rotate in the horizontal direction, and the directions of the head 11 and the main body 12 can be changed.
  • a temperature and humidity sensor 411 (FIG. 10) is incorporated.
  • the temperature and humidity sensor 411 detects the temperature and humidity around the display device 10, and supplies a detection signal indicating the detection result to the control unit 403 (FIG. 10).
  • the head 11 can be vertically rotated about the tilt axes A1L and A1R.
  • the head 11 can be rotated in the left and right diagonal directions about the pan axis A2.
  • the direction of head 11 can be rotated up and down and to the left and right while body part 12 is kept still.
  • the imaging direction of the imaging unit 21 (camera 103) provided on the head 11 can be rotated vertically and horizontally.
  • the orientation of the face of the head 11 represented by the LED unit 104 and the LED units 105L and 105R can be rotated vertically and horizontally.
  • the mirror 206 can be vertically rotated about the mirror axis A3. Thereby, the projection position of the image by the projection light from the projector 205 can be switched to the screen 23 or the installation surface in front of the front surface of the main body 12.
  • the head 11 and the main body 12 can be horizontally rotated about the base axis A4.
  • the direction of the screen 23 can be rotated to the left and right.
  • the projection position in the case of projecting the image on the installation surface can be rotated in the horizontal direction centering on the display device 10.
  • the photographing direction of the photographing unit 21 (camera 103) and the direction of the face of the head 11 can be rotated to the left and right.
  • the display device 10 can switch the projection position of the image to the installation surface or the screen 23 or move it on the installation surface. Further, the display device 10 can move the photographing direction of the camera 103 in a wide range, and for example, it becomes possible to perform tracking of the user with high accuracy.
  • FIG. 10 is a block diagram showing an exemplary configuration of functions of the display device 10. As shown in FIG.
  • the display device 10 includes a detection unit 401, an operation unit 402, a control unit 403, an output unit 404, and a drive unit 405.
  • the detection unit 401 includes the camera 103, the illuminance sensor 203, the pyroelectric sensors 302L and 302R, the microphones 303F to 303RB, and the temperature / humidity sensor 411, and detects the situation around the display device 10.
  • This surrounding situation includes, for example, information (for example, the presence or absence of the user, identification information, a state, a statement, etc.) of the user who is around the display device 10.
  • the surrounding conditions include, for example, the season, the day of the week, the time zone, etc. obtained by a clock not shown.
  • Each unit of the detection unit 401 supplies various signals indicating the detection result of the surrounding condition to the control unit 403.
  • the operation unit 402 includes a touch sensor 204 and a switch 421, and is used to operate the display device 10. Each part of the operation unit 402 supplies a signal indicating the content of the operation to the control unit 403. Note that, for example, using the camera 103 and the microphones 303F to 303RB included in the detection unit 401, it is also possible to operate the display device 10 by a gesture, a voice command, or the like.
  • the control unit 403 includes, for example, a processor such as a CPU, a memory, and the like, and controls the display device 10.
  • the output unit 404 includes the LED unit 104, the LED units 105L and 105R, the LEDs 107L and 107R, the projector 205, and the speaker 431, and under the control of the control unit 403, various kinds of information by light, voice or image. Make an output.
  • the drive unit 405 includes a tilt axis drive unit 441, a pan axis drive unit 442, a mirror drive unit 443, and a base axis drive unit 444. Under the control of the control unit 403, each rotation axis or mirror of the display device 10 is Control the rotation of 206.
  • the display device 10 performs interactive communication with the user according to the surrounding situation (including the state of the user and the like) and the user operation.
  • the display device 10 uses the image (moving image, still image, text, etc.) and sound to talk with the user and exchange information and messages.
  • the display device 10 expresses emotion by the image, sound, light, and the movement of the head 11 and the main body 12.
  • the control unit 403 identifies each user by image recognition or the like, for example, and learns the content of communication with each user. Then, the control unit 403 performs appropriate communication in accordance with each user according to the surrounding conditions.
  • the display device 10 can set the projection position of the image to an appropriate position based on the situation around the display device 10.
  • the control unit 403 controls the projection position so as to avoid the obstacle when the detection unit 401 detects an obstacle that interferes with the projection light.
  • the control unit 403 controls the base axis drive unit 444 to change the orientation of the main body unit 12 to move the projection position on the installation surface to a position where the projection light is not obstructed by the obstacle.
  • the control unit 403 controls the mirror driving unit 443 to switch the projection position from the external installation surface to the screen 23.
  • the entire image can be projected cleanly on the installation surface or screen 23 avoiding an obstacle, and the visibility of the image is improved.
  • control unit 403 can set the projection position to an appropriate position according to the position of the user.
  • control unit 403 controls the base axis drive unit 444 to change the orientation of the main body unit 12, thereby moving the projection position to a position easy for the user to see on the installation surface.
  • control unit 403 controls the mirror driving unit 443 according to the position of the user to switch the projection position from the installation surface to the screen 23 or to switch from the screen 23 to the installation surface.
  • the selection as to whether to move the projection position on the installation surface or to switch to the screen 23 is made based on, for example, the surrounding situation, a preset priority, and the like. For example, it is possible to move the projection position on the installation surface as much as possible, and to switch to the screen 23 when the obstacle can not be avoided by all means. Also, for example, it is possible to select one of the installation surface and the screen 23 that is easier for the user to view. Furthermore, for example, when an obstacle is detected, it is possible to immediately switch to the screen 23 without moving the projection position on the installation surface. Also, for example, when it is detected that the obstacle is not present, the projection position may be returned to the original position.
  • the visibility of the image is improved by setting the projection position of the image to an appropriate position. Further, by changing the projection position with one projector 205 using the mirror 206, power saving and space saving can be realized as compared with the case of using a plurality of projectors 205.
  • the tilt axis drive unit 441 to the base axis drive unit 444 may be driven by a user operation, or the user may directly rotate the head 11, the main body unit 12, and the mirror 206 by hand. .
  • information indicating the presence of the obstacle may be output from the output unit 404 to notify the user of the presence of the obstacle.
  • the means for informing the presence of an obstacle may use any of image, sound, light, movement of the head 11, and movement of the main body 12, or a plurality of means may be combined.
  • the information notified to the user may include not only the presence or absence of the obstacle but also detailed information such as the position and type of the obstacle. Thereby, the user can notice the presence of the obstacle quickly, and can display the image normally by, for example, removing the obstacle, moving the display device 10, or moving the projection position. it can.
  • control unit 403 controls the tilt axis drive unit 441, the pan axis drive unit 442, and the base axis drive unit 444 based on the situation around the display device 10, and thereby the head 11 and the main body unit.
  • the control unit 403 controls the tilt axis drive unit 441, the pan axis drive unit 442, and the base axis drive unit 444 based on the situation around the display device 10, and thereby the head 11 and the main body unit.
  • the control unit 403 controls the tilt axis drive unit 441, the pan axis drive unit 442, and the base axis drive unit 444 based on the situation around the display device 10, and thereby the head 11 and the main body unit.
  • the reflection direction of the projection light is controlled by a method other than rotation.
  • the reflection direction of the projection light may be controlled by moving the mirror in a direction parallel or perpendicular to the plane, or by combining movement and rotation in a direction parallel or perpendicular to the plane.
  • the reflection direction of the projection light may be controlled by switching the reflection surface of a mirror having a plurality of reflection surfaces having different reflection directions or by using a plurality of mirrors.
  • the means for changing the direction of the projection light is not limited to a mirror, and other means such as a prism may be used, for example.
  • an installation surface as a surface which projects an image on the exterior of the display apparatus 10
  • surfaces other than an installation surface For example, it is also possible to use a surface perpendicular to the installation surface such as a wall surface or to use a ceiling.
  • the external projection plane may be selected from two or more planes, for example, without being limited to one plane.
  • an external projection plane may be selected from among the installation plane and a plane perpendicular to the installation plane.
  • an optimal projection position may be selected from a plurality of external projection planes and the screen 23.
  • the configuration (position, orientation, number, shape, etc.) of the screen 23 is not limited to the above-described example, and can be arbitrarily changed.
  • the display device 10 acquires part or all of the information indicating the detection result of the surrounding situation from the outside. Good.
  • the main body 12 is rotated about the base axis A4 of the pedestal 13.
  • the rotary shaft is provided in the main body 12, and the main body The unit 12 may be rotated alone.
  • the direction in which the head 11 and the main body 12 rotate is not limited to the example described above, and can be changed.
  • the head 11 and the main body 12 may perform movements other than the rotation direction, such as parallel movement.
  • the configurations of the detection unit 401, the operation unit 402, and the output unit 404 described above, and the installation positions of the respective components are one example, and can be arbitrarily changed.
  • control unit 403 can be performed by hardware or can be performed by software.
  • a program that configures the software is installed, for example, in the control unit 403.
  • the program executed by the control unit 403 can be provided by being recorded on, for example, a removable medium as a package medium or the like. Also, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • control unit 403 may be a program that performs processing in time series, or is a program that performs processing in parallel or at necessary timing such as when a call is performed. Also good.
  • the present technology may have the following configurations.
  • a projection unit that projects projection light for projecting an image A direction change unit that changes the direction of the projection light; A projection plane visible from the outside, A first drive unit configured to set the projection position of the image by the projection light to the projection plane or the outside by changing the direction of the projection light to be changed by the direction change unit.
  • the display device according to (1) further including: a second drive unit configured to change the orientation of the main body provided with the projection unit, the projection surface, the direction change unit, and the first drive unit.
  • the control unit further controls the second drive unit to change the direction of the main body unit based on the situation around the display device, and the control unit moves the position to project the image to the outside (2).
  • the display device as described in.
  • the control unit causes the projection unit to project the projection light for projecting an image informing the presence of the obstacle when the obstacle that interferes with the projection light is detected.
  • Any one of (3) to (7) The display device as described in.
  • the display device according to any one of (3) to (8) further including: a detection unit that detects a situation around the display device.
  • It further comprises a third drive unit that changes the direction of the detection unit,
  • the display unit according to (9) wherein the control unit controls the third drive unit to change the direction of the detection unit based on a situation around the display device.
  • the base unit further comprises a pedestal portion rotatably supporting the main body portion in the horizontal direction,
  • the direction changing unit includes a mirror rotatably supported about a horizontally extending axis, The display device according to any one of (1) to (13), wherein the first drive unit changes the direction of the mirror.
  • the display device according to any one of (1) to (14), wherein the image is projected on the projection surface or a surface on which the display device is placed.
  • the projection opening of the projection unit and the direction changing unit are disposed in a shielded space provided with an opening, The display device according to any one of (1) to (15), wherein the projection light whose direction is changed by the direction changing unit is emitted downward from the horizontal direction to the outside of the shielding space from the opening.
  • the display device further including: a transparent and anti-reflection cover that closes the opening.
  • the display device according to any one of (1) to (17), wherein the projection plane faces upward from the horizontal direction.
  • the display device according to any one of (1) to (18), wherein the projection plane is configured of a diffusion type screen.
  • the display device according to any one of (1) to (19), further including: an operation unit configured to detect an operation on the projection surface.
  • SYMBOLS 10 display apparatus 11 head, 12 main-body part, 12A opening part, 12C output port, 13 base part, 21 imaging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

本技術は、画像の視認性を向上させることができるようにする表示装置に関する。 表示装置は、画像を映すための投影光を投射する投射部と、前記投影光の向きを変える方向変更部と、外部から視認可能な投影面と、前記方向変更部が変更する前記投影光の向きを変えることにより、前記投影光による前記画像の投影位置を前記投影面又は外部に設定する駆動部とを備える。本技術は、例えば、ロボット型の表示装置に適用できる。

Description

表示装置
 本技術は、表示装置に関し、特に、画像の投影位置を変更可能な表示装置に関する。
 従来、3次元空間内におけるジェスチャに応じた処理を行う装置において、上方に設置されたプロジェクタから机の上面に画像を投影することが提案されている(例えば、特許文献1参照)。
 また、従来、プロジェクタが設置されている設置面、及び、設置面に垂直な面に画像を投影可能なプロジェクタが提案されている。このプロジェクタは、平面状の反射面及び曲面状の反射面を有する反射ミラーを回転させて、平面状の反射面により設置面に画像を投影し、曲面状の反射面により設置面に垂直な面に画像を投影する(例えば、特許文献2参照)。
特開2012-27796号公報 特開2009-31336号公報
 しかしながら、特許文献1及び特許文献2に記載の技術では、プロジェクタと投影面との間に障害物が存在すると、画像の一部又は全部がきれいに投影されなくなり、視認性が低下する。
 そこで、本技術は、画像の視認性を向上させるようにするものである。
 本技術の一側面は、画像を映すための投影光を投射する投射部と、前記投影光の向きを変える方向変更部と、外部から視認可能な投影面と、前記方向変更部が変更する前記投影光の向きを変えることにより、前記投影光による前記画像の投影位置を前記投影面又は外部に設定する第1駆動部とを備える。
 前記投射部、前記投影面、前記方向変更部、及び、前記第1駆動部が設けられている本体部の向きを変える第2駆動部をさらに設けることができる。
 前記表示装置の周囲の状況に基づいて、前記第2駆動部を制御し、前記本体部の向きを変えることにより、外部に前記画像を投影する位置を移動させる制御部をさらに設けることができる。
 前記制御部には、前記投影光を妨げる障害物が検出された場合、前記本体部の向きを変えさせることができる。
 前記制御部には、さらに前記表示装置の周囲の状況に基づいて、前記第1駆動部を制御し、前記画像の投影位置を前記投影面又は外部に切り替えさせることができる。
 前記制御部には、前記投影光を妨げる障害物が検出された場合、前記画像の投影位置を前記投影面に設定させることができる。
 情報を出力する出力部をさらに設け、前記制御部には、前記投影光を妨げる障害物が検出された場合、前記障害物の存在を知らせる情報を前記出力部に出力させることができる。
 前記制御部には、前記投影光を妨げる障害物が検出された場合、前記障害物の存在を知らせる画像を映すための投影光を前記投射部に投射させることができる。
 前記表示装置の周囲の状況を検出する検出部をさらに設けることができる。
 前記検出部の向きを変える第3駆動部をさらに設け、前記制御部には、前記表示装置の周囲の状況に基づいて、前記第3駆動部を制御し、前記検出部の向きを変えさせることができる。
 前記検出部を、前記本体部の上方に設置することができる。
 前記本体部を水平方向に回転可能に支持する台座部をさらに設け、前記第2駆動部には、前記本体部を回転させることにより前記本体部の向きを変えさせることができる。
 前記表示装置の周囲の状況に基づいて、前記第1駆動部を制御し、前記画像の投影位置を前記投影面又は外部に切り替える制御部をさらに設けることができる。
 前記方向変更部には、水平方向に延びる軸を中心に回転可能に支持されたミラーを設け、前記第1駆動部は、前記ミラーの向きを変えさせることができる。
 前記画像を、前記投影面又は前記表示装置が置かれている面に投影させることができる。
 前記投射部の投射口及び前記方向変更部を、開口部が設けられた遮蔽空間内に配置し、前記方向変更部により向きが変えられた前記投影光を、前記開口部から前記遮蔽空間の外に水平方向より下向きに出射させることができる。
 前記開口部を塞ぐ透明かつ反射防止処理が施されたカバーをさらに設けることができる。
 前記投影面を、水平方向より上方向に向けることができる。
 前記投影面を、拡散型のスクリーンにより構成することができる。
 前記投影面に対する操作を検出する操作部をさらに設けることができる。
 本技術の一側面においては、画像を映すための投影光が投射され、方向変更部が変更する前記投影光の向きを変えることにより、前記投影光による前記画像の投影位置が前記投影面又は外部に設定される。
 本技術の一側面によれば、画像の投影位置を変更することができる。特に、本技術の一側面によれば、画像の視認性を向上させることができる。
 なお、本明細書に記載された効果は、あくまで例示であり、本技術の効果は、本明細書に記載された効果に限定されるものではなく、付加的な効果があってもよい。
本技術を適用した表示装置の外観の構成例を模式的に示す正面図である。 本技術を適用した表示装置の外観の構成例を模式的に示す左側面図である。 外装を取り外した状態の表示装置を模式的に示す正面図である。 外装を取り外した状態の表示装置を模式的に示す左側面図である。 外装を取り外した状態の表示装置の頭部を模式的に示す正面図である。 外装を取り外した状態の表示装置の頭部を模式的に示す左側面図である。 外装を取り外した状態の表示装置の頭部の断面を模式的に示す左側面図である。 外装を取り外した状態の表示装置の本体部の断面の一部を模式的に示す左側面図である。 外装を取り外した状態の表示装置の台座部を模式的に示す左側面図である。 表示装置の機能の構成例を示すブロック図である。
 以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
{表示装置10の外観の構成例}
 まず、図1及び図2を参照して、本技術を適用した表示装置10の外観の構成例について説明する。図1は、表示装置10の外観の構成例を模式的に示す正面図であり、図2は、表示装置10の外観の構成例を模式的に示す左側面図である。
 表示装置10は、ユーザとのインタラクティブなコミュニケーションが可能なロボット型の表示装置である。
 表示装置10は、頭部11、本体部12、及び、台座部13を備える。
 本体部12は、円錐台に近い形状を有している。本体部12の上面は、正面斜め上方向を向いており、円形の開口部12Aが形成されている。そして、この開口部12Aから頭部11が露出している。頭部11の開口部12Aから露出している部分は、ほぼ半球状である。
 頭部11は、水平方向に延びる軸(後述するチルト軸A1L及びA1R)を中心にして、垂直方向に回転することができる。この頭部11の垂直方向の回転により、例えば、ロボットがうなずく動作が再現される。また、頭部11に設けられている撮影部21の撮影方向を上下に動かすことができる。
 また、頭部11は、斜め上方向に延びる軸(後述するパン軸A2)を中心にして、斜め方向に回転することができる。この頭部11の斜め方向の回転により、例えば、ロボットが頭の向きを変えたり、首を横に振ったりする動作が再現される。また、撮影部21の撮影方向を左右に動かすことができる。
 さらに、頭部11は、所定の距離だけ押し下げることができる。例えば、ユーザが、手で頭部11を押し下げると、表示装置10の内部に設けられているスイッチ421(図10)がオンし、手を離すと、頭部11が元の位置に戻り、スイッチ421がオフする。そして、スイッチ421は、操作信号を制御部403(図10)に供給する。
 本体部12の正面上方には、前方に突き出した突起部12Bが形成されている。突起部12Bの下面には、矩形の開口部である出射口12Cが形成されている。本体部12に内蔵されているプロジェクタ205(図8等)から投射された投影光は、この出射口12Cから本体部12の外に出射される。そして、出射口12Cから出射された投影光により、スクリーン23、又は、表示装置10が置かれている設置面に画像が投影される。なお、投影光により映される画像は、動画又は静止画のいずれであってもよい。
 突起部12Bの下には、傾斜面12Dが形成されている。傾斜面12Dは、周囲の面より傾きが急であり、上方が本体部12の側面より奥に引っ込んでおり、下方が本体部12の側面より前方に突き出している。
 傾斜面12Dの上端部には、メッシュ孔22が形成されている。このメッシュ孔22は、本体部12に内蔵されているスピーカ431(図10)からの音声を外部に出力するために設けられている。
 傾斜面12Dのメッシュ孔22の下には、スクリーン23が設けられている。スクリーン23は、外部に露出し、斜め上方向(水平方向より上方向)を向いており、外部から視認可能である。スクリーン23は、プロジェクタ205から投射された投影光による画像を投影するための投影面として用いられる。また、スクリーン23は、後述するタッチセンサ204と組み合わされて、タッチパネルを構成する。スクリーン23には、例えば、スペックルを防止するために拡散型のスクリーン(例えば、マットスクリーン)が採用される。また、スクリーン23の表面には、ユーザが繰り返し触れても劣化しないようにUV塗装が施されている。
 台座部13は、底面が平面状の椀型の形状を有している。台座部13は、本体部12を水平方向に回転可能に支持している。そして、本体部12が、台座部13を軸にして、頭部11とともに水平方向に回転することにより、例えば、スクリーン23の向きを変えたり、設置面上において画像の投影位置を移動させたり、撮影部21の撮影方向を移動させたりすることができる。
 また、台座部13の側面の後方には、例えば、ACアダプタ、USBケーブル等を接続するための接続端子(不図示)が設けられる。
{表示装置10の外装の内部の構成例}
 次に、図3乃至図9を参照して、表示装置10の外装の内部の構成例について説明する。図3は、外装を取り外した状態の表示装置10を模式的に示す正面図であり、図4は、外装を取り外した状態の表示装置10を模式的に示す左側面図である。図5は、外装を取り外した状態の表示装置10の頭部11を模式的に示す正面図であり、図6は、外装を取り外した状態の表示装置10の頭部11を模式的に示す左側面図であり、図7は、外装を取り外した状態の表示装置10の頭部11の断面を模式的に示す左側面図である。図8は、外装を取り外した状態の表示装置10の本体部12の断面の一部を模式的に示す左側面図である。図9は、外装を取り外した状態の表示装置10の台座部13を模式的に示す左側面図である。
 図5乃至図7に示されるように、頭部11は、半球状に近い形状のベース部材101をベースに構成される。なお、ベース部材101は、実際には複数の部材により構成されるが、ここでは図を分かりやすくするために、1つにまとめて図示している。
 ベース部材101の上面は、正面斜め上方向を向いており、円形の開口部101Aが形成されている。そして、開口部101A内に基板102等が設けられている。
 基板102は、頭部11が回転していない標準の位置において、表示装置10の略正面を向くように設置されている。基板102の中央上端付近には、撮影部21(図1)を構成するカメラ103が設けられている。カメラ103は、本体部12の上方において、頭部11が向いている方向を撮影し、撮影の結果得られた画像信号を、表示装置10の内部に設けられている制御部403(図10)に供給する。
 基板102上のカメラ103の下方には、LEDユニット104が設けられ、LEDユニット104の左右には、LEDユニット105L及び105Rが設けられている。LEDユニット104、並びに、LEDユニット105L及び105Rは、例えば、ロボットの表情や感情を表現するのに用いられる。
 具体的には、図5に示されるように、LEDユニット104には、上下方向、左右方向、左斜め方向、右斜め方向の各列に、それぞれ5つのLEDが並べられている。そのうち、中央のLEDは各列で共有されるので、合計17個のLEDが配置されている。各LEDは個別に点灯及び消灯させることができ、例えば、各LEDの点滅パターンにより、ロボットの表情や感情が表現される。
 LEDユニット105L及び105Rには、それぞれ5個のLEDが縦方向に並べられている。LEDユニット105L及び105Rは、例えば、ロボットの目の動きを表現する。例えば、LEDユニット105L及び105Rのそれぞれ5個のLEDが点灯した状態から、上から下に順番にLEDを消灯し、その後下から上にLEDを順番に点灯することにより瞬きが再現される。
 また、ベース部材101の開口部101A内において、基板102の左右には、球冠状のカバー106L及びカバー106Rが設けられている。カバー106Lは、曲面が左側を向くように、左右方向に延びるチルト軸A1Lに取り付けられている。カバー106Rは、チルト軸A1Lと中心が一致するチルト軸A1Rに取り付けられ、カバー106Lとほぼ左右対称になるように配置されている。カバー106L及びカバー106Rは、主に頭部11の内部が外から見えないように隠す働きをする。
 また、基板102は、図6の点線で示される頭部11の外装111に取り付けられる。外装111は、チルト軸A1L及びA1Rに取り付けられる。さらに、図7に示されるモータ112等により構成されるチルト軸駆動部441(図10)により、チルト軸A1L及びA1Rの回転が制御される。そして、チルト軸A1L及びA1Rの回転に伴い、頭部11の外装111及び基板102が、チルト軸A1L及びA1Rを中心に垂直方向に回転する。
 ベース部材101の前面の上端付近には、LED107L及びLED107Rが設けられている。LED107L及びLED107Rは、例えば、赤、緑、青の3色LEDにより構成される。また、ベース部材101の上端の円周部には、ベース部材101の前面において不連続となるリング状の導光管108が内蔵されている。そして、LED107L及びLED107Rから発せられた光は、導光管108に導かれ、導光管108から外部に拡散される。これにより、ベース部材101の上端の円周部からカラフルな色の光が発せられ、例えば、この光によりロボットの感情が表現される。
 また、図6及び図7等に示されるように、ベース部材101の下方には、モータ109及びギアボックス110が設けられている。そして、モータ109及びギアボックス110等により構成されるパン軸駆動部442(図10)により、図7に示されるパン軸A2の回転が制御される。パン軸A2は、頭部11の正面斜め上方向を向いており、パン軸A2が回転することにより、頭部11のベース部材101、基板102、外装111等が一体となって左右方向(より厳密には、左右の斜め方向)に回転する。
 図8に示されるように、本体部12は、ベース部材201をベースに構成される。なお、ベース部材201は、実際には複数の部材により構成されるが、ここでは図を分かりやすくするために、1つにまとめて図示している。
 図3及び図4に示されるように、本体部12の突起部12Bに対応した形状のベース部材201の突起部201Aにおいて、突起部12Bの出射口12C(図1)から表示装置10の内部にユーザの手や物等が入らないように、出射口12Cを塞ぐカバー202が設けられている。カバー202は、例えば、透明で反射防止処理(例えば、ARコーティング)が施された素材からなり、プロジェクタ205の投影光を反射することなく透過する。
 また、図3に示されるように、ベース部材201の突起部201Aの前面に、照度センサ203が設けられている。照度センサ203は、表示装置10の周囲の明るさを検出し、検出結果を示す検出信号を制御部403(図10)に供給する。
 さらに、図3及び図4に示されるように、本体部12の傾斜面12Dに対応した形状のベース部材201の傾斜面201Bにおいて、タッチセンサ204が、傾斜面12Dのスクリーン23(図1)に対応する位置に設けられている。タッチセンサ204は、スクリーン23とともにタッチパネルを構成する。そして、タッチセンサ204は、スクリーン23(タッチパネル)に対する操作を検出し、検出結果を示す操作信号を制御部403(図10)に供給する。
 なお、タッチセンサ204の方式は、特に限定されるものではないが、例えば、静電容量式のものが採用される。また、タッチセンサ204が、スクリーン23への指等の接触だけでなく、近接を検出するようにしてもよい。
 また、図8に示されるように、ベース部材201の突起部201Aの下面の後方において、プロジェクタ205が、投射口205Aが表示装置10の前方斜め上方向を向くように設けられている。さらに、プロジェクタ205の投射口205Aの前方には、ミラー206が設けられている。プロジェクタ205から投射された投影光は、ミラー206に反射されることにより、カバー202(出射口12C)の方向に向きを変え、カバー202を透過して、表示装置10の外に出射される。
 ここで、ミラー206は、モータ207及びカム208等により構成されるミラー駆動部443(図10)により、水平方向に延びるミラー軸A3を中心に回転可能に支持されている。また、カム208の回転方向の位置により、図8内の実線で示される位置と点線で示される位置のいずれかにミラー206の設置位置が切り替えられ、プロジェクタ205の投射口205Aに対するミラー206の向き(角度)が変化する。
 そして、ミラー206が実線で示される位置に設置されている場合、プロジェクタ205からの投影光は、本体部12の前方斜め下方向に反射され、投影光による画像が表示装置10が置かれている設置面に投影される。一方、ミラー206が点線で示される位置に設置されている場合、プロジェクタ205からの投影光は、スクリーン23の方向に反射され、投影光による画像がスクリーン23に投影される。すなわち、ミラー206の向きを変え、ミラー206が反射する投影光の向きを変えることにより、画像の投影位置が設置面又はスクリーン23に切り替わる。
 そして、画像を設置面に投影することにより、スクリーン23に投影する場合と比較して、画像の表示サイズを大きくすることができる。一方、画像をスクリーン23に投影することにより、表示装置10の周囲の障害物等に関わらず、確実に画像を表示することができる。
 また、プロジェクタ205の投射口205A及びミラー206は、ベース部材201の一部により構成され、光の漏れを防ぐ遮蔽空間201C内に配置される。遮蔽空間201Cは、本体部12の出射口12Cに対応する位置に開口部が設けられ、その開口部は、カバー202により塞がれている。そして、出射口12Cより投射された投影光は、ミラー206により下方向に反射され、開口部から出射される。このように、投射口205A及びミラー206を遮蔽空間201C内に配置し、遮蔽空間201Cの開口部から水平方向より下向きに投影光を出射することにより、投影光がユーザの目に入ることが防止され、安全性が確保される。
 図9に示されるように、台座部13は、台座部13とほぼ同じ形状のベース部材301をベースに構成される。なお、ベース部材301は、実際には複数の部材により構成されるが、ここでは図を分かりやすくするために、1つにまとめて図示している。
 図3に示されるように、ベース部材301の側面の前方には、焦電センサ302L及び302Rが設けられている。焦電センサ302L及び302Rは、表示装置10の周囲の物体を検出し、検出結果を示す検出信号を制御部403(図10)に供給する。焦電センサ302L及び302Rは、主に表示装置10の周囲の人を検出することを目的として設置される。
 また、図3及び図9に示されるように、ベース部材301の側面の上端付近において、ベース部材301の外周に沿ってマイクロフォン303F乃至303RBが内蔵されている。マイクロフォン303Fは、ベース部材301のほぼ正面に設置されており、特に表示装置10の正面方向に強い指向性を有する。マイクロフォン303LFは、マイクロフォン303Fから左方向に45°離れた位置に設置されており、特に表示装置10の右斜め前方に強い指向性を有する。マイクロフォン303Lは、マイクロフォン303Fから左方向に90°離れた位置に設置されており、特に表示装置10の右方向に強い指向性を有する。マイクロフォン303LBは、マイクロフォン303Fから左方向に135°離れた位置に設置されており、特に表示装置10の右斜め後方に強い指向性を有する。マイクロフォン303RFは、マイクロフォン303LFと左右対称な位置に設置されており、特に表示装置10の左斜め前方に強い指向性を有する。マイクロフォン303R(不図示)は、マイクロフォン303Lと左右対称な位置に設置されており、特に表示装置10の左方向に強い指向性を有する。マイクロフォン303RBは、マイクロフォン303LBと左右対称な位置に設置されており、特に表示装置10の左斜め後方に強い指向性を有する。
 マイクロフォン303F乃至303RBは、表示装置10の周囲の音声を検出し、検出した音声を示す音声信号を制御部403(図10)に供給する。例えば、制御部403は、マイクロフォン303F乃至303RBからの音声信号に基づいて、音源の方向を検出することができる。例えば、制御部403は、ユーザが表示装置10に話しかけたときに、マイクロフォン303F乃至303RBからの音声信号に基づいて、音源であるユーザの方向を検出することができる。
 ベース部材301の上面には、円の一部を切り欠いた欠円状の回転台304が設置されている。回転台304の上面には、本体部12を構成するベース部材201が設置される。また、ベース部材301の上面には、モータ305、ギアボックス306、及び、ギアボックス307が設けられている。ギアボックス307内には、ベース部材301の中心を通り垂直方向に延びるベース軸A4が設けられている。
 そして、モータ305、ギアボックス306、及び、ギアボックス307等により構成されるベース軸駆動部444(図10)により、ベース軸A4の回転が制御される。また、ベース軸A4の回転に伴い、回転台304、及び、回転台304に設置されているベース部材201が水平方向に回転する。これにより、頭部11と本体部12が一体となって水平方向に回転し、頭部11及び本体部12の向きを変えることができる。
 また、ベース部材301の底面付近には、温度湿度センサ411(図10)が内蔵されている。温度湿度センサ411は、表示装置10の周囲の温度及び湿度を検出し、検出結果を示す検出信号を制御部403(図10)に供給する。
 以上のように、表示装置10においては、チルト軸A1L及びA1Rを中心に、頭部11を垂直方向に回転させることができる。また、パン軸A2を中心に、頭部11を左右斜め方向に回転させることができる。これにより、本体部12を静止させたまま、頭部11の向きを上下及び左右に回転させることができる。その結果、頭部11に設けられている撮影部21(カメラ103)の撮影方向を上下及び左右に回転させることができる。また、LEDユニット104、並びに、LEDユニット105L及び105Rにより表される頭部11の顔の向きを上下及び左右に回転させることができる。
 また、ミラー軸A3を中心に、ミラー206を垂直方向に回転させることができる。これにより、プロジェクタ205からの投影光による画像の投影位置を、スクリーン23、又は、本体部12の正面前方の設置面に切り替えることができる。
 さらに、ベース軸A4を中心に、頭部11及び本体部12を水平方向に回転させることができる。これにより、スクリーン23の向きを左右に回転させることができる。また、画像を設置面に投影する場合の投影位置を、表示装置10を中心にして水平方向に回転させることができる。さらに、撮影部21(カメラ103)の撮影方向、及び、頭部11の顔の向きを左右に回転させることができる。
 このように、表示装置10は、画像の投影位置を設置面又はスクリーン23に切り替えたり、設置面上で移動させたりすることができる。また、表示装置10は、カメラ103の撮影方向を広範囲に移動させることができ、例えば、ユーザのトラッキングを高精度に行うことが可能になる。
{表示装置10の処理}
 次に、図10を参照して、表示装置10の処理の一部の例について説明する。
 図10は、表示装置10の機能の構成例を示すブロック図である。
 表示装置10は、検出部401、操作部402、制御部403、出力部404、及び、駆動部405を備える。
 検出部401は、カメラ103、照度センサ203、焦電センサ302L,302R、マイクロフォン303F乃至303RB、及び、温度湿度センサ411を備え、表示装置10の周囲の状況を検出する。この周囲の状況には、例えば、表示装置10の周囲にいるユーザの情報(例えば、ユーザの有無、識別情報、状態、発言等)を含む。また、この周囲の状況には、例えば、図示せぬ時計等により得られる季節、曜日、時間帯等も含む。検出部401の各部は、周囲の状況の検出結果を示す各種の信号を制御部403に供給する。
 操作部402は、タッチセンサ204及びスイッチ421を備え、表示装置10の操作に用いられる。操作部402の各部は、操作内容を示す信号を制御部403に供給する。なお、例えば、検出部401に含まれるカメラ103及びマイクロフォン303F乃至303RBを用いて、ジェスチャや音声コマンド等により表示装置10を操作することも可能である。
 制御部403は、例えば、CPU等のプロセッサ、メモリ等により構成され、表示装置10の制御を行う。
 出力部404は、LEDユニット104、LEDユニット105L及び105R、LED107L及び107R、プロジェクタ205、及び、スピーカ431を備え、制御部403の制御の下に、光、音声、又は、画像により各種の情報の出力を行う。
 駆動部405は、チルト軸駆動部441、パン軸駆動部442、ミラー駆動部443、及び、ベース軸駆動部444を備え、制御部403の制御の下に、表示装置10の各回転軸やミラー206の回転を制御する。
 例えば、表示装置10は、周囲の状況(ユーザの状態等を含む)及びユーザ操作に応じて、ユーザとインタラクティブなコミュニケーションを行う。例えば、表示装置10は、画像(動画、静止画、テキスト等)及び音声を用いて、ユーザと会話したり、情報やメッセージの交換を行ったりする。また、表示装置10は、画像、音声、光、並びに、頭部11及び本体部12の動きにより、感情を表現する。
 なお、制御部403は、例えば、画像認識等により各ユーザを識別し、各ユーザとのコミュニケーションの内容を学習する。そして、制御部403は、周囲の状況に応じて、各ユーザに応じた適切なコミュニケーションを行う。
 また、例えば、表示装置10は、表示装置10の周囲の状況に基づいて、画像の投影位置を適切な位置に設定することができる。
 例えば、制御部403は、画像を外部の設置面に投影する場合、検出部401により投影光を妨げる障害物が検出されたとき、障害物を避けるように投影位置を制御する。例えば、制御部403は、ベース軸駆動部444を制御して、本体部12の向きを変えることにより、投影光が障害物により妨げられない位置まで投影位置を設置面上で移動させる。或いは、例えば、制御部403は、ミラー駆動部443を制御して、投影位置を外部の設置面からスクリーン23に切り替える。
 これにより、障害物を避け、画像全体を設置面又はスクリーン23にきれいに投影することができ、画像の視認性が向上する。
 また、例えば、制御部403は、ユーザの位置に応じて、投影位置を適切な位置に設定することができる。例えば、制御部403は、ベース軸駆動部444を制御して、本体部12の向きを変えることにより、設置面上でユーザの見やすい位置に投影位置を移動させる。また、例えば、制御部403は、ユーザの位置に応じて、ミラー駆動部443を制御して、投影位置を設置面からスクリーン23に切り替えたり、スクリーン23から設置面に切り替えたりする。
 なお、投影位置を設置面上で移動させるか、或いは、スクリーン23に切り替えるかの選択は、例えば、周囲の状況や予め設定されている優先順位等に基づいて行われる。例えば、できる限り投影位置を設置面上で移動させるようにして、どうしても障害物を避けることができない場合に、スクリーン23に切り替えるようにすることができる。また、例えば、設置面及びスクリーン23のうち、よりユーザが見やすい方を選択するようにすることも可能である。さらに、例えば、障害物が検出された場合、投影位置を設置面上で動かすことなく、すぐにスクリーン23に切り替えるようにすることも可能である。また、例えば、障害物が存在しなくなったことが検出された場合、投影位置を元に戻すようにしてもよい。
 このように、画像の投影位置を適切な位置に設定することにより、画像の視認性が向上する。また、ミラー206を用いて、1台のプロジェクタ205で投影位置を変えることにより、複数のプロジェクタ205を用いる場合と比較して、省電力及び省スペースを実現することができる。
 なお、ユーザ操作により、投影位置を移動させることも可能である。この場合、ユーザ操作によりチルト軸駆動部441乃至ベース軸駆動部444を駆動するようにしてもよいし、ユーザが直接手で頭部11、本体部12、ミラー206を回転させるようにしてもよい。
 また、例えば、障害物が検出された場合、障害物の存在を知らせる情報を出力部404から出力し、ユーザに障害物の存在を知らせるようにしてもよい。障害物の存在を知らせる手段は、画像、音声、光、頭部11の動き、本体部12の動きのいずれを用いてもよいし、複数の手段を組み合わせるようにしてもよい。例えば、プロジェクタ205により障害物の存在を知らせる画像を投影したり、障害物の存在を知らせる音声をスピーカ431から出力したりすることが可能である。また、ユーザに知らせる情報には、障害物の有無だけでなく、障害物の位置や種類等の詳細な情報を含めてもよい。これにより、ユーザは障害物の存在に迅速に気づき、例えば、障害物を除去したり、表示装置10を動かしたり、投影位置を移動させたりすることにより、迅速に画像を正常に表示させることができる。
 さらに、例えば、制御部403は、表示装置10の周囲の状況に基づいて、チルト軸駆動部441、パン軸駆動部442、及び、ベース軸駆動部444を制御して、頭部11や本体部12の向きを変え、カメラ103の向きを変えることにより、周囲の状況をより正確に検出することができる。その結果、例えば、表示装置10の周囲の障害物の詳細な情報を取得したり、障害物の存在しない位置を検出したりすることが容易になる。
<2.変形例>
 以下、上述した本技術の実施の形態の変形例について説明する。
 以上の説明では、ミラー206を回転させることにより、投影光の反射方向を制御し、画像の投影位置を移動させる例を示したが、回転以外の方法により投影光の反射方向を制御するようにしてもよい。例えば、ミラーを面に平行又は垂直な方向に移動させたり、或いは、面に平行又は垂直な方向の移動と回転を組み合わせることにより、投影光の反射方向を制御するようにしてもよい。また、例えば、反射方向が異なる複数の反射面を持つミラーの反射面を切り替えたり、複数のミラーを使い分けることにより、投影光の反射方向を制御するようにしてもよい。
 また、投影光の向きを変える手段は、ミラーに限定されるものではなく、例えば、プリズム等の他の手段を用いてもよい。
 さらに、例えば、ミラー206等の方向変更手段を用いずに、プロジェクタ205の投射口205Aの向きを変えることにより、画像の投影位置を移動させるようにすることも可能である。
 また、以上の説明では、表示装置10の外部に画像を投影する面として設置面を用いる例を示したが、設置面以外の面を用いることも可能である。例えば、壁面等の設置面に垂直な面を用いたり、天井を用いたりすることも可能である。
 さらに、外部の投影面を1つの面に限定せずに、例えば、2つ以上の面から選択するようにしてもよい。例えば、設置面及び設置面に垂直な面の中から、外部の投影面を選択するようにしてもよい。
 また、例えば、表示装置10の周囲の状況に応じて、画像の投影位置を外部で移動させずに、スクリーン23と外部の切り替えのみを行うようにしてもよい。この場合、例えば、上述したように外部の投影面が2つ以上設定されている場合、複数の外部の投影面、及び、スクリーン23の中から、最適な投影位置を選択するようにしてもよい。
 また、スクリーン23の構成(位置、向き、数、形状等)は、上述した例に限定されるものではなく、任意に変更することが可能である。
 さらに、検出部401の一部又は全部を表示装置10の外部に設けるようにして、表示装置10が、周囲の状況の検出結果を示す情報の一部又は全部を外部から取得するようにしてもよい。
 また、以上の説明では、本体部12が、台座部13のベース軸A4を中心に回転する例を示したが、台座部13を設けずに、本体部12内に回転軸を設けて、本体部12単体で回転するようにしてもよい。
 さらに、頭部11及び本体部12が回転する方向は、上述した例に限定されるものではなく、変更することが可能である。
 また、頭部11及び本体部12が、回転方向以外の運動、例えば、平行移動等を行うようにしてもよい。
 さらに、本技術においては、例えば、本体部12が回転せずに、投影位置をスクリーン23又は設置面の切り替えのみを行うことも考えられる。この場合も、画像の視認性を向上するという効果を奏することができる。
 また、上述した検出部401、操作部402、及び、出力部404の構成、及び、各構成要素の設置位置は、その一例であり、任意に変更することが可能である。
 さらに、上述した制御部403の一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、例えば、制御部403にインストールされる。
 制御部403が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディアに記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 なお、制御部403が実行するプログラムは、時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 また、例えば、本技術は以下のような構成も取ることができる。
(1)
 画像を映すための投影光を投射する投射部と、
 前記投影光の向きを変える方向変更部と、
 外部から視認可能な投影面と、
 前記方向変更部が変更する前記投影光の向きを変えることにより、前記投影光による前記画像の投影位置を前記投影面又は外部に設定する第1駆動部と
 を備える表示装置。
(2)
 前記投射部、前記投影面、前記方向変更部、及び、前記第1駆動部が設けられている本体部の向きを変える第2駆動部を
 さらに備える前記(1)に記載の表示装置。
(3)
 前記表示装置の周囲の状況に基づいて、前記第2駆動部を制御し、前記本体部の向きを変えることにより、外部に前記画像を投影する位置を移動させる制御部を
 さらに備える前記(2)に記載の表示装置。
(4)
 前記制御部は、前記投影光を妨げる障害物が検出された場合、前記本体部の向きを変える
 前記(3)に記載の表示装置。
(5)
 前記制御部は、さらに前記表示装置の周囲の状況に基づいて、前記第1駆動部を制御し、前記画像の投影位置を前記投影面又は外部に切り替える
 前記(3)又は(4)に記載の表示装置。
(6)
 前記制御部は、前記投影光を妨げる障害物が検出された場合、前記画像の投影位置を前記投影面に設定する
 前記(5)に記載の表示装置。
(7)
 情報を出力する出力部を
 さらに備え、
 前記制御部は、前記投影光を妨げる障害物が検出された場合、前記障害物の存在を知らせる情報を前記出力部に出力させる
 前記(3)乃至(6)のいずれかに記載の表示装置。
(8)
 前記制御部は、前記投影光を妨げる障害物が検出された場合、前記障害物の存在を知らせる画像を映すための投影光を前記投射部に投射させる
 前記(3)乃至(7)のいずれかに記載の表示装置。
(9)
 前記表示装置の周囲の状況を検出する検出部を
 さらに備える前記(3)乃至(8)のいずれかに記載の表示装置。
(10)
 前記検出部の向きを変える第3駆動部を
 さらに備え、
 前記制御部は、前記表示装置の周囲の状況に基づいて、前記第3駆動部を制御し、前記検出部の向きを変える
 前記(9)に記載の表示装置。
(11)
 前記検出部は、前記本体部の上方に設置されている
 前記(10)に記載の表示装置。
(12)
 前記本体部を水平方向に回転可能に支持する台座部を
 さらに備え、
 前記第2駆動部は、前記本体部を回転させることにより前記本体部の向きを変える
 前記(2)乃至(11)のいずれかに記載の表示装置。
(13)
 前記表示装置の周囲の状況に基づいて、前記第1駆動部を制御し、前記画像の投影位置を前記投影面又は外部に切り替える制御部を
 前記(1)又は(2)に記載の表示装置。
(14)
 前記方向変更部は、水平方向に延びる軸を中心に回転可能に支持されたミラーを含み、
 前記第1駆動部は、前記ミラーの向きを変える
 前記(1)乃至(13)のいずれかに記載の表示装置。
(15)
 前記画像は、前記投影面又は前記表示装置が置かれている面に投影される
 前記(1)乃至(14)のいずれかに記載の表示装置。
(16)
 前記投射部の投射口及び前記方向変更部は、開口部が設けられた遮蔽空間内に配置され、
 前記方向変更部により向きが変えられた前記投影光は、前記開口部から前記遮蔽空間の外に水平方向より下向きに出射される
 前記(1)乃至(15)のいずれかに記載の表示装置。
(17)
 前記開口部を塞ぐ透明かつ反射防止処理が施されたカバーを
 さらに備える前記(16)に記載の表示装置。
(18)
 前記投影面は、水平方向より上方向を向いている
 前記(1)乃至(17)のいずれかに記載の表示装置。
(19)
 前記投影面は、拡散型のスクリーンにより構成される
 前記(1)乃至(18)のいずれかに記載の表示装置。
(20)
 前記投影面に対する操作を検出する操作部を
 さらに備える前記(1)乃至(19)のいずれかに記載の表示装置。
 10 表示装置, 11 頭部, 12 本体部, 12A 開口部, 12C 出射口, 13 台座部, 21 撮影部, 23 スクリーン, 101 ベース部材, 102 基板, 103 カメラ, 104,105L,105R LEDユニット, 107L,107R LED, 108 導光管, 109 モータ, 110 ギアボックス, 111 外装, 112 モータ, 201 ベース部材, 201C 遮蔽閉空間, 203 照度センサ, 204 タッチセンサ, 205 プロジェクタ, 205A 投射口, 206 ミラー, 207 モータ, 208 カム, 301 ベース部材, 302L,302R 焦電センサ, 303F乃至303RB マイクロフォン, 304 回転台, 305 モータ, 306,307 ギアボックス, 401 検出部, 402 入力部, 403 制御部, 404 出力部, 405 駆動部, 411 温度湿度センサ, 421 スイッチ, 431 スピーカ, 441 チルト軸駆動部, 442 パン軸駆動部, 443 ミラー駆動部, 444 ベース軸駆動部

Claims (20)

  1.  画像を映すための投影光を投射する投射部と、
     前記投影光の向きを変える方向変更部と、
     外部から視認可能な投影面と、
     前記方向変更部が変更する前記投影光の向きを変えることにより、前記投影光による前記画像の投影位置を前記投影面又は外部に設定する第1駆動部と
     を備える表示装置。
  2.  前記投射部、前記投影面、前記方向変更部、及び、前記第1駆動部が設けられている本体部の向きを変える第2駆動部を
     さらに備える請求項1に記載の表示装置。
  3.  前記表示装置の周囲の状況に基づいて、前記第2駆動部を制御し、前記本体部の向きを変えることにより、外部に前記画像を投影する位置を移動させる制御部を
     さらに備える請求項2に記載の表示装置。
  4.  前記制御部は、前記投影光を妨げる障害物が検出された場合、前記本体部の向きを変える
     請求項3に記載の表示装置。
  5.  前記制御部は、さらに前記表示装置の周囲の状況に基づいて、前記第1駆動部を制御し、前記画像の投影位置を前記投影面又は外部に切り替える
     請求項3に記載の表示装置。
  6.  前記制御部は、前記投影光を妨げる障害物が検出された場合、前記画像の投影位置を前記投影面に設定する
     請求項5に記載の表示装置。
  7.  情報を出力する出力部を
     さらに備え、
     前記制御部は、前記投影光を妨げる障害物が検出された場合、前記障害物の存在を知らせる情報を前記出力部に出力させる
     請求項3に記載の表示装置。
  8.  前記制御部は、前記投影光を妨げる障害物が検出された場合、前記障害物の存在を知らせる画像を映すための投影光を前記投射部に投射させる
     請求項3に記載の表示装置。
  9.  前記表示装置の周囲の状況を検出する検出部を
     さらに備える請求項3に記載の表示装置。
  10.  前記検出部の向きを変える第3駆動部を
     さらに備え、
     前記制御部は、前記表示装置の周囲の状況に基づいて、前記第3駆動部を制御し、前記検出部の向きを変える
     請求項9に記載の表示装置。
  11.  前記検出部は、前記本体部の上方に設置されている
     請求項10に記載の表示装置。
  12.  前記本体部を水平方向に回転可能に支持する台座部を
     さらに備え、
     前記第2駆動部は、前記本体部を回転させることにより前記本体部の向きを変える
     請求項2に記載の表示装置。
  13.  前記表示装置の周囲の状況に基づいて、前記第1駆動部を制御し、前記画像の投影位置を前記投影面又は外部に切り替える制御部を
     さらに備える請求項1に記載の表示装置。
  14.  前記方向変更部は、水平方向に延びる軸を中心に回転可能に支持されたミラーを含み、
     前記第1駆動部は、前記ミラーの向きを変える
     請求項1に記載の表示装置。
  15.  前記画像は、前記投影面又は前記表示装置が置かれている面に投影される
     請求項1に記載の表示装置。
  16.  前記投射部の投射口及び前記方向変更部は、開口部が設けられた遮蔽空間内に配置され、
     前記方向変更部により向きが変えられた前記投影光は、前記開口部から前記遮蔽空間の外に水平方向より下向きに出射される
     請求項1に記載の表示装置。
  17.  前記開口部を塞ぐ透明かつ反射防止処理が施されたカバーを
     さらに備える請求項16に記載の表示装置。
  18.  前記投影面は、水平方向より上方向を向いている
     請求項1に記載の表示装置。
  19.  前記投影面は、拡散型のスクリーンにより構成される
     請求項1に記載の表示装置。
  20.  前記投影面に対する操作を検出する操作部を
     さらに備える請求項1に記載の表示装置。
PCT/JP2017/004159 2016-02-19 2017-02-06 表示装置 WO2017141744A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/073,972 US20190045159A1 (en) 2016-02-19 2017-02-06 Display device
JP2018500042A JP6807037B2 (ja) 2016-02-19 2017-02-06 表示装置
EP17753004.5A EP3418800A4 (en) 2016-02-19 2017-02-06 DISPLAY DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-030046 2016-02-19
JP2016030046 2016-02-19

Publications (1)

Publication Number Publication Date
WO2017141744A1 true WO2017141744A1 (ja) 2017-08-24

Family

ID=59626039

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/004159 WO2017141744A1 (ja) 2016-02-19 2017-02-06 表示装置

Country Status (4)

Country Link
US (1) US20190045159A1 (ja)
EP (1) EP3418800A4 (ja)
JP (1) JP6807037B2 (ja)
WO (1) WO2017141744A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06181558A (ja) * 1992-12-14 1994-06-28 Fuji Photo Film Co Ltd マルチ画面プロジェクションモニタ
JP2007235470A (ja) * 2006-02-28 2007-09-13 Brother Ind Ltd 映像表示装置
JP2007240985A (ja) * 2006-03-09 2007-09-20 Brother Ind Ltd 投影装置
JP2009122366A (ja) * 2007-11-14 2009-06-04 Funai Electric Co Ltd 画像表示装置
JP2012068319A (ja) * 2010-09-21 2012-04-05 Sony Corp 表示装置
JP2012220613A (ja) * 2011-04-06 2012-11-12 Sharp Corp プロジェクタ
JP2013148802A (ja) * 2012-01-23 2013-08-01 Nikon Corp プロジェクタ
JP2015084073A (ja) * 2013-09-19 2015-04-30 カシオ計算機株式会社 投影システム、光路切換装置及び投影制御方法
JP2015111772A (ja) * 2013-12-06 2015-06-18 シチズンホールディングス株式会社 投影装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6431711B1 (en) * 2000-12-06 2002-08-13 International Business Machines Corporation Multiple-surface display projector with interactive input capability
US20060158616A1 (en) * 2005-01-15 2006-07-20 International Business Machines Corporation Apparatus and method for interacting with a subject in an environment
JP2011170658A (ja) * 2010-02-19 2011-09-01 Seiko Epson Corp 画像形成装置
JP5609566B2 (ja) * 2010-11-10 2014-10-22 船井電機株式会社 プロジェクタ
JP2013104965A (ja) * 2011-11-11 2013-05-30 Nikon Corp 画像投影装置および自動販売機
JP6146038B2 (ja) * 2013-02-14 2017-06-14 株式会社Jvcケンウッド 投射装置および投射方法
JP2015041052A (ja) * 2013-08-23 2015-03-02 ソニー株式会社 リストバンド型情報処理装置および記憶媒体
JP2015179176A (ja) * 2014-03-19 2015-10-08 カシオ計算機株式会社 投影装置用載置台、投影システム及びこの投影システムの投影方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06181558A (ja) * 1992-12-14 1994-06-28 Fuji Photo Film Co Ltd マルチ画面プロジェクションモニタ
JP2007235470A (ja) * 2006-02-28 2007-09-13 Brother Ind Ltd 映像表示装置
JP2007240985A (ja) * 2006-03-09 2007-09-20 Brother Ind Ltd 投影装置
JP2009122366A (ja) * 2007-11-14 2009-06-04 Funai Electric Co Ltd 画像表示装置
JP2012068319A (ja) * 2010-09-21 2012-04-05 Sony Corp 表示装置
JP2012220613A (ja) * 2011-04-06 2012-11-12 Sharp Corp プロジェクタ
JP2013148802A (ja) * 2012-01-23 2013-08-01 Nikon Corp プロジェクタ
JP2015084073A (ja) * 2013-09-19 2015-04-30 カシオ計算機株式会社 投影システム、光路切換装置及び投影制御方法
JP2015111772A (ja) * 2013-12-06 2015-06-18 シチズンホールディングス株式会社 投影装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3418800A4 *

Also Published As

Publication number Publication date
EP3418800A4 (en) 2019-03-13
JP6807037B2 (ja) 2021-01-06
JPWO2017141744A1 (ja) 2018-12-13
EP3418800A1 (en) 2018-12-26
US20190045159A1 (en) 2019-02-07

Similar Documents

Publication Publication Date Title
US9028077B2 (en) Projector
JP6854859B2 (ja) 照明装置
US8955990B2 (en) Projector
JP7018099B2 (ja) 照明装置
TWI664443B (zh) Virtual reality headset
US8077888B2 (en) Positioning audio output for users surrounding an interactive display surface
EP2565709B1 (en) Electronic device
US9465484B1 (en) Forward and backward looking vision system
US9374554B1 (en) Display selection for video conferencing
JP2015111772A (ja) 投影装置
US11674667B2 (en) Color mixing from different light sources
KR20210093258A (ko) 화상 표시 장치
CN107110450B (zh) 照明装置
CN108762483B (zh) 一种互动投影仪及互动投影方法
JP2020013037A (ja) 投影装置
WO2017141744A1 (ja) 表示装置
JP2012019298A (ja) リモコン受信装置および投写型表示装置
JP6149904B2 (ja) 表示装置
US9690183B2 (en) Display apparatus including image projecting unit and screen unit
JP2018028965A (ja) 照明装置
WO2016136067A1 (ja) 展示装置及び展示方法
JP2019191392A (ja) 立体面表示装置
JP2016201694A (ja) 電子機器および電子機器の制御方法
KR20240015494A (ko) 이미지를 투사하는 전자 장치 및 그 제어 방법
JP2011171259A (ja) 光投影装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17753004

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018500042

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017753004

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017753004

Country of ref document: EP

Effective date: 20180919