WO2007013215A1 - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
WO2007013215A1
WO2007013215A1 PCT/JP2006/310557 JP2006310557W WO2007013215A1 WO 2007013215 A1 WO2007013215 A1 WO 2007013215A1 JP 2006310557 W JP2006310557 W JP 2006310557W WO 2007013215 A1 WO2007013215 A1 WO 2007013215A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image display
display device
front space
detected object
Prior art date
Application number
PCT/JP2006/310557
Other languages
English (en)
French (fr)
Inventor
Isao Tomisawa
Masaru Ishikawa
Katsumi Unehara
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Priority to DE602006021184T priority Critical patent/DE602006021184D1/de
Priority to JP2007528357A priority patent/JP4579295B2/ja
Priority to EP06746886A priority patent/EP1909255B1/en
Priority to US11/996,630 priority patent/US8243125B2/en
Publication of WO2007013215A1 publication Critical patent/WO2007013215A1/ja

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • G03B35/24Stereoscopic photography by simultaneous viewing using apertured or refractive resolving means on screens or between screen and eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers

Definitions

  • the present invention relates to an image display device that detects an entry position of an object to be detected that has entered from the outside in a space that forms a stereoscopic image based on a two-dimensional image.
  • a display unit for displaying a two-dimensional image
  • an optical device that is disposed in front of the image display surface of the display unit and forms a real image of the two-dimensional image in its own front space.
  • an image display device that includes a panel (image transmission panel) and allows a viewer in front of the front space to stereoscopically view a two-dimensional image.
  • a frame-like recognition means position detection sensor
  • Patent Document 1 JP-A-2005-141102
  • An object of the present invention is to provide an image display device capable of detecting an object to be detected in a space in which a stereoscopic image is formed without feeling the presence of a position detection device.
  • the image display device of the present invention is arranged in front of an image display surface of the display means for displaying a two-dimensional image, and forms a stereoscopically visible image based on the two-dimensional image in its front space.
  • Optical panel and the detection target that is placed behind the optical panel and enters the front space
  • the object to be detected that has entered the front space is optically recognized via the optical panel by the recognition unit, and the front space of the object to be detected is determined based on the recognition result by the position detection unit.
  • the approach position at can be detected.
  • the recognition means behind the optical panel there is only a stereoscopic image between the optical panel and the viewer, and the viewer can feel the presence of the position detection device.
  • the entire device can be made compact.
  • the entry position of the detected object is a concept including the momentary movement position in the front space of the detected object that has entered the front space.
  • the stereoscopic image may be either a real image or a virtual image. Therefore, as an optical panel, a real image of a two-dimensional image is formed and viewed stereoscopically as in a convex lens array described later, or a real image is stereoscopically viewed as in the integral photography system, for example, It is also possible to use a non-lux nolia method, a lenticular method, or the like, which allows a virtual image to be stereoscopically viewed by binocular parallax.
  • Another image display device of the present invention is a display means for displaying a two-dimensional image, and is disposed in front of the image display surface of the display means, and is a stereoscopic image based on the two-dimensional image in its own front space.
  • a position detecting means for detecting an approach position in the vehicle.
  • the recognizing unit recognizes the reflected light reflected by the detected object from the image light of the two-dimensional image.
  • the element which judges the approach position in between increases. For this reason, the accuracy of position detection can be improved.
  • cost reduction can be expected.
  • the recognizing means uses reflected light obtained by reflecting the image light of the two-dimensional image by the detected object. It is preferable that the position detecting means recognizes the entry position of the detected object based on the reflected light and the display position of the two-dimensional image.
  • the recognition means recognizes the reflected light reflected by the detected object from the image light of the two-dimensional image, and optically recognizes the detected object that has entered the front space. For this reason, the position of the front space corresponding to the display position of the two-dimensional image can be detected as the entry position of the detected object. For example, when a two-dimensional image is displayed on the left side of the image display surface, if the detected object enters the position of the front space corresponding to the display position (for example, the left side), the image light of the two-dimensional image is emitted. The reflected light is reflected by the object to be detected and the reflected light is recognized by the recognizing means.
  • the recognizing means does not recognize the reflected light. Therefore, when the reflected light of the image light of the two-dimensional image is recognized, the position of the front space corresponding to the display position of the two-dimensional image can be detected as the entry position of the detection object. In this way, the entry position of the detected object can be detected in association with the display position of the two-dimensional image, and the accuracy of position detection can be improved.
  • the display means is configured to be able to display a plurality of two-dimensional images of different colors
  • the recognition means is configured to be able to identify the color of the reflected light
  • the position detection means is configured to identify the color of the reflected light.
  • the entry position of the detected object is detected based on the display position of the two-dimensional image.
  • the position in the front space corresponding to the display position of the identified two-dimensional image of the color can be detected as the entry position of the detection object. For example, when a red two-dimensional image is displayed on the right side of the image display surface and a yellow two-dimensional image is displayed on the left side, the recognition means identifies the reflected light as red.
  • the position detection means detects the position of the front space (for example, the right side) corresponding to the display position of the red two-dimensional image as the entry position of the detected object. Therefore, in addition to the display position of the two-dimensional image, the entry position of the detected object can be detected in association with the color of the two-dimensional image, and the position detection accuracy can be further improved.
  • the two-dimensional images of different colors may be separated from each other or may be connected.
  • the recognition means is an area sensor that images the front space via the optical panel, and the position detection means determines the entry position of the detection object based on the captured image captured by the area sensor. It is preferable to detect.
  • the display means preferably incorporates an area sensor.
  • the area sensor is built in and integrated with the display means, so that the entire apparatus can be configured more compactly than when both are configured separately.
  • the position detecting means determines the three-dimensional approach position of the detected object based on the position of the detected object in the captured image and the focus evaluation element of the detected object in the captured image. Preferred to detect ,.
  • the approach position of the detection object on the imaging surface in the front space is detected based on the position of the detection object in the captured image, and the focus evaluation element of the detection object in the captured image is used. Based on this, the three-dimensional approach position of the detected object is detected by detecting the approach position (entry depth) of the detected object in the direction (depth direction) perpendicular to the imaging surface in the front space. For this reason, it is possible to detect the entry position of the detected object in detail.
  • Examples of the focus evaluation element include a sense of focus (edge) of the detected object in the captured image, a rate of change in size, and a rate of change in shape.
  • the recognition means is disposed at a position away from the image display surface, and is disposed between the image display surface and the optical panel, and guides light from the image display surface force to the optical panel.
  • the degree of freedom in device design can be increased by disposing the recognition means at a position off the image display surface. Then, since the light from the optical panel is guided by the light guiding means to the recognition means arranged at a position off the image display surface, the object to be detected is optically recognized through the optical panel. be able to.
  • a plurality of recognition means are provided corresponding to a plurality of virtual divided front spaces obtained by dividing the front space into the vertical and Z or horizontal directions by directing the image display surface. Yes.
  • each recognition means can be made small.
  • the light guide means can be reduced in size. Therefore, the installation space between the image display surface and the optical panel can be reduced, and the entire apparatus can be reduced in size.
  • an image control unit that controls the two-dimensional image based on a control table that associates the detection result by the position detection unit with the change in the two-dimensional image displayed on the image display surface is further provided. It is preferable.
  • the two-dimensional image displayed on the image display surface can be changed according to the entry position of the detected object such as the finger of the viewer, and user interaction can be realized. it can.
  • the viewer since the viewer does not notice the device for detecting the position of the finger or the like, the viewer can be annoyed and moved and can be acknowledged.
  • the optical panel is configured by a convex lens array
  • the stereoscopic image is a real image of a two-dimensional image formed in the front space by the convex lens array.
  • a real image of a two-dimensional image can be formed in the front space, and a detected image that is detected by forming an object to be detected that has entered the front space on the recognition means.
  • the detected part is a viewer's finger or the like, the viewer can actually feel the real image and feel as if he / she is actually touching the real image.
  • FIG. 1 is a diagram showing a basic configuration of an image display device to which the present invention is applied.
  • FIG. 2 is a configuration diagram of an image display device according to an embodiment of the present invention.
  • ⁇ 3 It is a diagram illustrating a user interactive function in the image display device.
  • FIG. 4 is a configuration diagram of an image display device according to a first modification of one embodiment of the present invention.
  • FIG. 5 is a configuration diagram of an image display device according to a second modification of the embodiment of the present invention.
  • FIG. 6 is a configuration diagram of an image display device further including a condenser lens in the second modified example.
  • FIG. 7 is a configuration diagram of an image display device including a plurality of area sensors in the second modified example.
  • FIG. 8 is a configuration diagram of an image display device using an optical sensor in an image display device to which the present invention is applied.
  • FIG. 9 is a configuration diagram of an image display device using an integral photography optical panel in an image display device to which the present invention is applied.
  • This image display device is, for example, an amusement theater, a product explanation
  • This is a device for stereoscopic display used for displays, game machines, and the like.
  • a two-dimensional image displayed on the image display surface is imaged in a space so that the real image can be viewed three-dimensionally, enabling user interactive operation.
  • the image display device 10 of the present embodiment displays a two-dimensional image 1 (a moving image or a still image), and a display unit 11 having an image capturing function.
  • a lens array unit 12 (convex lens array) that forms a real image 2 (stereoscopically visible image) of the two-dimensional image 1 in a front space 3 that is disposed in front of the display unit 11 and expands in front of the display unit 11;
  • a rectangular parallelepiped housing 13 that houses the lens array unit 12 and a video signal are supplied to the display unit 11, and an object to be detected that enters the front space 3 based on the captured image (the viewer's And a control device 14 for detecting the entry position of a finger or the like.
  • the display unit 11 is, for example, a so-called input display that includes a color liquid crystal display 15 and includes an area sensor in the display 15. That is, the display 15 has a display of, for example, 640 ⁇ 480 pixels, and although not shown, an array substrate in which display elements composed of signal lines, scanning lines, and pixel TFTs are arranged in a vertical and horizontal matrix, a color filter, and the like are overlapped. A plurality of image sensors (photoelectric conversion elements and the like) are provided on the array substrate corresponding to the plurality of display elements. Therefore, the display 15 can color-display the two-dimensional image 1 on the image display surface 15a, and can capture an incident image with a built-in area sensor.
  • the display 15 may be a cathode ray tube, a plasma display, an organic EL device or the like as necessary.
  • the display unit 11 configured as described above displays the two-dimensional image 1 on the image display surface 15a based on the video signal supplied from the control device 14 via the display driver 46.
  • This 2D image 1 is created based on 3D image expression methods such as shading and perspective so that the real image 2 formed in the front space 3 can be seen in 3D! RU
  • the display unit 11 images (recognizes) the detected object 5 that has entered the front space 3 via the lens array unit 12, and outputs the captured image data to the control device 14.
  • the display unit 11 sequentially reads, for example, light of three colors of red “blue” and green at the time of imaging, and outputs imaging data of each color.
  • the controller 14 inputs A color captured image (image data) is generated based on the captured image data of each color, and the color of the object to be detected 5 is identified.
  • the lens array unit 12 includes two plate-like lens arrays 21 and a lens frame (not shown) that overlaps and supports them integrally, and an opening formed on one surface of the housing 13. It is provided substantially parallel to the image display surface 15a of the display 15 so as to close the part.
  • the two plate-like lens arrays 21 are shown as an integral unit.
  • Each plate-like lens array 21 is configured by arranging a plurality of convex lens elements 26 in a plane with their optical axes parallel to each other, and each convex lens element 26 has a pair of optical axes aligned with each other. Consists of a convex lens 27. That is, a plurality of convex lenses 27 are provided on both surfaces of each plate lens array 21 in a vertical and horizontal matrix form with their optical axes parallel to each other, and each pair of convex lenses 27 having the same optical axis is a convex lens element. Consists of 26.
  • the lens array unit 12 includes two plates so that the two convex lens elements 26 corresponding to each other between the two plate-shaped lens arrays 21 are arranged in the optical axis direction to form the composite lens 28.
  • the lens array 21 is polymerized.
  • the lens array unit 12 configured as described above is arranged in front of the display unit 11 so that the image display surface 15a of the display unit 11 is within the effective working distance of each synthetic lens 28. Has been. Therefore, a real image 2 focused on the front space 3 (imaging plane 4 by the lens array unit 12) is formed.
  • the real image 2 formed by the lens array unit 12 is actually a planar image.
  • the real image 2 appears as if it is floating in the air. be able to.
  • the displayed two-dimensional image 1 is created based on a three-dimensional video expression method such as a shadow or perspective, as described above, It can be visually recognized as a three-dimensional image.
  • the real image 2 formed by the lens array unit 12 is an equal-magnification erect image of the two-dimensional image 1.
  • each synthetic lens 28 of the lens array unit 12 transmits the corresponding virtual divided image (the image of the area covered by each synthetic lens 28) in the two-dimensional image 1 displayed on the image display surface 15a to the front. Image in space 3 at equal magnification.
  • each synthetic lens 28 is composed of two convex lens elements 26, each virtual divided image of the two-dimensional image 1
  • the image light is inverted twice (inverted once by the display surface side lens array 21b and inverted again by the imaging side lens array 21a), and an erect image is formed in the front space 3. Therefore, the entire lens array unit 12 forms a set of equal-size erect images of a plurality of virtual divided images, that is, an equal-size erect image of the two-dimensional image 1 as a real image 2 in the front space 3.
  • each synthetic lens 28 of the lens array unit 12 has the corresponding virtual divided portion of the detected object 5 that has entered the front space 3 equal to the image display surface 15a. It forms as a standing image. For this reason, the entire lens array unit 12 forms an equal-magnification erect image of the detected object 5 on the image display surface 15a. At this time, the detected object 5 located on the image plane 4 of the lens array unit 12 forms an image on the image display plane 15a in a focused state.
  • the display unit 11 images the detected object 5 imaged on the image display surface 15a (area sensor) by the lens array unit 12. That is, the display unit 11 captures an image of the detection object 5 entering the front space 3 through the lens array unit 12 in a state where the imaging surface 4 is in focus.
  • the control device 14 includes a CPU that controls the overall processing operation of the control device 14, a hard disk that stores various programs and various data, and a logic circuit that supplements the functions of the CPU and handles interface signals with peripheral circuits.
  • the image generation unit 41 that generates a video signal of the two-dimensional image 1 displayed on the display unit 11, the position detection unit 42 that detects the entry position of the detection object 5, and these units are associated and controlled. And an overall control unit 43.
  • the control device 14 reads various stored programs and data as necessary, and outputs the video signal generated by the image generation unit 41 to the display driver 46 based on the programs and data.
  • the display unit 11 is controlled.
  • the control device 14 is provided with a control table that associates the detection result of the entry position, which will be described later, with changes in the two-dimensional image 1, and generates a video signal based on the control table. It has become.
  • predetermined image processing calculation is performed on the imaging data input from the display unit 11 (imaging data of red “blue” and green) to generate a color captured image.
  • the approach position of the to-be-detected object 5 is detected based on the acquired captured image.
  • the imaging surface (imaging surface 4) in the front space 3 is used. Detect the entry position of the object 5 to be detected. Further, based on the sense of force (edge), size, shape change, etc., of the detected object 5 in the captured image, the entry of the detected object 5 in the direction (depth direction) perpendicular to the imaging surface of the front space 3 It is also possible to detect the position three-dimensionally.
  • the stereoscopic method actually displays a stereoscopic image with depth
  • the captured image can be displayed regardless of the focus evaluation element such as the above-mentioned focus feeling.
  • the display unit 11 displays a two-dimensional image 1 of an object to be stereoscopically displayed (for example, a monkey character) on the image display surface 15a, and forms the real image 2 in the front space 3 (see FIG. see a)).
  • the display unit 11 takes an image of the detected object 5, and further detects the approach position (see FIG. 5B).
  • the real image 2 (monkey) jumps to the inserted object 5 (hand) and changes the 2D image 1 of the monkey as if it stops (see the figure). (See (c)). In this way, the viewer can experience a play in which the monkey that is the real image 2 stops in his / her hand when the hand is inserted into the front space 3.
  • the display unit 11 (recognition means) is arranged behind the lens array unit 12, so that only the real image 2 (monkey) exists between the lens array unit 12 and the viewer. This makes it possible for the viewer to feel the presence of a position detection device and to make the entire device compact.
  • the monkey After the monkey stops in the hand, the monkey may move according to the movement of the hand!
  • the movement position of the detection object 5 in the front space 3 is detected, and the display position of the monkey two-dimensional image 1 is moved based on the movement position.
  • the lens array unit 12 is attached to or detached from the image display surface 15a so that the imaging position of the real image 2 can be moved in a direction perpendicular to the imaging surface 4 (depth direction).
  • the lens array 12 may be separated from the image display surface 15a based on the detection position of the detection object 5 in the depth direction.
  • the image display device 10 of the first modified example has substantially the same configuration as the image display device 10 described above, but in the first embodiment, the detected object 5 imaged on the image display surface 15a by the lens array unit 12
  • the reflected light of the image light reflected by the detected object 5 is recognized in the captured image, while the position is detected based on the obtained captured image.
  • the display unit 11 detects the image light of the two-dimensional image 1 when the detection object 5 enters the position of the front space 3 where the force real image 2 formed in the same manner as described above is formed. Since the reflected light is reflected by the object 5, the reflected light is imaged (recognized) together with the detected object 5.
  • the control device 14 also generates a captured image of the detected object 5 irradiated with the image light based on the force detected object 5 configured in the same manner as described above and the imaging data of the reflected light. It is like this. Then, based on the color of the reflected light in the obtained captured image and the display position of the two-dimensional image 1, the entry position of the detection object 5 is detected.
  • a yellow two-dimensional image ly (star mark) is displayed on the right side of the image display surface 15a, and the yellow real image 2y is formed on the right side of the front space 3.
  • a red two-dimensional image lr (note mark) is displayed on the left side according to the direction of the image display surface 15a, and a red real image 2r is formed on the left side according to the direction force of the front space 3. If the reflected light is identified as red by the display unit 11, the position of the front space 3 corresponding to the display position of the red two-dimensional image lr (imaging position of the real image 2r), that is, the directional force Accordingly, the left side is detected as the entry position of the object 5 to be detected.
  • the approach position of the detected object 5 can be detected in relation to the color of the two-dimensional image 1, and the position detection accuracy can be further improved. it can.
  • the user can be given a sensation of performing a switch operation on the front space 3.
  • the position of the front space 3 corresponding to the display position of the two-dimensional image 1 is determined depending on whether or not the reflected light is recognized without identifying the color of the reflected light. You may make it detect as an approach position. For example, the direction of the image display surface 15a When the image 1 is displayed, when the object 5 enters the left position of the front space 3 where the real image 2 is formed, the reflected light is captured by the display unit 11, but the right side of the front space 3 Even if the detected object 5 enters the half position, the display unit 11 does not capture the reflected light.
  • the position of the front space 3 corresponding to the display position of the two-dimensional image 1 is detected as the entry position of the detected object 5. You can. In this way, the entry position of the detection object 5 can be detected in association with the display position of the two-dimensional image 1, and the position detection accuracy can be improved.
  • a simple optical sensor that detects the presence or absence of reflected light or the color of the reflected light may be used. Even in this configuration, if the detected object 5 enters the front space 3 where the real image 2 is displayed, the reflected light (or its color) is detected, but the front space 3 where the real image 2 is not displayed is detected. Even if the object to be detected 5 enters, the reflected light (or its color) is not detected (no reflected light is generated in the first place), so only the presence or absence of the reflected light, or just the color of the reflected light, It is possible to determine whether the detected object 5 and the real image 2 are in the same position. In this case, since image processing of the captured image is not required, the apparatus can be simplified and reduced in cost.
  • the image display device 10 of the second modified example has substantially the same configuration as the image display device 10 described above, but the first embodiment includes a display function and an image capture function. While the object 5 is recognized by a simple input display, this modification is provided with a display unit 11 having a display function and an area sensor 16 having an image capturing function. It is different.
  • the image display device 10 of the present modification includes an area sensor 16 disposed between the image display surface 15a and the lens array unit 12 and at a position away from the image display surface 15a. And a half mirror 17 disposed between the image display surface 15a and the lens array unit 12.
  • the display unit 11 may have only a display function.
  • the area sensor 16 is configured by arranging image pickup elements (CCD and the like) in a matrix, and performs image pickup in the same manner as the display unit 11 of the previous embodiment.
  • the area sensor 16 is configured to be approximately the same size as the image display surface 15 a of the display 15.
  • the area sensor 16 is substantially the same as the image display surface 15a and the lens array unit 12.
  • the detected object 5 which is provided vertically and enters the front space 3 forms an image on the area sensor 16 via the lens array unit 12 and the noise mirror 17. Then, the imaged detection object 5 is imaged, and the imaging data is output to the control device 14.
  • the display unit 11 (input display) as described above is used as means for recognizing the detected object 5 by disposing the area sensor 16 at a position off the image display surface 15a. Even if it is not possible, the object to be detected can be recognized. Therefore, the degree of freedom in selecting the recognition means can be increased.
  • a condensing lens 18 may be provided between the half mirror 17 and the area sensor 16 as shown in FIG. According to this, the light from the lens array unit 12 is collected and imaged on the area sensor 16. Therefore, the size of the area sensor 16 can be reduced, and the degree of freedom in selecting the area sensor 16 and the degree of freedom in layout design can be increased.
  • the image display surface 15a and the lens array unit 12 are respectively positioned at positions deviated from the image display surface 15a of the display 15 on both the left and right (or top and bottom) sides.
  • the configuration may include two half mirrors 17 provided at an angle (substantially “V” shape) perpendicular to each other. That is, two half mirrors 17 are respectively associated with two virtual divided front spaces 3a in which the front space 3 is divided in the vertical direction by directing it toward the image display surface 15a, and two area sensors 16 are respectively associated. I am letting.
  • each area sensor 16 and the half mirror 17 corresponding to each virtual divided front space 3a in the arrangement as described above, the two area sensors 16 are connected to the image display surface 15a.
  • the half mirror 17 can be reduced in size while being disposed away from the position, and the installation space between the image display surface 15a and the lens array unit 12 (the working distance of each compound lens 28) is short.
  • each area sensor 16 can have an area corresponding to each virtual divided front space 3a, and the size can be reduced.
  • the area sensor 16 (display unit 11) has been used as means for recognizing the detected object 5.
  • a simple optical sensor 19 for reducing the cost may be used instead of such an area sensor (see FIG. 8).
  • the front space 3 is divided into two sections in the vertical direction, but the number of sections is arbitrary. For example, the front space 3 is divided into nine sections (length 3 X width 3), and nine photosensors corresponding to this. Let ’s have 19!
  • the optical sensor 19 is configured to detect the reflected light (or its color)
  • the object to be detected is related to the position of the real image 2 (the display position of the two-dimensional image 1). 5 approach positions can be detected.
  • the front space 3 that forms the real image 2 is formed in a compact configuration that does not let the viewer feel the presence of a position detection device. It is possible to detect the entry position of the detected object 5 that has entered.
  • the force image or the other method described for forming the real image 2 of the two-dimensional image 1 in the front space 3 by the lens array unit 12 as the method of displaying the stereoscopic image may be used.
  • a virtual image may be stereoscopically viewed by binocular parallax, such as a Norrax Noria method or a lenticular method.
  • the real image is stereoscopically viewed as in the present embodiment described above and the integral photography method described later, and the viewer can feel as if the real image is actually touched. , Can enhance the sense of reality.
  • the display unit 11 is preferably an input display.
  • lenticular lenses, barriers, slits, pinhole arrays, etc. that can be connected with only the lens array unit 12 and the IP lens array 61 are compatible with each stereoscopic image display method. Can be considered.
  • an equal-magnification erect image of the detected object 5 is formed on the image display surface 15a (area sensor 16).
  • image processing is not complicated.
  • the object 5 is recognized as it is because of the structure of the optical panel that enables stereoscopic viewing. Therefore, image processing becomes complicated.
  • three-dimensional detection is also possible by performing complex image processing as described above.
  • the apparatus can be simplified, reduced in size, and reduced in cost. It is also possible, and various position detections can be realized as necessary.

Abstract

 立体視認画像を形成した空間における被検出物の検出を、位置検出の仕掛けの存在を感じさせずに行うことができる画像表示装置を提供することを課題とする。  二次元画像1を表示する表示手段11と、表示手段11の画像表示面15aの前方に配設され、自身の前方に拡がる前方空間3に二次元画像1に基づく立体視認画像2を形成する光学パネル12と、光学パネル12の後方に配設され、前方空間3に進入した被検出物5を、光学パネル12を介して光学的に認識する認識手段11と、認識手段11による認識結果に基づいて、被検出物5の前方空間3における進入位置を検出する位置検出手段14とを備えた。

Description

明 細 書
画像表示装置
技術分野
[0001] 本発明は、二次元画像に基づく立体視認画像を形成する空間に対し、外側から進 入した被検出物の進入位置を検出する画像表示装置に関するものである。
背景技術
[0002] 近年、二次元画像を表示する表示手段 (表示部)と、表示手段の画像表示面の前 方に配設されると共に、自身の前方空間に二次元画像の実像を結像する光学パネ ル (画像伝達パネル)とを備え、その前方空間の前方にいる目視者に対し、二次元画 像を立体視させる画像表示装置が提案されている。さらに、前方空間に進入した被 検出物(目視者の指等)の進入位置を検出すベぐその前方空間の 4辺を囲むように 枠状の認識手段 (位置検出センサ)を設けることが考えられて 、る (例えば、特許文 献 1)。
特許文献 1:特開 2005— 141102号公報
発明の開示
発明が解決しょうとする課題
[0003] し力しながら、このような画像表示装置では、認識手段が光学パネルの前面に設置 されるため、装置全体が大型化すると共に、目視者に対し、如何にもそこに何か仕掛 けがあるかのような印象を与えてしま 、、驚きや感動を十分に与えることができなかつ た。
[0004] 本発明は、立体視認画像を形成した空間における被検出物の検出を、位置検出の 仕掛けの存在を感じさせずに行うことができる画像表示装置を提供することを目的と する。
課題を解決するための手段
[0005] 本発明の画像表示装置は、二次元画像を表示する表示手段と、表示手段の画像 表示面の前方に配設され、自身の前方空間に二次元画像に基づく立体視認画像を 形成する光学パネルと、光学パネルの後方に配設され、前方空間に進入した被検出 物を、光学パネルを介して光学的に認識する認識手段と、認識手段による認識結果 に基づいて、被検出物の前方空間における進入位置を検出する位置検出手段と、を 備えたことを特徴とする。
[0006] この構成によれば、認識手段により、前方空間に進入した被検出物を光学パネル を介して光学的に認識し、位置検出手段により、その認識結果に基づいて被検出物 の前方空間における進入位置を検出することができる。そして、認識手段を光学パネ ルの後方に配設したことで、光学パネルと目視者との間には、立体視認像しか存在 せず、目視者に位置検出の仕掛けの存在を感じさせることがないと共に、装置全体 をコンパクトに構成することができる。
なお、被検出物の進入位置とは、前方空間に進入した被検出物の前方空間内に おける刻々の移動位置をも含む概念である。
また、立体視認画像は、実像および虚像のいずれであってもよい。したがって、光 学パネルとして、後述する凸レンズアレイのように、二次元画像の実像を結像させ立 体視させるものや、インテグラルフォトグラフィ方式のように、実像を立体視させるもの のほか、例えば、ノ ララックスノリア方式やレンチキユラ方式等を適用し、両眼の視差 により虚像を立体視させるものも用いることができる。
[0007] 本発明の他の画像表示装置は、二次元画像を表示する表示手段と、表示手段の 画像表示面の前方に配設され、自身の前方空間に二次元画像に基づく立体視認画 像を形成する光学パネルと、二次元画像の画像光が、前方空間に進入した被検出 物により反射した反射光を認識する認識手段と、認識手段による認識結果に基づい て、被検出物の前方空間における進入位置を検出する位置検出手段と、を備えたこ とを特徴とする。
[0008] この構成によれば、認識手段は、二次元画像の画像光が被検出物により反射した 反射光を認識するため、表示される二次元画像との関連により、被検出物の前方空 間における進入位置を判断する要素が増すことになる。このため、位置検出の精度 を向上させることができる。また、検出のための発光素子を新たに必要としないため、 コストダウンも期待できる。
[0009] この場合、認識手段は、二次元画像の画像光が被検出物により反射した反射光を 認識し、位置検出手段は、反射光と二次元画像の表示位置とに基づいて、被検出物 の進入位置を検出することが好ましい。
[0010] この構成によれば、認識手段は、二次元画像の画像光が被検出物により反射した 反射光を認識して、前方空間に進入した被検出物を光学的に認識する。このため、 二次元画像の表示位置に対応した前方空間の位置を、被検出物の進入位置として 検出することができる。例えば、画像表示面の向かって左側に二次元画像が表示さ れている場合、その表示位置に対応する前方空間の位置 (例えば左側)に被検出物 が進入すると、二次元画像の画像光が被検出物により反射し、認識手段により反射 光が認識されるが、その位置カゝら外れたところに被検出物が進入しても、認識手段に より反射光が認識されることがない。そのため、二次元画像の画像光の反射光が認 識された場合には、その二次元画像の表示位置に対応する前方空間の位置を、被 検出物の進入位置として検出することができる。このように、二次元画像の表示位置 と関連させて、被検出物の進入位置の検出を行うことができ、位置検出の精度を向 上させることができる。
[0011] この場合、表示手段は、色違い複数の二次元画像を表示可能に構成され、認識手 段は、反射光の色彩を識別可能に構成され、位置検出手段は、反射光の色彩と二 次元画像の表示位置とに基づいて、被検出物の進入位置を検出することが好ましい
[0012] この構成によれば、識別した色彩の二次元画像の表示位置に対応した前方空間の 位置を、被検出物の進入位置として検出することができる。例えば、画像表示面の向 かって右側に赤色の二次元画像が表示され、向かって左側に黄色の二次元画像が 表示されている場合に、認識手段により、反射光が赤色であると識別されたときには 、位置検出手段は、赤色の二次元画像の表示位置に対応した前方空間の位置 (例 えば向かって右側)を、被検出物の進入位置として検出する。したがって、二次元画 像の表示位置に加え、二次元画像の色彩と関連させて、被検出物の進入位置の検 出を行うことができ、位置検出の精度をより向上させることができる。
なお、色違い複数の二次元画像は、互いに分離していてもよぐ連なっていてもよ い。 [0013] この場合、認識手段は、光学パネルを介して前方空間を撮像するエリアセンサであ り、位置検出手段は、エリアセンサに取り込まれた撮像画像に基づいて、被検出物の 進入位置を検出することが好ましい。
[0014] この構成によれば、取り込んだ撮像画像の画素単位で撮像画面における被検出物 の位置を認識することで、被検出物の進入位置を精度良く検出することができる。
[0015] この場合、表示手段は、エリアセンサを内蔵して 、ることが好ま U、。
[0016] この構成によれば、表示手段にエリアセンサを内蔵して一体に構成したことで、両 者を別体に構成した場合に比べ、装置全体をコンパクトに構成することができる。
[0017] この場合、位置検出手段は、撮像画像における被検出物の位置と、撮像画像にお ける被検出物のフォーカス評価要素とに基づいて、被検出物の三次元的な進入位 置を検出することが好まし 、。
[0018] この構成によれば、撮像画像における被検出物の位置に基づいて、前方空間の撮 像面における被検出物の進入位置を検出すると共に、撮像画像における被検出物 のフォーカス評価要素に基づいて、前方空間の撮像面に垂直な方向(奥行き方向) における被検出物の進入位置 (進入深さ)を検出することで、被検出物の三次元的な 進入位置を検出する。このため、被検出物の進入位置を詳細に検出することができ る。
なお、フォーカス評価要素としては、撮像画像における被検出物のフォーカス感( エッジ)、サイズの変化率および形状の変化率等を挙げることができる。
[0019] この場合、認識手段は、画像表示面から外れた位置に配設され、画像表示面と光 学パネルとの間に配設され、画像表示面力ゝらの光を光学パネルに導くと共に、光学 パネル力もの光を認識手段に導く導光手段を、さらに備えたことが好ましい。
[0020] この構成によれば、認識手段を画像表示面から外れた位置に配設することで、装 置設計の自由度を高めることができる。そして、画像表示面から外れた位置に配設さ れた認識手段に対して、導光手段により光学パネルからの光が導かれるため、被検 出物を光学パネルを介して光学的に認識することができる。
[0021] この場合、認識手段は、前方空間を画像表示面に向力つて縦および Zまたは横に 区分した複数の仮想分割前方空間に対応して、複数個設けられていることが好まし い。
[0022] この構成によれば、複数の仮想分割前方空間に対応して複数の認識手段を設ける ことで、各認識手段を小型にすることができる。また、複数の認識手段を画像表示面 力 外れた位置に配設すると共に画像表示面と光学パネルとの間にハーフミラー等 の導光手段を配設する場合に、導光手段の小型化を図ることが可能となるため、画 像表示面と光学パネルとの間の設置スペースを小さくすることができ、装置全体の小 型化を図ることができる。
[0023] この場合、光学パネル力ゝらの光を認識手段に対して集光する集光手段を、さらに備 えたことが好ましい。
[0024] この構成によれば、認識手段の小型化を図ることができ、認識手段の選択の自由 度とレイアウト設計の自由度とを増すことができる。
[0025] この場合、位置検出手段による検出結果と、画像表示面に表示される二次元画像 の変化とを関連付ける制御テーブルに基づ 、て、二次元画像を制御する画像制御 部を、さらに備えたことが好ましい。
[0026] この構成〖こよれば、目視者の指等の被検出物の進入位置に応じて、画像表示面に 表示する二次元画像を変化させることができ、ユーザーインタラクティブを実現するこ とができる。しかも、この際、上述したように目視者に指等の位置検出の仕掛けを気 付かせることがないため、目視者に驚きや感動を与え、好奇心を想起させることがで きる。
[0027] この場合、光学パネルは、凸レンズアレイカゝら構成され、立体視認画像は、凸レン ズアレイにより前方空間に結像した二次元画像の実像であることが好ましい。
[0028] この構成によれば、前方空間に二次元画像の実像を結像させることができ、また、 前方空間に進入した被検出物を認識手段に結像させることにより、検出される撮像 画像を通常の画像 (映像)として認識することが可能なため、画像処理が複雑となるこ とがない。さらに、目視者は、被検出部が目視者の指等である場合、その実像を実際 に触って 、るかのような感覚を得ることができ、臨場感を高めることができる。
図面の簡単な説明
[0029] [図 1]本発明を適用した画像表示装置の基本構成を示す図である。 [図 2]本発明の一実施形態に係る画像表示装置の構成図である。
圆 3]画像表示装置におけるユーザーインタラクティブ機能を説明する図である。
[図 4]本発明の一実施形態の第 1変形例に係る画像表示装置の構成図である。
[図 5]本発明の一実施形態の第 2変形例に係る画像表示装置の構成図である。 圆 6]上記の第 2変形例において、集光レンズをさらに備えた画像表示装置の構成図 である。
圆 7]上記の第 2変形例において、エリアセンサを複数個備えた画像表示装置の構 成図である。
圆 8]本発明を適用した画像表示装置において、光センサを用いた画像表示装置の 構成図である。
圆 9]本発明を適用した画像表示装置において、インテグラルフォトグラフィ方式の光 学パネルを用いた画像表示装置の構成図である。
符号の説明
1 二次元画像
2 実像
3 前方空間
5 被検出物
10 画像表示装置
11 表示部
12 レンズアレイユニット
14 制御装置
15a 画像表示面
16 エリアセンサ
17 ハーフミラー
18 集光レンズ
発明を実施するための最良の形態
以下、添付の図面を参照して、本発明を適用した画像表示装置の一実施形態につ いて説明する。この画像表示装置は、例えば、アミューズメントシアター、商品説明用 ディスプレイ、ゲーム機器等に使用される立体表示対応の装置である。すなわち、画 像表示面に表示した二次元画像を空間に結像することで、その実像を立体的に視 認させる装置であって、ユーザーインタラクティブ操作を可能としたものである。
[0032] 図 1および図 2に示すように、本実施形態の画像表示装置 10は、二次元画像 1 (動 画または静止画)を表示すると共に、画像取込機能を備えた表示部 11と、表示部 11 の前方に配設され、自身の前方に拡がる前方空間 3に二次元画像 1の実像 2 (立体 視認像)を結像させるレンズアレイユニット 12 (凸レンズアレイ)と、表示部 11およびレ ンズアレイユニット 12を収容する直方体形状の筐体 13と、表示部 11に映像信号を供 給すると共に、取り込まれた撮像画像に基づいて、前方空間 3に進入した被検出物( 目視者の指等)の進入位置を検出する制御装置 14とを備えて 、る。
[0033] 表示部 11は、例えば、カラー液晶ディスプレイ 15から成り、ディスプレイ 15にエリア センサを内蔵したいわゆるインプットディスプレイである。すなわち、ディスプレイ 15は 、例えば 640 X 480画素表示のものであり、図示しないが、信号線、走査線および画 素 TFTから成る表示素子を縦横マトリクス状に並べたアレイ基板や、カラーフィルタ 等を重ね合わせて構成されており、アレイ基板上には、複数の表示素子に対応して 、複数の撮像素子 (光電変換素子等)が設けられている。そのため、ディスプレイ 15 は、その画像表示面 15aに二次元画像 1をカラー表示することができると共に、内蔵 したエリアセンサにより入射画像の撮像を行うことができるようになつている。なお、デ イスプレイ 15は、必要に応じて、陰極線管、プラズマディスプレイ、有機 EL装置等で あってもよい。
[0034] このように構成された表示部 11は、制御装置 14から表示ドライバ 46を介して供給さ れた映像信号に基づいて、画像表示面 15aに二次元画像 1を表示する。なお、この 二次元画像 1は、前方空間 3に結像した実像 2が立体的に見えるようにすベぐ陰影 や遠近法等の立体的な映像表現方法に基づ!ヽて作成されて!、る。
[0035] さらに、表示部 11は、前方空間 3に進入した被検出物 5を、レンズアレイユニット 12 を介して撮像 (認識)し、その撮像データを、制御装置 14に出力する。なお、表示部 11は、例えば、撮像時に赤 '青'緑 3色の光を順に読み込み、各色の撮像データを 出力するようになっている。そして、詳細は後述するが、制御装置 14において、入力 した各色の撮像データに基づいてカラーの撮像画像 (画像データ)が生成され、被検 出物 5の色彩が識別されるようになって 、る。
[0036] レンズアレイユニット 12は、 2枚の板状レンズアレイ 21と、これらを重ねて一体に支 持するレンズ枠体(図示省略)とを有し、筐体 13の一面に形成された開口部を塞ぐよ うにして、ディスプレイ 15の画像表示面 15aと略平行に設けられている。なお、図示 では、 2枚の板状レンズアレイ 21を一体のものとして表している。
[0037] 各板状レンズアレイ 21は、複数の凸レンズ要素 26を互いの光軸を平行にして平面 内に並べて構成されており、各凸レンズ要素 26は、互いの光軸を一致させた一対の 凸レンズ 27から成っている。つまり、各板状レンズアレイ 21の両面には、それぞれ複 数の凸レンズ 27が互いの光軸を平行にして縦横マトリクス状に設けられており、光軸 の一致する各一対の凸レンズ 27が凸レンズ要素 26を構成している。
[0038] そして、レンズアレイユニット 12は、 2枚の板状レンズアレイ 21間で対応する 2個の 凸レンズ要素 26がその光軸方向に並んで合成レンズ 28を構成するように、 2枚の板 状レンズアレイ 21を重合させている。
[0039] このように構成されたレンズアレイユニット 12は、表示部 11に対し、その画像表示 面 15aが各合成レンズ 28の有効な作動距離内に納まるように、表示部 11の前方に 配設されている。そのため、前方空間 3 (レンズアレイユニット 12による結像面 4)にピ ントが合った実像 2が結像される。
[0040] レンズアレイユニット 12により結像する実像 2は、実際には平面画像である力 目視 者にとっては、実像 2が空中に浮かんでいるかのように見えることで、実像 2を立体的 に感じることができる。し力も、本実施形態では、上述したように、表示される二次元 画像 1が陰影や遠近法等の立体的な映像表現方法に基づいて作成されているため 、結像した実像 2を、より立体的な画像として視認させることができる。
[0041] また、レンズアレイユニット 12が結像する実像 2は、二次元画像 1の等倍正立像とな る。すなわち、レンズアレイユニット 12の各合成レンズ 28は、画像表示面 15aに表示 された二次元画像 1のうち、対応する各仮想分割画像 (各合成レンズ 28がカバーす る領域の画像)を、前方空間 3に等倍率で結像する。ここで、各合成レンズ 28は、 2個 の凸レンズ要素 26により構成されていることから、二次元画像 1の各仮想分割画像か らの画像光を 2回反転させ (表示面側レンズアレイ 21bで一度反転し、結像側レンズ アレイ 21aで再度反転させ)、前方空間 3に正立像を結像する。したがって、レンズァ レイユニット 12全体では、複数の仮想分割画像の等倍正立像の集合体、つまり二次 元画像 1の等倍正立像を実像 2として前方空間 3に結像する。
[0042] さらに、これと同様に、レンズアレイユニット 12の各合成レンズ 28は、前方空間 3に 進入した被検出物 5のうち、対応する各仮想分割部位を、画像表示面 15aに等倍正 立像として結像する。このため、レンズアレイユニット 12全体では、被検出物 5の等倍 正立像を画像表示面 15aに結像する。そして、このとき、レンズアレイユニット 12の結 像面 4に位置する被検出物 5が、ピントの合った状態で画像表示面 15aに結像する。
[0043] したがって、表示部 11は、レンズアレイユニット 12により画像表示面 15a (エリアセ ンサ)に結像した被検出物 5を撮像することになる。つまり、表示部 11は、レンズァレ ィユニット 12を介して、結像面 4にピントが合った状態で、前方空間 3に進入する被検 出物 5を撮像する。
[0044] 制御装置 14は、制御装置 14全体の処理動作を制御する CPU、各種プログラムや 各種データ等を記憶するハードディスク、および CPUの機能を補うと共に周辺回路と のインタフェース信号を取り扱うための論理回路等で構成されている。機能的には、 表示部 11に表示する二次元画像 1の映像信号を生成する画像生成部 41と、被検出 物 5の進入位置を検出する位置検出部 42と、これらの各部を関連付けて制御する統 括制御部 43とを備えている。
[0045] 制御装置 14は、記憶された各種プログラムやデータを必要に応じて読み出し、そ のプログラムおよびデータに基づ 、て、画像生成部 41で生成した映像信号を表示ド ライバ 46に出力し、表示部 11を制御する。詳細には、制御装置 14には、後述する進 入位置の検出結果と、二次元画像 1の変化とを関連付けた制御テーブルが用意され ており、これに基づいて、映像信号を生成するようになっている。
[0046] また、同様にして、表示部 11から入力した撮像データ (赤 '青'緑それぞれの撮像 データ)に対して所定の画像処理演算を行い、カラーの撮像画像を生成する。そして 、得られた撮像画像に基づいて、被検出物 5の進入位置を検出する。すなわち、撮 像画像における被検出物の位置に基づいて、前方空間 3の撮像面 (結像面 4)にお ける被検出物 5の進入位置を検出する。さらに、撮像画像における被検出物 5のフォ 一力ス感 (エッジ)、サイズ、形状の変化等に基づいて、前方空間 3の撮像面に垂直 な方向(奥行き方向)における被検出物 5の進入位置を三次元的に検出することも可 能である。
なお、後述するインテグラルフォトグラフィ方式のように、実際に奥行きを持つ立体 像を表示する他の立体視方式であれば、上記のフォーカス感等のフォーカス評価要 素によらずとも、撮像画像を詳細に画像処理することにより、被検出物 5の進入位置 を三次元的に正確に検出することが可能である。
[0047] ここで、図 3を参照して、本実施形態の画像表示装置 10におけるユーザーインタラ クティブ機能について説明する。まず、表示部 11により、立体表示しょうとする物 (例 えば、猿のキャラクタ)の二次元画像 1を画像表示面 15aに表示し、その実像 2を前方 空間 3に結像する(同図 (a)参照)。目視者が前方空間 3に被検出物 5 (例えば手)を 差し入れると、表示部 11により、その被検出物 5を撮像し、さらに進入位置を検出す る(同図(b)参照)。そして、上記の制御テーブルに基づいて、その差し入れた被検 出物 5 (手)に実像 2 (猿)が飛び跳ねて 、つて止まるかのように、猿の二次元画像 1を 変化させる(同図 (c)参照)。このようにすることで、目視者に対し、前方空間 3に手を 差し入れると、実像 2である猿がその手に止まる、という遊びを体験させることができる
[0048] し力も、レンズアレイユニット 12の後方に表示部 11 (認識手段)を配設したことで、レ ンズアレイユニット 12と目視者との間には、実像 2 (猿)しか存在せず、目視者に位置 検出の仕掛けの存在を感じさせることがな ヽと共に、装置全体をコンパクトに構成す ることがでさる。
[0049] なお、猿が手に止まった後、手の動きに合わせて、猿が移動するようにしてもよ!、。
すなわち、前方空間 3における被検出物 5の移動位置を検出して、その移動位置に 基づ 、て、猿の二次元画像 1の表示位置を移動させるようにする。
[0050] さらに、この場合、奥行き方向への手の動きに合わせて猿を移動させることが好まし い。すなわち、実像 2の結像位置が結像面 4に対して垂直な方向(奥行き方向)に移 動可能となるように、例えば画像表示面 15aに対してレンズアレイユニット 12を離接 可能な構成とし、被検出物 5の奥行き方向の検出位置に基づ 、てレンズアレイュ-ッ ト 12を画像表示面 15aに対して離接させるようにしてもよ 、。
[0051] 次に、図 4を参照して、上記の実施形態の変形例について説明する。第 1変形例の 画像表示装置 10は、上記の画像表示装置 10と略同様の構成であるが、第 1実施形 態では、レンズアレイユニット 12により画像表示面 15aに結像した被検出物 5を撮像 し、得られた撮像画像に基づいて、位置検出を行うのに対し、本変形例では、その撮 像画像において、被検出物 5 (目視者の指)による画像光の反射光を認識して、位置 検出を行う点で相違して 、る。
[0052] 表示部 11は、上記と同様に構成されている力 実像 2が結像している前方空間 3の 位置に被検出物 5が進入したときには、二次元画像 1の画像光が被検出物 5により反 射することから、被検出物 5と共に、その反射光を撮像 (認識)するようになつている。
[0053] また、制御装置 14も上記と同様に構成されている力 被検出物 5および反射光の 撮像データに基づ ヽて、画像光が照射された被検出物 5の撮像画像を生成するよう になっている。そして、得られた撮像画像における反射光の色彩と、二次元画像 1の 表示位置とに基づいて、被検出物 5の進入位置を検出する。
[0054] 具体的には、画像表示面 15aの向力つて右側に黄色の二次元画像 ly (星マーク) が表示され、前方空間 3の向力つて右側にその黄色の実像 2yが結像すると共に、画 像表示面 15aの向力つて左側に赤色の二次元画像 lr (ノ、ートマーク)が表示され、前 方空間 3の向力つて左側にその赤色の実像 2rが結像して 、る場合に、表示部 11に より、反射光が赤色であると識別されたときには、赤色の二次元画像 lrの表示位置に 対応した前方空間 3の位置 (実像 2rの結像位置)、つまり向力つて左側が、被検出物 5の進入位置として検出される。したがって、二次元画像 1の表示位置に加えて、二 次元画像 1の色彩と関連させて、被検出物 5の進入位置の検出を行うことができ、位 置検出の精度をより向上させることができる。一方、ユーザーには、前方空間 3に対し てスィッチ操作を行うような感覚を与えることができる。
[0055] なお、この場合、反射光の色彩を識別せずとも、反射光を認識したカゝ否かによって 、二次元画像 1の表示位置に対応した前方空間 3の位置を、被検出物 5の進入位置 として検出するようにしてもよい。例えば、画像表示面 15aの向力つて左側に二次元 画像 1が表示されている場合、実像 2が結像している前方空間 3の左側の位置に被 検出物 5が進入すると、表示部 11により反射光が撮像されるが、前方空間 3の右半 部の位置に被検出物 5が進入しても、表示部 11により反射光は撮像されない。その ため、二次元画像 1の画像光の反射光が撮像された場合には、その二次元画像 1の 表示位置に対応する前方空間 3の位置を、被検出物 5の進入位置として検出するこ とができる。このように、二次元画像 1の表示位置と関連させて、被検出物 5の進入位 置の検出を行うことができ、位置検出の精度を向上させることができる。
[0056] 本実施形態では、表示部 11 (エリアセンサ)に代えて、反射光の有無または反射光 の色彩を検出する簡易な光センサを用いてもよい。この構成によっても、実像 2が表 示されている前方空間 3に被検出物 5が進入すれば、反射光 (またはその色彩)が検 出されるが、実像 2が表示されていない前方空間 3に被検出物 5が進入しても、反射 光 (またはその色彩)は検出されな 、 (そもそも反射光が生じな 、)ため、反射光の有 無だけで、または、反射光の色彩だけで、被検出物 5と実像 2の位置が一致している か否かを判断することが可能である。この場合、撮像画像の画像処理を必要としない ので、装置を簡略化'低コストィ匕することができる。
[0057] 続いて、上記の実施形態の他の変形例について説明する。図 5に示すように、第 2 変形例の画像表示装置 10も、上記の画像表示装置 10と略同様の構成であるが、第 1実施形態では、表示機能と画像取込機能とを備えた ヽゎゆるインプットディスプレイ により、被検出物 5を認識するのに対し、本変形例では、表示機能を備えた表示部 1 1と、画像取込機能を備えたエリアセンサ 16とを備えた点で相違している。
[0058] 本変形例の画像表示装置 10は、上述した各装置に加え、画像表示面 15aとレンズ アレイユニット 12との間で且つ画像表示面 15aから外れた位置に配設されたエリアセ ンサ 16と、画像表示面 15aとレンズアレイユニット 12との間に配設されたハーフミラー 17を備えている。なお、この場合、表示部 11は、表示機能のみを備えたものでよい。
[0059] エリアセンサ 16は、マトリクス状に撮像素子 (CCD等)を並べて構成されており、先 の実施形態の表示部 11と同様に撮像を行うものである。ここでは、エリアセンサ 16は 、ディスプレイ 15の画像表示面 15aと略同サイズに構成されている。
[0060] また、エリアセンサ 16は、画像表示面 15aおよびレンズアレイユニット 12に対し、略 垂直に設けられており、前方空間 3に進入した被検出物 5が、レンズアレイユニット 12 およびノヽーフミラー 17を介して、エリアセンサ 16に結像するようになっている。そして 、その結像した被検出物 5を撮像し、撮像データを制御装置 14に出力する。
[0061] このように、画像表示面 15aから外れた位置にエリアセンサ 16を配設することにより 、被検出物 5の認識手段として、上記のような表示部 11 (インプットディスプレイ)を用 いることができない場合にも、被検出物を認識することができる。したがって、認識手 段の選択の自由度を増すことができる。
[0062] また、この場合、図 6に示すように、ハーフミラー 17とエリアセンサ 16との間に集光 レンズ 18を配設してもよい。これによれば、レンズアレイユニット 12からの光が集光さ れてエリアセンサ 16に結像する。そのため、エリアセンサ 16のサイズを小さくすること ができ、エリアセンサ 16の選択の自由度とレイアウト設計の自由度とを増すことができ る。
[0063] さらに、この場合、図 7に示すように、ディスプレイ 15の画像表示面 15aから左右(あ るいは上下等)両側にそれぞれ外れた位置に、画像表示面 15aおよびレンズアレイ ユニット 12に対して略 90° の角度を為して配設された 2個のエリアセンサ 16と、画像 表示面 15aおよびレンズアレイユニット 12の間に位置して、これらに対して略 45° の 角度を為すと共に、互いに直行する角度(略「V」の字状)に設けられた 2個のハーフ ミラー 17と、を備えた構成であってもよい。すなわち、前方空間 3を画像表示面 15a に向力つて縦方向に区分した 2個の仮想分割前方空間 3aに、 2個のハーフミラー 17 をそれぞれ対応させると共に、 2個のエリアセンサ 16をそれぞれ対応させている。
[0064] これによれば、上記のような配置で、各仮想分割前方空間 3aに対応してエリアセン サ 16とハーフミラー 17とを設けることで、 2個のエリアセンサ 16を画像表示面 15aか ら外れた位置に配設すると共にハーフミラー 17の小型化を図ることができ、画像表示 面 15aとレンズアレイユニット 12との間の設置スペース(各合成レンズ 28の作動距離 )が短い場合や、画像表示装置 10自体の奥行きをコンパクトにしたい場合等に対応 可能となる。また、各エリアセンサ 16を、各仮想分割前方空間 3aに対応した面積とす ることができ、小型化を計ることができる。
[0065] なお、ここまで、被検出物 5の認識手段として、エリアセンサ 16 (表示部 11)を用い たものについて説明した力 位置検出の精度を必要としない場合には、このようなェ リアセンサに代えて、コストダウンを図るベぐ簡易な光センサ 19を用いてもよい(図 8 参照)。この場合も、複数の仮想分割前方空間 3aに対応して複数の光センサ 19を設 けることで、いずれの仮想分割前方空間 3aに被検出物 5が進入した力検出すること ができ、およその進入位置を検出することができる。ここでは、前方空間 3を縦方向に 2区分したが、区分数は任意であって、例えば、前方空間 3を 9区分 (縦 3 X横 3)し、 これに対応して 9個の光センサ 19を設けてもょ 、。
さらに、上述したように、光センサ 19を、反射光 (またはその色彩)を検出可能な構 成とすれば、実像 2の位置(二次元画像 1の表示位置)と関連させて、被検出物 5の 進入位置の検出を行うことができる。
[0066] 以上のように、本発明を適用した画像表示装置 10によれば、目視者に位置検出の 仕掛けの存在を感じさせることなぐコンパクトな構成により、実像 2を形成する前方空 間 3に進入した被検出物 5の進入位置を検出することができる。
[0067] なお、以上の実施形態では、立体画像表示の方式として、レンズアレイユニット 12 により前方空間 3に二次元画像 1の実像 2を結像させるものについて説明した力 他 の方式であってもよぐ例えば、ノ ララックスノリア方式やレンチキユラ方式のように、 両眼視差により虚像を立体視させるものでもよい。もっとも、上述した本実施形態や、 後述するインテグラルフォトグラフィ方式のように、実像を立体視させるものが好ましく 、目視者は、その実像を実際に触っているかのような感覚を得ることができ、臨場感 を高めることができる。特に、図 9に示すように、インテグラルフォトグラフィ方式の IPレ ンズアレイ 61によれば、上記のレンズアレイユニット 12と異なり、実像 6として実際に 奥行きを持つ立体像(図示では雲)を形成するため、より臨場感を高めることができる 。さらに、この場合、表示部 11はインプットディスプレイであることが好ましい。
また、二次元画像 1を立体視させる光学パネルとしては、それぞれの立体画像表示 の方式に対応して、レンズアレイユニット 12や IPレンズアレイ 61だけでなぐレンチキ ユラレンズ、バリア、スリット、ピンホールアレイ等が考えられる。
[0068] さらに、レンズアレイユニット 12を用いた本実施形態では、上述したように、被検出 物 5の等倍正立像を画像表示面 15a (エリアセンサ 16)に結像するため、他の方式に 比べて、画像処理が複雑となることがない。一方、インテグラルフォトグラフィ方式の 本実施形態や、本実施形態以外の立体画像表示方式では、立体視を可能とする光 学パネルの構造上、被検出物 5をそのままの形状で画像認識することができな 、た め、画像処理が複雑となってしまう。ただし、上述したように複雑な画像処理を行うこ とにより、三次元的な検出も可能になる。
また、以上の実施形態を適宜組み合わせたり、または適宜選択することにより、より 高度な位置検出や、より正確な位置検出も可能であるし、逆に装置の簡略化や小型 ィ匕、低コスト化も可能であり、必要に応じて様々な位置検出を実現することができる。

Claims

請求の範囲
[1] 二次元画像を表示する表示手段と、
前記表示手段の画像表示面の前方に配設され、自身の前方空間に前記二次元画 像に基づく立体視認画像を形成する光学パネルと、
前記光学パネルの後方に配設され、前記前方空間に進入した被検出物を、前記 光学パネルを介して光学的に認識する認識手段と、
前記認識手段による認識結果に基づいて、前記被検出物の前記前方空間におけ る進入位置を検出する位置検出手段と、
を備えたことを特徴とする画像表示装置。
[2] 二次元画像を表示する表示手段と、
前記表示手段の画像表示面の前方に配設され、自身の前方空間に前記二次元画 像に基づく立体視認画像を形成する光学パネルと、
前記二次元画像の画像光が、前記前方空間に進入した被検出物により反射した反 射光を認識する認識手段と、
前記認識手段による認識結果に基づいて、前記被検出物の前記前方空間におけ る進入位置を検出する位置検出手段と、
を備えたことを特徴とする画像表示装置。
[3] 前記認識手段は、前記二次元画像の画像光が前記被検出物により反射した反射 光を認識し、
前記位置検出手段は、前記反射光と前記二次元画像の表示位置とに基づいて、 前記被検出物の進入位置を検出することを特徴とする請求項 1または 2に記載の画 像表示装置。
[4] 前記表示手段は、色違!ヽ複数の前記二次元画像を表示可能に構成され、
前記認識手段は、前記反射光の色彩を識別可能に構成され、
前記位置検出手段は、前記反射光の色彩と前記二次元画像の表示位置とに基づ いて、前記被検出物の進入位置を検出することを特徴とする請求項 3に記載の画像 表示装置。
[5] 前記認識手段は、前記光学パネルを介して前記前方空間を撮像するエリアセンサ であり、
前記位置検出手段は、前記エリアセンサに取り込まれた撮像画像に基づいて、前 記被検出物の進入位置を検出することを特徴とする請求項 1または 2に記載の画像 表示装置。
[6] 前記表示手段は、前記エリアセンサを内蔵していることを特徴とする請求項 5に記 載の画像表示装置。
[7] 前記位置検出手段は、前記撮像画像における前記被検出物の位置と、前記撮像 画像における前記被検出物のフォーカス評価要素とに基づいて、前記被検出物の 三次元的な進入位置を検出することを特徴とする請求項 5に記載の画像表示装置。
[8] 前記認識手段は、前記画像表示面から外れた位置に配設され、
前記画像表示面と前記光学パネルとの間に配設され、前記画像表示面からの光を 前記光学パネルに導くと共に、前記光学パネルからの光を前記認識手段に導く導光 手段を、さらに備えたことを特徴とする請求項 1または 2に記載の画像表示装置。
[9] 前記認識手段は、前記前方空間を前記画像表示面に向かって縦および Zまたは 横に区分した複数の仮想分割前方空間に対応して、複数個設けられていることを特 徴とする請求項 1または 2に記載の画像表示装置。
[10] 前記光学パネルからの光を前記認識手段に対して集光する集光手段を、さらに備 えたことを特徴とする請求項 1または 2に記載の画像表示装置。
[11] 前記位置検出手段による検出結果と、前記画像表示面に表示される二次元画像 の変化とを関連付ける制御テーブルに基づ 、て、前記二次元画像を制御する画像 制御部を、さらに備えたことを特徴とする請求項 1または 2に記載の画像表示装置。
[12] 前記光学パネルは、凸レンズアレイ力 構成され、
前記立体視認画像は、前記凸レンズアレイにより前記前方空間に結像した前記二 次元画像の実像であることを特徴とする請求項 1または 2に記載の画像表示装置。
PCT/JP2006/310557 2005-07-25 2006-05-26 画像表示装置 WO2007013215A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE602006021184T DE602006021184D1 (de) 2005-07-25 2006-05-26 Bildanzeigeeinrichtung
JP2007528357A JP4579295B2 (ja) 2005-07-25 2006-05-26 画像表示装置
EP06746886A EP1909255B1 (en) 2005-07-25 2006-05-26 Image display device
US11/996,630 US8243125B2 (en) 2005-07-25 2006-05-26 Image display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-213549 2005-07-25
JP2005213549 2005-07-25

Publications (1)

Publication Number Publication Date
WO2007013215A1 true WO2007013215A1 (ja) 2007-02-01

Family

ID=37683121

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/310557 WO2007013215A1 (ja) 2005-07-25 2006-05-26 画像表示装置

Country Status (5)

Country Link
US (1) US8243125B2 (ja)
EP (1) EP1909255B1 (ja)
JP (1) JP4579295B2 (ja)
DE (1) DE602006021184D1 (ja)
WO (1) WO2007013215A1 (ja)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008123500A1 (ja) * 2007-03-30 2008-10-16 National Institute Of Information And Communications Technology 空中映像インタラクション装置及びそのプログラム
WO2009025034A1 (ja) * 2007-08-22 2009-02-26 Pioneer Corporation 画像表示装置
WO2009044437A1 (ja) * 2007-10-01 2009-04-09 Pioneer Corporation 画像表示装置
FR2928468A1 (fr) * 2008-03-04 2009-09-11 Gwenole Bocquet Dispositif pour une interaction non tactile avec une image ne reposant sur aucun support
JP2010263599A (ja) * 2009-05-06 2010-11-18 J Touch Corp 立体映像の表示とタッチコントロール機能を具えたデジタル映像キャプチャ装置
JP2011013778A (ja) * 2009-06-30 2011-01-20 Sony Corp 立体画像表示装置、物体近接検出装置および電子機器
WO2011033816A1 (ja) * 2009-09-18 2011-03-24 シャープ株式会社 表示装置
JP2011090605A (ja) * 2009-10-26 2011-05-06 Seiko Epson Corp 光学式位置検出装置および位置検出機能付き表示装置
JP2011257820A (ja) * 2010-06-07 2011-12-22 Sony Corp 情報表示装置および表示画像制御方法
WO2012133279A1 (ja) * 2011-03-30 2012-10-04 シャープ株式会社 光学システム
JP2013033344A (ja) * 2011-08-01 2013-02-14 Yazaki Corp 表示装置
WO2013161498A1 (ja) * 2012-04-27 2013-10-31 日東電工株式会社 表示入力装置
WO2014013898A1 (ja) * 2012-07-19 2014-01-23 日東電工株式会社 表示入力装置
JP5509391B1 (ja) * 2013-06-07 2014-06-04 株式会社アスカネット 再生画像の指示位置を非接触で検知する方法及び装置
JP2015531906A (ja) * 2012-07-12 2015-11-05 エレクトロ サイエンティフィック インダストリーズ インコーポレーテッド 双方向制御システム、その製造方法、及びそれを組み込んだデバイス
JP2016130832A (ja) * 2015-01-13 2016-07-21 オムロン株式会社 光デバイス及び操作入力装置
JP2016136381A (ja) * 2015-01-15 2016-07-28 株式会社アスカネット 非接触入力装置及び方法
JP2017084136A (ja) * 2015-10-28 2017-05-18 アルパイン株式会社 ジェスチャ入力装置
JP2020517978A (ja) * 2017-11-10 2020-06-18 ミスアプライド サイエンシーズ, インコーポレイテッドMisapplied Sciences, Inc. 精密マルチビューディスプレイ
CN112262451A (zh) * 2018-07-10 2021-01-22 欧姆龙株式会社 输入装置
CN112262451B (zh) * 2018-07-10 2024-04-23 欧姆龙株式会社 输入装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2223174A4 (en) 2007-11-27 2014-05-28 3M Innovative Properties Co METHOD FOR FORMING SHEET MATERIALS WITH A COMPOSITE IMAGE SURFING AND MASTER TOOLING
CN101796372B (zh) * 2008-07-11 2012-11-14 松下电器产业株式会社 三维形状测量装置、集成电路及方法
US9268146B2 (en) 2009-03-10 2016-02-23 3M Innovative Properties Company User interface with a composite image that floats
KR101371772B1 (ko) * 2013-01-28 2014-03-10 가톨릭대학교 산학협력단 입체시 검안 장치
EP3007045B1 (en) * 2013-06-07 2021-11-24 Asukanet Company, Ltd. Method and device for non-contact sensing of reproduced image pointing location
KR101956659B1 (ko) * 2015-02-16 2019-03-11 가부시키가이샤 아스카넷토 비접촉 입력 장치 및 방법
DE102016202697B4 (de) 2016-02-22 2021-06-17 Volkswagen Aktiengesellschaft Anzeigevorrichtung mit einer Anzeigefläche zur Ausgabe einer Anzeige
US10359640B2 (en) 2016-03-08 2019-07-23 Microsoft Technology Licensing, Llc Floating image display
US9491444B2 (en) * 2016-05-27 2016-11-08 Kedrick F. Brown Auto-multiscopic 3D display system
US9762892B2 (en) 2016-12-11 2017-09-12 Lightscope Media, Llc Auto-multiscopic 3D display and camera system
US9955144B2 (en) 2016-12-11 2018-04-24 Lightscope Media, Llc 3D display system
CA2959820A1 (en) * 2017-03-03 2018-09-03 Evolution Optiks Limited Vision correction system and method, and light field display and barrier therefor
JP7040041B2 (ja) * 2018-01-23 2022-03-23 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
JP7135324B2 (ja) * 2018-01-23 2022-09-13 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348404A (ja) * 1993-06-03 1994-12-22 Bitsugu Haato:Kk データの入力方法及び装置
JPH0916312A (ja) * 1995-06-28 1997-01-17 Nomura Kogeisha:Kk 立体画像表示装置用入力装置
JPH0955152A (ja) * 1995-08-11 1997-02-25 Tietech Co Ltd タッチレスパネルスイッチにおける物体検出手段
JPH1167030A (ja) * 1997-08-08 1999-03-09 Tietech Co Ltd タッチレススイッチ
JP2005141102A (ja) 2003-11-07 2005-06-02 Pioneer Electronic Corp 立体的二次元画像表示装置及び方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2317771A (en) * 1996-09-27 1998-04-01 Sharp Kk Observer tracking directional display
JP3980242B2 (ja) * 2000-03-10 2007-09-26 パイオニア株式会社 立体的2次元画像表示装置及び画像表示方法
EP1602243A2 (de) * 2003-03-12 2005-12-07 Siegbert Prof. Dr. Hentschke Autostereoskopisches wiedergabesystem für 3d darstellungen
WO2004084560A1 (ja) * 2003-03-20 2004-09-30 Seijiro Tomita 立体映像撮影表示システム
JP4284159B2 (ja) * 2003-11-12 2009-06-24 パイオニア株式会社 立体的二次元画像表示装置及び画像表示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348404A (ja) * 1993-06-03 1994-12-22 Bitsugu Haato:Kk データの入力方法及び装置
JPH0916312A (ja) * 1995-06-28 1997-01-17 Nomura Kogeisha:Kk 立体画像表示装置用入力装置
JPH0955152A (ja) * 1995-08-11 1997-02-25 Tietech Co Ltd タッチレスパネルスイッチにおける物体検出手段
JPH1167030A (ja) * 1997-08-08 1999-03-09 Tietech Co Ltd タッチレススイッチ
JP2005141102A (ja) 2003-11-07 2005-06-02 Pioneer Electronic Corp 立体的二次元画像表示装置及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1909255A4

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008123500A1 (ja) * 2007-03-30 2008-10-16 National Institute Of Information And Communications Technology 空中映像インタラクション装置及びそのプログラム
EP2144448A1 (en) * 2007-03-30 2010-01-13 National Institute Of Information And Communication Technology Mid-air video interaction device and its program
EP2144448A4 (en) * 2007-03-30 2011-12-21 Nat Inst Inf & Comm Tech VIDEO INTERACTION DEVICE IN FLIGHT AND ITS PROGRAM
JP5212991B2 (ja) * 2007-03-30 2013-06-19 独立行政法人情報通信研究機構 空中映像インタラクション装置及びそのプログラム
US8985774B2 (en) 2007-03-30 2015-03-24 National Institute Of Information And Communication Technology Floating image interaction device and its program
JPWO2009025034A1 (ja) * 2007-08-22 2010-11-18 パイオニア株式会社 画像表示装置
WO2009025034A1 (ja) * 2007-08-22 2009-02-26 Pioneer Corporation 画像表示装置
US8299980B2 (en) 2007-08-22 2012-10-30 Pioneer Corporation Image display device
WO2009044437A1 (ja) * 2007-10-01 2009-04-09 Pioneer Corporation 画像表示装置
US8416268B2 (en) 2007-10-01 2013-04-09 Pioneer Corporation Image display device
JP5087632B2 (ja) * 2007-10-01 2012-12-05 パイオニア株式会社 画像表示装置
WO2009112722A3 (fr) * 2008-03-04 2009-12-23 Bocquet Gwenole Dispositif interactif hybride oled lcd avec plaques microstructurees
WO2009112722A2 (fr) * 2008-03-04 2009-09-17 Bocquet Gwenole Dispositif interactif hybride oled lcd avec plaques microstructurees
FR2928468A1 (fr) * 2008-03-04 2009-09-11 Gwenole Bocquet Dispositif pour une interaction non tactile avec une image ne reposant sur aucun support
JP2010263599A (ja) * 2009-05-06 2010-11-18 J Touch Corp 立体映像の表示とタッチコントロール機能を具えたデジタル映像キャプチャ装置
JP2011013778A (ja) * 2009-06-30 2011-01-20 Sony Corp 立体画像表示装置、物体近接検出装置および電子機器
WO2011033816A1 (ja) * 2009-09-18 2011-03-24 シャープ株式会社 表示装置
JP2011090605A (ja) * 2009-10-26 2011-05-06 Seiko Epson Corp 光学式位置検出装置および位置検出機能付き表示装置
JP2011257820A (ja) * 2010-06-07 2011-12-22 Sony Corp 情報表示装置および表示画像制御方法
WO2012133279A1 (ja) * 2011-03-30 2012-10-04 シャープ株式会社 光学システム
JP2013033344A (ja) * 2011-08-01 2013-02-14 Yazaki Corp 表示装置
WO2013161498A1 (ja) * 2012-04-27 2013-10-31 日東電工株式会社 表示入力装置
JP2013242850A (ja) * 2012-04-27 2013-12-05 Nitto Denko Corp 表示入力装置
JP2015531906A (ja) * 2012-07-12 2015-11-05 エレクトロ サイエンティフィック インダストリーズ インコーポレーテッド 双方向制御システム、その製造方法、及びそれを組み込んだデバイス
JP2014021305A (ja) * 2012-07-19 2014-02-03 Nitto Denko Corp 表示入力装置
WO2014013898A1 (ja) * 2012-07-19 2014-01-23 日東電工株式会社 表示入力装置
JP5509391B1 (ja) * 2013-06-07 2014-06-04 株式会社アスカネット 再生画像の指示位置を非接触で検知する方法及び装置
JP2016130832A (ja) * 2015-01-13 2016-07-21 オムロン株式会社 光デバイス及び操作入力装置
US10338749B2 (en) 2015-01-13 2019-07-02 Omron Corporation Optical device and operation input apparatus
JP2019053749A (ja) * 2015-01-15 2019-04-04 株式会社アスカネット ディスプレイ及びこれを用いた非接触入力装置
JP2016136381A (ja) * 2015-01-15 2016-07-28 株式会社アスカネット 非接触入力装置及び方法
JP2017084136A (ja) * 2015-10-28 2017-05-18 アルパイン株式会社 ジェスチャ入力装置
JP2020517978A (ja) * 2017-11-10 2020-06-18 ミスアプライド サイエンシーズ, インコーポレイテッドMisapplied Sciences, Inc. 精密マルチビューディスプレイ
US11483542B2 (en) 2017-11-10 2022-10-25 Misapplied Sciences, Inc. Precision multi-view display
US11553172B2 (en) 2017-11-10 2023-01-10 Misapplied Sciences, Inc. Precision multi-view display
CN112262451A (zh) * 2018-07-10 2021-01-22 欧姆龙株式会社 输入装置
CN112262451B (zh) * 2018-07-10 2024-04-23 欧姆龙株式会社 输入装置

Also Published As

Publication number Publication date
EP1909255A4 (en) 2010-01-20
DE602006021184D1 (de) 2011-05-19
EP1909255A1 (en) 2008-04-09
EP1909255B1 (en) 2011-04-06
US20100283838A1 (en) 2010-11-11
JPWO2007013215A1 (ja) 2009-02-05
US8243125B2 (en) 2012-08-14
JP4579295B2 (ja) 2010-11-10

Similar Documents

Publication Publication Date Title
WO2007013215A1 (ja) 画像表示装置
CN109564495B (zh) 显示装置、存储介质、显示方法及控制装置
JP4807708B2 (ja) 画像表示装置
EP2063347B1 (en) Projector and method for projecting images
KR101092909B1 (ko) 제스쳐 인터렉티브 홀로그램 출력장치 및 방법
US20080218515A1 (en) Three-dimensional-image display system and displaying method
WO2018161542A1 (zh) 一种3d触控交互装置、其触控交互方法及显示装置
JPH113170A (ja) 光デジタイザ
US20110037682A1 (en) Image display device
WO2013161498A1 (ja) 表示入力装置
US10990062B2 (en) Display system
WO2013035553A1 (ja) ユーザインタフェース表示装置
KR102218967B1 (ko) 3차원 공간터치 디스플레이 시스템 및 그 제어방법
WO2022138297A1 (ja) 空間浮遊映像表示装置
US10429942B2 (en) Gesture input device
US8094184B2 (en) Stereoscopic two-dimensional display device
KR101982396B1 (ko) 공간 영상 입력시스템
JP4664690B2 (ja) 立体表示装置及び立体表示方法
CN101609363B (zh) 输入装置及输入方法
WO2022137940A1 (ja) 空間浮遊映像表示装置
KR101464426B1 (ko) 3차원 영상의 겹침 현상을 제거하는 방법
JP2022097901A (ja) 空間浮遊映像表示装置
JP5549444B2 (ja) 表示装置
JP2014233005A (ja) 画像表示装置
KR20180092570A (ko) 3차원 가상 버튼을 이용한 포인팅 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2007528357

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2006746886

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11996630

Country of ref document: US