WO2008041315A1 - Dispositif d'affichage d'images - Google Patents

Dispositif d'affichage d'images Download PDF

Info

Publication number
WO2008041315A1
WO2008041315A1 PCT/JP2006/319707 JP2006319707W WO2008041315A1 WO 2008041315 A1 WO2008041315 A1 WO 2008041315A1 JP 2006319707 W JP2006319707 W JP 2006319707W WO 2008041315 A1 WO2008041315 A1 WO 2008041315A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
detected
attribute
detected object
display device
Prior art date
Application number
PCT/JP2006/319707
Other languages
English (en)
French (fr)
Inventor
Isao Tomisawa
Masaru Ishikawa
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Priority to PCT/JP2006/319707 priority Critical patent/WO2008041315A1/ja
Priority to JP2008537372A priority patent/JP4939543B2/ja
Priority to US12/443,594 priority patent/US20100134410A1/en
Publication of WO2008041315A1 publication Critical patent/WO2008041315A1/ja

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays

Definitions

  • the present invention relates to a technical field of an image display device that displays a two-dimensional image stereoscopically based on, for example, a 3D (Dimension) floating vision system.
  • This type of stereoscopic two-dimensional image can improve the sense of reality, visibility, amusement, and the like in upholstery equipment, sales promotion displays, communication terminal devices, game machines, and the like. Therefore, various methods for displaying a stereoscopic two-dimensional image have been proposed. For example, a polarization method has been proposed in which a viewer wears polarized glasses and visually observes left and right parallax images based on different polarization states. However, with this method, it may be troublesome for the viewer to wear polarized glasses.
  • a lenticular lens method has been proposed as a stereoscopic image display method without using, for example, polarized glasses (see, for example, Patent Document 1).
  • this method three-dimensional expression and moving picture expression are realized by displaying a plurality of screens on a single screen and showing the plurality of screens through a translucent screen in which semi-cylindrical lenses of a certain width are connected in the horizontal direction. .
  • a 3D floating vision system According to this method, a two-dimensional image can be displayed with a relatively simple configuration by forming a two-dimensional image as a real image by a microlens array.
  • a technique has been proposed that uses a position detection sensor that realizes an interactive device in this method, and changes the stereoscopic two-dimensional image displayed on the imaging plane in accordance with the output signal. (For example, see Patent Document 2).
  • Patent Document 1 Japanese Patent Laid-Open No. 10-221644
  • Patent Document 2 JP-A-2005-141102
  • Patent Document 1 may have the following cost problems. That is, the lenticular lens method described above requires a parallax image corresponding to both eyes of the viewer from the imaging stage in order to make a plurality of screens latent images on one screen. In order to supply this image, many operations such as computer image processing, lenticular lens design, and an accurate combination of the lens and the image are necessary, which increases the cost.
  • Patent Document 2 the cost problem related to Patent Document 1 can be solved, and a certain degree of effect and interactivity are ensured, but these effects And there is still room for improvement in interactivity.
  • toy guns, knives, forks, dryers, brushes, and the like actually have different attributes (shape, application, function, etc.).
  • shape shape, application, function, etc.
  • the present invention has been made in view of the above-described problems, for example, to display a stereoscopic two-dimensional image relatively easily, and to improve the rendering effect and interactivity. It is an object of the present invention to provide an image display device capable of performing the above.
  • an image display device is arranged in a display unit that displays an image on a screen, an optical path of display light that constitutes the image, and An image transmission means for transmitting the display light constituting the image so as to display a real image as a floating image on an imaging plane located in a space opposite to the screen; and in a real space portion including the space Attribute specifying means for specifying the attribute of the object to be detected, and the display means so that the floating image changes to a form pre-associated with the attribute of the specified object to be detected.
  • Control means for controlling.
  • an image is displayed on the screen by display means such as a color liquid crystal display device.
  • image transmission means force including a microlens array is arranged in the optical path of the display light constituting the image.
  • the display light constituting the image is transmitted by the image transmission means, and the real image is displayed as a floating image on the imaging plane located in the space opposite to the screen.
  • the “floating image” is an image that appears to the user at the observation position (that is, within the range of the viewing angle) as if the force is floating in the air and is a real image.
  • an image display method such as 3D floating vision (registered trademark of the present applicant) can be considered.
  • the attribute of the detected object located in the real space including the above-described space is specified by the attribute specifying means.
  • the “detected object” referred to here is typically a tool having some attribute, and includes, for example, a toy gun or a fork.
  • the “attribute” of the detected object is a unique property or characteristic of the detected object itself, and is a comprehensive concept including, for example, a shape, a function, or an idea.
  • Such an attribute of the object to be detected is specified by, for example, being detected by an attribute detection means which is an example of an attribute specifying unit as described later.
  • the display means is controlled by a control means including an arithmetic circuit, a recording circuit, and the like so that the floating image changes to a form preliminarily associated with the attribute of the detected object to be detected.
  • a control means including an arithmetic circuit, a recording circuit, and the like so that the floating image changes to a form preliminarily associated with the attribute of the detected object to be detected.
  • Be controlled For example, an attribute of a toy gun that is a tool that “fires” is associated in advance with a form “a character drawn in a floating image is scared”.
  • the form of “the pasta is displayed on the plate drawn in the floating image” is associated in advance with the attribute of the fork, which is a tool for “spinning food”. In this way, the floating image changes into various forms that can be derived by the attribute of the detected object.
  • the attribute specifying unit includes an attribute detection unit that detects the attribute.
  • the attribute of the detected object is detected by the attribute detection means as follows. That is, for example, by attaching an IC tag in which an attribute is recorded in advance to an object to be detected and reading the IC tag electromagnetically with an IC tag reader, the attribute of the object to be detected is detected.
  • the image of the detected object imaged by an imaging device such as a CCD camera and the image of the detected object candidate stored in the database are pattern-recognized and recorded in advance in association with the detected object candidate.
  • the attributes of the object to be detected are detected by reading the attributes that are being read.
  • the image display device further comprises position detection means for detecting where the position of the detected object is in the real space portion, and the control means includes: The display means is controlled so that the floating image changes to a form preliminarily associated with the detected position of the detected object in addition to the specified attribute.
  • the reality in addition to the effects and interactivity, the reality can be remarkably improved. That is, first, the force where the position of the detected object is in the real space is detected by a position detecting means such as an XYZ sensor, a CCD image sensor, an infrared sensor or an ultrasonic sensor.
  • the “position of the detected object” mentioned here includes not only the planar position of the detected object but also the spatial position. For example, when the detected object intersects the imaging plane or the plane before and after the imaging plane, the plane area occupied by the detected object in the imaging plane or the plane before and after the imaging plane may be detected.
  • the display means controls so that the floating image changes to a form associated in advance with the position of the detected object in addition to the attribute of the detected object specified as described above. Controlled by means. For example, if the “toy ball” penetrates the “target floating image”, the “target floating image” is associated with the “toy ball” attribute in advance.
  • the display means is controlled by the control means so as to change to “floating image”. In this way, the floating image changes dynamically according to the position of the object to be detected, so that it is possible to improve the effect and interactivity. Power! In this case, the “ballistic hole” is adjusted to a position where the “toy ball” penetrates at an appropriate position, so that the reality can be remarkably improved.
  • a memory for storing a locus of the position of the detected object that changes.
  • the control means changes to a form in which the floating image is previously associated with the stored locus of the detected object in addition to the specified attribute.
  • the display means may be controlled.
  • the reality in addition to the effects and interactivity, the reality can be remarkably improved. That is, first, when the position of the detected object to be detected changes over time, the trajectory of the position of the detected object to be detected is stored, for example, by a storage means that also has a logic operation circuit power centered on the memory, for example. Memorized every few hundred milliseconds.
  • the “trajectory of the position of the object to be detected” referred to here includes not only the planar position of the object to be detected but also a spatial trajectory.
  • a trajectory that satisfies a predetermined condition such as a trajectory when an object to be detected intersects the imaging plane or a plane before and after the imaging plane, may be indicated.
  • the floating image is displayed in such a manner that the floating image changes in advance to the form associated with the locus of the position of the detected object in addition to the attribute of the detected object specified as described above.
  • Means are controlled by control means. For example, if the “apple floating image” is cut up and down with a knife while crossing the image plane, the locus is stored. Then, the display means is controlled by the control means so that the “floating image of the apple” is previously associated with the attribute of the knife and changes to the “floating image of the apple with the cut face”. At this time, the “cutting edge” is adjusted to a position where the knife passes through at an appropriate position. Since the trajectory is also memorized, the reality does not disappear even if the position of the knife changes, so that the reality can be remarkably improved.
  • the locus of this position it is determined where the position of the detected object changes in the real space portion after the time when the position of the detected object is detected.
  • the control means prefetches the image according to a form in which the display means is associated with the predicted position of the detected object in addition to the specified attribute.
  • the display means may be controlled.
  • the locus of the position of the detected object to be detected is stored by the storage means, for example, every several hundred milliseconds. Then, for example, the position of the detected object is detected after the time point when the position of the detected object is detected by the predicting means that also has an arithmetic circuit power (typically, at the latest detection in detecting the position multiple times) Where the real space portion changes is predicted based on the stored locus of the detected object. For example, the subsequent trajectory can be predicted by specifying the velocity vector based on the trajectory of the position of the detected object stored over time.
  • the display means prefetches an image according to a form that is associated in advance with the position of the object to be predicted in addition to the attribute of the object to be detected, and the display means controls the means. Controlled by. In this way, it is possible to eliminate the response delay by predicting the movement of the position from the trajectory as well as the current position of the object to be detected and prefetching the image in advance according to the prediction result. As a result, even if the object to be detected is moved, if the floating image changes later or changes after one tempo, the discomfort is reduced, which is very useful in practice.
  • the image display device further includes state detection means for detecting the state of the detected object, and the control means adds the floating image to the specified attribute. Then, the display means is controlled so as to change to a V, which is associated with at least the state of the detected object to be detected in advance.
  • the floating image changes depending on the state of the object to be detected or its change, so that the effect and interactivity are further improved. That is, first, the state of the detected object is detected by the state detection means.
  • the “state of the object to be detected” here refers to a certain state of the object to be detected qualitatively or quantitatively. For example, a discontinuous two-stage state such as switching on / off. Or a continuous multi-stage state such as low, medium and high in volume.
  • the display means is controlled by the control means so as to change to a form that is associated with at least the state of the detected object in advance.
  • the toy gun switch is turned off, it is considered synonymous with firing, and the “target floating image” is associated with the “toy gun” attribute “
  • the display means is controlled by the control means so as to change to “a certain floating image”.
  • the “floating image of a long-haired woman” force is associated with the attribute of “dryer” in advance, and changes to the “floating image of a woman with fluttering hair”. May be.
  • the floating image changes dynamically according to the state of the object to be detected, so that it is possible to further improve the rendering effect and interactivity.
  • the attribute information attached to the detected object and indicating the attribute of the detected object is recorded so as to be readable electromagnetically.
  • the attribute detecting means detects the attribute by reading the recorded attribute information electromagnetically.
  • tag means such as an IC tag or a barcode is attached to an object to be detected.
  • attribute information indicating the attribute of the detected object is recorded so as to be read out electromagnetically.
  • “electromagnetically readable” means that the attribute information recorded in the tag means can be read using electricity, magnetism, or light. Then, for example, attribute information such as an IC tag reader or a bar code reader is read out electromagnetically, and the attribute of the detected object is detected.
  • the above-mentioned attribute information can be read out electromagnetically by irradiating the circuit in the IC tag with electromagnetic waves or optically by recognizing the image of the barcode.
  • the readout form is preferably a non-contact type, but may be a contact type.
  • the attribute information can be read using the tag means, and the effect and interactivity can be improved based on the read attribute information.
  • the position detecting means detects where the position of the tag means attached to the detected object is in the real space portion, The position of the detected object may be detected.
  • a position can be detected in addition to an attribute. So there are two birds with one stone. That is, the position force of the tag means attached to the detected object The position of the real space part is detected by the position detecting means such as an IC tag or a barcode, and this is used to detect the detected object. The position is detected. Specifically, when the electromagnetic wave is irradiated toward the IC tag, the position of the detected object is detected from the response time and the response direction. In this way, the effect of two birds with one stone as described above can be obtained.
  • the position detecting means such as an IC tag or a barcode
  • the direction may be detected by attaching a plurality of tag means to the detected object.
  • the floating image can be changed not only according to the position but also according to the direction, the interactivity of the floating image is further improved.
  • the tag means records state information indicating the state of the detected object in addition to the attribute information so as to be read out electromagnetically, and at least the You may further provide the rewriting means which rewrites status information.
  • a state can be detected in addition to an attribute. So there are two birds with one stone.
  • the tag means in addition to the attributes of the detected object, the tag means also records state information indicating the state of the detected object so that it can be read out electromagnetically. At least the status information is rewritten by a rewriting means such as an IC tag writer or a bar code writer. For example, when the toy gun switch is switched from OFF to ON, the status information recorded on the IC tag is rewritten from OFF to ON.
  • the state information to be rewritten is detected by the state detecting means, and the “target floating image” is changed to the “target floating image with bullet holes” as described above. In this way, the effect of two birds with one stone is obtained as described above, which is very useful in practice.
  • the image transmission means includes a microlens array, and the floating image is displayed as a real image of the image.
  • the image transmission means comprises a microlens array.
  • the “microlens array” here is based on the 3D floating vision system, and integrates one or more lens array halves including a plurality of microconvex lenses arranged in a two-dimensional matrix. Configured. According to such an image transmission means, the floating image is displayed as a real image (preferably an erect image) of the image.
  • the autostereoscopic system can be realized by a method different from that of the image display device according to the present invention, the user can directly touch the floating image without feeling uncomfortable as in the image display device according to the present invention. That is difficult.
  • a parallax barrier method As a typical method for realizing a stereoscopic vision system without using dedicated glasses, there are a parallax barrier method, a lenticular method, and the like as a representative method.
  • the left eye realizes a stereoscopic image by a virtual image generated by showing a left eye image, and the focal position of the observer's eye is different from the position where the floating image is perceived.
  • the focal position of the eye is set on the image display surface.
  • the floating image displayed by the image display device is a real image formed by the microlens array, and the focus position of the eye is at the position of the floating image from the beginning. Even if you bring the object to be detected to the position of the image, you can easily recognize that you are touching it directly without feeling uncomfortable.
  • the display means As described above, according to the image display device of the present invention, the display means, the image transmission hand, Since the stage, the attribute specifying means, and the control means are provided, it is possible to display a stereoscopic two-dimensional image relatively easily, and to improve the effect and interactivity.
  • FIG. 1 is a perspective view showing a basic configuration of an image display device capable of displaying a floating image according to an embodiment.
  • FIG. 2 is an arrow view of the image display apparatus according to the embodiment as seen from AA force in FIG.
  • FIG. 3 is a cross-sectional view schematically showing the structure of an image transmission panel.
  • FIG. 4 is a cross-sectional view schematically showing the structure of the image transmission panel and the orientation of the image (two sheets).
  • FIG. 5 is a cross-sectional view schematically showing the structure of an image transmission panel and the orientation of an image (a: 1 sheet, b: 3 sheets).
  • FIG. 6 is a block diagram conceptually showing the basic structure of an image display apparatus in a first example.
  • FIG. 7 is a flowchart showing a basic operation of the image display apparatus according to the first embodiment.
  • FIG. 8 is a schematic diagram for explaining the basic operation of the image display apparatus according to the first embodiment (a toy gun 120 is a: when it is Zb: when it is).
  • FIG. 9 is a block diagram conceptually showing the basic structure of an image display apparatus in a second example.
  • FIG. 10 is a flowchart showing a basic operation of the image display apparatus according to the second embodiment.
  • FIG. 11 is a perspective view for explaining a state before and after the toy ball passes through the imaging plane in the image display apparatus according to the second embodiment (a: state before passing; b: In the comparative example
  • FIG. 12 is a side view for explaining the state before and after the toy ball passes through the imaging plane in the image display apparatus according to the second embodiment (a: state before passing; b: In the comparative example
  • FIG. 13 is a schematic diagram showing how a fork is inserted into a floating image in the image display apparatus according to the second embodiment (a: perspective view, b: front view showing change of floating image).
  • FIG. 14 is a schematic diagram showing how the floating image is cut with a knife in the image display apparatus according to the second embodiment (a: perspective view, b: front view showing change of floating image).
  • FIG. 15 In the image display apparatus according to the second embodiment, when a floating image is cut with a knife, It is a schematic diagram which shows a mode that the movement of a floating image is prefetched by predicting the movement of a knife (a: path PO
  • FIG. 16 is a block diagram conceptually showing the basic structure of an image display apparatus in a third example.
  • FIG. 17 is a flowchart showing the basic operation of the image display apparatus according to the third embodiment. Explanation of symbols
  • FIG. 1 is a perspective view showing a basic configuration of an image display apparatus capable of displaying a floating image according to the embodiment.
  • FIG. 2 is an arrow view of the image display apparatus according to the embodiment as seen from AA in FIG.
  • the image display device 1 includes a display unit 11 having an image display surface 111 and an image transmission panel 17, and a space on the opposite side to the display unit 11. Floating image 13 is displayed on 15 image planes 21.
  • the display unit 11 corresponds to an example of the “display unit” according to the present invention
  • the image transmission panel 17 corresponds to an example of the “image transmission unit” according to the present invention.
  • the display unit 11 is, for example, a color liquid crystal display (LCD), and includes a color liquid crystal driving circuit (not shown), a backlight illumination unit (not shown), and the like, and displays a two-dimensional image.
  • the color liquid crystal drive circuit outputs a display drive signal based on an externally input video signal.
  • the backlight illumination unit illuminates the image display surface 111 from behind when the display unit 11 is not self-luminous.
  • the image display surface 111 is Based on the output display drive signal, for example, the direction of the liquid crystal molecules is changed to increase or decrease the light transmittance, thereby displaying a two-dimensional image.
  • the displayed two-dimensional image is finally displayed as a floating image, it is preferable that the displayed two-dimensional image is three-dimensionally depicted with a sense of depth.
  • the display unit 11 instead of a color liquid crystal display (LCD), various display devices such as a cathode ray tube, a plasma display, or an organic-electric-luminescence display may be used.
  • the image transmission panel 17 is configured by, for example, a microlens array (details will be described later with reference to FIG. 3), and is spaced apart from the display unit 11. Then, the image transmission panel 17 floats by imaging light emitted from the image display surface 111 of the display unit 11 (that is, display light constituting the two-dimensional image) on the imaging surface 21 of the space 15. Display image 13.
  • the imaging plane 21 is a plane virtually set in space according to the working distance of the microlens array, and is not an entity.
  • the floating image 13 formed on the imaging surface 21 is displayed floating in the space 15, so that it appears to the observer that a three-dimensional image is also reflected by the observer.
  • the floating image 13 is recognized by the observer as a pseudo stereoscopic image.
  • the 2D image displayed on the display unit 11 should have a sense of depth in advance, or the background image should be black on the image display surface 111 and the contrast should be emphasized. ,.
  • the floating image 13 is displayed on the imaging surface 21 so that the stereoscopic image is projected with the applied force. Is possible.
  • FIG. 3 is a cross-sectional view schematically showing the structure of the image transmission panel.
  • Fig. 4 is a cross-sectional view schematically showing the structure of the image transmission panel and the orientation of the image (two sheets).
  • FIG. 5 is a cross-sectional view schematically showing the structure of the image transmission panel and the orientation of the image (a: 1 sheet, b: 3 sheets).
  • the image transmission panel 17 includes a microlens array 25.
  • the microlens array 25 is configured, for example, by integrating two lens array halves 251 and 252.
  • the lens array halves 251 and 252 each have a plurality of micro-convex lenses 23 arranged in a two-dimensional matrix on both surfaces of a transparent substrate 24 made of glass or resin having excellent light transmittance.
  • each micro-convex lens is arranged so as to coincide with the optical axis 1S of the micro-convex lens 231 arranged on one surface of the transparent substrate 24 and the optical axis of the micro-convex lens 232 at the opposite position of the other surface.
  • the lens array halves are overlapped so that the optical axes of the adjacent micro-convex lenses 232.231 between the lens array halves 251 and 252 also coincide.
  • the image transmission panel 17 is disposed so as to face the image display surface 111 of the display unit 11 at a position separated by a predetermined separation distance (operating distance of the microlens array 25).
  • the image transmission panel 17 transmits the display light of the two-dimensional image emitted from the image display surface 111 of the display unit 11 to the space 15 on the side opposite to the display unit 11, and the image transmission panel 1 Form an image on an image plane 21 that is a predetermined distance away from 7.
  • the image transmission panel 17 can display the two-dimensional image displayed by the display unit 11 as the floating image 13.
  • the two-dimensional image displayed by the display unit 11 is flipped upside down once by the lens array half 251 and turned upside down again by the lens array half 252. Let it emit. Thereby, the image transmission panel 17 can display an erect image of the two-dimensional image as the floating image 13.
  • the configuration of the microlens array 25 is limited to one in which the lens array halves 251 and 252 are integrated in a pair.
  • it may be composed of one sheet as shown in FIG. 5 (a), or may be composed of two or more sheets as shown in FIG. 5 (b)! /.
  • the image display device 1 can suitably display the floating image 13 as an erect image, for example.
  • FIG. 6 is a block diagram conceptually showing the basic structure of the image display apparatus in the first example.
  • the image display device 1 includes a display unit 11, an image transmission panel 17, an audio output unit 31, an audio drive unit 32, and an attribute detection unit 60. And a control device 100.
  • the attribute detection unit 60 corresponds to an example of the “attribute specifying unit” according to the present invention
  • the control device 100 corresponds to an example of the “control unit” according to the present invention.
  • the display unit 11 is a color liquid crystal display device, for example, and includes an image display surface 111 and a display driving unit 112.
  • the display driving unit 112 outputs a display driving signal based on the video signal input from the control device 100 and displays a two-dimensional image of a moving image or a still image on the image display surface 111.
  • the image transmission panel 17 is disposed in the optical path of the display light that forms the two-dimensional image displayed on the screen of the display unit 11, and this two-dimensional image is displayed.
  • the display light of the display unit 11 is transmitted so that the real image (that is, the floating image) is displayed on the imaging surface 21 located in the space opposite to the screen of the display unit 11.
  • 3D image display or 3D image display by the 3D floating vision method is performed.
  • a real image appears to float on the imaging surface 21 on the near side of the image transmission panel 17.
  • the audio output unit 31 is, for example, a speaker, and generates an audible sound by converting the music signal input from the audio drive unit 32 into mechanical vibration.
  • the attribute detection unit 60 is an image recognition device, an IC tag reader, or the like, and detects an attribute of an object to be detected that exists within a detectable range (for example, several centimeters to several tens of centimeters).
  • the detected object here is, for example, a toy gun 120, fork 122, knife 123, lipstick 124, dryer 125, or brush 126, and has a unique attribute (for example, shape, function, idea, etc.) A typical one is preferred.
  • the attribute detection unit 60 detects attributes unique to these objects to be detected by various methods.
  • the attribute detection unit 60 includes an image sensor such as a CCD camera
  • the captured image of the object to be detected is collated with an image of a tool or the like that is stored in the image database together with the attribute in advance.
  • Attributes may be detected. Especially this Such attributes are easily detected by limiting the number of candidates that can be detected in advance.
  • the attribute detection unit 60 is an IC tag reader, as shown in FIG. 6, a unique attribute identification IC tag 50 to 56 is attached to each detected object, and this IC tag is attached. The attribute may be detected by reading.
  • the “IC tag” is a general term for a small information chip having, for example, several micron force and several millimeters square, and corresponds to an example of “tag means” according to the present invention.
  • this IC tag circuit a very small amount of electric power is generated by the radio waves emitted by the IC tag reader, and the information is processed with the electric power and sent to the reader.
  • the IC tag and the IC tag reader need to be brought close to each other due to the radio wave output that can be used.
  • the control device 100 includes a control unit 101, an image generation unit 102, and a storage unit 103.
  • the storage unit 103 corresponds to an example of “storage means” according to the present invention
  • the control device 100 corresponds to an example of “prediction means” according to the present invention.
  • the control unit 101 is, for example a known CPU (Central Processing Unit: CPU), control read only memory which stores a control program (R ea d Only Memory: ROM ), random access memory for storing various data (Random Access Memory: RAM) and other logic operation circuits are provided.
  • the image generation unit 102 generates data such as a display image.
  • the storage unit 103 stores the attribute of the detected object detected by the attribute detecting unit 60, the image “sound” displayed corresponding to the attribute, the history of the position related to the moving detected object, and the like.
  • the control device 100 is inputted as an electrical signal via a bus (not shown) of the attribute force of the detected object detected by the attribute detection unit 60.
  • a video signal is output to the display driver 112 or an audio signal is output to the audio driver 32.
  • FIG. 7 is a flowchart showing the basic operation of the image display apparatus according to the first embodiment.
  • FIG. 8 is a schematic diagram for explaining the basic operation of the image display apparatus according to the first embodiment (a toy gun 120 is a: what !, a situation when Zb: a situation when there is).
  • the control device 100 causes the image generation unit 102 to execute a two-dimensional image (original image).
  • Image is generated (step S101).
  • This original image is an image of a doll with a target as shown in Fig. 8 (a), for example.
  • step S102 the force / force force at which the attribute of the detected object is detected by the attribute detection unit 60 is determined.
  • step S102 when no attribute of the detected object is detected (step S102: NO), for example, when the detected object does not exist within the detectable range of the attribute detection unit 60, the original image is particularly changed. There is no need to let it. Accordingly, the doll of the original image is displayed so as to look like a normal face or a smile as shown in FIG. 8 (a), for example.
  • step S102 when the attribute of the detected object is detected (step S102: YES), the following processing is performed according to the detected attribute.
  • the attribute of the detected object is detected when, for example, the user holds the toy gun 120, which is an example of the detected object, within the detectable range of the attribute detection unit 60. This is a case where the IC tag 50 in which 120 attributes are written is read by the attribute detection unit 60 and the attributes are detected.
  • the image generation unit 102 generates a mask image corresponding to the detected attribute (step S 103).
  • the correspondence as to what the mask image corresponding to the detected attribute is stored in the storage unit 103 in advance.
  • the toy gun 120 is a tool for firing, and therefore, a mask image depicting a “fear” state is associated and stored.
  • Examples of mask images associated with other objects to be detected are as follows. That is, since the fork 122 is a tool that stabs food, a mask image depicting a state that “the stomach is hungry” is associated and stored. Since the knife 123 is a tool for cutting food, a mask image depicting a “hungry” state is associated and stored.
  • the lipstick 124 is a tool for applying lipstick
  • a mask image depicting a “joyful” appearance is associated and stored.
  • the dryer 125 is a tool that blows warm air
  • a mask image depicting the state of “heating” is associated and stored.
  • the brush 126 is a tool for applying paint of each color, a mask image depicting a state of “exciting” is stored in association with each other.
  • step S 104 the original image and the mask image are synthesized.
  • the control unit 101 is connected to the display drive unit 112. Send video signal.
  • the display unit 11 displays the combined two-dimensional image (step S 105).
  • the display light constituting the displayed two-dimensional image is transmitted by the image transmission panel 17 arranged in its own optical path, and is displayed as a real image on the imaging plane 21 via the image transmission panel 17 (step S106).
  • the present embodiment it is possible to display a stereoscopic two-dimensional image relatively easily, and to improve the rendering effect and interactivity.
  • the attribute of the object to be detected can be detected, a variety of reactions can be realized according to the attribute, which is not uniform, and the effect of rendering a three-dimensional image is enormous.
  • FIG. 9 is a block diagram conceptually showing the basic structure of the image display apparatus in the second example.
  • FIG. 9 the same components as those in the first embodiment (ie, FIG. 6) described above are denoted by the same reference numerals, and detailed description thereof is omitted as appropriate.
  • the image display device 1 according to the present embodiment further includes a position detection unit 61 that detects the position of the detected object.
  • the position detection unit 61 corresponds to an example of a “position detection unit” according to the present invention.
  • the position detection unit 61 detects the intersecting plane area. The detection result is transmitted to the control device 100.
  • the position detection unit 61 is, for example, a non-contact type sensor or a camera type sensor.
  • the plane area detected by the position detector 61 may be in front of or behind the imaging plane 21 that does not necessarily need to coincide with the imaging plane 21.
  • the position detection unit 61 detects the spatial position of the toy ball 121 within the detectable range in addition to or instead of the plane area, and transmits the detection result to the control device 100.
  • the position detection unit 61 is, for example, an XYZ sensor, a CCD image sensor, an infrared sensor, or an ultrasonic sensor arranged so as to capture the frontal force of the imaging surface 21, and a predetermined interval. It may be substituted by a sensor that detects planar areas arranged in an overlapping manner.
  • the detection results from one position detection unit 61 are accumulated over time in a memory built in the control device 100 or externally attached, and the toy ball 121 passing through the imaging surface 21 is planarized. You can detect it as a set of areas! /,
  • the detection of the planar position and the detection of the spatial position as described above may be static or dynamic, and can take a mode according to the application. In other words, it may be detected based on the shape and position information of the detected object registered in the memory in advance, or it may be detected in real time by various sensors such as an XYZ sensor. .
  • FIG. 10 is a flowchart showing the basic operation of the image display apparatus according to the second embodiment.
  • the control device 100 generates a two-dimensional image (original image) by using the image generation unit 102 (step S101).
  • This original image is an image of a doll with a target as shown in Fig. 8 (a), for example.
  • step S102 the force / failure force by which the attribute of the detected object is detected by the attribute detection unit 60 is determined.
  • the position detection unit 61 further determines whether or not the position of the detected object is detected (step S211). ).
  • step S211 when the position of the detected object is detected (step S211: YES), the following processing is performed according to the detected position and attribute.
  • the position and attribute of the detected object are detected when, for example, the toy ball 121 containing the IC tag 51 in which the attribute is written is directed to the image plane 21 by the toy gun 120.
  • the toy ball 121 reaches the detectable range of the attribute detection unit 60 and the position detection unit 61.
  • the image generation unit 102 generates a mask image corresponding to the position and attribute of the toy ball 121 to be detected (step S203).
  • step S104 the processing of step S104, step S105, and step S106 is performed, and a floating image is generated corresponding to the position and attribute of the toy ball 121 to be detected. It changes suitably.
  • FIG. 11 is a perspective view for explaining the state before and after the toy ball passes through the imaging plane in the image display device according to the second embodiment (a: state before passing, b: State after passing in the comparative example, c: State after passing in the second example).
  • FIG. 11 is a perspective view for explaining the state before and after the toy ball passes through the imaging plane in the image display device according to the second embodiment (a: state before passing, b: State after passing in the comparative example, c: State after passing in the second example).
  • FIG. 11 is a perspective view for explaining the state before and after the toy ball passes through the imaging plane in the image display device according to the second embodiment (a: state before passing, b: State after passing in the comparative example, c: State after passing in the second example).
  • FIG. 12 is a side view for explaining the state before and after the toy ball passes through the imaging plane in the image display apparatus according to the second embodiment (a: state before passing, b : A state after passing in the comparative example, c: A state after passing in the second example).
  • FIG. 11 (a) and FIG. 12 (a) which is a side view thereof, it is assumed that a toy ball 121 is fired from a toy gun 120. At this time, the toy ball 121 penetrates the target floating image displayed on the imaging plane 21.
  • a sense of incongruity as shown in, for example, FIG. 11 (b) and its side view, FIG. 12 (b), will occur. That is, although the toy ball 121 penetrates the target floating image, there is no change in the target floating image. Or I don't feel interactivity.
  • a mask image such as a “ballistic hole” is created based on the attribute of the toy ball 121, and the result is determined based on the position of the toy ball 121. Determine the location of the “bullet holes” on the image plane 21.
  • FIG. 11 (c) and a side view thereof, FIG. 12 (c) the user looks at the target floating image displayed on the image plane 21, and the toy gun 120 As the toy ball 121 penetrates the imaging surface 21, the bullet hole remains in the target floating image.
  • the target floating image changes with the user's operation, and the change varies depending on the tool used, that is, the detected object. Therefore, in addition to the interactivity, the reality is also greatly increased. It is.
  • step S102 when no attribute of the detected object is detected (step S102: NO ), Or if the position of the object to be detected is not detected (step S211: NO), there is no need to change the original image. Alternatively, if any one of the position and the attribute of the detected object is detected, the floating image may be changed according to the detection result.
  • FIG. 13 is a schematic diagram showing how the fork is inserted into the floating image in the image display apparatus according to the second embodiment (a: perspective view, b: front view showing change of floating image).
  • the step numbers shown in FIG. 13 (b) correspond to the step numbers shown in the flowchart of FIG.
  • FIG. 13 (a) a floating image of an apple is displayed on the image plane 21, and the state where the user stabs the floating image of the apple with a fork 122! /
  • the Figure 13 (b) shows the changes in the series of floating images at this time.
  • step S101 of FIG. 13 (b) the floating image of the apple is initially displayed without any stab opening.
  • step S203 of FIG. 13 (b) the plane area force position detection unit 61 where the imaging surface 21 and the fork 122 intersect is detected, and is shown in step S203 of FIG. 13 (b).
  • a mask image is generated at a position corresponding to the intersecting position.
  • the mask image here is a piercing opening with a relatively low degree of damage based on the attribute of the fork 122 2 read from the IC tag 52, unlike the above-mentioned “bullet hole” (see FIG. 11).
  • a floating image in which the fork 122 is stuck in the ring is obtained as shown in step S104 of FIG. 13 (b).
  • a mask that is one size larger than the intersecting plane regions by a predetermined margin is generated.
  • the mask image associated with the attribute of the fork 122 is not necessarily one. Multiple mask image forces may be selected according to the position of the fork 122 or a change in position (that is, movement). For example, floating images As the getty, when the position of the fork 122 changes only in the depth direction, a mask image in which the spaghetti is “stabbed” is selected. On the other hand, if the fork 122 rotates while crossing the image plane 21, the mask image with the spaghetti being "turned or wrapped" is selected, and the expression is more varied. Is possible
  • FIG. 14 is a schematic diagram showing how the floating image is cut with a knife in the image display apparatus according to the second embodiment (a: perspective view, b: front view showing change of floating image).
  • FIG. 14 (a) a floating image of an apple is displayed on the image plane 21, and a state in which the user cuts the floating image of the apple with a knife 123 is depicted.
  • Figure 14 (b) shows the changes in the series of floating images at this time.
  • the floating image of the apple is initially displayed without any cut.
  • the mask image here is a relatively sharp cut based on the attribute of the knife 123 read from the IC tag 53, unlike the “bullet hole” described above (see FIG. 11). If you can see the contents of the apple at this end, the reality will increase.
  • the generated mask may be processed in real time so as to follow the movement, or a plane area intersecting with the imaging plane 21.
  • a set of spatial regions may be stored as a trajectory in the storage unit 103, and a mask corresponding to the trajectory may be created.
  • FIG. 15 is a schematic diagram showing how the floating image is prefetched by predicting the movement of the knife when the floating image is cut with a knife in the image display apparatus according to the second embodiment (a: path PO — when cutting along P1, b: cutting along route QO-Q1). [0095] As shown in FIG.
  • FIG. 16 the configuration and operation processing of the image display apparatus according to the third embodiment will be described with reference to FIGS. 16 and 17.
  • FIG. 16 the configuration and operation processing of the image display apparatus according to the third embodiment will be described with reference to FIGS. 16 and 17.
  • FIG. 16 is a block diagram conceptually showing the basic structure of the image display apparatus in the third example.
  • FIG. 16 the same components as those in the first embodiment (ie, FIG. 6) described above are denoted by the same reference numerals, and detailed description thereof is omitted as appropriate.
  • the image display device 1 according to the present embodiment further includes a state detection unit 62 and a rewrite unit 55 in addition to the configuration of the image display device 1 according to the first embodiment described above.
  • the state detection unit 62 corresponds to an example of the “state detection unit” according to the present invention
  • the rewrite unit 55 corresponds to an example of the “rewrite unit” according to the present invention. Yes.
  • the state detection unit 62 is a reader of an IC tag similar to the attribute detection unit 60, for example, and reads the state of the detected object by reading the IC tag 50 in which the state is written via a wireless or wired connection. And detect.
  • the “state of the object to be detected” here refers to any state of the object to be detected qualitatively or quantitatively.
  • the state of the switch is discontinuous such as ON / OFF of the switch. It indicates a two-stage state or a continuous multi-stage state such as low, medium and high volume.
  • the rewriting unit 55 is, for example, an IC tag writer, and can rewrite the information recorded in the IC tag 50 by dynamically rearranging the IC tag circuit, for example.
  • the detection of the above-described state is not necessarily performed via an IC tag.
  • the state detection unit 62 and the rewriting unit 55 can transmit and receive wireless communication using electromagnetic waves in a predetermined frequency band or wire communication, the state detection unit 62 can detect the state of the detected object.
  • FIG. 17 is a flowchart showing the basic operation of the image display apparatus according to the third embodiment.
  • the control device 100 causes the image generation unit 102 to generate a two-dimensional image (original image) (step S101).
  • This original image is an image of a doll with a target as shown in Fig. 8 (a), for example.
  • step S102 the force / force force at which the attribute of the detected object is detected by the attribute detection unit 60 is determined.
  • step S102 when the attribute of the detected object is detected (step S102: YES), it is further determined by the state detection unit 62 whether or not the state of the detected object is detected (step S311). .
  • step S311 when the state of the detected object is detected (step S311: YES), the following processing is performed according to the detected state and attributes.
  • the state and attribute of the detected object are detected when, for example, the toy gun 120 containing the IC tag 50 in which the attribute of the detected object is written, the user detects the attribute detecting unit 60, The state detection unit 62 shoots from the detectable range toward the imaging plane 21.
  • the rewriting unit 55 changes the state of the IC tag 50 in which the state of the detected object is written into the "fire switch". This is the case when rewriting from "off" to "fire switch 'on".
  • the rewriting unit 55 electromagnetically transmits a “launch switch“ on ”effect to the state detection unit 62 with the firing.
  • the attribute detection unit 60 and the state detection unit 62 generate a mask image corresponding to the detected state and attributes of the toy gun 120 (step S303). Then, similarly to the first embodiment, the processes of step S104, step S105, and step S106 are performed, and the floating image suitably changes corresponding to the state and attributes of the detected toy gun 120. . As a result, the user shoots the gun 120 of the toy aiming at the target floating image displayed on the image plane 21, and at the same time or before and after the "fire switch on", "Ballhole” remains in the target floating image.
  • step S105 the timing for displaying the combined two-dimensional image may be after a predetermined interval after the state of the detected object is switched. After this predetermined interval, for example, in the case of the above-mentioned example, it is obtained from the position of the toy gun 120 at the time of launch.
  • the mask image with respect to the original image may be determined in consideration of the firing angle in addition to the position of the toy gun 120 at the time of launching.
  • Place multiple IC tags in multiple locations on the toy gun 120 preferably on a straight line along the launch direction
  • the firing angle may be obtained by attaching and detecting the position of each IC tag.
  • the firing angle may be directly recognized by the image sensor.
  • a 6-axis eg, acceleration in XYZ direction, forward / backward tilt, left / right tilt, left / right swing
  • the launch angle and launch direction may be obtained by detecting movement.
  • step S102 when no attributes of the detected object are detected (step S102: NO), or when no state of the detected object is detected (step S311: NO), the original image is There is no need to change. Alternatively, if any one of the state and attribute of the detected object is detected, the floating image may be changed according to the detection result.
  • the floating image is not particularly changed when the state of the dryer 125 is OFF.
  • the switch of the dryer 125 is turned on, the image changes to a floating image of a female face with fluttering hair.
  • the air flow strength switch which is one of the states of the dryer 125, is switched, the degree of hair fluttering may change.
  • the direction and angle, position, and movement of the dryer 125 may be detected, and the position and appearance of the hair may change partially. Also, depending on the time, your hair may get wet and your hair will dry!
  • the floating image changes with the user's operation, the change varies depending on the tool used, that is, the detected object. In addition to activity, reality increases. At this time, even if the exact position is not detected, the position can be changed according to the user's operation, and the interactivity is improved.
  • the above-described various methods, methods, and means may be arbitrarily combined to detect the attribute, position, state, and the like of the detected object. This makes it possible to detect necessary information appropriately or accurately in accordance with the specifications of the image display device. For example, all information such as attributes, position, and status may be exchanged in a batch by wireless communication with a detected object incorporating a memory and a 6-axis sensor.
  • the image display device can be used in the technical field of an image display device that stereoscopically displays a two-dimensional image based on, for example, a 3D floating vision system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Liquid Crystal (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

明 細 書
画像表示装置
技術分野
[0001] 本発明は、例えば 3D (Dimension)フローティングビジョン方式に基づいて二次元 画像を立体的に表示する画像表示装置の技術分野に関する。
背景技術
[0002] この種の立体的な二次元画像は、室内装飾器具、販促用ディスプレイ、通信端末 装置、ゲーム機器等において、臨場感、視認性、アミューズメント性等を向上させ得 る。それ故、立体的な二次元画像を表示するための方式が各種提案されている。例 えば、目視者が偏光メガネをかけ、互いに異なった偏光状態に基づく左右の視差画 像を目視する偏光方式が提案されている。ところが、この方式では、目視者にとって 偏光メガネの装着がわずらわし 、と 、う問題が生じ得る。
[0003] このような不具合に対処するため、例えば偏光メガネを用いな 、立体画像表示法と して、レンチキュラーレンズ法が提案されている(例えば、特許文献 1参照)。この方式 によると、一画面に複数画面を潜像させ、一定幅の半円柱型レンズを水平方向につ なぎ合わせた透過スクリーンを通して当該複数画面を見せることで、立体表現や動画 表現が実現される。
[0004] 或いは、 3Dフローティングビジョン方式が本願出願人より提案されている。この方 式によると、二次元画像をマイクロレンズアレイによって実像として結像させることで、 比較的簡単な構成で立体的二次元画像を表示することができる。特に、この方式に おいてインタラクティブな装置を実現すベぐ位置検出センサを用い、その出力信号 に応じて、結像面に表示される立体的二次元画像を変化させる技術が提案されて ヽ る (例えば、特許文献 2参照)。
[0005] 特許文献 1 :特開平 10— 221644号公報
特許文献 2:特開 2005 - 141102号公報
発明の開示
発明が解決しょうとする課題 [0006] し力しながら、例えば前述の特許文献 1に開示されている技術には、以下のようなコ スト上の問題が生じ得る。即ち、上記したレンチキュラーレンズ法は、一画面に複数 の画面を潜像させるため、撮像段階から目視者の両目に対応する視差画像を必要と する。そして、この画像を供給するために多くの作業、例えばコンピュータ画像処理、 レンチキュラーレンズ設計、レンズと画像との正確な組み合わせ作業が必要であり、 コストアップの要因となる。
[0007] 或いは、前述の特許文献 2に開示されている技術によると、特許文献 1に係るコスト 上の問題は解消でき、ある程度の演出効果やインタラクテイビティは確保されるもの の、これら演出効果やインタラクテイビティには依然として改善の余地がある。例えば 、玩具の鉄砲、ナイフ、フォーク、ドライヤ、或いは刷毛などは、現実にはその属性( 形状、用途、機能等)が互いに異なるものである。にも関わらず、どの道具を用いて画 像表示装置を操作しても同じようなリアクションしかなされなければ、面白みに欠け、 演出効果やインタラクテイビティが十分であるとは言 、難!/、。
[0008] 本発明は、例えば上述した問題点に鑑みてなされたものであり、比較的簡易に立 体的な二次元画像を表示すると共に、その演出効果、及びインタラクテイビティを向 上させることが可能な画像表示装置を提供することを課題とする。
課題を解決するための手段
[0009] 本発明に係る画像表示装置は上述の課題を解決するために、画面上に画像を表 示する表示手段と、前記画像を構成する表示光の光路に配置され、かつ、前記画像 の実像を前記画面とは反対側の空間に位置する結像面に浮遊画像として表示する ように、前記画像を構成する前記表示光を伝達する画像伝達手段と、前記空間を含 む実空間部分内に位置する被検出物の属性を特定する属性特定手段と、前記浮遊 画像が、前記特定される前記被検出物の属性に予め対応付けられている形態へと 変化するように、前記表示手段を制御する制御手段とを備える。
[0010] 本発明によれば、以下に記すように、比較的簡易に立体的な二次元画像を表示す ると共に、その演出効果やインタラクテイビティを向上可能である。
[0011] 即ち、先ず、例えばカラー液晶表示装置のような表示手段によって、画面上に画像 が表示される。 [0012] ここで、例えばマイクロレンズアレイを含んでなる画像伝達手段力 画像を構成する 表示光の光路に配置されている。この画像伝達手段によって、画像を構成する表示 光が伝達されて、画像の実像が画面とは反対側の空間に位置する結像面に、浮遊 画像として表示される。ここで「浮遊画像」とは、その観察位置にいるユーザからは( 即ち、その視野角の範囲内では)、あた力も空中に浮かんでいるかのように見える画 像で、実像であることが好ましい。例えば 3Dフローティングビジョン (本願出願人の登 録商標)などの画像表示方式が考えられる。
[0013] ところで、上述のように表示される浮遊画像に対して、例えば、玩具の鉄砲、ナイフ 、フォーク、ドライヤー、或いは刷毛などの道具を用いた操作をしても、仮に同じような リアクションしかなされなければ、面白みに欠け、演出効果やインタラクテイビティが十 分であるとは言い難い。
[0014] 然るに、本発明によれば、上述の空間を含む実空間部分内に位置する被検出物の 属性が、属性特定手段によって特定される。ここで言う「被検出物」は、典型的には何 らかの属性を有する道具的なものであり、例えば玩具の鉄砲、或いはフォークが含ま れる。被検出物の「属性」とは、被検出物そのものに備わっている固有の性質或いは 特徴であり、例えば形状、機能、或いは観念等を含む包括的な概念である。このよう な被検出物の属性は、例えば、後述の如き属性特定手段の一例である属性検出手 段により検出されることで、特定される。
[0015] そして、浮遊画像が、検出される被検出物の属性に予め対応付けられている形態 へと変化するように、表示手段が、演算回路及び記録回路等を含む制御手段によつ て制御される。例えば、「発砲する」道具である玩具の鉄砲の属性には、「浮遊画像 に描かれたキャラクタが怖がる」という形態が予め対応付けられている。或いは、「食 ベ物を刺す '卷く」道具であるフォークの属性には、「浮遊画像に描かれた皿の上に パスタが表示される」という形態が予め対応付けられている。このように、検出される被 検出物の属性によって、その属性力 導き出され得る多様な形態へと浮遊画像が変 化するのである。
[0016] 従って、本発明によれば、比較的簡易に立体的な二次元画像を表示すると共に、 その演出効果やインタラクテイビティを向上可能である。 [0017] 本発明に係る画像表示装置の一態様では、前記属性特定手段は、前記属性を検 出する属性検出手段を有する。
[0018] この態様によれば、被検出物の属性は、以下のように属性検出手段により検出され る。即ち、例えば予め属性が記録されている ICタグを被検出物に付着しておき、その ICタグを ICタグリーダで電磁気的に読み取ることで、被検出物の属性が検出される。 或いは、 CCDカメラのような撮像装置で撮像した被検出物の画像と、データベース 化されている被検出物の候補の画像とがパターン認識され、被検出物の候補に予め 対応付けられて記録されている属性が読み出されることで、被検出物の属性が検出 される。
[0019] 本発明に係る画像表示装置の他の態様では、前記被検出物の位置が、前記実空 間部分のうち何処であるかを検出する位置検出手段を更に備え、前記制御手段は、 前記浮遊画像が、前記特定される属性に加えて、前記検出される前記被検出物の 位置にも予め対応付けられている形態へと変化するように、前記表示手段を制御す る。
[0020] この態様によれば、以下に記すように、その演出効果やインタラクテイビティに加え て、リアリティをも格段に向上可能である。即ち、先ず、被検出物の位置が、実空間部 分のうち何処である力が、例えば XYZセンサ、 CCDイメージセンサ、赤外線センサ或 いは超音波センサのような位置検出手段によって検出される。ここで言う「被検出物 の位置」には、被検出物の平面的な位置のみならず空間的な位置も含まれる。例え ば、被検出物が結像面或いはその前後の平面に交わる場合に結像面或いはその前 後の平面内において該被検出物が占める平面領域が検出されてもよい。この平面領 域に加えて又は代えて、被検出物が上述の空間を含む実空間部分内に位置する場 合にこの実空間部分内において該被検出物が占める空間領域が検出されてもよい。 そして、浮遊画像が、上述のように特定される被検出物の属性に加えて、検出される 被検出物の位置にも予め対応付けられている形態へと変化するように、表示手段が 制御手段によって制御される。例えば、「玩具の玉」が「的の浮遊画像」を貫通する場 合には、「的の浮遊画像」が、「玩具の玉」の属性に予め対応付けられている「弾痕の ある的の浮遊画像」へと変化するように、表示手段が制御手段によって制御される。 このように、被検出物の位置に応じて浮遊画像がダイナミックに変化するので、その 演出効果やインタラクテイビティを向上可能である。力!]えて、この際、「弾痕」は、適当 な位置でなぐ「玩具の玉」が貫通する位置に調整されるので、リアリティを格段に向 上可能である。
[0021] この被検出物の位置が検出される態様では、前記検出される被検出物の位置が経 時的に変化する場合に、該変化する前記被検出物の位置の軌跡を記憶する記憶手 段を更に備え、前記制御手段は、前記浮遊画像が、前記特定される属性に加えて、 前記記憶される前記被検出物の位置の軌跡にも予め対応付けられている形態へと 変化するように、前記表示手段を制御してもよい。
[0022] この態様によれば、以下に記すように、その演出効果やインタラクテイビティに加え て、リアリティをも格段に向上可能である。即ち、先ず、検出される被検出物の位置が 経時的に変化する場合に、該変化する被検出物の位置の軌跡が、例えばメモリを中 心とした論理演算回路力もなる記憶手段によって、例えば数百ミリ秒毎に記憶される 。ここで言う「変化する被検出物の位置の軌跡」には、被検出物の平面的な位置のみ ならず空間的な軌跡も含まれる。力 Πえて、被検出物が結像面或いはその前後の平面 に交わる場合の軌跡というような、所定条件を満たす軌跡を指してもよい。そして、浮 遊画像が、上述のように特定される被検出物の属性に加えて、記憶される被検出物 の位置の軌跡にも予め対応付けられている形態へと変化するように、表示手段が制 御手段によって制御される。例えば、結像面と交わったままナイフで「リンゴの浮遊画 像」を上下に切ると、その軌跡が記憶される。そして、「リンゴの浮遊画像」が、ナイフ の属性に予め対応付けられて 、る「切り口のあるリンゴの浮遊画像」へと変化するよう に、表示手段が制御手段によって制御される。この際、「切り口」は、適当な位置でな ぐナイフが貫通する位置に調整される。し力も、軌跡が記憶されているので、ナイフ の位置が変わるからといって逐次消えることもないので、リアリティを格段に向上可能 である。
[0023] この位置の軌跡が記憶される態様では、前記被検出物の位置が検出される時点よ りも後に、前記被検出物の位置が前記実空間部分のうち何処へ変化するかを、前記 記憶される前記被検出物の位置の軌跡に基づいて予測する予測手段を更に備え、 前記制御手段は、前記表示手段が、前記特定される属性に加えて、前記予測される 前記被検出物の位置にも予め対応付けられている形態に係る前記画像を先読みす るように、前記表示手段を制御してもよい。
[0024] この態様によれば、以下に記すように、その演出効果やインタラクテイビティを向上 すると共に、浮遊画像を表示する際の応答遅れを解消可能である。即ち、先ず、上 述のように、変化する被検出物の位置の軌跡が、記憶手段によって、例えば数百ミリ 秒毎に記憶されている。そして、例えば演算回路力もなる予測手段によって、被検出 物の位置が検出される時点 (典型的には、複数回位置を検出する中で最新の検出 時)よりも後に、被検出物の位置が実空間部分のうち何処へ変化するかが、記憶され る被検出物の位置の軌跡に基づいて予測される。例えば、経時的に記憶される被検 出物の位置の軌跡に基づいて、速度ベクトルを特定することで、その後の軌跡も予 測可能である。そして、表示手段が、特定される被検出物の属性に加えて、予測され る被検出物の位置にも予め対応付けられている形態に係る画像を先読みするよう〖こ 、表示手段が制御手段によって制御される。このように、被検出物の現在位置のみな らず軌跡から位置の移動を予測し、予測結果に応じて、予め画像を先読みしておくこ とで、応答遅れを解消可能である。その結果、被検出物を移動させても、浮遊画像の 変化が後からっ ヽてくる、或いはワンテンポ遅れて変化すると ヽつた違和感が軽減さ れ実践上非常に有益である。
[0025] 本発明に係る画像表示装置の他の態様では、前記被検出物の状態を検出する状 態検出手段を更に備え、前記制御手段は、前記浮遊画像が、前記特定される属性 に加えて、少なくとも前記検出される前記被検出物の状態にも予め対応付けられて V、る形態へと変化するように、前記表示手段を制御する。
[0026] この態様によれば、以下に記すように、被検出物の状態或いはその変化によっても 、浮遊画像が変化するので、その演出効果やインタラクテイビティが一段と向上する。 即ち、先ず、被検出物の状態が、状態検出手段によって検出される。ここで言う「被 検出物の状態」とは、被検出物についての何らかの状態を定性的に、或いは定量的 に示すものであり、例えばスィッチのオン'オフのような非連続な 2段階の状態、或い はボリュームの低中高のような連続な多段階の状態等を示す。そして、浮遊画像が、 特定される被検出物の属性に加えて、少なくとも検出される被検出物の状態にも予 め対応付けられている形態へと変化するように、表示手段が制御手段によって制御 される。例えば、玩具の鉄砲のスィッチがオフ力 オンに切り替わると、発砲されること と同義とみなされて、「的の浮遊画像」が、「玩具の鉄砲」の属性に予め対応付けられ ている「弾痕のある的の浮遊画像」へと変化するように、表示手段が制御手段によつ て制御される。或いは、ドライヤーのスィッチがオフからオンに切り替わると、「長髪の 女性の浮遊画像」力 「ドライヤー」の属性に予め対応付けられて 、る「髪がなびく女 性の浮遊画像」へと変化するようしてもよい。このように、被検出物の状態に応じて浮 遊画像がダイナミックに変化するので、その演出効果やインタラクテイビティを一段と 向上可能である。
[0027] 本発明に係る画像表示装置の他の態様では、前記被検出物に付着されており、か つ、前記被検出物の属性を示す属性情報が電磁光学的に読み出し可能に記録され ているタグ手段を更に備え、前記属性検出手段は、前記記録されている属性情報を 電磁光学的に読み出すことで、前記属性を検出する。
[0028] この態様によれば、以下に記すように、タグ手段を利用して被検出物に係る属性情 報を読み出し可能であり、読み出した属性情報に基づいて、その演出効果やインタ ラクテイビティを向上可能である。即ち、先ず、被検出物には、例えば ICタグ、或いは バーコードのようなタグ手段が付着されている。そのタグ手段には、当該被検出物の 属性を示す属性情報が電磁光学的に読み出し可能に記録されている。ここで「電磁 光学的に読み出し可能」とは、タグ手段に記録されている属性情報を、電気、磁気、 又は光を用いて読み出すことができることを言う。そして、例えば ICタグリーダ、或い はバーコードリーダのような属性検出手段によって、力かる属性情報が電磁光学的に 読み出され、これをもって被検出物の属性が検出される。例えば、 ICタグ内の回路に 電磁波を照射することで電磁気的に、或いは、バーコードを画像認識することで光学 的に、上述の属性情報を読み出すことができる。尚、読み出す形態は、好ましくは非 接触型であるが、接触型でもよい。何れにせよ、タグ手段を利用して属性情報を読み 出し可能であり、読み出した属性情報に基づいて、その演出効果やインタラクテイビ ティを向上可能である。 [0029] このタグ手段を更に備える態様では、前記位置検出手段は、前記被検出物に付着 されている前記タグ手段の位置が、前記実空間部分のうち何処であるかを検出する ことで、前記被検出物の位置を検出してもよい。
[0030] この態様によれば、以下に記すように、タグ手段の検出に特ィ匕した ICタグリーダ、或 いはバーコードリーダ等を使用する場合には、属性に加えて位置も検出し得るので、 一石二鳥である。即ち、被検出物に付着されているタグ手段の位置力 実空間部分 のうち何処であるか力 例えば ICタグ、或いはバーコードのような位置検出手段によ つて検出され、これをもって被検出物の位置が検出される。具体的には、 ICタグに向 けて電磁波を照射する場合には、その応答時間、及び応答方向から被検出物の位 置が検出される。このようにして、上述のごとき一石二鳥の効果が得られる。尚、タグ 手段を被検出物に複数付着させることで、被検出物の位置に加えて方向を検出して もよい。この際、位置のみならず方向に応じて浮遊画像を変化させることができるの で、浮遊画像のインタラクテイビティが一段と向上する。
[0031] このタグ手段を更に備える態様では、前記タグ手段には、前記属性情報に加えて、 前記被検出物の状態を示す状態情報が電磁光学的に読み出し可能に記録されて おり、少なくとも前記状態情報を書き換える書換手段を更に備えてもよい。
[0032] この態様によれば、以下に記すように、タグ手段の検出に特ィ匕した ICタグリーダ、或 いはバーコードリーダ等を使用する場合には、属性に加えて状態も検出し得るので、 一石二鳥である。即ち、タグ手段には、被検出物の属性に加えて、被検出物の状態 を示す状態情報も電磁光学的に読み出し可能に記録されている。そして、少なくとも 状態情報が、 ICタグライタ、或いはバーコードライタのような書換手段によって書き換 えられる。例えば、玩具の鉄砲のスィッチがオフからオンに切り替わると、 ICタグに記 録されて!/ヽる状態情報が、オフを示す内容からオンを示す内容へと書き換えられる。 そして、書き換えられる状態情報が、状態検出手段に検出されて、上述のように、「的 の浮遊画像」が「弾痕のある的の浮遊画像」へと変化する。このようにして、上述のご とき一石二鳥の効果が得られるので、実践上非常に有益である。
[0033] 本発明に係る画像表示装置の他の態様では、前記画像伝達手段は、マイクロレン ズアレイからなり、前記浮遊画像は、前記画像の実像として表示される。 [0034] この態様によれば、以下に記すように、浮遊画像は実像であるので、浮遊画像の位 置に被検出物(例えば、ナイフ)を持ってきても違和感がない。そのため、浮遊画像 に対して直接的なインタラクティブが可能になる。即ち、先ず、画像伝達手段は、マイ クロレンズアレイからなる。ここ言う「マイクロレンズアレイ」は、 3Dフローティングビジョ ン方式によるものであり、二次元のマトリックス状に配列された複数のマイクロ凸レン ズを含んで成るレンズアレイ半体を 1又は複数枚、一体化させて構成される。このよう な画像伝達手段によると、浮遊画像は、画像の実像 (好適には、正立像)として表示 される。
[0035] 尚、本発明に係る画像表示装置とは異なる方式でも、裸眼立体視システムを実現 することはできるが、本発明に係る画像表示装置のように、違和感なく浮遊画像に直 接手を触れるということは難し 、。
[0036] 専用メガネを用いずに立体視システムを実現する方法としては、代表的なものとし て視差バリア方式やレンチキュラー方式などが存在するが、何れの方式も右眼には 右眼用画像、左眼には左眼用画像を見せることで生じる虚像によって立体映像を実 現しており、観察者の眼の焦点位置と浮遊画像が知覚される位置は異なっている。 つまり、画像表示面より手前に浮かび上がった映像を見るとき、眼の焦点位置は画像 表示面上に合わせながらも、実際には手前に浮き出している立体映像を知覚してい ること〖こなる。(このことは、眼精疲労の原因であると言われている。)それ故に、被検 出物手 (例えばナイフ)を近づけ立体映像に触れようとすると、眼の焦点位置が画像 表示面から立体映像 (虚像)に触れようとする被検出物の位置に移動することとなり、 浮遊画像を正しく視認することが難しくなる。
[0037] よって、視差バリア方式やレンチキュラー方式では、浮遊画像に直接触れるという 場合に、少な力ゝらず違和感を生じてしまう。
[0038] これに対して、本発明に係る画像表示装置が表示する浮遊画像は、マイクロレンズ アレイが結像する実像であるので、眼の焦点位置は最初から浮遊画像の位置にある ため、浮遊画像の位置に被検出物を持ってきても違和感なく直接触れていることを 容易に認識することができる。
[0039] 以上、説明したように、本発明の画像表示装置によれば、表示手段、画像伝達手 段、属性特定手段、及び制御手段を備えるので、比較的簡易に立体的な二次元画 像を表示すると共に、その演出効果やインタラクテイビティを向上可能である。
[0040] 本発明の作用及び他の利得は次に説明する実施例力 明らかにされよう。
図面の簡単な説明
[0041] [図 1]実施例に係る、浮遊画像を表示可能な画像表示装置の基本構成を示す斜視 図である。
[図 2]実施例に係る画像表示装置を図 1の A— A力 見た矢視図である。
[図 3]画像伝達パネルの構造を模式的に示す断面図である。
[図 4]画像伝達パネルの構造と像の向きを模式的に示す断面図である(2枚)。
[図 5]画像伝達パネルの構造と像の向きを模式的に示す断面図である(a: 1枚、 b: 3 枚)。
[図 6]第 1実施例に係る画像表示装置の基本構成を概念的に示すブロック図である。
[図 7]第 1実施例に係る、画像表示装置の基本動作を示すフローチャートである。
[図 8]第 1実施例に係る、画像表示装置の基本動作を説明するための模式図である( 玩具の鉄砲 120が、 a:な 、ときの様子 Zb:あるときの様子)。
[図 9]第 2実施例に係る画像表示装置の基本構成を概念的に示すブロック図である。
[図 10]第 2実施例に係る、画像表示装置の基本動作を示すフローチャートである。
[図 11]第 2実施例に係る、画像表示装置において、玩具の玉が結像面を通過する前 後の様子を説明するための斜視図である(a :通過する前の様子、 b :比較例において
、通過した後の様子、 c :第 2実施例において、通過した後の様子)。
[図 12]第 2実施例に係る、画像表示装置において、玩具の玉が結像面を通過する前 後の様子を説明するための側面図である(a :通過する前の様子、 b :比較例において
、通過した後の様子、 c :第 2実施例において、通過した後の様子)。
[図 13]第 2実施例に係る画像表示装置において、浮遊画像にフォークを刺す様子を 示す模式図である (a:斜視図、 b:浮遊画像の変化を示す正面図)。
[図 14]第 2実施例に係る画像表示装置において、浮遊画像をナイフで切る様子を示 す模式図である (a:斜視図、 b:浮遊画像の変化を示す正面図)。
[図 15]第 2実施例に係る画像表示装置において、浮遊画像をナイフで切る場合に、 ナイフの動きを予測して浮遊画像の先読みする様子を示す模式図である(a:経路 PO
— P 1に沿って切る場合、 b:経路 QO - Q 1に沿つて切る場合)。
[図 16]第 3実施例に係る画像表示装置の基本構成を概念的に示すブロック図である
[図 17]第 3実施例に係る、画像表示装置の基本動作を示すフローチャートである。 符号の説明
1 画像表示装置
11 表示部
111 画像表示面
13 浮遊画像
15 空間
17 画像伝達パネル
21 結像面
23 マイクロ凸レンズ
231 - 232 マイクロ凸レンズ
24 透明基板
25 マイクロレンズアレイ
251 - 252 レンズアレイ半体
112 ディスプレイ駆動部
17 画像伝達パネル
60 属性検出部
100 制御装置
101 制御部
102 画像生成部
103 記憶部
120 玩具の鉄砲
121 玩具の玉
122 フォーク 124 口紅
125 ドライヤー
126 刷毛
50〜56 ICタグ
31 オーディオ出力部
32 オーディオ駆動部
61 位置検出部
62 状態検出部
55 書換部
発明を実施するための最良の形態
[0043] 以下、本発明を実施するための最良の形態について実施例毎に順に図面に基づ いて説明する。
[0044] (基本原理)
先ず、実施例に係る画像表示装置の説明に先立ち、浮遊画像を表示可能な画像 表示装置の基本構成について、図 1及び図 2を参照して説明する。ここに、図 1は、 実施例に係る、浮遊画像を表示可能な画像表示装置の基本構成を示す斜視図であ る。図 2は、実施例に係る画像表示装置を図 1の A— Aから見た矢視図である。
[0045] 図 1に示すように、本実施例に係る画像表示装置 1は、画像表示面 111を有する表 示部 11及び画像伝達パネル 17を備えており、表示部 11とは反対側の空間 15の結 像面 21に浮遊画像 13を表示する。尚、本実施例では、表示部 11が、本発明に係る 「表示手段」の一例に相当しており、画像伝達パネル 17が、本発明に係る「画像伝達 手段」の一例に相当して 、る。
[0046] 表示部 11は、例えばカラー液晶表示装置(Liquid Crystal Display: LCD)であり、 カラー液晶駆動回路 (不図示)、及びバックライト照明部 (不図示)等を備え、二次元 画像を画像表示面 111に表示する。カラー液晶駆動回路は、外部から入力される映 像信号に基づいて、表示駆動信号を出力する。バックライト照明部は、表示部 11が 自発光式ではない場合に、画像表示面 111を背後から照らす。画像表示面 111は、 出力される表示駆動信号に基づいて、例えば液晶分子の向きを変えて光の透過率 を増減させることで、二次元画像を表示する。尚、表示される二次元画像は、最終的 に浮遊画像として表示されるので、奥行き感を持つように立体的に描写される方が好 ましい。表示部 11としては、カラー液晶表示装置 (LCD)に代えて、陰極線管、ブラ ズマディスプレイ、或いは有機エレクト口ルミネッセンスディスプレイなどの各種表示装 置を用いてもよい。
[0047] 画像伝達パネル 17は、図 2に示すように、例えばマイクロレンズアレイ(詳細は図 3 を参照して後述する)によって構成され、表示部 11に対して離間配置される。そして 、画像伝達パネル 17は、表示部 11の画像表示面 111から出射される光 (即ち、二次 元画像を構成する表示光)を空間 15の結像面 21で結像させることによって、浮遊画 像 13を表示させる。ここで、結像面 21は、マイクロレンズアレイの作動距離に応じて 空間上に仮想的に設定される平面であって実体物ではない。図 1に戻り、この結像 面 21に結像された浮遊画像 13は、空間 15に浮いて表示されるので、観察者からは 、あた力も立体画像が映し出されているように見える。つまり、浮遊画像 13は、擬似 的な立体画像として観察者に認識される。この傾向を強化するには、表示部 11に表 示される二次元画像に予め奥行き感を持たせる、或 ヽは画像表示面 111上で背景 画像が黒くコントラストが強調されて 、るようにするとよ 、。
[0048] 以上、図 1及び図 2に示すように画像表示装置 1は構成されているので、結像面 21 に浮遊画像 13を、あた力も立体画像が映し出されているように表示することが可能と なる。
[0049] 続いて、図 3から図 5を参照して、画像伝達パネル 17の詳細な構成について説明 をカロえる。ここに図 3は、画像伝達パネルの構造を模式的に示す断面図である。図 4 は、画像伝達パネルの構造と像の向きを模式的に示す断面図である(2枚)。図 5は、 画像伝達パネルの構造と像の向きを模式的に示す断面図である(a: 1枚、 b: 3枚)。
[0050] 図 3に示すように、画像伝達パネル 17は、マイクロレンズアレイ 25によって構成され る。
[0051] マイクロレンズアレイ 25は、例えば、レンズアレイ半体 251 · 252の二枚を一体化さ せて構成されている。 [0052] レンズアレイ半体 251 · 252は夫々、光透過性に優れたガラス又は榭脂からなる透 明基板 24の両面に、二次元のマトリックス状に配列された複数のマイクロ凸レンズ 23 を有する。ここで、透明基板 24の一方の面に配列されたマイクロ凸レンズ 231の光軸 1S 他方の面の対向する位置にあるマイクロ凸レンズ 232の光軸と夫々一致するよう に、各マイクロ凸レンズは配置されている。加えて、レンズアレイ半体 251と 252との 間で隣り合うマイクロ凸レンズ 232.231同士の光軸も一致するように、各レンズアレイ 半体は重ね合わされて 、る。
[0053] そして、画像伝達パネル 17は、表示部 11の画像表示面 111に対して所定の離間 距離 (マイクロレンズアレイ 25の作動距離)だけ離れた位置に対向配置されて!ヽる。
[0054] 従って、画像伝達パネル 17は、表示部 11の画像表示面 111から出射される二次 元画像の表示光を、表示部 11とは反対側の空間 15に伝達して、画像伝達パネル 1 7から所定距離だけ離れた結像面 21に結像させる。その結果、画像伝達パネル 17 は、表示部 11によって表示される二次元画像を、浮遊画像 13として表示できる。
[0055] ここで、図 4に示すように、表示部 11によって表示される二次元画像がレンズアレイ 半体 251で一回上下反転させられ、レンズアレイ半体 252で再度上下反転させてか ら出射させる。これにより、画像伝達パネル 17は、二次元画像の正立像を浮遊画像 1 3として表示できる。
[0056] 尚、このように、浮遊画像 13として正立像が得られるのであれば、マイクロレンズァ レイ 25の構成は、レンズアレイ半体 251 · 252を二枚一組で一体化するものに限られ ない。例えば、図 5 (a)に示すように 1枚で構成してもよいし、或いは図 5 (b)に示すよ うに二枚以上の複数枚で構成してもよ!/、。
[0057] 以上、図 3から図 5に示すように画像伝達パネル 17が構成されていれば、画像表示 装置 1は、浮遊画像 13を例えば正立像として好適に表示可能となる。
[0058] (1)第 1実施例
続いて、上述した基本原理に基づいて浮遊画像を表示可能な、第 1実施例に係る 画像表示装置の構成及び動作処理につ!、て、図 6から図 8を参照して説明する。
[0059] (1 1)構成
先ず、本実施例に係る画像表示装置の構成について、図 6を参照して説明する。こ こに、図 6は、第 1実施例に係る画像表示装置の基本構成を概念的に示すブロック図 である。
[0060] 図 6に示すように、本実施例に係る画像表示装置 1は、表示部 11と、画像伝達パネ ル 17と、オーディオ出力部 31と、オーディオ駆動部 32と、属性検出部 60と、制御装 置 100とを備える。尚、本実施例では、属性検出部 60が、本発明に係る「属性特定 手段」の一例に相当しており、制御装置 100が、本発明に係る「制御手段」の一例に 相当している。
[0061] 表示部 11は、例えばカラー液晶表示装置であり、画像表示面 111と、ディスプレイ 駆動部 112とを備える。ディスプレイ駆動部 112は、制御装置 100から入力される映 像信号に基づいて、表示駆動信号を出力し、画像表示面 111に動画 ·或いは静止 画の 2次元画像を表示する。
[0062] 画像伝達パネル 17は、図 1から図 4を用いて上述したように、表示部 11の画面に表 示された 2次元画像を構成する表示光の光路に配置され、この 2次元画像の実像( 即ち、浮遊画像)を表示部 11の画面と反対側の空間に位置する結像面 21に表示す るように表示部 11の表示光を伝達させる。このようにして、 3Dフローティングビジョン 方式による 3D画像表示或いは立体画像表示が行われる。例えば、画像伝達パネル 17を介して表示部 11の画面の正面に位置する観察者から見て、画像伝達パネル 1 7の手前側の結像面 21に、実像が浮かんで見える。
[0063] オーディオ出力部 31は、例えばスピーカであり、オーディオ駆動部 32から入力され る音楽信号を、機械振動に変えて可聴音を生成する。
[0064] 属性検出部 60は、画像認識装置、或いは ICタグのリーダ等であり、その検出可能 範囲(例えば、数 cmから数十 cm)内に存在する、被検出物の属性を検出する。ここ でいう被検出物は、例えば玩具の鉄砲 120、フォーク 122、ナイフ 123、口紅 124、ド ライヤ一 125、或いは刷毛 126であり、固有の属性 (例えば、形状、機能、観念等)を 持つ道具的なものが好ましい。属性検出部 60は、これら被検出物に固有の属性を各 種方法により検出する。例えば、属性検出部 60が CCDカメラのような撮像素子を備 える場合には、撮像された被検出物の画像を、予め画像データベースに属性と共に 蓄積されている道具等の画像と照合することで、属性を検出してもよい。特に、このよ うな属性は、予め検出され得る候補数を限定しておくことで、検出が容易となる。或い は、属性検出部 60が ICタグリーダである場合には、図 6に示すように、被検出物の各 々に、固有の属性識別用 ICタグ 50〜56を付着して、この ICタグを読み取ることで、 属性を検出してもよい。ここで、「ICタグ」とは、例えば数ミクロン力も数ミリ四方の小型 情報チップの総称であり、本発明に係る「タグ手段」の一例に相当している。この ICタ グの回路では、 ICタグリーダ力も発射される電波によって微量な電力が発生し、その 電力で情報を処理し、リーダに送信する。大抵の場合、使用できる電波出力の関係 などから、 ICタグと ICタグリーダを近づける必要はある力 必ずしも接触する必要はな い。
[0065] 制御装置 100は、制御部 101と、画像生成部 102と、記憶部 103とを備える。尚、 本実施例では、記憶部 103が、本発明に係る「記憶手段」の一例に相当しており、制 御装置 100が、本発明に係る「予測手段」の一例に相当している。
[0066] 制御部 101は、例えば周知の中央処理装置(Central Processing Unit : CPU)、制 御プログラムを格納した読み出し専用メモリ(Read Only Memory: ROM)、各種データ を格納する随時書き込み読み出しメモリ(Random Access Memory: RAM)等を中心と した論理演算回路を備えている。画像生成部 102は、表示用画像等のデータを生成 する。記憶部 103は、属性検出部 60に検出される被検出物の属性、その属性に対 応して表示する画像'音声、或いは移動する被検出物に係る位置の履歴等を記憶す る。制御装置 100には、属性検出部 60に検出される被検出物の属性力 不図示の バスを介して電気信号として入力される。他方で、ディスプレイ駆動部 112へと映像 信号を出力し、或いはオーディオ駆動部 32へと音声信号を出力する。
[0067] (1 2)動作
次に、以上のように構成された本実施例に係る画像表示装置の基本動作について 、図 6に加えて、図 7及び図 8を参照して説明する。ここに、図 7は、第 1実施例に係る 、画像表示装置の基本動作を示すフローチャートである。図 8は、第 1実施例に係る 、画像表示装置の基本動作を説明するための模式図である(玩具の鉄砲 120が、 a : な!、ときの様子 Zb:あるときの様子)。
[0068] 図 7において先ず、制御装置 100は、画像生成部 102によって、 2次元画像 (元画 像)を生成する (ステップ S101)。この元画像は、例えば図 8 (a)に示すように、的を 持った人形の画像とする。
[0069] 続いて、属性検出部 60によって被検出物の属性が検出される力否力が、判定され る(ステップ S 102)。
[0070] ここで、被検出物の属性が何も検出されない場合 (ステップ S102 :NO)、例えば属 性検出部 60の検出可能範囲内に被検出物が存在しない場合、元画像を特に変化さ せる必要はない。従って、元画像の人形は、例えば図 8 (a)に示すように、平常の顔、 若しくは笑顔に見えるように表示される。
[0071] 他方で、被検出物の属性が検出される場合 (ステップ S102 : YES)、検出される属 性に応じて次のような処理がなされる。尚、被検出物の属性が検出される場合とは、 例えば属性検出部 60の検出可能範囲内で、ユーザが被検出物の一例である玩具 の鉄砲 120を構えているときに、玩具の鉄砲 120の属性が書き込まれた ICタグ 50が 属性検出部 60によって読み取られ、その属性が検出されるような場合である。
[0072] 先ず、画像生成部 102によって、検出される属性に対応するマスク画像が生成され る (ステップ S 103)。検出される属性に対応するマスク画像が如何なるものかという対 応付けは、記憶部 103に予め記憶されている。例えば図 8 (b)に示すように、玩具の 鉄砲 120は、発砲する道具であるため、「怖がる」様子を描いたマスク画像が対応付 けられて記憶されている。その他の被検出物に対応付けられるマスク画像の例として は以下のようなものが想定される。即ち、フォーク 122は、食べ物を刺す'卷く道具で あるため、「お腹がす ヽて ヽる」様子を描 ヽたマスク画像が対応付けられて記憶され ている。ナイフ 123は、食べ物を切る道具であるため、「お腹がすいている」様子を描 いたマスク画像が対応付けられて記憶されている。口紅 124は、口紅を塗る道具であ るため、「喜ぶ」様子を描いたマスク画像が対応付けられて記憶されている。ドライヤ 一 125は、温風を噴きつける道具であるため、「熱がる」様子を描いたマスク画像が対 応付けられて記憶されている。刷毛 126は、各色のペンキを塗る道具であるため、「 わくわくする」様子を描いたマスク画像が対応付けられて記憶されている。
[0073] そして、元画像とマスク画像とが合成される (ステップ S 104)。合成される 2次元画 像力 表示部 11によって表示されるように、制御部 101がディスプレイ駆動部 112に 映像信号を送る。この映像信号を受けて、表示部 11は合成後の 2次元画像を表示 する (ステップ S 105)。そして、表示された 2次元画像を構成する表示光が自身の光 路に配置された画像伝達パネル 17によって伝達され、画像伝達パネル 17を介して 結像面 21に、実像として表示される (ステップ S106)。
[0074] 以上、本実施形態によれば、比較的簡易に立体的な二次元画像を表示すると共に 、その演出効果、及びインタラクテイビティを向上可能である。特に、被検出物の属性 を検出できるので、一律ではなぐその属性に応じて変化に富んだリアクションを実現 可能となるので、立体的な画像としての演出効果は絶大なものとなる。
[0075] (2)第 2実施例
本実施例に係る画像表示装置を図 9から図 15を参照して説明する。
[0076] (2— 1)構成
先ず、本実施例に係る画像表示装置の基本構成について、図 9を参照して説明す る。ここに、図 9は、第 2実施例に係る画像表示装置の基本構成を概念的に示すプロ ック図である。
尚、図 9において、上述の第 1実施例(即ち、図 6)と同様の構成については同一の参 照符号を付し、その詳細な説明を適宜省略する。
[0077] 図 9において、本実施例に係る画像表示装置 1は、前述の第 1実施例に係る画像 表示装置 1の構成に加えて、被検出物の位置を検出する位置検出部 61を更に備え る。尚、本実施例では、位置検出部 61が、本発明に係る「位置検出手段」の一例に 相当している。
[0078] 位置検出部 61は、例えば玩具の鉄砲 120から発砲され、かつ、属性が書き込まれ た ICタグ 51を内蔵する玩具の玉 121が結像面 21に交わる場合、交わった平面領域 を検出し、該検出結果を制御装置 100に伝達することが可能に構成されている。位 置検出部 61は、例えば非接触型の各種センサやカメラ型のセンサなどである。尚、 位置検出部 61によって検出される平面領域は、必ずしも結像面 21と一致する必要 はなぐ結像面 21よりも手前、又は奥であってもよい。
[0079] 或いは、位置検出部 61は、平面領域に加えて又は代えて、検出可能範囲内にお ける玩具の玉 121の空間位置を検出し、該検出結果を制御装置 100に伝達すること が可能に構成されている。この場合、位置検出部 61は、例えば XYZセンサ、結像面 21を正面力 捉えられるように配置された CCDイメージセンサ、赤外線センサ或は 超音波センサ等の各種センサの他、所定間隔を隔てて重ねて配列された平面領域 を検出するセンサによって代用されてもよい。或いは、一つの位置検出部 61からの 検出結果を、制御装置 100内に内蔵された又は外付けされたメモリ内に、経時的に 蓄積し、結像面 21を通過した玩具の玉 121を平面領域の集合として検出してもよ!/、
[0080] 尚、上述の如き平面位置の検出や空間位置の検出は、静的であっても動的であつ てもよく、その用途に応じた態様を採ることが可能である。即ち、予めメモリに登録さ れた被検出物の形状及び位置情報により検出されてもよ!、し、或いは例えば XYZセ ンサ等の各種センサにより、リアルタイム的に検出されてもよ 、趣旨である。
[0081] (2— 2)動作
次に、以上のように構成された本実施例に係る動作について、図 9に加えて、図 10 を参照して説明する。ここに、図 10は、第 2実施例に係る、画像表示装置の基本動作 を示すフローチャートである。
[0082] 図 10において先ず、制御装置 100は、画像生成部 102によって、 2次元画像 (元 画像)を生成する (ステップ S101)。この元画像は、例えば図 8 (a)に示すように、的 を持った人形の画像とする。
[0083] 続いて、属性検出部 60によって被検出物の属性が検出される力否力が、判定され る (ステップ S102)。ここで、被検出物の属性が検出される場合 (ステップ S102 :YE S)、更に、位置検出部 61によって、被検出物の位置が検出される力否かが、判定さ れる(ステップ S 211)。
[0084] ここで、被検出物の位置が検出される場合には (ステップ S211 : YES)、検出される 位置、及び属性に応じて次のような処理がなされる。尚、被検出物の位置、及び属性 が検出される場合とは、例えば、属性が書き込まれた ICタグ 51を内蔵する玩具の玉 121を、ユーザが玩具の鉄砲 120で結像面 21に向けて発砲し、その結果、玩具の玉 121が属性検出部 60、及び位置検出部 61の検出可能範囲内に到達するような場合 である。 [0085] 先ず、画像生成部 102によって、検出される玩具の玉 121の位置、及び属性に対 応するマスク画像が生成される (ステップ S203)。そして、第 1実施例と同様に、ステ ップ S 104、ステップ S 105、及びステップ S 106の処理が行われ、検出される玩具の 玉 121の位置、及び属性に対応して、浮遊画像が好適に変化する。この様子を、図 11、及び図 12を参照して説明する。ここに、図 11は、第 2実施例に係る、画像表示 装置において、玩具の玉が結像面を通過する前後の様子を説明するための斜視図 である(a :通過する前の様子、 b :比較例において、通過した後の様子、 c :第 2実施 例において、通過した後の様子)。図 12は、第 2実施例に係る、画像表示装置にお いて、玩具の玉が結像面を通過する前後の様子を説明するための側面図である(a : 通過する前の様子、 b :比較例において、通過した後の様子、 c :第 2実施例において 、通過した後の様子)。
[0086] 図 11 (a)、及びその側面図である図 12 (a)に示すように、玩具の鉄砲 120から玩具 の玉 121が発砲されるとする。このとき、玩具の玉 121が、結像面 21に表示されてい る的の浮遊画像を貫通する。ここで、何ら対策がなされなければ、例えば図 11 (b)、 及びその側面図である図 12 (b)に見られるような違和感が生じてしまう。即ち、玩具 の玉 121が的の浮遊画像を貫通したにもかかわらず、的の浮遊画像に何ら変化がな いために違和感を感じる。或いは、インタラクテイビティを感じない。
[0087] そこで、本実施例ではこの違和感を払拭するために、玩具の玉 121の属性に基づ いて、「弾痕」のようなマスク画像作成し、玩具の玉 121の位置に基づいて、結像面 2 1における「弾痕」の配置を決定する。その結果、図 11 (c)、及びその側面図である 図 12 (c)に示すように、ユーザが、結像面 21に表示されている的の浮遊画像をめが けて玩具の鉄砲 120を発砲すると、玩具の玉 121が、結像面 21を貫通するのと同時 に又は相前後して、的の浮遊画像に「弾痕」が残る。もちろん、玩具の玉 121が、結 像面 21を貫通した位置が的の浮遊画像力 外れて 、れば、的の浮遊画像は特に変 化せず「弾痕」は残らない。このように、ユーザの操作に対して、浮遊画像がしっかり と変化するうえに、その変化が使用する道具、即ち被検出物によって異なるので、ィ ンタラクテイビティに加えて、リアリティも格段に増すのである。
[0088] 尚、図 10において、被検出物の属性が何も検出されない場合 (ステップ S102 : NO )、又は被検出物の位置が何も検出されない場合 (ステップ S211 : NO)、元画像を 特に変化させる必要はない。或いは、被検出物の位置、及び属性のうち何れか一方 でも検出されれば、その検出結果に応じて、浮遊画像を変化させてもよい。
[0089] (2— 3)その他の例
次に、被検出物として、玩具の玉 121以外のものが用いられる場合に、浮遊画像を 如何に変化させるかについて、図 13から図 15を参照して説明する。
[0090] 先ず、被検出物として、フォーク 122が用いられる場合に、浮遊画像を如何に変化 させるかについて、図 13を参照して説明する。ここに、図 13は、第 2実施例に係る画 像表示装置において、浮遊画像にフォークを刺す様子を示す模式図である(a:斜視 図、 b :浮遊画像の変化を示す正面図)。尚、図 13 (b)に記すステップ番号は、図 10 のフローチャートに記すステップ番号に対応する。
[0091] 図 13 (a)において、結像面 21にリンゴの浮遊画像が表示されており、そのリンゴの 浮遊画像をユーザがフォーク 122で刺して!/、る様子が描かれて!/、る。このときの一連 の浮遊画像の変化の様子を図 13 (b)に示す。先ず、図 13 (b)のステップ S101に示 すように、リンゴの浮遊画像は当初、何ら刺し口のない状態で表示される。次に、その リンゴの浮遊画像をユーザがフォーク 122で刺すと、結像面 21とフォーク 122とが交 わる平面領域力 位置検出部 61によって検出され、図 13 (b)のステップ S203に示 すような、交わる位置に対応した位置にマスク画像が生成される。尚、ここでのマスク 画像は、上述の「弾痕」(図 11参照)とは異なり、 ICタグ 52から読み取ったフォーク 12 2の属性に基づく比較的破損程度の低い刺し口である。最後に、このように生成され るマスク画像と、元画像とを合成すると、図 13 (b)のステップ S104に示すように、リン ゴにフォーク 122が刺さったような浮遊画像が得られる。好ましくは、図 13のステップ S203に示すように交わる平面領域より所定マージン分だけ一回り大きいマスクが生 成されるとよい。このように、マージンを多少なりとも持たせることで、観察者の両眼間 で視角に相異が多少あり且つ結像に対して大なり小なり真正面力も外れた位置で観 察する場合にも対応することが可能となる。尚、フォーク 122の属性に対応付けられ ているマスク画像は、一つとは限らない。複数のマスク画像力 フォーク 122の位置 や位置の変化 (つまり、動き)によって、選択されてもよい。例えば、浮遊画像がスパ ゲティとして、フォーク 122の位置が奥行き方向にのみ変化する場合には、スパゲテ ィが「刺されている」状態のマスク画像が選択される。他方で、フォーク 122が結像面 21と交わったまま回転する場合には、スパゲティが「回される、或いは巻きつけられて いる」状態のマスク画像が選択されると、一段とバラエティに富んだ表現が可能となる
[0092] 次に、被検出物として、ナイフ 123が用いられる場合に、浮遊画像を如何に変化さ せるかについて、図 14を参照して説明する。ここに、図 14は、第 2実施例に係る画像 表示装置において、浮遊画像をナイフで切る様子を示す模式図である(a:斜視図、 b :浮遊画像の変化を示す正面図)。
[0093] 図 14 (a)において、結像面 21にリンゴの浮遊画像が表示されており、そのリンゴの 浮遊画像をユーザがナイフ 123で切っている様子が描かれている。このときの一連の 浮遊画像の変化の様子を図 14 (b)に示す。先ず、図 14 (b)の時刻 t=0に示すように 、リンゴの浮遊画像は当初、何ら切り口のない状態で表示さる。その後、そのリンゴの 浮遊画像をユーザがナイフ 123で切ると共に時間が経過すると、ナイフ 123の描く軌 跡に対応した位置にマスク画像が生成され、図 14 (b)の時刻 t=Tl、及び t=T2に 示すようなリンゴの浮遊画像が得られる。尚、ここでのマスク画像は、上述の「弾痕」 ( 図 11参照)とは異なり、 ICタグ 53から読み取ったナイフ 123の属性に基づく比較的 鋭い切り口である。この切り口には、リンゴの中身が見えるようにすると、リアリティがー 層増す。尚、このようにナイフ 123が移動する際には、生成されるマスクも該移動に追 随するようにリアルタイム的な処理が施されてもよいし、或いは、結像面 21と交わる平 面領域、若しくは空間領域の集合を軌跡として記憶部 103に記憶しておき、該軌跡 に対応するマスクを作成してもよ 、。
[0094] このように、ナイフ 123が移動する際には、生成されるマスクは、ただ単にナイフ 12 3の現在地に追随するのみならず、図 15 (a)及び図 15 (b)に示すように、移動先を 予測して、予めマスク画像を先読みする等の準備をするようにしてもよい。ここに、図 15は、第 2実施例に係る画像表示装置において、浮遊画像をナイフで切る場合に、 ナイフの動きを予測して浮遊画像の先読みする様子を示す模式図である(a:経路 PO — P 1に沿って切る場合、 b:経路 QO - Q 1に沿つて切る場合)。 [0095] 図 15 (a)に示すように、ナイフ 123が時刻 t=0から T1の間に、経路 PO— P1に沿つ て画面真下方向に移動する場合には、その後の時刻 t=T2では、そのまま真下の点 P2の方向に移動すると予測される。或いは、図 15 (b)に示すように、ナイフ 123が時 刻 t = 0から T1の間に、経路 QO -Q1に沿って画面右下方向にカーブして移動する 場合には、その後の時刻 t=T2では、真下ではなぐカーブの延長線上にある点 Q2 の方向に移動すると予測される。このような予測は、ナイフ 123が移動する際に、例え ば数百ミリ秒毎にその軌跡を記録しておき、速度ベクトルを特定することで可能であ る。このように予測して、マスク画像を生成しておけば、応答遅れが解消され、ユーザ の違和感を軽減でき、インタラクテイビティが一段と向上する。
[0096] 尚、上述の実施例において、例えば、フォークとナイフを持ち替えて、それぞれの 属性によって次々に切り替わる変化を楽しんだり、または、フォークとナイフを同時に 持って、フォークで刺しながらナイフで切ると!、うような新たな変化を楽しむこともでき る。
[0097] さらに、本実施例における、別の例をいくつか挙げる。例えば、女性の顔の浮遊画 像に対して、口紅 124の属性を持つ被検出物の場合、口紅 124を女性の口元に近 づけ動かすと唇に口紅を塗られたような浮遊画像に変化したり、女性の顔も喜んだ表 情に変化したりする。口紅 124を頰に近づけ動かすと、女性の顔が嫌がった表情に 変化したり、顔を背けたりしてもよい。さらにファンデーションやアイシャドーなどの属 性を持つ被検出物と併用して、化粧を楽しんでもよい。また、例えば刷毛 126の属性 をもつ被検出物の場合、結像面に近づけ動かすと、ペンキのような太くて周辺がかす れたような線を描くことができる。万年筆の属性であれば、細くてシャープな線が描け 、青いペンの属性であれば青い色の線、赤いペンの属性であれば赤い色の線が描 けたりしてもよい。
[0098] 以上、本実施形態によれば、比較的簡易に立体的な二次元画像を表示すると共に 、その演出効果、及びインタラクテイビティを向上可能である。特に、被検出物の属性 に加えて位置も検出できるので、一律ではなぐその属性、及び位置に応じて変化に 富んだリアクションを実現可能となるので、立体的な画像としての演出効果は絶大な ものとなる。 [0099] (3)第 3実施例
続いて、第 3実施例に係る画像表示装置の構成及び動作処理について、図 16及 び図 17を参照して説明する。
[0100] (3— 1)構成
先ず、本実施例に係る画像表示装置の構成について、図 16を参照して説明する。 ここに、図 16は、第 3実施例に係る画像表示装置の基本構成を概念的に示すブロッ ク図である。
尚、図 16において、上述の第 1実施例(即ち、図 6)と同様の構成については同一の 参照符号を付し、その詳細な説明を適宜省略する。
[0101] 図 16において、本実施例に係る画像表示装置 1は、上述の第 1実施例に係る画像 表示装置 1の構成に加えて、状態検出部 62と、書換部 55とを更に備える。尚、本実 施例では、状態検出部 62が、本発明に係る「状態検出手段」の一例に相当しており 、書換部 55が、本発明に係る「書換手段」の一例に相当している。
[0102] 状態検出部 62は、例えば属性検出部 60と同様の ICタグのリーダであり、被検出物 の状態を、その状態が書き込まれている ICタグ 50を無線又は有線経由で読み取るこ とで、検出する。尚、ここでいう「被検出物の状態」とは、被検出物についての何らか の状態を定性的に、或いは定量的に示すものであり、例えばスィッチのオン'オフの ような非連続な 2段階の状態、或いはボリュームの低中高のような連続な多段階の状 態等を示す。
[0103] 書換部 55は、例えば ICタグのライタであり、例えば ICタグの回路を動的に組み替 えることで、 ICタグ 50に記録されて 、る情報を書き換え可能である。
[0104] 尚、上述した状態の検出は、必ずしも ICタグを介する必要はな 、。例えば、状態検 出部 62と書換部 55とが所定周波数帯の電磁波を利用した無線通信、或いは有線通 信による送受信が可能であれば、状態検出部 62は被検出物の状態を検出できる。
[0105] (3— 2)動作
次に、以上のように構成された本実施例に係る動作について、図 16に加えて、図 1 7を参照して説明する。ここに、図 17は、第 3実施例に係る、画像表示装置の基本動 作を示すフローチャートである。 [0106] 図 17において先ず、制御装置 100は、画像生成部 102によって、 2次元画像 (元 画像)を生成する (ステップ S101)。この元画像は、例えば図 8 (a)に示すように、的 を持った人形の画像とする。
[0107] 続いて、属性検出部 60によって被検出物の属性が検出される力否力が、判定され る (ステップ S102)。ここで、被検出物の属性が検出される場合 (ステップ S102 :YE S)、更に、状態検出部 62によって、被検出物の状態が検出される力否かが、判定さ れる(ステップ S311)。
[0108] ここで、被検出物の状態が検出される場合には (ステップ S311 : YES)、検出される 状態、及び属性に応じて次のような処理がなされる。尚、被検出物の状態、及び属性 が検出される場合とは、例えば、被検出物の属性が書き込まれた ICタグ 50を内蔵す る玩具の鉄砲 120で、ユーザが、属性検出部 60、及び状態検出部 62の検出可能範 囲内から、結像面 21に向けて発砲し、発砲に伴い、書換部 55が、被検出物の状態 が書き込まれた ICタグ 50の状態を"発射スィッチ 'オフ"から"発射スィッチ 'オン"へと 書き換えるような場合である。或いは、発砲に伴い、書換部 55が、 "発射スィッチ 'ォ ン"の旨を状態検出部 62へと電磁気的に送信するような場合である。
[0109] 先ず、属性検出部 60、及び状態検出部 62によって、検出される玩具の鉄砲 120の 状態、及び属性に対応するマスク画像が生成される (ステップ S303)。そして、第 1実 施例と同様に、ステップ S104、ステップ S105、及びステップ S106の処理が行われ 、検出される玩具の鉄砲 120の状態、及び属性に対応して、浮遊画像が好適に変化 する。その結果、ユーザが、結像面 21に表示されている的の浮遊画像をめがけて玩 具の鉄砲 120を発砲し、 "発射スィッチ ·オン"と 、う状態になると同時に又は相前後 して、的の浮遊画像に「弾痕」が残る。
[0110] 尚、ステップ S105において、合成後の 2次元画像を表示するタイミングは、被検出 物の状態が切り替わって力 所定間隔後でもよい。この所定間隔後は、例えば、上述 の例の場合、発射時の玩具の鉄砲 120の位置などから求まる。
[0111] 更に、元画像に対するマスク画像 (例えば、弾痕の位置は、発射時の玩具の鉄砲 1 20の位置に加えて、発射角度を考慮して定めてもよい。この際、発射角度は、玩具 の鉄砲 120の複数箇所に (好ましくは、発射方向に沿った直線上に)複数の ICタグを 付着させておき、夫々の ICタグの位置を検出することで、発射角度を求めてもよい。 或いは、撮像素子によって、直接的に発射角度を認識してもよい。さら〖こは、玩具の 鉄砲 120に、 6軸(例えば、 XYZ方向の加速度、前後の傾き、左右の傾き、左右の振 れ)センサを付加することによって、玩具の鉄砲 120の向き、傾きや動きなどを検出す ることで発射角度や発射方向を求めてもよい。
[0112] 尚、図 17において、被検出物の属性が何も検出されない場合 (ステップ S102 :NO )、又は被検出物の状態が何も検出されない場合 (ステップ S311 :NO)、元画像を 特に変化させる必要はない。或いは、被検出物の状態、及び属性のうち何れか一方 でも検出されれば、その検出結果に応じて、浮遊画像を変化させてもよい。
[0113] さらに、本実施例における、別の例をいくつか挙げる。例えば、女性の顔の浮遊画 像に対して、ドライヤー 125の属性を持つ被検出物の場合、ドライヤー 125の状態が スィッチがオフのときは、特に浮遊画像に変化はない。ドライヤー 125の状態がスイツ チがオンに切り替わると、髪がなびく女性の顔の浮遊画像に変化する。さらに、ドライ ヤー 125の状態の一つである風量の強弱スィッチを切り替えると、髪のなびく度合い が変化してもよい。さらには、ドライヤー 125の向きや角度、位置や動きを検出して、 髪のなびく位置や様子力 部分的に変化していってもよい。また、時間によって、濡 れて 、た髪が乾!、て!、くような変化をしてもょ 、。
[0114] 以上、本実施例によると、ユーザの操作に対して、浮遊画像がしつ力りと変化するう えに、その変化が使用する道具、即ち被検出物によって異なるので、非常にインタラ クテイビティに加えて、リアリティも増すのである。この際、厳密な位置を検出せずとも 、ユーザの操作に応じて変化可能であり、インタラクテイビティが向上する。
[0115] 尚、上述した実施例において、被検出物の、属性、位置、状態などの検出には、上 述した様々な方法、手法、手段を任意に組み合わせてもよい。こうすることによって、 画像表示装置の仕様に合わせて、必要な情報を適切に、又は正確に検出することが 可能になる。例えば、メモリと 6軸センサを内蔵した被検出物と無線通信によって、属 性、位置、状態など全ての情報を一括してやりとりしてもよい。
[0116] 尚、本発明は、上述した実施例に限られるものではなぐ請求の範囲及び明細書全 体力も読み取れる発明の要旨、或いは思想に反しない範囲で適宜変更可能であり、 そのような変更を伴う画像表示装置もまた、本発明の技術的範囲に含まれるものであ る。
産業上の利用可能性
本発明に係る画像表示装置は、例えば 3Dフローティングビジョン方式に基づいて 二次元画像を立体的に表示する画像表示装置の技術分野に利用可能である。

Claims

請求の範囲
[1] 画面上に画像を表示する表示手段と、
前記画像を構成する表示光の光路に配置され、かつ、前記画像の実像を前記画 面とは反対側の空間に位置する結像面に浮遊画像として表示するように、前記画像 を構成する前記表示光を伝達する画像伝達手段と、
前記空間を含む実空間部分内に位置する被検出物の属性を特定する属性特定手 段と、
前記浮遊画像が、前記特定される前記被検出物の属性に予め対応付けられてい る形態へと変化するように、前記表示手段を制御する制御手段と
を備えることを特徴とする画像表示装置。
[2] 前記属性特定手段は、前記属性を検出する属性検出手段を有する
ことを特徴とする請求項 1に記載の画像表示装置。
[3] 前記被検出物の位置力 前記実空間部分のうち何処であるかを検出する位置検出 手段を更に備え、
前記制御手段は、前記浮遊画像が、前記特定される属性に加えて、前記検出され る前記被検出物の位置にも予め対応付けられている形態へと変化するように、前記 表示手段を制御する
ことを特徴とする請求項 1に記載の画像表示装置。
[4] 前記検出される被検出物の位置が経時的に変化する場合に、該変化する前記被 検出物の位置の軌跡を記憶する記憶手段を更に備え、
前記制御手段は、前記浮遊画像が、前記特定される属性に加えて、前記記憶され る前記被検出物の位置の軌跡にも予め対応付けられている形態へと変化するように 、前記表示手段を制御する
ことを特徴とする請求項 3に記載の画像表示装置。
[5] 前記被検出物の位置が検出される時点よりも後に、前記被検出物の位置が前記実 空間部分のうち何処へ変化するかを、前記記憶される前記被検出物の位置の軌跡 に基づいて予測する予測手段を更に備え、
前記制御手段は、前記表示手段が、前記特定される属性に加えて、前記予測され る前記被検出物の位置にも予め対応付けられている形態に係る前記画像を先読み するように、前記表示手段を制御する
ことを特徴とする請求項 4に記載の画像表示装置。
[6] 前記被検出物の状態を検出する状態検出手段を更に備え、
前記制御手段は、前記浮遊画像が、前記特定される属性に加えて、少なくとも前記 検出される前記被検出物の状態にも予め対応付けられている形態へと変化するよう に、前記表示手段を制御する
ことを特徴とする請求項 1に記載の画像表示装置。
[7] 前記被検出物に付着されており、かつ、前記被検出物の属性を示す属性情報が電 磁光学的に読み出し可能に記録されているタグ手段を更に備え、
前記属性検出手段は、前記記録されている属性情報を電磁光学的に読み出すこと で、前記属性を検出する
ことを特徴とする請求項 2に記載の画像表示装置。
[8] 前記位置検出手段は、前記被検出物に付着されている前記タグ手段の位置が、前 記実空間部分のうち何処であるかを検出することで、前記被検出物の位置を検出す る
ことを特徴とする請求項 3に記載の画像表示装置。
[9] 前記タグ手段には、前記属性情報に加えて、前記被検出物の状態を示す状態情 報が電磁光学的に読み出し可能に記録されており、
少なくとも前記状態情報を書き換える書換手段を更に備える
ことを特徴とする請求項 7に記載の画像表示装置。
[10] 前記画像伝達手段は、マイクロレンズアレイカゝらなり、
前記浮遊画像は、前記画像の実像として表示される
ことを特徴とする請求項 1に記載の画像表示装置。
PCT/JP2006/319707 2006-10-02 2006-10-02 Dispositif d'affichage d'images WO2008041315A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2006/319707 WO2008041315A1 (fr) 2006-10-02 2006-10-02 Dispositif d'affichage d'images
JP2008537372A JP4939543B2 (ja) 2006-10-02 2006-10-02 画像表示装置
US12/443,594 US20100134410A1 (en) 2006-10-02 2006-10-02 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/319707 WO2008041315A1 (fr) 2006-10-02 2006-10-02 Dispositif d'affichage d'images

Publications (1)

Publication Number Publication Date
WO2008041315A1 true WO2008041315A1 (fr) 2008-04-10

Family

ID=39268181

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/319707 WO2008041315A1 (fr) 2006-10-02 2006-10-02 Dispositif d'affichage d'images

Country Status (3)

Country Link
US (1) US20100134410A1 (ja)
JP (1) JP4939543B2 (ja)
WO (1) WO2008041315A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014126682A (ja) * 2012-12-26 2014-07-07 Nitto Denko Corp 表示装置
JP2014171121A (ja) * 2013-03-04 2014-09-18 Ricoh Co Ltd 投影システム、投影装置、投影方法、及び投影プログラム
JP2018000941A (ja) * 2016-07-07 2018-01-11 ディズニー エンタープライゼス インコーポレイテッド インタラクティブな製品を用いたロケーションベースの体験
JP2022050365A (ja) * 2020-09-17 2022-03-30 神田工業株式会社 展示装置及び展示方法
JP7351561B1 (ja) 2022-06-29 2023-09-27 株式会社Imuzak マイクロレンズアレイを用いた画像伝達パネル、及びこれを用いた立体的2次元画像表示装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5304529B2 (ja) * 2009-08-17 2013-10-02 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
TWI507969B (zh) * 2012-09-07 2015-11-11 Benq Corp 遙控裝置、顯示系統與方法
FR3016048B1 (fr) * 2013-12-27 2016-01-15 Patrick Plat Dispositif interactif equipe d'une interface homme-machine
US10359640B2 (en) 2016-03-08 2019-07-23 Microsoft Technology Licensing, Llc Floating image display
JP6992342B2 (ja) * 2017-09-13 2022-01-13 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149581A (ja) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> 複数のユーザによる仮想空間共有システム
JP2003085590A (ja) * 2001-09-13 2003-03-20 Nippon Telegr & Teleph Corp <Ntt> 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体
WO2006035816A1 (ja) * 2004-09-30 2006-04-06 Pioneer Corporation 立体的二次元画像表示装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4952922A (en) * 1985-07-18 1990-08-28 Hughes Aircraft Company Predictive look ahead memory management for computer image generation in simulators
JP2002099475A (ja) * 2000-09-25 2002-04-05 Toshiba Corp 無線装置、データ管理システム及びデータ管理方法
US6961055B2 (en) * 2001-05-09 2005-11-01 Free Radical Design Limited Methods and apparatus for constructing virtual environments
JP2003053025A (ja) * 2001-08-10 2003-02-25 Namco Ltd ゲームシステム及びプログラム
JP2005141102A (ja) * 2003-11-07 2005-06-02 Pioneer Electronic Corp 立体的二次元画像表示装置及び方法
JP4179162B2 (ja) * 2003-12-26 2008-11-12 株式会社セガ 情報処理装置、ゲーム装置、画像生成方法、ゲーム画像生成方法
JP2006085499A (ja) * 2004-09-16 2006-03-30 Fuji Xerox Co Ltd Icタグおよびicタグ付きシート

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149581A (ja) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> 複数のユーザによる仮想空間共有システム
JP2003085590A (ja) * 2001-09-13 2003-03-20 Nippon Telegr & Teleph Corp <Ntt> 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体
WO2006035816A1 (ja) * 2004-09-30 2006-04-06 Pioneer Corporation 立体的二次元画像表示装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014126682A (ja) * 2012-12-26 2014-07-07 Nitto Denko Corp 表示装置
JP2014171121A (ja) * 2013-03-04 2014-09-18 Ricoh Co Ltd 投影システム、投影装置、投影方法、及び投影プログラム
JP2018000941A (ja) * 2016-07-07 2018-01-11 ディズニー エンタープライゼス インコーポレイテッド インタラクティブな製品を用いたロケーションベースの体験
JP7037891B2 (ja) 2016-07-07 2022-03-17 ディズニー エンタープライゼス インコーポレイテッド インタラクティブな製品を用いたロケーションベースの体験
JP2022050365A (ja) * 2020-09-17 2022-03-30 神田工業株式会社 展示装置及び展示方法
JP7251828B2 (ja) 2020-09-17 2023-04-04 神田工業株式会社 展示装置及び展示方法
JP7351561B1 (ja) 2022-06-29 2023-09-27 株式会社Imuzak マイクロレンズアレイを用いた画像伝達パネル、及びこれを用いた立体的2次元画像表示装置
WO2024005110A1 (ja) * 2022-06-29 2024-01-04 株式会社Imuzak マイクロレンズアレイを用いた画像伝達パネル、及びこれを用いた立体的2次元画像表示装置
JP2024004567A (ja) * 2022-06-29 2024-01-17 株式会社Imuzak マイクロレンズアレイを用いた画像伝達パネル、及びこれを用いた立体的2次元画像表示装置

Also Published As

Publication number Publication date
JPWO2008041315A1 (ja) 2010-02-04
JP4939543B2 (ja) 2012-05-30
US20100134410A1 (en) 2010-06-03

Similar Documents

Publication Publication Date Title
JP4939543B2 (ja) 画像表示装置
KR100812624B1 (ko) 입체영상 기반 가상현실장치
US7371163B1 (en) 3D portable game system
KR101298848B1 (ko) 표시 장치, 영상 표시 시스템, 및 영상 표시 방법
US20200368616A1 (en) Mixed reality gaming system
KR102296122B1 (ko) 다단계 가상 객체 선택
US8581966B2 (en) Tracking-enhanced three-dimensional display method and system
KR100913173B1 (ko) 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
KR102275778B1 (ko) 헤드 마운티드 디스플레이 장치
US20170272735A1 (en) Pulsed projection system for 3d video
JP5036875B2 (ja) 画像表示装置及び画像表示システム
WO2015200406A1 (en) Digital action in response to object interaction
CN103155006A (zh) 图像显示装置、游戏程序、游戏控制方法
TW201104494A (en) Stereoscopic image interactive system
CN104380347A (zh) 视频处理设备、视频处理方法和视频处理系统
EP2902998A1 (en) Display device, control system, and control programme
US20060214874A1 (en) System and method for an interactive volumentric display
JP4624587B2 (ja) 画像生成装置、プログラム及び情報記憶媒体
WO2007114225A1 (ja) 立体的二次元画像表示装置
US10664103B2 (en) Curved display apparatus providing air touch input function
KR101986687B1 (ko) 3차원 스캐닝 방식을 포함한 홀로그램 박스를 이용하는 홀로그램 장치 및 그 방법
US11767022B2 (en) Apparatus for controlling augmented reality, method of implementing augmented reality by using the apparatus, and system of implementing augmented reality by including the apparatus
CN110928472B (zh) 物品处理方法、装置及电子设备
JP2010253264A (ja) ゲーム装置、立体視画像生成方法、プログラム及び情報記憶媒体
KR102294919B1 (ko) 사용자의 시선과 손의 움직임 이벤트에 대응하는 홀로그램 영상을 출력하는 터미널 장치 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 06811055

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008537372

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 12443594

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 06811055

Country of ref document: EP

Kind code of ref document: A1