WO2008041314A1 - Dispositif d'affichage d'images - Google Patents

Dispositif d'affichage d'images Download PDF

Info

Publication number
WO2008041314A1
WO2008041314A1 PCT/JP2006/319706 JP2006319706W WO2008041314A1 WO 2008041314 A1 WO2008041314 A1 WO 2008041314A1 JP 2006319706 W JP2006319706 W JP 2006319706W WO 2008041314 A1 WO2008041314 A1 WO 2008041314A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display device
direct
view
image display
Prior art date
Application number
PCT/JP2006/319706
Other languages
English (en)
French (fr)
Inventor
Isao Tomisawa
Masaru Ishikawa
Katsumi Unehara
Takehiro Takahashi
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Priority to US12/443,747 priority Critical patent/US20100066662A1/en
Priority to JP2008537371A priority patent/JP4987008B2/ja
Priority to PCT/JP2006/319706 priority patent/WO2008041314A1/ja
Publication of WO2008041314A1 publication Critical patent/WO2008041314A1/ja

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses

Definitions

  • the present invention relates to a technical field of an image display device that displays a two-dimensional image stereoscopically based on, for example, a 3D (Dimension) floating vision system.
  • This type of stereoscopic two-dimensional image can improve the sense of reality, visibility, and amusement in interior decoration equipment, sales promotion displays, communication terminal devices, game machines, and the like. Therefore, various methods for displaying a stereoscopic two-dimensional image have been proposed. For example,
  • a polarization method has been proposed in which a viewer wears polarized glasses and visually observes left and right parallax images based on different polarization states.
  • this method it may be troublesome for the viewer to wear polarized glasses.
  • a lenticular lens method has been proposed as a stereoscopic image display method without using, for example, polarized glasses (see, for example, Patent Document 1).
  • this method three-dimensional expression and moving picture expression are realized by displaying a plurality of screens on a single screen and showing the plurality of screens through a translucent screen in which semi-cylindrical lenses of a certain width are connected in the horizontal direction. .
  • the applicant of the present application has proposed a 3D floating vision system (see, for example, Patent Document 2). According to this method, it is possible to display a stereoscopic two-dimensional image with a relatively simple configuration by forming a two-dimensional image as a real image by a microlens array.
  • Patent Document 1 Japanese Patent Laid-Open No. 10-221644
  • Patent Document 2 JP-A-2005-234240
  • Patent Document 1 may have the following cost problems. That is, the lenticular lens method described above has multiple screens on one screen. Therefore, a parallax image corresponding to both eyes of the viewer is required from the imaging stage. In order to supply this image, many operations such as computer image processing, lenticular lens design, and an accurate combination of the lens and the image are necessary, which increases the cost.
  • Patent Document 2 the cost problem related to Patent Document 1 can be solved, but there is room for improvement in the rendering effect.
  • a plurality of icons are displayed using a stereoscopic two-dimensional image, there is a risk that the rendering effect will be lacking if the icons are arranged randomly.
  • the present invention has been made in view of the above-described problems, for example, and an image display device capable of displaying a solid two-dimensional image in a relatively simple manner and improving its rendering effect. It is an issue to provide.
  • an image display device includes a first display unit that displays a first image on a first screen, and an optical path of display light that constitutes the first image.
  • the display light constituting the first image is transmitted so that the real image of the first image is arranged and displayed as a floating image on an imaging plane located in a space opposite to the first screen.
  • the image transmission means and at least one icon force among a plurality of icons are displayed as a floating image arranged along a virtual path of a predetermined shape set in a real space portion including the space.
  • Control means for controlling the first display means is provided.
  • a first display means such as a color liquid crystal display device.
  • the first image is displayed on the first screen.
  • image transmission means including a microlens array is arranged in the optical path of the display light constituting the first image.
  • the display light constituting the first image is transmitted by the image transmission means, and the real image of the first image is displayed as a floating image on the imaging plane located in the space opposite to the first screen.
  • the “floating image” is an image that appears to the user at the observation position (that is, within the range of the viewing angle) as if the force is floating in the air, and is preferably a real image.
  • 3D floating vision (registered trademark of the present applicant) system or integral photography system image display The method is included.
  • the “icon” refers to a symbol with a pattern. However, it may be only characters that do not necessarily have a pattern.
  • “icons” include the concept of menus and interfaces, and you can select or change various icon force selection items and setting items for operation and control.
  • a virtual path having a predetermined shape is provided in a real space portion including a space where a floating image is displayed, out of the real space spreading around the image display device or in front of the user. Is set. Of the plurality of icons, at least one icon is displayed by the control means including, for example, an arithmetic circuit and a recording circuit so as to be displayed as a floating image arranged along the virtual path of the predetermined shape.
  • the display means is controlled.
  • the “virtual route” is a route having a predetermined shape that is virtually set in the real space so as to penetrate the space where the floating image exists, also by the user force at the observation position.
  • the image formation plane of the floating image is arranged on the virtual path and at least one icon force is displayed as the floating image arranged along the virtual path.
  • the following effects can be achieved.
  • the floating image icon moves along the virtual route, it is visible to the user and is on the extension line of the virtual route portion (visible to the user, V).
  • An icon exists and can appear as if it were.
  • a plurality of icons each including a plurality of icons displayed as floating images by the first display means or an icon displayed as a direct view image by the second display means described later exist on the virtual path.
  • User power It is possible to make it appear as if an icon exists on the virtual route portion that is on the extension line of the visible virtual route portion.
  • the present invention it is possible to display a stereoscopic two-dimensional image relatively easily and to improve the rendering effect.
  • the virtual route is circular.
  • the virtual path is circular.
  • the “circular shape” here includes not only a perfect circle but also an ellipse. Therefore, for example, by displaying at least one icon displayed as a floating image so as to rotate along the circumference, the force is also arranged along the virtual path to other icons.
  • a plurality of island-shaped icons are arranged in a tubular tube, and it can be shown to the user as if only one or more of them are exposed to the front side.
  • the outer shape of the image display device is at least partially along the virtual path.
  • the outer shape of the image display device is at least partially along the virtual path. Therefore, for example, when at least one icon displayed as a floating image is arranged along a virtual path, other icon forces that do not actually exist are also hidden in the image display device. Can be shown to the user.
  • a second display means for displaying the second image as a direct-view image on the second screen so that the floating image can be seen from an observable position.
  • the control means displays an icon different from that displayed by the first display means among the plurality of icons as a direct-view image arranged along the virtual route.
  • the second display means is controlled in addition to the first display means.
  • the second image is displayed as a direct-view image on the second screen by the second display unit such as a color liquid crystal display device.
  • the second display unit such as a color liquid crystal display device.
  • the observation image force of the floating image can be seen, such as a position where the floating image is viewed from the observation position of the floating image.
  • the “direct-view image” is an image that appears to be displayed on the screen from the user, in other words, an image that is directly viewed by a powerful user, and is a concept in contrast to a floating image. It is. Therefore, the user views these two types of images together or simultaneously from the observation positions included in both the viewing angle range of the direct-view image and the viewing angle range of the floating image.
  • the image plane of the floating image and the second screen are arranged on the virtual path, and operate as follows under the control of the control means. That is, multiple icons That is, at least one icon is displayed as a floating image arranged along the virtual path, and another icon is displayed as a direct view image arranged along the virtual path. In this way, the icons displayed in the direct view image in conjunction with the floating image can be operated in conjunction with each other, so that the force is also arranged along the virtual path to other icons that are not actually visible. Can be shown to the user.
  • the apparatus further includes position detection means for outputting a position signal corresponding to the position of the detected object, and the control means is configured such that the plurality of icons indicate the detected object. At least one of the first display means and the second display means may be controlled based on the output position signal so as to be arranged at a position corresponding to the position.
  • a position signal corresponding to the position of the detected object is output by a position detection unit such as a space sensor, a touch panel, or a turntable. Then, at least one of the first display means and the second display means is added to the position signal output by the control means so as to be arranged at a position corresponding to the position of the plurality of icon force detection objects. Based on the control.
  • the “position of the detected object” referred to here includes not only the position of the detected object itself but also the movement and orientation of the position. Specifically, it includes the amount by which the user moves his / her hand on the touch panel or the amount by which the turntable is rotated.
  • a plurality of icons are displayed so as to move along the virtual route by a distance that matches or is proportional to these amounts.
  • the icon of the floating image may move along the virtual path with the floating image
  • the icon of the direct-view image may move along the virtual path with the direct-view image, but if there are multiple icons (preferably If there are three or more), it is possible to make the icon appear to move on the virtual path by switching between the floating image and the direct view image.
  • the position detection means is the detected object.
  • the position signal may be output when the position of an object moves along the virtual route.
  • the position signal is output by the position detection unit such as a turntable.
  • the first display unit and the second display unit are controlled so that the floating image icon and the direct-view image icon also move in the direction along the virtual path. In this way, a more intuitive operation is possible.
  • At least three icons of the plurality of icons may be displayed as the floating image or the direct-view image, respectively.
  • the imaging plane or the second screen on which the plurality of icons are displayed is in the depth direction with respect to the user of the image display device. You can make the positions different from each other.
  • the plurality of icons are displayed at positions shifted from each other in the depth direction with respect to the user of the image display device. Therefore, the perspective is further emphasized.
  • the position detecting means includes one or a plurality of operation buttons, and any one of the one or more operation buttons is the test object.
  • a signal corresponding to the pressed operation button is output as the position signal.
  • the position detection means includes one or a plurality of operation buttons.
  • a corresponding signal is output as a position signal. For example, when a floating image of an icon is displayed, pressing the turntable type operation button in the direction crossing the disk surface selects this icon. In this way, the interactivity is further improved.
  • the plurality of icons are displayed in a loop along the virtual path.
  • the virtual paths there are a plurality of the virtual paths, and each is arranged concentrically or in a multilayer shape.
  • the virtual route includes not only one but a plurality of virtual routes.
  • an icon may be intentionally placed at the intersection of a plurality of virtual routes, and the icon to be output may be selectively movable along any virtual route.
  • the image display device further includes a communication unit that communicates with another device, and the communication unit includes the position where the other device outputs the position. Communicate with the other device to operate based on the signal.
  • the image display device can be used as a controller of another device like a remote controller.
  • other devices such as an audio system or a video system can be controlled or operated from the image display device.
  • the first display means, the image transmission means, and the control means are provided, so that a stereoscopic two-dimensional image is displayed relatively easily.
  • the production effect can be improved.
  • FIG. 1 is a perspective view showing a basic configuration of an image display device capable of displaying a floating image according to an embodiment.
  • FIG. 2 is an arrow view of the image display apparatus according to the embodiment as seen from AA force in FIG.
  • FIG. 3 is a cross-sectional view schematically showing the structure of an image transmission panel.
  • FIG. 4 is a cross-sectional view schematically showing the structure of the image transmission panel and the orientation of the image (two sheets).
  • FIG. 5 is a cross-sectional view schematically showing the structure of an image transmission panel and the orientation of an image (a: 1 sheet, b: 3 sheets).
  • FIG. 6 is a perspective view showing a basic configuration of an image display apparatus according to an embodiment.
  • FIG. 7 is a cross-sectional view showing a basic configuration of an image display apparatus according to an embodiment (3DF method).
  • FIG. 8 is a cross-sectional view showing a basic configuration of an image display apparatus according to an embodiment (IP method).
  • FIG. 9 is a cross-sectional view showing the basic configuration of the image display apparatus according to the example (when the position detecting means is a touch panel).
  • FIG. 10 is a schematic diagram showing a basic configuration of an image display device interlocked with a mobile phone.
  • FIG. 11 is a flowchart showing the operation of the image display device linked with the mobile phone.
  • FIG. 12 is a side view showing an image display device that does not include a prism sheet.
  • FIG. 13 is a side view showing an image display device including a prism sheet (a: prism sheet in direct view display unit, b: tilt display unit, prism sheet in direct view display unit, c: display unit and direct view display. Prism sheet in the part).
  • FIG. 14 is a cross-sectional view showing a partially enlarged cross section of a prism sheet.
  • FIG. 15 is a perspective view showing a line of intersection between the display surface of the direct view display unit and the imaging surface.
  • FIG. 16 is a schematic diagram showing an imaging plane line that is an intersection line between the display surface of the direct view display unit and the imaging plane (a: side view, b: top view).
  • FIG. 17 Schematic diagram showing how the floating image and the direct-view image change in conjunction with each other (a: Spot direct-view image 352 is within the floating image display range and behind intersection line 2135, b: Spot The direct view image 352 of the spot is on the intersection line 2135, and c: the spot direct view image 352 is in the floating image display range and before the intersection line 2135).
  • FIG. 18 Flowchart showing the process of changing the floating image and direct view image in conjunction.
  • ⁇ 19 Schematic showing how the floating image and direct view image change in conjunction (a: state 1) B: second state, c: third state, d: fourth state).
  • FIG. 20 Flowchart showing the process of changing the floating image and the direct view image in conjunction.
  • ⁇ 21 Schematic showing how the floating image and the direct view image change in conjunction (a: First state B: second state, c: third state).
  • ⁇ 22 A flowchart showing the process of changing the floating image and the direct view image in conjunction.
  • ⁇ 23 A schematic diagram showing how the floating image and the direct view image change in conjunction (a: First state, b: second state, c: third state).
  • FIG. 24 Flowchart showing the process of changing the floating image and the direct-view image in conjunction.
  • ⁇ 25 Schematic diagram showing the overall configuration of a circular image display device that can display a combination of the direct-view image and the floating image. It is a figure (a: perspective view, b: top view).
  • ⁇ 26 It is a top view showing a plurality of icons arranged in a circle (a: virtual layout, b: actual layout).
  • FIG. 27 It is a schematic diagram showing the rotational movement of a plurality of icons arranged in a circle (a: first state, b: second state, c: third state, d: fourth state).
  • FIG. 28 is a flowchart showing processing related to rotational movement of a plurality of icons arranged in a circle.
  • FIG. 29 is a schematic diagram showing a basic configuration of a turntable.
  • FIG. 30 is a schematic diagram showing icons represented by floating images and direct-view images (a: one floating image and two direct-view images, b: three floating images).
  • FIG. 31 It is a schematic diagram showing a virtual hierarchical structure of icons (a: arranged concentrically, b: arranged in a multi-layered disk).
  • FIG. 1 is a perspective view illustrating a basic configuration of an image display apparatus capable of displaying a floating image according to the embodiment.
  • FIG. 2 is an arrow view of the image display apparatus according to the embodiment as seen from AA in FIG.
  • an image display device 100 includes a display unit 11 having an image display surface 111 and an image transmission panel 17, and is on the side opposite to the display unit 11.
  • the floating image 13 is displayed on the image plane 21 in the space 15.
  • the display unit 11 is included in the present invention. This corresponds to an example of the “first display unit”, and the image transmission panel 17 corresponds to an example of the “image transmission unit” according to the present invention.
  • the display unit 11 is, for example, a color liquid crystal display (LCD), and includes a color liquid crystal driving circuit (not shown), a backlight illumination unit (not shown), and the like, and displays a two-dimensional image.
  • the color liquid crystal drive circuit outputs a display drive signal based on an externally input video signal.
  • the backlight illumination unit illuminates the image display surface 111 from behind when the display unit 11 is not self-luminous.
  • the image display surface 111 displays a two-dimensional image, for example, by changing the direction of liquid crystal molecules to increase or decrease the light transmittance based on the output display drive signal.
  • the displayed two-dimensional image is finally displayed as a floating image, it is preferable that the displayed two-dimensional image is three-dimensionally depicted with a sense of depth.
  • the display unit 11 instead of a color liquid crystal display (LCD), various display devices such as a cathode ray tube, a plasma display, or an organic electoluminescence display may be used.
  • the image transmission panel 17 is configured by, for example, a microlens array (details will be described later with reference to FIG. 3), and is spaced apart from the display unit 11. Then, the image transmission panel 17 floats by forming light emitted from the image display surface 111 of the display unit 11 (that is, display light constituting the two-dimensional image) on the image formation surface 21 of the space 15. Display image 13.
  • the imaging surface 21 is a plane virtually set in space according to the working distance of the microlens array, and is not an entity.
  • the floating image 13 formed on the image plane 21 is displayed floating in the space, so that it appears to the observer that a three-dimensional image is also reflected by the observer.
  • the floating image 13 is recognized by the observer as a pseudo stereoscopic image.
  • the 2D image displayed on the display unit 11 should have a sense of depth in advance, or the background image should be black on the image display surface 111 and the contrast should be emphasized. ,.
  • the image display device 100 is configured as shown in FIGS.
  • FIG. 3 is a cross-sectional view schematically showing the structure of the image transmission panel.
  • Fig. 4 is a cross-sectional view schematically showing the structure of the image transmission panel and the orientation of the image (two sheets).
  • FIG. 5 is a cross-sectional view schematically showing the structure of the image transmission panel and the orientation of the image (a: 1 sheet, b: 3 sheets).
  • the image transmission panel 17 includes a microlens array 25.
  • the microlens array 25 is configured, for example, by integrating two lens array halves 251 and 252.
  • Each of the lens array halves 251 and 252 has a plurality of micro convex lenses 23 arranged in a two-dimensional matrix on both surfaces of a transparent substrate 24 made of glass or resin excellent in light transmittance.
  • each micro-convex lens is arranged so as to coincide with the optical axis 1S of the micro-convex lens 231 arranged on one surface of the transparent substrate 24 and the optical axis of the micro-convex lens 232 at the opposite position of the other surface.
  • the lens array halves are overlapped so that the optical axes of the adjacent micro-convex lenses 232.231 between the lens array halves 251 and 252 also coincide.
  • the image transmission panel 17 is disposed so as to face the image display surface 111 of the display unit 11 at a position separated by a predetermined separation distance (operating distance of the microlens array 25).
  • the image transmission panel 17 transmits the display light of the two-dimensional image emitted from the image display surface 111 of the display unit 11 to the space 15 on the side opposite to the display unit 11, and the image transmission panel 1 Form an image on an image plane 21 that is a predetermined distance away from 7.
  • the image transmission panel 17 can display the two-dimensional image displayed by the display unit 11 as the floating image 13.
  • the two-dimensional image displayed by the display unit 11 is flipped upside down once by the lens array half 251 and turned upside down again by the lens array half 252. Let it emit. Thereby, the image transmission panel 17 can display an erect image of the two-dimensional image as the floating image 13.
  • the configuration of the microlens array 25 is not limited to one in which the lens array halves 251 and 252 are integrated in pairs. Absent. For example, it may be composed of one sheet as shown in FIG. 5 (a), or may be composed of two or more sheets as shown in FIG. 5 (b)! /. As described above, if the image transmission panel 17 is configured as shown in FIGS. 3 to 5, the image display device 100 can suitably display the floating image 13 as an erect image, for example.
  • FIG. 6 is a perspective view illustrating the basic configuration of the image display apparatus according to the embodiment.
  • an image display device 100 includes a housing 101 having a display unit 11, an image transmission panel 17, a direct-view display unit 31, 32, and 35, and an opening 102.
  • the display unit 11 constitutes an example of “first display means” according to the present invention
  • the image transmission panel 17 constitutes an example of “image transmission means” according to the present invention.
  • Each of the display units 31, 32, and 35 constitutes an example of “second display means” according to the present invention.
  • the display unit 11 and the image transmission panel 17 display the floating image 210 on the image plane 21 as described with reference to FIGS.
  • the direct-view display unit 31 and the direct-view display unit 32 provided on the left and right sides of the image transmission panel 17 are, for example, the same color liquid crystal display devices as the display unit 11, and display the direct-view image 310 and the direct-view image 320, respectively. To do.
  • the direct view display unit 35 provided on the lower side of the image transmission panel 17 is also a color liquid crystal display device similar to the display unit 11, for example, and displays the direct view image 350.
  • the direct-view image 350 is a shadow or reflection image of the floating image 210, the stereoscopic effect of the floating image 210 is further enhanced.
  • the casing 101 packs various members such as the display unit 11 and has an opening 102 on the front surface on the user side. Therefore, the user whose right hand is illustrated in FIG. 6 can also see the front side force of the floating image 210 and the direct-view images 310, 320, and 350. In this way, the observation position force at which the user whose right hand is illustrated in FIG. 6 enters the range of the viewing angle of the floating image 210, and also enters the range of the viewing angle of each of the direct-view images 310, 320, and 350.
  • the display unit 11, the image transmission panel 17, and the direct-view display units 31, 32, and 35 are arranged. In other words, the user can choose such an observation position (typically a position directly opposite the floating image). ) Will see these multiple images.
  • the image display device 100 described with reference to Fig. 6 may include at least a floating image and a direct-view image according to the position and movement of an object to be detected such as a user's hand. Can also change any of the images.
  • FIG. 7 is a cross-sectional view showing the basic configuration of the image display apparatus according to the embodiment (3DF method).
  • FIG. 8 is a cross-sectional view showing the basic configuration of the image display apparatus according to the embodiment (IP method).
  • FIG. 9 is a cross-sectional view showing the basic configuration of the image display apparatus according to the embodiment (when the position detecting means is a touch panel).
  • the image display device 100 includes a display unit 11, an image transmission panel 17, a direct view display unit 35, a position detection unit 4, and a control unit 5.
  • the direct-view display units 31 and 32 are not shown for convenience.
  • the display unit 11 and the image transmission panel 17 display a floating image on the image plane 21.
  • This floating image does not necessarily have to be displayed by the 3D floating vision method described with reference to FIGS.
  • Real images are preferred as floating images, so real images can be obtained in the same way as 3D floating vision methods, for example, IP (Integral Photographic) method.
  • the image transmission panel 172 is, for example, a pinhole array, a microlens array, or a lenticular lens, and is closer to the display unit 11 than the 3D floating vision system. Placed in. Since the image transmission panel 172 is used to change or control the direction of light rays in the image formation as in the 3D floating vision method, the floating image 212 displayed via the image transmission panel 172 is displayed from the user. It feels like a plane with a depth rather than a plane. However, the image displayed on the display unit 11 by the IP method needs to be a complex two-dimensional image peculiar to the IP method considering that the depth is not as simple as a two-dimensional image like the 3D floating vision method. . Thus, from the viewpoint of image production costs, it can be said that the 3D floating vision method is preferable to the IP method.
  • the position detection unit 4 specifies the position or movement when entering the detection target force predetermined region such as the user's finger. Force tl, control unit 5 and power The detection result is transmitted to the control unit 5.
  • the position detection unit 4 is, for example, an image sensor or a spatial sensor using ultrasonic waves, and detects the position of the detected object by detecting the ultrasonic wave reflected by the detected object with a piezoelectric element.
  • the position detection unit 4 may be a touch panel 41 provided on the direct-view display unit 35 as shown in FIG.
  • the touch panel 41 is, for example, a panel in which piezoelectric elements are arranged in a matrix.
  • the touch panel may be of any type such as a resistive film type, a capacitance type, and an infrared type.
  • an operation controller such as a turntable described later with reference to FIG. 29 may be used.
  • control unit 5 stores, for example, a well-known central processing unit (CPU), a read only memory (ROM) storing a control program, and various data. Random access memory (RAM), and a logical operation circuit centering on a storage device that stores and generates data such as display images. Then, the display unit 11 and the direct-view display units 31, 32, and 35 are controlled so that the floating image or the direct-view image is changed based on the detection result of the position detection unit 4.
  • CPU central processing unit
  • ROM read only memory
  • RAM Random access memory
  • the image display device 100 is configured as described with reference to Figs. 6 to 9, and thus, for example, according to the position and movement of a detection object such as a user's hand
  • a detection object such as a user's hand
  • the interactivity or operability of the image display apparatus 100 can be improved.
  • FIG. 6 since a plurality of images are displayed so as to surround the user with the floating image at the center, in an image space that is spread in front of the user and has excellent realism. Interactivity and operability can be improved.
  • FIG. 10 is a schematic diagram showing the basic configuration of an image display device linked to a mobile phone.
  • the mobile phone 200 and the image display device 100 can communicate with each other via the interface units 202 ⁇ 61.
  • the interface unit 202 of the mobile phone 200 transmits a signal indicating that the incoming call has been received from the electrically connected call control unit 201 to the image display device 100 side.
  • a signal from the image display device 100 is received and transmitted to the call control unit 201.
  • the call control unit 201 starts the call process.
  • the interface unit 61 of the image display device 100 receives a signal indicating that an incoming call has been received from the mobile phone 200 and transmits the signal to the electrically connected control unit 5. Based on the received signal, the control unit 5 controls the display unit 11 to display the floating images 211, 212, and 213 indicating the incoming call. On the other hand, when an instruction to transmit a signal to start a call is received from the control unit 5, the signal is transmitted to the mobile phone 200 side.
  • Communication between the interface unit 202 and the interface unit 61 is not limited to wired communication, and may be wireless communication such as infrared communication.
  • FIG. 11 is a flowchart showing the operation of the image display device linked with the mobile phone.
  • step S101 first, while the user is driving the vehicle, whether or not there is an incoming call to the mobile phone 200 is determined regularly or irregularly (step S101).
  • step S101: NO if there is no incoming call to mobile phone 200 (step S101: NO), no particular processing is performed.
  • step S101: YES when there is an incoming call to the mobile phone 200 (step S101: YES), the call control unit 201 transmits an incoming call signal indicating the incoming call to the control unit 5 via the interface unit 202 ⁇ 61. (Step S102).
  • the control unit 5 receives the incoming signal and displays a two-dimensional image for notifying the user of the incoming call on the display unit 11 (step S 103).
  • a two-dimensional image for example, a two-dimensional image of a character “phone”, a two-dimensional image of a mobile phone, or a two-dimensional image of the other party's face may be displayed.
  • the floating image displayed on the image plane 21 is shown in FIG. It is an image like floating image 211 ⁇ 212 ⁇ 213 of 0.
  • the incoming call period is a period that is set in advance by the caller of the caller or by the user.
  • step S104 If the user's hand is not detected within the incoming call period (step S104: NO), it means that the user is not in a state where the user can make a call, so the process ends without starting the call.
  • step S104 when the user's hand is detected within the incoming call period (step S104: YES), the control unit 5 sends a call start signal to the call control unit 201 via the interface units 61 and 202. (Step S105).
  • the call control unit 201 that has received the call start signal starts the call process (step S 106). That is, the user and the other party can talk. In addition, it is preferable that this call is made hands-free for safety. Accordingly, the image display apparatus 100 may be further provided with an audio input / output device, and the interface units 202 and 61 may be capable of exchanging call audio.
  • the direct-view display unit 35 displays, for example, car navigation that displays the position where the vehicle travels as a map image, and a floating image pops up on the map image when an incoming call is received. To notify you of incoming calls.
  • the image display device 100 works with the mobile phone 200, so that a more interactive user interface using floating images can be provided.
  • FIG. 12 is a side view showing an image display device that does not include a prism sheet.
  • FIG. 13 is a side view showing an image display device including a prism sheet (a: prism sheet in the direct view display unit, b: tilted image transmission panel, prism sheet in the direct view display unit, c: image transmission panel and direct view display. Prism sheet in the part).
  • Figure 14 shows the pre- It is sectional drawing which shows the cross section which expanded the arm sheet partially. The same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted as appropriate.
  • the image display apparatus can correct the entire range of the viewing angle toward the observation position where the user is supposed to be located, as an example of the “optical member” according to the present invention.
  • a prism sheet is provided to make it easier for users to see floating images and direct-view images.
  • the floating image displayed on the image plane 21 of the image display device 100 according to the comparative example is easy for the user to see. This is because the display unit 11 and the image transmission panel 17 are arranged so as to face the user.
  • the direct view image displayed on the direct view display unit 35 is difficult for the user to see.
  • the direct-view image display light is emitted from the direct-view display unit 35 so that the center line or the optical axis coincides with the direction intersecting the user's line of sight substantially perpendicularly.
  • the direct-view image is viewed by the user as having deteriorated in brightness or color in the vicinity of the corner within the range of the viewing angle or slightly out of the range of the viewing angle. End up.
  • the image display device 100 according to the present embodiment that eliminates such a problem further includes a prism sheet 7 as shown in FIGS. 13 (a) to 13 (c).
  • the image display apparatus 100 further includes a prism sheet 7 on the optical path of the display light emitted from the direct view display unit 35.
  • the prism sheet 7 is configured as shown in FIG. That is, the prism sheet 7 includes a plurality of inclined surfaces 71 formed at a predetermined pitch. The direction of the display light emitted from the direct-view display unit 35 is changed by a predetermined angle ⁇ according to the inclination angle or refractive index of the inclined surface 71.
  • the “predetermined angle” refers to the user's line of sight and the direction of the display light emitted from the direct view display unit 35 (that is, the optical axis direction of the display light, in other words, the normal direction of the screen of the direct view display unit 35).
  • the prism sheet 7 is designed in this way, the display light emitted from the direct-view display unit 35 is refracted on the inclined surface 71 and transmitted to the user in the direction of the force.
  • the direct-view image displayed on the direct-view display unit 35 of the image display device 100 according to the present embodiment is larger than that of the comparative example. It becomes easy for the user to see.
  • the direct-view image is observed by the user as an image excellent in luminance and color that is close to the center in the range of the viewing angle or at least does not deviate from the range force of the viewing angle.
  • the image display In the case where the apparatus 100 is looked down, it may be configured as shown in FIG. 13 (b) or FIG. 13 (c).
  • the image display device 100 not only further includes the prism sheet 7 on the optical path of the display light emitted from the direct view display unit 35, but also includes the display unit 11, the image transmission panel 17,
  • the direct view display unit 35 is tilted in the direction of the user's line of sight.
  • the image display device 100 includes not only the prism sheet 7 on the optical path of the display light emitted from the direct view display unit 35 but also the image transmission panel 17 (display unit 11).
  • a prism sheet 7 as another example of the “optical member” according to the present invention is further provided on the optical path of the display light emitted from.
  • the prism sheet 7 may be provided not only in the direct-view display unit 35 or the image transmission panel 17 but also in other direct-view display units 31 and 32.
  • the image display device 10 As described above with reference to FIGS. 12 to 14, the image display device 10 according to the present embodiment 10.
  • the viewing angle can be corrected for enlargement.
  • the image display device 100 has a configuration capable of producing an effect in which the floating image and the direct-view image are linked in the vicinity of the intersection line between the imaging surface 21 and the direct-view display unit 35.
  • FIG. 15 shows the table of the direct view display section. It is a perspective view which shows the intersection of a display surface and an image plane.
  • FIG. 16 is a schematic diagram showing an imaging plane line that is an intersection line between the display surface of the direct view display unit and the imaging plane (a: side view, b: top view).
  • the image display device 100 includes a display unit 11, an image transmission panel 17, and a direct-view display unit 35. As described above with reference to FIG. 1, the display unit 11 and the image transmission panel 17 are disposed to face each other. Accordingly, the image plane 21 is located in the space opposite to the display unit 11. The direct-view display unit 35 is arranged in a direction intersecting with the image plane 21.
  • An intersecting line 2135 indicates a portion where the imaging surface 21 and the direct view display unit 35 intersect. Then, as shown in FIG. 16 (a), when viewed from the side of the image display device 100, the intersection line 2135 appears as an intersection between the image plane 21 and the direct-view display unit 35. On the other hand, as shown in FIG. 16 (b), when viewed from the upper surface of the image display device 100, the intersection line 2135 appears to coincide with the imaging plane 21 in the direct view display unit 35.
  • the intersection line 2135 may include an extension line in addition to the portion where the image plane 21 and the direct-view display unit 35 intersect. That is, it is a concept that includes an intersection line between the extended surface of the imaging surface 21 and the extended surface of the direct-view display unit 35. Furthermore, there are intersecting lines between the extended surface of the imaging surface 21 and the direct-view display unit 31 and the direct-view display unit 32, and even if the floating image and the direct-view image are linked in the vicinity of these intersecting lines, ⁇ ⁇ .
  • intersection 2135 described with reference to FIGS. 15 and 16 is used as a reference, and is displayed on the imaging plane 21 in accordance with the relative positional relationship of the direct-view image displayed on the direct-view display unit 35.
  • the floating image and the direct-view image can be displayed in close linkage with each other. This specific mode will be described with reference to FIGS.
  • Fig. 17 is a schematic diagram showing how the floating image and the direct-view image change in conjunction with each other (a: the spot direct-view image 352 is within the floating image display range and behind the intersection line 2135, b : Spot direct-view image 352 is on intersection line 2135, c: Spot direct-view image 352 is in the floating image display range and before intersection line 2135).
  • Figure 18 shows floating It is a flowchart which shows the process which changes a game image and a direct view image in conjunction.
  • the predetermined spot in the direct-view image is scrolled or slid automatically or by the user's operation, so that the display surface of the direct-view display unit and the imaging surface intersect. It is characterized by the use of a video representation in which the size of the floating image appears larger and smaller as it approaches the line and disappears as it moves away.
  • the image display device 100 is, for example, a car navigation system that displays a position where the vehicle travels as a map image.
  • the display unit 11 and the image transmission panel 17 are arranged to face each other as described above with reference to FIG. Accordingly, the image plane 21 is located in the space opposite to the display unit 11.
  • the direct-view display unit 35 is disposed in a direction intersecting with the image plane 21.
  • the direct-view image 351 displayed on the direct-view display unit 35 is, for example, a map around the area where the image display device 100 is installed!
  • the floating image 214 formed on the imaging plane 21 is information (for example, three-dimensional structure or character information) of an object (for example, a landmark, a building, or an intersection such as Tokyo Tower) displayed in the direct-view image 351. Etc.).
  • the direct-view image 352 is an image showing a spot, that is, a mark or a shadow indicating the position of the object displayed as the floating image 214 in the map.
  • the spot direct-view image 352 and the floating image 214 showing the information typically have a one-to-one correspondence.
  • the control unit 5 controls the display unit 11 and the direct-view display unit 35 to change the floating image 214, the direct-view image 351, and the direct-view image 352, respectively.
  • the direct-view image 351 of the surrounding map is updated regularly or irregularly as the vehicle travels (step S201).
  • the update information at this time is the same as in normal car navigation systems, and the road map information recorded on a CD or DVD is read as necessary, for example, by combining GPS (Global Positioning System: GPS) and autonomous navigation. It is determined by collating with the information of the identified own vehicle travel route.
  • GPS Global Positioning System: GPS
  • step S202 Positional force relative to 5 is detected by the control unit 5 (step S202). Then, it is determined whether or not the detected position is within the floating image display range (step S203). Specifically, if the relative arrangement of the display unit 11, the image transmission panel 17, and the direct view display unit 35 is determined in advance, the position of the intersection line 2135 is also determined in advance. Therefore, the distance between the direct view image 351 of the surrounding map and the distance from the intersection 2135 of the direct view image 352 of the spot! / It can be specified by the control unit 5 that manages the display contents.
  • step S 203 If the floating image display range is not reached (step S 203: NO), the floating image 214 corresponding to the spot direct-view image 352 is not displayed (step S 207).
  • step S203 when it is within the floating image display range (step S203: YES), for example, as shown in FIG. 17 (a), the floating image 214 corresponding to the spot direct-view image 352 is displayed.
  • the floating image 214 is displayed as a three-dimensional image of Tokyo Tower. The following processing is performed to change the size of the floating image 214 displayed at this time in accordance with the position difference between the intersection line 2135 and the spot direct-view image 352.
  • the difference in position between the intersection line 2135 and the spot direct-view image 352 is calculated (step S 2 04).
  • This position difference may indicate a position difference in a direction orthogonal to or along the intersection line 2135.
  • the predetermined point force on the intersection line 2135 is also a distance to the spot direct view image 3 52. You can show!
  • the enlargement / reduction ratio is calculated according to the calculated position difference (step S205). For example, the enlargement / reduction ratio is calculated such that the smaller the difference between the calculated positions, the larger the floating image 214 is displayed.
  • the floating image 214 is displayed so as to have a size corresponding to the calculated enlargement / reduction ratio (step S206).
  • the spot direct-view image 352 intersects with the intersection line 2135, which is closer to the intersection line 2135 than in the case of FIG. 17 (a). Accordingly, the enlargement / reduction ratio of the floating image 214 in FIG. 17 (b) is set to be larger than that in the case of FIG. 17 (a).
  • the direct-view image 352 of the spot relative to the intersection line 2135 Since the floating image 214 changes dynamically according to the physical positional relationship, the expressive power of the image display device 100 is improved.
  • the reason for calculating the enlargement / reduction ratio as described above is as follows. That is, as a condition for displaying the floating image 214, the spot direct-view image 352 does not have to completely coincide with the intersection (intersection line). In other words, if the spot direct-view image 352 is located within the floating image display range from the intersection (intersection line), the floating image 214 corresponding to the spot direct-view image 352 may be displayed.
  • the “floating image display range” may be set in advance to be, for example, 20% of the depth of the direct-view display unit 35 in the direction orthogonal to the intersection line 2135.
  • the floating image display range is 20mm, which is 20% of 1 OOmm. More specifically, as shown in FIG. 17 (a) force FIG. 17 (c), the floating image display range has a width of 10 mm in the front and rear directions in the direction orthogonal to the intersection line 2135. If the spot direct-view image 352 is located within such a floating image display range, even if the corresponding floating image 214 is displayed, the relationship between the two is easily recognized, so the sense of discomfort is reduced.
  • the floating image 214 is gradually displayed smaller. I prefer to change it so that it disappears afterwards.
  • FIG. 19 (a) to FIG. 19 (d) are applied to the second mode of the image display apparatus according to the present embodiment.
  • Fig. 19 is a schematic diagram showing how the floating image and the direct-view image change together (a: first state, b: second state, c: third state)
  • FIG. 20 is a flowchart showing a process of changing the floating image and the direct-view image in conjunction with each other.
  • a direct-view image 353 of an artist list is displayed in the depth direction of the direct-view display unit 35. Then, it is displayed as a floating image 215 in the album list of the information power related to the artist on the intersection 2135 in the list.
  • the image display apparatus 100 is said to change the floating image when the list displayed on the direct view display unit 35 is moved to the vicinity of the intersection 2135 by a scroll operation or the like. It is an interactive system. Use a video expression that the floating image jumps out of the direct-view display unit 35 that more effectively slides the linkage between the direct-view image and the floating image, or that the floating image enters the direct-view display unit 35. It is characterized by.
  • Step S301 According to the scroll operation, the direct-view image 353 of the artist list displayed on the direct-view display unit 35 is updated, and a new artist is displayed (step S3 02). At the same time as or after this update, an artist located on the intersection line 2135 among the artists included in the direct-view image 353 of the artist list is specified by the control unit 5 (step S303). Then, as shown in FIG. 19 (a), information relating to the specified artist is displayed, for example, as a floating image 215 in the album power album list of the artist (step S304).
  • Step S305 which artist is selected is transmitted to the control unit 5 from the touch panel 41 provided along with the direct-view display unit 35. Then, as shown in FIG. 19 (b), the place where the album list of the selected artist is displayed is switched from the display unit 11 to the direct view display unit 35.
  • a staging effect is added such that the floating image 215 in the album list falls into the direct-view display unit 35 by force (step S306).
  • control unit 5 controls the display unit 11 so that the viewpoint of the floating image 215 of the album list is changed stepwise from a front view to a perspective view (step S3071).
  • control unit 5 controls the direct-view display unit 35 so as to display a direct-view image 354 that fades in so that the album list slides into the direct-view display unit 35 (step S3072).
  • the album force control unit 5 located at the intersection 2135 in the directly viewed image 355 of the fallen album list is specified (step S308).
  • the album located at the intersection line 2135 can be changed by the user's scrolling operation.
  • the control unit 5 controls the display unit 11 so that the jacket of the identified album appears to pop out as a floating image 216 as shown in the floating image 216 of the jacket shown in FIGS. 19 (c) and 19 (d). (Step S309).
  • the music included in this album is played, or In addition, the music contained in the album is displayed as a direct view image or floating image.
  • FIG. 21 is a schematic diagram showing how the floating image and the direct-view image change together (a: first state, b: second state, c: third state) o)
  • FIG. 22 is a flowchart showing a process of changing the floating image and the direct-view image in conjunction with each other.
  • the image display apparatus 100 is configured to use the floating image according to the relative positional relationship between the predetermined spot in the floating image and the direct-view image and the intersection line between the display surface of the direct-view display unit and the imaging surface. Or, it is characterized by improving the expressive power by dynamically changing the direct view image.
  • a video expression that changes the virtual tilt angle of the floating image according to the relative positional relationship between a predetermined spot in the direct-view image and the intersection line between the display surface of the direct-view display unit and the imaging surface is used. It is characterized by that.
  • the image display device 100 is, for example, a car navigation system that displays a position where the vehicle travels as a map image. Its basic configuration is the same as that of the image display device 100 described with reference to FIGS. 17 (a) to 17 (c), and thus description thereof is omitted.
  • the direct-view image 356 showing the vicinity of the host vehicle is updated regularly or irregularly as the vehicle travels (step S401).
  • the spot position force control unit 5 in the direct-view image 356 showing the periphery of the own vehicle is detected (step S402). Spots here are, for example, intersections and destinations.
  • it is determined whether or not the position of the detected spot is within the floating image display range (step S403).
  • step S403 when it is outside the floating image display range (step S403: NO), the floating image corresponding to the spot is not displayed (step S407).
  • step S403 when it is within the floating image display range (step S403: YES), as shown in FIG. 21 (a), a floating image 217 indicating the periphery of the spot and a floating image 218 indicating the traveling direction are displayed. .
  • the following processing is performed to change the viewpoint (that is, the view) and the virtual inclination angle for viewing the floating image displayed in accordance with the position difference between the intersection line 2135 and the spot.
  • the difference in position between the intersection line 2135 and the spot is calculated (step S404). Subsequently, it is determined whether or not the calculated position difference is equal to or less than a predetermined driver's view distance (step S405).
  • the “driver's view distance” is a distance used as a reference when determining whether the floating image 217 indicating the periphery of the spot should be displayed in the driver's view or in the normal view. “Driver's view” is a viewpoint that looks down on the aerodynamics of the advancing direction from an angle.
  • the vehicle position and direction of travel are high, and the viewpoint power can be confirmed accurately, so it is possible to grasp the image around the vehicle position. Therefore, it is effective when displaying a relatively close place.
  • "Normal view” is a viewpoint that looks down on the vehicle position from directly above. From this perspective, the roads and buildings can be clearly distinguished by displaying them schematically. Therefore, it is effective for displaying relatively distant places.
  • step S405 if the calculated difference in position is larger than the predetermined driver's view distance (step S405: NO), the position of the vehicle is still relatively far from the spot.
  • the floating image 217 shown and the floating image 218 showing the traveling direction are displayed in the normal view as shown in FIG. 21 (a) (step S4061).
  • step S405 YES
  • the vehicle's position is relatively close to the spot!
  • the floating image 217 is displayed in a driver's view as shown in FIGS. 21 (b) and 21 (c) (step S4062).
  • the virtual tilt angles of the floating image 217 indicating the periphery of the spot and the floating image 218 indicating the traveling direction are gradually increased, It is tilted down so that it is substantially parallel to the screen of the direct view display unit 35 (step S40721). Then, the floating image 217 indicating the periphery of the spot and the floating image 218 indicating the traveling direction are brought close to the direct-view display unit 35 step by step.
  • the direct-view image displayed by the direct-view display unit 35 is derived from the direct-view image 356 showing the periphery of the vehicle as shown in FIG. 21 (a) and the name FIG. 21 (b).
  • Switching to the direct-view image 357 showing the spot periphery as shown in c) is performed in a stepwise manner (step S40722).
  • the direct-view display unit 35 gradually increases the transparency of the direct-view image 357 showing the spot periphery while the direct-view image 357 showing the spot periphery is put on the direct-view image 356 showing the periphery of the vehicle.
  • the direct view image 356 showing the periphery of the own vehicle is enlarged from the direct view image 356 showing the periphery of the vehicle to the direct view image 357 showing the spot periphery. If the shadow of the floating image 218 indicating the traveling direction is also displayed as a direct-view image, the floating image 217 indicating the periphery of the spot can be expressed more comfortably as it finally moves from the floating image to the direct-view image.
  • the floating image 217 indicating the periphery of the spot is not displayed because it finally moves from the floating image to the direct view image.
  • the floating image 218 indicating the traveling direction is left as a floating image because the traveling direction is easily understood.
  • the floating image and the direct-view image are displayed.
  • An interactive system is realized in which the direct-view image and the floating image change in accordance with the relative positional relationship between the predetermined spot and the intersection line 2135.
  • FIG. 23 is a schematic diagram showing how the floating image and the direct-view image change in conjunction with each other (a: first state, b: second state, c: third state).
  • FIG. 24 is a flowchart showing processing for changing the floating image and the direct-view image in conjunction with each other.
  • the image display apparatus 100 is configured to change the floating image according to the relative positional relationship between the predetermined spot in the floating image and the direct-view image and the intersection line between the display surface of the direct-view display unit and the imaging surface. Or, it is characterized by improving the expressive power by dynamically changing the direct view image.
  • a video expression that changes the virtual tilt angle of the floating image according to the relative positional relationship between a predetermined spot in the direct-view image and the line of intersection of the display surface and the imaging surface of the direct-view display unit. It is characterized by using.
  • the image display device 100 is, for example, a car navigation system that displays a position where the vehicle travels as a map image. That The basic configuration is the same as that of the image display device 100 described with reference to FIGS. 17 (a) to 17 (c), and a description thereof will be omitted.
  • a direct-view image 358 showing the vicinity of the host vehicle is updated regularly or irregularly as the vehicle travels (step S501). Then, the spot position force control unit 5 in the direct-view image 358 showing the periphery of the own vehicle is detected (step S502). The spot here is, for example, the prefectural border. Then, it is determined whether or not the detected spot is within the position force floating image display range (step S503).
  • step S 503 when it is outside the floating image display range (step S 503: NO), the floating image 219 of the prefectural border guidance display corresponding to the spot is not displayed (step S 507).
  • step S503 when it is within the floating image display range (step S503: YES), as shown in FIG. 23 (a), the floating image 219 of the prefectural border guidance display is displayed.
  • the floating image 219 of the prefectural border guidance display falls within the floating image display range, it seems to the user to be in a state substantially parallel to the screen of the direct-view display unit 35, in other words, in a collapsed state.
  • the floating image 219 of the prefectural border guidance display is displayed.
  • the following processing is performed to change the virtual inclination angle of the floating image 219 of the prefectural border guidance display according to the position difference between the intersection line 2135 and the spot prefectural border.
  • step S504 the difference in position between the intersection line 2135 and the prefectural border as a spot is calculated.
  • a virtual inclination angle is calculated according to the calculated position difference (step S505).
  • the floating image 219 of the prefectural border guidance display is displayed according to the calculated virtual inclination angle (step S5061). For example, as shown in Fig. 23 (b), if the calculated inclination difference is smaller as the calculated position difference is smaller, the floating image 219 of the prefectural border guidance display becomes closer to the prefectural border. Looks like getting up. Then, as shown in Fig. 23 (c), when the calculated position difference becomes zero, that is, when the vehicle coincides with the prefectural border, the floating image 219 on the prefectural border guidance display stands upright to guide that it is the prefectural border. .
  • the shadow of the floating image 219 of the prefectural border guidance display is displayed as a direct-view image (step S5 062).
  • This shadow may be displayed so that the rear side force is closer to the intersection line 2135 in a stepwise manner than the intersection line 2135 according to the virtual inclination angle of the floating image 219 of the prefectural border guidance display.
  • the floating image and the direct-view image are displayed.
  • An interactive system is realized in which the direct-view image and the floating image change in accordance with the relative positional relationship between the predetermined spot and the intersection line 2135.
  • the force that exerts the staging effect that the floating image falls and rises up. This is the floating image displayed on the image plane. However, such image representation is performed, and the image plane itself does not collapse or get up.
  • FIG. 25 to 31 An image display apparatus according to a fourth embodiment will be described with reference to FIGS. 25 to 31.
  • FIG. The same components as those in the first to third embodiments are denoted by the same reference numerals, and detailed description thereof will be omitted as appropriate.
  • FIG. 25 is a schematic diagram showing the overall configuration of a circular image display device capable of displaying a combination of a direct-view image and a floating image (a: perspective view, b: top view).
  • FIG. 26 is a top view showing a plurality of icons arranged in a circle ( a : virtual layout, b: actual layout).
  • the image display device 100 includes a housing 101, a direct-view display unit 31, a direct-view display unit 32, an image transmission panel 17, and a display. Unit 11, control unit 5, and position detection unit 42.
  • the casing 101 is cylindrical (however, the cut end is not limited to a perfect circle, but also includes an ellipse or the like).
  • the turntable type position detector 42 is shaped to follow the outline of the casing 101 and is located on the bottom surface of the casing 101. And circumferential direction, diametrical direction or vertical direction When it is driven in the direction, the operation information can be transmitted to the control unit 5.
  • the following advantages can be obtained when the entire image display apparatus 100 is designed to be round.
  • FIG. 26 (a) for example, eight icons A to H force, although they do not actually exist, are arranged in a circle in the virtual space, that is, It can be shown to the user as it is placed on the first virtual route 99 in 26 (a). Therefore, as shown in FIG. 26 (b), for example, icons A and C located in front of the image display device 100 are represented by direct-view images, and the icon B closest to the user is viewed as a floating image. Represented by a statue. Specifically, the icon A is displayed on the direct view display unit 31, the icon C is displayed on the direct view display unit 32, and the icon B is displayed on the imaging plane 21.
  • the position of the floating image and the position of the direct-view image are shifted in the depth direction when viewed from the user because the perspective is emphasized. In other words, if an icon is placed on the first virtual path 99, the image can be felt more realistically.
  • the shape of the housing 101 is not limited to a circular shape as long as it matches the shape of the first virtual path 99.
  • an ellipse or a polygon may be used.
  • it is desirable that the shape of the cut surface of the housing 101 is point-symmetric with respect to the rotation center.
  • FIG. 27 is a schematic diagram showing the rotational movement of a plurality of icons arranged in a circle (a: first state, b: second state, c: third state, d: fourth state) .
  • Fig. 27 (a) to Fig. 27 (d) As shown in Fig. 27 (a) to Fig. 27 (d), according to the image display device 100 of the present embodiment, For example, when the turntable type position detection unit 42 is rotated, the icons hidden on the inside of the casing 101 among the icons A to H arranged on the first virtual path 99 are moved from the back to the front. Looks like it comes out. Or, the icon in the foreground appears to enter the inside of the housing 101.
  • icons A to H are arranged on the first virtual path 99.
  • the icon A is displayed as a direct-view image on the direct-view display unit 31
  • the icon B is displayed as a floating image on the imaging plane 21
  • the icon C is displayed as a direct-view image on the direct-view display unit 32. It may be displayed on the direct view display unit 35 as a direct view image of the shadow power of the icon B which is a floating image.
  • the turntable is made of a light-transmitting material, and a direct-view display unit 35 is disposed below the turntable. Therefore, the direct-view image of the direct-view display unit 35 can be seen through the turntable.
  • the arrangement of the icons A to H changes along the first virtual path 99. .
  • the icons A to C are also displayed to rotate to the left. Accordingly, the shadow of the icon B displayed on the direct view display unit 35 as a direct view image also moves to the left.
  • the position of the icons A to H is further changed along the first virtual path 99 by further rotating the position detection unit 42.
  • the icon A is hidden on the inside of the housing 101 and is not displayed on the direct view display unit 31.
  • the icon B changes from a floating image displayed on the imaging plane 21 to a direct-view image displayed on the direct-view display unit 31.
  • the icon C changes from a direct-view image displayed on the direct-view display unit 32 to a floating image displayed on the imaging plane 21.
  • the icon D is displayed on the direct view display unit 32 so as to protrude from the inside of the housing 101.
  • FIG. 28 is a flowchart showing a process related to rotational movement of a plurality of icons arranged in a circle.
  • the rotation operation is detected by the position detector 42 and transmitted to the controller 5 as an electrical signal (step S601).
  • the control unit 5 specifies the position of the hand, the amount of change, or the amount of rotation accompanying the rotation operation (step S602).
  • the control unit 5 rearranges the icons A to H on the first virtual path 99 (step S603). In other words, the coordinates of the icons A to H on the first virtual route 99 are recalculated.
  • the icons A to H are displayed as direct-view images or floating images depending on the coordinates after rearrangement.
  • the control unit 5 controls the direct-view display unit 31 so that the icon rearranged at the position to be displayed as a direct-view image is displayed on the direct-view display unit 31 (step S6041).
  • the control unit 5 controls the direct view display unit 32 so as to display the icon rearranged at the position to be displayed as the direct view image on the direct view display unit 32 (step S6043).
  • the control unit 5 controls the display unit 11 to display the icon rearranged at the position to be displayed as the floating image on the imaging plane 21 (step S6042).
  • the control unit 5 controls the direct-view display unit 35 so that the shadow of the icon displayed on the imaging plane 21 is displayed as a direct-view image (step S6052).
  • the icons A to H arranged on the first virtual path 99 are rotated.
  • the force position detection unit 42 exemplifying the turntable type position detection unit 42 as the position detection unit is not limited as long as the user can operate the image display device 100. You may take various aspects. For example, a space system, a touch panel, or a rotation system controller such as a turntable is a candidate.
  • a space system, a touch panel, or a rotation system controller such as a turntable is a candidate.
  • the rotation of icons A to H is selected by the following method. The operation is performed. That is, the rotation operation is realized by moving the hand in the direction along the first virtual path 99 within the detectable range of the space sensor.
  • the selection operation is realized by moving the hand in the direction intersecting the first virtual path 99 within the detectable range of the space sensor.
  • the following method may be used. That is, the rotation operation is realized by moving the hand in the direction along the first virtual path 99 in a space that is within the detectable range of the space sensor and in which no floating image is displayed.
  • the selection operation is realized by the user touching the floating image within the detectable range of the space sensor.
  • the rotation operation of icons A to H is selected as follows. That is, the rotation operation is realized by moving the hand in the direction along the first virtual path 99 on the touch panel. On the other hand, the selection operation is realized by moving the hand in the direction intersecting the first virtual path 99 on the touch panel.
  • the touch panel is attached to the screen of the direct-view display unit 35, the following method may be used. That is, the rotation operation is realized by moving a finger on the touch panel so as to move a scroll bar or a slide bar displayed on the screen.
  • the selection operation is realized by moving a finger on the touch panel so as to press a selection button displayed on the screen.
  • FIG. 29 is a schematic diagram showing the basic configuration of the turn table.
  • the rotation operation is realized by rotating a turntable type position detector 42 in the circumferential direction.
  • the selection operation is realized by sliding a turntable type position detector 42 in the diameter direction. For example, if the turntable type position detector 42 is pushed in the diameter direction, The item corresponding to the icon displayed in the floating image is selected, and the screen moves to the next screen corresponding to the selected item. On the contrary, when the turntable type position detection unit 42 is pulled in the diameter direction, the original screen may be returned.
  • the selection operation may be realized by pressing the turntable type position detector 42 upward.
  • an operation feeling similar to dragging may be realized by combining the operation of rotating the turntable type position detection unit 42 in the circumferential direction and the operation of sliding in the diameter direction. For example, when the turntable type position detection unit 42 is pushed in the diameter direction, the volume icon indicating the volume of the sound source built in the image display device 100 is selected, and left and pushed in the circumferential direction. By rotating it, the volume is increased or decreased. By releasing the pressed state, the volume can be confirmed.
  • Fig. 29 (a) As shown in Fig. 29 (c), when the position detection unit 42 detects the amount by which the user has powered his hand or the amount by which the table is rotated, The control unit 5 displays these detected amounts so that the force shown in FIG. 27 (a) is equal to or proportional to the amount of movement or rotation of each of the icons A to H as shown in FIG. 27 (d). It is preferable to control the unit 11 and the direct view display unit. In this way, the user's movement and the display contents are linked, so that the reality in production is further increased.
  • Fig. 30 is a schematic diagram showing icons represented by floating images and direct-view images (a: one floating image and two direct-view images, b: three floating images).
  • the image display device 100 further includes an image transmission panel 171 and an image transmission panel 172 in addition to the image transmission panel 17.
  • a display unit (not shown) for displaying an image that is the basis of the floating image is arranged. Then, the display light constituting the image displayed on each display unit is transmitted to the corresponding image transmission panel, and the floating image is displayed on the imaging plane 21, the imaging plane 2101, and the imaging plane 2102. It is. At this time, the position of each floating image should be shifted in the depth direction in view of user power.
  • the shadow of the floating image is displayed on the direct-view display unit 350 at a position that matches the deviation of the position of the imaging plane.
  • FIG. 31 is a schematic diagram showing a virtual hierarchical structure of icons (a: arranged concentrically, b: arranged in a multilayer disk).
  • the hierarchy of icons is virtually concentrically represented. Specifically, the first virtual route 99, the second virtual route 999, and the third virtual route 9999 are set concentrically. Icons A to C are displayed on the first virtual route 99, icons AA to CC are displayed on the second virtual route 999, and icons AAA to C are displayed on the third virtual route 9999. Is done. At this time, for example, icons A, AA, AAA, C, CC, and CCC are each displayed as a direct view image, and icons B, BB, and BBB are each displayed as a floating image.
  • the icons B, BB, and BBB may be displayed together on a plurality of (for example, three layers) imaging planes, and the icons that are currently selected on one imaging plane and belong to a hierarchy (for example, Only the icon BBB) may be displayed. Since icons are displayed concentrically in this way, the following operations are possible. That is, for example, when a floating image is displayed in front of icon BB force, icon BB is an icon of a selection candidate.
  • a rotation operation for example, when the turntable type position detection unit 42 is rotated in the circumferential direction
  • the selection candidate icon is switched to the icon AA or the icon CC.
  • the transition is made to another layer.
  • the virtual route to which the icon that is the selection candidate belongs is changed from the second virtual route 999 to the first virtual route 99.
  • the virtual route to which the icon that is the selection candidate belongs changes from the second virtual route 999 to the third virtual route 9999.
  • the third virtual When changing the hierarchy in this way, by changing the enlargement / reduction ratio or transparency of each icon as appropriate, a new icon pops out or retracts from the center of the concentric circle or from the outside of the concentric circle. Production is possible.
  • the third virtual When the selection operation for selecting the icon BBB is performed with the route 9999 displayed (for example, when the turntable type position detection unit 42 is pressed from above), the content related to the selected icon BBB Is displayed.
  • the hierarchical power of the icons is virtually represented in a multilayered form.
  • the first virtual route 99, the second virtual route 999, and the third virtual route 9999 are set in a multilayer shape. If set in this way, in addition to or instead of the selection operation, rotation operation, and movement operation described above, it is possible to produce an effect in which each virtual route falls down or up. It is.
  • the image display device can be used in the technical field of an image display device that displays a two-dimensional image stereoscopically, for example, based on a 3D floating vision system.

Description

明 細 書
画像表示装置
技術分野
[0001] 本発明は、例えば 3D (Dimension)フローティングビジョン方式に基づいて二次元 画像を立体的に表示する画像表示装置の技術分野に関する。
背景技術
[0002] この種の立体的な二次元画像は、室内装飾器具、販促用ディスプレイ、通信端末 装置、ゲーム機器等において、臨場感、視認性、アミューズメント性を向上させ得る。 それ故、立体的な二次元画像を表示するための方式が各種提案されている。例えば
、目視者が偏光メガネをかけ、互いに異なった偏光状態に基づく左右の視差画像を 目視する偏光方式が提案されている。ところが、この方式では、目視者にとって偏光 メガネの装着がわずらわし 、と 、う問題が生じ得る。
[0003] このような不具合に対処するため、例えば偏光メガネを用いな 、立体画像表示法と して、レンチキュラーレンズ法が提案されている(例えば、特許文献 1参照)。この方式 によると、一画面に複数画面を潜像させ、一定幅の半円柱型レンズを水平方向につ なぎ合わせた透過スクリーンを通して当該複数画面を見せることで、立体表現や動画 表現が実現される。
[0004] 或 、は、 3Dフローティングビジョン方式が本願出願人より提案されて 、る(例えば、 特許文献 2参照)。この方式〖こよると、二次元画像をマイクロレンズアレイによって実 像として結像させることで、比較的簡単な構成で立体的二次元画像を表示することが できる。
[0005] 特許文献 1 :特開平 10— 221644号公報
特許文献 2:特開 2005 - 234240号公報
発明の開示
発明が解決しょうとする課題
[0006] し力しながら、例えば前述の特許文献 1に開示されている技術には、以下のようなコ スト上の問題が生じ得る。即ち、上記したレンチキュラーレンズ法は、一画面に複数 の画面を潜像させるため、撮像段階から目視者の両目に対応する視差画像を必要と する。そして、この画像を供給するために多くの作業、例えばコンピュータ画像処理、 レンチキュラーレンズ設計、レンズと画像との正確な組み合わせ作業が必要であり、 コストアップの要因となる。
[0007] 或いは、前述の特許文献 2に開示されている技術によると、特許文献 1に係るコスト 上の問題は解消できるものの、演出効果には改善の余地がある。特に、複数のアイコ ンを立体的二次元画像を用いて表示する場合、無造作に配置するだけでは、演出 効果に欠けるおそれがある。
[0008] 本発明は、例えば上述した問題点に鑑みてなされたものであり、比較的簡易に立 体的な二次元画像を表示すると共に、その演出効果を向上させることが可能な画像 表示装置を提供することを課題とする。
課題を解決するための手段
[0009] 本発明に係る画像表示装置は上述の課題を解決するために、第 1画面上に第 1画 像を表示する第 1表示手段と、前記第 1画像を構成する表示光の光路に配置され、 かつ、前記第 1画像の実像を前記第 1画面とは反対側の空間に位置する結像面に 浮遊画像として表示するように、前記第 1画像を構成する前記表示光を伝達する画 像伝達手段と、複数のアイコンのうち、少なくとも一つのアイコン力 前記空間を含む 実空間部分内に設定される所定形状の仮想経路に沿って配置される浮遊画像とし て表示されるように、前記第 1表示手段を制御する制御手段を備える。
[0010] 本発明によれば、先ず、例えばカラー液晶表示装置のような第 1表示手段によって
、第 1画面上に第 1画像が表示される。
[0011] ここで、例えばマイクロレンズアレイを含んでなる画像伝達手段が、第 1画像を構成 する表示光の光路に配置されている。この画像伝達手段によって、第 1画像を構成 する表示光が伝達されて、第 1画像の実像が第 1画面とは反対側の空間に位置する 結像面に、浮遊画像として表示される。ここで「浮遊画像」とは、その観察位置に居る ユーザからは(即ち、その視野角の範囲内では)、あた力も空中に浮かんでいるかの ように見える画像で、実像であることが好ましい。例えば 3Dフローティングビジョン (本 願出願人の登録商標)方式、或いはインテグラルフォトグラフィ方式などの画像表示 方式が含まれる。
[0012] ところで、上述のように表示される浮遊画像を用いて、複数のアイコンを表示する場 合、仮に無造作に配置するだけでは、浮遊画像をわざわざ用いる意義が乏しぐ演 出効果に欠けるおそれがある。ここで「アイコン」とは、絵柄の付いた記号をいう。ただ し、必ずしも絵柄がついている必要はなぐ文字のみであってもよい。また、「アイコン 」はメニューやインターフェースとしての概念も含まれ、各種アイコン力 選択項目や 設定項目を選択又は変更して、操作やコントロールをするようにしてもょ 、。
[0013] 然るに、本発明によれば、当該画像表示装置の周囲或いはユーザの前面に広がる 実空間のうち、浮遊画像が表示される空間を含む実空間部分内に、所定形状の仮 想経路が設定される。複数のアイコンのうち、少なくとも一つのアイコンは、かかる所 定形状の仮想経路に沿って配置される浮遊画像として表示されるように、例えば演 算回路、及び記録回路を含む制御手段によって、第 1表示手段が制御される。ここで 「仮想経路」とは、観察位置に居るユーザ力も見て、浮遊画像が存在する空間を貫く ように、実空間内に仮想的に設定される所定形状の経路である。そして、例えば浮遊 画像の結像面を仮想経路上に配置して、少なくとも一つのアイコン力 この仮想経路 に沿って配置される浮遊画像として表示されると、以下のような演出が可能となる。す なわち、他のアイコンが現実には見えていない、或いは存在しないにも関わらず、こ れら他のアイコンまでもがあた力も仮想経路に沿って配置されているように、ユーザに 見せることができる。具体的には、浮遊画像のアイコンが仮想経路に沿って移動すれ ば、ユーザから見えて 、る仮想経路部分の延長線上にある(ユーザから見えて 、な V、)仮想経路部分上にまで、アイコンが存在して 、るかのように見せかけることができ る。或いは、第 1表示手段による浮遊画像として夫々表示された複数のアイコン、又 は後述の第 2表示手段による直視画像として表示されたアイコンをも含む複数のアイ コンが、仮想経路上に存在すれば、ユーザ力 見えている仮想経路部分の延長線 上にある仮想経路部分上にまで、アイコンが存在しているかのように見せかけること ができる。
[0014] 従って、本発明によれば、比較的簡易に立体的な二次元画像を表示すると共に、 その演出効果を向上可能である。 [0015] 本発明に係る画像表示装置の一態様では、前記仮想経路は、円状である。
[0016] この態様によれば、仮想経路は、円状である。ここでの「円状」には、正円のみなら ず、楕円も含まれる。従って、例えば浮遊画像として表示される少なくとも一つのアイ コンが円周に沿って回転するように表示することによって、他のアイコンまでもがあた 力も仮想経路に沿って配置されているように、言い換えれば、管状のチューブ内に島 状のアイコンが複数配列されており、それらのうち一つ又は複数のみが手前側に露 出しているように、ユーザに見せることができる。
[0017] 本発明に係る画像表示装置の他の態様では、当該画像表示装置の外形は、少な くとも部分的に前記仮想経路に沿っている。
[0018] この態様によれば、当該画像表示装置の外形は、少なくとも部分的に仮想経路に 沿っている。従って、例えば浮遊画像として表示される少なくとも一つのアイコンが仮 想経路に沿って配置される際に、現実には存在しない他のアイコン力 あた力も画像 表示装置の中に隠れて 、るかのように、ユーザに見せることができる。
[0019] 本発明に係る画像表示装置の他の態様では、前記浮遊画像を観察可能な観察位 置から見えるように、第 2画面上に第 2画像を直視画像として表示する第 2表示手段 を更に備え、前記制御手段は、前記複数のアイコンのうち、前記第 1表示手段によつ て表示されるものとは別のアイコンが、前記仮想経路に沿って配置される直視画像と して表示されるように、前記第 1表示手段に加えて前記第 2表示手段も制御する。
[0020] この態様によれば、例えばカラー液晶表示装置のような第 2表示手段によって、第 2 画面上に第 2画像が、直視画像として表示される。しかも、このような第 2画面は、浮 遊画像の観察位置から見て浮遊画像の上下、左右又は斜めに隣接する或いは並ん でいる位置など、浮遊画像の観察位置力も見えるように、配置されている。ここで「直 視画像」とは、ユーザからもその画面上に表示されているように見える画像、言い換 えれば、力かるユーザによって直視される画像であり、浮遊画像とは対照的な概念で ある。従って、ユーザは、直視画像の視野角の範囲と浮遊画像の視野角の範囲との 両者に含まれる観察位置から、これら二種類の画像を一緒に或いは同時に見ること となる。そして、例えば浮遊画像の結像面及び第 2画面を夫々仮想経路上に配置し て、制御手段による制御下で、以下のように動作する。すなわち、複数のアイコンのう ち、少なくとも一つのアイコンが、仮想経路に沿って配置される浮遊画像として表示さ れ、別のアイコンが、仮想経路に沿って配置される直視画像として表示される。このよ うに、浮遊画像にカ卩えて直視画像にも表示されるアイコンが連動して動作できるので 、現実には見えていない他のアイコンまでもがあた力も仮想経路に沿って配置されて いるように、ユーザに見せることができる。
[0021] この第 2表示手段を更に備える態様では、被検出物の位置に対応する位置信号を 出力する位置検出手段を更に備え、前記制御手段は、前記複数のアイコンが、前記 被検出物の位置に対応した位置に配置されるように、前記第 1表示手段及び前記第 2表示手段の少なくとも一方を、前記出力される位置信号に基づいて制御してもよい
[0022] この態様によれば、例えば、空間センサ、タツチパネル、或いはターンテーブルのよ うな位置検出手段によって、被検出物の位置に対応する位置信号が出力される。そ して、複数のアイコン力 被検出物の位置に対応した位置に配置されるように、第 1表 示手段及び第 2表示手段の少なくとも一方が、制御手段によって、出力される位置信 号に基づいて、制御される。ここで言う「被検出物の位置」には、被検出物の位置そ のもののみならず、位置の動き、向きなども含まれる。具体的には、ユーザがタツチパ ネル上で手を動かす量、或いはターンテーブルを回転させる量などが含まれる。そし て、例えば、これらの量と一致若しくは比例する距離だけ複数のアイコンが仮想経路 に沿って夫々移動するように表示される。この際、浮遊画像のアイコンが、浮遊画像 のまま仮想経路を移動すること、更に、直視画像のアイコンが、直視画像のまま仮想 経路を移動してもよいが、アイコンが複数存在すれば (好ましくは 3個以上存在すれ ば)、浮遊画像と直視画像とを切り替えることにより、仮想経路上をアイコンが移動す るようにみせかけることが可能である。
[0023] なお、ある浮遊画像のアイコンが移動した結果、結像面の表示可能な領域から外 れる場合には、隣接する他の結像面又は第 2画面に表示させてもよい。第 2画面から 外れる場合も同様である。このようにして、複数のアイコンが仮想経路に沿って連続 的に移動する様子が表現できる。
[0024] この位置検出手段を更に備える態様によると、前記位置検出手段は、前記被検出 物の位置が前記仮想経路に沿って移動する場合に、前記位置信号を出力してもよ い。
[0025] この態様によれば、被検出物の位置が、例えば円状の仮想経路に沿って移動する 場合に、ターンテーブルのような位置検出手段によって、位置信号が出力される。そ の結果、浮遊画像のアイコン及び直視画像のアイコンも仮想経路に沿った方向に移 動するように、第 1表示手段及び第 2表示手段が制御される。このように、より直感的 な操作が可能となる。
[0026] 或いは、この第 2表示手段を更に備える態様では、前記複数のアイコンのうち、少な くとも 3つのアイコンは夫々、前記浮遊画像又は前記直視画像として表示されてもよ い。
[0027] この態様によれば、アイコンを表示する数を極力少なくしつつも、 2次元若しくは 3次 元に広がる仮想経路を表現できる。但し、 1つ又は 2つのアイコンしか表示しないこと を除外する趣旨ではない。尚、表示されるアイコンの数が多ければ多い程、表示の切 換によってアイコンが仮想経路に沿ってあた力も移動しているように、或いは仮想経 路の見えな 、部分上に他のアイコンがあた力も存在して 、るように、見せかけることが 可能となる。
[0028] この複数のアイコンが浮遊画像又は直視画像として表示される態様によると、前記 複数のアイコンが表示される前記結像面又は前記第 2画面は、当該画像表示装置の ユーザに対する奥行き方向の位置が互いに異なるようにしてもよ 、。
[0029] この態様によれば、当該画像表示装置のユーザに対する奥行き方向において、複 数のアイコンが互いにズレた位置に表示される。従って、遠近感が一段と強調される
[0030] 本発明に係る画像表示装置の他の態様では、前記位置検出手段は、 1つ又は複 数の操作ボタンを備えており、前記 1つ又は複数の操作ボタンの何れかが前記被検 出物によって押されると、前記押される操作ボタンに対応する信号を前記位置信号と して出力する。
[0031] この態様によれば、位置検出手段は、 1つ又は複数の操作ボタンを備えている。そ して、この操作ボタンの何れかが被検出物によって押されると、押される操作ボタンに 対応する信号が位置信号として出力される。例えば、あるアイコンの浮遊画像が表示 されている状態で、ターンテーブル型の操作ボタンを、その円盤面に対して交わる方 向に押し込むと、このアイコンが選択されたことになる。このように、インタラタティビテ ィが一段と向上する。
[0032] 本発明に係る画像表示装置の他の態様では、前記複数のアイコンが、前記仮想経 路に沿ってループして表示される。
[0033] この態様によれば、例えばユーザが回転操作を繰り返す場合にも、複数のアイコン 力 仮想経路に沿ってループして表示される。従って、結像面の一端から外れて表 示されなくなったアイコンが、再び他端から表示されるので、仮想経路が一段と認識 され易くなる。この態様は特に、仮想経路が円状である場合に有効である。
[0034] 本発明に係る画像表示装置の他の態様では、前記仮想経路が複数あり、かつ各々 が同心円状又は多層状に配置される。
[0035] この態様によれば、仮想経路には、 1つのみならず、複数の仮想経路が含まれる。
その各々が、同心円状又は多層状に配置される。従って、より複雑なアイコンの階層 構造を表現できる。この場合、各仮想経路に沿って複数のアイコンが配置されている ことが好ましぐ更に、各仮想経路に沿って 3個以上のアイコンが配置されていること 力 り好ましい。また、複数の仮想経路の交点上に、意図的にアイコンを配置して、か 力るアイコンについては、いずれの仮想経路に沿っても選択的に移動可能としてもよ い。
[0036] 本発明に係る画像表示装置の他の態様では、当該画像表示装置は、他の装置と 通信する通信手段を更に備え、前記通信手段は、前記他の装置が、前記出力される 位置信号に基づいて動作するように、前記他の装置と通信する。
[0037] この態様によれば、当該画像表示装置を、リモートコントローラのように、他の装置 のコントローラとして利用できる。例えば、当該画像表示装置から、他の装置である例 えばオーディオシステム又はビデオシステムなどをコントロール或いは操作することが できる。
[0038] 以上、説明したように、本発明に係る画像表示装置によれば、第 1表示手段、画像 伝達手段、及び制御手段を備えるので、比較的簡易に立体的な二次元画像を表示 すると共に、その演出効果を向上可能である。
図面の簡単な説明
[図 1]実施例に係る、浮遊画像を表示可能な画像表示装置の基本構成を示す斜視 図である。
[図 2]実施例に係る画像表示装置を図 1の A— A力 見た矢視図である。
[図 3]画像伝達パネルの構造を模式的に示す断面図である。
[図 4]画像伝達パネルの構造と像の向きを模式的に示す断面図である(2枚)。
[図 5]画像伝達パネルの構造と像の向きを模式的に示す断面図である(a: 1枚、 b: 3 枚)。
[図 6]実施例に係る画像表示装置の基本構成を示す斜視図である。
[図 7]実施例に係る画像表示装置の基本構成を示す断面図である(3DF方式)。
[図 8]実施例に係る画像表示装置の基本構成を示す断面図である (IP方式)。
[図 9]実施例に係る画像表示装置の基本構成を示す断面図である (位置検出手段が タツチパネルである場合)。
[図 10]携帯電話と連動する画像表示装置の基本構成を示す模式図である。
[図 11]携帯電話と連動する画像表示装置の動作を示すフローチャートである。
[図 12]プリズムシートを備えない画像表示装置を示す側面図である。
[図 13]プリズムシートを備える画像表示装置を示す側面図である(a:直視表示部にプ リズムシート、 b :表示部を傾斜'直視表示部にプリズムシート、 c :表示部及び直視表 示部にプリズムシート)。
[図 14]プリズムシートを部分的に拡大した断面を示す断面図である。
[図 15]直視表示部の表示面と結像面との交線を示す斜視図である。
[図 16]直視表示部の表示面と結像面との交線である結像面ラインを示す模式図であ る(a :側面図、 b :上面図)。
[図 17]浮遊画像と直視画像とが連動した変化をする様子を示す模式図である (a :ス ポットの直視画像 352が浮遊画像表示範囲内でかつ交線 2135よりも奥、 b :スポット の直視画像 352が交線 2135上、 c :スポットの直視画像 352が浮遊画像表示範囲内 でかつ交線 2135よりも手前)。 [図 18]浮遊画像と直視画像とが連動して変化させる処理を示すフローチャートである 圆 19]浮遊画像と直視画像とが連動した変化をする様子を示す模式図である (a :第 1 状態、 b :第 2状態、 c :第 3状態、 d :第 4状態)。
[図 20]浮遊画像と直視画像とが連動して変化させる処理を示すフローチャートである 圆 21]浮遊画像と直視画像とが連動した変化をする様子を示す模式図である (a :第 1 状態、 b :第 2状態、 c :第 3状態)。
圆 22]浮遊画像と直視画像とが連動して変化させる処理を示すフローチャートである 圆 23]浮遊画像と直視画像とが連動した変化をする様子を示す模式図である (a :第 1 状態、 b :第 2状態、 c :第 3状態)。
[図 24]浮遊画像と直視画像とが連動して変化させる処理を示すフローチャートである 圆 25]直視画像と浮遊画像とを組み合わせて表示可能な円状の画像表示装置の全 体構成を示す模式図である (a:斜視図、 b:上面図)。
圆 26]円状に配置された複数のアイコンを示す上面図である (a :仮想的な配置図、 b :実際の配置図)。
圆 27]円状に配置された複数のアイコンの回転移動を示す模式図である(a :第 1状 態、 b :第 2状態、 c :第 3状態、 d :第 4状態)。
[図 28]円状に配置された複数のアイコンの回転移動に係る処理を示すフローチヤ一 トである。
[図 29]ターンテーブルの基本構成を示す模式図である。
[図 30]浮遊画像と直視画像によって表現されるアイコンを示す模式図である(a: 1つ の浮遊画像と 2つの直視画像、 b: 3つの浮遊画像)。
圆 31]アイコンの仮想的な階層構造を示す模式図である (a:同心円状に配置、 b:多 層円盤状に配置)。
符号の説明 0 画像表示装置
表示部
1 画像表示面
浮遊画像
空間
画像伝達パネル
結像面
マイクロ凸レンズ
1-232 マイクロ凸レンズ
透明基板
マイクロレンズアレイ
1-252 レンズアレイ半体
1 筐体
2 開口部
-32-35 直視表示部
0 浮遊画像
0· 320· 350 直視画像
位置検出部
制御部
2 インテグラルフォトグラフィ IP用マイクロレンズアレイ2 浮遊画像
タツチパネル
1-212-213 浮遊画像
インターフェース咅
0 携帯電話
1 通話制御部
2 インターフェース咅
プリズムシート 71 傾斜面
2135 交線
214 浮遊画像
351 - 352 直視画像
215 - 216 浮遊画像
353 - 354- 355 直視画像
217- 218 浮遊画像
356 - 357 直視画像
42 位置検出部
219 浮遊画像
358 直視画像
99 第 1仮想経路
999 第 2仮想経路
9999 第 3仮想経路
発明を実施するための最良の形態
[0041] 以下、本発明を実施するための最良の形態について実施例毎に順に図面に基づ いて説明する。
[0042] (1)第 1実施例
第 1実施例に係る画像表示装置の構成及び動作処理を図 1から図 11を参照して説 明する。
[0043] (1 - 1)浮遊画像を表示可能な画像表示装置の基本構成
先ず、実施例に係る画像表示装置の基本構成について、図 1及び図 2を参照して 説明する。ここに、図 1は、実施例に係る、浮遊画像を表示可能な画像表示装置の基 本構成を示す斜視図である。図 2は、実施例に係る画像表示装置を図 1の A— Aから 見た矢視図である。
[0044] 図 1に示すように、本実施例に係る画像表示装置 100は、画像表示面 111を有す る表示部 11及び画像伝達パネル 17を備えており、表示部 11とは反対側の空間 15 の結像面 21に浮遊画像 13を表示する。尚、本実施例では、表示部 11が、本発明に 係る「第 1表示手段」の一例に相当しており、画像伝達パネル 17が、本発明に係る「 画像伝達手段」の一例に相当して 、る。
[0045] 表示部 11は、例えばカラー液晶表示装置(Liquid Crystal Display: LCD)であり、 カラー液晶駆動回路 (不図示)、及びバックライト照明部 (不図示)等を備え、二次元 画像を画像表示面 111に表示する。カラー液晶駆動回路は、外部から入力される映 像信号に基づいて、表示駆動信号を出力する。バックライト照明部は、表示部 11が 自発光式ではない場合に、画像表示面 111を背後から照らす。画像表示面 111は、 出力される表示駆動信号に基づいて、例えば液晶分子の向きを変えて光の透過率 を増減させることで、二次元画像を表示する。なお、表示される二次元画像は、最終 的に浮遊画像として表示されるので、奥行き感を持つように立体的に描写される方が 好ましい。表示部 11としては、カラー液晶表示装置 (LCD)に代えて、陰極線管、プ ラズマディスプレイ、或 、は有機エレクト口ルミネッセンスディスプレイなどの各種表示 装置を用いてもよい。
[0046] 画像伝達パネル 17は、図 2に示すように、例えばマイクロレンズアレイ(詳細は図 3 を参照して後述する)によって構成され、表示部 11に対して離間配置される。そして 、画像伝達パネル 17は、表示部 11の画像表示面 111から出射される光 (すなわち、 二次元画像を構成する表示光)を空間 15の結像面 21で結像させることによって、浮 遊画像 13を表示させる。ここで、結像面 21は、マイクロレンズアレイの作動距離に応 じて空間上に仮想的に設定される平面であって実体物ではない。図 1に戻り、この結 像面 21に結像された浮遊画像 13は、空間上に浮いて表示されるので、観察者から は、あた力も立体画像が映し出されているように見える。つまり、浮遊画像 13は、擬似 的な立体画像として観察者に認識される。この傾向を強化するには、表示部 11に表 示される二次元画像に予め奥行き感を持たせる、或 ヽは画像表示面 111上で背景 画像が黒くコントラストが強調されて 、るようにするとよ 、。
[0047] 以上、図 1及び図 2に示すように画像表示装置 100は構成されているので、結像面
21に浮遊画像 13を、あた力も立体画像が映し出されているように表示することが可 能となる。
[0048] 続いて、図 3から図 5を参照して、画像伝達パネル 17の詳細な構成について説明 をカロえる。ここに図 3は、画像伝達パネルの構造を模式的に示す断面図である。図 4 は、画像伝達パネルの構造と像の向きを模式的に示す断面図である(2枚)。図 5は、 画像伝達パネルの構造と像の向きを模式的に示す断面図である(a: 1枚、 b: 3枚)。
[0049] 図 3に示すように、画像伝達パネル 17は、マイクロレンズアレイ 25によって構成され る。
[0050] マイクロレンズアレイ 25は、例えば、レンズアレイ半体 251 · 252の二枚を一体化さ せて構成されている。
[0051] レンズアレイ半体 251 · 252は夫々、光透過性に優れたガラス又は榭脂からなる透 明基板 24の両面に、二次元のマトリックス状に配列された複数のマイクロ凸レンズ 23 を有する。ここで、透明基板 24の一方の面に配列されたマイクロ凸レンズ 231の光軸 1S 他方の面の対向する位置にあるマイクロ凸レンズ 232の光軸と夫々一致するよう に、各マイクロ凸レンズは配置されている。加えて、レンズアレイ半体 251と 252との 間で隣り合うマイクロ凸レンズ 232.231同士の光軸も一致するように、各レンズアレイ 半体は重ね合わされて 、る。
[0052] そして、画像伝達パネル 17は、表示部 11の画像表示面 111に対して所定の離間 距離 (マイクロレンズアレイ 25の作動距離)だけ離れた位置に対向配置されて!ヽる。
[0053] 従って、画像伝達パネル 17は、表示部 11の画像表示面 111から出射される二次 元画像の表示光を、表示部 11とは反対側の空間 15に伝達して、画像伝達パネル 1 7から所定距離だけ離れた結像面 21に結像させる。その結果、画像伝達パネル 17 は、表示部 11によって表示される二次元画像を、浮遊画像 13として表示できる。
[0054] ここで、図 4に示すように、表示部 11によって表示される二次元画像がレンズアレイ 半体 251で一回上下反転させられ、レンズアレイ半体 252で再度上下反転させてか ら出射させる。これにより、画像伝達パネル 17は、二次元画像の正立像を浮遊画像 1 3として表示できる。
[0055] なお、このように、浮遊画像 13として正立像が得られるのであれば、マイクロレンズ アレイ 25の構成は、レンズアレイ半体 251 · 252を二枚一組で一体化するものに限ら れない。例えば、図 5 (a)に示すように 1枚で構成してもよいし、或いは図 5 (b)に示す ように二枚以上の複数枚で構成してもよ!/、。 [0056] 以上、図 3から図 5に示すように画像伝達パネル 17が構成されていれば、画像表示 装置 100は、浮遊画像 13を例えば正立像として好適に表示可能となる。
[0057] (1 - 2)浮遊画像及び直視画像を表示可能な画像表示装置につ!ヽて
上述のごとく表示される浮遊画像に加えて、直視画像も表示可能な画像表示装置 について、図 6から図 11を参照して説明する。図 6は、実施例に係る画像表示装置 の基本構成を示す斜視図である。
[0058] 図 6に示すように、本実施例に係る画像表示装置 100は、表示部 11、画像伝達パ ネル 17、直視表示部 31 · 32· 35及び、開口部 102を有する筐体 101を備えており、 浮遊画像に加えて直視画像も表示可能である。尚、本実施例では、表示部 11が、本 発明に係る「第 1表示手段」の一例を構成し、画像伝達パネル 17が、本発明に係る「 画像伝達手段」の一例を構成し、直視表示部 31 · 32· 35の各々が、本発明に係る「 第 2表示手段」の一例を構成して!/ヽる。
[0059] 表示部 11及び画像伝達パネル 17は、図 1から図 5を参照して説明したように、結像 面 21に、浮遊画像 210を表示する。
[0060] 画像伝達パネル 17の左右に設けられた直視表示部 31及び直視表示部 32は、例 えば表示部 11と同様のカラー液晶表示装置であり、直視画像 310及び直視画像 32 0を夫々表示する。
[0061] 画像伝達パネル 17の下側に設けられた直視表示部 35も、例えば表示部 11と同様 のカラー液晶表示装置であり、直視画像 350を表示する。ここで、直視画像 350を浮 遊画像 210の影、或いは映り込みの画像にすると、浮遊画像 210の立体感が一層引 き立つ。
[0062] 筐体 101は、上記表示部 11等の各種部材を梱包すると共に、ユーザ側の前面に 開口部 102を有する。それ故に、図 6中で右手が図示されたユーザは、浮遊画像 21 0及び直視画像 310· 320· 350を前面側力も見ることができる。このように図 6中で右 手が図示されたユーザが位置する観察位置力 浮遊画像 210の視野角の範囲内に 入ると共に、直視画像 310· 320· 350の各々の視野角の範囲内に入るように、表示 部 11、画像伝達パネル 17及び直視表示部 31 · 32· 35は夫々、配置されている。言 い換えれば、ユーザは、このような観察位置 (典型的には、浮遊画像に正対する位置 )から、これら複数の画像を見ることになる。
[0063] 本実施例では特に、図 6を参照して説明した画像表示装置 100が、例えばユーザ の手等の被検出物の位置や動きに応じて、浮遊画像及び直視画像のうち、少なくと もいずれかの画像を変化させることができる。この構成の詳細を、図 6にカ卩えて、図 7 力 図 9を参照して説明する。ここに、図 7は、実施例に係る画像表示装置の基本構 成を示す断面図である(3DF方式)。図 8は、実施例に係る画像表示装置の基本構 成を示す断面図である (IP方式)。図 9は、実施例に係る画像表示装置の基本構成 を示す断面図である (位置検出手段がタツチパネルである場合)。
[0064] 図 7に示すように、本実施例に係る画像表示装置 100は、表示部 11、画像伝達パ ネル 17、直視表示部 35、及び位置検出部 4及び制御部 5を備える。なお、直視表示 部 31 · 32は、便宜上図示されていない。
[0065] 表示部 11及び画像伝達パネル 17は、結像面 21に浮遊画像を表示する。この浮遊 画像は必ずしも、図 1から図 5を参照して説明したような 3Dフローティングビジョン方 式によって表示されなくともよい。浮遊画像としては実像の方が好ましいため、 3Dフ ローテイングビジョン方式と同様に実像が得られる、例えば IP (インテグラルフオトダラ フィ)方式によって表示されてもょ 、。
[0066] 図 8に示すように、 IP方式において、画像伝達パネル 172は、例えばピンホールァ レイ、マイクロレンズアレイ或いはレンチキュラーレンズであり、 3Dフローティングビジ ヨン方式の場合に比べて表示部 11に近 、位置に配置される。画像伝達パネル 172 は、 3Dフローティングビジョン方式のような結像ではなぐ光線の向きを変える若しく は制御するために使われるので、画像伝達パネル 172を介して表示される浮遊画像 212は、ユーザから見て平面と 、うよりはむしろ奥行きを持って 、るように感じられる。 但し、 IP方式で表示部 11に表示する画像は、 3Dフローティングビジョン方式のように 単純な二次元画像ではなぐ奥行きを持つことを考慮した IP方式特有の複雑な二次 元画像にする必要がある。このように、画像制作のコスト面から見ると、 IP方式よりも 3 Dフローティングビジョン方式の方が好ましいとも言える。
[0067] 再び図 7に戻って、位置検出部 4は、例えばユーザの指のような被検出物力 所定 領域内に進入する場合に、その位置或いは動きを特定する。力 tlえて、制御部 5と電 気的に接続されており、検出結果を制御部 5へと伝達する。位置検出部 4は、例えば 撮像素子或 ヽは超音波を利用した空間センサであり、被検出物に反射された超音波 を圧電素子で検出することで、被検出物の位置を検出する。位置検出部 4は、それ 以外にも、図 9に示すように直視表示部 35上に設けられたタツチパネル 41でもよい。 タツチパネル 41は、例えば圧電素子をマトリクス状に配置されたパネルであり、ユー ザの指等に触れられると、パネル上のどの位置が触れられているかという情報を、検 出結果として、制御部 5へと伝達する。タツチパネルは、例えば、抵抗膜方式、静電 容量方式、赤外線方式など方式は問わない。或いは、図 29を用いて後述するターン テーブルのような操作コントローラでもよい。さらには、空間センサ、タツチパネル、タ ーンテーブルなどを任意に組み合わせてもよ!/、。
[0068] 再び図 7に戻って、制御部 5は、例えば周知の中央処理装置(Central Processing Unit : CPU)、制御プログラムを格納した読み出し専用メモリ(Read Only Memory : RO M)、各種データを格納する随時書き込み読み出しメモリ(Random Access Memory : R AM)、及び表示用画像等のデータを格納 '生成する記憶装置等を中心とした論理演 算回路を備えている。そして、浮遊画像或いは直視画像を、位置検出部 4の検出結 果に基づいて変更するように、表示部 11、及び直視表示部 31 · 32 · 35を制御する。
[0069] 以上、本実施例に係る画像表示装置 100は、図 6から図 9を参照して説明したよう に構成されているので、例えばユーザの手等の被検出物の位置や動きに応じて、浮 遊画像及び直視画像のうち、少なくともいずれかの画像を変化させることができる。そ の結果、画像表示装置 100のインタラクテイビティ或いは操作性を向上することがで きる。特に本実施例では、図 6に示したように、浮遊画像を中央にしてユーザを取り囲 むように複数の画像を表示するので、ユーザの面前に広がった臨場感に優れた画像 空間にお 、て、インタラクテイビティ或いは操作性を向上させられる。
[0070] このような利点を生力して、携帯電話 200と連動する画像表示装置 100の動作例を 、図 10及び図 11を参照して説明する。ここに、図 10は、携帯電話と連動する画像表 示装置の基本構成を示す模式図である。
[0071] 図 10において、携帯電話 200と画像表示装置 100とは、互いのインターフェース部 202 · 61を介して通信可能である。 [0072] 携帯電話 200のインターフェース部 202は、着信があると、電気的に接続された通 話制御部 201から送信指示を受けた着信の旨を示す信号を、画像表示装置 100側 に送信する。他方で、画像表示装置 100からの信号を受信して、通話制御部 201に 伝達する。このように画像表示装置 100から受信する信号に従って、通話制御部 20 1は、通話処理を開始する。
[0073] 画像表示装置 100のインターフェース部 61は、携帯電話 200から着信の旨を示す 信号を受信して、電気的に接続された制御部 5に伝達する。制御部 5は、受信した信 号に基づいて、着信の旨を示す浮遊画像 211 · 212· 213を表示するように、表示部 11を制御する。他方で、制御部 5から通話を開始する旨の信号を送信する指示を受 けると、その信号を携帯電話 200側に送信する。
[0074] なお、インターフェース部 202とインターフェース部 61との間の通信は、有線通信 のみならず、赤外線通信などの無線通信でもよい。
[0075] なお、着信があつたとき以外に、例えば電子メールを受信する場合には浮遊画像 又は直視画像にメール文面を表示させたり、所定の WEBサイトを表示するようにして ちょい。
[0076] 以上、図 10のように構成された画像表示装置 100と携帯電話 200とは、より具体的 には図 11に示すように連携して動作する。ここに、図 11は、携帯電話と連動する画 像表示装置の動作を示すフローチャートである。
[0077] 図 11において先ず、ユーザが車両を運転している最中に、携帯電話 200に着信が あるか否かが、定期又は不定期に判定される (ステップ S101)。ここで、携帯電話 20 0に着信がなければ (ステップ S101 :NO)特に処理はなされない。他方で、携帯電 話 200に着信があると (ステップ S101 : YES)、通話制御部 201は、着信の旨を示す 着信信号を、インターフェース部 202· 61を介して、制御部 5へと送信する (ステップ S 102)。
[0078] 制御部 5は、着信信号を受信して、着信の旨をユーザに通知するための二次元画 像を表示部 11に表示する (ステップ S 103)。この際、二次元画像としては、例えば、「 電話です」という文字の二次元画像、携帯電話の二次元画像、或いは相手の顔写真 の二次元画像を表示するとよい。このとき、結像面 21に表示される浮遊画像は、図 1 0の浮遊画像 211 · 212· 213のような画像である。
[0079] ここで、ユーザの手が、位置検出部 4によって着信期間内に検出される力否かが判 定される (ステップ S104)。言い換えると、ユーザが浮遊画像 212に触れる等して、着 信期間内に電話を着信に応答する意志を表明する力否かが判定される。ここで言う 着信期間は、着信の相手方がコールしている間、或いはユーザ側で予め設定された 期間である。
[0080] ユーザの手が、着信期間内に検出されない場合 (ステップ S104 :NO)、ユーザが 通話できる状態にないということなので、通話は開始されずに本処理は終了する。
[0081] 他方で、ユーザの手が、着信期間内に検出される場合 (ステップ S104 : YES)、制 御部 5は、インターフェース部 61 · 202を介して、通話開始信号を通話制御部 201へ と送信する (ステップ S 105)。
[0082] 通話開始信号を受信した通話制御部 201は、通話処理を開始する (ステップ S 106 )。つまり、ユーザと相手方とが通話可能となる。なお、この通話は、安全上ハンズフリ 一で行われることが好ましい。これに伴い、画像表示装置 100が更に音声の入出力 器を備え、インターフェース部 202 · 61は通話音声のやり取りも可能なようにしてもよ い。
[0083] なお、この間、直視表示部 35には、例えば車両が走行する位置を地図画像として 表示するカーナビゲーシヨンなどが表示され、着信時は、地図画像上に、浮遊画像 がポップアップするようにして着信を知らせるようなつて 、る。
[0084] 以上、図 10及び図 11を参照して説明したように、画像表示装置 100は携帯電話 2 00と連動するので、浮遊画像を利用した一層インタラクティブなユーザインタフエ一 スを提供できる。
[0085] (2)第 2実施例
次に、第 2実施例に係る画像表示装置について、図 12から図 14を参照して、比較 例と比べながら、説明をする。ここに、図 12は、プリズムシートを備えない画像表示装 置を示す側面図である。図 13は、プリズムシートを備える画像表示装置を示す側面 図である(a:直視表示部にプリズムシート、 b:画像伝達パネルを傾斜 ·直視表示部に プリズムシート、 c :画像伝達パネル及び直視表示部にプリズムシート)。図 14は、プリ ズムシートを部分的に拡大した断面を示す断面図である。なお、上述の第 1実施例と 同様の構成には、同様の参照符号を付し、その詳細な説明は適宜省略する。
[0086] 本実施例に係る画像表示装置は特に、本発明に係る「光学部材」の一例として、視 野角の範囲全体を、ユーザが位置することが想定されている観察位置の側に補正可 能なプリズムシートを備えており、ユーザカゝら浮遊画像及び直視画像が一層見やす いように構成されている。
[0087] 先ず、比較例に係る画像表示装置について説明する。図 12に示すように、比較例 に係る画像表示装置 100の結像面 21に表示される浮遊画像は、ユーザにとって見 やす 、。表示部 11及び画像伝達パネル 17をユーザと正対するように配置して 、るか らである。他方で、この浮遊画像に比べて、直視表示部 35に表示される直視画像は 、ユーザにとって見難い。直視画像の表示光は、その中心線或いは光軸が、直視表 示部 35からユーザの視線と略垂直に交わる方向に一致するように、出射されて!/、る 力もである。言い換えれば、直視画像は、その視野角の範囲内における隅付近で又 は視野角の範囲から多少外れて、輝度や色合いが大なり小なり劣化したものとして、 ユーザから観察されることになつてしまう。
[0088] 係る不具合を解消すベぐ本実施例に係る画像表示装置 100は、図 13 (a)から図 1 3 (c)に示すように、プリズムシート 7を更に備える。
[0089] 図 13 (a)において、本実施例に係る画像表示装置 100は、直視表示部 35から出 射される表示光の光路上に、プリズムシート 7を更に備える。プリズムシート 7は、図 1 4に示すような構成となっている。即ち、プリズムシート 7は、所定ピッチで形成された 傾斜面 71を複数本備える。直視表示部 35から出射される表示光の方向は、傾斜面 71の傾斜角或いは屈折率に応じて、所定角度 Θだけ変更される。ここで「所定角度」 とは、ユーザの視線と、直視表示部 35から出射される表示光の方向(即ち、表示光 の光軸方向、言い換えれば、直視表示部 35の画面の法線方向)とがなす角の想定 値として、予め経験、実験、或いはシミュレーションによって定めておくとよい。このよう にプリズムシート 7が設計されていると、直視表示部 35から出射される表示光は、傾 斜面 71において屈折されて、ユーザに向力 方向に伝わる。その結果、本実施例に 係る画像表示装置 100の直視表示部 35に表示される直視画像は、比較例に比べて 、ユーザにとって見易くなる。言い換えれば、直視画像は、その視野角の範囲内にお ける中央寄りで又は少なくとも視野角の範囲力 外れることなぐ輝度や色合いに優 れた画像として、ユーザから観察されることになる。
[0090] ここで、ユーザの視線が、直視表示部 35から出射される表示光のみならず、画像 伝達パネル 17 (表示部 11)から出射される表示光とも交わる場合、例えば上方から、 画像表示装置 100を見下ろすような場合には、次の図 13 (b)或いは図 13 (c)のよう に構成するとよい。
[0091] 図 13 (b)において、画像表示装置 100は、直視表示部 35から出射される表示光の 光路上に、プリズムシート 7を更に備えるのみならず、表示部 11、画像伝達パネル 17 、及び直視表示部 35を夫々ユーザの視線方向に傾けている。その結果、ユーザの 視線が浮遊画像の表示光とも交わる場合、例えば上方から、画像表示装置 100を見 下ろすような場合にも対応できる。
[0092] 図 13 (c)において、画像表示装置 100は、直視表示部 35から出射される表示光の 光路上に、プリズムシート 7を更に備えるのみならず、画像伝達パネル 17 (表示部 11 )から出射される表示光の光路上にも、本発明に係る「光学部材」の他の一例として のプリズムシート 7を更に備える。その結果、ユーザの視線が浮遊画像の表示光とも 交わる場合、例えば上方から、画像表示装置 100を見下ろすような場合にも対応で きる。
[0093] なお、プリズムシート 7は、直視表示部 35或いは画像伝達パネル 17のみならず、他 の直視表示部 31 · 32に備えられても勿論よい。
[0094] 以上、図 12から図 14を参照して説明したように、本実施例に係る画像表示装置 10
0によると、視野角を拡大補正することができる。
[0095] (3)第 3実施例
次に、第 3実施例に係る画像表示装置について説明する。本実施例に係る画像表 示装置 100は特に、結像面 21と直視表示部 35との交線近傍において、浮遊画像及 び直視画像の連動した演出が可能な構成となっている。
[0096] 先ず、図 15及び図 16を参照して、結像面 21と直視表示部 35との交線について説 明し、続いて具体的な実施例について説明する。ここに、図 15は、直視表示部の表 示面と結像面との交線を示す斜視図である。図 16は、直視表示部の表示面と結像 面との交線である結像面ラインを示す模式図である(a :側面図、 b :上面図)。
なお、上述の第 1及び第 2実施例と同様の構成には、同様の参照符号を付し、その 詳細な説明は適宜省略する。
[0097] 図 15に示すように、本実施例に係る画像表示装置 100は、表示部 11、画像伝達 パネル 17、及び直視表示部 35を備える。図 1を参照して上述したように、表示部 11 と画像伝達パネル 17とは、互いに対向配置されている。従って、結像面 21が表示部 11とは反対側の空間に位置する。直視表示部 35は、この結像面 21と交わる方向に 配置される。
[0098] 交線 2135は、結像面 21と直視表示部 35とが交わる部分を示す。そして、図 16 (a) に示すように、画像表示装置 100の側面から見ると、交線 2135は結像面 21と直視 表示部 35との交点に見える。他方で、図 16 (b)に示すように、画像表示装置 100の 上面から見ると、交線 2135は直視表示部 35における結像面 21と一致するように見 える。なお、交線 2135には、結像面 21と直視表示部 35とが交わる部分に加えて、そ の延長線が含まれてもよい。つまり、結像面 21の延長面と直視表示部 35の延長面と の交線をも含むという概念である。さらに、結像面 21の延長面と、直視表示部 31及 び直視表示部 32との交線も存在し、これらの交線近傍において、浮遊画像及び直 視画像の連動した演出を行ってもょ ヽ。
[0099] 以上、図 15及び図 16を参照して説明した交線 2135を基準とし、直視表示部 35に 表示される直視画像の相対的な位置関係に応じて、結像面 21に表示される浮遊画 像を変化させることで、浮遊画像と直視画像とがー段と密接に連動して表示できる。 この具体的な態様について、図 17から図 24を参照して説明する。
[0100] (3— 1)第 1態様
先ず、本実施例に係る画像表示装置の第 1態様について、図 17 (a)から図 17 (c) 及び図 18を参照して説明する。ここに、図 17は、浮遊画像と直視画像とが連動した 変化をする様子を示す模式図である (a :スポットの直視画像 352が浮遊画像表示範 囲内でかつ交線 2135よりも奥、 b :スポットの直視画像 352が交線 2135上、 c :スポッ トの直視画像 352が浮遊画像表示範囲内でかつ交線 2135よりも手前)。図 18は、浮 遊画像と直視画像とが連動して変化させる処理を示すフローチャートである。
[0101] 本態様に係る画像表示装置 100は、直視画像中の所定スポットが自動的に、或い はユーザの操作によって、スクロール又はスライドして、直視表示部の表示面と結像 面の交線に近づくと、浮遊画像のサイズが段々大きくなつて現れ、離れると段々小さ くなり消えるような映像表現を用いることを特徴とする。
[0102] 図 17 (a)力も図 17 (c)に示すように、この態様において、画像表示装置 100は、例 えば車両が走行する位置を地図画像として表示するカーナビゲーシヨンとする。表示 部 11と画像伝達パネル 17とは、図 1を参照して上述したように、互いに対向配置され ている。従って、結像面 21が表示部 11とは反対側の空間に位置する。直視表示部 3 5は、この結像面 21と交わる方向に配置される。
[0103] 直視表示部 35に表示される直視画像 351は、例えば当該画像表示装置 100が設 置されて!、る車両が走行して!/、る地域の周辺地図とする。
[0104] 結像面 21で結像する浮遊画像 214は、直視画像 351に表示される物体 (例えば、 東京タワーのような名所、建物、或いは交差点)の情報 (例えば立体構造、或いは文 字情報等)とする。
[0105] 直視画像 352は、浮遊画像 214として表示される物体の、地図中での位置を示す スポット、すなわち印、或いは影を示す画像である。スポットの直視画像 352とその情 報を示す浮遊画像 214とは典型的には 1対 1に対応している。
[0106] 制御部 5は、浮遊画像 214、直視画像 351及び直視画像 352を変化させるように、 表示部 11及び直視表示部 35を夫々制御する。
[0107] このように構成された画像表示装置 100の動作について、図 17 (a)力も図 17 (c)を 適宜参照しながら、図 18に沿って説明する。
[0108] 図 18において先ず、周辺地図の直視画像 351が、車両の走行に伴い、定期に或 いは不定期に、更新される (ステップ S201)。このときの更新情報は、通常のカーナ ピゲーシヨンと同様に、 CD或いは DVDに記録された道路地図情報を必要に応じて読 み出し、例えば GPS (Global Positioning System: GPS)と自律航法とを組み合わせて 特定された自車走行経路の情報と照合することで決定される。
[0109] 続いて、周辺地図の直視画像 351における、スポットの直視画像 352の、交線 213 5に対する相対的な位置力 制御部 5によって検出される (ステップ S202)。そして、 検出された位置が、浮遊画像表示範囲内か否かが判定される (ステップ S203)。具 体的には、表示部 11、画像伝達パネル 17及び直視表示部 35の相対的な配置が予 め定められていれば、交線 2135の位置も予め定まる。従って、周辺地図の直視画像 351にお!/、てスポットの直視画像 352が交線 2135からどの程度離れて!/、るかは、周 辺地図の直視画像 351、及びスポットの直視画像 352の表示内容を管理する制御部 5によって特定可能である。
[0110] ここで、浮遊画像表示範囲外である場合 (ステップ S 203: NO)、スポットの直視画 像 352に対応する浮遊画像 214は表示されない (ステップ S207)。
[0111] 他方で、浮遊画像表示範囲内である場合 (ステップ S203 : YES)、例えば図 17 (a) に示すように、スポットの直視画像 352に対応する浮遊画像 214が表示される。例え ば、スポットの直視画像 352が東京タワーの位置を示していれば、東京タワーの立体 的な画像として浮遊画像 214が表示される。このとき表示される浮遊画像 214の大き さを、交線 2135とスポットの直視画像 352との位置の差に応じて変化させるベぐ次 のような処理が行われる。
[0112] 先ず、交線 2135とスポットの直視画像 352との位置の差が算出される (ステップ S2 04)。この位置の差は、交線 2135と直交する方向、或いは交線 2135に沿った方向 における位置の差を示してもよいし、交線 2135上の所定点力もスポットの直視画像 3 52までの距離を示してもよ!、。
[0113] 続いて、算出される位置の差に応じて、拡大縮小率が算出される (ステップ S205) 。例えば、算出される位置の差が小さいほど、浮遊画像 214が大きく表示されるように 、拡大縮小率が算出される。
[0114] そして、算出される拡大縮小率に応じた大きさになるように、浮遊画像 214が表示さ れる (ステップ S206)。例えば、図 17 (b)において、スポットの直視画像 352は交線 2 135と交わっており、図 17 (a)の場合に比べて交線 2135に近い。従って、図 17 (b) における浮遊画像 214の拡大縮小率は、図 17 (a)の場合に比べて大きくなるように 設定される。
[0115] その後、上記処理が定期に又は不定期に繰り返される。そして、車両が進行してス ポットの直視画像 352が浮遊画像表示範囲内でかつ交線 2135よりも手前に位置す ると、図 17 (c)に示すように、再び浮遊画像 214が図 17 (b)の場合に比べて小さく表 示される。そして、車両が更に進行して、スポットの直視画像 352が浮遊画像表示範 囲外になると、浮遊画像 214は表示されなくなる。このとき、別のスポットが新たに浮 遊画像表示範囲内に位置すれば、この別のスポットに対応する浮遊画像を別に表示 してちよい。
[0116] 以上、図 17 (a)から図 17 (c)及び図 18を参照して説明した第 1態様によると、周辺 地図の直視画像 351における、交線 2135に対するスポットの直視画像 352の相対 的な位置関係に応じて、浮遊画像 214が動的に変化するので、画像表示装置 100 の表現力が向上する。
[0117] なお、上述のように拡大縮小率を算出するのは、以下の趣旨による。即ち、浮遊画 像 214を表示する条件として、スポットの直視画像 352が交点(交線)と完全に一致し ている必要はないという趣旨である。言い換えれば、スポットの直視画像 352が交点( 交線)から浮遊画像表示範囲内に位置していれば、そのスポットの直視画像 352に 対応する浮遊画像 214を表示してもよいという趣旨である。ここでの「浮遊画像表示 範囲」は、例えば、交線 2135と直交する方向における直視表示部 35の奥行きの 20 %となるように予め設定しておくとよい。仮に、交線 2135と直交する方向における直 視表示部 35の奥行きが 1 OOmmであるとすると、浮遊画像表示範囲は 1 OOmmの 20 %である 20mmとなる。より詳しくは、図 17 (a)力 図 17 (c)に示すように、浮遊画像 表示範囲は、交線 2135と直交する方向において前後夫々 10mmの幅を持つ。この ような浮遊画像表示範囲内にスポットの直視画像 352が位置する場合であれば、対 応する浮遊画像 214を表示しても、両者の関連性が認識されやす 、ので違和感は 軽減される。
[0118] また、例えばスポットが交線 2135に沿った方向に移動し、結像面に浮遊画像を表 示できない端の位置まで移動するような場合にも、浮遊画像 214が徐々に小さく表示 されるように変化させ、その後表示されなくなるようにするのが好ま 、。
[0119] (3— 2)第 2態様
続いて、本実施例に係る画像表示装置の第 2態様を、図 19 (a)から図 19 (d)を適 宜参照しながら、図 20に沿って説明する。ここに、図 19は、浮遊画像と直視画像とが 連動した変化をする様子を示す模式図である (a:第 1状態、 b :第 2状態、 c :第 3状態
、 d:第 4状態)。図 20は、浮遊画像と直視画像とが連動して変化させる処理を示すフ ローチャートである。
[0120] 図 19 (a)に示すように、本実施態様に係る画像表示装置 100によると、直視表示部 35の奥行方向に例えばアーティストリストの直視画像 353が表示される。そして、そ のリストのうち交線 2135上にあるアーティストに関する情報力 アルバムリストの浮遊 画像 215として表示される。
[0121] 本態様に係る画像表示装置 100は、直視表示部 35に表示されるリストのうち見た いものを、スクロール操作等によって交線 2135近傍に移動させると、浮遊画像も変 化するという、インタラクティブなシステムであることを特徴とする。カロえて、直視画像と 浮遊画像との連動をより効果的にすべぐ直視表示部 35から浮遊画像が飛び出すと いう映像表現、或いは浮遊画像が直視表示部 35に入り込む、という映像表現を用い ることを特徴とする。
[0122] 図 20において先ず、ユーザの、タツチパネル等によるスクロール操作が検出される
(ステップ S301)。スクロール操作に従って、直視表示部 35に表示されているァーテ イストリストの直視画像 353が更新され、新たなアーティストが表示される (ステップ S3 02)。この更新と同時に、又は相前後して、アーティストリストの直視画像 353に含ま れるアーティストのうち、交線 2135に位置するアーティストが、制御部 5によって特定 される (ステップ S303)。そして、図 19 (a)に示すように、特定されるアーティストに関 連する情報として、例えばそのアーティストのアルバム力 アルバムリストの浮遊画像 215として表示される(ステップ S 304)。
[0123] ここで、ユーザがアルバムリストの浮遊画像 215を閲覧しながら所望のアーティスト を選択するには、例えばそのアーティストが交線 2135に位置するときに、直視表示 部 35に表示された選択ボタンに触れるとよい (ステップ S305)。直視表示部 35に併 設されたタツチパネル 41から、どのアーティストが選択されたかが制御部 5に伝達さ れる。そして、図 19 (b)に示すように、選択されたアーティストのアルバムリストが表示 される場所が、表示部 11から直視表示部 35へと切り替わる。この切り替わりの様子を 自然に表現するために、例えば、アルバムリストの浮遊画像 215が、直視表示部 35 に向力つて倒れ込むような演出効果を付加する(ステップ S306)。具体的には、アル バムリストの浮遊画像 215を正面図から斜視図へと段階的に視点を変化させるように 、制御部 5が表示部 11を制御する (ステップ S3071)。これと並行して、直視表示部 3 5にアルバムリストが滑り込んでくるような、いわゆるフェードインするような、直視画像 354を表示するように、制御部 5が直視表示部 35を制御する (ステップ S3072)。この ように浮遊画像と直視画像とを連動させることで、選択されたアーティストのアルバム リストが、浮遊画像 215から直視表示部 35へ倒れ込むような演出がなされる。
[0124] 続いて、倒れ込んだアルバムリストの直視画像 355のうち、交線 2135に位置するァ ルバム力 制御部 5によって特定される (ステップ S308)。なお、交線 2135に位置す るアルバムは、ユーザのスクロール操作によって変更可能である。そして、特定され たアルバムのジャケットが、図 19 (c)及び図 19 (d)に示すジャケットの浮遊画像 216 のように、浮遊画像として飛び出して見えるように、制御部 5が表示部 11を制御する( ステップ S309)。このとき、ジャケットの浮遊画像 216が飛び出た状態を強調するた めに、交線 2135付近にジャケットの影に相当する画像を表示するように、制御部 5が 直視表示部 35を制御してもよい。そして、ユーザがジャケットの浮遊画像 216に触れ ると、或いはジャケットの浮遊画像 216が飛び出た状態で直視表示部 35に表示され た決定ボタンを押すと、このアルバムに含まれる楽曲を演奏する、或いは更にアルバ ムに含まれる楽曲を直視画像若しくは浮遊画像として表示する。
[0125] 以上、図 19 (a)から図 19 (d)を適宜参照しながら、図 20に沿って説明したように、 本態様に係る画像表示装置 100によると、ユーザの操作に応じて、直視画像と浮遊 画像とが連動して変化するインタラクティブなシステムが実現される。
[0126] カロえて、直視画像と浮遊画像とが連動する際には、種々のエフェクトを設定すること によって、連動する様子をより自然に或いはより効果的に表現することができる。
[0127] (3— 3)第 3態様
続いて、本実施例に係る画像表示装置の第 3態様を、図 21 (a)から図 21 (c)を適 宜参照しながら、図 22に沿って説明する。ここに、図 21は、浮遊画像と直視画像とが 連動した変化をする様子を示す模式図である (a :第 1状態、 b :第 2状態、 c :第 3状態 ) o図 22は、浮遊画像と直視画像とが連動して変化させる処理を示すフローチャート である。
[0128] 本態様に係る画像表示装置 100は、浮遊画像及び直視画像中の所定スポットと、 直視表示部の表示面と結像面の交線との相対的な位置関係に応じて、浮遊画像或 いは直視画像を動的に変化させることで、表現力を向上させることを特徴とする。特 に、直視画像中の所定スポットと、直視表示部の表示面と結像面の交線との相対的 な位置関係に応じて、浮遊画像の仮想傾斜角を変化させるような映像表現を用いる ことを特徴とする。
[0129] 図 21 (a)から図 21 (c)に示すように、この態様において、画像表示装置 100は、例 えば車両が走行する位置を地図画像として表示するカーナビゲーシヨンとする。その 基本構成は、図 17 (a)から図 17 (c)を参照して説明した画像表示装置 100と同様で あるため、説明を省略する。
[0130] このように構成された画像表示装置 100の動作について、図 21 (a)から図 21 (c)を 適宜参照しながら、図 22に沿って説明する。
[0131] 図 22において先ず、自車周辺を示す直視画像 356が、車両の走行に伴い、定期 に或いは不定期に、更新される (ステップ S401)。そして、自車周辺を示す直視画像 356における、スポットの位置力 制御部 5によって検出される(ステップ S402)。ここ で言うスポットは、例えば交差点や目的地である。そして、検出されたスポットの位置 力 浮遊画像表示範囲内か否かが判定される (ステップ S403)。
[0132] ここで、浮遊画像表示範囲外である場合 (ステップ S403 : NO)、スポットに対応す る浮遊画像は表示されな ヽ (ステップ S407)。
[0133] 他方で、浮遊画像表示範囲内である場合 (ステップ S403 : YES)、図 21 (a)に示す ように、スポット周辺を示す浮遊画像 217及び進行方向を示す浮遊画像 218が表示 される。このとき表示される浮遊画像を見る視点 (すなわち、ビュー)及び仮想傾斜角 を、交線 2135とスポットとの位置の差に応じて変化させるベぐ次のような処理が行 われる。
[0134] 先ず、自車周辺を示す直視画像 356における、交線 2135とスポットとの位置の差 が算出される (ステップ S404)。 [0135] 続いて、算出された位置の差が、所定のドライバーズビュー距離以下である力否か が判定される (ステップ S405)。ここで「ドライバーズビュー距離」とは、スポット周辺を 示す浮遊画像 217を、ドライバーズビューで表示すべき力、或いはノーマルビューで 表示すべきかを判定する際の基準となる距離である。「ドライバーズビュー」とは、進 行方向を上空力も斜めから見下ろすような視点である。この視点によると、自車位置 や進行方向が高 、視点力 正確に確認できるので、自車位置周辺のイメージが把握 しゃすい。それ故に、比較的近い場所を表示する際に有効である。「ノーマルビュー 」とは、自車位置を真上から見下ろすような視点である。この視点によると、道と建物 を模式的に表示することで明確に区別することができる。それ故に、比較的遠い場所 を表示する際に有効である。
[0136] ここで、算出された位置の差が、所定のドライバーズビュー距離よりも大きい場合 (ス テツプ S405 : NO)、未だ自車の位置がスポットから比較的離れているため、スポット 周辺を示す浮遊画像 217及び進行方向を示す浮遊画像 218は、図 21 (a)に示すよ うなノーマルビューで表示される(ステップ S4061)。
[0137] 他方で、算出された位置の差が、所定のドライバーズビュー距離以下である場合( ステップ S405: YES)、自車の位置がスポットから比較的近!、ため、スポット周辺を示 す浮遊画像 217は、図 21 (b)及び図 21 (c)に示すようなドライバーズビューで表示 する(ステップ S4062)。
[0138] ドライバーズビューで表示する場合には特に、図 21 (b)に示すように、スポット周辺 を示す浮遊画像 217及び進行方向を示す浮遊画像 218の仮想傾斜角を段階的に 増して、見た目上倒れ込ませ、直視表示部 35の画面と略平行になるようにする (ステ ップ S40721)。そして、スポット周辺を示す浮遊画像 217及び進行方向を示す浮遊 画像 218が、直視表示部 35へと段階的に近づけられる。
[0139] これと並行して、直視表示部 35によって表示される直視画像は、図 21 (a)及び名 図 21 (b)に示すような自車周辺を示す直視画像 356から、図 21 (c)に示すようなスポ ット周辺を示す直視画像 357へと段階的に切り替えられる (ステップ S40722)。この 際、直視表示部 35では、自車周辺を示す直視画像 356の上に、スポット周辺を示す 直視画像 357を被せたまま、スポット周辺を示す直視画像 357の透明度を段階的に 下げる、或いは自車周辺を示す直視画像 356からスポット周辺を示す直視画像 357 へ段階的に拡大表示するとよい。カ卩えて、進行方向を示す浮遊画像 218の影も直視 画像として表示すれば、スポット周辺を示す浮遊画像 217が、浮遊画像から最終的 に直視画像へと移る様が一層違和感なく表現される。
[0140] この際、図 21 (c)に示すように、スポット周辺を示す浮遊画像 217が、浮遊画像から 最終的に直視画像へと移るので非表示となる。これに対して、進行方向を示す浮遊 画像 218は、浮遊画像として残しておくと、進行方向が分り易いので好ましい。
[0141] 以上、図 21 (a)から図 21 (c)を適宜参照しながら、図 22に沿って説明したように、 本態様に係る画像表示装置 100によると、浮遊画像及び直視画像中の所定スポット と、交線 2135との相対的な位置関係に応じて、直視画像と浮遊画像とが連動して変 化するインタラクティブなシステムが実現される。
[0142] カロえて、仮想傾斜角、透明度、拡大縮小率、及び影など種々のエフェクトを設定す ること〖こよって、ある画像が、直視画像と浮遊画像との間を行き来するような演出を一 層効果的に表現することができる。
[0143] (3— 4)第 4態様
続いて、本実施例に係る画像表示装置の第 4態様を、図 23 (a)から図 23 (c)を適 宜参照しながら、図 24に沿って説明する。ここに、図 23は、浮遊画像と直視画像とが 連動した変化をする様子を示す模式図である (a :第 1状態、 b :第 2状態、 c :第 3状態 )。図 24は、浮遊画像と直視画像とが連動して変化させる処理を示すフローチャート である。
[0144] 本態様に係る画像表示装置 100は、浮遊画像及び直視画像中の所定スポットと、 直視表示部の表示面と結像面の交線との相対的な位置関係に応じて、浮遊画像或 いは直視画像を動的に変化させることで、表現力を向上させることを特徴とする。特 に、直視画像中の所定スポットと、直視表示部の表示面と結像面の交線との相対的 な位置関係に応じて、浮遊画像の仮想的な傾斜角を変化させるような映像表現を用 いることを特徴とする。
[0145] 図 23 (a)力も図 23 (c)に示すように、この態様において、画像表示装置 100は、例 えば車両が走行する位置を地図画像として表示するカーナビゲーシヨンとする。その 基本構成は、図 17 (a)から図 17 (c)を参照して説明した画像表示装置 100と同様で あるため、説明を省略する。
[0146] このように構成された画像表示装置 100の動作について、図 23 (a)力も図 23 (c)を 適宜参照しながら、図 24に沿って説明する。
[0147] 図 24において先ず、自車周辺を示す直視画像 358が、車両の走行に伴い、定期 に或いは不定期に、更新される (ステップ S501)。そして、自車周辺を示す直視画像 358における、スポットの位置力 制御部 5によって検出される(ステップ S502)。ここ で言うスポットは、例えば県境である。そして、検出されたスポットの位置力 浮遊画 像表示範囲内か否かが判定される (ステップ S503)。
[0148] ここで、浮遊画像表示範囲外である場合 (ステップ S 503 : NO)、スポットに対応す る県境案内表示の浮遊画像 219は表示されない (ステップ S507)。
[0149] 他方で、浮遊画像表示範囲内である場合 (ステップ S503 : YES)、図 23 (a)に示す ように、県境案内表示の浮遊画像 219が表示される。ここで、県境案内表示の浮遊 画像 219が浮遊画像表示範囲内に入ったば力りであれば、ユーザにとって、直視表 示部 35の画面と略平行な状態、言い換えれば倒れた状態に見えるように県境案内 表示の浮遊画像 219が表示される。その後、県境案内表示の浮遊画像 219の仮想 傾斜角を、交線 2135とスポットである県境との位置の差に応じて変化させるベぐ次 のような処理が行われる。
[0150] 先ず、交線 2135とスポットである県境との位置の差が算出される (ステップ S504)。
続いて、算出された位置の差に応じて仮想傾斜角が算出される (ステップ S505)。
[0151] そして、算出される仮想傾斜角に応じて、県境案内表示の浮遊画像 219が表示さ れる (ステップ S5061)。例えば、図 23 (b)に示すように、算出される位置の差が小さ いほど、仮想傾斜角が小さくなるようにすれば、自車が県境に近づくほど、県境案内 表示の浮遊画像 219が起き上がってくるように見える。そして、図 23 (c)に示すように 、算出される位置の差がゼロになると、即ち自車が県境に一致すると、県境案内表示 の浮遊画像 219が直立して県境であることを案内する。
[0152] これと並行して、直視表示部 35によって表示される自車周辺を示す直視画像 358 には、県境案内表示の浮遊画像 219の影が直視画像として表示される (ステップ S5 062)。この影は、県境案内表示の浮遊画像 219の仮想傾斜角に応じて、交線 2135 よりも奥側力も交線 2135に向力つて段階的に近づくように表示されるとよい。
[0153] 以上、図 23 (a)から図 23 (c)を適宜参照しながら、図 24に沿って説明したように、 本態様に係る画像表示装置 100によると、浮遊画像及び直視画像中の所定スポット と、交線 2135との相対的な位置関係に応じて、直視画像と浮遊画像とが連動して変 化するインタラクティブなシステムが実現される。
[0154] カロえて、仮想傾斜角、拡大縮小率、及び影など種々のエフェクトを設定することによ つて、浮遊画像と交線 2135との距離感を一層効果的に表現することができる。
[0155] なお、第 3実施例の第 2態様から第 4態え様にぉ 、て、浮遊画像が倒れ込む、起き 上がるというような演出効果を行った力 これは結像面に表示する浮遊画像において 、そのような映像表現をするのであって、結像面自体が倒れ込んだり、起き上がったり するわけではない。
[0156] (4)第 4実施例
次に、第 4実施例に係る画像表示装置について、図 25から図 31を参照して説明を する。なお、上述の第 1から第 3実施例と同様の構成には、同様の参照符号を付し、 その詳細な説明は適宜省略する。
[0157] 本実施例に係る画像表示装置は、直視画像と浮遊画像とを組み合わせたインター フェースを有する。そして、仮想空間上で、所定の配置がなされたアイコンを、これら の画像で表現する。この様子を図 25及び図 26を用いて以下に詳述する。ここに、図 25は、直視画像と浮遊画像とを組み合わせて表示可能な円状の画像表示装置の全 体構成を示す模式図である (a :斜視図、 b :上面図)。図 26は、円状に配置された複 数のアイコンを示す上面図である (a:仮想的な配置図、 b:実際の配置図)。
[0158] 図 25 (a)及び図 25 (b)に示すように、本実施例に係る画像表示装置 100は、筐体 101、直視表示部 31、直視表示部 32、画像伝達パネル 17、表示部 11、制御部 5と 、位置検出部 42とを備える。
[0159] 本実施例では特に、筐体 101は、円筒状 (但し、切り口は正円に限らず、楕円等も 含む)である。ターンテーブル型の位置検出部 42は、筐体 101の輪郭に沿うような形 状であり、筐体 101の底面に位置する。そして、円周方向、直径方向、或いは垂直方 向に動力されると、その動作情報を制御部 5に伝達可能である。このように、画像表 示装置 100全体を丸くしたようなデザインであると、以下の利点が得られる。
[0160] すなわち、図 26 (a)に示すように、例えば 8つのアイコン A〜H力 現実には存在し ないにも関わらず、仮想空間上で円状に配置されているように、つまり図 26 (a)にお ける第 1仮想経路 99上に配置されているように、ユーザに見せることができる。そのた めに、図 26 (b)に示すように、例えば当該画像表示装置 100の手前に位置するアイ コン A及び Cが直視画像で表現され、ユーザから見て最も手前のアイコン Bが浮遊画 像で表現される。具体的には、直視表示部 31にはアイコン Aが表示され、直視表示 部 32にはアイコン Cが表示され、結像面 21にはアイコン Bが表示される。このとき、浮 遊画像の位置と直視画像の位置は、ユーザから見て奥行き方向にズレて 、る方が、 遠近感が強調されるので好ましい。つまり、第 1仮想経路 99上にアイコンが配置され て 、ると 、うイメージを、よりリアルに感じることができる。
[0161] このように、 3つのアイコン A〜Cが第 1仮想経路 99上に位置するように表示されて おり、かつ、画像表示装置 100自体が円筒状であるので、ユーザにとっては、あたか も筐体 101の中に続きのアイコン D〜Hが存在するかのように見える。
[0162] なお、上記実施例においては直視画像及び浮遊画像として表示されたアイコンは 3 つであつたが、それ以上でも、それ以下でもよい。例えば、浮遊画像として表示される アイコンが 1つだけでも、そのアイコンの動き、及び筐体 101の形状によっては同様か 近い効果が得られる。
[0163] なお、筐体 101の形状は、第 1仮想経路 99の形状に合っていればよぐ円状に限ら ない。例えば、楕円や多角形でもよい。ただし、後述するように配置されたアイコンを 回転させるような操作を採用する場合には、筐体 101の切り口の形状は、回転中心 につ ヽて点対称である方が望ま 、。
[0164] 続いて、このように構成された画像表示装置 100において、第 1仮想経路 99上に 配置されたアイコン A〜Hが回転させられる動作を、図 27 (a)から図 27 (d)を参照し て説明する。ここに、図 27は、円状に配置された複数のアイコンの回転移動を示す 模式図である (a:第 1状態、 b:第 2状態、 c:第 3状態、 d:第 4状態)。
[0165] 図 27 (a)から図 27 (d)に示すように、本実施例に係る画像表示装置 100によると、 例えばターンテーブル型の位置検出部 42が回転操作されることによって、第 1仮想 経路 99上に配置されたアイコン A〜Hのうち、筐体 101の内側に隠れたアイコンが奥 側から手前側に出てくるように見える。或いは、手前にあったアイコンが筐体 101の 内側に入り込むように見える。
[0166] より詳しくは、先ず図 27 (a)に示すように、アイコン A〜Hが、第 1仮想経路 99上に 配置されている。そのうち、アイコン Aが直視画像として直視表示部 31に、アイコン B が浮遊画像として結像面 21に、アイコン Cが直視画像として直視表示部 32に、夫々 表示されている。カロえて、浮遊画像であるアイコン Bの影力 直視画像として直視表 示部 35に表示されていてもよい。例えば、ターンテーブルは光透過性のある材質で 構成されており、その下に直視表示部 35が配置されている。そのためターンテープ ル越しに直視表示部 35の直視画像を見ることができる。
[0167] 続いて、図 27 (b)に示すように、例えばターンテーブル型の位置検出部 42が回転 操作されることによって、アイコン A〜Hの配置が第 1仮想経路 99に沿って変化する 。具体的には、位置検出部 42が左向きに回転操作されると、アイコン A〜Cも夫々左 向きに回転移動するように表示される。これに伴い、直視画像として直視表示部 35に 表示されているアイコン Bの影も、左向きに移動する。
[0168] 続いて、図 27 (c)に示すように、位置検出部 42が更に回転操作されることによって 、アイコン A〜Hの配置が第 1仮想経路 99に沿って更に変化する。具体的には、アイ コン Aが、筐体 101の内側に隠れるようにして、直視表示部 31に表示されなくなる。 アイコン Bが、結像面 21に表示される浮遊画像から、直視表示部 31に表示される直 視画像に移り変わる。アイコン Cが、直視表示部 32に表示される直視画像から、結像 面 21に表示される浮遊画像に移り変わる。アイコン Dが、筐体 101の内側から飛び 出てくるようにして、直視表示部 32に表示される。
[0169] 続いて、図 27 (d)に示すように、位置検出部 42が更に回転操作されることによって 、アイコン A〜Hの配置が第 1仮想経路 99に沿って更に変化する。
[0170] 結果的には、図 27 (a)に示すアイコン A〜Cが、図 27 (d)に示すアイコン B〜Dに置 き換わっただけのようである。しかし、図 27 (a)から図 27 (d)に示す一連の変化によつ て、アイコン A〜Cのみならず、表示されていない他のアイコン D〜Hも、第 1仮想経 路 99に沿ってあた力も回転移動するかのように見える。なお、回転移動するアイコン A〜Hは、ループしてもよい。すなわち、位置検出部 42が更に回転操作されつづけ た結果、一周して元に戻るようにしてもよい。このようにループすれば、アイコン A〜H が第 1仮想経路 99上に配置されていることが一層強調される。
[0171] 以上、図 27 (a)から図 27 (d)を参照して説明した動作例を、図 28に示すフローチヤ ートに沿って説明する。ここに、図 28は、円状に配置された複数のアイコンの回転移 動に係る処理を示すフローチャートである。
[0172] 図 28において先ず、位置検出部 42によって回転操作が検知され、電気的信号とし て制御部 5に伝達される (ステップ S601)。制御部 5は、伝達された信号に基いて、 当該回転操作に伴う、手の位置、その変化量、或いは回転量を特定する (ステップ S 602)。こうして特定された結果に基づいて、制御部 5は、第 1仮想経路 99上でアイコ ン A〜Hを再配置する (ステップ S603)。言い換えれば、第 1仮想経路 99上における 、アイコン A〜Hの座標を算出し直す。
[0173] そして、以下に記すように、アイコン A〜Hが、再配置後の座標によって、直視画像 或いは浮遊画像として表示される。先ず、制御部 5は、直視表示部 31に直視画像と して表示すべき位置に再配置されたアイコンを表示するように、直視表示部 31を制 御する (ステップ S6041)。同様に、制御部 5は、直視表示部 32に直視画像として表 示すべき位置に再配置されたアイコンを表示するように、直視表示部 32を制御する( ステップ S6043)。これと同時に又は相前後して、制御部 5は、結像面 21に浮遊画像 として表示すべき位置に再配置されたアイコンを表示するように表示部 11を制御す る(ステップ S6042)。カロえて、制御部 5は、結像面 21に表示されるアイコンの影を直 視画像として表示するように、直視表示部 35を制御する (ステップ S6052)。
[0174] このように、画像表示装置 100において、第 1仮想経路 99上に配置されたアイコン A〜Hが回転させられる。
[0175] ところで、上述の実施例では、位置検出部としてターンテーブル型の位置検出部 4 2を例示した力 位置検出部 42は、ユーザが画像表示装置 100に対して操作可能で あれば、その他各種態様を採ってもよい。例えば、空間センサ、或いはタツチパネル 、或いはターンテーブルのような回転系コントローラがその候補となる。 [0176] 位置検出部として、図 7を参照して上述したように、超音波或いは撮像素子などを 利用した空間センサを採用する場合、以下のような方式でアイコン A〜Hの回転'選 択操作が行われる。すなわち、回転操作は、空間センサの検知可能範囲内で、第 1 仮想経路 99に沿った方向に手を動かすことによって実現される。他方で、選択操作 は、空間センサの検知可能範囲内で、第 1仮想経路 99に交わる方向に手を動かす ことによって実現される。或いは、次のような方式にしてもよい。すなわち、回転操作 は、空間センサの検知可能範囲内であって且つ浮遊画像が表示されていない空間 で、第 1仮想経路 99に沿った方向に手を動かすことによって実現される。他方で、選 択操作は、空間センサの検知可能範囲内で、ユーザが浮遊画像に触れることによつ て実現される。
[0177] 或いは、位置検出部として、図 9を参照して上述したように、タツチパネルを採用す る場合、以下のようにしてアイコン A〜Hの回転'選択操作が行われる。すなわち、回 転操作は、タツチパネル上で、第 1仮想経路 99に沿った方向に手を動かすことによ つて実現される。他方で、選択操作は、タツチパネル上で、第 1仮想経路 99に交わる 方向に手を動かすことによって実現される。或いは、タツチパネルが直視表示部 35 の画面に張り合わされ手いる場合には、次のような方式にしてもよい。すなわち、回 転操作は、画面に表示されるスクロールバー又はスライドバーを移動させるように、タ ツチパネル上で、指を動かすことによって実現される。他方で、選択操作は、画面に 表示される選択ボタンを押すように、タツチパネル上で、指を動かすことによって実現 される。
[0178] 或いは、図 29 (a)から図 29 (c)を参照して説明するように、位置検出部 42として、 回転系コントローラの一例であるターンテーブル型の位置検出部 42を採用する場合 、以下のようにしてアイコン A〜Hの回転'選択操作が行われる。ここに、図 29は、タ ーンテーブルの基本構成を示す模式図である。
[0179] 図 29 (a)に示すように、回転操作は、ターンテーブル型の位置検出部 42を円周方 向に回転させることによって実現される。他方で、図 29 (b)に示すように、選択操作 は、ターンテーブル型の位置検出部 42を直径方向にスライドさせることによって実現 される。例えば、ターンテーブル型の位置検出部 42が直径方向に押されると、そのと きに浮遊画像で表示されているアイコンに対応する項目が選択されて、選択された 項目に対応した次の画面へと移る。反対に、ターンテーブル型の位置検出部 42が 直径方向に引かれると、元の画面に戻るようにしてもよい。或いは、図 29 (c)に示す ように、選択操作は、ターンテーブル型の位置検出部 42を上方力 押すことによって 実現されてもよい。加えて、ターンテーブル型の位置検出部 42を円周方向に回転さ せる操作と、直径方向にスライドさせる操作とを組み合わせた操作により、ドラッグに 似た操作感を実現してもよい。例えば、ターンテーブル型の位置検出部 42が直径方 向に押し込まれることで、当該画像表示装置 100に内蔵された音源の音量を示す音 量アイコンが選択され、押し込まれたままで左右円周方向に回転させることで、音量 が増減され、押し込まれた状態を解除することで、音量が確定されるような操作として ちょい。
[0180] なお、図 29 (a)力も図 29 (c)に示すように、ユーザが手を動力した量、或いはテー ブルを回転させた量が位置検出部 42によって検出される場合には、これら検出量と 、図 27 (a)力も図 27 (d)に示すようなアイコン A〜H夫々の移動量、或いは回転量と がー致若しくは比例して 、るように、制御部 5が表示部 11及び直視表示部を制御す ることが好ましい。このように、ユーザの動きと、表示内容とが連動することで、演出上 のリアリティが一段と増す。
[0181] なお、本実施例に係る画像表示装置 100にお ヽて、浮遊画像と直視画像との数及 び配置の関係は、図 30 (a)に示すような、 3つのアイコンを 1つの浮遊画像と 2つの直 視画像で表現する態様に限られない。例えば、図 30 (b)に示すように、 3つのアイコ ンを全て浮遊画像で表現してもよい。ここ〖こ、図 30は、浮遊画像と直視画像によって 表現されるアイコンを示す模式図である(a : 1つの浮遊画像と 2つの直視画像、 b: 3 つの浮遊画像)。
[0182] 図 30 (b)において、画像表示装置 100は、画像伝達パネル 17にカ卩えて、画像伝 達パネル 171、及び画像伝達パネル 172を更に備える。各画像伝達パネルの背面 には、浮遊画像のもととなる画像を表示する表示部(不図示)が夫々配置されている 。そして、各表示部で表示される画像を構成する表示光が、対応する画像伝達パネ ルに伝達されて、結像面 21、結像面 2101、及び結像面 2102に浮遊画像が表示さ れる。このとき、各浮遊画像の位置は、ユーザ力 見て奥行き方向にズレている方が
、遠近感が強調されるので好ましい。この際、直視表示部 350には、結像面の位置の ズレに合わせた位置に、浮遊画像の影が表示されるとょ 、。
[0183] なお、上述した操作によってアイコンの階層を移るような表現をするには、図 31 (a) 及び図 31 (b)に示すように、階層構造が視認されるようにアイコンを表示することが 有効である。ここに、図 31は、アイコンの仮想的な階層構造を示す模式図である(a: 同心円状に配置、 b :多層円盤状に配置)。
[0184] 図 31 (a)において、アイコンの階層が、仮想的に、同心円状に表現されている。具 体的には、第 1仮想経路 99、第 2仮想経路 999、及び第 3仮想経路 9999が、同心 円状に設定されている。そして、第 1仮想経路 99上にはアイコン A〜Cが、第 2仮想 経路 999上にはアイコン AA〜CC力 第 3仮想経路 9999上にはアイコン AAA〜C じじが、夫々位置するように表示される。このとき例えば、アイコン A、 AA、 AAA, C、 CC、 CCCは、夫々直視画像として表示され、アイコン B、 BB、 BBBは、夫々浮遊画 像として表示される。なお、アイコン B、 BB、 BBBは、複数 (例えば三層)の結像面に 一堂に表示されてもょ 、し、 1つの結像面に現在選択されて 、る階層に属するアイコ ン(例えば、アイコン BBB)だけが表示されてもよい。このように同心円状にアイコンが 表示されるので、次のような操作が可能である。すなわち、例えば、アイコン BB力 一 番手前に浮遊画像として表示されている場合は、アイコン BBが選択候補のアイコン となっている。ここで、回転操作がなされると (例えば、ターンテーブル型の位置検出 部 42が、円周方向に沿って回転されると)、選択候補のアイコンがアイコン AA又は アイコン CCに切り替わる。或いは、移動操作がなされると、他の階層へと遷移する。 例えば、ターンテーブル型の位置検出部 42が、直径方向に引き出されると、選択候 補であるアイコンが属する仮想経路が、第 2仮想経路 999から、第 1仮想経路 99へ 替わる。逆に、ターンテーブル型の位置検出部 42が、直径方向に押し込まれると、 選択候補であるアイコンが属する仮想経路が、第 2仮想経路 999から、第 3仮想経路 9999へ替わる。このように階層を移る際には、各アイコンの拡大縮小率、或いは透 明度を適宜変更することで、同心円の中心方向から、或いは同心円の外側から、新 たなアイコンが飛び出し、或いは引っ込むような演出が可能である。さらに、第 3仮想 経路 9999が表示されている状態で、アイコン BBBを選択する選択操作がなされると (例えば、ターンテーブル型の位置検出部 42が、上方から押されると)、選択された アイコン BBBに関連するコンテンツが表示開始される。
[0185] 或いは、図 31 (b)において、アイコンの階層力 仮想的に、多層状に表現されてい る。具体的には、第 1仮想経路 99、第 2仮想経路 999、及び第 3仮想経路 9999が、 多層状に設定されている。このように設定されていれば、上述した選択操作、回転操 作、移動操作に加えて又は代えて、各仮想経路が全体的に下に落ちたり、上に上が つていくような演出が可能である。
[0186] なお、同心円状の仮想経路を、多層状に設定してもよい。その結果、一層空間的な 広がりを持たせた演出が可能である。
[0187] なお、上述した実施例において、位置検出手段として、タツチパネルやターンテー ブルを適用した場合は、空間センサの場合と比べて、いくつか別なメリットも考えられ る。例えば、典型的には浮遊画像の下側に手を入れて操作することになるので、浮 遊画像を手で隠すことなく操作が可能になる。また、空間センサのように浮遊画像に 直接触れて操作するのとは違った新たな面白さも感じられる。さらには、例えば車内 で使用する場合などでは、空間に手を伸ばすという多少不安定な状態に比べて、実 物体に手が触れているので安定して操作が可能であるなどのメリットが考えられる。
[0188] なお、本発明は、上述した実施例に限られるものではなぐ請求の範囲及び明細書 全体力 読み取れる発明の要旨、或いは思想に反しない範囲で適宜変更可能であ り、そのような変更を伴う画像表示装置もまた、本発明の技術的範囲に含まれるもの である。
産業上の利用可能性
[0189] 本発明に係る画像表示装置は、例えば 3Dフローティングビジョン方式に基づ 、て 二次元画像を立体的に表示する画像表示装置の技術分野に利用可能である。

Claims

請求の範囲
[1] 第 1画面上に第 1画像を表示する第 1表示手段と、
前記第 1画像を構成する表示光の光路に配置され、かつ、前記第 1画像の実像を 前記第 1画面とは反対側の空間に位置する結像面に浮遊画像として表示するよう〖こ 、前記第 1画像を構成する前記表示光を伝達する画像伝達手段と、
複数のアイコンのうち、少なくとも一つのアイコンが、前記空間を含む実空間部分内 に設定される所定形状の仮想経路に沿って配置される浮遊画像として表示されるよ うに、前記第 1表示手段を制御する制御手段と
を備えることを特徴とする画像表示装置。
[2] 前記仮想経路は、円状であることを特徴とする請求項 1に記載の画像表示装置。
[3] 当該画像表示装置の外形は、少なくとも部分的に前記仮想経路に沿っている ことを特徴とする請求項 1に記載の画像表示装置。
[4] 前記浮遊画像を観察可能な観察位置から見えるように、第 2画面上に第 2画像を直 視画像として表示する第 2表示手段を更に備え、
前記制御手段は、前記複数のアイコンのうち、前記第 1表示手段によって表示され るものとは別のアイコンが、前記仮想経路に沿って配置される直視画像として表示さ れるように、前記第 1表示手段に加えて前記第 2表示手段も制御する
ことを特徴とする請求項 1に記載の画像表示装置。
[5] 被検出物の位置に対応する位置信号を出力する位置検出手段を更に備え、 前記制御手段は、前記複数のアイコンが、前記被検出物の位置に対応した位置に 配置されるように、前記第 1表示手段及び前記第 2表示手段の少なくとも一方を、前 記出力される位置信号に基づ 、て制御する
ことを特徴とする請求項 1又は 4に記載の画像表示装置。
[6] 前記位置検出手段は、前記被検出物の位置が前記仮想経路に沿って移動する場 合に、前記位置信号を出力する
ことを特徴とする請求項 5に記載の画像表示装置。
[7] 前記複数のアイコンのうち、少なくとも 3つのアイコンは夫々、前記浮遊画像又は前 記直視画像として表示される ことを特徴とする請求項 1又は 4に記載の画像表示装置。
[8] 前記複数のアイコンが表示される前記結像面又は前記第 2画面は、当該画像表示 装置のユーザに対する奥行き方向の位置が互いに異なる
ことを特徴とする請求項 1又は 4に記載の画像表示装置。
[9] 前記位置検出手段は、 1つ又は複数の操作ボタンを備えており、前記 1つ又は複数 の操作ボタンの何れかが前記被検出物によって押されると、前記押される操作ボタン に対応する信号を前記位置信号として出力する
ことを特徴とする請求項 5に記載の画像表示装置。
[10] 前記複数のアイコン力 前記仮想経路に沿ってループして表示される
ことを特徴とする請求項 1又は 4に記載の画像表示装置。
[11] 前記仮想経路が複数あり、かつ各々が同心円状又は多層状に配置される
ことを特徴とする請求項 1又は 4に記載の画像表示装置。
[12] 当該画像表示装置は、他の装置と通信する通信手段を更に備え、
前記通信手段は、前記他の装置が、前記出力される位置信号に基づいて動作す るように、前記他の装置と通信する
ことを特徴とする請求項 1又は 4に記載の画像表示装置。
PCT/JP2006/319706 2006-10-02 2006-10-02 Dispositif d'affichage d'images WO2008041314A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/443,747 US20100066662A1 (en) 2006-10-02 2006-10-02 Image display device
JP2008537371A JP4987008B2 (ja) 2006-10-02 2006-10-02 画像表示装置
PCT/JP2006/319706 WO2008041314A1 (fr) 2006-10-02 2006-10-02 Dispositif d'affichage d'images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/319706 WO2008041314A1 (fr) 2006-10-02 2006-10-02 Dispositif d'affichage d'images

Publications (1)

Publication Number Publication Date
WO2008041314A1 true WO2008041314A1 (fr) 2008-04-10

Family

ID=39268180

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/319706 WO2008041314A1 (fr) 2006-10-02 2006-10-02 Dispositif d'affichage d'images

Country Status (3)

Country Link
US (1) US20100066662A1 (ja)
JP (1) JP4987008B2 (ja)
WO (1) WO2008041314A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6357663A (ja) * 1986-08-29 1988-03-12 Asahi Chem Ind Co Ltd 耐熱性に優れるシリンジ用ガスケツト
WO2012133227A1 (ja) * 2011-03-25 2012-10-04 京セラ株式会社 電子機器、制御方法および制御プログラム
JP2013045255A (ja) * 2011-08-23 2013-03-04 Kyocera Corp 表示機器
WO2014002526A1 (ja) * 2012-06-27 2014-01-03 日立コンシューマエレクトロニクス株式会社 ピンホールアレイ並びにそれを用いた表示装置
JP2015163968A (ja) * 2008-07-10 2015-09-10 リアル ビュー イメージング リミテッド 広視野角ディスプレイおよびユーザインタフェース
JP5781080B2 (ja) * 2010-10-20 2015-09-16 三菱電機株式会社 3次元立体表示装置および3次元立体表示処理装置
JP2016509292A (ja) * 2013-01-03 2016-03-24 メタ カンパニー エクストラミッシブ空間撮像デジタル眼鏡装置または拡張介在ビジョン
KR20160104365A (ko) * 2015-02-26 2016-09-05 삼성전자주식회사 사용자 입력을 수신함에 따라 애플리케이션의 실행 결과를 디스플레이하는 방법 및 디바이스

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8893034B2 (en) * 2010-01-27 2014-11-18 Yahoo! Inc. Motion enabled multi-frame challenge-response test
TWI452270B (zh) * 2011-10-21 2014-09-11 Univ Nat Central 量測裝置及其量測方法
TW201337850A (zh) * 2012-03-08 2013-09-16 Hon Hai Prec Ind Co Ltd 安全提醒系統及安全提醒方法
US9280259B2 (en) 2013-07-26 2016-03-08 Blackberry Limited System and method for manipulating an object in a three-dimensional desktop environment
US9390598B2 (en) 2013-09-11 2016-07-12 Blackberry Limited Three dimensional haptics hybrid modeling
USD765723S1 (en) * 2013-12-30 2016-09-06 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
JP5947333B2 (ja) * 2014-05-29 2016-07-06 日東電工株式会社 表示装置
JP6428020B2 (ja) * 2014-07-24 2018-11-28 セイコーエプソン株式会社 Gui装置
EP3276608A4 (en) * 2015-03-26 2018-10-24 Kyocera Document Solutions Inc. Visible-image formation device and image formation device
US10366376B2 (en) * 2015-09-02 2019-07-30 Kenneth L. Sherman Method and system for providing pay-as-you-go pre-paid professional services
WO2017142977A1 (en) 2016-02-15 2017-08-24 Meta Company Apparatuses, methods and systems for tethering 3-d virtual elements to digital content
US10983680B2 (en) * 2016-06-28 2021-04-20 Nikon Corporation Display device, program, display method and control device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196530A (ja) * 2004-01-08 2005-07-21 Alpine Electronics Inc 空間入力装置及び空間入力方法
JP2005234240A (ja) * 2004-02-19 2005-09-02 Pioneer Electronic Corp 立体的二次元画像表示装置及び立体的二次元画像表示方法
WO2006035816A1 (ja) * 2004-09-30 2006-04-06 Pioneer Corporation 立体的二次元画像表示装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0683209A3 (en) * 1994-05-19 1997-05-21 Gen Electric Flame retardant polyamide compositions.
US6118435A (en) * 1997-04-10 2000-09-12 Idec Izumi Corporation Display unit with touch panel
JPH1139132A (ja) * 1997-07-15 1999-02-12 Sharp Corp インターフェースシステム
JP2002196867A (ja) * 2000-12-26 2002-07-12 Sony Corp 情報処理装置
JP3761165B2 (ja) * 2002-05-13 2006-03-29 株式会社モバイルコンピューティングテクノロジーズ 表示制御装置、携帯型情報端末装置、プログラム、及び表示制御方法
JP2004295159A (ja) * 2003-02-07 2004-10-21 Sony Corp アイコン表示システム、アイコン表示方法、電子機器装置およびコンピュータプログラム
JP4284158B2 (ja) * 2003-11-12 2009-06-24 パイオニア株式会社 立体的二次元画像表示システム及び画像表示方法
US7289084B2 (en) * 2005-02-22 2007-10-30 John Michael Lesniak Computer display apparatus
US7966577B2 (en) * 2005-10-11 2011-06-21 Apple Inc. Multimedia control center
JP2008041312A (ja) * 2006-08-02 2008-02-21 Tokai Rika Co Ltd プッシュ操作装置
JP4880693B2 (ja) * 2006-10-02 2012-02-22 パイオニア株式会社 画像表示装置
JP2008089985A (ja) * 2006-10-02 2008-04-17 Pioneer Electronic Corp 画像表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196530A (ja) * 2004-01-08 2005-07-21 Alpine Electronics Inc 空間入力装置及び空間入力方法
JP2005234240A (ja) * 2004-02-19 2005-09-02 Pioneer Electronic Corp 立体的二次元画像表示装置及び立体的二次元画像表示方法
WO2006035816A1 (ja) * 2004-09-30 2006-04-06 Pioneer Corporation 立体的二次元画像表示装置

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6357663A (ja) * 1986-08-29 1988-03-12 Asahi Chem Ind Co Ltd 耐熱性に優れるシリンジ用ガスケツト
US10585395B2 (en) 2008-07-10 2020-03-10 Real View Imaging Ltd. Holographic image display system
JP2015163968A (ja) * 2008-07-10 2015-09-10 リアル ビュー イメージング リミテッド 広視野角ディスプレイおよびユーザインタフェース
US10120335B2 (en) 2008-07-10 2018-11-06 Real View Imaging Ltd. Viewer tracking in a projection system
US9594347B2 (en) 2008-07-10 2017-03-14 Real View Imaging Ltd. Man machine interface for a 3D display system
US9541901B2 (en) 2008-07-10 2017-01-10 Real View Imaging Ltd. Viewer tracking in a projection system
JP5781080B2 (ja) * 2010-10-20 2015-09-16 三菱電機株式会社 3次元立体表示装置および3次元立体表示処理装置
US9507428B2 (en) 2011-03-25 2016-11-29 Kyocera Corporation Electronic device, control method, and control program
WO2012133227A1 (ja) * 2011-03-25 2012-10-04 京セラ株式会社 電子機器、制御方法および制御プログラム
JP2012203737A (ja) * 2011-03-25 2012-10-22 Kyocera Corp 電子機器、制御方法および制御プログラム
JP2013045255A (ja) * 2011-08-23 2013-03-04 Kyocera Corp 表示機器
WO2014002526A1 (ja) * 2012-06-27 2014-01-03 日立コンシューマエレクトロニクス株式会社 ピンホールアレイ並びにそれを用いた表示装置
US9256060B2 (en) 2012-06-27 2016-02-09 Hitachi Maxell, Ltd. Pinhole array and display device using same
JP2014006462A (ja) * 2012-06-27 2014-01-16 Hitachi Consumer Electronics Co Ltd ピンホールアレイ並びにそれを用いた表示装置
JP2016509292A (ja) * 2013-01-03 2016-03-24 メタ カンパニー エクストラミッシブ空間撮像デジタル眼鏡装置または拡張介在ビジョン
US11334171B2 (en) 2013-01-03 2022-05-17 Campfire 3D, Inc. Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities
KR20160104365A (ko) * 2015-02-26 2016-09-05 삼성전자주식회사 사용자 입력을 수신함에 따라 애플리케이션의 실행 결과를 디스플레이하는 방법 및 디바이스
KR102360177B1 (ko) * 2015-02-26 2022-02-08 삼성전자주식회사 사용자 입력을 수신함에 따라 애플리케이션의 실행 결과를 디스플레이하는 방법 및 디바이스

Also Published As

Publication number Publication date
JPWO2008041314A1 (ja) 2010-02-04
JP4987008B2 (ja) 2012-07-25
US20100066662A1 (en) 2010-03-18

Similar Documents

Publication Publication Date Title
JP4987008B2 (ja) 画像表示装置
JP4880693B2 (ja) 画像表示装置
JP2008089985A (ja) 画像表示装置
JP5087632B2 (ja) 画像表示装置
JP2008089984A (ja) 画像表示装置
JP4996681B2 (ja) 画像表示装置
US7956819B2 (en) Stereoscopic two-dimensional image display device
US9104275B2 (en) Mobile terminal to display an object on a perceived 3D space
CN101606120B (zh) 控制装置、输入装置、控制系统、控制方法和手持装置
JP4294668B2 (ja) 点図ディスプレイ装置
JP4576390B2 (ja) 立体的二次元画像表示装置及び立体的二次元画像表示方法
KR101766332B1 (ko) 복수의 컨텐츠 레이어를 디스플레이하는 3d 모바일 기기 및 그 디스플레이 방법
WO2008041312A1 (fr) Dispositif d'affichage d'images
ES2751488T3 (es) Procedimiento para proporcionar un dispositivo de mando, en particular en un vehículo, y dispositivo de mando para un vehículo
JP2005071286A (ja) 表示装置
EP2930593A1 (en) Multi-display system and method for controlling thereof
JPWO2010035326A1 (ja) 画像表示装置及び画像表示システム
JP2009086395A (ja) 画像表示装置
JP4871033B2 (ja) 地図表示装置
KR101877362B1 (ko) 건축물 내외부에 대한 vr 컨텐츠를 이용한 사용자 인터랙션 방법 및 그 전자 장치
US10255832B2 (en) Multi-layer display including proximity sensor and depth-changing interface elements, and/or associated methods
KR20180074070A (ko) 차량, 및 그 제어방법
JP2018097453A (ja) 画像表示装置、画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム
JP2014228703A (ja) 地図表示制御装置
WO2020014038A2 (en) Ghost multi-layer and single layer display systems

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 06811054

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2008537371

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 12443747

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 06811054

Country of ref document: EP

Kind code of ref document: A1