WO2018051743A1 - 表示装置用の情報処理装置、表示装置用の情報処理方法、および、表示装置用のプログラム - Google Patents

表示装置用の情報処理装置、表示装置用の情報処理方法、および、表示装置用のプログラム Download PDF

Info

Publication number
WO2018051743A1
WO2018051743A1 PCT/JP2017/029918 JP2017029918W WO2018051743A1 WO 2018051743 A1 WO2018051743 A1 WO 2018051743A1 JP 2017029918 W JP2017029918 W JP 2017029918W WO 2018051743 A1 WO2018051743 A1 WO 2018051743A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
viewpoint
display device
data
refracting
Prior art date
Application number
PCT/JP2017/029918
Other languages
English (en)
French (fr)
Inventor
潤爾 大山
Original Assignee
国立研究開発法人産業技術総合研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立研究開発法人産業技術総合研究所 filed Critical 国立研究開発法人産業技術総合研究所
Priority to US16/330,615 priority Critical patent/US11402657B2/en
Priority to JP2018539596A priority patent/JPWO2018051743A1/ja
Priority to KR1020197005333A priority patent/KR20190046810A/ko
Priority to CN201780056414.8A priority patent/CN109691093B/zh
Priority to EP17850649.9A priority patent/EP3514607B1/en
Publication of WO2018051743A1 publication Critical patent/WO2018051743A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • G02B30/29Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays characterised by the geometry of the lenticular array, e.g. slanted arrays, irregular arrays or arrays of varying shape or size
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/32Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Definitions

  • the present invention relates to a technical field of an information processing device for a display device that displays an image, an information processing method for the display device, and a program for the display device.
  • Patent Document 1 includes a lenticular lens having a cylindrical shape around a light source and transmitted light control means.
  • the transmitted light control means is reduced in the horizontal direction with respect to each lens constituting the lenticular lens.
  • a display having a transmission image formed thereon is disclosed.
  • each lens of the lenticular lens has a single-convex structure having a flat surface. Therefore, when the viewing angle exceeds a predetermined value, the lens has a flat surface from the inside of the lens. There was a problem that a sufficient viewing angle could not be secured because of the reflection of light (internal reflection). For this reason, only the image at the center of the display can be displayed sufficiently, and it can be expressed using a wide space that can be seen from the range of change in the wide viewpoint direction, and a visual expression that actually has a three-dimensional space can be confirmed. It was difficult to make.
  • an object of the present invention is to provide an information processing apparatus for a display device for expressing a three-dimensional space expression that can be viewed from a wide viewpoint direction with a display device.
  • the invention described in claim 1 has a circular cross section, and refracting means for refracting light and a plurality of the refracting means are arranged in a convex shape with respect to the viewpoint side.
  • An information processing apparatus for a display device comprising: an arrangement support means for supporting the image forming means; and an image forming means for forming a formed image on a surface opposite to the viewpoint side with respect to the refraction means.
  • Extraction means for extracting image data of a display element image displayed on each refraction means so as to appear as the three-dimensional space expression from the three-dimensional space expression data for representing the object in a three-dimensional space; and the predetermined refraction means
  • Image generation means for generating formation image data for forming a formation image on the side opposite to the viewpoint side of the predetermined refracting means so that the display element image is displayed by the light passing through.
  • the inter-representation data includes the angle data defined by the normal direction of the convex shape in the predetermined refraction means and the predetermined viewpoint direction on the viewpoint side, and the display target is the predetermined object according to the angle.
  • planar image data visible from the viewpoint direction.
  • the extracting means is configured to extract the predetermined refraction means from the planar image data out of the three-dimensional space representation data.
  • Each of the region images corresponding to the image is extracted as region image data, and the image generation unit deforms each region image so as to conform to the shape of the opposite surface of the predetermined refracting unit.
  • the image is arranged at a position corresponding to the angle corresponding to each area image, and formation image data for forming the formation image of the predetermined refracting means is generated.
  • the extraction means is image data of the display element image according to the size of the refraction means. It is characterized by extracting
  • a three-dimensional space is generated in the display device from a three-dimensional object in real space or 3DCG data.
  • the apparatus further comprises original data generating means for generating the three-dimensional space expression data for expressing the data.
  • the three-dimensional space representation displayed by the generated formed image data is displayed.
  • the image acquisition means for acquiring the image data of the captured image captured from the predetermined capturing direction, the captured image and the capturing direction data, and the angle data and the planar image data of the three-dimensional space expression data According to the difference between the image acquisition means for acquiring the image data of the captured image captured from the predetermined capturing direction, the captured image and the capturing direction data, and the angle data and the planar image data of the three-dimensional space expression data.
  • an image adjusting means for adjusting the formed image data.
  • the image adjusting unit adjusts image data of the display element image extracted by the extracting unit, thereby The image forming data is adjusted.
  • the image adjusting unit adjusts a forming method for forming the formed image.
  • the formed image data is adjusted.
  • the image formed by the image forming unit is printed based on the formed image data. To form the formed image.
  • the invention according to claim 9 has a circular cross section, refracting means for refracting light, and a placement support means for supporting the plurality of refracting means in a convex shape with respect to the viewpoint side;
  • an information processing method for a display device comprising: an image forming unit that forms a formed image on a surface opposite to the viewpoint side with respect to the refracting unit; An extraction step of extracting image data of display element images displayed on each refracting means so as to appear as the three-dimensional space expression from the three-dimensional space expression data, and the display by light passing through the predetermined refracting means An image generation step of generating formation image data for forming a formation image on the side opposite to the viewpoint side of the predetermined refracting means so that an element image is displayed, and the three-dimensional spatial expression data ,
  • the angle object defined by the normal direction of the convex shape in the predetermined refracting means and the predetermined viewpoint direction on the viewpoint side, and the display object can be seen from the predetermined
  • the invention according to claim 10 has a circular cross section, refracting means for refracting light, and arrangement support means for arranging and supporting the plurality of refracting means in a convex shape with respect to the viewpoint side;
  • a program for a display device comprising: an image forming unit that forms a formed image on a surface opposite to the viewpoint side with respect to the refracting unit; and a three-dimensional space representation of a display object in the display device
  • Extraction means for extracting image data of a display element image displayed on each refraction means so as to appear as the three-dimensional space expression from the three-dimensional space expression data, and light passing through the predetermined refraction means,
  • Functioning as image generation means for generating formation image data for forming a formation image on the side opposite to the viewpoint side of the predetermined refraction means so that the display element image is displayed;
  • the inter-representation data includes the angle data defined by the normal direction of the convex shape in the predetermined refraction means and the predetermined
  • a display device that can be expressed using a wide space that can be viewed from a wide viewpoint direction and can confirm a visual expression in which a three-dimensional space exists, from the three-dimensional space expression data that the display device wants to express.
  • FIG. 1 is a schematic diagram illustrating an example of a schematic configuration of the display system S1 according to the embodiment.
  • the display system S includes a display device DD, an information processing device 8 for the display device, and a photographing device 9 (an example of photographing means).
  • the display device DD includes a plurality of refracting means 1a that refracts light and enlarges an image, an arrangement supporting means 1b that supports and arranges each refracting means 1a, and an image forming means 1c that forms an image on the refracting means 1a.
  • refracting means 1a that refracts light and enlarges an image
  • arrangement supporting means 1b that supports and arranges each refracting means 1a
  • an image forming means 1c that forms an image on the refracting means 1a.
  • the refraction means 1a has, for example, a circular cross section.
  • Examples of the refracting means 1a include, for example, a spherical ball lens, a cylindrical cylindrical lens having a circular cross section, an ellipsoid, and a conical lens.
  • the circular shape is a circular shape with a substantially constant curvature.
  • the arrangement support means 1b arranges each refraction means 1a in a convex shape with respect to the viewpoint 3 side.
  • a ball lens is arranged on a spherical curved surface.
  • the refracting means 1a is a cylindrical lens
  • the cylindrical lenses in the same direction are arranged on a cylindrical curved surface.
  • the lens is arranged on the curved surface of the frustoconical side surface. Note that the viewpoint 3 is outside the display device DD.
  • examples of the convex shape of the arrangement support means 1b include a spherical shape having a substantially constant curvature, and a cylindrical surface shape having a circular cross section perpendicular to the axis of the cylinder.
  • the spherical shape is a curved surface forming a part of a spherical surface such as a full spherical surface or a hemispherical surface, and is a curved surface having a substantially constant curvature.
  • the cylindrical surface shape is a curved surface that forms part of a cylindrical surface, such as a full cylinder, a semi-cylinder, or a 1/4 cylinder.
  • the cross-sectional shape of the plane that intersects perpendicularly with the axial direction of the cylinder is a circle with a substantially constant curvature. It is. In addition, the shape of the curved surface etc. whose curvature is not necessarily constant may be sufficient.
  • viewpoint 3 examples include human eyes, cameras, and robot eyes. Further, the distance between the display device DD and the viewpoint 3 is various, and the display device DD may be approached or separated. There are various viewpoint directions of the viewpoint 3, and it is only necessary to see the refraction means 1a.
  • the image forming unit 1c forms a formed image on the surface opposite to the viewpoint 3 side with respect to the refraction unit 1a.
  • Examples of the image forming unit 1c include a display unit that displays an image, and an image projecting unit such as a screen that projects an image based on projection light projected from an image projecting unit such as a projector.
  • the display means is preferably a liquid crystal display or an organic EL (Electro Luminescence) display having a shape along the shape of the surface of the refraction means 1a.
  • a hemispherical display, a semicylindrical display, and the like can be given.
  • the image projecting means is, for example, a transmissive screen, formed on the hemispherical surface of a ball lens, or formed on the semicylindrical surface of a cylindrical lens.
  • the image projecting means and the display means will be described later.
  • the image forming unit 1c may form an image with ink or the like when directly drawing an image on the refraction unit 1a. Further, when pasting on the refraction means 1a, the image forming means 1c forms an image with a film made of resin, paper, metal or the like.
  • the image forming unit 1c may include a transmissive film on which an image is printed and a backlight.
  • the information processing apparatus 8 includes an extraction unit 8a, an image generation unit 8b, and an image adjustment unit 8c.
  • the extraction means 8a extracts the image data of the display element image displayed on each refraction means 1a so as to appear as a three-dimensional space expression from the three-dimensional space expression data for expressing the display object in the three-dimensional space on the display device DD. To do.
  • each point of the display contents, and a line, surface, or solid as a set of the points are arranged at a desired angle in a desired place in the 3D space represented by the display device.
  • a wide area of the space to be represented can be confirmed from the range of changes in the wide viewpoint direction, thereby enabling a 3D space expression that looks like a real 3D space.
  • Three-dimensional space representation is based on a change in the direction of a wide viewpoint that allows you to look around a certain space from the front direction and check the same part from a very different angle such as the side or top. This is a spatial expression that enables a three-dimensional grasp of the layout of the object and the overall shape of the object shape, and indicates a different effect from a general three-dimensional expression based on a sense of depth.
  • 3D space expression is also called 3D space design expression.
  • Examples of display objects include three-dimensional objects in real space, such as human bodies, human faces, objects, landscapes, buildings, accessories, clothes, cars, and other natural objects such as animals, plants, stones, processed objects, characters, etc. Is mentioned. Further, as an example of a display target, an imaginary three-dimensional object created in CG (Computer / Graphics) or the like may be used.
  • CG Computer / Graphics
  • three-dimensional space expressions include a three-dimensional expression in which a plane appears to rotate in space, a three-dimensional expression in which a different plane stands in the direction of viewing, and an expression in which a three-dimensional object is placed. .
  • the three-dimensional space representation only needs to be an expression that can confirm a wide range of space corresponding to a wide change in viewpoint, and does not exist in the real world, and the space expressed by the viewpoint direction is different. Can also be expressed.
  • an expression that makes it appear that there are differently arranged planes in the space according to changes in the viewpoint direction, or a plane perpendicular to the viewpoint direction in the space is always placed in front direction for any viewpoint direction. This includes expressions that appear as if they are present, and expressions that change the shape, color, etc. of the solids, faces, and dots in the represented space little by little according to the viewpoint direction.
  • the three-dimensional space representation may change with time.
  • expressions that make a three-dimensional object or display surface appear to rotate or deform over time in space, and images drawn on the surface or plane of a three-dimensional object change like a moving image. Such expressions are included.
  • the three-dimensional space representation may be described in, for example, an orthogonal coordinate system or a polar coordinate system.
  • the three-dimensional space representation data is obtained when the information of the three-dimensional space representation described in some form is represented on the display device, the angle data of the viewpoint direction with respect to the display device, and the three-dimensional space representation when the three-dimensional space representation is viewed from the angle. Data described in image data.
  • 3D space representation data in a cylindrical display device, when the 3D space representation can be confirmed by viewing the side of the cylinder from the 360 ° viewpoint direction, the 3D space representation data is displayed from a certain viewpoint direction. Any image data described using two-dimensional parameters when viewing the space represented by the apparatus and angle data describing the viewpoint direction using one parameter may be used.
  • the three-dimensional space expression data in a spherical display device, when the three-dimensional space expression can be confirmed by looking around the sphere from the viewpoint direction of 360 degrees in the vertical and horizontal directions, the three-dimensional space expression data is obtained from a certain viewpoint direction. Any image data described using two-dimensional parameters when viewing the space represented by the display device and angle data describing the viewpoint direction using two parameters may be used.
  • angle data defined by the convex normal direction of the predetermined refracting means 1a and the predetermined viewpoint direction on the viewpoint 3 side, and the display target is predetermined according to the angle.
  • the angle data corresponds to the image data of the planar image.
  • the three-dimensional space expression data may be generated from three-dimensional CG data (3DCG data).
  • 3D space expression data can be used for any viewpoint direction, whether it is an expression that makes a solid object exist in the space, or an expression that makes different images appear on different planes in the space depending on the viewpoint direction. Even in such a case, a plane perpendicular to the viewpoint direction may be arranged in the space so that an image always facing the front is displayed.
  • the three-dimensional space expression data may be changed with time. For example, the spatial arrangement may be changed over time to make it appear as if the three-dimensional object or display surface is rotating or deformed, or the color or brightness may be changed over time to change the three-dimensional surface or image into a moving image. You may show it as a statue.
  • the extraction unit 8a extracts region images corresponding to each predetermined refraction unit as region image data from the angle data and the plane image data corresponding to the angle among the plane image data.
  • the image generating means 8b is for forming images for forming a formed image on the side opposite to the viewpoint 3 side of the predetermined refracting means 1a so that the display element image is displayed by the light passing through the predetermined refracting means 1a. Generate data.
  • the display element image is an image that can be seen by the refraction means 1a from the viewpoint 3 side.
  • the display element image is a circular image that can be seen by each ball lens from the viewpoint 3 side, and a rectangular image that can be seen by each cylindrical lens from the viewpoint 3 side.
  • These display element images are combined so that a three-dimensional space representation such as a three-dimensional object can be seen on the display device DD.
  • the region image is seen as a display element image from the viewpoint through the refraction means 1a.
  • the image data for the display element image is the image data (region image data) of the region image.
  • the image generation unit 8b deforms each region image so as to conform to the shape of the surface on the opposite side of the predetermined refracting unit, and each of the deformed region images has an angle corresponding to each region image.
  • generated image data for forming an image formed by a predetermined refracting means is generated.
  • the image adjusting means 8c adjusts the formed image data according to the difference between the captured image captured by the imaging device 9 and the captured angle data, and the three-dimensional space expression data composed of the planar image data and the angle data.
  • the image adjustment unit 8c adjusts the region image data of the display element image extracted by the extraction unit, thereby representing a three-dimensional space expression composed of a captured image, captured angle data, planar image data, and angle data.
  • the formed image data is adjusted so that the difference from the data is reduced.
  • the image adjusting unit 8c adjusts the region image extracted by the extracting unit 8a, thereby representing a three-dimensional space expression composed of a captured image, captured angle data, planar image data, and angle data.
  • the formed image data may be adjusted so that the difference from the data is reduced.
  • the image adjusting unit 8c adjusts the formation method for forming the formed image to thereby make a difference between the photographed image, the photographed angle data, and the three-dimensional space expression data composed of the planar image data and the angle data.
  • the formed image data may be adjusted so as to decrease. More specifically, the image adjusting unit 8c adjusts the manner in which the image generating unit 8b deforms or adjusts the way in which the image is generated.
  • the formed image data may be adjusted so that the difference from the three-dimensional space expression data configured by the angle data is reduced.
  • the photographing device 9 photographs the display device DD on which the three-dimensional space expression is displayed by the generated formation image data.
  • a digital camera having a photographing element such as a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor can be cited.
  • the imaging device 9 captures a still image or a moving image.
  • the photographing device 9 is movable and photographs the display device DD on which an image is displayed from various viewpoint directions. Note that the distance between the display device DD and the photographing device 9 may also be movable. There may be a plurality of photographing devices 9.
  • the display target can be seen as a three-dimensional representation from the three-dimensional space representation data composed of planar image data and angle data that can be seen from a predetermined viewpoint direction.
  • the region image data of the display element image displayed on each refraction means 1a is extracted, and formed image data formed based on the region image data is generated.
  • the generated image data is sent from the information processing device 8 to a display device DD having a circular cross section and having a refraction means 1a that refracts light, and is sent to the image formation means 1c of the display device DD.
  • a formation image for displaying the display element image is formed, and a desired display element image is displayed on the viewpoint side of each refracting means 1a of the display device DD, so that it can be viewed from a wide viewpoint direction. Can be expressed by the display device DD.
  • the display device DD and the information processing device 8 make it possible to confirm a visual representation in which the three-dimensional space exists from the three-dimensional space representation to be displayed.
  • the information processing device 8 extracts area image data of a display element image displayed on each refraction means 1a when each refraction means 1a is viewed from a predetermined viewpoint direction. From the extracted region image data, formation image data formed on the side opposite to the viewpoint side is generated so that a desired display element image can be obtained (when each refraction means is viewed from a predetermined viewpoint direction).
  • the display device DD displays a display element image from the viewpoint 3 side through the refraction means 1a having a circular cross section from the input formed image and refracting light.
  • a three-dimensional space composed of display element images displayed on each refraction unit 1a can be expressed by the arrangement support unit 1b that supports the plurality of refraction units 1a in a convex shape with respect to the viewpoint 3 side.
  • the information processing device 8 it is possible to stably realize a visual expression in which a three-dimensional space actually exists by stably expressing on the display device DD using a wide space seen from a wide viewpoint direction.
  • the image forming unit 1c is provided on the side opposite to the viewpoint side with respect to the refracting unit, and the image can be seen from the viewpoint side on the back surface of the projection surface on which the projection light from the image projection unit is projected.
  • This is an embodiment in the case where the present application is applied to the display system S having image projection means for projecting.
  • FIG. 2A is a schematic diagram illustrating a schematic configuration example of the display system S1 of the present embodiment.
  • FIG. 2B is a schematic diagram illustrating an example of a refracting unit.
  • 3A and 3B are schematic views showing an example in which the refracting means is arranged three-dimensionally.
  • the display system S1 of the present embodiment includes a display device 1, a control device 50 (an example of an information processing device), and a photographing device 9.
  • the display device 1 of this embodiment includes a refraction unit 1a, an arrangement support unit 1b that supports and arranges each refraction unit 1a, and an image projection unit 20 that is an example of an image forming unit 1c.
  • the refraction means 1a for example, as shown in FIG. 2B, there is a spherical ball lens 10.
  • the arrangement support means 1b arranges each refraction means 1a in a convex shape with respect to the viewpoint 3 side, as shown in FIG. 2A. 3D, for example, as shown in FIG. 3A, each ball lens 10 (an example of the refraction means 1a) is arranged on a spherical curved surface. As shown in FIG. 3B, when the refracting means 1a is a cylindrical lens 11, the cylindrical lenses 11 having the same direction are arranged on a cylindrical curved surface. In the case of a conical or frustoconical lens, the lens is arranged on the curved surface of the frustoconical side surface.
  • the viewpoint 3 is outside the display device 1.
  • the cylindrical lens 11 in the case of the viewpoint 3 (when the viewpoint direction of the viewpoint 3 is parallel to the bottom surface of the cylindrical lens 11), the cylindrical lens 11 has a circular cross section, and the cylindrical lens 11 has a cross section.
  • the shape is the same.
  • FIG. 2A is also a cross-sectional view in which each refracting means 1a arranged in a three-dimensional manner as shown in FIGS. 3A and 3B is described in a cross section from a certain viewpoint 3.
  • FIG. 2A is also a cross-sectional view showing the ball lens 10 arranged on a cylindrical curved surface as an example of each refracting means 1a arranged in a three-dimensional manner.
  • the image projecting means 20 is provided on the side opposite to the viewpoint 3 side with respect to the refraction means 1a.
  • the image projecting means 20 is provided on the surface opposite to the refraction means 1a.
  • the image projecting unit 20 is an example of an image forming unit that forms a formed image on a surface opposite to the viewpoint side with respect to the refraction unit.
  • the image projecting unit 20 is, for example, a screen that displays an image by projection light projected from the image projecting unit 21.
  • the projection light output from the image projecting means 21 is projected onto the projection surface of the screen to form a projection image.
  • the image projecting means 20 is a transmissive screen that projects an image that is a mirror image of the projected image when viewed from the rear surface side on the rear surface of the screen.
  • the projection light output (or projected) from the image projection unit 21 is an image formed on the projection surface by being projected onto the projection surface of the image projection unit 20.
  • the projected image may change depending on the shape of the projection surface of the image projecting means 20, the projection light of the image projecting means 21, and the positional relationship (distance, direction, etc.) of the two means.
  • the image projection means 20 which is a transmissive screen is formed by, for example, surface-treating the hemispherical surface of the ball lens 10.
  • the image projecting means 20 projects an image seen from the viewpoint 3 side on the back surface of the projection surface on which the projection light is projected.
  • the image projecting means 20 is provided on the side opposite to the viewpoint 3 side with respect to the refraction means 1a. That is, the image projecting means 20 is provided inside the display device 1 with respect to the viewpoint 3 outside the display device 1.
  • the projection light projected from the image projecting unit 21 onto the image projecting unit 20 causes the refraction unit 1a such as the ball lens 10 to be on the surface of the refraction unit 1a opposite to the viewpoint 3 side.
  • a formed image 5 (a mirror image of the letter “E” in FIG. 2B) is formed.
  • the image projecting means 20 When the image projecting means 20 is provided on the surface of the opposite refracting means by surface treatment or the like, the image projected on the back surface of the projection surface of the image projecting means 20 (when viewed from the viewpoint 3 side, characters The image that appears as a normal image of “E” is the formed image 5.
  • the projected image of the projection surface of the image projecting unit 20 is also the image projecting unit 20 image 5 (an image that looks like a mirror image of the letter “E” when viewed from the side opposite to the viewpoint 3).
  • the image projecting means 20 is provided so that the center portion of the formed image 5 faces in the normal direction of the convex shape formed by the arrangement support means 1b. That is, each refracting means 1a is supported by the arrangement supporting means 1b so that the central portion of the image projecting means 20 (the center portion of the formed image) faces the normal direction of the convex shape.
  • a line connecting the central portion of the image projecting means 20 and the central portion of the refraction means 1a is perpendicular to the convex surface of the arrangement support means 1b.
  • the light of the formed image 5 formed on the surface of the refracting means 1a opposite to the viewpoint 3 side passes through the inside of the refracting means 1a and is refracted when it exits from the refracting means 1a to reach the viewpoint 3. .
  • a part of the formed image 5 corresponding to the direction of the viewpoint 3 (partially formed image) is enlarged by the refraction means 1a.
  • the respective refraction means 1a of the display device 1 can be seen as an enlarged image (display element image) of these partially formed images from the viewpoint side, and the entire refraction means 1a of the display apparatus 1 visible from the viewpoint side.
  • the display element images are synthesized, and a three-dimensional space representation such as a three-dimensional object or a planar image adapted to the viewpoint direction can be seen.
  • the partially formed image corresponds to a region image described later.
  • the image projection unit 21 (an example of an image forming unit) is connected to a control device 50 (an example of an information processing device for a display device) and is controlled by the control device 50.
  • the image projection means 21 outputs (or projects) projection light directed toward the refraction means 1a from the opposite side to the viewpoint 3 side with respect to the refraction means 1a.
  • a projection image is formed on the projection surface of the image projection means 20 by the projection light output from the image projection means 21.
  • the light of the projected image is transmitted through the image projecting means 20, and the image is projected on the back side of the projection surface.
  • a formed image is formed on the surface of the refraction means 1a by the light of the projected image.
  • the image projecting unit 20 and the image projecting unit 21 are an example of an image forming unit that forms a formed image on a surface opposite to the viewpoint side with respect to the refraction unit.
  • the control device 50 generates image data of a projection image formed on the projection surface of the image projection unit 20 by the projection light output from the image projection unit 21.
  • the control device 50 controls the image projection unit 21 so that projection light that forms a projection image on the projection surface of the image projection unit 20 is output from the image projection unit 21.
  • each image projecting unit 20 forms the same or similar formed image 5 in all the refraction units 1 a by the projection light from the image projecting unit 21, the viewpoint is displayed on the display device 1. Even if 3 is changed, the same or similar image is displayed.
  • the control device 50 is connected to a photographing device 9 for photographing the display device 1 on which an image is displayed.
  • the refraction means 1a is a lens made of a material that refracts and transmits light, such as glass and plastic.
  • the color of the refracting means 1a is not limited to being transparent as long as it can transmit light, and may be colored glass or the like.
  • the refraction means 1a has at least a part of a circular cross section.
  • the three-dimensional shape of the refraction means 1a is a sphere, a cylinder, an ellipsoid, a cone, or the like.
  • a ball lens, a cylindrical lens, etc. are mentioned as an example of the refracting means 1a.
  • the three-dimensional shape of the refracting means 1a may be a shape in which a cylinder swells like a barrel, a shape in which a cylinder is constricted like a drum, a cone shape or a truncated cone shape.
  • the circular shape which is the cross-sectional shape of the refracting means 1a is not limited to a perfect circle, and may be slightly distorted.
  • the shape of the image displayed by the display device 1 may be deformed or distorted from a perfect circle to such an extent that the display device 1 as a whole can be recognized as an image in the case of a perfect circle. Good.
  • the circular shape of the cross section of the refracting means 1a is reflected in the way the image displayed by the display device 1 is viewed from the viewpoint 3 (reflection inside the refracting means (internal reflection)).
  • a biconvex structure such as an ellipse may be used to such an extent that the influence of is not a concern.
  • the refracting means 1a may be an ellipsoid, the axis of the ellipsoid may be directed to the viewpoint 3, and the circular shape of the cross section of the refracting means 1a may be somewhat elliptical. Further, as shown in FIG.
  • the refracting means 1a may be a lens having a shape in which a thin disk is sandwiched between two hemispheres, and the circular shape of the section of the refracting means 1a may be a shape in which a rectangle is sandwiched between semicircles.
  • the ball lens may be partly cut, and the circular shape of the cross section of the refracting means 1a may be a shape obtained by cutting a part of the circle.
  • the curvature may be slightly different between the curved surface of the refractive means 1a on the near side and the curved surface of the refractive means 1a on the depth side with respect to the viewpoint 3 side.
  • the arrangement support means 1b is made of a material that can regulate the arrangement by connecting a refraction means 1a such as a ball lens such as resin or clay.
  • the refracting means 1a flexibly connected with an adhesive may be placed on a support base having a convex surface.
  • the arrangement support means 1b is an adhesive and a support base. Further, the arrangement support means 1b may support the refracting means 1a with the image projecting means 20 by embedding about half in a plastic material. Further, when the shape of the refracting means 1a is a rod shape such as a cylinder, an ellipsoid, or a cone, the arrangement support means 1b may be a support base into which the refracting means 1a is inserted and fixed.
  • the arrangement support means 1b arranges the plurality of refraction means 1a in a convex shape with respect to the viewpoint 3 side.
  • the refraction means 1a may be arranged in a circular shape s1.
  • the three-dimensional arrangement of each refraction means 1a is a sphere, a hemisphere, a cylinder, an ellipsoid, or the like.
  • a circular shape s1 is arranged at a certain cut surface.
  • each refracting means 1a is arranged so that the center portion of the formed image (for example, the central portion of the image projecting means 20) faces the convex normal direction.
  • the refraction means 1a may be arranged in an elliptical shape s2.
  • the three-dimensional arrangement of each refraction means 1a is, for example, an elliptic cylinder, an ellipsoid or the like.
  • An elliptical columnar shape and an elliptical shape s2 are arranged on a cut surface with an ellipsoid.
  • the orientation of the formed image formed on the surface of the refraction means 1a by the image projecting means 20 is perpendicular to the arrangement shape (elliptical shape s2) of the refraction means 1a, as shown in FIG. 5B. That is, each refracting means 1a is arranged so that the center portion of the formed image (for example, the central portion of the image projecting means 20) faces the convex normal direction.
  • the convex shape is not limited to the shape passing through the center of each refracting means 1a, but may be set to a shape s3 that is inscribed or circumscribed to each refracting means 1a.
  • the orientation of the formed image formed on the surface of the refraction means 1a by the image projecting means 20 is perpendicular to the inscribed or circumscribed shape s3, as shown in FIG. 6A.
  • the convex shape may not be a closed shape as shown in FIGS. 5A and 5B, but may be an open shape as shown in FIG. 6A. That is, the convex shape may not be a closed convex shape such as a closed circular shape or a closed elliptical shape, but may be a partial shape thereof.
  • the convex shape may be a polygon s4 in which the vicinity of the center of each refracting means 1a is connected by a straight line. That is, the three-dimensional arrangement of each refracting means 1a may be a convex polyhedron whose apex is in the vicinity of the center of each refracting means 1a.
  • the orientation of the formed image formed on the surface of the refracting unit 1a by the image projecting unit 20 is perpendicular to the single surface in contact with the polygon at the vertex of the polygon, as shown in FIG. 6B.
  • the refraction means 1a do not have to be arranged at equal intervals.
  • a small refracting means 1a for example, a ball lens having a small diameter
  • the large refracting means 1a is shown in FIG. 7B.
  • a ball lens having a large diameter may be disposed.
  • FIG. 7A in the case of the small refraction means 1a, the display resolution of the three-dimensional space expression displayed by the display device 1 is increased.
  • the size of the convex shape in which the refracting means 1 a is arranged by the arrangement supporting means 1 b depends on the size of the display device 1. For example, as illustrated in FIG. 7C, when the size of the display device 1 is reduced, the curvature of the convex shape s6 is increased.
  • FIG. 7C shows an example in which the radius of the arrangement support means 1b is small using the individual refracting means 1a having the same size as FIG. 7A. In this case, the three-dimensional space representation displayed on the display device 1 of FIG. 7C is smaller than the size of the display device 1 in comparison with FIG. It becomes the same three-dimensional space representation.
  • not all the refraction means 1a are necessarily arranged on the line of the convex shape s7 formed by the arrangement support means 1b.
  • a part of the refracting means 1a is arranged on the viewpoint 3 side (outside of the display apparatus 1) from the design convex shape s7 of the display apparatus 1, or on the inner side opposite to the viewpoint 3 side (of the display apparatus 1). It may be installed inside).
  • the portion of the representation handled by such a part of the refraction means 1a does not have to follow the shape of the design planned before the creation.
  • the entire three-dimensional space representation displayed by the display device 1 is a three-dimensional space representation in which the portion of the expression handled by some of the image projection means 20 is shifted.
  • the orientation of the formed image formed on the surface of the refracting means 1a by all the image projecting means 20 is not necessarily perpendicular to the design convex shape s7 of the display device 1. It does not have to be.
  • the part of the expression handled by such a part of the image projecting means 20 may not be in the direction of the design planned before the creation.
  • the entire three-dimensional space representation displayed by the display device 1 is a three-dimensional space representation in which the portion of the expression handled by some of the image projection means 20 is shifted.
  • the direction of the formed image formed on the surface of the refracting means 1a by the image projecting means 20 depends on the design of the display device 1 so that the central portion of the image faces the normal direction of the convex shape.
  • the convex shape s7 does not need to be exactly perpendicular, and the display device 1 as a whole is three-dimensional when the orientation of the formed image formed on the surface of the refraction means 1a by each image projection means 20 is exactly perpendicular.
  • the direction of the formed image formed on the surface of the refraction means 1a by the image projection means 20 may be deviated from the vertical so that it can be recognized as a spatial expression.
  • the size of the refracting means 1a may be different.
  • the size of each refraction means 1a may be different to the extent that the display device 1 as a whole can be recognized as a three-dimensional space representation when the size of each refraction means 1a is the same.
  • the cross sectional area of some of the refraction means 1a may be small.
  • the refractive indexes of the refraction means 1a may be different from each other.
  • the refractive index of each refracting unit 1a may be different to the extent that the display device 1 as a whole can be recognized as a three-dimensional space representation when the refractive index of each refracting unit 1a is the same.
  • each refracting means 1a When each refracting means 1a is arranged so that the center portion of the formed image formed by each image forming means faces the normal direction of the convex shape, each refracting means 1a is refracted from the viewpoint 3.
  • the cross-sectional shape of the means 1a is the same. That is, in particular, when the refracting means 1a is a solid with directionality, such as a cylindrical shape, an ellipsoid, or a conical shape, each refracting means 1a is arranged so that the directions of the refracting means 1a are substantially aligned. .
  • each formed image 5 is viewed from the viewpoint 3, and the display device 1 as a whole recognizes a three-dimensional space expression in which the formed images are synthesized. If so.
  • the convex shape in which the refracting means 1a is arranged by the arrangement supporting means 1b may be a shape obtained by connecting a spherical shape and a cylindrical surface shape.
  • the overall shape of the display device 1 may be a shape in which two cylindrical surfaces are joined together so as to sandwich a cylindrical surface.
  • the three-dimensional arrangement of each refraction means 1a may be a combination of a spherical surface, a hemispherical surface, a cylindrical surface, an ellipsoidal surface, and the like.
  • the overall shape of the display device 1 may be a shape in which a plurality of convex shapes are combined.
  • the joint between the convex shape and the convex shape does not necessarily have to be a convex shape.
  • convex shapes may be formed in four directions like four leaves.
  • the spherical shape may be a shape similar to a spherical surface as long as it is a convex shape with respect to the arrangement of the refraction means 1a.
  • the cylindrical surface shape is such that the cylindrical surface swells like a barrel, the cylindrical surface is constricted like a drum, or the apex side of the conical surface is cut away. Further, it may have a shape similar to a cylindrical surface.
  • the image projecting means 20 has, for example, a transmission screen function.
  • the surface opposite to the viewpoint 3 side of the refracting means 1a is subjected to a semi-transparent treatment or surface treatment, or the surface opposite to the viewpoint 3 side of the refracting means 1a is subjected to a translucent sheet (for example, matt polyester)
  • the image projection means 20 is provided by attaching a film) or applying a translucent paint.
  • the surface on the opposite side of the refraction means 1a is surface-treated with polishing sand, chemicals, etc., and fine irregularities are produced, resulting in polished glass or frosted glass.
  • the hemispherical image projection means 20 is formed by surface-treating the hemispherical surface of the ball lens 10.
  • the image projecting means 20 may be a translucent screen made of resin such as vinyl or acrylic, or glass.
  • the image projecting unit 20 only needs to have a function of projecting an image on the rear surface of the projection surface on which the projection light is projected. Light reflection on the projection surface on which the projection light is projected is small, and the image projecting unit 20 is The scattered light may be emitted from the back surface.
  • the image projected on the image projecting means 20 is enlarged by the refracting means 1a and seen from the viewpoint 3 side.
  • the image projecting means 20 may be provided so as to cover the half surface of the refracting means 1a made of a transparent material.
  • FIG. 9A is a schematic diagram showing a cross section when the image projection means 20 is formed in a hemispherical shape on the surface of the transparent ball lens 10. Note that the cylindrical lens may have a cross section when the semi-cylindrical image projection means 20 is provided.
  • the line connecting the center of the hemispherical image projecting means 20 and the center of the ball lens 10 is perpendicular to the convex surface of the arrangement support means 1b.
  • a line that connects the center line of the cylindrical lens and the center line of the semi-cylindrical surface image projection means 20 perpendicularly is perpendicular to the convex surface of the arrangement support means 1b.
  • projection light is projected from the image projection unit 21 onto the surface of the ball lens 10 provided with the hemispherical image projection unit 20 to form a formation image 5.
  • the formation image 5 formed on the surface of the ball lens 10 is viewed from the side on which the formation image 5 is formed, the formation image 5 is a mirror image.
  • the central portion of the formed image 5 is not necessarily the center of the image “E” itself, and the ball lens 10 is formed by the placement support means 1b after each ball lens 10 is fixed by the placement support means 1b.
  • the position where the normal of the convex surface passes through the center of the ball lens 10 and intersects the surface of the ball lens 10 on the opposite side to the viewpoint 3 side is the center of the formed image.
  • the image projection means 20 may be provided so as not to be in close contact with the refraction means 1a but to have a gap with the refraction means 1a.
  • the image projecting means 20 may not have a shape that follows the shape of the surface of the refracting means 1a.
  • the cross-sectional shape of the refracting means 1a is circular
  • the cross-sectional shape of the image projecting means 20 is not limited to a circular shape, and may be an elliptical shape.
  • Projection light is projected from the image projection unit 21 onto the projection surface of the image projection unit 20, an image is projected onto the back surface of the projection surface of the image projection unit 20, and the projected formed image passes through the refraction unit 1 a to the viewpoint 3. It only has to be visible from the side.
  • the shape of the image projection means 20 may be a plane.
  • the planar image projection means 20 is made larger than the size of the cross-sectional shape of the refraction means 1a, thereby widening the viewing angle at which the formed image can be seen.
  • the image projecting means 20 may be integrally formed on the side opposite to the viewpoint 3 side with respect to each refraction means 1a.
  • the image projecting means 20 has a spherical shape
  • the image projecting means 20 has a cylindrical shape.
  • the image projecting means 20 may be composed of a plurality of planes.
  • an image projecting means 20 is provided on the surface of the refracting means 1a opposite to the viewpoint 3.
  • the control device 50 as an example of the information processing device 8 has a computer function.
  • the control device 50 includes an output unit 51, a storage unit 52, a communication unit 53, an input unit 54, an input / output interface unit 55, and a control unit 56.
  • the control unit 56 and the input / output interface unit 55 are electrically connected via a system bus 57.
  • the control device 50 is connected to the image projection means 21 and the photographing device 9 by wire or wirelessly.
  • the control device 50 acquires image data of a photographed image obtained by photographing a three-dimensional space expression displayed on the display device 1 from a certain distance in a certain viewpoint direction from the photographing device 9.
  • control device 50 may control the position of the photographing device 9.
  • the shooting direction (viewpoint direction) of the shooting device 9 and the shooting distance (viewpoint distance) from the display device 1 to the shooting device 9 are controlled.
  • the control device 50 may specify the photographing direction and the photographing distance in which the photographing device 9 is installed from the photographed photographed image.
  • the photographing device 9 may be set in advance in a predetermined photographing direction and photographing distance, and the photographing device 9 may photograph the display three-dimensional space representation of the display device 1 as an image.
  • the imaging device 9 may include a GPS (Global Positioning System) and a gyro sensor so that the imaging direction and the imaging distance of the imaging device 9 can be specified.
  • the output unit 51 outputs the formed image data to each image projecting unit 20 arranged in each refraction unit.
  • the output unit 51 may be connected to a printer that prints a formed image.
  • the formed image may be printed directly on the surface of the refracting means.
  • a formed image may be printed on a film made of resin, paper, metal, or the like, and the film on which the formed image is printed may be attached to the surface of the refracting means.
  • the storage unit 52 is configured by, for example, a hard disk drive, a solid state drive, or the like.
  • the storage unit 52 stores three-dimensional space expression data to be displayed on the display device 1.
  • the storage unit 52 stores various programs such as an operating system, various files, and the like.
  • the storage unit 52 stores programs executed by the control device 50 such as an image generation program and an image adjustment program. Note that the three-dimensional space expression data, various programs, and the like may be acquired from the outside via a network, or may be recorded on a recording medium and read via a drive device.
  • the communication unit 53 controls the communication state with an external device.
  • the control device 50 may be connected to a network such as the Internet wirelessly or by wire via the communication unit 53.
  • the input unit 54 is, for example, a connector for receiving a name.
  • the input / output interface unit 55 performs interface processing between the output unit 51, the storage unit 52, and the control unit 56.
  • the control unit 56 includes a CPU (Central Processing Unit) 56a, a ROM (Read Only Memory) 56b, a RAM (Random Access Memory) 56c, and the like.
  • the CPU 56a reads out and executes codes of various programs stored in the ROM 56b and the storage unit 52, thereby generating image data of the projection image and projecting the projection image by the image projecting unit 20. Control data and image data of projection light to be formed on the surface are transmitted to the image projection means 21.
  • the control device 50 may be connected from the outside of the display device 1 or installed inside the display device 1.
  • the control device 50 may be a personal computer, a smart phone, a tablet terminal, or the like, and may be connected to the image projection means 21 such as a projector to transmit projection light control data or image data to be projected.
  • the image projecting means 21 is, for example, a projector that projects an image on a projection surface.
  • the projector is a CRT (Cathode Ray Tube) projector, a liquid crystal projector, a DMD (Digital Mirror Device) projector, an LCOS (Liquid Crystal On Silicon) projector, a GLV (Grating Light Light Valve), or the like.
  • the image projection means 21 may be a liquid crystal display or an organic EL (Electro Luminescence) display. These displays may be curved, flat, or flexible.
  • the image projection unit 21 may scan the laser beam and project an image on the projection surface.
  • the projector as an example of the image projecting unit 21 includes a light source lamp, a transmission or reflection type video unit, a projection lens, an interface, and the like.
  • the interface of the projector is connected to the output unit 51 of the control device 50.
  • the projector acquires formed image data from the control device 50 via the interface.
  • the control device 50 may control the power on / off of the image projecting means 21 and the projection direction. Further, the control device 50 calculates the projection lens of the image projection unit 21, the angle of the projection light projected from the image projection unit 21 onto the image projection unit 20, the shape of the image projection unit 20, the surface shape of the refraction unit, and the like. Then, a projection image is generated. The control device 50 generates image data of the projected image so that a formed image designed to display the display image on the display device 1 is formed on the surface of the refracting means, and the projected image is displayed as an image. What is necessary is just to control the projection light of the image projection means 21 so that it may be formed in the projection surface of the means 20. FIG. The function of controlling the projection light of the image projection unit 21 so as to form a projection image on the projection surface of the image projection unit 20 may be in the image projection unit 21.
  • the plurality of image projecting units 21 project the projection light from a plurality of directions onto each surface (a predetermined portion or a predetermined region of the image projecting unit 20). May be.
  • a projection image projected on each surface of the image projecting means 20 forms a formation image of the corresponding surface of the refraction means 1a.
  • Each surface may be a predetermined portion on the curved surface.
  • the plurality of image projecting means 21 may project projection light from a plurality of directions onto a predetermined portion of the projection surface of the image projecting means 20. .
  • each refracting means 1a may be slightly different from each other, and as viewed from the viewpoint 3, the entire display element image of each refracting means 1a is a three-dimensional image of the display device 1. It only needs to be able to recognize the spatial expression.
  • FIG. 15 is a schematic diagram showing an example of an optical path in the refracting means.
  • 16A and 16B are schematic diagrams illustrating an example of reflection in a lens having a one-convex structure.
  • the distance from the viewpoint 3 to the refracting means 1a can be regarded as infinity (if the refracting means 1a is not smaller than the distance between the refracting means 1a and the viewpoint 3, the parallel optical path as shown in FIG. Although the effect is the same, the optical path will be described with reference to FIG. 15).
  • the optical path (width 2r) in the refracting means 1a having a radius r of the cross section reaches the arc portion (length a) of the refracting means 1a on the side opposite to the viewpoint 3 side when the parallel optical path is refracted by the refracting means 1a. , Goes out of the refraction means 1a.
  • the cross-sectional shape of the refraction means 1a is circular, even if the visual direction of the viewpoint 3 is shifted, a similar optical path is obtained.
  • the expansion rate of the refracting means 1a can be approximately 2r / a.
  • FIG. 17 is a schematic diagram showing an example of the relationship between the viewpoint and the formed image of each refraction means.
  • FIG. 18 is a schematic diagram illustrating an example of the relationship between parallax and three-dimensional space representation.
  • the refraction means 10a, 10b, 10c, and 10d are arranged in a circle s10 (an example of a convex shape) having a radius R of the center C by the arrangement support means 1b.
  • the distance between the center c of the refracting means 10a, 10b, 10c, and 10d and the center C of the arrangement is R. If the distance between the viewpoint and the lens is not particularly large compared to the size of the lens and the diameter of the lens, the line connecting the viewpoint and each lens is radial.
  • Each of the refraction means 10a, 10b, 10c, and 10d includes a dagger partial image 5a, a diamond partial image 5b, and a spade partial image 5c, which are partial images of the formed image arranged in the order of the symbols dagger, diamond, and spade. Are lined up. In this example, it is assumed that the center portion of the formed image is a diamond partial image 5b.
  • the formed images arranged in the order of the symbols dagger, diamond, and spade are projected and formed on the projection surface of the image projection means 20 by the projection light projected from the image projection means 21. In the case of the display means to be described later, the formed images arranged in the order of the symbols dagger, diamond, and spade are displayed and formed on the display surface of the display means.
  • the diamond partial image 5b which is the center of the formed image, is on a line connecting the center c of the refracting means and the center C of the arrangement of the refracting means.
  • the line connecting the diamond partial image 5b, which is the center of the formed image, and the center c of the refracting means is the normal direction of a circle s10 having a radius R of the center C (an example of a convex shape). That is, the orientation of the diamond partial image 5b, which is the center of the formed image, is the normal direction of the circle s10 (1b).
  • the refraction means 10a can see the dagger partial image 5a as the center
  • the refraction means 10b can see the diamond partial image 5b as the center
  • the refraction means 10c can see the spade.
  • the partial image 5c appears at the center.
  • the partial image 5a of the dagger looks to the refracting means 10a as an enlarged partial image 6a
  • the refracting means 10b has a diamond portion
  • the image 5b looks like an enlarged partial image 6b
  • the refraction means 10c looks like a partial image 6c in which the spade partial image 5c is enlarged.
  • the partial image 6a of the refraction means 10a, the partial image 6a of the refraction means 10b, and the partial image 6c of the refraction means 10c are combined, and a plane perpendicular to the line of sight from the viewpoint 3a is formed in the internal space of the display device 1.
  • a three-dimensional space representation in which a display composite image that exists and is arranged in the order of the symbols dagger, diamond, and spade is present on the plane.
  • the refraction means 10b looks at the dagger partial image 5a at the center
  • the refraction means 10c looks at the diamond partial image 5b at the center
  • the refraction means 10d has The spade partial image 5c is seen in the center.
  • each refraction means 10b, 10c, 10d Due to the enlargement function of each refraction means 10b, 10c, 10d, from the viewpoint 3b, the refraction means 10b looks like the enlarged partial image 7a of the dagger partial image 5a, and the refraction means 10c has the diamond partial image. 5b looks like an enlarged partial image 6b, and the refraction means 10d looks like a partial image 7c in which the spade partial image 5c is enlarged.
  • the magnified partial image 7a of the refracting means 10b, the magnified partial image 6b of the refracting means 10c, and the magnified partial image 7c of the refracting means 10d are combined, and the viewpoint is displayed in the internal space of the display device 1.
  • planes with different arrangements are represented in the internal spaces of the different display devices 1, and the planes are enlarged subelements of the respective refraction means.
  • Different three-dimensional space representations according to the observation angle can be made, such as displaying a display composite image composed of the symbols dagger, diamond, and spade, which are synthesized from the image.
  • the display composite image in which the symbols dagger, diamond, and spade are arranged in order is displayed from the plane P ⁇ b> 1 to the plane P ⁇ b> 2.
  • the space it is possible to express the space as if it is displayed on a plane facing the front with respect to the change in the viewing direction while rotating about the center C of the arrangement of the refracting means.
  • the symbol is represented by a slight angle difference due to binocular parallax when observing from a certain direction. It is possible to give a sense of depth that the distance to the spatial position where the diamonds are lined up is present in the display device 1.
  • FIG. 19 is a flowchart illustrating an operation example of image generation in the control device.
  • 20A, FIG. 21A, and FIG. 22A are schematic diagrams illustrating the relationship between the display composite image and the display element image.
  • 20B, FIG. 21B, FIG. 22B, and FIG. 22C are schematic diagrams illustrating an example of plane image data corresponding to a certain angle data in the three-dimensional space expression data.
  • 20C, 21C, and 22D are schematic diagrams illustrating an example of a formed image.
  • the control device 50 acquires three-dimensional space representation data having one or more angle data of the viewpoint direction and one or more plane image data corresponding to the angle data (step S10). Specifically, when the control unit 56 of the control device 50 views the three-dimensional space expression from each viewpoint direction corresponding to the angle data from the storage unit 52 based on the angle data of one or more viewpoint directions. Plane image data is acquired.
  • FIG. 20A when a certain three-dimensional space representation is viewed from a certain viewpoint direction, a plane exists at a position including the central axis of the display device 1. As shown, a planar image oP that looks like there is an image in which a triangle pointing to the right in the drawing is drawn is assumed. The width of the planar image oP is w, which corresponds to the diameter 2R of the display device 1 (cylindrical arrangement support means 1b).
  • a three-dimensional space expression may be assumed in which there is one viewpoint direction and a planar image oP of a curved surface convex in the viewpoint direction exists on the half of the surface of the display device 1.
  • the width of the planar image oP corresponds to the semicircumference ⁇ R of the display device 1 (cylindrical arrangement support means 1b).
  • FIG. 22A there are different planes when viewed from two viewpoint directions.
  • a triangle image pointing rightward in the figure as seen from the viewpoint A passes through the center of the axis of the cylinder.
  • FIG. 22C When a vertical plane appears to exist, and when viewed from the viewpoint B, as shown in FIG. 22C, a left-facing image in the figure seems to exist on a plane perpendicular to the line of sight from the viewpoint B, the viewpoint A Looks like the planar image oP1 in FIG. 22B, and from the viewpoint B, looks like the planar image oP2 in FIG. 22C.
  • the control unit 56 acquires three-dimensional space expression data obtained by matching the planar image oP1 and the planar image oP2 with the corresponding angle data.
  • each viewpoint direction may be the number of refracting means or more than the number of refracting means.
  • the number of each viewpoint direction may be the number of refracting means, may be less than the number of refracting means, or may be one.
  • the viewpoint direction may be one angle or an angle range such as 0 ° to 45 °, 46 ° to 90 °.
  • control device 50 calculates each angle between the normal direction and each viewpoint direction in a predetermined refraction means (step S11). Specifically, the control unit 56 of the control device 50 selects one refracting unit 1 a that generates a formed image, and acquires data on the position of the arrangement of the refracting unit 1 a in the display device 1.
  • the control unit 56 calculates the arrangement angle of the cylindrical lens 11 with respect to the central axis of the display device 1 as the normal direction. To do.
  • the control unit 56 may calculate a straight line extending from the central axis of the display device 1 to the center of one cylindrical lens 11 as a normal line.
  • the control unit 56 acquires the viewpoint angle of each viewpoint 3 from the central axis of the display device 1 as viewpoint direction data.
  • the control unit 56 calculates each angle between the normal direction and each viewpoint direction from the difference between the arrangement angle of the cylindrical lens 11 and the viewpoint angle of each viewpoint 3. For example, as shown in FIGS. 20A and 21A, the control unit 56 calculates the angle ⁇ .
  • the control unit 56 calculates an angle ⁇ with respect to the viewpoint A and an angle ⁇ with respect to the viewpoint B with respect to the predetermined cylindrical lens 11 as shown in FIG.
  • Each calculated angle is an example of an angle defined by a normal direction of the convex shape in the predetermined refracting means and a predetermined viewpoint direction on the viewpoint side.
  • the control device 50 extracts a region image for the refracting means from each planar image of the planar image data according to the angle (step S12). For example, the control device 50 acquires each viewpoint direction and a planar image in each viewpoint direction. More specifically, as shown in FIG. 20B, the control unit 56 of the control device 50 has a position w ⁇ / ⁇ from the center line of the planar image oP with respect to the angle ⁇ , and the image data of the planar image oP. Image data of a region image d1 having a width ⁇ is extracted. The width ⁇ may be wa / (r ⁇ ), and the width ⁇ may be 2r. As shown in FIG.
  • a is a length corresponding to the refractive index of the cylindrical lens, and r is a radius of the cylindrical lens.
  • the control unit 56 extracts the image data of the area image d1 having the width ⁇ from the image data of the planar image oP at the position ⁇ R from the center line of the planar image with respect to the angle ⁇ . May be.
  • the width ⁇ may not be exactly wa / (r ⁇ ) or 2r. These are reference values for the width ⁇ .
  • the control unit 56 sets the planar image oP1 at a position w ⁇ / ⁇ from the center line of the planar image oP1 with respect to the angle ⁇ as shown in FIG. 22B.
  • a region image d1 having a width ⁇ is extracted from the image data.
  • the width from the image data of the planar image oP2 is set at a position of w ⁇ / ⁇ from the center line of the planar image oP2 with respect to the angle ⁇ .
  • Image data of the region image d2 of ⁇ is extracted.
  • control device 50 displays the display element image displayed on each refraction means so as to appear as the three-dimensional space representation from the three-dimensional space representation data for representing the display target in the three-dimensional space on the display device. It functions as an example of extraction means for extracting data.
  • the control device 50 functions as an example of an extracting unit that extracts region images corresponding to each predetermined refraction unit from the planar image data out of the three-dimensional space expression data as region image data.
  • the control device 50 also represents a three-dimensional space expression that is visible from the predetermined viewpoint direction according to an angle defined by the normal direction of the convex shape in the predetermined refracting means and the predetermined viewpoint direction on the viewpoint side. It functions as an example of an extracting unit that extracts a region image corresponding to each predetermined refraction unit as the region image data from the planar image data. As described above, the size (for example, width ⁇ ) of the region image is defined according to the size of the refraction means (for example, the radius r of the lens).
  • the control device 50 enlarges a part of the formed image through the refracting means, and transforms each region image into a partial image on the formed image so that it can be viewed as a region image from a predetermined viewpoint direction (step S13).
  • the control device 50 deforms each area image according to the shape of the formed image.
  • the control unit 56 of the control device 50 creates a partial image td1 obtained by deforming the region image d1 so that the planar image oP is deformed so as to match the half surface on one side of the cylindrical lens that forms the formed image fP.
  • Generate image data For example, as illustrated in FIG. 20C or FIG. 21C, the control unit 56 generates image data of the partial image td1 having the width ⁇ .
  • the planar image oP is deformed so as to be elongated in the drawing in accordance with the size of the formed image fP.
  • control unit 56 when there are two viewpoint directions, the control unit 56 generates image data of partial images td1 and td2 having a width ⁇ according to the viewpoint direction as shown in FIG. 22D.
  • control device 50 arranges the deformed area images at positions corresponding to the respective angles, and generates formed image data (step S14). Specifically, as shown in FIG. 20C or FIG. 21C, for example, the control unit 56 of the control device 50 forms an image of the formed image fP in which the partial image td1 having the width ⁇ is arranged at the position r ⁇ from the center line of the formed image fP. Generate data.
  • the control unit 56 arranges the partial image td1 having the width ⁇ of the viewpoint A at a position r ⁇ from the center line of the formed image fP as shown in FIG. 22D.
  • the image data of the formed image fP in which the partial image td2 having the width ⁇ of the viewpoint B is arranged at the position of r ⁇ is generated.
  • control device 50 forms a formation image on the side opposite to the viewpoint side of the predetermined refracting means so that the display element image is displayed by the light passing through the predetermined refracting means. It functions as an example of image generation means for generating image data.
  • the control device 50 deforms each of the region images so as to match the shape of the opposite surface of the predetermined refracting means, and the deformed region images correspond to the angles corresponding to the region images. It is arranged at a position and functions as an example of an image generator that generates formation image data for forming the formation image of the predetermined refracting means.
  • control device 50 deforms the region image so as to conform to the shape of the opposite surface of the predetermined refracting means, arranges the deformed region image at a position corresponding to the angle, and
  • the refracting means functions as an example of an image generating means for generating formation image data for forming the formation image.
  • control device 50 determines whether or not data for formed images has been generated for all the refraction means of the display device 1 (step S15).
  • step S15 When the formation image data is not generated for all the refracting means (step S15; NO), the control device 50 performs the processing of steps S11 to S14 for the next refracting means. Specifically, the control unit 56 performs the processes of steps S11 to S14 on the adjacent cylindrical lens 11.
  • step S15 When the formation image data is generated for all the refraction means (step S15; YES), the control device 50 ends the process.
  • the control device 50 transmits the formed image data to the image projection unit 21.
  • the image projecting unit 21 projects projection light based on the formed image data onto the image projecting unit 20, and a formed image corresponding to the formed image data is formed on each refracting unit 1a.
  • a display element image of each refracting unit 1 a is seen according to the viewpoint direction, and a display composite image according to the viewpoint direction is displayed on the display device 1.
  • the control device 50 transmits the formed image data to each display means.
  • FIG. 20A to FIG. 21C one viewpoint direction is illustrated, and the three-dimensional space representation in the case where the planar image appears to exist in the three-dimensional space only from the predetermined viewpoint direction has been described.
  • FIGS. 22A to 22D two viewpoint directions are exemplified, and the three-dimensional space representation in the case where a planar image appears to exist in the three-dimensional space from only two predetermined viewpoint directions has been described.
  • the control device 50 may perform the processing from step S10 to step S15 on the three-dimensional space representation in which the planar image appears to exist in the three-dimensional space from three or more viewpoint directions.
  • control device 50 when acquiring a plurality of planar images of a three-dimensional space viewed from a plurality of series of viewpoint directions in step 10, the control device 50 changes one after another according to the viewing angle of one space by changing the viewpoint direction. Expressions that change into space are possible.
  • the control device 50 can display each of the three visible from each viewpoint direction according to each angle defined by each viewpoint direction in the series of viewpoint directions and the normal direction in the predetermined refraction means. It functions as an example of an extracting unit that extracts each region image corresponding to each predetermined refraction unit as region image data from each plane image data of the dimensional space expression data. Further, the control device 50 deforms each of the region images so as to match the shape of the opposite surface of the predetermined refracting means, and the deformed region images are set to the angles corresponding to the region images. It is arranged at a corresponding position and functions as an example of an image generation unit that generates formation image data for forming the formation image of the predetermined refraction unit.
  • FIG. 3B a case where the cylindrical lens 11 as an example of the refracting means 1a is arranged in a cylindrical shape as an example of a convex shape will be described.
  • FIG. 23A is a schematic diagram showing an example of a viewpoint for a three-dimensional space representation.
  • FIG. 23B and FIG. 23D are schematic diagrams illustrating an example of how to determine a point of interest for a three-dimensional space representation.
  • FIG. 23C is a schematic diagram illustrating an example of a planar image.
  • FIG. 23E is a schematic diagram illustrating an example of a formed image.
  • a three-dimensional space representation (for example, a human face), which is a real three-dimensional object, is represented by a viewpoint A (a viewpoint when the face is viewed from the side), a viewpoint B (a 45 ° oblique viewpoint), A case of viewpoint C (viewpoint of a person viewed from the front), viewpoint D (viewpoint of 45 ° oblique direction), and viewpoint E (viewpoint of face viewed from the side) will be described.
  • the control device 50 acquires three-dimensional space expression data at each viewpoint in step 10.
  • the three-dimensional space representation data is composed of data of a planar image that is visible when the three-dimensional space representation is viewed from one or more viewpoint directions, and angle data of the viewpoint direction that looks like that.
  • a human head solid which is a three-dimensional space representation (an example of a three-dimensional object in real space), appears to be visible in a cylinder (assuming that refracting means is arranged on the surface of the cylinder).
  • the control device 50 sets points around the three-dimensional space representation corresponding to each refraction means. For example, when generating an image that can be viewed from the front of the face, which is a three-dimensional space expression, the control device 50 corresponds to the predetermined cylindrical lens 11 and corresponds to a point p1 (corresponding to a predetermined refraction means) as shown in FIG. 23B. Set.
  • step S11 the control device 50 calculates the angle between the outward direction at the point p1 (predetermined refraction means) and each viewpoint direction. For example, as shown in FIG. 23B, the control device 50 determines the angle of the cylindrical lens 11 that hits the front of the face (corresponding to the direction from the center of the display device 1 to the cylindrical lens 11 (an example of the normal direction)) and the viewpoint A. From the above, the angle of the viewpoint E with each viewpoint direction is calculated.
  • planar image in the viewpoint direction with the three-dimensional space representation may be an image obtained by capturing the three-dimensional space representation from each viewpoint direction.
  • control device 50 determines each viewpoint direction from the three-dimensional data of the three-dimensional space representation.
  • the image data of the planar image from may be generated.
  • control device 50 functions as an example of original data generation means for generating three-dimensional space expression data on the display device from a three-dimensional object in real space.
  • image data obtained by plane projection according to the viewpoint direction (angle) is created by a method of photographing a three-dimensional object with a camera, and the image data and the angle data are associated with each other to be input to the information processing apparatus.
  • Three-dimensional spatial expression data can be generated.
  • the control device 50 converts the partial images that appear at the point p1 when viewing the cylinder from various viewpoint directions A to E into the respective plane images (for example, the plane image oPa, the plane image). oPc, plane image oPe).
  • the control device 50 determines a region image with a width ⁇ (for example, region images de, dc, da as shown in FIG. 23C) according to the angle between each viewpoint and the angle of the cylindrical lens 11 that is in front of the face.
  • a region image from the viewpoint A to the viewpoint E is extracted from a portion close to the surface of the real three-dimensional object, that is, a nose portion (point p1) in front of the face.
  • each part of the three-dimensional object or space to be represented can be viewed from a wide viewpoint direction unless it is hidden by other parts, and as shown in FIG. 23C, a three-dimensional object corresponding to each viewpoint direction can be seen. And the ability to see information from different angles in space recognizes a three-dimensional space representation.
  • the nose can be seen from a direction of 180 degrees centered on the front of the face, and the face can be seen from the left ( ⁇ 90 degrees), the front (0 degrees), and the right (+90 degrees).
  • the nose seen from the left, front, and right is visible on the left side, center, and right side of the entire space, respectively, so that the nose is actually near the point p1 in the three-dimensional space. It can be recognized as if it were.
  • the range that can be viewed from each viewpoint direction is narrow, for example, it is difficult to represent the three-dimensional space of the entire image from the three angles in FIG. 23C.
  • the nose can be seen from the front (0 degree) viewpoint direction, but when viewed from the left (-90 degrees) or right (+90 degrees), the nose is not in the center of the planar image. I can't see it. Therefore, a display device and an information processing device that can confirm a wide area of a planar image from a wide viewpoint direction are required.
  • control device 50 sets various viewpoint directions at a point p2 corresponding to this refraction means 1a.
  • control device 50 determines each plane of the three-dimensional space expression data according to each angle defined by each viewpoint direction in the series of viewpoint directions and the normal direction in the predetermined refracting means. It functions as an example of an extracting unit that extracts region images corresponding to each predetermined refraction unit from the image data as region image data.
  • step S13 the control device 50 transforms each viewpoint region image into a partial image having a width ⁇ , as shown in FIG. 23E.
  • step S14 the control device 50 arranges the partial images of the respective viewpoints at positions corresponding to the angles between the respective viewpoint directions at the point p1 and the angle of the cylindrical lens 11 that is in front of the face.
  • a formed image is created, and data for the formed image of the predetermined cylindrical lens 11 is generated.
  • modified partial images tda, tdb, tdc, tdd, tde are arranged. 23E, when the viewpoint direction is finely set, a partial image deformed according to the viewpoint direction is arranged.
  • control device 50 similarly generates the formation image data for other points, that is, for the other cylindrical lenses 11.
  • Formed image data is generated for each cylindrical lens 11, and when the control device 50 transmits these formed image data and the display device 1 displays the three-dimensional space representation in the display device 1. You can display images like this.
  • the control device 50 stores these formed image data for each frame image. Generate.
  • control device 50 deforms each region image so as to match the shape of the opposite surface of the predetermined refracting means, and converts the deformed region image into the angle corresponding to the region image. And functions as an example of an image generation unit that generates formation image data for forming the formation image of the predetermined refraction unit.
  • the displayable range becomes narrow. Therefore, when the refracting means is a single convex lens, it is difficult to realize a three-dimensional space expression that can confirm a wide area of the expression space from a wide viewpoint direction.
  • FIG. 24A is a schematic diagram showing an example of the positional relationship of the arrangement of the refracting means.
  • 24B and 24C are schematic diagrams illustrating an example of the relationship between the display composite image and the display element image.
  • one predetermined ball lens 10 is taken out from the display device 1 in which the ball lenses 10 shown in FIG. 3A are three-dimensionally arranged.
  • the coordinates of the predetermined ball lens 10 are coordinates (x1, y1, z1) in the xyz coordinate system.
  • An angle ⁇ formed between a line (length R) connecting the origin and the predetermined ball lens 10 and the z axis, a line obtained by projecting a line connecting the origin and the predetermined ball lens 10 onto the xy plane, and the x axis. Let the angle ⁇ .
  • the region image d3 has a circular shape with a diameter of ⁇ R1 or ⁇ 1 at the position of the coordinates (R1, ⁇ 1).
  • the area image d3 may be a fan-shaped area of ⁇ R1 and ⁇ at the position of the coordinates (R1, ⁇ 1).
  • the region image d3 is a circle having a diameter ⁇ x1 or ⁇ z1 with the position of the coordinates (x1, z1) as the center.
  • the region image d3 may be a rectangular region of ⁇ x1 and ⁇ z1 at the position of coordinates (x1, z1).
  • FIG. 25 is a flowchart illustrating a modification of the image generation operation in the control device 50.
  • control device 50 does not determine the predetermined refracting means, but determines a predetermined viewpoint direction, generates a partial image of the formed image in each refracting means, and then sequentially with respect to each viewpoint direction.
  • a formation image is generated by generating a partial image.
  • control device 50 acquires the three-dimensional space expression data including the angle direction data and the plane image data as in step S10 (step S20).
  • control device 50 calculates each angle between the predetermined viewpoint direction and the normal direction in each refraction means (step S21).
  • the angle between the viewpoint direction and the normal direction in the refracting means is calculated as in step S11.
  • control device 50 extracts a region image for the refracting means from the planar image in the predetermined viewpoint direction according to the angle (step S22). As in step S12, each area image corresponding to the angle is extracted from the planar image in a predetermined viewpoint direction.
  • control device 50 enlarges a part of the formed image through the refracting means, and transforms each region image into a partial image on the formed image so that it can be viewed as a region image from a predetermined viewpoint direction (Ste S23).
  • control device 50 arranges the deformed area image at a position corresponding to the angle in the formed image of each refraction means (step S24).
  • step S14 the control device 50 arranges the deformed region image (partial image) at a position corresponding to the angle, and in the formed image of each refracting means, the partial image is sequentially arranged, and the formed image gradually becomes. Will be formed.
  • control device 50 determines whether or not it has been executed for all viewpoint directions (step S25).
  • step S25 If not executed for all viewpoint directions (step S25; NO), the control device 50 performs steps S21 to S24 for the next viewpoint direction.
  • step S15 If executed for all viewpoint directions (step S15; YES), the control device 50 ends the process. As a result, formed image data is generated.
  • FIG. 26 is a flowchart illustrating an operation example of image adjustment in the control device 50.
  • the control device 50 expresses a three-dimensional space design by using the generated formed image data (step S30). Specifically, the control unit 56 of the control device 50 transmits the formed image data to the image projection means 21 such as a projector.
  • the image projecting unit 21 projects projection light based on the formed image data onto the image projecting unit 20, and a formed image corresponding to the formed image data is formed on each refracting unit 1a.
  • a display element image of each refracting means 1a is seen according to the viewpoint direction, and a display composite image according to the viewpoint direction is displayed on the display device 1 to express a three-dimensional space design.
  • the control device 50 acquires a captured image in each viewpoint direction (step S31). Specifically, the control unit 56 controls the position of the photographing device 9 (sets the photographing direction and the photographing distance), transmits a command signal so that the photographing device 9 performs photographing, and the photographing device 9 The three-dimensional space design expressed on the display device 1 is photographed from the direction. The control unit 56 acquires the image data of the photographed image and the data of the photographing direction from the photographing device 9.
  • control device 50 functions as an example of an image acquisition unit that acquires image data of a captured image obtained by capturing the three-dimensional space design realized on the display device using the generated image data for formation and data on a shooting direction. To do.
  • the correspondence between a point on the formed image and a point on the image obtained by photographing the display device with the photographing device 9 may be grasped by a method such as blinking the formed image for each partial region.
  • the control device 50 adjusts the formed image data according to the difference between the acquired captured image and shooting direction data, the angle data of the three-dimensional space expression data, and the planar image data (step S32). Specifically, when the shooting direction data and the angle data in the three-dimensional space representation match, the control unit 56 compares the shot image data and the planar image data respectively corresponding to the angle data. In the captured image data, a partial image corresponding to each refraction means 1a (a partial image corresponding to the photographing direction of the photographing device 9), and a planar image corresponding to the photographing direction of the photographing device 9, and the photographing direction of the photographing device 9 The area image corresponding to the normal direction of each refracting means 1a is compared to find the difference. For example, the size and direction of the positional deviation between the partial image and the region image to be compared, the difference in size and the shape between the partial image and the region image to be compared, etc.
  • control unit 56 may extract feature points (such as outlines and internal points) by image processing and compare the feature points.
  • control device 50 adjusts the formed image data according to the difference between the captured image and the data of the capturing direction and the angle data and the planar image data of the three-dimensional space expression data. Functions as an example.
  • control device 50 may perform the adjustment using the region image extraction step in step S12 or step S22. Further, the control device 50 may perform the adjustment using the region image deformation stage in step S13 or step S23. Further, the control device 50 may perform the adjustment by using the deformed region image arrangement stage in step S14 or step S24.
  • control device 50 functions as an example of an image adjusting unit that adjusts the formed image data by adjusting the region image extracted by the extracting unit.
  • the control device 50 functions as an example of an image adjusting unit that adjusts the formed image data by adjusting at least one of the manner in which the image generating unit deforms and the manner in which the image generating unit is arranged. .
  • the material of the lens as the refracting means is not homogeneous
  • the shape of the lens is not exactly the same as the design
  • the lens arrangement (the relationship between the lenses, the lens and the formed image ( Or the relationship of the image forming means for forming it) is not exactly the same as the design
  • the formed image or the position of the image forming means forming the image is not exactly the same as the design
  • lens The shape and material of the material change with time and are not the same as the original design.
  • the position of the projector and the angle of the projection light are exactly the same as the design. If the reflection means is used between the projector and the screen, the position and shape of the reflection means will be exactly the same as the design. It is not.
  • the position and shape of the display are not exactly the same as the design. Further, the position of the viewpoint in the viewpoint direction where the display apparatus 1 is normally viewed varies depending on the installation environment of the place where the display apparatus 1 is installed. For example, in a certain viewpoint direction, when there is an obstacle and the viewpoint distance from the display device 1 is short, the composite display image looks larger, so a difference may occur.
  • control unit 56 corrects the formed image data so that the difference between the captured image and the planar image is reduced. For example, in the case of a positional shift between the partial image to be compared and the region image, the control unit 56 corrects the formed image data based on the size and direction of the positional shift.
  • the control unit 56 may repeat the processing so that the difference is reduced as much as possible by correcting the formed image data after the imaging device 9 performs imaging after the correction.
  • the control unit 56 adjusts the image so that the difference between the photographing direction and the planar image in each viewpoint direction is minimized.
  • the display target is displayed on each refracting unit so that it can be seen as a three-dimensional space expression from a planar image seen from a predetermined viewpoint direction.
  • Region image data of the displayed display element image is extracted, and the display element image is displayed on the refraction means that has a circular cross section and refracts light in the display device 1 in accordance with the formed image data generated based on the region image data Therefore, a three-dimensional space design that can be viewed from a wide viewpoint direction can be expressed on the display device 1.
  • region images corresponding to each predetermined refraction means are extracted from the plane image data as region image data, and the region images are matched to the shape of the surface opposite to the predetermined refraction means.
  • the image data of the region image is extracted according to the angle defined by the refracting means and the viewpoint direction, the deformed region image is arranged at a position corresponding to the angle, and the formation image data is generated.
  • the display image displayed on the display device can be easily changed according to the viewpoint direction.
  • a three-dimensional space representation can be made in which different planes exist continuously in the display space depending on the viewing angle, and the image is displayed there.
  • three-dimensional space representation data for three-dimensional display on a display device when generating three-dimensional space representation data for three-dimensional display on a display device from a three-dimensional object in real space or 3DCG data, it is as if the space in which the three-dimensional object is arranged exists in the display device 1. It can also be expressed.
  • control device 50 acquires the image data of the photographed image taken by the photographing device 9 from the display image displayed by the generated formation image data, and forms image data according to the difference between the photographed image and the planar image.
  • the display device 1 can express an optimal three-dimensional space design according to the place where the display device 1 is installed.
  • the display device 1 can express the optimum three-dimensional space design.
  • the adjustment is performed from the stage of extracting the region image, so that a large adjustment can be made.
  • a three-dimensional space design can be expressed on a display device.
  • the projection light output from the image projection unit 21 hits the projection surface of the image projection unit 20 to form a projection image, and the projection image causes the image to be projected and projected on the back surface of the projection surface of the image projection unit 20. Since the image can be seen from the viewpoint 3 side through each refraction means 1a, it is possible to easily change the three-dimensional space expression expressed on the display device 1 by controlling the projection light of the image projection means 21 and changing the projection image. it can.
  • each refraction means does not need to be repainted or reprinted. Further, in the related art, since the degree of freedom in changing the displayed image is low, it is difficult to express the moving image. However, according to the display device 1 according to the present embodiment, the shape and arrangement are changed depending on the moving image and time. A changing three-dimensional space representation is possible.
  • the refraction means 1a is arranged in a convex shape with respect to the viewpoint 3 side, so that a composite image appears to exist in the display device 1 due to parallax.
  • the display device 1 appears to be expressed in a three-dimensional space whose shape and arrangement change depending on the moving image and time.
  • the image projecting means 20 When the image projecting means 20 is provided on the surface of the refraction means 1a on the opposite side, it is not necessary to provide the image projecting means 20 separately, the number of parts can be reduced, and the cost can be reduced.
  • the blind spot of the projection can be reduced.
  • the display device 1 can be expressed as the same three-dimensional space. Further, the display device 1 can express various three-dimensional space designs according to the formed image of each refraction means 1a.
  • the composite image displayed by the display device 1 is less distorted.
  • the user changes the viewing angle, a three-dimensional space design with little distortion can be seen.
  • each lens of the lenticular lens has a single-convex structure having a flat surface, and therefore, when the viewing angle exceeds a predetermined value, light reflection (internal reflection) from the inside of the lens occurs on the flat surface of the lens. There was a problem that a sufficient viewing angle could not be secured.
  • a light shielding means such as a slit formed in a lattice shape on a black thin plate is provided. There is a problem that an image cannot be displayed except in the central portion of the cylindrical shape, or the image is difficult to see and visibility is lowered.
  • the refracting means 1a has a circular cross section
  • reflection of external light from the periphery of the display device 1 inside the refracting means 1a can be prevented, and a light-shielding means such as a slit that blocks outside light is not required, and an image displayed on the display device 1 is brightened, thereby improving visibility.
  • the refracting means 1a has a circular cross section, it is possible to secure a wide display range with high visibility with respect to the display device 1 and enhance the practicality of the display device 1. it can.
  • each refraction means 1a since the viewing angle of each refraction means 1a is widened, a large image can be displayed on the entire display surface of the display device 1 viewed from the viewpoint 3 side.
  • a large image projected on the entire display surface of the display device viewed from the viewpoint 3 side cannot be displayed.
  • the shape of the refracting means 1a is spherical or cylindrical, the internal reflection of the refracting means 1a can be almost eliminated with respect to external light from the periphery of the display device 1. In this case, the viewing angle of each refracting means 1a is widened.
  • the degree of freedom of arrangement is improved by arranging the spherical refracting means 1a on a spherical surface or an ellipsoidal surface.
  • the display device 1 can display a similar image as the viewpoint 3 moves. Further, when the shape of the refraction means 1a is a spherical shape such as the ball lens 10, and the arrangement support means 1b arranges each refraction means 1a in a cylindrical shape, the display device 1 can be installed on a building column or the like.
  • the display device 1 can be installed on a building column or the like.
  • the display device 1A is an embodiment in which a plurality of ball lenses 10 are arranged on a spherical surface.
  • each ball lens 10 has a letter “E” on the projection surface of the image projection means 20 of the ball lens 10 by projection light from the image projection means 21 as shown in FIG. 9B.
  • a projected image is projected, and a formed image is formed on the surface of the ball lens 10 opposite to the viewpoint.
  • the central part of the formed image is directed to the center of the spherical surface of the display device 1A. That is, the direction from the central portion of the formed image toward the center of the ball lens 10 is the normal direction of the spherical surface.
  • each ball lens 10 is fitted about half.
  • an image (synthesized display image) “E” synthesized from a partial image (display element image) of each ball lens 10 responsible for each part of the image “E” is displayed on the display device 1A. .
  • the image “E” appears to be present in the display device 1A.
  • the image “E” looks the same.
  • the ball lens 10 responsible for each part of the image “E” is different from the case shown in FIG. 28A.
  • the control device 50 projects the projection light that forms a different projection image on the projection surface of the image projection means 20
  • the image projection means 21 displays a different image on the display device 1A.
  • the display device 1A can easily display various images in addition to the image “E”.
  • the shape of the display device may be a hemispherical surface.
  • the display device may be a cylindrical display device 1B.
  • the ball lens 10 is arranged in a cylindrical surface shape. The image can be seen even with the eyes of a tall person and the eyes of a short person.
  • the display device 1B may not be a complete cylindrical shape, but may be a semi-cylindrical shape or a partial shape thereof.
  • the display device 1 ⁇ / b> C may arrange cylindrical lenses 11 having the same long axis direction in a cylindrical shape.
  • Each cylindrical lens 11 forms a cylindrical surface s11 (1b).
  • an image projecting means 20 having a semi-cylindrical surface shape as a screen surface is formed on one surface of the cylindrical lens 11.
  • a semi-cylindrical image projection means 20 is provided in each cylindrical lens 11 of the display device 1C.
  • the direction of the semi-cylindrical image projection means 20 is the normal direction of the cylindrical surface s11 (1b) of the display device 1C. That is, the center portion of the image projecting means 20 is on a line connecting the center c of the cylindrical lens 11 and the center C of the cylindrical surface s11.
  • the arrangement support means 1b arranges the refraction means 1a so that the cross-sectional shapes of the refraction means 1a from the viewpoint are the same.
  • the display device 1 ⁇ / b> C may not be a complete cylindrical shape, but may be a semi-cylindrical shape or a partial shape thereof.
  • a projector which is an example of the image projecting means 21, is installed inside the display device 1C.
  • a projection image is projected onto the projection surface of the image projection means 20 by the projection light from the image projection means 21, and the projection image is projected on the back surface of the image projection means 20, and formed on the surface opposite to the viewpoint of the cylindrical lens 11. An image is formed.
  • the display device 1D may include a reflecting unit 22 (an example of an image forming unit) such as a reflecting mirror.
  • the reflecting means 22 is a polished surface of metal, a surface plated with metal, a deposited surface, a surface with a metal foil, a surface having a light reflecting effect like a mirror, or an optical path similar to the light reflecting effect.
  • a refracting means for refracting light may be used.
  • the image projection means 21 may not be provided inside the display device 1D.
  • the reflecting means 22 may have a spherical shape that is convex with respect to the image projecting means 21.
  • the reflecting means 22 may have a concave shape other than the axis toward the image projecting means 21.
  • the reflection means 22 may be a hemisphere, a cone, a truncated cone, a triangular pyramid, a quadrangular pyramid, a polygonal pyramid, a polygonal frustum, a parabola, a hyperbola, a combination of two or more of these shapes, or 360 degrees.
  • a shape like a mirror at the time of photographing may be used as long as the shape can reflect the projection light from the image projection unit 21 and project an image on the projection surface of the image projection unit 20.
  • the image may be projected onto the projection surface of the image projection means 20 by projecting the projection light from a plurality of directions by the reflection means.
  • a part of the projection light from the image projecting unit 20 may be reflected by the reflecting unit (s) and projected onto another projection surface of the image projecting unit 20 from another angle.
  • the projection light projected from the image projecting means 21 is reflected by the reflecting means 22 and then projected onto the image projecting means 20 to form a formed image on the surface opposite to the viewpoint of the cylindrical lens 11.
  • the control apparatus 50 produces
  • the display device 1D can be downsized. Since the image projection unit 21 does not have to be installed inside the display device 1D, the image projection unit 21 does not have to be a small image projection unit 21. Further, since the display device 1D does not have to include the image projecting unit 21 from the beginning, the image projecting unit 21 can be installed later and is easily exchanged.
  • a projection system such as an image projection means can be attached to the display device 1 later, so that each can be maintained separately. Further, since it is not necessary to install an image projection unit such as a projector inside the display device 1 (inside the arrangement support unit 1b), the display device 1 can be downsized. If projection light is projected from one image projecting means 20 onto the reflecting means 22 and projected from the reflecting means 22 onto the refracting means 1a in each direction, the projected images are projected as in the case of projection by a plurality of image projecting means 20. It is not necessary to consider the adjustment of the seam, and the formation of the formed image of the refraction means 1a is facilitated.
  • the display device 1E may have a truncated cone shape.
  • the plurality of truncated cone lenses 12 are arranged on the curved surface of the side surface of the truncated cone by the support table 15 as an example of the arrangement support means 1b.
  • the display device 1 ⁇ / b> E can be installed at a position looking down from the upper viewpoint 3.
  • the display device 1E can be installed at a position where the display device 1E is looked up from the viewpoint 3 below.
  • the image projecting means 20 may be a reflective screen instead of a transmissive screen.
  • a small image projecting means 21 is installed between the image projecting means 20 and the refraction means 1a.
  • a transmissive screen and a reflective screen may be combined.
  • the image projecting means 20 is not provided on the entire surface opposite to the viewpoint of the refracting means 1a, and projection light that directly forms a projection image on the refracting means 1a is partially projected on the image projecting means 21 or the reflecting means 22. May be projected.
  • Example 2 Next, a display system using display means which is an example of image forming means will be described with reference to FIGS. 34A to 34C.
  • the present embodiment is an embodiment using display means instead of the image projecting means 20 and the image projecting means 21 of the first embodiment.
  • the display system S2 includes the display device 2, the control device 50, and the photographing device 9, as shown in FIG. 34A.
  • the display device 2 includes a refraction unit 1a, an arrangement support unit 1b, and a display unit 25 (an example of an image forming unit) installed on a surface opposite to the viewpoint 3 side with respect to each refraction unit 1a. .
  • the display means 25 is a display such as a liquid crystal display or an organic EL display.
  • the display means 25 displays the image on the refraction means 1a, thereby forming a formed image in the refraction means 1a.
  • the display means 25 is installed so as to cover the half surface of the refraction means 1a made of a transparent material.
  • the display means 25 is connected to the control device 50.
  • Each refraction means 1a in FIG. 34A shows a cross section when the transparent ball lens 10 is covered with the hemispherical display 25.
  • the cross section when a cylindrical lens is covered with the display means of a semi-cylindrical surface shape may be sufficient.
  • each display means 25 is connected to a control device 50.
  • the control device 50 transmits the formed image data to each display means 25.
  • Each display unit 25 displays the formed image 5 based on the formed image data.
  • a display element image is seen on each refraction means 1 a by each display means 25 according to the viewpoint direction, and a display composite image according to the viewpoint direction is displayed on the display device 2.
  • the control device 50 acquires the image data of the photographed image obtained by photographing the display composite image of the display device 2 from the photographing device 9 and performs image adjustment.
  • the display device 2C includes cylindrical lenses 11 in the same direction, which are covered with a display 26 (an example of the display means 25) having a semicylindrical surface shape on the opposite side to the viewpoint side, and are arranged in a cylindrical surface shape. Also good.
  • a semi-cylindrical display 26 is provided.
  • Each cylindrical lens 11 forms a cylindrical surface s11 (1b).
  • the portion of the center line in the axial direction of the cylindrical lens 11 is a portion that is the center of the image (the central portion of the display 26).
  • the orientation of the display 26 is the normal direction of the cylindrical surface s11 (1b) of the display device 2C. That is, the center portion of the display 26 is on a line connecting the center c of the cylindrical lens 11 and the center C of the cylindrical surface s11.
  • the same effects as those of the first embodiment can be obtained except for the special effects caused by the image projecting means 20 and the image projecting means 21.
  • the present invention is not limited to the above embodiments.
  • Each of the embodiments described above is an exemplification, and any configuration that has substantially the same configuration as the technical idea described in the claims of the present invention and has the same operational effects can be used. It is included in the technical scope of the present invention.
  • DD Display device 1a: Refraction means 1b: Arrangement support means 1c: Image forming means 3: View point 5: Formed image 8: Information processing device 9: Imaging device (Photographing means) 10: Ball lens (refractive means) 11: Cylindrical lens (refractive means) 12: Frustum lens (refractive means) 20: Image projection means (image forming means) 21: Image projection means (image forming means) 22: Reflecting means (image forming means) 25: Display means (image forming means) 26: Display (image forming means) 50: Control device (information processing device) S, S1, S2: Display system oP: Plane image d1, d2, de, dc, da: Area image

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Marketing (AREA)
  • Accounting & Taxation (AREA)
  • Business, Economics & Management (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

広い視点方向から見ることのできる3次元空間表現を表示装置で表現するための表示装置用の情報処理装置等を提供する。 円形状の断面を有し、光を屈折する屈折手段と複数の屈折手段を視点側に対して凸形状に配置して支持する配置支持手段と、折手段に対して視点側と反対側の面に形成画像を形成する画像形成手段とを備えた表示装置において、表示対象を3次元空間表現するための3次元空間表現データから、3次元空間表現に見えるように各屈折手段に表示される表示要素画像の画像データを抽出し、所定の屈折手段を通った光によって、表示要素画像が表示されるように、所定の屈折手段の視点側と反対側に形成画像を形成するための形成画像用データを生成する。

Description

表示装置用の情報処理装置、表示装置用の情報処理方法、および、表示装置用のプログラム
 本発明は、画像を表示する表示装置用の情報処理装置、表示装置用の情報処理方法、および、表示装置用のプログラムの技術分野に関する。
 道路や広場等の公共空間や、駅構内、イベント会場、競技場等の公共施設、スーパーマーケットやモール等の商業施設においては、表示装置に対して様々な位置にいる多くの人に、見やすく表示画像を見てもらえることが好ましい。例えば、特許文献1には、光源を中心に円筒形をなすレンチキュラーレンズと透過光制御手段とを備え、この透過光制御手段に、レンチキュラーレンズを構成する各レンズに対して、水平方向に縮小した透過画像を形成した表示器が開示されている。
特開2001-272934号公報
 しかしながら、特許文献1のような従来技術においては、レンチキュラーレンズの個々のレンズは、平坦面を有する片凸構造であるため、視野角が所定値以上になると、レンズの平坦面において、レンズ内部からの光の反射(内部反射)が生じるため十分な視野角を確保できなかったという問題があった。このため、表示器の中心部の画像しか十分に表示できず、広い視点方向の変化の範囲から見える広い空間を使って表現し、実際に3次元空間が存在するような視覚表現が確認できるようにすることが難しかった。
 そこで、本発明の課題の一例は、広い視点方向から見ることのできる3次元空間表現を表示装置で表現するための表示装置用の情報処理装置等を提供することを目的とする。
 上記課題を解決するために、請求項1に記載の発明は、円形状の断面を有し、光を屈折する屈折手段と、複数の前記屈折手段を、視点側に対して凸形状に配置して支持する配置支持手段と、前記屈折手段に対して前記視点側と反対側の面に形成画像を形成する画像形成手段と、を備えた表示装置用の情報処理装置において、前記表示装置において表示対象を3次元空間表現するための3次元空間表現データから、前記3次元空間表現に見えるように各屈折手段に表示される表示要素画像の画像データを抽出する抽出手段と、所定の前記屈折手段を通った光によって、前記表示要素画像が表示されるように、前記所定の屈折手段の視点側と反対側に形成画像を形成するための形成画像用データを生成する画像生成手段と、を備え、前記3次元空間表現データは、前記所定の屈折手段における前記凸形状の法線方向と前記視点側の所定の視点方向とにより規定される角度の角度データと、前記角度に応じて、前記表示対象が前記所定の視点方向から見える平面画像データとを有することを特徴とする。
 請求項2に記載の発明は、請求項1に記載の表示装置用の情報処理装置において、前記抽出手段が、前記3次元空間表現データのうち、前記平面画像データから、前記所定の屈折手段毎に対応した領域画像を領域画像データとして各々抽出し、前記画像生成手段が、各前記領域画像を前記所定の屈折手段の前記反対側の面の形状に合わせるように変形し、当該変形した各領域画像を、当該各領域画像に対応する前記角度に応じた位置に配置して、前記所定の屈折手段の前記形成画像を形成するための形成画像用データを生成することを特徴とする。
 請求項3に記載の発明は、請求項1または請求項2に記載の表示装置用の情報処理装置において、前記抽出手段が、前記屈折手段の大きさに応じて、前記表示要素画像の画像データを抽出することを特徴とする
 請求項4に記載の発明は、請求項1から請求項3のいずれか1項に記載の表示装置用の情報処理装置において、実空間の立体物または3DCGデータから、前記表示装置に3次元空間を表現するための前記3次元空間表現データを生成する原データ生成手段を更に備えたことを特徴とする。
 請求項5に記載の発明は、請求項1から請求項4のいずれか1項に記載の表示装置用の情報処理装置において、前記生成した形成画像用データにより表示された前記3次元空間表現を、所定の撮影方向から撮影した撮影画像の画像データを取得する画像取得手段と、前記撮影画像および撮影方向のデータと、前記3次元空間表現データの前記角度データおよび前記平面画像データとの差異に従って、前記形成画像用データを調節する画像調節手段と、更に備えたことを特徴とする。
 請求項6に記載の発明は、請求項5に記載の表示装置用の情報処理装置において、前記画像調節手段が、前記抽出手段が抽出する前記表示要素画像の画像データを調節することにより、前記形成画像用データを調節することを特徴とする。
 請求項7に記載の発明は、請求項5または請求項6に記載の表示装置用の情報処理装置において、前記画像調節手段が、前記形成画像における形成するための形成の仕方を調節することにより、前記形成画像用データを調節することを特徴とする。
 請求項8に記載の発明は、請求項1から請求項7のいずれか1項に記載の表示装置用の情報処理装置において、前記画像形成手段が、前記形成画像用データに基づき印刷された画像により前記形成画像を形成することを特徴とする。
 請求項9に記載の発明は、円形状の断面を有し、光を屈折する屈折手段と、複数の前記屈折手段を、視点側に対して凸形状に配置して支持する配置支持手段と、前記屈折手段に対して前記視点側と反対側の面に形成画像を形成する画像形成手段と、を備えた表示装置用の情報処理方法において、前記表示装置において表示対象を3次元空間表現するための3次元空間表現データから、前記3次元空間表現に見えるように各屈折手段に表示される表示要素画像の画像データを抽出する抽出ステップと、所定の前記屈折手段を通った光によって、前記表示要素画像が表示されるように、前記所定の屈折手段の視点側と反対側に形成画像を形成するための形成画像用データを生成する画像生成ステップと、を含み、前記3次元空間表現データは、前記所定の屈折手段における前記凸形状の法線方向と前記視点側の所定の視点方向とにより規定される角度の角度データと、前記角度に応じて、前記表示対象が前記所定の視点方向から見える平面画像データとを有することを特徴とする。
 請求項10に記載の発明は、円形状の断面を有し、光を屈折する屈折手段と、複数の前記屈折手段を、視点側に対して凸形状に配置して支持する配置支持手段と、前記屈折手段に対して前記視点側と反対側の面に形成画像を形成する画像形成手段と、を備えた表示装置用のプログラムにおいて、コンピュータを、前記表示装置において表示対象を3次元空間表現するための3次元空間表現データから、前記3次元空間表現に見えるように各屈折手段に表示される表示要素画像の画像データを抽出する抽出手段、および、所定の前記屈折手段を通った光によって、前記表示要素画像が表示されるように、前記所定の屈折手段の視点側と反対側に形成画像を形成するための形成画像用データを生成する画像生成手段として機能させ、前記3次元空間表現データは、前記所定の屈折手段における前記凸形状の法線方向と前記視点側の所定の視点方向とにより規定される角度の角度データと、前記角度に応じて、前記表示対象が前記所定の視点方向から見える平面画像データとを有することを特徴とする。
 本発明によれば、広い視点方向から見える広い空間を使って表現し、3次元空間が存在するような視覚表現が確認できるような表示装置において、その表示装置で表現したい3次元空間表現データから、表示装置に入力する形成画像用データを生成する情報処理装置を備えることで、表示装置に実際に3次元空間が存在するような視覚表現を容易に実現できる。
一実施形態に係る表示システムの概要構成例を示す模式図である。 第1実施例の表示システムの概要構成例を示す模式図である。 図2Aの屈折手段の一例を示す模式図である。 図2Aの屈折手段を立体的に配置した一例を示す模式図である。 図2Aの屈折手段を立体的に配置した一例を示す模式図である。 屈折手段の形状の変形例を示す模式図である。 屈折手段の形状の変形例を示す模式図である。 屈折手段の形状の変形例を示す模式図である。 屈折手段の形状の変形例を示す模式図である。 屈折手段の配置の一例を示す模式図である。 屈折手段の配置の一例を示す模式図である。 屈折手段の配置の一例を示す模式図である。 屈折手段の配置の一例を示す模式図である。 屈折手段の配置の一例を示す模式図である。 屈折手段の配置の一例を示す模式図である。 屈折手段の配置の一例を示す模式図である。 屈折手段の配置の一例を示す模式図である。 屈折手段の配置の一例を示す模式図である。 画像映出手段の一例を示す模式図である。 画像映出手段の一例を示す模式図である。 画像映出手段の変形例を示す模式図である。 画像映出手段の変形例を示す模式図である。 画像映出手段の変形例を示す模式図である。 画像映出手段の変形例を示す模式図である。 画像映出手段の変形例を示す模式図である。 画像映出手段の変形例を示す模式図である。 画像映出手段の変形例を示す模式図である。 制御装置の概要構成の一例を示すブロック図である。 画像投影手段の変形例を示す模式図である。 屈折手段における光路の一例を示す模式図である。 片凸の構造を有するレンズにおける反射の一例を示す模式図である。 片凸の構造を有するレンズにおける反射の一例を示す模式図である。 視点と各屈折手段の画像との関係の一例を示す模式図である。 視差と画像との関係の一例を示す模式図である。 制御装置における画像生成の動作例を示すフローチャートである。 表示合成画像と表示要素画像との関係を示す模式図である。 3次元空間表現のある視点方向から見た平面画像の一例を示す模式図である。 形成画像の一例を示す模式図である。 表示合成画像と表示要素画像との関係を示す模式図である。 3次元空間表現のある視点方向から見た平面画像の一例を示す模式図である。 形成画像の一例を示す模式図である。 表示合成画像と表示要素画像との関係を示す模式図である。 3次元空間表現のある視点方向から見た平面画像の一例を示す模式図である。 3次元空間表現のある視点方向から見た平面画像の一例を示す模式図である。 形成画像の一例を示す模式図である。 3次元空間表現に対する視点の一例を示す模式図である。 3次元空間表現に対して着目する点の定め方の一例を示す模式図である。 3次元空間表現の複数の視点方向から見た平面画像の一例を示す模式図である。 3次元空間表現に対して着目する点の定め方の一例を示す模式図である。 形成画像の一例を示す模式図である。 屈折手段の配置の位置関係の一例を示す模式図である。 表示合成画像と表示要素画像との関係の一例を示す模式図である。 表示合成画像と表示要素画像との関係の一例を示す模式図である。 制御装置における画像生成の動作の変形例を示すフローチャートである。 制御装置における画像調節の動作例を示すフローチャートである。 表示装置の第1実施例におけるボールレンズの配置の一例を示す模式図である。 表示装置の第1実施例における表示の一例を示す模式図である。 表示装置の第1実施例における表示の一例を示す模式図である。 表示装置の変形例を示す模式図である。 表示装置の第2実施例における円柱レンズの配置の一例を示す模式図である。 表示装置の第2実施例における画像投影手段の一例を示す模式図である。 表示装置における反射手段の一例を示す模式図である。 表示装置の変形例を示す模式図である。 第2実施例の表示システムの概要構成例を示す模式図である。 図34Aの屈折手段の一例を示す模式図である。 表示装置の第2実施例における画像形成手段の変形例を示す模式図である。
 本願を実施するための形態について、図1を用いて説明する。なお図1は、実施形態に係る表示システムS1の概要構成の一例を示す模式図である。
 図1に示すように、表示システムSは、表示装置DDと、表示装置用の情報処理装置8と、撮影装置9(撮影手段の一例)と、を備えて構成されている。
 表示装置DDは、光を屈折して像を拡大する複数の屈折手段1aと、各屈折手段1aを支持して配置する配置支持手段1bと、屈折手段1aに画像を形成する画像形成手段1cと、を有する。
 屈折手段1aは、例えば、円形状の断面を有している。屈折手段1aの一例として、例えば、球形のボールレンズ、円形状の断面を有する円柱形の円柱レンズ、楕円体、円錐形等のレンズが挙げられる。円形状は、曲率がほぼ一定の円形である。
 配置支持手段1bは、各屈折手段1aを、視点3側に対して凸形状に配置する。立体的には、例えば、ボールレンズが球面形状の曲面に配置される。屈折手段1aが、円柱レンズの場合、同じ向きの各円柱レンズが円筒面状の曲面に配置される。なお、円錐形状や円錐台形状のレンズの場合、円錐台状の側面の曲面にレンズが配置される。なお、視点3は、表示装置DDの外にある。
 ここで、配置支持手段1bの凸形状の一例として、曲率がほぼ一定の球面形状、円筒の軸に垂直の面で断面が円形状になる円筒面形状が挙げられる。また、球面形状は、全球面、半球面等の球面の一部を形成する曲面で、曲率がほぼ一定の曲面である。また、円筒面形状は、全円筒、半円筒、1/4円筒等の円筒面の一部を形成する曲面で、円筒の軸方向と垂直に交わる平面による断面形状が、曲率がほぼ一定の円である。なお、必ずしも曲率が一定でない曲面の形状等でもよい。
 視点3の一例として、人間の目、カメラ、ロボットの目等が挙げられる。また、表示装置DDと視点3との距離も様々で、表示装置DDを近づいたり、離れたりして見てもよい。視点3の視点方向も様々で、屈折手段1aが見えればよい。
 画像形成手段1cは、屈折手段1aに対して視点3側と反対側の面に形成画像を形成する。画像形成手段1cの一例として、画像を表示するディスプレイ手段、プロジェクタ等の画像投影手段から投影された投影光による画像を映し出すスクリーン等の画像映出手段等が挙げられる。
 ディスプレイ手段は、屈折手段1aの面の形状に沿った形状を有する液晶ディスプレイまたは有機EL(Electro Luminescence)ディスプレイ等が好ましい。例えば、半球面のディスプレイ、半円筒形のディスプレイ等が挙げられる。
 画像映出手段は、例えば、透過型のスクリーンで、ボールレンズの半球面に形成されたり、円柱レンズの半円筒面に形成されたりする。なお、画像映出手段およびディスプレイ手段については、後述する。
 また、画像形成手段1cは、屈折手段1aに直接画像を描く場合は、インク等により画像を形成してもよい。また、屈折手段1aに貼り付ける場合は、画像形成手段1cは、樹脂製、紙製、金属製等のフィルムにより画像を形成する。画像形成手段1cは、画像が印刷された透過性のフィルムとバックライトとにより構成されていてもよい。
 情報処理装置8は、抽出手段8aと、画像生成手段8bと、画像調節手段8cとを有する。
 抽出手段8aは、表示装置DDにおいて表示対象を3次元空間表現するための3次元空間表現データから、3次元空間表現に見えるように各屈折手段1aに表示される表示要素画像の画像データを抽出する。
 3次元空間表現とは、表示内容の各点や、その点の集合としての線や面や立体が、表示装置の表現する3次元空間の、所望の場所に、所望の角度で、配置されているように見える表現を示す。
 表現対象となる空間の広い領域が、広い視点方向の変化の範囲から、表現対象を確認できることで、現実の3次元の空間があるように見える3次元空間表現が可能になる。
 3次元空間を、狭い角度範囲で異なる視点方向から見た時のような表現が実現できることで、両目で見て、視差による奥行き感を表現でき、これを一般に立体感や立体表現や立体像と呼ぶことがある。3次元空間表現は、ある空間を正面方向から見ている状況から、大きく回り込んで、側面や上部などの大きく異なる角度から、同じ部分を確認できるような、広い視点方向の変化によって、空間内のレイアウトや物体形状の全体像を3次元的に把握できるような空間表現であり、一般的な、奥行き感による立体的な表現とは異なる効果を指す。
 3次元空間表現は、3次元空間デザインの表現とも言う。
 表示対象の一例として、実空間の立体物、例えば、人物の体、人物の顔、オブジェ、風景、建物、アクセサリーや服や車等の製品、動植物や石などの自然物やその加工物、キャラクタ等が挙げられる。また、表示対象の一例として、CG(Computer Graphics)等に作成された架空の立体物でもよい。
 3次元空間表現の一例として、空間内を平面が回転して見える立体的な表現、見る方向で違う平面が立っているようにみえる立体表現、立体物が置いてあるような表現等が挙げられる。
 3次元空間表現は、広い視点変化に対応して、広い範囲の空間を確認できるような表現であればよく、実世界には存在しないような、視点方向によって表現される空間が異なるような空間も表現できる。一例として、視点方向の変化に応じて空間内の異なる配置の平面があるように見せる表現や、どのような視点方向に対してでも空間内に視点方向に垂直な平面が常に正面向きに配置されているように見せる表現、視点方向に合わせて、表現されている空間内の立体や面や点の配置や形状や色等が、少しずつ変化するような表現等が挙げられる。また、3次元空間表現は、時間によって変化してもよい。一例として、空間内で立体物や表示面が時間とともに、回転したり、変形したりしているように見せる表現や、立体物の表面や平面に描かれた画像が、動画像のように変化するような表現等が挙げられる。
 3次元空間表現は、例えば、直交座標系で記述されていても、極座標系で記述されていてもよい。
 3次元空間表現データは、何らかの形式で記述された3次元空間表現の情報を、表示装置に表現した時に、表示装置に対する視点方向の角度データと、その角度から3次元空間表現を見た時の画像データで記述したデータである。
 3次元空間表現データの一例として、円筒形状の表示装置において、円筒の側面を左右360度の視点方向から見て3次元空間表現を確認できる場合、3次元空間表現データは、ある視点方向から表示装置の表現する空間を見た時の2次元のパラメータで記述される画像データと、その視点方向を1つのパラメータで記述した角度データであればよい。
 3次元空間表現データの一例として、球形状の表示装置において、球のまわりを上下左右360度の視点方向から見て3次元空間表現を確認できる場合、3次元空間表現データは、ある視点方向から表示装置の表現する空間を見た時の2次元のパラメータで記述される画像データと、その視点方向を2つのパラメータで記述した角度データであればよい。
 3次元空間表現データの一例として、所定の屈折手段1aにおける凸形状の法線方向と視点3側の所定の視点方向とにより規定される角度の角度データと、角度に応じて、表示対象が所定の視点方向から見える平面画像の画像データとのデータ等が挙げられる。角度データと平面画像の画像データとは対応している。また、3次元空間表現データは、3次元CGデータ(3DCGデータ)から、生成されてもよい。
 3次元空間表現データは、空間に立体物が存在するように見せる表現でも、視点方向に応じて空間内の異なる配置の平面に異なる画像があるように見せる表現でも、どのような視点方向に対してでも空間内に視点方向に垂直な平面を配置して常に正面向きの画像を見せる表現でもよい。3次元空間表現データは、時間によって変化させてもよい。例えば、空間配置を時間変化させて、立体物や表示面が回転したり、変形したりしているように見せてもよいし、色や明るさを時間変化させて、立体表面や画像を動画像にして見せてもよい。
 具体的には、抽出手段8aは、角度データと、平面画像データのうち角度に対応した平面画像データとから、所定の各屈折手段に対応した領域画像を領域画像データとして各々抽出する。
 画像生成手段8bは、所定の屈折手段1aを通った光によって、表示要素画像が表示されるように、所定の屈折手段1aの視点3側と反対側に形成画像を形成するための形成画像用データを生成する。
 表示要素画像は、視点3側から屈折手段1aに見える画像である。例えば、表示要素画像は、視点3側から各ボールレンズに見える円形の画像、視点3側から各円柱レンズに見える矩形の画像である。これらの表示要素画像が合成されて、立体物等の3次元空間表現が表示装置DDに見える。なお、領域画像が屈折手段1aを通して視点で、表示要素画像として見える。表示要素画像用の画像データが、領域画像の画像データ(領域画像データ)である。
 具体的には、画像生成手段8bは、各領域画像を所定の屈折手段の反対側の面の形状に合わせるように変形し、当該変形した各領域画像を、当該各領域画像に対応する角度に応じた位置に配置して、所定の屈折手段の形成画像を形成するための形成画像用データを生成する。
 画像調節手段8cは、撮影装置9が撮影した撮影画像と撮影した角度のデータと、平面画像データと角度データで構成される3次元空間表現データとの差異に従って、形成画像用データを調節する。例えば、画像調節手段8cは、抽出手段が抽出する表示要素画像の領域画像データを調節することにより、撮影画像と撮影した角度のデータと、平面画像データと角度データで構成される3次元空間表現データとの差異が減少するように形成画像用データを調節する。更に具体的には、画像調節手段8cが、抽出手段8aが抽出する領域画像を調節することにより、撮影画像と撮影した角度のデータと、平面画像データと角度データで構成される3次元空間表現データとの差異が減少するように形成画像用データを調節してもよい。
 画像調節手段8cは、形成画像における形成するための形成の仕方を調節することにより、撮影画像と撮影した角度のデータと、平面画像データと角度データで構成される3次元空間表現データとの差異が減少するように前記形成画像用データを調節してもよい。更に具体的には、画像調節手段8cが、画像生成手段8bが変形の仕方を調節すること、または、配置の仕方を調節することにより、撮影画像と撮影した角度のデータと、平面画像データと角度データで構成される3次元空間表現データとの差異が減少するように形成画像用データを調節してもよい。
 撮影装置9は、生成した形成画像用データにより3次元空間表現が表示された表示装置DDを撮影する。撮影装置9の一例として、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮影素子を有するデジタルカメラが挙げられる。撮影装置9は、静止画像、または、動画像を撮影する。撮影装置9は、可動式で、様々な視点方向から、画像が表示された表示装置DDを撮影する。なお、表示装置DDと撮影装置9との距離も可動であってもよい。また、複数の撮影装置9があってもよい。
 以上説明したように、実施形態に係る表示システムSによれば、表示対象が所定の視点方向から見える平面画像データと角度データで構成される3次元空間表現データから、3次元表現に見えるように各屈折手段1aに表示される表示要素画像の領域画像データを抽出し、それに基づいて形成された形成画像用データが生成される。生成された形成画像用データは、情報処理装置8から、円形状の断面を有し、光を屈折する屈折手段1aを有する表示装置DDに送られ、表示装置DDの画像形成手段1cに、所望の表示要素画像を表示させるための形成画像が形成され、表示装置DDの各屈折手段1aの視点側に所望の表示要素画像が表示されるので、広い視点方向から見ることのできる3次元空間表現を表示装置DDで表現できる。
 表示装置DDと情報処理装置8とによって、表示対象となる3次元空間表現から、その3次元空間が存在するような視覚表現が確認できるようになる。情報処理装置8は、所定の視点方向から各屈折手段1aを見た時に各屈折手段1aに表示される表示要素画像の領域画像データを抽出する。抽出した領域画像データから、(各屈折手段を所定の視点方向から見た時に)所望の表示要素画像が得られるように、視点側と反対側に形成される形成画像用データを生成する。表示装置DDは、入力された形成画像から、円形状の断面を有し、光を屈折する屈折手段1aを通して視点3側から表示要素画像を表示する。複数の屈折手段1aを、視点3側に対して凸形状に配置して支持する配置支持手段1bによって、各屈折手段1aに表示される表示要素画像で構成される3次元空間が表現できる。情報処理装置8によって、表示装置DDに、広い視点方向から見える広い空間を使って安定して表現し、実際に3次元空間が存在するような視覚表現を容易に実現できる。
[実施例1]
 次に、上述した実施形態に対応する具体的な実施例について、図を用いて説明する。なお以下に説明する実施例は、画像形成手段1cが、屈折手段に対して視点側と反対側に設けられ、画像投影手段からの投影光が投影された投影面の裏面に視点側から見える画像を映し出す画像映出手段を有する場合の表示システムSに対して本願を適用した場合の実施例である。
[1. 表示装置の構成および機能]
(1.1 表示装置の構成および機能の概要)
 まず、表示装置の構成の概要について、図2Aから図3Bを用いて説明する。
 図2Aは、本実施例の表示システムS1の概要構成例を示す模式図である。図2Bは、屈折手段の一例を示す模式図である。図3Aおよび図3Bは、屈折手段を立体的に配置した一例を示す模式図である。
 図2Aに示すように、本実施例の表示システムS1は、表示装置1と、制御装置50(情報処理装置の一例)と、撮影装置9と、を備えて構成されている。
 本実施例の表示装置1は、屈折手段1aと、各屈折手段1aを支持して配置する配置支持手段1bと、画像形成手段1cの一例である画像映出手段20と、を備える。
 屈折手段1aの一例として、例えば、図2Bに示すように、球形のボールレンズ10が挙げられる。
 配置支持手段1bは、図2Aに示すように、各屈折手段1aを、視点3側に対して凸形状に配置する。立体的には、例えば、図3Aに示すように、各ボールレンズ10(屈折手段1aの一例)が球面形状の曲面に配置される。図3Bに示すように、屈折手段1aが、円柱レンズ11の場合、同じ向きの各円柱レンズ11が円筒面状の曲面に配置される。なお、円錐形状や円錐台形状のレンズの場合、円錐台状の側面の曲面にレンズが配置される。なお、視点3は、表示装置1の外にある。
 なお、図3Bに示すように、視点3の場合(視点3の視点方向が、円柱レンズ11の底面と平行の場合)、円柱レンズ11の断面の形状は円形状になり、円柱レンズ11の断面の形状が同じなる。
 また、図2Aは、図3Aおよび図3Bのように立体的に配置された各屈折手段1aを、ある視点3からのある断面で記載した断面図でもある。また、図2Aは、立体的に配置された各屈折手段1aの一例である円筒面形状の曲面に配置されたボールレンズ10をある断面で記載した断面図でもある。
 画像映出手段20は、図2Aに示すように、屈折手段1aに対して視点3側と反対側に設けられる。例えば、画像映出手段20は、屈折手段1aの反対側の面に設けられる。画像映出手段20は、屈折手段に対して視点側と反対側の面に形成画像を形成する画像形成手段の一例である。
 画像映出手段20は、例えば、画像投影手段21から投影された投影光による画像を映し出すスクリーンである。画像投影手段21から出力された投影光が、スクリーンの投影面に投影されて投影画像が形成される。画像映出手段20は、スクリーンの面の裏面に、裏面側から見て投影画像とは鏡映になる画像を映し出す透過型のスクリーンである。
 ここで、画像投影手段21から出力(または投射)された投影光が、画像映出手段20の投影面に投影されることにより、投影面に形成される画像である。投影画像は、画像映出手段20の投影面の形状と、画像投影手段21の投影光と、その2つの手段の位置関係(距離や方向等)に依存して変わってよい。
 図2Bに示すように、ボールレンズ10の半球面を、例えば、表面処理することにより、透過型のスクリーンである画像映出手段20が形成される。図2Bに示すような透過型スクリーンがボールレンズ10の半球面に形成される場合、画像映出手段20は、投影光が投影された投影面の裏面に視点3側から見える画像を映し出す。
 画像映出手段20は、図2Aに示すように、屈折手段1aに対して視点3側と反対側に設けられる。すなわち、画像映出手段20は、表示装置1の外側の視点3に対して、表示装置1の内側に設けられる。図2Bに示すように、画像投影手段21から画像映出手段20に投影された投影光により、ボールレンズ10のような屈折手段1aに対して視点3側と反対側の屈折手段1aの面に形成画像5(図2B中、文字”E”の鏡映像)が形成される。画像映出手段20が、表面処理等により、反対側の屈折手段の面に設けられている場合、画像映出手段20の投影面の裏面に映し出された画像(視点3側から見たら、文字”E”の正像に見える画像)が、形成画像5になる。この場合、画像映出手段20の投影面の投影画像も、画像映出手段20画像5(視点3と反対側から見たら、文字”E”の鏡映像に見える画像)になる。
 図2Aに示すように、画像映出手段20は、配置支持手段1bにより形成される凸形状の法線方向に、形成画像5の中心とする部分が向くように設けられる。すなわち、画像映出手段20の中心部(形成画像の中心とする部分)が凸形状の法線方向に向くように、各屈折手段1aが配置支持手段1bにより支持される。画像映出手段20の中心部と屈折手段1aの中心部とを結ぶ線が、配置支持手段1bの凸形状の面に対して、垂直方向になる。
 視点3側と反対側の屈折手段1aの表面に形成された形成画像5の光は、屈折手段1aの内部を通過して、屈折手段1aから外部に出るとときに屈折し、視点3に達する。形成画像5のうち、視点3の方向に対応した一部分(部分形成画像)が、屈折手段1aにより拡大される。ここで、表示装置1の各屈折手段1aには、視点側からこれらの部分形成画像が拡大された画像(表示要素画像)として見えて、視点側から見える表示装置1の屈折手段1aの全体で、表示要素画像が合成されて、立体物や視点方向に合わせた平面画像などの、3次元空間表現が見える。なお、部分形成画像は、後述する領域画像に対応する。
 画像投影手段21(画像形成手段の一例)は、制御装置50(表示装置用の情報処理装置の一例)に接続され、制御装置50によって制御される。画像投影手段21は、屈折手段1aに対して視点3側と反対側から屈折手段1aに向かう投影光を出力(または投射)する。画像投影手段21から出力された投影光により、画像映出手段20の投影面に投影画像が形成される。投影画像の光が画像映出手段20を透過して、投影面の裏側に画像が映し出される。映し出された画像の光により、屈折手段1aの表面に形成画像が形成される。このように、画像映出手段20および画像投影手段21は、屈折手段に対して視点側と反対側の面に形成画像を形成する画像形成手段の一例である。
 制御装置50は、画像投影手段21から出力する投影光が画像映出手段20の投影面に形成する投影画像の画像データを生成する。制御装置50は、投影画像が画像映出手段20の投影面に形成されるような投影光を、画像投影手段21から出力するように、画像投影手段21を制御する。
 また、各画像映出手段20の投影面の投影画像が、画像投影手段21からの投影光によって、全ての屈折手段1aにおいて同一または類似する形成画像5を形成する場合、表示装置1に、視点3を変えても、同一または類似する画像が表示される。
 ここで、凸形状の曲面に配置された屈折手段1aにおいて、隣り合った各屈折手段1aの一例として、屈折手段1aを中心とした各方向で、最近接にある他の屈折手段1aや、2番目に近い他の屈折手段1aが挙げられる。
 制御装置50には、画像が表示された表示装置1を撮影する撮影装置9が接続されている。
(1.2 屈折手段の構成および機能)
 次に、屈折手段1aの構成および機能について詳細に説明する。
 屈折手段1aは、ガラス、プラスティック等の光を屈折して透過させる材質からなるレンズである。屈折手段1aの色は、光を透過できればよいので、透明に限らず、着色されたガラス等でもよい。
 屈折手段1aは、少なくとも一部の断面が円形状である。屈折手段1aの立体形状は、球形、円柱、楕円体、円錐形等である。例えば、屈折手段1aの一例として、ボールレンズ、円柱レンズ等が挙げられる。さらに、屈折手段1aの立体形状は、円柱が樽のように膨らんだ形状、または、円柱が鼓のようにくびれた形状、円錐形状や円錐台形状でもよい。
 ここで、屈折手段1aの断面の形状である円形状は、真円に限らず、多少歪んでいてもよい。例えば、視点3から見て、表示装置1による表示される画像の形状が、表示装置1全体として、真円の場合の画像と認識できる程度に、真円から変形したり、歪んだりしてもよい。
 さらに、図4Aから図4Dに示すように、屈折手段1aの断面の円形状は、視点3から見て、表示装置1による表示される画像の見え方に、屈折手段内部における反射(内部反射)の影響が気にならない程度、多少楕円形等の両凸の構造であってもよい。例えば、図4Aに示すように、屈折手段1aが楕円体で、楕円体の軸が視点3に向き、屈折手段1aの断面の円形状が、多少楕円になってもよい。また、図4Bに示すように、屈折手段1aが、2つの半球で薄い円板を挟む形状のレンズで、屈折手段1aの断面の円形状が、長方形を半円で挟む形状でもよい、図4Cに示すように、ボールレンズの一部がカッティングされ、屈折手段1aの断面の円形状が、円の一部が削られた形状でもよい。図4Dに示すように、視点3側に対して、手前側の屈折手段1aの曲面と、奥行き側の屈折手段1aの曲面とで曲率が、多少異なってもよい。
(1.3 配置支持手段の構成および機能)
 次に、配置支持手段1bの構成および機能について、図5Aから図8Bを用いて、詳細に説明する。
 配置支持手段1bは、樹脂、粘土等のボールレンズ等の屈折手段1aを連結して配置を規定できる材質を有する。
 なお、接着剤でフレキシブルに連結した屈折手段1aを、凸の面を有する支持台の上に載せるようにしてもよい。この場合、配置支持手段1bは、接着剤および支持台である。また、配置支持手段1bは、画像映出手段20を付けた屈折手段1aを、可塑性の素材に半分ほど埋め込むことで支持してもよい。また、屈折手段1aの形状が円柱、楕円体、円錐形のような棒状である場合、配置支持手段1bは、屈折手段1aを差し込んで固定する支持台でもよい。
 次に、屈折手段1aの配置例について説明する。
 配置支持手段1bは、複数の屈折手段1aを、視点3側に対して凸形状に配置する。例えば、図5Aに示すように、屈折手段1aが、円形状s1に配列されてもよい。この場合、各屈折手段1aの3次元配置は、球形、半球形、円柱形、楕円体等である。半球形、円柱形、楕円体の場合、ある切断面で円形状s1の配置になる。
 画像映出手段20により屈折手段1aの面に形成される形成画像の向きは、図5Aに示すように、屈折手段1aの配置形状(円形状s1)に対して垂直方向になる。すなわち、形成画像の中心とする部分(例えば、画像映出手段20の中心部)が、凸形状の法線方向に向くように、各屈折手段1aが配置されている。
 また、図5Bに示すように、屈折手段1aが、楕円形状s2に配列されてもよい。この場合、各屈折手段1aの3次元配置は、例えば、楕円柱形、楕円体等である。楕円柱形、楕円体のある切断面で楕円形状s2の配置になる。画像映出手段20により屈折手段1aの面に形成される形成画像の向きは、図5Bに示すように、屈折手段1aの配置形状(楕円形状s2)に対して垂直方向になる。すなわち、形成画像の中心とする部分(例えば画像映出手段20の中心部)が、凸形状の法線方向に向くように、各屈折手段1aが配置されている。
 また、図6Aに示すように、凸形状は、各屈折手段1aの中心を通る形状に限らず、各屈折手段1aに内接または外接する形状s3に設定してもよい。画像映出手段20により屈折手段1aの面に形成される形成画像の向きは、図6Aに示すように、内接または外接する形状s3に対して垂直方向になる。
 また、凸形状(形状s3)は、図5Aおよび図5Bのように閉じた形状でなくて、図6Aに示すように開いた形状でもよい。すなわち、凸形状は、閉じた円形状、閉じた楕円形状のように閉じた凸形状でなくても、これらの一部の形状でもよい。
 また、図6Bに示すように、凸形状は、各屈折手段1aの中心付近を直線で結んだ多角形s4でもよい。すなわち、各屈折手段1aの3次元配置が、各屈折手段1aの中心付近を頂点とする凸の多面体でもよい。
 画像映出手段20により屈折手段1aの面に形成される形成画像の向きは、図6Bに示すように、多角形の頂点において、多角形に接する1つの面に対して垂直方向になる。
 また、図6Bに示すように、各屈折手段1aは等間隔に配置されなくてもよい。
 また、配置支持手段1bによる同じ凸形状s5に、図7Aに示すように、小さい屈折手段1a(例えば、直径の小さいボールレンズ)が配置されても、図7Bに示すように、大きい屈折手段1a(例えば、直径の大きいボールレンズ)が配置されてもよい。図7Aに示すように、小さい屈折手段1aの場合、表示装置1による表示される3次元空間表現の表示の解像度が高くなる。
 また、配置支持手段1bにより屈折手段1aが配置される凸形状の大きさは、表示装置1の大きさに依存する。例えば、図7Cに示すように、表示装置1の大きさが小さくなると、凸形状s6の曲率が大きくなる。図7Cは、図7Aと同じ大きさの個々の屈折手段1aを用いて、配置支持手段1bの半径が小さい例を示す。この場合、図7Cの表示装置1に表示される3次元空間表現は、図7Aと比較して、表示される3次元空間表現の大きさは表示装置1の大きさに合わせて小さくなるが、同じ3次元空間表現になる。
 また、図8Aに示すように、必ずしも全ての屈折手段1aが、配置支持手段1bにより形成される凸形状s7の線上に配置されていなくてもよい。例えば、一部の屈折手段1aが、表示装置1の設計上の凸形状s7より、視点3側(表示装置1の外側に)配置されたり、視点3側とは逆の内側(表示装置1の内側)に設置されたりしてもよい。
 これらの場合、表示装置1の3次元空間表現において、このような一部の屈折手段1aが担当する表現の部分が、作成前に予定していた設計の形状通りにならなくてもよい。この場合、表示装置1が表示する3次元空間表現全体において、一部の画像映出手段20が担当する表現の部分がずれた3次元空間表現になる。
 また、図8Aに示すように、必ずしも全ての画像映出手段20による屈折手段1aの面に形成される形成画像の向きは、表示装置1の設計上の凸形状s7に、正確に垂直にならなくてもよい。このような一部の画像映出手段20が担当する表現の部分が、作成前に予定していた設計の方向の通りにならなくてもよい。この場合、表示装置1が表示する3次元空間表現全体において、一部の画像映出手段20が担当する表現の部分がずれた3次元空間表現になる。
 なお、画像の中心とする部分が凸形状の法線方向に向くようにとは、画像映出手段20により屈折手段1aの面に形成される形成画像の向きは、表示装置1の設計上の凸形状s7に、正確に垂直である必要は無く、表示装置1全体として、各画像映出手段20により屈折手段1aの面に形成される形成画像の向きが正確に垂直である場合の3次元空間表現と認識できる程度に、画像映出手段20により屈折手段1aの面に形成される形成画像の向きが垂直からずれていてもよい。
 また、図8Bに示すように、屈折手段1aの大きさが、それぞれ異なってもよい。例えば、視点3から見て、表示装置1全体として、各屈折手段1aの大きさが同じ場合の3次元空間表現と認識できる程度に、各屈折手段1aの大きさは、それぞれ異なってもよい。なお、図3Aに示すようなボールレンズ10が3次元配置された表示装置1を、どのような断面で捉えるかにより、一部の屈折手段1aの断面積が小さくなることもある。
 また、屈折手段1aの屈折率が、それぞれ異なってもよい。例えば、視点3から見て、表示装置1全体として、各屈折手段1aの屈折率が同じ場合の3次元空間表現と認識できる程度に、各屈折手段1aの屈折率は、それぞれ異なってもよい。
 なお、各画像形成手段の形成する形成画像の中心とする部分が凸形状の法線方向に向くように、各屈折手段1aが配置されると、各屈折手段1aを、視点3からの各屈折手段1aの断面形状が同じ形状になる。すなわち、特に、屈折手段1aが、円柱形、楕円体、円錐形などのように、方向性がある立体の場合、各屈折手段1aの向きがほぼ揃うように、各屈折手段1aが配置される。なお、各屈折手段1aの断面形状が、厳密に同じある必要は無く、視点3から各形成画像5を見て、表示装置1全体で、形成画像が合成された3次元空間表現が認識されるようであればよい。
 また、配置支持手段1bにより屈折手段1aが配置される凸形状は、球面形状と円筒面形状とをつなぎ合わせた形状でもよい。例えば、表示装置1の全体の形状が、2つの半球面で円筒面を挟むようにつなぎ合わせた形状でもよい。このように、各屈折手段1aの3次元配置は、球面、半球面、円筒面、楕円体面等の組み合わせでもよい。
 なお、表示装置1の全体の形状が、複数の凸形状が組み合わされた形状でもよい。この場合、凸形状と凸形状とのつなぎ目の部分は、必ずしも凸形状になっていなくてもよい。例えば、4つ葉のように、4方向に凸形状が形成されていてもよい。
 また、屈折手段1aの配置に関して、凸形状であればよいので、球面形状は、球面に類似した形状でもよい。また、屈折手段1aの配置に関しても、円筒面形状は、円筒面が樽のように膨らんだ形状、円筒面が鼓のようにくびれた形状、または、円錐面の頂点側が削られた形状のように、円筒面に類似した形状でもよい。
(1.4 画像映出手段の構成および機能)
 次に、画像映出手段20の構成および機能について、図9Aから図10を用いて、詳細に説明する。
 画像映出手段20は、例えば、透過型のスクリーンの機能を有する。屈折手段1aの視点3側と反対側の表面を半透明にする処理や表面処理を施したり、屈折手段1aの視点3側と反対側の表面に半透明のシート(例えば、つや消しのポリエステル等のフィルム)を貼ったり、半透明の塗料を塗布したりして、画像映出手段20が設けられる。屈折手段1aの反対側の表面が、研き砂や薬品等で表面処理されて、細かい凹凸が生じ、磨りガラスまたは曇りガラスのようになる。
 例えば、図2Bに示すように、ボールレンズ10の半球面を表面処理することにより、半球形状の画像映出手段20が形成される。
 画像映出手段20は、ビニールまたはアクリル等樹脂、ガラス製等の半透明のスクリーンでもよい。
 画像映出手段20は、投影光が投影された投影面の裏面に画像を映し出す機能を有すればよく、投影光が投影された投影面での光の反射が少なく、画像映出手段20を透過して裏面から散乱光を放射してもよい。画像映出手段20に映し出された画像が、屈折手段1aにより像が拡大されて、視点3側から見える。
 画像映出手段20は、図9Aに示すように、透明な材質からなる屈折手段1aの半面を覆うように設けられてもよい。なお、図9Aは、透明のボールレンズ10の表面に半球状に、画像映出手段20が形成された場合の断面を示す模式図である。なお、円柱レンズが、半円筒面形状の画像映出手段20が設けられた場合の断面でもよい。
 半球状の画像映出手段20の中心部とボールレンズ10の中心部とを結ぶ線が、配置支持手段1bの凸形状の面に対して、垂直方向になる。また、円柱レンズの場合、円柱レンズの中心線と、半円筒面形状の画像映出手段20の中心線を垂直に結ぶ線が、配置支持手段1bの凸形状の面に対して、垂直方向になる。
 図9Bに示すように、半球状の画像映出手段20が設けられたボールレンズ10の表面に、画像投影手段21から投影光が投影され、形成画像5が形成される。なお、ボールレンズ10の表面に形成された形成画像5を、形成画像5が形成された側から見ると、形成画像5は、鏡映の画像である。
 また、形成画像5の中心部分は、必ずしも画像”E”自体の中心とは限らず、ボールレンズ10が、配置支持手段1bにより各ボールレンズ10が固定された後、配置支持手段1bにより形成された凸形状面の法線が、ボールレンズ10の中心部を通り、視点3側と反対側のボールレンズ10と面と交差する位置が、形成画像の中心とする部分である。
 図10Aに示すように、画像映出手段20は、屈折手段1aに密着させず、屈折手段1aとの隙間があるように設けてもよい。図10Bに示すように、画像映出手段20は、屈折手段1aの面の形状に、沿った形状でなくてもよい。屈折手段1aの断面の形状が円形状の場合、画像映出手段20の断面形状が、円形状に限らず、楕円形状でもよい。画像投影手段21から投影光が画像映出手段20の投影面に投影され、画像映出手段20の投影面の裏面に画像が映し出され、映し出された形成画像が、屈折手段1aを通して、視点3側から見えればよい。
 図11Aに示すように、画像映出手段20の形状は、平面でもよい。図11Bに示すように、平面の画像映出手段20は、屈折手段1aの断面形状の大きさより、大きくすることで、形成画像が見える視野角が広くなる。
 図11Cに示すように、画像映出手段20は、各屈折手段1aに対して視点3側とは反対側に、一体となるように形成してもよい。例えば、各屈折手段1aが球面形状に配置される場合、画像映出手段20は、球面形状になり、各屈折手段1aが円筒形状に配置される場合、画像映出手段20は、円筒形状になる。
 図12Aおよび12Bに示すように、画像映出手段20は、複数の平面から構成されてもよい。
 図4Aから図4Dに示すように、視点3の反対側の屈折手段1aの面に画像映出手段20が設けられる。
(1.5 制御装置および画像投影手段の構成および機能)
 次に、制御装置50および画像投影手段21の構成および機能について、図13から図14を用いて、詳細に説明する。
 情報処理装置8の一例である制御装置50は、コンピュータの機能を有する。制御装置50は、出力部51と、記憶部52と、通信部53と、入力部54と、入出力インターフェース部55と、制御部56と、を備えている。そして、制御部56と入出力インターフェース部55とは、システムバス57を介して電気的に接続されている。また、制御装置50は、画像投影手段21および撮影装置9に、有線または無線で接続されている。制御装置50は、表示装置1に表示される3次元空間表現を、ある視点方向の、ある距離から、を撮影した撮影画像の画像データを、撮影装置9から取得する。
 なお、制御装置50は、撮影装置9の位置を制御してもよい。例えば、撮影装置9の撮影方向(視点方向)および表示装置1から撮影装置9までの撮影距離(視点距離)を制御する。制御装置50は、撮影装置9の位置を制御する代わりに、撮影装置9が設置された撮影方向および撮影距離を、撮影された撮影画像から特定してもよい。また、所定の撮影方向および撮影距離に撮影装置9を予め設定して、撮影装置9が表示装置1の表示3次元空間表現を画像として撮影してもよい。撮影装置9がGPS(Global Positioning System,)やジャイロセンサを備え、撮影装置9の撮影方向および撮影距離が特定さえるようにしてもよい。
 出力部51は、各屈折手段に配置した各画像映出手段20に、形成画像データを出力する。出力部51には、形成画像を印刷するプリンタが接続されていてもよい。なお、屈折手段の表面に直接形成画像が印刷されてもよい。樹脂製、紙製、金属製等のフィルムに形成画像を印刷し、形成画像が印刷されたフィルムを屈折手段の表面に貼り付けてもよい。
 記憶部52は、例えば、ハードディスクドライブ、ソリッドステートドライブ等により構成されている。記憶部52は、表示装置1に表示する3次元空間表現データを記憶する。
 また、記憶部52は、オペレーティングシステム等の各種プログラムや各種ファイル等を記憶する。記憶部52は、画像生成のプログラム、画像調整のプログラム等の制御装置50が実行するプログラムを記憶する。なお、3次元空間表現データ、各種プログラム等は、例えば、外部からネットワークを介して取得されるようにしてもよいし、記録媒体に記録されてドライブ装置を介して読み込まれるようにしてもよい。
 通信部53は、外部の装置との通信状態を制御するようになっている。制御装置50は、通信部53を介して、無線または有線でインターネット等のネットワークと接続してもよい。
 入力部54は、例えば、御号等を受け付けるためのコネクタである。
 入出力インターフェース部55は、出力部51および記憶部52等と制御部56との間のインターフェース処理を行うようになっている。
 制御部56は、CPU(Central Processing Unit)56a、ROM(Read Only Memory)56b、RAM(Random Access Memory)56c等を有する。そして、制御部56は、CPU56aが、ROM56bや記憶部52に記憶された各種プログラムのコードを読み出し実行することにより、投影画像の画像データを生成したり、投影画像を画像映出手段20の投影面に形成するような投影光の制御データや画像データを画像投影手段21に送信したりする。
 制御装置50は、表示装置1の外部から接続しても、表示装置1の内部に設置してもよい。制御装置50は、パーソナルコンピュータ、スマートフォン、タブレット端末等でもよく、プロジェクタ等の画像投影手段21に接続して、投影光の制御データや投影する画像データを送信してもよい。
 画像投影手段21は、例えば、投影面に画像を投影するプロジェクタである。例えば、プロジェクタは、CRT(Cathode Ray Tube)プロジェクタ、液晶プロジェクタ、DMD(Digital Mirror Device)プロジェクタ、LCOS(Liquid Crystal On Silicon)プロジェクタ、GLV(Grating Light Valve)等である。また、画像投影手段21は、液晶ディスプレイまたは有機EL(Electro Luminescence)ディスプレイ等でもよい。これらのディスプレイは、曲面型、平面型、フレキシブル型でもよい。画像投影手段21は、レーザ光をスキャンさせて、投影面に画像を投影してもよい。
 画像投影手段21の一例のプロジェクタは、光源ランプ、透過型または反射型の映像部、投影レンズ、インターフェース等を有する。プロジェクタのインターフェースは、制御装置50の出力部51に接続する。プロジェクタは、インターフェースを介して、制御装置50から形成画像用データを取得する。
 制御装置50は、画像投影手段21の電源のON/OFF、および、投影方向等を制御してもよい。また、制御装置50は、画像投影手段21の投影レンズ、画像投影手段21から画像映出手段20に投影される投影光の角度、画像映出手段20の形状、屈折手段の表面形状等を計算して、投影画像を生成する。制御装置50は、屈折手段の表面に、表示装置1に表示画像が表示されるように設計された形成画像が形成されるように、投影画像の画像データを生成し、投影画像が画像映出手段20の投影面に形成されるように、画像投影手段21の投影光を制御すればよい。投影画像を画像映出手段20の投影面に形成するように、画像投影手段21の投影光を制御する機能は、画像投影手段21にあってもよい。
 図14に示すように、複数の画像投影手段21が、複数の方向から投影光を画像映出手段20の各面(画像映出手段20の所定の部分、または、所定の領域)にそれぞれ投影してもよい。画像映出手段20の各面に映し出された投影画像により、屈折手段1aの対応する面の形成画像が形成される。なお、各面は、曲面における所定の部分でもよい。半球面形状や曲面形状の画像映出手段20に対しても、複数の画像投影手段21が、複数の方向から投影光を画像映出手段20の投影面における所定の部分に投影してもよい。
 ここで、各屈折手段1aにおいて同一または類似する形成画像は、各形成画像が多少異なってもよく、視点3から見て、各屈折手段1aの表示要素画像の全体で、表示装置1の3次元空間表現を認識できればよい。
[2. 表示装置の作用]
 次に、表示装置の作用について、図を用いて説明する。
(2.1 屈折手段の光路)
 まず、屈折手段の光路について、図15、図16Aおよび図16Bを用いて説明する。
 図15は、屈折手段における光路の一例を示す模式図である。図16Aおよび図16Bは、片凸の構造を有するレンズにおける反射の一例を示す模式図である。
 ここで、図15に示すように、屈折手段1aの大きさは、視点3から屈折手段1aまでの距離に対して、十分小さい場合を考える。この場合、視点3から屈折手段1aまでの距離は、無限遠と見なせる(屈折手段1aと視点3の距離と比較して、屈折手段1aが小さくない場合は、図15のような平行な光路にならないが、効果は同様であるため、図15で光路を説明する)。
 断面が半径rの屈折手段1aにおける光路(幅2r)は、平行の光路が屈折手段1aで屈折して、視点3側と反対側で、屈折手段1aの円弧の部分(長さa)に達し、屈折手段1aの外部に出る。なお、屈折手段1aの断面形状が円形状なので、視点3の視覚方向をずらしても、同様な光路になる。
 一方、図16Aおよび図16Bに示すように、屈折手段の断面形状が半円の場合、法線方向に対して、視点3の角度θdが大きくなると、屈折手段内部での反射(内部反射)が生じるようになる。すなわち、片凸の構造のレンズの場合、視点3から、外光が見えることになる。
 しかし、図15に示すように、屈折手段1aの断面形状が円形状であると、屈折手段1aに入射した光の屈折手段1a内部での反射がない。
 なお、長さaの円弧が、幅2rまで拡大されるので、屈折手段1aの拡大率は、おおよそ2r/aとすることができる。
(2.2 視点からの各形成画像の見え方)
 次に、各視点からの形成画像の見え方について図17および図18を用いて説明する。図17は、視点と各屈折手段の形成画像との関係の一例を示す模式図である。図18は、視差と3次元空間表現との関係の一例を示す模式図である。
 図17に示すように、屈折手段10a、10b、10c、10dが、配置支持手段1bにより、中心Cの半径Rの円形s10(凸形状の一例)に並んでいるとする。屈折手段10a、10b、10c、10dの中心cと、配置の中心Cとの距離はRである。なお、視点とレンズの距離がレンズのサイズや配置される径と比較して特別大きくはない場合、視点と各レンズを結ぶ線は、放射状になる。
 各屈折手段10a、10b、10c、10dには、記号であるダガー、ダイヤおよびスペードの順に並んでいる形成画像の部分画像であるダガーの部分画像5a、ダイヤの部分画像5b、スペードの部分画像5cが並んでいるとする。また、この例では、形成画像の中心とする部分が、ダイヤの部分画像5bであるとする。なお、記号であるダガー、ダイヤおよびスペードの順に並んでいる形成画像は、画像投影手段21から投影した投影光により、画像映出手段20の投影面に映し出されて形成されている。また、後述するディスプレイ手段の場合、記号であるダガー、ダイヤおよびスペードの順に並んでいる形成画像は、ディスプレイ手段の表示面に表示されて形成される。
 形成画像の中心とする部分であるダイヤの部分画像5bは、屈折手段の中心cと、屈折手段の配置の中心Cとを結ぶ線上にある。形成画像の中心とする部分であるダイヤの部分画像5bと、屈折手段の中心cとを結ぶ線は、中心Cの半径Rの円形s10(凸形状の一例)の法線方向である。すなわち、形成画像の中心とする部分であるダイヤの部分画像5bの向きは、円形s10(1b)の法線方向である。
 視点3aから表示装置1を見ると、屈折手段10aには、ダガーの部分画像5aが中心に見え、屈折手段10bには、ダイヤの部分画像5bが中心に見え、屈折手段10cには、スペードの部分画像5cが中心に見える。
 各屈折手段10a、10b、10cの拡大機能より、視点3aから、屈折手段10aには、ダガーの部分画像5aが、拡大された部分画像6aのように見え、屈折手段10bには、ダイヤの部分画像5bが、拡大された部分画像6bのように見え、屈折手段10cには、スペードの部分画像5cが拡大された部分画像6cのように見える。
 従って、屈折手段10aの部分画像6aと、屈折手段10bの部分画像6aと、屈折手段10cの部分画像6cとを合わせて、表示装置1の内部空間に、視点3aからの視線に垂直な平面が存在し、その平面に、記号であるダガー、ダイヤおよびスペードの順に並んでいる表示合成画像が表示されているような3次元空間表現ができる。
 一方、視点3bから表示装置1を見ると、屈折手段10bには、ダガーの部分画像5aが中心に見え、屈折手段10cには、ダイヤの部分画像5bが中心に見え、屈折手段10dには、スペードの部分画像5cが中心に見える。
 各屈折手段10b、10c、10dの拡大機能より、視点3bから、屈折手段10bには、ダガーの部分画像5aが拡大された部分画像7aのように見え、屈折手段10cには、ダイヤの部分画像5bが拡大された部分画像6bのように見え、屈折手段10dには、スペードの部分画像5cが拡大された部分画像7cのように見える。
 従って、屈折手段10bの拡大された部分画像7aと、屈折手段10cの拡大された部分画像6bと、屈折手段10dの拡大された部分画像7cとを合わせて、表示装置1の内部空間に、視点3bからの視線に垂直な平面が存在し、その平面に、記号であるダガー、ダイヤおよびスペードの順に並んでいる表示合成画像が表示されているような3次元空間表現ができる。
 以上のように、視点3aから見た場合と視点3bから見た場合では、異なる表示装置1の内部空間に、異なる配置の平面が表現され、その平面は、各屈折手段の拡大された部分要素画像から合成された、記号であるダガー、ダイヤおよびスペードの順に並んでいる表示合成画像が表示されているような、観察する角度に応じた異なる3次元空間表現ができる。
 また、図17の例で、視点3aから3bに移動しながら表示装置1を見ると、記号であるダガー、ダイヤおよびスペードの順に並んでいる表示合成画像が、面P1から面P2へと、表示装置内に表現された3次元空間で、屈折手段の配置の中心Cを中心軸として回転しながら、視点方向の変化に対して正面を向く平面に表示されているような空間表現ができる。
 また、図18に示すように、図17のような表示を両眼(視点3cおよび視点3d)で見ると、それぞれの眼について視点3c、3dと各屈折手段の配置の中心Cとを結ぶ線と、円形s10との交点付近にある各屈折手段におけるダイヤの各部分画像5bが見える。よって、ダイヤの部分画像5bは、両眼の視線の交点である屈折手段の配置の中心C付近に、拡大された部分画像6cが表示されているように見える。こうして、観察している視点3aと3bの視点方向の大きな変化による3次元空間表現に加えて、ある方向から観察している場合の、両眼の視差によるわずかな角度の違いによって、記号であるダイヤの並んでいる空間位置までの距離が表示装置1の中に存在するような奥行き感も与えることができる。
[3. 制御装置の動作]
 次に、制御装置50の動作について、図19から図26を用いて説明する。
(3.1 画像生成の動作例)
 視点方向が1つ、または、2つであって、図3Bに示すように、屈折手段1aの一例の円柱レンズ11が、凸形状の一例の円筒形状に配置されている場合を例示して、制御装置における画像生成の動作例について、図19から図22Dを用いて説明する。図19は、制御装置における画像生成の動作例を示すフローチャートである。図20A、図21A、および、図22Aは、表示合成画像と表示要素画像との関係を示す模式図である。図20B、図21B、図22B、および、図22Cは、3次元空間表現データの中の、ある1つの角度データに対応する平面画像データの一例を示す模式図である。図20C、図21C、図22Dは、形成画像の一例を示す模式図である。
 図19に示すように、制御装置50は、1つ以上の視点方向の角度データとそれに対応する1つ以上の平面画像データとを有する3次元空間表現データを取得する(ステップS10)。具体的には、制御装置50の制御部56が、1つ以上の視点方向の角度データに基づき、記憶部52から、その角度データに対応した各視点方向から3次元空間表現を見た時の平面画像データを取得する。
 例えば、図20Aに示すように、ある3次元空間表現を、ある1つの視点方向から見た時に、表示装置1の中心軸を含む位置に平面が存在し、その平面に、例えば、図20Bに示すように、図中右向きの三角形が描かれた画像があるように見える平面画像oPを想定する。平面画像oPの幅は、wとし、表示装置1(円筒形状の配置支持手段1b)の直径2Rに対応する。
 図21Aに示すように、視点方向が1つで、表示装置1の表面の半面に、視点方向に凸の曲面の平面画像oPが存在するような3次元空間表現想定してもよい。図21Bに示すように、平面画像oPの幅は、表示装置1(円筒形状の配置支持手段1b)の半円周πRに対応する。
 図22Aに示すように、2つの視点方向から見て異なる平面が存在し、視点Aから見ると、図22Bに示すような、図中右向きの三角形の画像が円筒の軸の中心を通る視線に垂直な平面が存在するように見えて、視点Bから見ると、図22Cに示すような、図中左向きの画像が視点Bからの視線に垂直な平面に存在するように見える場合、視点Aからは、図22Bの平面画像oP1のように見え、視点Bからは、図22Cの平面画像oP2のように見える。制御部56は、平面画像oP1と平面画像oP2とを、対応する角度データに合わせた3次元空間表現データを取得する。
 なお、ここでは、視点方向が1つ、または、2つの場合を例示しているが、各視点方向の個数は、屈折手段の個数分でもよいし、屈折手段の個数より多くてもよい。各視点方向の個数は、屈折手段の個数分でもよいし、屈折手段の個数より少なくてもよく、1つでもよい。また、視点方向は、1つの角度でも、0°から45°、46°から90°のように角度範囲でもよい。
 次に、制御装置50は、所定の屈折手段における法線方向と各視点方向との各角度を算出する(ステップS11)。具体的には、制御装置50の制御部56が、形成画像を生成する1つの屈折手段1aを選択し、表示装置1における屈折手段1aの配置の位置のデータを取得する。
 図3Bに示すように、円柱レンズ11が円筒形状に配置されている場合、制御部56が、法線方向として、表示装置1の中心軸を基準に、円柱レンズ11の配置の配置角度を算出する。なお、制御部56が、表示装置1の中心軸から1つの円柱レンズ11の中心へ伸びる直線を、法線として算出してもよい。
 制御部56が、表示装置1の中心軸から各視点3の視点角度を、視点方向のデータとして取得する。制御部56が、円柱レンズ11の配置角度と、各視点3の視点角度との差から、法線方向と各視点方向との各角度を算出する。例えば、図20A、図21Aに示すように、制御部56が、角度θを算出する。視点方向が2つの場合、図22Aに示すように、制御部56が、所定円柱レンズ11に対して、視点Aに対して角度θ、および、視点Bに対して角度φを算出する。算出された各角度が、所定の前記屈折手段における前記凸形状の法線方向と前記視点側の所定の視点方向とにより規定される角度の一例である。
 次に、制御装置50は、平面画像データの各平面画像から、角度に応じて屈折手段に対する領域画像を抽出する(ステップS12)。例えば、制御装置50は、各視点方向と各視点方向の平面画像を取得する。より具体的には、制御装置50の制御部56が、図20Bに示すように、角度θに対して、平面画像oPの中心線からwθ/πの位置に、平面画像oPの画像データから、幅Δの領域画像d1の画像データを抽出する。幅Δは、wa/(rπ)でも、幅Δは、2rでもよい。図15に示すように、aは、円柱レンズの屈折率に応じた長さ、rは、円柱レンズの半径である。または、制御部56が、図21Bに示すように、角度θに対して、平面画像の中心線からθRの位置に、平面画像oPの画像データから、幅Δの領域画像d1の画像データを抽出してもよい。なお、幅Δは、正確にwa/(rπ)または2rでなくてもよい。これらは幅Δの目安の値である。
 図22Aに示すように、視点方向が2つの場合、制御部56は、図22Bに示すように、角度θに対して、平面画像oP1の中心線からwθ/πの位置に、平面画像oP1の画像データから、幅Δの領域画像d1を抽出し、図22Cに示すように、角度φに対して、平面画像oP2の中心線からwφ/πの位置に、平面画像oP2の画像データから、幅Δの領域画像d2の画像データを抽出する。
 このように制御装置50は、前記表示装置において表示対象を3次元空間表現するための3次元空間表現データから、前記3次元空間表現に見えるように各屈折手段に表示される表示要素画像の画像データを抽出する抽出手段の一例として機能する。制御装置50は、3次元空間表現データのうち、前記平面画像データから、所定の各屈折手段に対応した領域画像を領域画像データとして各々抽出する抽出手段の一例として機能する。
 また、制御装置50は、所定の前記屈折手段における前記凸形状の法線方向と前記視点側の所定の視点方向とにより規定される角度に応じて、前記所定の視点方向から見える3次元空間表現の前記平面画像データから、所定の各屈折手段に対応した領域画像を領域画像データとして抽出する抽出手段の一例として機能する。このように、領域画像の大きさ(例えば、幅Δ)が、屈折手段の大きさ(例えば、レンズの半径r)に応じて規定される。
 次に、制御装置50は、屈折手段を通して形成画像の一部分が拡大され、所定の視点方向から領域画像として見えるように各領域画像を形成画像上の部分画像に変形する(ステップS13)。例えば、制御装置50は、形成画像の形状に合わせて各領域画像を変形する。より具体的には、制御装置50の制御部56が、形成画像fPを形成する円柱レンズの片側の半面に合わせて、平面画像oPが変形するように、領域画像d1を変形した部分画像td1の画像データを生成する。例えば、制御部56が、図20Cまたは図21Cに示すように、幅δの部分画像td1の画像データを生成する。平面画像oPは、形成画像fPの大きさに合わせ、図中、縦長に引き延ばすように変形される。
 図22Aに示すように、視点方向が2つの場合、制御部56は、図22Dに示すように、視点方向に応じた幅δの部分画像td1、td2の画像データを各々生成する。
 次に、制御装置50は、変形した各領域画像を、各角度に応じた位置に配置して形成画像用データを生成する(ステップS14)。具体的には、制御装置50の制御部56が、例えば図20Cまたは図21Cに示すように、形成画像fPの中心線からrθの位置に幅δの部分画像td1を配置した形成画像fPの画像データを生成する。
 図22Aに示すように、視点方向が2つの場合、制御部56は、図22Dに示すように、形成画像fPの中心線からrθの位置に、視点Aの幅δの部分画像td1を配置し、rφの位置に、視点Bの幅δの部分画像td2を配置した形成画像fPの画像データを生成する。
 このように制御装置50は、前記所定の屈折手段を通った光によって、前記表示要素画像が表示されるように、前記所定の屈折手段の視点側と反対側に形成画像を形成するための形成画像用データを生成する画像生成手段の一例として機能する。制御装置50は、各前記領域画像を前記所定の屈折手段の前記反対側の面の形状に合わせるように変形し、当該変形した各領域画像を、当該各領域画像に対応する前記角度に応じた位置に配置して、前記所定の屈折手段の前記形成画像を形成するための形成画像用データを生成する画像生成手の一例として機能する。
 また、制御装置50は、前記領域画像を前記所定の屈折手段の前記反対側の面の形状に合わせるように変形し、当該変形した領域画像を前記角度に応じた位置に配置して、前記所定の屈折手段の前記形成画像を形成するための形成画像用データを生成する画像生成手段の一例として機能する。
 次に、制御装置50は、表示装置1の全ての屈折手段に対して、形成画像用データを生成したか否かを判定する(ステップS15)。
 全ての屈折手段に対して、形成画像用データを生成してない場合(ステップS15;NO)、制御装置50は、次の屈折手段に対して、ステップS11からS14の処理を行う。具体的には、制御部56が、隣の円柱レンズ11に対して、ステップS11からS14の処理を行う。
 全ての屈折手段に対して、形成画像用データを生成した場合(ステップS15;YES)、制御装置50は、処理を終了する。
 制御装置50は、形成画像用データを、画像投影手段21に送信する。画像投影手段21が、形成画像用データに基づいた投影光を画像映出手段20に投影し、各屈折手段1aに、形成画像用データに応じた形成画像が形成される。視点方向に応じて、各屈折手段1aの表示要素画像が見られ、表示装置1に、視点方向に応じた表示合成画像が表示される。なお、後述するディスプレイ手段の場合、制御装置50は、形成画像用データを、各ディスプレイ手段に送信する。
 なお、図20Aから図21Cにおいて、1つの視点方向を例示して、所定の視点方向のみから、3次元空間に平面画像が存在するように見える場合の3次元空間表現を説明した。また、図22Aから図22Dにおいては、2つの視点方向を例示して、所定の2つの視点方向のみから、3次元空間に平面画像が存在するように見える場合の3次元空間表現を説明した。制御装置50は、3つ以上の視点方向から3次元空間に平面画像が存在するように見えるような3次元空間表現に対して、ステップS10からステップS15の処理を行ってもよい。さらに、制御装置50は、ステップ10において、複数の一連の視点方向から見た3次元空間の、複数の平面画像を取得する場合、視点方向を変えることにより、一つの空間が見る角度で次々異なる空間に変化するような表現が可能になる。
 このように制御装置50は、複数の一連の前記視点方向における各視点方向と前記所定の屈折手段における前記法線方向とに規定される各角度に応じて、前記各視点方向から見える各前記3次元空間表現データの各平面画像データから、所定の各屈折手段に対応した領域画像を領域画像データとして各々抽出する抽出手段の一例として機能する。また、制御装置50は、各前記領域画像を前記所定の屈折手段の前記反対側の面の形状に合わせるように変形し、当該変形した各領域画像を、当該各領域画像に対応する前記角度に応じた位置に配置して、前記所定の屈折手段の前記形成画像を形成するための形成画像用データを生成する画像生成手段の一例として機能する。
(3.2 立体物を表現する場合)
 次に、立体の実物からの形成画像の生成について、図23Aから図23Eを用いた説明する。なお、表示装置は、図3Bに示すように、屈折手段1aの一例の円柱レンズ11が、凸形状の一例の円筒形状に配置されている場合について説明する。
 図23Aは、3次元空間表現に対する視点の一例を示す模式図である。図23Bおよび図23Dは、3次元空間表現に対して着目する点の定め方の一例を示す模式図である。図23Cは、平面画像の一例を示す模式図である。図23Eは、形成画像の一例を示す模式図である。
 図23Aに示すように、立体の実物である3次元空間表現(例えば、人の顔)を、視点A(顔を横方向から見た視点)、視点B(45°の斜め方向の視点)、視点C(人物を正面方向から見た視点)、視点D(45°の斜め方向の視点)、視点E(顔を横方向から見た視点)の場合について説明する。
 まず、制御装置50は、ステップ10において、図23Cに示すように、各視点における3次元空間表現データを取得する。3次元空間表現データは、3次元空間表現を1つ以上の視点方向から見た場合に見える平面画像のデータと、そのように見える視点方向の角度データで構成される。
 図23Bに示すように、3次元空間表現(実空間の立体物の一例)である人の頭の立体が円柱(この円柱の表面に屈折手段が配置されているとする。)内に見えるように設計する場合、制御装置50は、各屈折手段に対応し、3次元空間表現の周りに点を設定する。例えば、3次元空間表現である顔の正面から見える画像を生成する場合、制御装置50は、所定の円柱レンズ11に対応して、図23Bに示すように点p1(所定の屈折手段に対応)を設定する。
 制御装置50は、ステップS11において、点p1(所定の屈折手段)における外向きの方向と、各視点方向の角度を算出する。例えば、図23Bに示すように、制御装置50は、顔の正面に当たる円柱レンズ11の角度(表示装置1の中心から円柱レンズ11への方向(法線方向の一例)に対応)と、視点Aから視点Eの各視点方向との角度を算出する。
 なお、3次元空間表現のある視点方向への平面画像は、3次元空間表現を各視点方向から撮像した画像でもよいが、制御装置50は、3次元空間表現の3次元データから、各視点方向からの平面画像の画像データを生成してもよい。
 このように制御装置50が、実空間の立体物から、前記表示装置に3次元空間表現データを生成する原データ生成手段の一例として機能する。例えば、立体物をカメラで撮影するなどの方法で、視点方向(角度)に応じて平面投影した画像データを作成し、その画像データと角度データと紐付けることで、情報処理装置の入力となる3次元空間表現データが生成できる。
 図23Cに示すように、制御装置50は、ステップ12において、様々な視点方向A~Eから円柱を見た時に、点p1に見える部分画像を、各平面画像(例えば、平面画像oPa、平面画像oPc、平面画像oPe)データから抽出する。制御装置50は、各視点の角度と、顔の正面に当たる円柱レンズ11の角度との角度に応じて、幅Δの領域画像(例えば、図23Cに示すように、領域画像de、dc、da)を抽出する。立体の実物の表面に近い部分、すなわち、顔の正面の鼻の部分(点p1)を基点として、視点Aから視点Eに対する領域画像が抽出される。
 図23Bに示すように、表現する立体物や空間の各部分が、他の部分で隠れない限り、広い視点方向から見ることができ、図23Cに示すように、それぞれの視点方向に対応した立体や空間の異なる角度からの情報が見ることができることで、3次元空間表現が認識される。
 図23Bおよび図23Cの例では、顔の正面を中心とした180度の方向から鼻を見ることができ、顔を左(-90度)、正面(0度)、右(+90度)から見た時に、図23Cのように、左、正面、右から見た鼻が、それぞれ、全体の空間の左側、中央、右側に見えることで、3次元空間の中の点p1付近に実際に鼻があるかのように認識できる。片凸のレンズによる表示装置では、各視点方向から見える範囲が狭いため、例えば、図23Cの3つの角度からの全体像の3次元的な空間を表現することが難しい。図23Cの鼻の場合、正面(0度)の視点方向からは鼻が見られるが、左(-90度)や右(+90度)から見た時には、鼻は、平面画像の中央部分に無いため見えない。よって、平面画像の広い領域を、広い視点方向から確認できる表示装置と情報処理装置が必要になる。
 なお、図23Dに示すように、他の所定の屈折手段1aの場合、制御装置50は、この屈折手段1aに対応する点p2で、様々な視点方向を設定する。
 このように制御装置50は、複数の一連の前記視点方向における各視点方向と前記所定の屈折手段における前記法線方向とに規定される各角度に応じて、前記3次元空間表現データの各平面画像データから、所定の各屈折手段に対応した領域画像を領域画像データとして各々抽出する抽出手段の一例として機能する。
 制御装置50は、ステップS13において、図23Eに示すように、各視点の領域画像を幅δの部分画像に変形する。
 制御装置50は、ステップS14において、図23Eに示すように、点p1における各視点方向と、顔の正面に当たる円柱レンズ11の角度との角度に応じた位置に、各視点の部分画像を配置して形成画像を作成し、この所定の円柱レンズ11の形成画像用のデータを生成する。例えば、変形された部分画像tda、tdb、tdc、tdd、tdeが配置される。なお、図23Eにおける黒塗りのところは、視点方向が細かく設定されると、その視点方向に応じて変形された部分画像が配置される。
 ステップS15において“NO”の場合、他の点、すなわち、他の円柱レンズ11に対しても、制御装置50は、同様に形成画像用データを生成する。
 各円柱レンズ11に対して、形成画像用データが生成され、制御装置50がこれらの形成画像用データを送信し、表示装置1が表示すると、表示装置1の中に、3次元空間表現が存在するような画像を表示できる。なお、3次元空間表現が時間とともに変化する(例えば、人の顔の場合、口を動かしたり、瞬きする)動画像の場合、フレーム画像毎に、制御装置50が、これらの形成画像用データを生成する。
 このように制御装置50は、各前記領域画像を前記所定の屈折手段の前記反対側の面の形状に合わせるように変形し、当該変形した各領域画像を、当該各領域画像に対応する前記角度に応じた位置に配置して、前記所定の屈折手段の前記形成画像を形成するための形成画像用データを生成する画像生成手段の一例として機能する。
 ところで、屈折手段が片凸レンズの場合、表示できる範囲が狭くなる。従って、屈折手段が片凸レンズの場合、広い視点方向から表現空間の広い領域を確認できる3次元空間表現を実現することは難しくなる。
(3.3 ボールレンズ10が球面形状に配置された場合の領域画像)
 次に、ボールレンズ10が球面形状に配置された場合の領域画像について図24Aから図24Cを用いて説明する。
 図24Aは、屈折手段の配置の位置関係の一例を示す模式図である。図24Bおよび図24Cは、表示合成画像と表示要素画像との関係の一例を示す模式図である。
 図24Aに示すように、図3Aに示すようなボールレンズ10が3次元配置された表示装置1から、所定のボールレンズ10を一つ取り出して説明する。
 図24Aに示すように、所定のボールレンズ10の座標は、xyz座標系で、座標(x1、y1,z1)であるとする。原点と所定のボールレンズ10とを結ぶ線(長さR)とz軸とのなす角度β、原点と所定のボールレンズ10とを結ぶ線をxy面へ射影した線と、x軸とがなす角αとする。x1=Rsinβ cosα、および、z1=Rcosβであり、平面画像をxz面とすると、平面画像における所定のボールレンズ10の位置関係は、θ1=arctan(z1/x1)、R1=x1+z1となる。
 図24Bに示すように、極座標表示において、領域画像d3は、座標(R1、θ1)の位置に、直径はΔR1またはΔθ1の円形となる。なお、領域画像d3は、座標(R1、θ1)の位置に、ΔR1、Δθの扇形の領域でもよい。
 図24Cに示すように、デカルト座標表示において、領域画像d3は、座標(x1、z1)の位置を中心とした、直径Δx1またはΔz1の円形となる。なお、領域画像d3は、座標(x1、z1)の位置に、Δx1,Δz1の矩形の領域でもよい。
(3.4 画像生成の動作の変形例)
 次に、画像生成の動作の変形例について図25を用いて説明する。図25は、制御装置50における画像生成の動作の変形例を示すフローチャートである。
 この変形例では、制御装置50が、所定の屈折手段を決めるのではなく、所定の視点方向を決めて、各屈折手段における形成画像の部分画像を生成してから、各視点方向に対して順次部分画像を生成することにより、形成画像を生成する。
 図25に示すように、制御装置50は、ステップS10のように、視点方向の角度データと平面画像データを有する3次元空間表現データを取得する(ステップS20)。
 次に、制御装置50は、所定の視点方向と各屈折手段における法線方向との各角度を算出する(ステップS21)。視点方向と屈折手段における法線方向との角度は、ステップS11のように計算される。
 次に、制御装置50は、所定の視点方向の平面画像から、角度に応じて、屈折手段に対する領域画像を抽出する(ステップS22)。ステップS12のように、所定の視点方向の平面画像から角度に応じた各領域画像が抽出される。
 次に、制御装置50は、ステップS13のように、屈折手段を通して形成画像の一部分が拡大され、所定の視点方向から領域画像として見えるように各領域画像を形成画像上の部分画像に変形する(ステップS23)。
 次に、制御装置50は、各屈折手段の形成画像において、変形した領域画像を角度に応じた位置に配置する(ステップS24)。ステップS14のように、制御装置50は、変形した領域画像(部分画像)を角度に応じた位置に配置し、各屈折手段の形成画像において、順次部分画像が配置されて、徐々に形成画像が形成されていく。
 次に、制御装置50は、全ての視点方向に対して、実行されたか否かを判定する(ステップS25)。
 全ての視点方向に対して、実行されてない場合(ステップS25;NO)、制御装置50は、次の視点方向に対して、ステップS21からS24の処理を行う。
 全ての視点方向に対して、実行された場合(ステップS15;YES)、制御装置50は、処理を終了する。これにより、形成画像用データが生成される。
(3.5 画像調節の動作例)
 次に、表示装置1に画像が表示された後における画像の調節の動作例について、図26を用いて説明する。図26は、制御装置50における画像調節の動作例を示すフローチャートである。
 図26に示すように、制御装置50は、生成した形成画像用データにより3次元空間デザインを表現する(ステップS30)。具体的には、制御装置50の制御部56が、形成画像用データを、プロジェクタ等の画像投影手段21に送信する。画像投影手段21が、形成画像用データに基づいた投影光を画像映出手段20に投影し、各屈折手段1aに、形成画像用データに応じた形成画像が形成される。視点方向に応じて、各屈折手段1aの表示要素画像が見られ、表示装置1に、視点方向に応じた表示合成画像が表示され、3次元空間デザインが表現される。
 次に、制御装置50は、各視点方向の撮像画像を取得する(ステップS31)。具体的には、制御部56が、撮影装置9の位置を制御(撮影方向および撮影距離を設定)し、撮影装置9が撮影するように指令の信号を送信し、撮影装置9が、各視点方向から表示装置1に表現された3次元空間デザインを撮影する。制御部56が、撮影装置9から撮影画像の画像データと撮影方向のデータを取得する。
 このように制御装置50は、前記生成した形成画像用データにより表示装置に実現された前記3次元空間デザインを撮影した撮影画像の画像データと撮影方向のデータを取得する画像取得手段の一例として機能する。
 形成画像を部分領域ごとに点滅させる等の方法で、形成画像上の点と表示装置を撮影装置9で撮影した画像の点との対応関係が把握されてもよい
 次に、制御装置50は、取得した撮像画像および撮影方向のデータと、3次元空間表現データの角度データおよび平面画像データとの差異に従って、形成画像用データを調節する(ステップS32)。具体的には、制御部56が、撮影方向のデータと3次元空間表現の角度データが一致する時に、その角度データにそれぞれ対応する撮影画像データと平面画像データとを比較する。撮像画像データにおける各屈折手段1aに対応する部分画像(撮影装置9の撮影方向に対応した部分画像)と、撮影装置9の撮影方向に対応した平面画像であって、撮影装置9の撮影方向と各屈折手段1aの法線方向に対応した領域画像と、を比較し、差異を求める。例えば、比較する部分画像と領域画像との位置のずれ大きさと方向、比較する部分画像と領域画像と大きさの差異および形状の差異等である。
 領域画像と各屈折手段1aに対応する部分画像と比較する場合、制御部56が、画像処理により特徴点(輪郭や内部の点等)を抽出して、特徴点同士を比較してもよい。
 このように制御装置50は、前記撮影画像および前記撮影方向のデータと、前記3次元空間表現データの前記角度データおよび前記平面画像データとの差異に従って、前記形成画像用データを調節する画像調節手段の一例として機能する。
 なお、形成画像用データを調節する際、制御装置50は、ステップS12またはステップS22における領域画像の抽出段階を利用して、調節を行ってもよい。また、制御装置50は、ステップS13またはステップS23における領域画像の変形段階を利用して、調節を行ってもよい。また、制御装置50は、ステップS14またはステップS24における変形した領域画像の配置段階を利用して、調節を行ってもよい。
 このように制御装置50は、前記抽出手段が抽出する前記領域画像を調節することにより、前記形成画像用データを調節する画像調節手段の一例として機能する。制御装置50は、前記画像生成手段が前記変形の仕方を調節すること、または、前記配置の仕方を調節することの少なくとも一方により、前記形成画像用データを調節する画像調節手段の一例として機能する。
 ここで、差異が生じる原因の一例として、屈折手段であるレンズの材質が均質でない、レンズの形状が設計と正確に同じになっていない、レンズの配置(レンズ同士の関係、レンズと形成画像(またはそれを形成するための画像形成手段)の関係)が、設計と正確に同じになっていない、形成画像または画像を形成する画像形成手段の位置が設計と正確に同じになっていない、レンズの形状や材質が時間とともに変化し、設置当初の設計と同じでない等が挙げられる。また、差異が生じる原因の一例として、画像形成手段に画像投影手段(例えば、プロジェクタ)と画像映出手段(例えば、スクリーン)を用いる場合、プロジェクタの位置や投影光の角度が設計と正確に同じになっていない、スクリーンの位置や形状が設計と正確に同じになっていない、プロジェクタとスクリーンの間に反射手段を用いる場合、反射手段の位置、反射面の形状が設計と正確に同じになっていない等が挙げられる。画像形成手段にディスプレイを用いる場合、ディスプレイの位置や形状が設計と正確に同じになっていない等が挙げられる。また、表示装置1が設置された場所の設置環境により、表示装置1が通常見られる、視点方向の視点の位置が異なってくる。例えば、ある視点方向では、障害物があり、表示装置1との視点距離が近くなる場合、合成表示画像は、大きめに見えため、差異が生じることがある。
 次に、制御部56が、撮像画像と平面画像との差異が減少するように形成画像用データを修正する。例えば、比較する部分画像と領域画像との位置のずれの場合、位置ずれの大きさと方向に基づき、制御部56が、形成画像用データを修正する。
 なお、制御部56が、修正後、撮影装置9が撮像を行い、さらに形成画像用データを修正し、できるだけ差異が少なくなるように、処理を繰り返してもよい。
 撮影方向を変えて、各視点方向の平面画像との差異ができるだけ少なくなるように、制御部56が、画像調節を行う。
 以上、説明したように、本実施例に係る表示装置1用の制御装置50によれば、表示対象が所定の視点方向から見える平面画像から、3次元空間表現に見えるように各屈折手段に表示される表示要素画像の領域画像データを抽出し、それに基づいて生成された形成画像用データに従って、表示装置1において、円形状の断面を有し、光を屈折する屈折手段に表示要素画像が表示されるので、広い視点方向から見ることのできる3次元空間デザインを表示装置1に表現できる。
 3次元空間表現データのうち、平面画像データから、所定の各屈折手段に対応した領域画像を領域画像データとして各々抽出し、領域画像を所定の屈折手段の反対側の面の形状に合わせるように変形し、当該変形した各領域画像を、当該各領域画像に対応する角度に応じた位置に配置して、所定の屈折手段の形成画像を形成するための形成画像用データを生成することにより、3次元空間デザインを表示装置に表現できる。
 また、屈折手段と視点方向とにより規定される角度に応じて、領域画像の画像データを抽出し、変形した領域画像を角度に応じた位置に配置して、形成画像用データを生成するので、視点方向に応じて、表示装置に表示する表示画像を容易に変更させることができる。
 また、屈折手段1aの大きさに応じて、表示要素画像の領域画像データを抽出する場合、屈折手段の大きさに合わせた対応させた領域画像を抽出できる。
 複数の一連の視点方向における平面画像の場合、表示空間に、連続して、見る角度に応じて異なる平面が存在し、そこに画像が表示されているような3次元空間表現ができる。
 また、実空間の立体物または3DCGデータから、表示装置に3次元表示するための3次元空間表現データを生成する場合、あたかも立体物の配置された空間が表示装置1の中に存在するように表現することもできる。
 また、制御装置50が、生成した形成画像用データにより表示された表示画像を、撮影装置9が撮影した撮影画像の画像データを取得し、撮影画像と平面画像との差異に従って、形成画像用データを調節する場合、歪みが少ない画像を表示できる。また、表示装置1を設置した場所に応じて、表示装置1が最適な3次元空間デザインを表現することができる。
 形成画像における形成するための形成の仕方を調節することにより、形成画像用データを調節する場合、表示装置1が最適な3次元空間デザインを表現することができる。
 抽出する表示要素画像の画像データ(例えば、領域画像)を調節することにより、形成画像用データを調節する場合、領域画像を抽出する段階から調節するので、大き目な調整ができる。
 変形の仕方を調節すること、または、配置の仕方を調節することの少なくとも一方により、形成画像用データを調節する場合、細かい調整ができる。
 形成画像用データに基づき印刷された画像により形成画像を形成する場合、3次元空間デザインを表示装置に表現できる。
 また、画像投影手段21から出力された投影光が画像映出手段20の投影面に当たり投影画像が形成され、投影画像によって画像映出手段20の投影面の裏面に画像が映し出され、映し出された画像が各屈折手段1aを通して視点3側から見えるので、画像投影手段21の投影光を制御して投影画像を変更することにより、表示装置1に表現する3次元空間表現を容易に変更させることができる。
 各屈折手段の1つ1つ、画像を貼り替えたり、印刷し直したりする必要がない。また、従来技術では、表示する画像の変更の自由度が低いため、動画像を表現させることが難しかったが、本実施例に係る表示装置1によれば、動画像や時間によって形状や配置が変化する3次元空間表現ができる。
 画像投影手段21から画像映出手段20の投影面に投影される投影光を時間変化させることで、画像映出手段20の投影面に動画像を投影することにより、表示装置1に動画像や時間によって形状や配置が変化する3次元空間表現を容易に実現することができる。また、画像投影手段21からの投影光によって画像映出手段20の投影面に動画像を投影するので、各屈折手段1aに配線をする必要が無いので、配線がシンプルになる。
 また、表示装置1を両眼で見ると、屈折手段1aが視点3側に対して凸形状に配列されているため、視差により、合成画像が表示装置1の中に存在するように見える。動画像の投影光を投影すると、両眼でみると、表示装置1の中に、動画像や時間によって形状や配置が変化する3次元空間表現されているように見える。
 画像映出手段20が、反対側の屈折手段1aの面に設けられた場合、別途、画像映出手段20を設ける必要がなく、部品点数が減少し、コストを下げることができる。
 複数の方向から投影された投影光により画像映出手段20の投影面に投影画像を投影して、屈折手段1aに形成画像を形成する場合、投影の死角を減少させることができる。
 プロジェクタのような画像投影手段を更に備える場合、各屈折手段に液晶ディスプレイ、有機ELディプレイ等のディスプレイを設置する必要がないので、配線がシンプルになる。
 配置支持手段1bが、形成画像の中心とする部分が凸形状の法線方向に向くように、各屈折手段1aを支持するので、各屈折手段1aにおいて同じ形成画像が形成されている場合、見る角度を変えても、表示装置1は、同じ3次元空間であるように表現することができる。また、表示装置1は、各屈折手段1aの形成画像に応じて、様々な3次元空間デザインを表現できる。
 凸形状が、円形状の断面を有する場合、表示装置1が表示する合成画像の歪みが少なくなる。また、ユーザが見る角度を変えても、歪みが少ない3次元空間デザインを見ることができる。
 ところで、レンチキュラーレンズの個々のレンズは、平坦面を有する片凸構造であるため、視野角が所定値以上になると、レンズの平坦面において、レンズ内部からの光の反射(内部反射)が生じるため十分な視野角を確保できなかったという問題があった。さらに、特許文献1では、周囲からの外光による影響を少なくするために、黒色の薄板に格子状に形成したスリット等の遮光手段を設けているが、遮光手段のため画像が暗くなり、特に円筒形の中心部分以外では画像が表示できない、もしくは画像が見えにくくなり視認性が低下するという問題があった。
 しかし、屈折手段1aが円形状の断面を有する場合の表示装置1によれば、屈折手段1aが、円形状の断面を有するので、屈折手段1a内部における表示装置1の周囲からの外光の反射(内部反射)による視認性の低下を防止でき、外光を遮断するスリット等の遮光手段が不要になり、表示装置1が表示する画像が明るくなり、視認性が向上する。
 このように視認性が向上することにより、屈折手段1aが円形状の断面を有する場合、表示装置1に対して視認性の高い表示範囲を広く確保し、表示装置1の実用性を高めることができる。
 また、各屈折手段1aの視野角が広がったため、視点3側から見える表示装置1の表示面全体で、大きな画像を表示させることができる。一方、片凸の構造を有するレンズでは、内部反射により各屈折手段の視野角が狭いため、視点3側から見える表示装置の表示面全体に映し出す大きな画像を表示することができない。
 また、屈折手段1aの形状が、球状、または、円柱状である場合、表示装置1の周囲から外光に対して、屈折手段1aの内部反射をほとんど無くすことができる。また、この場合、個々の屈折手段1aの視野角が広がる。
 屈折手段1aの形状が、ボールレンズ10のように球状である場合、球形の屈折手段1aを、球面に配置したり、楕円体の面に配置したり等と、配置の自由度が向上する。
 屈折手段1aの形状がボールレンズ10等の球状であり、配置支持手段1bが、各屈折手段1aを球面形状に配置する場合、平面的な視点3の移動のみならず、立体的な方向からの視点3の移動に対して、表示装置1は、同じような画像を表示できる。また、屈折手段1aの形状がボールレンズ10等の球状であり、配置支持手段1bが、各屈折手段1aを円筒形状に配置する場合、建物柱等に表示装置1を設置することができる。
 屈折手段1aの形状が、円柱レンズのように円柱状であり配置支持手段1bが、各屈折手段1aを円筒面形状に配置する場合、建物柱等に表示装置1を設置することができる。
[表示装置の実施例]
 次に、上述した実施形態に対応する具体的な実施例について、図を用いて説明する。
(表示装置の第1実施例)
 屈折手段1aが、ボールレンズ10である場合の実施例について、図27、図28Aおよび図28Bを用いて説明する。
 図27に示すように、表示装置1Aは、複数個のボールレンズ10を球面に配置した実施例である。
 なお、図27には、図示されないが、各ボールレンズ10の半球面に、スクリーン面として半球形状の画像映出手段20が形成されている。各ボールレンズ10には、表示装置1Aの内側から、図9Bに示すように、画像投影手段21からの投影光によって各ボールレンズ10の画像映出手段20の投影面に”E”の文字の投影画像が映し出され、ボールレンズ10の視点と反対側の面に形成画像が形成される。形成画像の中心部分が、表示装置1Aの球面の中心に向いている。すなわち、形成画像の中心部分からボールレンズ10の中心に向かう向きが、球面の法線方向になっている。
 また、球面形状のプラスティックの面に、各ボールレンズ10をはめ込む穴が空いていて、各ボールレンズ10が半分ほどはめ込まれている。
 図28Aに示すように、画像”E”の各部分を受け持つ各ボールレンズ10の部分画像(表示要素画像)から合成された画像(合成表示画像)”E”が、表示装置1Aに表示される。
 なお、両眼で見ると、画像”E”が、表示装置1Aの中に存在するように見える。
 図28Bに示すように、視点をずらして見ても、画像”E”が、同じように見える。なお、図28Bに示すように、画像”E”の各部分を受け持つ、ボールレンズ10が、図28Aに示した場合と異なっている。
 制御装置50により、画像投影手段21が画像映出手段20の投影面に異なる投影画像を形成する投影光を投影すると、表示装置1Aには、異なる画像が表示される。表示装置1Aは、画像”E”の他に、様々な画像を容易に表示できる。
 なお、表示装置の形状は、半球面等でもよい。
 また、図29に示すように、表示装置の形状は、円筒面形状の表示装置1Bでもよい。この場合、ボールレンズ10が、円筒面形状に配置される。背の高い人の視線、背の低い人の視線でも、画像が見える。
 表示装置1Bは、完全な円筒形状でなく、半円筒形状やその一部の形状でもよい。
(表示装置の第2実施例)
 次に、円柱レンズを円筒面形状に配置した実施例について図30、図31、図32および図33を用いて説明する。
 図30に示すように、表示装置1Cは、同じ長軸方向の円柱レンズ11を、円筒面形状に配置してもよい。各円柱レンズ11により、円筒面s11(1b)が形成される。
 図30および図31に示すように、円柱レンズ11の片側の面に、スクリーン面として半円筒面形状の画像映出手段20が形成されている。半円筒面形状の画像映出手段20が、表示装置1Cの各円柱レンズ11に設けられている。
 図31に示すように、半円筒面形状の画像映出手段20の向きは、表示装置1Cの円筒面s11(1b)の法線方向である。すなわち、円柱レンズ11の中心cと、円筒面s11の中心Cとを結ぶ線上に、画像映出手段20の中心部分がある。
 ここで、配置支持手段1bは、各屈折手段1aを、視点からの各屈折手段1aの断面形状が同じ形状になるように配置する。
 なお、表示装置1Cは、完全な円筒形状でなく、半円筒形状やその一部の形状でもよい。
 図31に示すように、表示装置1Cの内部には、画像投影手段21の一例であるプロジェクタが設置されている。画像投影手段21からの投影光によって画像映出手段20の投影面に投影画像が投影され、投影画像が画像映出手段20の裏面に映し出され、円柱レンズ11の視点と反対側の面に形成画像が形成される。
 図32に示すように、表示装置1Dは、反射鏡等の反射手段22(画像形成手段の一例)を備えてもよい。反射手段22は、金属を磨いた面、金属をメッキした面、蒸着した面、金属箔を貼った面、鏡のような光の反射効果を持つ面、または、光の反射効果と似た光路に光を屈折する屈折手段でもよい。
 画像投影手段21は、表示装置1Dの内部になくてもよい。反射手段22は、図24に示すように、画像投影手段21に対して凸形状の球形状でもよい。反射手段22は、画像投影手段21に向かう軸以外、凹面の形状でもよい。反射手段22は、半球、円錐形、円錐台、三角錐形、四角錐形等の多角錐形、多角錐台、放物線や双曲線型、それらの形状を2つ以上組み合わせた形状、または、360度撮影の時のミラーのような形状でもよく、画像投影手段21からの投影光を、反射して画像映出手段20の投影面に画像を投影できる形状ならばよい。
 また、反射手段により、投影光を複数の方向から投影して画像映出手段20の投影面に画像を投影してもよい。または、画像映出手段20からの一部の投影光を反射手段(複数でもよい)により反射して、別の角度から、画像映出手段20の他の投影面に投影してもよい。
 画像投影手段21から投影された投影光が、反射手段22で反射してから、画像映出手段20に投影され、円柱レンズ11の視点と反対側の面に形成画像が形成される。なお、制御装置50は、各屈折手段での形成画像が形成できるように、反射手段22の反射面の形状を考慮した投影画像を生成する。
 画像投影手段21は、表示装置1Dの内部に設置しなくてもよいので、表示装置1Dを小型できる。画像投影手段21は、表示装置1Dの内部に設置しなくてもよいので、小型の画像投影手段21でなくてもよい。また、表示装置1Dは、画像投影手段21は始めから備えていなくてもよいので、後付けで画像投影手段21を設置でき、交換しやすくなる。
 画像投影手段21から出力された投影光を反射して、反射した投影光を画像映出手段20の投影面に投影する反射手段22を更に備えた場合、屈折手段および画像映出手段等の光学系とは別に、画像投影手段等の投影系を後から表示装置1に装着できるので、それぞれを別々にメンテナンスできる。また、プロジェクタのような画像投影手段を表示装置1の内部(配置支持手段1bの内部)に設置する必要がないため、表示装置1を小型化ができる。1つの画像映出手段20から投影光を反射手段22に投影し、反射手段22から各方向の屈折手段1aに投影すれば、複数の画像映出手段20による投影のように、投影画像間の継ぎ目の調節を考える必要がなくなり、屈折手段1aの形成画像の生成が容易になる。
 図33に示すように、表示装置1Eは、円錐台状の形状でもよい。複数の円錐台レンズ12が、配置支持手段1bの一例の支持台15により、円錐台の側面の曲面に配置される。図33に示すように、上方の視点3から、表示装置1Eを見下ろす位置に設置することができる。図15に示すような表示装置1Eを図中上下反転した表示装置の場合、下方の視点3から、表示装置1Eを見上げる位置に設置することができる。
 なお、画像映出手段20は、透過型のスクリーンでなく、反射型のスクリーンでもよい。この場合、小型の画像投影手段21を、画像映出手段20と屈折手段1aとの間に設置する。また、透過型のスクリーンと反射型のスクリーンとを組み合わせてもよい。
 画像映出手段20は、屈折手段1aの視点と反対側の面の全面に設けず、一部分に屈折手段1aに直接投影画像が形成されるような投影光が、画像投影手段21または反射手段22から投影されてもよい。
[実施例2]
 次に、画像形成手段の一例であるディスプレイ手段を用いた表示システムについて図34Aから図34Cを用いて説明する。本実施例は、実施例1の画像映出手段20および画像投影手段21の代わりに、ディスプレイ手段を用いて実施例である。 
 本実施例の表示システムS2は、図34Aに示すように、表示装置2と、制御装置50と、撮影装置9と、を備えて構成されている。
 本実施例の表示装置2は、屈折手段1aと、配置支持手段1bと、各屈折手段1aに対して視点3側と反対側の面に設置されたディスプレイ手段25(画像形成手段の一例)と、を備える。
 ディスプレイ手段25は、例えば、液晶ディスプレイ、有機ELディプレイ等のディスプレイである。ディスプレイ手段25は、画像を屈折手段1aに表示することにより、屈折手段1aにおいて形成画像を形成する。
 ディスプレイ手段25は、図34Bに示すように、透明な材質からなる屈折手段1aの半面を覆うように設置される。ディスプレイ手段25は、制御装置50に接続されている。図34Aにおける各屈折手段1aは、透明のボールレンズ10が半球状のディスプレイ25に覆われた場合の断面を示している。なお、円柱レンズが、半円筒面形状のディスプレイ手段に覆われた場合の断面でもよい。
 図34Aに示すように、各ディスプレイ手段25は、制御装置50に接続されている。制御装置50は、各ディスプレイ手段25に形成画像用データを送信する。各ディスプレイ手段25は、各ディスプレイ手段25は、形成画像用データに基づき形成画像5を表示する。視点方向に応じて、各ディスプレイ手段25により各屈折手段1aに表示要素画像が見られ、表示装置2に、視点方向に応じた表示合成画像が表示される。
 制御装置50は、表示装置2の表示合成画像を撮影した撮影画像の画像データを、撮影装置9から取得して画像調節を行う。
 図34Cに示すように、表示装置2Cは、視点側の反対側が半円筒面形状のディスプレイ26(ディスプレイ手段25の一例)に覆われた同じ向きの円柱レンズ11を、円筒面形状に配置してもよい。図31における画像映出手段20の代わりに、半円筒面形状のディスプレイ26が設置されている。各円柱レンズ11により、円筒面s11(1b)が形成される。
 円柱レンズ11の軸方向の中心線の部分が、画像の中心とする部分(ディスプレイ26の中心部分)である。図34Cに示すように、ディスプレイ26の向きは、表示装置2Cの円筒面s11(1b)の法線方向である。すなわち、円柱レンズ11の中心cと、円筒面s11の中心Cとを結ぶ線上に、ディスプレイ26の中心部分がある。
 表示システムS2においても、画像映出手段20および画像投影手段21に起因する特別の効果以外、実施例1と同様の効果が得られる。
 さらに、本発明は、上記各実施形態に限定されるものではない。上記各実施形態は、例示であり、本発明の特許請求の範囲に記載された技術的思想と実質的に同一な構成を有し、同様な作用効果を奏するものは、いかなるものであっても本発明の技術的範囲に包含される。
 1、1A、1B、1C、1D、1E、2、2C、DD:表示装置
 1a:屈折手段
 1b:配置支持手段
 1c:画像形成手段
 3:視点
 5:形成画像
 8:情報処理装置
 9:撮影装置(撮影手段)
 10:ボールレンズ(屈折手段)
 11:円柱レンズ(屈折手段)
 12:円錐台レンズ(屈折手段)
 20:画像映出手段(画像形成手段)
 21:画像投影手段(画像形成手段)
 22:反射手段(画像形成手段)
 25:ディスプレイ手段(画像形成手段)
 26:ディスプレイ(画像形成手段)
 50:制御装置(情報処理装置)
 S、S1、S2:表示システム
 oP:平面画像
 d1、d2、de、dc、da:領域画像

 

Claims (10)

  1.  円形状の断面を有し、光を屈折する屈折手段と、複数の前記屈折手段を、視点側に対して凸形状に配置して支持する配置支持手段と、前記屈折手段に対して前記視点側と反対側の面に形成画像を形成する画像形成手段と、を備えた表示装置用の情報処理装置において、
     前記表示装置において表示対象を3次元空間表現するための3次元空間表現データから、前記3次元空間表現に見えるように各屈折手段に表示される表示要素画像の画像データを抽出する抽出手段と、
     所定の前記屈折手段を通った光によって、前記表示要素画像が表示されるように、前記所定の屈折手段の視点側と反対側に形成画像を形成するための形成画像用データを生成する画像生成手段と、
     を備え、
     前記3次元空間表現データは、前記所定の屈折手段における前記凸形状の法線方向と前記視点側の所定の視点方向とにより規定される角度の角度データと、前記角度に応じて、前記表示対象が前記所定の視点方向から見える平面画像データとを有することを特徴とする表示装置用の情報処理装置。
  2.  請求項1に記載の表示装置用の情報処理装置において、
     前記抽出手段が、前記3次元空間表現データのうち、前記平面画像データから、前記所定の屈折手段毎に対応した領域画像を領域画像データとして各々抽出し、
     前記画像生成手段が、各前記領域画像を前記所定の屈折手段の前記反対側の面の形状に合わせるように変形し、当該変形した各領域画像を、当該各領域画像に対応する前記角度に応じた位置に配置して、前記所定の屈折手段の前記形成画像を形成するための形成画像用データを生成することを特徴とする表示装置用の情報処理装置。
  3.  請求項1または請求項2に記載の表示装置用の情報処理装置において、
     前記抽出手段が、前記屈折手段の大きさに応じて、前記表示要素画像の画像データを抽出することを特徴とする表示装置用の情報処理装置。
  4.  請求項1から請求項3のいずれか1項に記載の表示装置用の情報処理装置において、
     実空間の立体物または3DCGデータから、前記表示装置に3次元空間を表現するための前記3次元空間表現データを生成する原データ生成手段を更に備えたことを特徴とする表示装置用の情報処理装置。
  5.  請求項1から請求項4のいずれか1項に記載の表示装置用の情報処理装置において、
     前記生成した形成画像用データにより表示された前記3次元空間表現を、所定の撮影方向から撮影した撮影画像の画像データを取得する画像取得手段と、
     前記撮影画像および撮影方向のデータと、前記3次元空間表現データの前記角度データおよび前記平面画像データとの差異に従って、前記形成画像用データを調節する画像調節手段と、
     更に備えたことを特徴とする表示装置用の情報処理装置。
  6.  請求項5に記載の表示装置用の情報処理装置において、
     前記画像調節手段が、前記抽出手段が抽出する前記表示要素画像の画像データを調節することにより、前記形成画像用データを調節することを特徴とする表示装置用の情報処理装置。
  7.  請求項5または請求項6に記載の表示装置用の情報処理装置において、
     前記画像調節手段が、前記形成画像における形成するための形成の仕方を調節することにより、前記形成画像用データを調節することを特徴とする表示装置用の情報処理装置。
  8.  請求項1から請求項7のいずれか1項に記載の表示装置用の情報処理装置において、
     前記画像形成手段が、前記形成画像用データに基づき印刷された画像により前記形成画像を形成することを特徴とする表示装置用の情報処理装置。
  9.  円形状の断面を有し、光を屈折する屈折手段と、複数の前記屈折手段を、視点側に対して凸形状に配置して支持する配置支持手段と、前記屈折手段に対して前記視点側と反対側の面に形成画像を形成する画像形成手段と、を備えた表示装置用の情報処理方法において、
     前記表示装置において表示対象を3次元空間表現するための3次元空間表現データから、前記3次元空間表現に見えるように各屈折手段に表示される表示要素画像の画像データを抽出する抽出ステップと、
     所定の前記屈折手段を通った光によって、前記表示要素画像が表示されるように、前記所定の屈折手段の視点側と反対側に形成画像を形成するための形成画像用データを生成する画像生成ステップと、
     を含み、
     前記3次元空間表現データは、前記所定の屈折手段における前記凸形状の法線方向と前記視点側の所定の視点方向とにより規定される角度の角度データと、前記角度に応じて、前記表示対象が前記所定の視点方向から見える平面画像データとを有することを特徴とする表示装置用の情報処理方法。
  10.  円形状の断面を有し、光を屈折する屈折手段と、複数の前記屈折手段を、視点側に対して凸形状に配置して支持する配置支持手段と、前記屈折手段に対して前記視点側と反対側の面に形成画像を形成する画像形成手段と、を備えた表示装置用のプログラムにおいて、
     コンピュータを、
     前記表示装置において表示対象を3次元空間表現するための3次元空間表現データから、前記3次元空間表現に見えるように各屈折手段に表示される表示要素画像の画像データを抽出する抽出手段、および、
     所定の前記屈折手段を通った光によって、前記表示要素画像が表示されるように、前記所定の屈折手段の視点側と反対側に形成画像を形成するための形成画像用データを生成する画像生成手段として機能させ、
     前記3次元空間表現データは、前記所定の屈折手段における前記凸形状の法線方向と前記視点側の所定の視点方向とにより規定される角度の角度データと、前記角度に応じて、前記表示対象が前記所定の視点方向から見える平面画像データとを有することを特徴とする表示装置用のプログラム。

     
PCT/JP2017/029918 2016-09-16 2017-08-22 表示装置用の情報処理装置、表示装置用の情報処理方法、および、表示装置用のプログラム WO2018051743A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US16/330,615 US11402657B2 (en) 2016-09-16 2017-08-22 Information processing device for display device, information processing method for display device, and program for display device
JP2018539596A JPWO2018051743A1 (ja) 2016-09-16 2017-08-22 表示装置用の情報処理装置、表示装置用の情報処理方法、および、表示装置用のプログラム
KR1020197005333A KR20190046810A (ko) 2016-09-16 2017-08-22 표시 장치용 정보 처리 장치, 표시 장치용 정보 처리 방법, 및 표시 장치용 프로그램
CN201780056414.8A CN109691093B (zh) 2016-09-16 2017-08-22 显示装置用的信息处理装置、显示装置用的信息处理方法以及显示装置用的程序
EP17850649.9A EP3514607B1 (en) 2016-09-16 2017-08-22 Information processing device for display devices, information processing method for display devices, and program for display devices

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-181835 2016-09-16
JP2016181835 2016-09-16

Publications (1)

Publication Number Publication Date
WO2018051743A1 true WO2018051743A1 (ja) 2018-03-22

Family

ID=61620060

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/029918 WO2018051743A1 (ja) 2016-09-16 2017-08-22 表示装置用の情報処理装置、表示装置用の情報処理方法、および、表示装置用のプログラム

Country Status (6)

Country Link
US (1) US11402657B2 (ja)
EP (1) EP3514607B1 (ja)
JP (1) JPWO2018051743A1 (ja)
KR (1) KR20190046810A (ja)
CN (1) CN109691093B (ja)
WO (1) WO2018051743A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102131062B1 (ko) * 2019-02-14 2020-07-08 디즈니엔터프라이지즈,인크. 멀티-밴티지 포인트 라이트 필드 영상 엘리먼트 디스플레이
WO2021016487A1 (en) * 2019-07-23 2021-01-28 Broadspot Imaging Corp Carousel guidance for optical imaging devices

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018051743A1 (ja) * 2016-09-16 2019-08-15 国立研究開発法人産業技術総合研究所 表示装置用の情報処理装置、表示装置用の情報処理方法、および、表示装置用のプログラム
TWI687864B (zh) * 2017-09-03 2020-03-11 美商創藝設計股份有限公司 顯示裝置
CN111261027B (zh) * 2020-01-22 2022-07-12 京东方科技集团股份有限公司 旋转显示设备及其控制方法、旋转显示系统以及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11109287A (ja) * 1997-10-03 1999-04-23 Toppan Printing Co Ltd レンチキュラー・ディスプレイ装置
JP2000131783A (ja) * 1998-10-22 2000-05-12 Toshiba Corp 三次元画像記録媒体
JP2000305401A (ja) * 1999-04-16 2000-11-02 Matsushita Electric Ind Co Ltd 画像定着装置
JP2001272934A (ja) 2000-03-24 2001-10-05 Noriji Ooishi 表示器
JP2004177709A (ja) * 2002-11-27 2004-06-24 Toshiba Corp 立体画像表示装置及び立体画像表示方法
JP2010072477A (ja) * 2008-09-19 2010-04-02 Toshiba Tec Corp 画像表示装置、画像表示方法及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4870768A (en) * 1988-02-11 1989-10-03 Watt James A Moving picture device
US5579164A (en) * 1993-11-12 1996-11-26 Pharos Technology Corporation Spatially multiplexed image display system
US5642226A (en) * 1995-01-18 1997-06-24 Rosenthal; Bruce A. Lenticular optical system
JP2000305041A (ja) * 1999-04-26 2000-11-02 Hit Design:Kk 絵付き凸レンズアレイディスプレイおよびその製造方法
JP3788394B2 (ja) * 2002-06-13 2006-06-21 ソニー株式会社 撮像装置および撮像方法、並びに表示装置および表示方法
KR101235273B1 (ko) * 2005-07-07 2013-02-20 삼성전자주식회사 다수의 투명한 플렉시블 디스플레이 패널을 이용한 체적형3차원 디스플레이 시스템
AT502836B1 (de) * 2005-12-14 2007-06-15 Traint Ernst System zur bidirektionalen bildaufnahme und -wiedergabe
JP2009216752A (ja) * 2008-03-07 2009-09-24 Victor Co Of Japan Ltd スクリーン及びそれを用いた立体映像表示システム
JP2009300816A (ja) * 2008-06-16 2009-12-24 Seiko Epson Corp 表示装置の製造方法および製造装置
US8933998B2 (en) * 2008-12-12 2015-01-13 Sony Corporation Three-dimensional image display device, method of manufacturing the same, and three-dimensional image display method
US9047793B2 (en) * 2009-10-20 2015-06-02 Sharp Kabushiki Kaisha Three dimensional video display device
JP5673008B2 (ja) * 2010-08-11 2015-02-18 ソニー株式会社 画像処理装置、立体画像表示装置および立体画像表示システム、ならびに立体画像表示装置の視差ずれ検出方法および立体画像表示装置の製造方法
JPWO2018051743A1 (ja) * 2016-09-16 2019-08-15 国立研究開発法人産業技術総合研究所 表示装置用の情報処理装置、表示装置用の情報処理方法、および、表示装置用のプログラム
US11435595B2 (en) * 2018-05-25 2022-09-06 Sony Corporation Image display apparatus
DE112019004473T5 (de) * 2018-09-07 2021-05-20 Sony Corporation Bildanzeigeeinrichtung
US10827166B2 (en) * 2018-10-31 2020-11-03 Universal City Studio LLC Autostereoscopic cylindrical display

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11109287A (ja) * 1997-10-03 1999-04-23 Toppan Printing Co Ltd レンチキュラー・ディスプレイ装置
JP2000131783A (ja) * 1998-10-22 2000-05-12 Toshiba Corp 三次元画像記録媒体
JP2000305401A (ja) * 1999-04-16 2000-11-02 Matsushita Electric Ind Co Ltd 画像定着装置
JP2001272934A (ja) 2000-03-24 2001-10-05 Noriji Ooishi 表示器
JP2004177709A (ja) * 2002-11-27 2004-06-24 Toshiba Corp 立体画像表示装置及び立体画像表示方法
JP2010072477A (ja) * 2008-09-19 2010-04-02 Toshiba Tec Corp 画像表示装置、画像表示方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3514607A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102131062B1 (ko) * 2019-02-14 2020-07-08 디즈니엔터프라이지즈,인크. 멀티-밴티지 포인트 라이트 필드 영상 엘리먼트 디스플레이
WO2021016487A1 (en) * 2019-07-23 2021-01-28 Broadspot Imaging Corp Carousel guidance for optical imaging devices
US11763490B2 (en) 2019-07-23 2023-09-19 Optos Plc Carousel guidance for optical imaging devices

Also Published As

Publication number Publication date
EP3514607A1 (en) 2019-07-24
CN109691093A (zh) 2019-04-26
US11402657B2 (en) 2022-08-02
EP3514607B1 (en) 2024-02-07
JPWO2018051743A1 (ja) 2019-08-15
EP3514607A4 (en) 2020-05-20
KR20190046810A (ko) 2019-05-07
CN109691093B (zh) 2021-02-19
US20210385431A1 (en) 2021-12-09

Similar Documents

Publication Publication Date Title
WO2018051743A1 (ja) 表示装置用の情報処理装置、表示装置用の情報処理方法、および、表示装置用のプログラム
JP5187639B2 (ja) 立体ディスプレイ
JP4267668B2 (ja) 立体像表示装置
WO2020080111A1 (ja) 画像表示装置
US7697750B2 (en) Specially coherent optics
JP4263461B2 (ja) 自動立体光学装置
JP3955589B2 (ja) 立体表示装置
JP4233357B2 (ja) 自動立体光学装置
WO2000010055A1 (fr) Dispositif de projection pour ecran total a surface spherique
JPWO2006027855A1 (ja) 表示装置及び撮像装置
JP2007503020A (ja) パノラマ・ディスプレイのための広角スキャナ
JP7405095B2 (ja) 画像表示装置
CN108398735B (zh) 一种指向性成像器件、方法与应用
JP6646288B2 (ja) 表示装置
CN106773061B (zh) 一种近眼显示光学系统
JP2007279115A (ja) 視覚表示装置
JP6501066B2 (ja) 表示装置
WO2016078354A1 (zh) 全视角三维立体影像采集、显示方法及系统
JP2006085135A (ja) 立体表示装置
US10222596B2 (en) Omnidirectional catadioptric lens structure
US20070242227A1 (en) Method for aerial display of images
WO2022034781A1 (ja) 情報処理装置、情報処理方法、プログラム、及び表示装置
Miyazaki Three-dimensional image formation based on scanning with a floating real image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17850649

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018539596

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20197005333

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017850649

Country of ref document: EP

Effective date: 20190416