WO2009148038A1 - 立体視画像生成装置、立体視画像生成方法およびプログラム - Google Patents

立体視画像生成装置、立体視画像生成方法およびプログラム Download PDF

Info

Publication number
WO2009148038A1
WO2009148038A1 PCT/JP2009/060028 JP2009060028W WO2009148038A1 WO 2009148038 A1 WO2009148038 A1 WO 2009148038A1 JP 2009060028 W JP2009060028 W JP 2009060028W WO 2009148038 A1 WO2009148038 A1 WO 2009148038A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display surface
eyes
eye
horopter
Prior art date
Application number
PCT/JP2009/060028
Other languages
English (en)
French (fr)
Inventor
上田 和彦
緒形 昌美
泰成 畠澤
信一郎 五味
雄介 中村
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP09758305A priority Critical patent/EP2172906A4/en
Priority to RU2010103049/08A priority patent/RU2519518C2/ru
Priority to CN2009801000468A priority patent/CN101796548B/zh
Priority to US12/671,367 priority patent/US9507165B2/en
Priority to BRPI0903910-4A priority patent/BRPI0903910A2/pt
Publication of WO2009148038A1 publication Critical patent/WO2009148038A1/ja
Priority to HK10108896.6A priority patent/HK1142427A1/xx

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume

Definitions

  • the present invention relates to a stereoscopic image generation apparatus, and more particularly to a stereoscopic image generation apparatus that generates a stereoscopic image from a non-stereo image, a processing method thereof, and a program that causes a computer to execute the method.
  • the display device has become larger or has a wider viewing angle, and it is now possible to display images with a higher sense of reality than before.
  • the image is forcibly perceived as if there is an image on the display surface of the display device, and there is a possibility that the generation of a stereoscopic effect due to a sensory stereoscopic element such as a shadow or composition may be hindered.
  • This is considered to be due to influences caused by physiological stereoscopic elements such as a change in the convergence angle when the display surface of the display device is perceived from both eyes and the occurrence of distortion due to binocular parallax.
  • a stereoscope called a synopter is known as an optical device for removing the influence of such physiological stereoscopic elements.
  • a synopter supplies light received at the same position separately to both eyes by combining half mirrors. According to this synopter, it is known that the retina images of both eyes become the same, and a stereoscopic depth can be given to a non-stereo image (see, for example, Non-Patent Document 1).
  • a stereoscopic depth can be obtained from a non-stereoscopic image by removing the influence of physiological stereoscopic elements and making the retinal images of both eyes the same.
  • stereoscopic vision can be realized by a simple mechanism.
  • the display device side has no degree of freedom, and it is difficult to obtain a further visual effect.
  • an object of the present invention is to remove the influence of physiological stereoscopic elements by image processing.
  • the present invention has been made to solve the above problems, and a first aspect of the present invention generates a cylindrical image by projecting a two-dimensional input image onto a cylindrical surface including a virtual circle in contact with both eyes.
  • Stereoscopic view comprising a cylindrical surface projection unit and a display surface projection unit that projects the cylindrical image onto a display surface with each of the eyes as a reference and generates a display image projected onto each of the eyes
  • An image generation apparatus, a stereoscopic image generation method, or a program thereof Thereby, the same retinal image is supplied to each of both eyes, and the effect which removes the influence which arises from a physiological stereoscopic element is brought about.
  • the radius of the virtual circle may be set according to an assumed observation distance or display size. This brings about the effect
  • the first side surface further includes an observation distance measurement unit that measures the distance between the display surface and the observation position, and the radius of the virtual circle is the observation distance measured by the observation distance measurement unit. It may be set according to This brings about the effect
  • the radius of the virtual circle may be set so that the skewness of the display image is smaller than a predetermined threshold. This brings about the effect that the image is displayed within a range where the distortion is allowable.
  • the display surface projection further includes a depth information generating unit that generates depth information from the two-dimensional input image, and a depth information combining unit that combines the depth information with the cylindrical image.
  • the unit may generate the display image by projecting a cylindrical image combined with the depth information onto a display surface. This brings about the effect of displaying an image with a further enhanced stereoscopic effect.
  • the second aspect of the present invention provides an irradiation surface projection unit that projects a two-dimensional input image onto a two-dimensional plane orthogonal to the line of sight of both eyes and generates an irradiation image corresponding to each of the eyes.
  • a display surface projection unit for projecting the corresponding irradiation image on the display surface with each of the eyes as a reference to generate a display image projected onto each of the eyes.
  • the position of the irradiation image may be set according to an assumed observation distance. This brings about the effect
  • an observation distance measurement unit that measures the distance between the display surface and the observation position is further provided, and the position of the irradiation image may be set according to the observation distance measured by the observation distance measurement unit. Good. This brings about the effect
  • the third aspect of the present invention is a stereoscopic image that generates a right-eye image and a left-eye image by converting a two-dimensional input image so that the images projected from the display surface to the right eye and the left eye are the same.
  • a generation device, a stereoscopic image generation method thereof, or a program thereby, the same retinal image is supplied to each of both eyes, and the effect which removes the influence which arises from a physiological stereoscopic element is brought about.
  • FIG. 1 is a diagram illustrating a configuration example of a stereoscopic image generation apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a first example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 3 is a diagram showing an aspect of projection onto the horopter plane in the first example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 4 is a diagram illustrating a specific example of the projection onto the horopter plane in the first example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 5 is a diagram showing an aspect of projection onto the display surface in the first example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a specific example of the projection onto the display surface in the first example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 7 is a diagram illustrating a processing procedure example according to the first example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 8 is a diagram illustrating a second example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 9 is a diagram illustrating the relationship between the size of the horopter circle and the position of the convergence point.
  • FIG. 10 is a diagram illustrating an aspect of projection onto the horopter plane in the second example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 10 is a diagram illustrating an aspect of projection onto the horopter plane in the second example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 11 is a diagram illustrating a specific example of the projection onto the horopter plane in the second example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 12 is a diagram illustrating a third example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 13 is a diagram illustrating an example of the relationship between the horopter circle and the degree of distortion of the image.
  • FIG. 14 is a diagram illustrating an example of the relationship between the angle ⁇ and the image skewness Q.
  • FIG. 15 is a diagram illustrating an example of a relationship between a horopter circle and a circumferential angle.
  • FIG. 16 is a diagram illustrating a fourth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 12 is a diagram illustrating a third example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 13 is a diagram illustrating an example of the relationship between the horopter circle
  • FIG. 17 is a diagram illustrating an example of the relationship between the horopter circle and the display surface.
  • FIG. 18 is a diagram illustrating a fifth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 19 is a diagram illustrating an aspect of the projection onto the tilt surface of the fifth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 20 is a diagram illustrating a specific example of the projection onto the tilt surface of the fifth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 21 is a diagram illustrating a specific example of the projection onto the display surface in the fifth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 22 is a diagram illustrating a processing procedure example according to the fifth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 23 is a diagram illustrating a sixth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 24 is a diagram illustrating an outline of processing according to the sixth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 25 is a diagram illustrating an example of a depth map of the horopter plane according to the sixth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 26 is a diagram illustrating an example of estimating depth information according to the sixth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 27 is a diagram illustrating a configuration example of the depth map synthesis unit 363 of the sixth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 28 is a diagram illustrating a stereoscopic image generation example according to the sixth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 29 is a diagram illustrating another example of generating a stereoscopic image according to the sixth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 1 is a diagram illustrating a configuration example of a stereoscopic image generation apparatus according to an embodiment of the present invention.
  • the stereoscopic image generation apparatus includes an image signal input unit 110, a signal processing unit 120, a three-dimensional conversion unit 130, a parameter setting unit 140, an observation distance measurement unit 150, a post-processing unit 160, and a format conversion unit. 170, a source selection unit 180, and a display unit 190.
  • the image signal input unit 110 receives an image signal input of a non-stereo image.
  • the input non-stereo image is not limited to a still image and may be a moving image.
  • a non-stereoscopic image source device a television broadcast receiver, a video playback device (player), an imaging device (camcorder: CAMera and reCORDER), or the like is assumed.
  • the signal processing unit 120 performs predetermined signal processing on the input non-stereo image.
  • this signal processing for example, white balance adjustment, noise reduction processing, level correction processing, gamma correction processing, and the like are assumed.
  • the three-dimensional conversion unit 130 is a characteristic part of the present invention, and converts a two-dimensional non-stereo image into three dimensions.
  • a three-dimensional image based on the non-stereo image is generated.
  • this three-dimensional image for example, a left-eye image and a right-eye image are obtained.
  • the parameter setting unit 140 sets parameters necessary for the three-dimensional conversion process in the three-dimensional conversion unit 130.
  • a parameter for example, a radius for specifying a horopter circle described later is assumed.
  • the observation distance measuring unit 150 measures the distance between the display unit 190 and the viewer's observation position. Based on the observation distance measured by the observation distance measurement unit 150, the three-dimensional conversion process in the three-dimensional conversion unit 130 can be performed. However, the observation distance assumed in advance may be used without actually measuring the observation distance.
  • the post-processing unit 160 performs post-processing for preventing aliasing on the three-dimensional image obtained by the three-dimensional conversion processing in the three-dimensional conversion unit 130. For example, assuming that the display unit 190 alternately displays a left-eye image and a right-eye image for each line, there is a possibility that jaggy (stepped jaggedness) due to aliasing may be displayed. In order to prevent this, the post-processing unit 160 applies a filter in the vertical direction to smooth the image change.
  • the format conversion unit 170 converts the three-dimensional image into a format corresponding to the display unit 190.
  • the format conversion unit 170 can perform conversion so that, for example, the left-eye image and the right-eye image are alternately arranged for each line in accordance with the corresponding format of the display unit 190.
  • the source selection unit 180 selects an image to be displayed as a source. That is, the source selection unit 180 selects the output of the signal processing unit 120 when displaying a non-stereoscopic image as it is, and outputs the output of the format conversion unit 170 when displaying a three-dimensional image for stereoscopic viewing. select.
  • the display unit 190 is a display that displays an image.
  • the display unit 190 has a function of displaying a three-dimensional image for stereoscopic viewing, but means for realizing the function is not particularly limited.
  • a divided wavelength plate is provided for every other line, and linearly polarized light from the even and odd lines on the display screen is converted into one orthogonal to each other. It is conceivable that different images of light are incident on both eyes.
  • FIG. 2 is a diagram illustrating a first example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the first example of the three-dimensional conversion unit 130 includes a horopter plane image projection unit 311, a display plane right eye projection unit 316, and a display plane left eye projection unit 317.
  • the horopter plane image projection unit 311 projects the non-stereo image supplied from the signal processing unit 120 via the signal line 129 onto a cylindrical plane including a horopter circle (horopter).
  • the horopter circle is a circumference in contact with both eyes, and it is known that the binocular retinal images corresponding to the points on the horopter circle are the same.
  • This cylindrical surface is called a horopter surface, and an image projected on the horopter surface is called a horopter image.
  • the intersection of the lines of sight of both eyes is referred to as a convergence point, and the angle formed by the intersection is referred to as a convergence angle or a circumferential angle.
  • the convergence angles are equal.
  • the size of the horopter circle is specified by the horopter circle information. Further, the relative positional relationship with both eyes is specified by the interocular distance “2a”.
  • the horopter circle information and the interocular distance “2a” are supplied from the parameter setting unit 140 via the signal line 149.
  • the size of the horopter circle is specified using the radius “r” as the horopter circle information. However, the distance from the center of both eyes to the apex of the horopter circle, the circumferential angle, and the like are used. May be specified.
  • the horopter plane image projection unit 311 is an example of a cylindrical plane projection unit described in the claims.
  • the display surface right-eye projection unit 316 projects the horopter image onto the right-eye display surface.
  • the display surface left-eye projection unit 317 projects the horopter image onto the left-eye display surface.
  • the display surface right-eye projection unit 316 and the display surface left-eye projection unit 317 display for the right eye and the left eye based on the interocular distance “2a”, the radius “r” of the horopter circle, and the assumed observation distance “d”. Project onto a surface.
  • the image projected on the right-eye display surface is called a right-eye image
  • the image projected on the left-eye display surface is called a left-eye image.
  • These right eye image and left eye image are supplied to the post-processing unit 160 via the signal line 139.
  • the display surface right-eye projection unit 316 and the display surface left-eye projection unit 317 are examples of the display surface projection unit described in the claims.
  • FIG. 3 is a diagram showing an aspect of projection onto the horopter plane in the first example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the horopter circle 520 is a circle that passes through the right eye 511, the left eye 512, and the convergence point 531 (vertex) or 532.
  • the right eye 511 and the left eye 512 are separated by “a” from the center of both eyes. That is, the interocular distance is “2a”.
  • the radius of the horopter circle 520 is “r”.
  • the binocular retinal images of the right eye 511 and the left eye 512 for the points on the horopter circle 520 are the same. This is because the convergence angles are always equal when the point on the horopter circle 520 is the convergence point. For example, the convergence angle 533 for the convergence point 531 is equal to the convergence angle 534 for the convergence point 532.
  • the right eye 511 and the left eye 512 can form the same retinal image without binocular parallax. .
  • FIG. 4 is a diagram illustrating a specific example of the projection onto the horopter plane in the first example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 4A shows a coordinate system of the input image I (p, q) supplied from the signal processing unit 120 via the signal line 129.
  • FIG. 4B shows a coordinate system of the horopter plane onto which the horopter image 530 is projected. Since the horopter plane is three-dimensional, a three-dimensional coordinate system (x, y, z) is used here. The origin of the coordinate system is set at the center of the horopter circle 520.
  • FIG. 4B is a view seen from the direction perpendicular to the horopter plane, that is, the direction perpendicular to the y-axis.
  • the horopter image H (x, y, z) is obtained by projecting the input image I (p, q) onto a horopter circle having a radius r, and is represented by the following equation.
  • H (x, y, z) I (( ⁇ / 2 ⁇ ) ⁇ r, y)
  • the input image size (width) “2L” is the same size as the display surface size (width), but the physical size of the image is provided by providing a function for scaling the input image in the previous stage. May be changed.
  • FIG. 5 is a diagram showing one aspect of the projection onto the display surface of the first example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the convergence point 532 on the horopter circle 520 is projected on the display surface 540.
  • An image formed from the convergence point 532 to the right eye 511 is displayed at the display position 541 on the display surface 540.
  • an image formed from the convergence point 532 to the left eye 512 is displayed at the display position 542 on the display surface 540. That is, even for the same horopter image 530, the images to be displayed on the display surface 540 are basically different images for the right eye 511 and the left eye 512.
  • FIG. 6 is a diagram illustrating a specific example of the projection onto the display surface of the first example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 6A shows the coordinate system of the horopter surface and the display surface.
  • a three-dimensional coordinate system of (x, y, z) is used, but unlike the case of FIG. 4A, the position of the origin on the xy plane is set at the midpoint between the right eye 511 and the left eye 512.
  • FIG. 6B shows a coordinate system of the display image J (s, t) projected on the display surface.
  • Display images are obtained for each of the right eye 511 and the left eye 512. Since each is a two-dimensional image, a two-dimensional coordinate system is used. The origin of the coordinate system is set at the center point of the display image.
  • the position D (x R , y R , z R ) on the display surface 540 projected from the right eye 511 through the position H (x 0 , y 0 , z 0 ) on the horopter image is expressed by the following equation. Given.
  • the position D (x R , y R , z R ) projected from the right eye 511 has been described, but the left eye 512 passes through the position H (x 0 , y 0 , z 0 ) on the horopter image.
  • the position D (x L , y L , z L ) on the display surface 540 to be projected can be obtained similarly.
  • the size of the horopter circle is specified by the radius “r”
  • the distance from the center of both eyes to the apex of the horopter circle, the circumferential angle, and the like are used.
  • the size of the horopter circle may be specified.
  • the distance f from the center of both eyes to the convergence point is given by the following equation.
  • FIG. 7 is a diagram illustrating an example of a processing procedure according to the first example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • Step S912 is an example of the cylindrical surface projection procedure described in the claims.
  • display images are generated as follows for each of the right eye and the left eye (loop L901).
  • perspective transformation is performed on the display surface 540 projected from the right eye 511 through the position H (x 0 , y 0 , z 0 ) on the horopter image, and a three-dimensional position D (x R , y R , z R ) is obtained (step S913).
  • a two-dimensional display image J (x R , y R ) on the display surface is obtained from this three-dimensional position (step S914).
  • step S913 perspective transformation is performed on the display surface 540 projected from the left eye 512 through the position H (x 0 , y 0 , z 0 ) on the horopter image, and the three-dimensional position D (x L , Y L , z L ) are obtained (step S913). Then, a two-dimensional display image J (x L , y L ) on the display surface is obtained from this three-dimensional position (step S914). Steps S913 and S914 are an example of the display surface projection procedure described in the claims.
  • a non-stereo image is projected as a horopter image onto the horopter circle 520 specified by the horopter circle information.
  • a stereoscopic image for the right eye 511 and the left eye 512 can be generated by projecting the horopter image onto the display surface at the actually observed or estimated observation distance.
  • FIG. 8 is a diagram illustrating a second example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the second embodiment of the three-dimensional conversion unit 130 includes a horopter plane image projection unit 321, a convergence point setting unit 322, a display plane right eye projection unit 326, and a display plane left eye projection unit 327.
  • the horopter plane image projection unit 321 projects the non-stereo image supplied from the signal processing unit 120 via the signal line 129 onto the cylindrical plane including the horopter circle, similarly to the horopter plane image projection unit 311.
  • the horopter circle is specified using the radius “r” based on the convergence point set by the convergence point setting unit 322.
  • the horopter plane image projection unit 321 is an example of a cylindrical plane projection unit described in the claims.
  • the convergence point setting unit 322 sets a convergence point and supplies a radius “r” based on the convergence point.
  • the convergence point setting unit 322 sets the convergence point based on the interocular distance “2a”, the observation distance “d”, the display surface size “2M”, and the input image size “2L”.
  • the display surface right-eye projection unit 326 and the display surface left-eye projection unit 327 project the horopter image onto the right-eye or left-eye display surface, as in the first embodiment.
  • the display surface right-eye projection unit 326 and the display surface left-eye projection unit 327 are examples of the display surface projection unit described in the claims.
  • FIG. 9 is a diagram showing the relationship between the size of the horopter circle and the position of the convergence point.
  • the horopter circle is uniquely identified by the interocular distance and radius. Therefore, when the radius is not fixed, a number of horopter circles passing through both eyes can be assumed as shown in FIG. Generally, the closer the convergence point is, the wider the convergence angle and the smaller the radius.
  • the convergence point of the horopter circle is set by calculating backward from the projection size on the display surface for the purpose of displaying the input image on the entire display surface.
  • FIG. 10 is a diagram illustrating an aspect of projection onto the horopter plane in the second example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the input image size (width) is set to “2L”, and an expression representing the size (width) “2m” projected on the display surface is considered.
  • angle ⁇ is an angle formed by both sides of the lengths q and r. This angle ⁇ is expressed by the following equation.
  • FIG. 11 is a diagram illustrating a specific example of the projection onto the horopter plane in the second example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the convergence point is set so that the projection width on the display surface 540 is displayed in full. Therefore, as shown in the figure, the width “2M” of the display surface 540 itself and the projection width “2 m” on the display surface obtained by the above equation are made to coincide.
  • the convergence point setting unit 322 is provided with the size (width) “2M” of the display surface 540, the input image size (width) “2L”, the interocular distance “2a”, and the observation distance “d”.
  • the radius r of the horopter circle can be obtained in such a manner that the projection size (width) “2 m” on the display surface obtained by the above matches the “2M”.
  • the projection image on the display surface 540 is displayed in full on the display surface 540 by assuming the size of the display surface 540 in advance. It is possible to set a point of convergence such that the horopter circle is uniquely identified.
  • FIG. 12 is a diagram illustrating a third example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the convergence point is determined so that the degree of distortion of the image on the display surface does not increase. Since the skewness between the center and the periphery of the image increases as the distance from the front of each eye of both eyes increases, the convergence point is set so that the skewness falls within an allowable range.
  • the third embodiment of the three-dimensional conversion unit 130 includes a horopter plane image projection unit 331, a convergence point setting unit 332, a display plane right eye projection unit 336, and a display plane left eye projection unit 337.
  • the horopter plane image projection unit 331 projects the non-stereo image supplied from the signal processing unit 120 via the signal line 129 onto the cylindrical plane including the horopter circle, like the horopter plane image projection unit 311.
  • the horopter circle is specified using the circumferential angle “ ⁇ ” based on the convergence point set by the convergence point setting unit 332.
  • the horopter plane image projection unit 331 is an example of a cylindrical plane projection unit described in the claims.
  • the convergence point setting unit 332 sets a convergence point and supplies a circumferential angle “ ⁇ ” based on the convergence point.
  • the convergence point setting unit 332 sets the convergence point based on the interocular distance “2a”, the observation distance “d”, the maximum skewness “Qmax”, and the minute angle “ ⁇ ”. Details of the setting will be described with reference to the following figure.
  • the display surface right-eye projection unit 336 and the display surface left-eye projection unit 337 project the horopter image onto the right-eye or left-eye display surface, as in the first embodiment.
  • the projection onto the display surface is performed using the circumferential angle “ ⁇ ” supplied from the convergence point setting unit 332, the radius “r” in the first embodiment and the circle in the present embodiment are used.
  • the circumferential angle “ ⁇ ” is equivalent in the sense of setting a convergence point. Therefore, both may be used as appropriate.
  • the display surface right-eye projection unit 336 and the display surface left-eye projection unit 337 are examples of the display surface projection unit described in the claims.
  • FIG. 13 is a diagram showing an example of the relationship between the horopter circle and the degree of distortion of the image.
  • the skewness is obtained for the left eye 512, but the same applies to the right eye 511.
  • the distance on the display surface 540 when the position is shifted by a minute angle “ ⁇ ” is compared between the position 535 on the horopter circle when looking directly in front from the left eye 512 and the position 536 rotated by ⁇ from the position.
  • the expected angle of the center point o of the horopter circle is “2 ⁇ ”, and therefore, a shift of “2 ⁇ r” occurs at the position 535 on the horopter circle.
  • the position 536 on the horopter circle is similarly displaced by “2 ⁇ r”.
  • the displacement width Q1 is as follows: Become.
  • FIG. 14 is a diagram illustrating an example of the relationship between the angle ⁇ and the image skewness Q.
  • the skewness Q is shown when the minute angle ⁇ is “0.01” in FIG. 13 and the angle ⁇ is changed from “ ⁇ 70 °” to “+ 70 °”.
  • the skewness Q between the center and the periphery of the image increases as the distance from the front of the eye increases. Therefore, in the third embodiment, the maximum skewness “Qmax” is given as the skewness threshold value, and the angle ⁇ is set so that the skewness becomes smaller than this.
  • FIG. 15 is a diagram showing an example of the relationship between the horopter circle and the circumference angle. Assuming that the circumferential angle is “ ⁇ ”, the angle at which the center point o of the horopter circle 520 is viewed from the right eye 511 and the left eye 512 is “2 ⁇ ”. This angle is divided into two equal parts by a perpendicular line from the center point o to the center of both eyes, and each becomes “ ⁇ ”. This figure shows “ ⁇ ” with the left eye 512 as a reference.
  • the angles at the intersection 537 and the left eye 512 are both “ ⁇ / 2 ”. Since the straight line connecting the position 535 on the horopter circle viewed from the left eye 512 directly in front and the left eye 512 is parallel to the center line of the right eye 511 and the left eye 512, the intersection point 537 and the end point 538 of the input image The angle formed is “ ⁇ / 2”. However, the angle ⁇ is an angle formed in the left eye 512 by the position 535 and the end point 538 of the input image.
  • the angle at which the center point o of the horopter circle 520 is viewed from the intersection point 537 and the end point 538 of the input image is “2 ⁇ ( ⁇ / 2)”. Since the arc in this case coincides with “L” of the size (width) of the input image, the following equation is established.
  • the distortion at the center and the periphery of the screen is the maximum distortion.
  • Convergence points can be set to be less than or equal to degrees, and a horopter circle can be identified.
  • FIG. 16 is a diagram illustrating a fourth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the convergence point is determined so that the distortion of the image on the display surface does not increase, and the size (width) of the input image is displayed so that the input image is displayed on the entire display surface. Is to scale.
  • the fourth embodiment of the three-dimensional conversion unit 130 includes a horopter plane image projection unit 341, a convergence point setting unit 342, a scaling unit 343, a display surface right eye projection unit 346, and a display surface left eye projection unit 347. Prepare.
  • the convergence point setting unit 342 sets a convergence point and supplies a radius “r” and an angle “ ⁇ ” based on the convergence point.
  • the convergence point setting unit 342 sets the convergence point based on the interocular distance “2a”, the observation distance “d”, the maximum skewness “Qmax”, the minute angle “ ⁇ ”, and the display surface size “2M”.
  • the scaling unit 343 enlarges or reduces (scales) the non-stereo image supplied from the signal processing unit 120 via the signal line 129 according to the convergence point set by the convergence point setting unit 342.
  • the horopter plane image projection unit 341 projects the non-stereo image scaled by the scaling unit 343 onto a cylindrical plane including a horopter circle.
  • the horopter plane image projection unit 341 is an example of a cylindrical plane projection unit described in the claims.
  • the display surface right-eye projection unit 346 and the display surface left-eye projection unit 347 project the horopter image onto the display screen for the right eye or the left eye, as in the first embodiment.
  • the display surface right-eye projection unit 346 and the display surface left-eye projection unit 347 are examples of the display surface projection unit described in the claims.
  • FIG. 17 is a diagram showing an example of the relationship between the horopter circle and the display surface.
  • the angle “ ⁇ ” is determined so that the skewness is smaller than the maximum skewness “Qmax” with respect to the minute angle “ ⁇ ”. Based on this angle “ ⁇ ”, a horopter circle is determined and the size of the input image is determined.
  • the angle at which the end point 538 of the input image is viewed from the right eye 511 and the left eye 512 is “ ⁇ ”.
  • the angle formed from the left eye 512 to the intersection 548 is “ ⁇ / 2 ⁇ ”.
  • the angle formed from the vertex T at the intersection 549 is “tan ⁇ 1 (x / a)”.
  • the inner angle at the intersection 549 is “ ⁇ -tan ⁇ 1 (x / a)”.
  • the angle “ ⁇ ” is given by the following equation. That is, the horopter circle is determined by setting ⁇ so that the following equation is established.
  • ⁇ ( ⁇ / 2) + tan ⁇ 1 (x / a)
  • the angle at which the center point o of the horopter circle 520 is viewed from the intersection point 537 and the end point 538 of the input image is “2 ⁇ ( ⁇ / 2)”. Since the arc in this case coincides with “L” of the size (width) of the input image, the following equation is established.
  • the convergence point is set so that the distortion at the center and the periphery of the screen is equal to or less than the maximum distortion, and the horopter circle is specified.
  • the input image can be scaled to display the input image on the full display surface.
  • FIG. 18 is a diagram illustrating a fifth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the non-stereo image is projected on the tilt plane corresponding to each eye and then projected on the display surface without going through the procedure of projecting the non-stereo image onto the horopter circle.
  • a stereoscopic image is generated.
  • the image displayed by the fifth embodiment is equivalent to the image displayed through the horopter circle described in the first to fourth embodiments. Therefore, here, a horopter circle is assumed when generating a stereoscopic image, and the radius of the horopter circle is given as a parameter.
  • the fifth embodiment of the three-dimensional conversion unit 130 includes a tilt surface right eye setting unit 354, a tilt surface left eye setting unit 355, a display surface right eye projection unit 356, and a display surface left eye projection unit 357.
  • the tilt plane right-eye setting unit 354 assumes a viewpoint in which a convergence point that is equidistant from both eyes is viewed from the right eye, sets a tilt plane that intersects perpendicularly to this viewpoint, and the signal line 129 from the signal processing unit 120.
  • the non-stereo image supplied via is projected as a tilt image for the right eye.
  • the tilt plane left-eye setting unit 355 assumes a viewpoint in which a convergence point that is equidistant from both eyes is viewed from the left eye, sets a tilt plane that intersects perpendicularly with respect to this viewpoint, and the signal line 129 from the signal processing unit 120. Is projected as a tilt image for the left eye.
  • the tilted surface right eye setting unit 354 and tilted surface left eye setting unit 355 are based on the interocular distance “2a”, the radius of the horopter circle “r”, the assumed observation distance “d”, and the tilted surface distance “k”. Projection is performed on the right and left eye tilt planes.
  • the tilt surface is an example of the irradiation surface described in the claims. Further, the tilt surface right eye setting unit 354 and the tilt surface left eye setting unit 355 are examples of the irradiation surface projection unit described in the claims.
  • the display surface right eye projection unit 356 projects the tilt image for the right eye onto the display surface for the right eye.
  • the display surface left-eye projection unit 357 projects the left-eye tilt image onto the left-eye display surface.
  • the display surface right-eye projection unit 356 and the display surface left-eye projection unit 357 display the right eye and the left eye based on the interocular distance “2a”, the horopter circle radius “r”, and the assumed observation distance “d”. Project onto a surface.
  • An image projected on the right-eye display surface is referred to as a right-eye image
  • an image projected on the left-eye display surface is referred to as a left-eye image.
  • These right eye image and left eye image are supplied to the post-processing unit 160 via the signal line 139.
  • the display surface right-eye projection unit 356 and the display surface left-eye projection unit 357 are examples of the display surface projection unit described in the claims.
  • FIG. 19 is a diagram illustrating an aspect of the projection onto the tilt plane of the fifth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the intersection of the center line of the right eye 511 and the left eye 512 and the horopter circle 520 is a convergence point 527 that is equidistant from both eyes.
  • the right eye tilt plane 550 is a plane that intersects perpendicularly at a point 551 with respect to the viewpoint when the convergence point 527 is viewed from the right eye 511.
  • the left-eye tilt surface 560 is a surface that intersects perpendicularly at a point 561 with respect to the viewpoint when the convergence point 527 is viewed from the left eye 512.
  • the distance between the line segment connecting the position of the right eye 511 and the position of the left eye 512 and the line segment connecting the points 551 and 561 is defined as the tilt surface distance “k”.
  • images on the right eye tilt surface 550 and the left eye tilt surface 560 are projected on the display surface 570.
  • the distance between the right eye 511 and the left eye 512 and the display surface 570 is taken as an observation distance “d”.
  • An image formed at a point 552 that is a distance “S” away from the point 551 on the right eye tilt surface 550 is displayed at the display position 571 on the display surface 570.
  • An image formed at a point 562 that is a distance “S” away from the point 561 on the left-eye tilt surface 560 is displayed at the display position 572 on the display surface 570.
  • a straight line connecting the right eye 511 and the point 571 and a straight line connecting the left eye 512 and the point 572 intersect at an intersection 522 on the horopter circle 520. That is, the image displayed by the fifth embodiment is equivalent to the image displayed through the horopter circle described in the first to fourth embodiments.
  • FIG. 20 is a diagram illustrating a specific example of the projection onto the tilt plane of the fifth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 20A shows a coordinate system of the input image I (p, q) supplied from the signal processing unit 120 via the signal line 129.
  • FIG. 20B shows the coordinate system of the tilt plane on which the tilt image is projected. Since the tilt plane is three-dimensional, a three-dimensional coordinate system (x, y, z) is used here. The origin of the coordinate system is set at the center of the right eye 511 and the left eye 512.
  • FIG. 20B is a view as seen from the direction perpendicular to the tilt plane, that is, from the direction perpendicular to the y-axis.
  • the right eye tilt surface 550 and the left eye tilt surface 560 have angles of “ ⁇ / 2” respectively from the horizontal line. Have.
  • the distance between the left eye 512 and the intersection point 582 is “k ⁇ tan ( ⁇ / 2)”. Therefore, the distance between the point 589 at a position away from the origin along the z-axis by the tilt surface distance “k” and the point 561 on the left eye tilt surface 560 is “ak ⁇ tan ( ⁇ / 2)”. Become. Accordingly, the relationship between the left eye tilt image L (x, y, z) and the input image I (p, q) on the left eye tilt surface 560 is expressed by the following equation.
  • L (x, y, z) I ((x + ak ⁇ tan ( ⁇ / 2)) / (cos ( ⁇ / 2)), y)
  • z k ⁇ ((x + a ⁇ k ⁇ tan ( ⁇ / 2)) / sin ( ⁇ / 2)) It is.
  • R (x, y, z) I ((x ⁇ a + k ⁇ tan ( ⁇ / 2)) / (cos ( ⁇ / 2)), y)
  • z k + ((x ⁇ a + k ⁇ tan ( ⁇ / 2)) / sin ( ⁇ / 2)) It is.
  • FIG. 21 is a diagram illustrating a specific example of the projection onto the display surface of the fifth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • FIG. 21 shows the coordinate system of the tilt plane and the display plane.
  • a three-dimensional coordinate system of (x, y, z) is used.
  • FIG. 21 shows a coordinate system of the display image J (s, t) projected on the display surface.
  • Display images are obtained for each of the right eye 511 and the left eye 512. Since each is a two-dimensional image, a two-dimensional coordinate system is used. The origin of the coordinate system is set at the center point of the display image.
  • D L (x L , y L , z L ) on the display surface 570 projected from L (x 0 , y 0 , z 0 ) on the left-eye tilt image from the left eye 512 is Given by.
  • D L (x L , y L , z L ) projected from the left eye 512 has been described, the right eye 511 passes through R (x 0 , y 0 , z 0 ) on the right eye tilt image.
  • D R (x R , y R , z R ) on the display surface 570 projected can be obtained in the same manner.
  • FIG. 22 is a diagram illustrating a processing procedure example according to the fifth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the input image I (p, q) is input from the signal processing unit 120 via the signal line 129 (step S921), the input image I (p, q) is projected as a tilt image.
  • the input image I (p, q) is projected as a tilt image.
  • separate tilt surfaces are provided for the right eye and the left eye, and a display image is generated as follows (loop L902).
  • step S922 When the input image I (p, q) is projected as the right eye tilt image R (x, y, z) on the right eye tilt surface 550 (step S922), perspective transformation is performed on the display surface 570, and Three-dimensional D R (x R , y R , z R ) is obtained (step S923). Then, a two-dimensional display image J (x R , y R ) on the display surface is obtained from this three-dimensional position (step S924). Similarly, when the input image I (p, q) is projected as the left-eye tilt image L (x, y, z) on the left-eye tilt surface 550 (step S922), the perspective transformation is performed on the display surface 570.
  • Step S923 The three-dimensional D L (x L , y L , z L ) is obtained (step S923). Then, a two-dimensional display image J (x L , y L ) on the display surface is obtained from this three-dimensional position (step S924).
  • Step S922 is an example of an irradiation surface projection procedure described in the claims.
  • Steps S923 and S924 are an example of a display surface projection procedure described in the claims.
  • the non-stereo images are projected as the right-eye and left-eye tilt images on the right-eye and left-eye tilt surfaces, respectively. To do. Then, by projecting the right-eye and left-eye tilt images on the display surface at the actually observed or estimated observation distance, a stereoscopic image for the right eye 511 and the left eye 512 can be generated.
  • FIG. 23 is a diagram illustrating a sixth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • a stereoscopic image corresponding to a depth map (depth (map) based on depth information is generated.
  • the sixth embodiment of the three-dimensional conversion unit 130 includes an input image depth map generation unit 361, a horopter plane depth map generation unit 362, a depth map synthesis unit 363, a display surface right eye projection unit 366, and a display surface left eye.
  • a projection unit 367 is a diagram illustrating a sixth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • a stereoscopic image corresponding to a depth map (depth (map) based on depth information is generated.
  • the sixth embodiment of the three-dimensional conversion unit 130 includes an input image depth map generation unit 361, a horopter plane depth map generation unit 362, a depth map synthesis unit 363, a display surface right eye projection unit 366, and a display surface left eye.
  • the input image depth map generation unit 361 generates a depth map for the non-stereo image (input image) supplied from the signal processing unit 120 via the signal line 129.
  • the depth map holds information about the depth for each pixel, and is estimated based on, for example, luminance, high frequency components, motion, saturation, and the like.
  • Japanese Unexamined Patent Application Publication No. 2007-502454 describes a multi-view image generation unit that generates a depth map based on edges detected in an input image.
  • the input image depth map generation unit 361 is an example of a depth information generation unit described in the claims.
  • the horopter plane depth map generator 362 generates a depth map for the horopter plane.
  • the size of the horopter circle is specified by the horopter circle information, and the relative positional relationship with both eyes is specified by the interocular distance “2a”, as in the first embodiment.
  • the depth map synthesis unit 363 synthesizes the depth map of the input image generated by the input image depth map generation unit 361 and the depth map of the horopter plane generated by the horopter plane depth map generation unit 362.
  • the depth map synthesis unit 363 is an example of a depth information synthesis unit described in the claims.
  • the display surface right-eye projection unit 366 considers the combined depth map combined by the depth map combining unit 363 for the non-stereo image supplied from the signal processing unit 120 via the signal line 129, and generates a right-eye stereoscopic image. It is projected onto the display surface for the right eye.
  • the display surface left-eye projection unit 367 considers the combined depth map combined by the depth map combining unit 363 for the non-stereo image supplied from the signal processing unit 120 via the signal line 129, and generates a stereoscopic image for the left eye. The image is projected onto the display surface for the left eye.
  • FIG. 24 is a diagram showing an outline of processing according to the sixth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the depth information is estimated by the input image depth map generation unit 361 and synthesized with the horopter plane.
  • the synthesized point 621 is present in front of the horopter circle, when it is projected onto the display surface, it is grasped as being present at a closer position.
  • the synthesized point 622 exists behind the horopter circle, when it is projected onto the display surface, it is grasped as existing at a farther position.
  • FIG. 25 is a diagram illustrating an example of a depth map of a horopter plane according to a sixth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the depth map of the horopter plane is represented by dp H.
  • the horopter plane is a three-dimensional shape including a horopter circle, and is specified by a distance from the x plane. That is, the depth map of the horopter plane is a function of x and y and is expressed by the following equation.
  • FIG. 26 is a diagram illustrating an example of estimating depth information according to the sixth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the depth map of the depth information is represented by dp I.
  • Depth information indicates the depth corresponding to each pixel, and is represented as three-dimensional information. That is, the depth map of the depth information is a function of x and y and is expressed by the following equation.
  • FIG. 27 is a diagram illustrating a configuration example of the depth map synthesis unit 363 of the sixth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the depth map synthesis unit 363 synthesizes the depth map of the input image generated by the input image depth map generation unit 361 and the depth map of the horopter plane generated by the horopter plane depth map generation unit 362 as described above. It is.
  • the depth map synthesis unit 363 includes an average value calculation unit 3631, a subtracter 3632, and an adder 3633.
  • the average value calculation unit 3631 calculates the average value of the depth map for each input image.
  • the subtracter 3632 subtracts the average value for each input image of the depth map from the depth map for each pixel of the input image. Thereby, the alternating current component of the depth map which makes an average value a center value is obtained.
  • the adder 3633 adds the AC component of the depth map of the input image supplied from the subtractor 3632 to the depth map of the horopter plane. This provides a combined depth map on the horopter plane.
  • FIG. 28 is a diagram illustrating a stereoscopic image generation example according to the sixth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the input non-stereo image is projected as a left-eye image 630 onto the curved surface 620 corresponding to the depth map, and is projected onto the right-eye image 640 corresponding to each point on the curved surface 620.
  • a point 631 on the left-eye image 630 viewed from the left eye 512 is projected to a point 621 on the curved surface 620.
  • the point 621 is projected onto the point 641 on the right eye image 640.
  • a point 632 on the left-eye image 630 viewed from the left eye 512 is projected to a point 622 on the curved surface 620.
  • this point 622 is viewed by the right eye 511, it is projected on the point 642 on the right eye image 640.
  • the left-eye image 630 and the right-eye image 640 are shown as being shifted from each other in the z direction, but in actuality they are located on the same plane.
  • FIG. 29 is a diagram illustrating another example of generating a stereoscopic image according to the sixth example of the three-dimensional conversion unit 130 in the embodiment of the present invention.
  • the input non-stereo image is projected as an image (input image 650) viewed from the center 513 of the right eye and the left eye onto the curved surface 620 corresponding to the depth map, and for the left eye corresponding to each point on the curved surface 620. Projecting to the image 630 and the right-eye image 640.
  • a point 651 on the input image 650 viewed from the center 513 is projected to a point 621 on the curved surface 620.
  • this point 621 is viewed with the left eye 512, it is projected onto the point 631 on the left eye image 630, and when viewed with the right eye 511, it is projected onto the point 641 on the right eye image 640.
  • a point 652 on the input image 650 viewed from the center 513 is projected to a point 622 on the curved surface 620.
  • the point 622 is viewed with the left eye 512, it is projected onto the point 632 on the left eye image 630, and when viewed with the right eye 511, it is projected onto the point 642 on the right eye image 640.
  • the left-eye image 630, the right-eye image 640, and the input image 650 are shown with their positions shifted in the z-direction, but they are actually all located on the same plane.
  • the embodiment of the present invention is an example for embodying the present invention, and has a corresponding relationship with the invention specifying items in the claims as described above.
  • the present invention is not limited to the embodiments, and various modifications can be made without departing from the scope of the present invention.
  • the processing procedure described in the embodiment of the present invention may be regarded as a method having a series of these procedures, and a program for causing a computer to execute the series of procedures or a recording medium storing the program May be taken as
  • this recording medium for example, a CD (Compact Disc), an MD (MiniDisc), a DVD (Digital Versatile Disc), a memory card, a Blu-ray Disc (Blu-ray Disc (registered trademark)), or the like can be used.
  • Source selection part 190 Display part 311,321,331,341 Horopter plane image projection part 316, 326, 336, 346, 356, 366 Display surface right eye projection unit 317, 327, 337, 347, 357, 367 Display surface left eye projection unit 322, 332, 342 Convergence point setting unit 343 Scaling unit 354 Slope surface right eye setting unit 355 tilt plane left eye setting unit 361 input image depth map generation unit 362 horopter plane depth map generation unit 363 depth map synthesis unit 520 horopter circle 530 horopter image 540, 570 display surface 620 post-synthesis curved surface 630 image for left eye 640 image for right eye 650 input image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

 投射変換を用いた画像処理によって生理的立体視要素の影響を取り除く。ホロプター面画像投影部311は、信号線129を介して供給された非立体画像を、ホロプター円を含む円筒面(ホロプター面)に投影するものである。ホロプター円情報として、例えば半径を用いてホロプター円の大きさが特定される。また、両眼間距離により、両眼との関係が特定される。表示面右目投影部316は、ホロプター面に投影された画像を右目用の表示面に投影するものである。表示面左目投影部317は、ホロプター面に投影された画像を左目用の表示面に投影するものである。これにより、両眼に対して同一の網膜像を供給して、生理的立体視要素の影響を取り除き、立体視的な深みを与える。

Description

立体視画像生成装置、立体視画像生成方法およびプログラム
 本発明は、立体視画像生成装置に関し、特に非立体画像から立体視画像を生成する立体視画像生成装置、および、その処理方法ならびに当該方法をコンピュータに実行させるプログラムに関する。
 近年、ディスプレイ装置の大型化または広視野角化が進み、従来よりも臨場感の高い画像表示が可能になりつつある。しかし、従来のディスプレイ装置では、ディスプレイ装置の表示面上に画像があるように強制的に知覚されてしまい、影や構図などの感覚的立体視要素による立体感発生が阻害されるおそれがある。これは、両眼からディスプレイ装置の表示面を知覚した際の輻輳角の変化や、両眼視差による歪の発生といった、生理的立体視要素から生じる影響によるものと考えられる。
 このような生理的立体視要素による影響を取り除くための光学的装置としてシノプター(synopter)と呼ばれる立体視鏡が知られている。シノプターは、ハーフミラーを組み合わせることにより、同一位置において受けた光を両眼に分けて供給するものである。このシノプターによれば、両眼の網膜像が同一になり、非立体画像に対して立体視的な深みを与え得ることが知られている(例えば、非特許文献1参照。)。
Jan J Koenderink他著,「On so-called paradoxical monocular stereoscopy」,Perception,Pion Publication(英国),1994年,第23巻,p.583-594
 このように、シノプターなどの光学的装置によれば、生理的立体視要素による影響を取り除いて両眼の網膜像を同一にすることにより、非立体画像から立体視的な深みを得ることができる。このような光学的装置によれば簡易な機構により立体視を実現することができるが、その反面、ディスプレイ装置側には自由度がなく、それ以上の視覚効果を得ることは難しくなる。
 そこで、本発明では、画像処理によって生理的立体視要素の影響を取り除くことを目的とする。
 本発明は、上記課題を解決するためになされたものであり、その第1の側面は、両眼に接する仮想円を含む円筒面に対して2次元入力画像を投影して円筒画像を生成する円筒面投影部と、上記両眼のそれぞれを基準として上記円筒画像を表示面に対して投影して上記両眼のそれぞれに射影される表示画像を生成する表示面投影部とを具備する立体視画像生成装置、その立体視画像生成方法またはプログラムである。これにより、両眼のそれぞれに同一の網膜像を供給して、生理的立体視要素から生じる影響を取り除くという作用をもたらす。
 また、この第1の側面において、上記仮想円の半径は、想定される観察距離または表示サイズに応じて設定されてもよい。これにより、観察距離または表示サイズに適した画像を表示させるという作用をもたらす。この場合において、この第1の側面において、上記表示面と観察位置との距離を測定する観察距離測定部をさらに具備し、上記仮想円の半径は、上記観察距離測定部により測定された観察距離に応じて設定されてもよい。これにより、測定された観察距離に適した画像を表示させるという作用をもたらす。
 また、この第1の側面において、上記仮想円の半径は、上記表示画像の歪度が所定の閾値より小さくなるように設定されてもよい。これにより、歪が許容できる範囲内において画像を表示させるという作用をもたらす。
 また、この第1の側面において、上記2次元入力画像から奥行き情報を生成する奥行き情報生成部と、上記奥行き情報を上記円筒画像に合成する奥行き情報合成部とをさらに具備し、上記表示面投影部は、上記奥行き情報が合成された円筒画像を表示面に対して投影して上記表示画像を生成してもよい。これにより、さらに立体感を増強した画像を表示させるという作用をもたらす。
 また、本発明の第2の側面は、両眼のそれぞれの視線に直交する2次元平面に対して2次元入力画像を投影して両眼のそれぞれに対応する照射画像を生成する照射面投影部と、上記両眼のそれぞれを基準として対応する上記照射画像を表示面に対して投影して上記両眼のそれぞれに射影される表示画像を生成する表示面投影部とを具備する立体視画像生成装置、その立体視画像生成方法またはプログラムである。これにより、両眼のそれぞれに同一の網膜像を供給して、生理的立体視要素から生じる影響を取り除くという作用をもたらす。
 また、この第2の側面において、上記照射画像の位置は、想定される観察距離に応じて設定されてもよい。これにより、観察距離に適した画像を表示させるという作用をもたらす。この場合において、上記表示面と観察位置との距離を測定する観察距離測定部をさらに具備し、上記照射画像の位置は、上記観察距離測定部により測定された観察距離に応じて設定されてもよい。これにより、測定された観察距離に適した画像を表示させるという作用をもたらす。
 また、本発明の第3の側面は、表示面から右目および左目のそれぞれに投影される映像が同一となるように2次元入力画像を変換してそれぞれ右目画像および左目画像を生成する立体視画像生成装置、その立体視画像生成方法またはプログラムである。これにより、両眼のそれぞれに同一の網膜像を供給して、生理的立体視要素から生じる影響を取り除くという作用をもたらす。
 本発明によれば、画像処理によって生理的立体視要素の影響を取り除くことができるという優れた効果を奏し得る。
図1は、本発明の実施の形態における立体視画像生成装置の一構成例を示す図である。 図2は、本発明の実施の形態における三次元変換部130の第1の実施例を示す図である。 図3は、本発明の実施の形態における三次元変換部130の第1の実施例のホロプター面への投影の一態様を示す図である。 図4は、本発明の実施の形態における三次元変換部130の第1の実施例のホロプター面への投影の具体例を示す図である。 図5は、本発明の実施の形態における三次元変換部130の第1の実施例の表示面への投影の一態様を示す図である。 図6は、本発明の実施の形態における三次元変換部130の第1の実施例の表示面への投影の具体例を示す図である。 図7は、本発明の実施の形態における三次元変換部130の第1の実施例による処理手順例を示す図である。 図8は、本発明の実施の形態における三次元変換部130の第2の実施例を示す図である。 図9は、ホロプター円の大きさと輻輳点の位置との関係を示す図である。 図10は、本発明の実施の形態における三次元変換部130の第2の実施例のホロプター面への投影の一態様を示す図である。 図11は、本発明の実施の形態における三次元変換部130の第2の実施例のホロプター面への投影の具体例を示す図である。 図12は、本発明の実施の形態における三次元変換部130の第3の実施例を示す図である。 図13は、ホロプター円と画像の歪度の関係例を示す図である。 図14は、角度θと画像の歪度Qの関係例を示す図である。 図15は、ホロプター円と円周角の関係例を示す図である。 図16は、本発明の実施の形態における三次元変換部130の第4の実施例を示す図である。 図17は、ホロプター円と表示面の関係例を示す図である。 図18は、本発明の実施の形態における三次元変換部130の第5の実施例を示す図である。 図19は、本発明の実施の形態における三次元変換部130の第5の実施例のあおり面への投影の一態様を示す図である。 図20は、本発明の実施の形態における三次元変換部130の第5の実施例のあおり面への投影の具体例を示す図である。 図21は、本発明の実施の形態における三次元変換部130の第5の実施例の表示面への投影の具体例を示す図である。 図22は、本発明の実施の形態における三次元変換部130の第5の実施例による処理手順例を示す図である。 図23は、本発明の実施の形態における三次元変換部130の第6の実施例を示す図である。 図24は、本発明の実施の形態における三次元変換部130の第6の実施例による処理の概要を示す図である。 図25は、本発明の実施の形態における三次元変換部130の第6の実施例によるホロプター面の深度マップの一例を示す図である。 図26は、本発明の実施の形態における三次元変換部130の第6の実施例による奥行き情報の推定例を示す図である。 図27は、本発明の実施の形態における三次元変換部130の第6の実施例の深度マップ合成部363の一構成例を示す図である。 図28は、本発明の実施の形態における三次元変換部130の第6の実施例による立体画像の生成例を示す図である。 図29は、本発明の実施の形態における三次元変換部130の第6の実施例による立体画像の他の生成例を示す図である。
 次に本発明の実施の形態について図面を参照して詳細に説明する。
 図1は、本発明の実施の形態における立体視画像生成装置の一構成例を示す図である。この立体視画像生成装置は、画像信号入力部110と、信号処理部120と、三次元変換部130と、パラメータ設定部140と、観察距離測定部150と、後処理部160と、フォーマット変換部170と、ソース選択部180と、表示部190とを備えている。
 画像信号入力部110は、非立体画像の画像信号入力を受け付けるものである。入力される非立体画像は、静止画に限定されず、動画であってもよい。非立体画像のソース機器としては、テレビ放送受信機、映像再生装置(プレーヤ)または撮像装置(カムコーダ:CAMera and reCORDER)などが想定される。
 信号処理部120は、入力された非立体画像に対して所定の信号処理を施すものである。この信号処理として、例えば、ホワイトバランス調節、ノイズ軽減処理、レベル補正処理およびガンマ補正処理等が想定される。
 三次元変換部130は、本発明の特徴的部分であり、二次元の非立体画像を三次元に変換するものである。この三次元変換部130における三次元変換処理により、非立体画像に基づく三次元画像が生成される。この三次元画像として、例えば、左目用の画像と右目用の画像とが得られる。
 パラメータ設定部140は、三次元変換部130における三次元変換処理に必要なパラメータを設定するものである。そのようなパラメータとしては、例えば、後述するホロプター円を特定するための半径などが想定される。
 観察距離測定部150は、表示部190と視聴者の観察位置との間の距離を測定するものである。この観察距離測定部150により測定された観察距離に基づいて、三次元変換部130における三次元変換処理を行うことができる。ただし、観察距離を実測せずに、予め想定された観察距離を用いるようにしてもよい。
 後処理部160は、三次元変換部130における三次元変換処理により得られた三次元画像に対して、エリアシング(aliasing)を防ぐための後処理を行うものである。例えば、表示部190において1ライン毎に左目用の画像と右目用の画像とを交互に表示することを想定すると、エリアシングによるジャギー(階段状のギザギザ)が表示されるおそれがある。これを防ぐために、後処理部160は、垂直方向にフィルタをかけて画像の変化を滑らかにする。
 フォーマット変換部170は、三次元画像を表示部190の対応するフォーマットに変換するものである。このフォーマット変換部170は、表示部190の対応するフォーマットに合わせて、例えば、左目用の画像と右目用の画像とが1ライン毎に交互に配置されるように変換することができる。
 ソース選択部180は、表示すべき画像をソースとして選択するものである。すなわち、このソース選択部180は、非立体画像をそのまま表示する場合には信号処理部120の出力を選択し、立体視のための三次元画像を表示する場合にはフォーマット変換部170の出力を選択する。
 表示部190は、画像を表示するディスプレイである。ここでは、表示部190として、立体視のための三次元画像を表示する機能を有することを前提とするが、その機能の実現手段は特に限定されない。例えば、特開2002-365593号公報に記載されているように、1ライン置きに分割波長板を配設し、表示画面の偶数ラインと奇数ラインからの直線偏光を互いに直交するものに変換して、両眼に異なる画像の光を入射させることが考えられる。
 図2は、本発明の実施の形態における三次元変換部130の第1の実施例を示す図である。この三次元変換部130の第1の実施例は、ホロプター面画像投影部311と、表示面右目投影部316と、表示面左目投影部317とを備える。
 ホロプター面画像投影部311は、信号処理部120から信号線129を介して供給された非立体画像を、ホロプター円(horopter)を含む円筒面に投影するものである。ホロプター円とは両眼に接する円周であり、このホロプター円上の点に対する両眼網膜像は同一になることが知られている。この円筒面をホロプター面と呼称し、ホロプター面に投影された画像をホロプター画像と呼称する。また、両眼の視線の交点を輻輳点と呼称し、その成す角を輻輳角または円周角と呼称する。ホロプター円上では、輻輳角は等しくなる。この第1の実施例では、ホロプター円情報によりホロプター円の大きさを特定する。また、両眼間距離「2a」により両眼との相対的位置関係を特定する。これらホロプター円情報および両眼間距離「2a」は、信号線149を介してパラメータ設定部140から供給される。なお、以下では、ホロプター円情報として半径「r」を用いてホロプター円の大きさを特定しているが、両眼の中心からホロプター円の頂点までの距離や円周角などを用いてホロプター円の大きさを特定してもよい。なお、ホロプター面画像投影部311は、特許請求の範囲に記載の円筒面投影部の一例である。
 表示面右目投影部316は、ホロプター画像を右目用の表示面に投影するものである。表示面左目投影部317は、ホロプター画像を左目用の表示面に投影するものである。表示面右目投影部316および表示面左目投影部317は、両眼間距離「2a」、ホロプター円の半径「r」、想定される観察距離「d」に基づいて、右目用および左目用の表示面への投影を行う。右目用の表示面に投影された画像を右目画像と呼称し、左目用の表示面に投影された画像を左目画像と呼称する。これら右目画像および左目画像は、信号線139を介して後処理部160に供給される。なお、表示面右目投影部316および表示面左目投影部317は、特許請求の範囲に記載の表示面投影部の一例である。
 図3は、本発明の実施の形態における三次元変換部130の第1の実施例のホロプター面への投影の一態様を示す図である。ホロプター円520は、右目511、左目512、および、輻輳点531(頂点)または532を通る円である。ここで、右目511および左目512は、両眼の中央から「a」ずつ離れていることを想定している。すなわち両眼間距離は「2a」である。また、ホロプター円520の半径は「r」である。
 このホロプター円520上の点に対する右目511および左目512の両眼網膜像は同一になる。これは、ホロプター円520上の点を輻輳点とした場合の輻輳角が常に等しいからである。例えば、輻輳点531に対する輻輳角533と、輻輳点532に対する輻輳角534とは等しくなる。このようなホロプター円520を含む円筒面(ホロプター面)に非立体画像をホロプター画像530として投影することにより、右目511および左目512には両眼視差のない同一の網膜像を形成することができる。
 図4は、本発明の実施の形態における三次元変換部130の第1の実施例のホロプター面への投影の具体例を示す図である。
 図4の(a)は、信号処理部120から信号線129を介して供給される入力画像I(p,q)の座標系を示している。入力画像は非立体画像であるため、二次元の座標系を用いている。座標系の原点は入力画像の中央点に設定されている。また、入力画像サイズ(幅)は「2L」を想定している。
 図4の(b)は、ホロプター画像530が投影されるホロプター面の座標系を示している。ホロプター面は三次元になるため、ここでは(x,y,z)の三次元の座標系を用いている。座標系の原点はホロプター円520の中心に設定されている。図4の(b)は、ホロプター面に対する垂直方向、すなわち、y軸の垂直方向から見た図になっている。
 このとき、ホロプター画像H(x,y,z)は、半径rのホロプター円に入力画像I(p,q)を投影したものであり、次式により表される。
  H(x,y,z)=I((π/2-ψ)×r,y)
ただし、
  z2+x2=r2
  ψ=tan-1(z/x)
である。
 なお、ここでは、入力画像サイズ(幅)「2L」は、表示面サイズ(幅)と等倍であることを想定したが、前段に入力画像をスケーリングする機能を設けることにより、画像の物理サイズを変更するようにしてもよい。
 図5は、本発明の実施の形態における三次元変換部130の第1の実施例の表示面への投影の一態様を示す図である。
 ここでは、ホロプター円520上の輻輳点532を表示面540に投影することを考える。輻輳点532から右目511に形成される像は、表示面540上では表示位置541に表示される。一方、輻輳点532から左目512に形成される像は、表示面540上では表示位置542に表示される。すなわち、同一のホロプター画像530であっても、表示面540に表示されるべき画像は、右目511と左目512とで基本的に異なる画像になる。
 図6は、本発明の実施の形態における三次元変換部130の第1の実施例の表示面への投影の具体例を示す図である。
 図6の(a)は、ホロプター面および表示面の座標系を示している。ここでは(x,y,z)の三次元の座標系を用いているが、図4の(a)の場合と異なり、xy平面上の原点の位置は右目511と左目512の中間点に設定されている。ここで、この座標系における原点とホロプター円520の中心との距離cは、
  c=(r2-a21/2となる。
 図6の(b)は、表示面に投影された表示画像J(s,t)の座標系を示している。表示画像は、右目511および左目512のそれぞれに関して得られる。それぞれは二次元画像であるため、二次元の座標系を用いている。座標系の原点は表示画像の中央点に設定されている。
 このとき、右目511からホロプター画像上の位置H(x0,y0,z0)を通って投影される表示面540上の位置D(xR,yR,zR)は、次式により与えられる。
  D(xR,yR,zR)=J(xR,yR)=H(x0,y0,z0
 また、視聴者の観察位置との間の距離が観察距離dであることから、zR=dであり、以下の式が成り立つ。
  (x0-a)/(xR-a)=y0/yR=z0/d
  x0 2+(z0-c)2=r2
  z0>0
 これにより、表示面540上の位置D(xR,yR,zR)に投影すべき画像を、位置H(x0,y0,z0)から求めることができる。すなわち、{xR,yR,zR}から{x0,y0,z0}を求めることになる。
 なお、ここでは、右目511から投影される位置D(xR,yR,zR)について説明したが、左目512からホロプター画像上の位置H(x0,y0,z0)を通って投影される表示面540上の位置D(xL,yL,zL)についても同様に求めることができる。
 また、ここでは、半径「r」によってホロプター円の大きさを特定する例を挙げて説明したが、上述のように、両眼の中心からホロプター円の頂点までの距離や円周角などを用いてホロプター円の大きさを特定してもよい。両眼の中心から輻輳点までの距離fは、次式により与えられる。
  f=r+c
   =r+(r2-a21/2
rを左辺に移動して両辺を二乗すると、
  f2-2rf+r2=r2-a2
  r=(f2+a2)/2f
となるため、両眼の中心から輻輳点までの距離「f」と両眼間距離「2a」とから半径「r」を求めることができる。円周角と半径との関係については、次の実施例(図15)において説明する。
 図7は、本発明の実施の形態における三次元変換部130の第1の実施例による処理手順例を示す図である。
 まず、信号処理部120から信号線129を介して入力画像I(p,q)が入力されると(ステップS911)、入力画像I(p,q)はホロプター面にホロプター画像H(x,y,z)として投射される(ステップS912)。なお、ステップS912は、特許請求の範囲に記載の円筒面投影手順の一例である。
 そして、右目および左目のそれぞれについて以下のようにして表示画像が生成される(ループL901)。まず、右目511からホロプター画像上の位置H(x0,y0,z0)を通って投影される表示面540上に対して透視変換が行われ、三次元上の位置D(xR,yR,zR)が得られる(ステップS913)。そして、この三次元上の位置から、表示面の二次元の表示画像J(xR,yR)が得られる(ステップS914)。同様に、左目512からホロプター画像上の位置H(x0,y0,z0)を通って投影される表示面540上に対して透視変換が行われ、三次元上の位置D(xL,yL,zL)が得られる(ステップS913)。そして、この三次元上の位置から、表示面の二次元の表示画像J(xL,yL)が得られる(ステップS914)。なお、ステップS913およびS914は、特許請求の範囲に記載の表示面投影手順の一例である。
 このように、本発明の実施の形態における三次元変換部130の第1の実施例では、ホロプター円情報により特定されるホロプター円520に対して非立体画像をホロプター画像として投影する。そして、実測もしくは推定された観察距離における表示面にホロプター画像を投影することにより、右目511および左目512に対する立体画像を生成することができる。
 図8は、本発明の実施の形態における三次元変換部130の第2の実施例を示す図である。この三次元変換部130の第2の実施例は、ホロプター面画像投影部321と、輻輳点設定部322と、表示面右目投影部326と、表示面左目投影部327とを備える。
 ホロプター面画像投影部321は、ホロプター面画像投影部311と同様に、信号処理部120から信号線129を介して供給された非立体画像を、ホロプター円を含む円筒面に投影するものである。この第2の実施例では、輻輳点設定部322により設定された輻輳点に基づく半径「r」を用いてホロプター円を特定する。なお、ホロプター面画像投影部321は、特許請求の範囲に記載の円筒面投影部の一例である。
 輻輳点設定部322は、輻輳点を設定してこの輻輳点に基づく半径「r」を供給するものである。この輻輳点設定部322は、両眼間距離「2a」、観察距離「d」、表示面サイズ「2M」および入力画像サイズ「2L」によって輻輳点を設定する。
 表示面右目投影部326および表示面左目投影部327は、第1の実施例と同様に、ホロプター画像を右目用または左目用の表示面に投影するものである。なお、表示面右目投影部326および表示面左目投影部327は、特許請求の範囲に記載の表示面投影部の一例である。
 図9は、ホロプター円の大きさと輻輳点の位置との関係を示す図である。ホロプター円は、両眼間距離および半径によって一意に特定される。したがって、半径を固定しない場合には、同図のように、両眼を通るホロプター円は何通りも想定することができる。一般に、輻輳点が近いほど輻輳角は広くなり、半径は小さくなる。
 ここで、入力画像サイズを固定した上でこれをホロプター円に投影すると、同図のように、表示面におけるサイズ(幅)がホロプター円毎に異なることがわかる。すなわち、ホロプター円521のように輻輳点が近いほど表示面のサイズ(幅)は広くなり、ホロプター円522のように輻輳点が遠いほど表示面のサイズ(幅)は小さくなる。そこで、入力画像を表示面一杯に表示することを目的として、表示面上の投影サイズから逆算してホロプター円の輻輳点を設定するのがこの第2の実施例である。
 図10は、本発明の実施の形態における三次元変換部130の第2の実施例のホロプター面への投影の一態様を示す図である。ここでは、まず、入力画像サイズ(幅)を「2L」として、表示面上に投影されるサイズ(幅)「2m」がどのような式で表されるかを考える。
 ホロプター円の内部において、長さp、q、rの各辺からなる直角三角形を想定すると、pおよびqは次式により表される。
  p=r・sinφ
  q=r・cosφ
ここで、角度φは、長さqおよびrの両辺のなす角である。この角度φは次式により表される。
  φ=(L/(2πr))・2π=L/r
 また、表示面上に投影されるサイズ(幅)「2m」のうち、上述の直角三角形を通過する部分をxとし、その右部分をyとする。直角三角形における相似関係から、
  p:x=q:(d-c)
したがって、xは次式により与えられる。
  x=p・(d-c)/q
 また、頂点Tの直角三角形における相似関係から、
  t:a=(t+c):s
  t:a=(t+c+q):p
したがって、sは次式により得られる。
  s=((p-a)/(a・(c+q)))・((a・(c+q)/(p-a))+c)・a
   =(a・q-c・p)/(c+q)
 また、長さsおよび半径rの各辺によって形成される三角形における相似関係から、
  s:y=q:(q-(d-c))
したがって、yは次式により与えられる。
  y=((q-d+c)/q)・s
   =((q-d+c)・(a・q-c・p))/(q・(c+q))
 このようにして得られたxとyを加算したものが表示面上に投影されるサイズ(幅)の半分「m」となる。
  m=x+y
   =p・(d-c)/q
     +((q-d+c)・(a・q-c・p))/(q・(c+q))
 図11は、本発明の実施の形態における三次元変換部130の第2の実施例のホロプター面への投影の具体例を示す図である。第2の実施例では、上述のように、表示面540上の投影幅が表示面540一杯に表示されるように輻輳点を設定する。したがって、同図に示すように、表示面540自体の幅「2M」と、上式により得られた表示面上の投影幅「2m」とを一致させることになる。
 輻輳点設定部322には、表示面540のサイズ(幅)「2M」、入力画像サイズ(幅)「2L」、両眼間距離「2a」、観察距離「d」が与えられるため、上式により得られた表示面上の投影サイズ(幅)「2m」が「2M」と一致するようにして、ホロプター円の半径rを求めることができる。
 このように、本発明の実施の形態における三次元変換部130の第2の実施例では、表示面540のサイズを予め想定することにより、表示面540上の投影画像が表示面540一杯に表示されるような輻輳点を設定し、ホロプター円を一意に特定することができる。
 図12は、本発明の実施の形態における三次元変換部130の第3の実施例を示す図である。この三次元変換部130の第3の実施例は、表示面における画像の歪度が大きくならないように輻輳点を定めるものである。両眼の各眼の真正面からずれるほど、画像の中央と周辺との間の歪度が大きくなるため、この歪度が許容範囲内に収まるように輻輳点が設定される。この三次元変換部130の第3の実施例は、ホロプター面画像投影部331と、輻輳点設定部332と、表示面右目投影部336と、表示面左目投影部337とを備える。
 ホロプター面画像投影部331は、ホロプター面画像投影部311と同様に、信号処理部120から信号線129を介して供給された非立体画像を、ホロプター円を含む円筒面に投影するものである。この第3の実施例では、輻輳点設定部332により設定された輻輳点に基づく円周角「τ」を用いてホロプター円を特定する。なお、ホロプター面画像投影部331は、特許請求の範囲に記載の円筒面投影部の一例である。
 輻輳点設定部332は、輻輳点を設定してこの輻輳点に基づく円周角「τ」を供給するものである。この輻輳点設定部332は、両眼間距離「2a」、観察距離「d」、最大歪度「Qmax」および微小角度「δ」によって輻輳点を設定する。設定の詳細については次図により説明する。
 表示面右目投影部336および表示面左目投影部337は、第1の実施例と同様に、ホロプター画像を右目用または左目用の表示面に投影するものである。なお、ここでは、輻輳点設定部332から供給される円周角「τ」を用いて表示面への投影を行っているが、第1の実施例における半径「r」と本実施例における円周角「τ」は輻輳点を設定するという意味では等価である。したがって、両者を適宜入れ換えて使用してもよい。なお、表示面右目投影部336および表示面左目投影部337は、特許請求の範囲に記載の表示面投影部の一例である。
 図13は、ホロプター円と画像の歪度の関係例を示す図である。ここでは、左目512に関して歪度を求めるが、右目511についても同様である。
 左目512から真正面を見たホロプター円上の位置535と、その位置から角度θ回転した位置536において、それぞれ微小角度「δ」ずれた場合の、表示面540上の距離を比較する。位置535において微小角度「δ」ずれた場合、ホロプター円の中心点oの見込角は「2δ」となるから、ホロプター円上の位置535では「2δr」のずれが生じる。この点、位置536において微小角度「δ」ずれた場合も、ホロプター円の中心点oの見込角は「2δ」となるから、ホロプター円上の位置536では同様に「2δr」のずれが生じる。
 ホロプター円上の位置535に対応する表示面540上の位置545では、観察距離「d」を一辺とし、角度「δ/2」を有する直角三角形を想定すると、ずれ幅Q1は次式のようになる。
  Q1=2d・tan(δ/2)
 一方、ホロプター円上の位置536に対応する表示面540上の位置546では、観察距離「d」を一辺とし、角度「θ」を有する直角三角形を想定すると、ずれ幅Q2は次式のようになる。
  Q2=2d・(tanθ-tan(θ-δ/2))
 したがって、歪度Qは、次式により得られる。
  Q=Q2/Q1
   =(2d・(tanθ-tan(θ-δ/2)))/(2d・tan(δ/2))
   =(tanθ-tan(θ-δ/2))/tan(δ/2)
 図14は、角度θと画像の歪度Qの関係例を示す図である。ここでは、図13において微小角度δを「0.01」として、角度θを「-70°」から「+70°」まで変化させた場合の歪度Qを示している。
 この例からもわかるように、眼の真正面からずれるほど、画像の中央と周辺との間の歪度Qが大きくなっている。そこで、この第3の実施例では、歪度の閾値として最大歪度「Qmax」を与え、歪度がこれより小さくなるように角度θを設定する。
 図15は、ホロプター円と円周角の関係例を示す図である。円周角が「τ」であるとすると、右目511と左目512とからホロプター円520の中心点oを見込んだ角は「2τ」である。この角は、中心点oから両眼の中心への垂線によって2等分され、それぞれ「τ」となる。この図では、左目512を基準とした「τ」について示している。
 右目511および左目512の中心線とホロプター円520との交点537と、左目512と、ホロプター円520の中心点oとからなる三角形に注目すると、交点537および左目512における角度は何れも「τ/2」となる。左目512から真正面を見たホロプター円上の位置535と左目512とを結ぶ直線が、右目511および左目512の中心線と並行であることから、交点537と入力画像の端点538とによって左目512において形成される角度は「θ-τ/2」となる。ただし、角度θは、位置535と入力画像の端点538とによって左目512において形成される角度である。したがって、交点537と入力画像の端点538とからホロプター円520の中心点oを見込んだ角度は「2・(θ-τ/2)」となる。この場合の円弧が入力画像のサイズ(幅)の「L」と一致することから次式が成り立つ。
  2・(θ-τ/2)・r=L
 また、右目511および左目512の中心点と、ホロプター円520の中心点oと、左目512とからなる直角三角形に注目すると、半径rは次式により表される。すなわち、円周角「τ」と両眼間距離「2a」とから半径「r」を求めることができることがわかる。
  r=a/sin(τ)
したがって、上の2式から半径rを消去して、次式が得られる。
  2・(θ-τ/2)・(a/sin(τ))=L
上式より、角度「θ」、両眼間距離の半分「a」、および、入力画像のサイズ「L」が既知であれば、円周角「τ」が得られることがわかる。
 このように、本発明の実施の形態における三次元変換部130の第3の実施例では、微小角度「δ」および最大歪度「Qmax」を与えることにより、画面中央と周辺の歪が最大歪度以下となるように輻輳点を設定し、ホロプター円を特定することができる。
 図16は、本発明の実施の形態における三次元変換部130の第4の実施例を示す図である。この三次元変換部130の第4の実施例は、表示面における画像の歪が大きくならないように輻輳点を定めるとともに、入力画像が表示面一杯に表示されるように入力画像のサイズ(幅)をスケーリングするものである。この三次元変換部130の第4の実施例は、ホロプター面画像投影部341と、輻輳点設定部342と、スケーリング部343と、表示面右目投影部346と、表示面左目投影部347とを備える。
 輻輳点設定部342は、輻輳点を設定してこの輻輳点に基づく半径「r」および角度「θ」を供給するものである。この輻輳点設定部342は、両眼間距離「2a」、観察距離「d」、最大歪度「Qmax」、微小角度「δ」および表示面サイズ「2M」によって輻輳点を設定する。
 スケーリング部343は、信号処理部120から信号線129を介して供給された非立体画像を、輻輳点設定部342によって設定された輻輳点に応じて拡大または縮小(スケーリング)するものである。
 ホロプター面画像投影部341は、スケーリング部343によってスケーリングされた非立体画像を、ホロプター円を含む円筒面に投影するものである。なお、ホロプター面画像投影部341は、特許請求の範囲に記載の円筒面投影部の一例である。
 表示面右目投影部346および表示面左目投影部347は、第1の実施例と同様に、ホロプター画像を右目用または左目用の表示面に投影するものである。なお、表示面右目投影部346および表示面左目投影部347は、特許請求の範囲に記載の表示面投影部の一例である。
 図17は、ホロプター円と表示面の関係例を示す図である。この第4の実施例では、第3の実施例と同様に、微小角度「δ」に対して歪度が最大歪度「Qmax」よりも小さくなるように角度「θ」が決定される。そして、この角度「θ」に基づいて、ホロプター円が決定されるとともに、入力画像のサイズが決定される。
 入力画像の端点538はホロプター円520上にあるため、右目511と左目512とから入力画像の端点538を見込んだ角度は「τ」である。また、左目512および入力画像の端点538を結ぶ直線と表示面540との交点548、左目512および左目真正面の点535を結ぶ直線と表示面540との交点545および左目512の位置からなる直角三角形に着目すると、左目512から交点548においてなす角は「π/2-θ」となる。また、頂点Tを含む直角三角形に着目すると、頂点Tから交点549においてなす角は「tan-1(x/a)」である。
ここで、xは、
  x:a=(x+d):M
を満たすことから、
  x=a・d/(M-a)
により与えられる。
 したがって、交点549における内側の角度は「π-tan-1(x/a)」となる。これにより、角度「τ」は次式により与えられる。すなわち、次式が成立するようにτを設定することにより、ホロプター円が決定される。
  τ=θ-(π/2)+tan-1(x/a)
 また、第3の実施例において算出したように、交点537と入力画像の端点538とからホロプター円520の中心点oを見込んだ角度は「2・(θ-τ/2)」となる。この場合の円弧が入力画像のサイズ(幅)の「L」と一致することから次式が成り立つ。
  L=2・(θ-τ/2)・r
 第3の実施例では入力画像のサイズを固定としたが、この第4の実施例では入力画像のサイズは可変であり、上式を満たすようにスケーリング部343によって入力画像のスケーリングが行われる。
 このように、本発明の実施の形態における三次元変換部130の第4の実施例では、画面中央と周辺の歪が最大歪度以下となるように輻輳点を設定してホロプター円を特定するとともに、入力画像をスケーリングして入力画像を表示面一杯に表示することができる。
 図18は、本発明の実施の形態における三次元変換部130の第5の実施例を示す図である。この三次元変換部130の第5の実施例は、非立体画像をホロプター円に投射する手順を経ずに、各眼に対応するあおり面に非立体画像をそれぞれ投射した後に表示面に投影することにより、立体画像を生成するものである。ただし、後に示すように、この第5の実施例により表示される画像は、第1乃至4の実施例により説明したホロプター円を介して表示された画像と等価である。そこで、ここでは、立体画像を生成する際にホロプター円を想定し、このホロプター円の半径をパラメータとして与えるものとする。この三次元変換部130の第5の実施例は、あおり面右目設定部354と、あおり面左目設定部355と、表示面右目投影部356と、表示面左目投影部357とを備える。
 あおり面右目設定部354は、両眼から等距離にある輻輳点を右目から見た視点を想定し、この視点に対して垂直に交わるあおり面を設定して、信号処理部120から信号線129を介して供給された非立体画像を右目用のあおり画像として投影するものである。あおり面左目設定部355は、両眼から等距離にある輻輳点を左目から見た視点を想定し、この視点に対して垂直に交わるあおり面を設定して、信号処理部120から信号線129を介して供給された非立体画像を左目用のあおり画像として投影するものである。あおり面右目設定部354およびあおり面左目設定部355は、両眼間距離「2a」、ホロプター円の半径「r」、想定される観察距離「d」、あおり面距離「k」に基づいて、右目用および左目用のあおり面への投影を行う。なお、あおり面は、特許請求の範囲に記載の照射面の一例である。また、あおり面右目設定部354およびあおり面左目設定部355は、特許請求の範囲に記載の照射面投影部の一例である。
 表示面右目投影部356は、右目用のあおり画像を右目用の表示面に投影するものである。表示面左目投影部357は、左目用のあおり画像を左目用の表示面に投影するものである。表示面右目投影部356および表示面左目投影部357は、両眼間距離「2a」、ホロプター円の半径「r」、想定される観察距離「d」に基づいて、右目用および左目用の表示面への投影を行う。右目用の表示面に投影された画像を右目画像と呼称し、左目用の表示面に投影された画像を左目画像と呼称する。これら右目画像および左目画像は、信号線139を介して後処理部160に供給される。なお、表示面右目投影部356および表示面左目投影部357は、特許請求の範囲に記載の表示面投影部の一例である。
 図19は、本発明の実施の形態における三次元変換部130の第5の実施例のあおり面への投影の一態様を示す図である。
 右目511および左目512の中心線とホロプター円520との交点は、両眼から等距離にある輻輳点527である。右目用あおり面550は、右目511から輻輳点527を見た視点に対して点551において垂直に交わる面である。左目用あおり面560は、左目512から輻輳点527を見た視点に対して点561において垂直に交わる面である。右目511の位置および左目512の位置を結ぶ線分と点551および561を結ぶ線分との間の距離をあおり面距離「k」とする。
 ここでは、右目用あおり面550および左目用あおり面560上の画像を表示面570に投影することを考える。右目511および左目512と表示面570との間の距離を観察距離「d」とする。右目用あおり面550上の点551から距離「S」離れた点552に形成される像は、表示面570上では表示位置571に表示される。左目用あおり面560上の点561から距離「S」離れた点562に形成される像は、表示面570上では表示位置572に表示される。このとき、右目511および点571を結ぶ直線と、左目512および点572を結ぶ直線とは、ホロプター円520上の交点522で交わる。すなわち、この第5の実施例により表示される画像は、第1乃至4の実施例により説明したホロプター円を介して表示された画像と等価である。
 図20は、本発明の実施の形態における三次元変換部130の第5の実施例のあおり面への投影の具体例を示す図である。
 図20の(a)は、信号処理部120から信号線129を介して供給される入力画像I(p,q)の座標系を示している。入力画像は非立体画像であるため、二次元の座標系を用いている。座標系の原点は入力画像の中央点に設定されている。また、入力画像サイズ(幅)は「2L」を想定している。
 図20の(b)は、あおり画像が投影されるあおり面の座標系を示している。あおり面は三次元になるため、ここでは(x,y,z)の三次元の座標系を用いている。座標系の原点は右目511と左目512の中心に設定されている。図20の(b)は、あおり面に対する垂直方向、すなわち、y軸の垂直方向から見た図になっている。
 右目511および左目512からホロプター円520上の輻輳点を見込んだ角度を輻輳角「τ」とすると、右目用あおり面550および左目用あおり面560は、水平線からそれぞれ「τ/2」の角度を有している。
 両眼を結ぶ直線に対して左目用あおり面560上の点561から垂直に下ろした交点582に着目すると、左目512と交点582の距離は「k・tan(τ/2)」となる。したがって、原点からz軸に沿ってあおり面距離「k」離れた位置の点589と、左目用あおり面560上の点561との距離は、「a-k・tan(τ/2)」となる。したがって、左目用あおり面560における左目用あおり画像L(x,y,z)と入力画像I(p,q)の関係は、次式により表される。
  L(x,y,z)=I((x+a-k・tan(τ/2))/(cos(τ/2)),y)
ただし、この左目用あおり画像L(x,y,z)では、
  z=k-((x+a-k・tan(τ/2))/sin(τ/2))
である。
 また、同様に、右目用あおり面550における右目用あおり画像R(x,y,z)と入力画像I(p,q)の関係は、次式により表される。
  R(x,y,z)=I((x-a+k・tan(τ/2))/(cos(τ/2)),y)
ただし、この右目用あおり画像R(x,y,z)では、
  z=k+((x-a+k・tan(τ/2))/sin(τ/2))
である。
 図21は、本発明の実施の形態における三次元変換部130の第5の実施例の表示面への投影の具体例を示す図である。
 図21の(a)は、あおり面および表示面の座標系を示している。ここでは(x,y,z)の三次元の座標系を用いている。
 図21の(b)は、表示面に投影された表示画像J(s,t)の座標系を示している。表示画像は、右目511および左目512のそれぞれに関して得られる。それぞれは二次元画像であるため、二次元の座標系を用いている。座標系の原点は表示画像の中央点に設定されている。
 このとき、左目512から左目用あおり画像上のL(x0,y0,z0)を通って投影される表示面570上のDL(xL,yL,zL)は、次式により与えられる。
  DL(xL,yL,zL)=J(xL,yL)=L(x0,y0,z0
 また、視聴者の観察位置との間の距離が観察距離dであることから、zR=dであり、以下の式が成り立つ。
  (x0+a)/(xL+a)=y0/yL=z0/d
  z0>0
ただし、図20により説明したように、
  z0=k-((x0+a-k・tan(τ/2))/sin(τ/2))
である。
 なお、ここでは、左目512から投影されるDL(xL,yL,zL)について説明したが、右目511から右目用あおり画像上のR(x0,y0,z0)を通って投影される表示面570上のDR(xR,yR,zR)についても同様に求めることができる。
 図22は、本発明の実施の形態における三次元変換部130の第5の実施例による処理手順例を示す図である。
 まず、信号処理部120から信号線129を介して入力画像I(p,q)が入力されると(ステップS921)、入力画像I(p,q)はあおり画像としてそれぞれ投射される。ただし、第1の実施例と異なり、右目用および左目用に別個のあおり面が設けられ、以下のようにして表示画像が生成される(ループL902)。
 入力画像I(p,q)が右目用あおり面550において右目用あおり画像R(x,y,z)として投射されると(ステップS922)、表示面570上に対して透視変換が行われ、三次元上のDR(xR,yR,zR)が得られる(ステップS923)。そして、この三次元上の位置から、表示面の二次元の表示画像J(xR,yR)が得られる(ステップS924)。同様に、入力画像I(p,q)が左目用あおり面550において左目用あおり画像L(x,y,z)として投射されると(ステップS922)、表示面570上に対して透視変換が行われ、三次元上のDL(xL,yL,zL)が得られる(ステップS923)。そして、この三次元上の位置から、表示面の二次元の表示画像J(xL,yL)が得られる(ステップS924)。なお、ステップS922は、特許請求の範囲に記載の照射面投影手順の一例である。また、ステップS923およびS924は、特許請求の範囲に記載の表示面投影手順の一例である。
 このように、本発明の実施の形態における三次元変換部130の第5の実施例では、右目用および左目用のあおり面に対して非立体画像をそれぞれ右目用および左目用のあおり画像として投影する。そして、実測もしくは推定された観察距離における表示面に右目用および左目用のあおり画像を投影することにより、右目511および左目512に対する立体画像を生成することができる。
 図23は、本発明の実施の形態における三次元変換部130の第6の実施例を示す図である。この第6の実施例は、奥行き情報に基づく深度マップ(depth map)に応じた立体画像を生成するものである。この三次元変換部130の第6の実施例は、入力画像深度マップ生成部361と、ホロプター面深度マップ生成部362と、深度マップ合成部363と、表示面右目投影部366と、表示面左目投影部367とを備える。
 入力画像深度マップ生成部361は、信号処理部120から信号線129を介して供給された非立体画像(入力画像)について深度マップを生成するものである。深度マップは画素毎に奥行きに関する情報を保持するものであり、例えば輝度、高周波成分、動き、彩度などに基づいて推定される。例えば、特開2007-502454号公報には、入力画像において検出されたエッジに基づいて深度マップを生成するマルチビュー画像生成ユニットが記載されている。なお、入力画像深度マップ生成部361は、特許請求の範囲に記載の奥行き情報生成部の一例である。
 ホロプター面深度マップ生成部362は、ホロプター面について深度マップを生成するものである。ホロプター面は、第1の実施例と同様に、ホロプター円情報によりホロプター円の大きさが特定され、両眼間距離「2a」により両眼との相対的位置関係が特定される。
 深度マップ合成部363は、入力画像深度マップ生成部361によって生成された入力画像の深度マップと、ホロプター面深度マップ生成部362によって生成されたホロプター面の深度マップとを合成するものである。なお、深度マップ合成部363は、特許請求の範囲に記載の奥行き情報合成部の一例である。
 表示面右目投影部366は、信号処理部120から信号線129を介して供給された非立体画像について、深度マップ合成部363によって合成された合成深度マップを考慮して、右目用の立体画像を右目用の表示面に投影するものである。また、表示面左目投影部367は、信号処理部120から信号線129を介して供給された非立体画像について、深度マップ合成部363によって合成された合成深度マップを考慮して、左目用の立体画像を左目用の表示面に投影するものである。
 図24は、本発明の実施の形態における三次元変換部130の第6の実施例による処理の概要を示す図である。
 この第6の実施例では、入力画像深度マップ生成部361によって奥行き情報を推定して、これをホロプター面に対して合成する。これにより、これまでに説明したホロプター円の性質を用いた奥行き感に加えて、さらにシーンの三次元構造に対応した奥行き情報を付加することにより、さらに立体感を増強することができる。
 例えば、合成後の点621は、ホロプター円よりも前方に存在するため、これを表示面に投影すると、より近い位置に存在するものとして把握される。また、合成後の点622は、ホロプター円よりも後方に存在するため、これを表示面に投影すると、より遠い位置に存在するものとして把握される。
 図25は、本発明の実施の形態における三次元変換部130の第6の実施例によるホロプター面の深度マップの一例を示す図である。
 ここでは、ホロプター面の深度マップをdpHにより表す。ホロプター面はホロプター円を含む三次元形状であり、x平面からの距離により特定される。すなわち、ホロプター面の深度マップはxおよびyの関数となり、次式により表される。
  dpH(x,y)=z(x,y)
このとき、座標(xi,yi)に対するx平面からのホロプター面の距離をdiとすると、関数z(x,y)は、次式により与えられる。
  z(xi,yi)=di (i=1、2、...、n)
 図26は、本発明の実施の形態における三次元変換部130の第6の実施例による奥行き情報の推定例を示す図である。
 ここでは、奥行き情報の深度マップをdpIにより表す。奥行き情報は各画素に対応する奥行きを示すものであり、三次元の情報として表される。すなわち、奥行き情報の深度マップはxおよびyの関数となり、次式により表される。
  dpI(x,y)=z(x,y)
このとき、座標(xi,yi)に対するx平面からの奥行き情報の値をeiとすると、関数z(x,y)は、次式により与えられる。
  z(xi,yi)=ei (i=1、2、...、n)
 図27は、本発明の実施の形態における三次元変換部130の第6の実施例の深度マップ合成部363の一構成例を示す図である。深度マップ合成部363は、上述のように入力画像深度マップ生成部361によって生成された入力画像の深度マップと、ホロプター面深度マップ生成部362によって生成されたホロプター面の深度マップとを合成するものである。この深度マップ合成部363は、平均値算出部3631と、減算器3632と、加算器3633とを備えている。
 平均値算出部3631は、入力画像毎に深度マップの平均値を算出するものである。減算器3632は、入力画像の画素毎の深度マップに対して深度マップの入力画像毎の平均値をそれぞれ減算するものである。これにより、平均値を中心値とする深度マップの交流成分が得られる。加算器3633は、減算器3632から供給される入力画像の深度マップの交流成分をホロプター面の深度マップに加算するものである。これにより、ホロプタ面上の合成された深度マップが得られる。
 図28は、本発明の実施の形態における三次元変換部130の第6の実施例による立体画像の生成例を示す図である。この例では、入力された非立体画像を左目用画像630として、深度マップに対応する曲面620に投影し、曲面620上の各点に対応する右目用画像640に投影する。
 例えば、左目512から見た左目用画像630上の点631は、曲面620上では点621に投影される。そして、この点621を右目511によって見ると、右目用画像640上では点641に投影される。同様に、左目512から見た左目用画像630上の点632は、曲面620上では点622に投影される。そして、この点622を右目511によって見ると、右目用画像640上では点642に投影される。
 なお、この図では、説明の便宜上、左目用画像630と右目用画像640とをz方向に相互に位置をずらして示しているが、実際には両者は同一平面上に位置する。
 図29は、本発明の実施の形態における三次元変換部130の第6の実施例による立体画像の他の生成例を示す図である。この例では、入力された非立体画像を右目と左目の中央513から見た画像(入力画像650)として、深度マップに対応する曲面620に投影し、曲面620上の各点に対応する左目用画像630および右目用画像640に投影する。
 例えば、中央513から見た入力画像650上の点651は、曲面620上では点621に投影される。そして、この点621を左目512によって見ると左目用画像630上では点631に投影され、右目511によって見ると右目用画像640上では点641に投影される。同様に、中央513から見た入力画像650上の点652は、曲面620上では点622に投影される。そして、この点622を左目512によって見ると左目用画像630上では点632に投影され、右目511によって見ると右目用画像640上では点642に投影される。
 なお、この図では、説明の便宜上、左目用画像630、右目用画像640および入力画像650をz方向に相互に位置をずらして示しているが、実際には全て同一平面上に位置する。
 このように、本発明の実施の形態における三次元変換部130の第6の実施例では、他の実施例により説明したホロプター面を利用した立体視に、奥行き情報に基づく深度マップを組み合わせることによって、より立体感のある立体画像を生成することができる。
 なお、本発明の実施の形態は本発明を具現化するための一例を示したものであり、上述のように特許請求の範囲における発明特定事項とそれぞれ対応関係を有する。ただし、本発明は実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形を施すことができる。
 また、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disk)、メモリカード、ブルーレイディスク(Blu-ray Disc(登録商標))等を用いることができる。
 110 画像信号入力部
 120 信号処理部
 130 三次元変換部
 140 パラメータ設定部
 150 観察距離測定部
 160 後処理部
 170 フォーマット変換部
 180 ソース選択部
 190 表示部
 311、321、331、341 ホロプター面画像投影部
 316、326、336、346、356、366 表示面右目投影部
 317、327、337、347、357、367 表示面左目投影部
 322、332、342 輻輳点設定部
 343 スケーリング部
 354 あおり面右目設定部
 355 あおり面左目設定部
 361 入力画像深度マップ生成部
 362 ホロプター面深度マップ生成部
 363 深度マップ合成部
 520 ホロプター円
 530 ホロプター画像
 540、570 表示面
 620 合成後曲面
 630 左目用画像
 640 右目用画像
 650 入力画像

Claims (13)

  1.  両眼に接する仮想円を含む円筒面に対して2次元入力画像を投影して円筒画像を生成する円筒面投影部と、
     前記両眼のそれぞれを基準として前記円筒画像を表示面に対して投影して前記両眼のそれぞれに射影される表示画像を生成する表示面投影部とを具備する立体視画像生成装置。
  2.  前記仮想円の半径は、想定される観察距離または表示サイズに応じて設定される請求項1記載の立体視画像生成装置。
  3.  前記表示面と観察位置との距離を測定する観察距離測定部をさらに具備し、
     前記仮想円の半径は、前記観察距離測定部により測定された観察距離に応じて設定される請求項2記載の立体視画像生成装置。
  4.  前記仮想円の半径は、前記表示画像の歪度が所定の閾値より小さくなるように設定される請求項1記載の立体視画像生成装置。
  5.  前記2次元入力画像から奥行き情報を生成する奥行き情報生成部と、
     前記奥行き情報を前記円筒画像に合成する奥行き情報合成部とをさらに具備し、
     前記表示面投影部は、前記奥行き情報が合成された円筒画像を表示面に対して投影して前記表示画像を生成する請求項1記載の立体視画像生成装置。
  6.  両眼のそれぞれの視線に直交する2次元平面に対して2次元入力画像を投影して両眼のそれぞれに対応する照射画像を生成する照射面投影部と、
     前記両眼のそれぞれを基準として対応する前記照射画像を表示面に対して投影して前記両眼のそれぞれに射影される表示画像を生成する表示面投影部とを具備する立体視画像生成装置。
  7.  前記照射画像の位置は、想定される観察距離に応じて設定される請求項6記載の立体視画像生成装置。
  8.  前記表示面と観察位置との距離を測定する観察距離測定部をさらに具備し、
     前記照射画像の位置は、前記観察距離測定部により測定された観察距離に応じて設定される請求項7記載の立体視画像生成装置。
  9.  表示面から右目および左目のそれぞれに投影される映像が同一となるように2次元入力画像を変換してそれぞれ右目画像および左目画像を生成する立体視画像生成装置。
  10.  両眼に接する仮想円を含む円筒面に対して2次元入力画像を投影して円筒画像を生成する円筒面投影手順と、
     前記両眼のそれぞれを基準として前記円筒画像を表示面に対して投影して前記両眼のそれぞれに射影される表示画像を生成する表示面投影手順とを具備する立体視画像生成方法。
  11.  両眼のそれぞれの視線に直交する2次元平面に対して2次元入力画像を投影して両眼のそれぞれに対応する照射画像を生成する照射面投影手順と、
     前記両眼のそれぞれを基準として対応する前記照射画像を表示面に対して投影して前記両眼のそれぞれに射影される表示画像を生成する表示面投影手順とを具備する立体視画像生成方法。
  12.  両眼に接する仮想円を含む円筒面に対して2次元入力画像を投影して円筒画像を生成する円筒面投影手順と、
     前記両眼のそれぞれを基準として前記円筒画像を表示面に対して投影して前記両眼のそれぞれに射影される表示画像を生成する表示面投影手順とをコンピュータに実行させるプログラム。
  13.  両眼のそれぞれの視線に直交する2次元平面に対して2次元入力画像を投影して両眼のそれぞれに対応する照射画像を生成する照射面投影手順と、
     前記両眼のそれぞれを基準として対応する前記照射画像を表示面に対して投影して前記両眼のそれぞれに射影される表示画像を生成する表示面投影手順とをコンピュータに実行させるプログラム。
PCT/JP2009/060028 2008-06-06 2009-06-02 立体視画像生成装置、立体視画像生成方法およびプログラム WO2009148038A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP09758305A EP2172906A4 (en) 2008-06-06 2009-06-02 DEVICE, METHOD AND PROGRAM FOR GENERATING STEREOSCOPIC IMAGES
RU2010103049/08A RU2519518C2 (ru) 2008-06-06 2009-06-02 Устройство генерирования стереоскопического изображения, способ генерирования стереоскопического изображения и программа
CN2009801000468A CN101796548B (zh) 2008-06-06 2009-06-02 立体图像生成装置和立体图像生成方法
US12/671,367 US9507165B2 (en) 2008-06-06 2009-06-02 Stereoscopic image generation apparatus, stereoscopic image generation method, and program
BRPI0903910-4A BRPI0903910A2 (pt) 2008-06-06 2009-06-02 Aparelho de geração de imagem estereoscópica, método de geração de imagem estereoscópica, e programa
HK10108896.6A HK1142427A1 (en) 2008-06-06 2010-09-20 Stereoscopic image generation device and stereoscopic image generation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-149123 2008-06-06
JP2008149123A JP5083052B2 (ja) 2008-06-06 2008-06-06 立体視画像生成装置、立体視画像生成方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2009148038A1 true WO2009148038A1 (ja) 2009-12-10

Family

ID=41398115

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/060028 WO2009148038A1 (ja) 2008-06-06 2009-06-02 立体視画像生成装置、立体視画像生成方法およびプログラム

Country Status (10)

Country Link
US (1) US9507165B2 (ja)
EP (1) EP2172906A4 (ja)
JP (1) JP5083052B2 (ja)
KR (1) KR20110034575A (ja)
CN (2) CN101796548B (ja)
BR (1) BRPI0903910A2 (ja)
HK (1) HK1142427A1 (ja)
RU (1) RU2519518C2 (ja)
TW (1) TW201011689A (ja)
WO (1) WO2009148038A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130021446A1 (en) * 2011-07-20 2013-01-24 GM Global Technology Operations LLC System and method for enhanced sense of depth video
CN114390271A (zh) * 2020-10-19 2022-04-22 苏州佳世达光电有限公司 判别连续影像顺序的系统及其方法

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5235976B2 (ja) * 2010-05-31 2013-07-10 株式会社ソニー・コンピュータエンタテインメント 映像再生方法、および映像再生装置
KR20120051308A (ko) * 2010-11-12 2012-05-22 삼성전자주식회사 3d 입체감을 개선하고 시청 피로를 저감하는 방법 및 장치
KR20120052091A (ko) * 2010-11-15 2012-05-23 삼성전자주식회사 컴퓨터, 모니터, 기록매체 및 이에 적용되는 3차원 영상 제공방법
US9210322B2 (en) 2010-12-27 2015-12-08 Dolby Laboratories Licensing Corporation 3D cameras for HDR
US20130147793A1 (en) * 2011-12-09 2013-06-13 Seongyeom JEON Mobile terminal and controlling method thereof
CN102692806B (zh) * 2012-06-04 2015-08-05 济南大学 自由视点四维空间视频序列的采集与形成方法
CN104012088B (zh) * 2012-11-19 2016-09-28 松下知识产权经营株式会社 图像处理装置以及图像处理方法
RU2600524C2 (ru) * 2014-07-15 2016-10-20 Федеральное государственное автономное образовательное учреждение высшего профессионального образования "Санкт-Петербургский государственный университет аэрокосмического приборостроения" Способ конвертации 2d-изображения в квазистереоскопическое 3d-изображение
KR102172388B1 (ko) * 2014-09-11 2020-10-30 엘지디스플레이 주식회사 곡면 디스플레이 및 이의 영상 처리 방법
CN104240294B (zh) * 2014-09-28 2017-10-20 华南理工大学 基于双目单视界的三维重建方法
DE102014115331A1 (de) * 2014-10-21 2016-04-21 Isra Surface Vision Gmbh Verfahren und Vorrichtung zur Ermittlung einer dreidimensionalen Verzerrung
US9818021B2 (en) * 2014-10-21 2017-11-14 Isra Surface Vision Gmbh Method for determining a local refractive power and device therefor
WO2016202837A1 (en) * 2015-06-16 2016-12-22 Koninklijke Philips N.V. Method and apparatus for determining a depth map for an image
US9934615B2 (en) * 2016-04-06 2018-04-03 Facebook, Inc. Transition between binocular and monocular views
US10326976B2 (en) * 2016-06-17 2019-06-18 Industry-Academic Cooperation Foundation, Yonsei University Method and apparatus for providing personal 3-dimensional image using convergence matching algorithm
US9609197B1 (en) 2016-08-19 2017-03-28 Intelligent Security Systems Corporation Systems and methods for dewarping images
US9547883B1 (en) 2016-08-19 2017-01-17 Intelligent Security Systems Corporation Systems and methods for dewarping images
WO2021236468A1 (en) * 2020-05-19 2021-11-25 Intelligent Security Systems Corporation Technologies for analyzing behaviors of objects or with respect to objects based on stereo imageries therof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102052A (ja) * 1995-10-06 1997-04-15 Olympus Optical Co Ltd 立体画像表示装置
JP2001175885A (ja) * 1999-12-20 2001-06-29 Tomohiko Hattori 立体画像表示装置用2dー3d画像変換方式および装置
JP2002365593A (ja) 2001-06-08 2002-12-18 Sony Corp 表示装置、位置調整パターン表示プログラム、記録媒体、偏光メガネ、及び表示装置のフィルター位置調整方法
JP2005339313A (ja) * 2004-05-28 2005-12-08 Toshiba Corp 画像提示方法及び装置
WO2006017771A1 (en) * 2004-08-06 2006-02-16 University Of Washington Variable fixation viewing distance scanned light displays
JP2007502454A (ja) 2003-08-05 2007-02-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ マルチビュー画像の生成

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4875034A (en) * 1988-02-08 1989-10-17 Brokenshire Daniel A Stereoscopic graphics display system with multiple windows for displaying multiple images
US5644324A (en) * 1993-03-03 1997-07-01 Maguire, Jr.; Francis J. Apparatus and method for presenting successive images
JP3089306B2 (ja) * 1993-08-26 2000-09-18 松下電器産業株式会社 立体画像撮像及び表示装置
AUPN732395A0 (en) 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
JP2846856B2 (ja) * 1996-07-19 1999-01-13 三洋電機株式会社 立体映像表示装置
US6229562B1 (en) * 1997-07-08 2001-05-08 Stanley H. Kremen System and apparatus for the recording and projection of images in substantially 3-dimensional format
ATE420528T1 (de) * 1998-09-17 2009-01-15 Yissum Res Dev Co System und verfahren zur erzeugung und darstellung von panoramabildern und filmen
US7271803B2 (en) 1999-01-08 2007-09-18 Ricoh Company, Ltd. Method and system for simulating stereographic vision
JP2000228748A (ja) * 1999-02-05 2000-08-15 Ricoh Co Ltd 画像入力装置
US6507665B1 (en) * 1999-08-25 2003-01-14 Eastman Kodak Company Method for creating environment map containing information extracted from stereo image pairs
JP2001141417A (ja) * 1999-11-11 2001-05-25 Fuji Photo Film Co Ltd 視差量補正装置
WO2001039512A1 (en) * 1999-11-26 2001-05-31 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
JP3425402B2 (ja) 2000-01-31 2003-07-14 独立行政法人通信総合研究所 立体画像を表示する装置および方法
JP2001245322A (ja) * 2000-03-01 2001-09-07 Inst Of Physical & Chemical Res 立体画像の入出力方法と装置
JP2002223458A (ja) * 2001-01-26 2002-08-09 Nippon Hoso Kyokai <Nhk> 立体映像作成装置
IL159537A0 (en) * 2001-06-28 2004-06-01 Omnivee Inc Method and apparatus for control and processing of video images
WO2003046832A1 (de) * 2001-11-24 2003-06-05 Tdv Technologies Corp. Erzeugung einer stereo-bildfolge aus einer 2d-bildfolge
RU2287858C2 (ru) * 2001-11-24 2006-11-20 Тдв Текнолоджиз Корп. Создание последовательности стереоскопических изображений из последовательности двумерных изображений
JP3929346B2 (ja) 2002-04-24 2007-06-13 日立造船株式会社 ステレオ画像表示方法およびステレオ画像表示装置
US7489812B2 (en) * 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US6890077B2 (en) * 2002-11-27 2005-05-10 The Boeing Company Method and apparatus for high resolution video image display
JP2004186863A (ja) * 2002-12-02 2004-07-02 Amita Technology Kk 立体映像表示装置及び立体映像信号処理回路
WO2005062105A1 (en) * 2003-12-12 2005-07-07 Headplay, Inc. Optical arrangements for head mounted displays
GB0412651D0 (en) * 2004-06-07 2004-07-07 Microsharp Corp Ltd Autostereoscopic rear projection screen and associated display system
JP4033859B2 (ja) * 2004-12-28 2008-01-16 独立行政法人科学技術振興機構 立体画像表示方法
CN1330928C (zh) * 2005-12-29 2007-08-08 清华紫光股份有限公司 一种采用双波长结构光测量物体轮廓的方法
CN100552539C (zh) * 2006-01-10 2009-10-21 钟明 一种环幕立体电影图像的制作方法
JP4614456B2 (ja) 2006-07-07 2011-01-19 国立大学法人 東京大学 再帰性反射材、投影装置、航空機、および航空機用シミュレータ
US10908421B2 (en) * 2006-11-02 2021-02-02 Razer (Asia-Pacific) Pte. Ltd. Systems and methods for personal viewing devices
US8330801B2 (en) * 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion
TWI331872B (en) * 2006-12-29 2010-10-11 Quanta Comp Inc Method for displaying stereoscopic image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102052A (ja) * 1995-10-06 1997-04-15 Olympus Optical Co Ltd 立体画像表示装置
JP2001175885A (ja) * 1999-12-20 2001-06-29 Tomohiko Hattori 立体画像表示装置用2dー3d画像変換方式および装置
JP2002365593A (ja) 2001-06-08 2002-12-18 Sony Corp 表示装置、位置調整パターン表示プログラム、記録媒体、偏光メガネ、及び表示装置のフィルター位置調整方法
JP2007502454A (ja) 2003-08-05 2007-02-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ マルチビュー画像の生成
JP2005339313A (ja) * 2004-05-28 2005-12-08 Toshiba Corp 画像提示方法及び装置
WO2006017771A1 (en) * 2004-08-06 2006-02-16 University Of Washington Variable fixation viewing distance scanned light displays

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JAN J KOENDERINK ET AL.: "Perception", vol. 23, 1997, PION PUBLICATION, article "On so- called paradoxical monocular stereoscopy", pages: 583 - 594
See also references of EP2172906A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130021446A1 (en) * 2011-07-20 2013-01-24 GM Global Technology Operations LLC System and method for enhanced sense of depth video
CN114390271A (zh) * 2020-10-19 2022-04-22 苏州佳世达光电有限公司 判别连续影像顺序的系统及其方法
CN114390271B (zh) * 2020-10-19 2023-08-18 苏州佳世达光电有限公司 判别连续影像顺序的系统及其方法

Also Published As

Publication number Publication date
CN102789058B (zh) 2015-03-18
TW201011689A (en) 2010-03-16
US9507165B2 (en) 2016-11-29
US20100201783A1 (en) 2010-08-12
HK1142427A1 (en) 2010-12-03
CN101796548A (zh) 2010-08-04
CN101796548B (zh) 2012-10-31
RU2010103049A (ru) 2011-08-10
BRPI0903910A2 (pt) 2015-06-30
RU2519518C2 (ru) 2014-06-10
JP2009294988A (ja) 2009-12-17
EP2172906A4 (en) 2012-08-08
KR20110034575A (ko) 2011-04-05
EP2172906A1 (en) 2010-04-07
JP5083052B2 (ja) 2012-11-28
CN102789058A (zh) 2012-11-21

Similar Documents

Publication Publication Date Title
JP5083052B2 (ja) 立体視画像生成装置、立体視画像生成方法およびプログラム
KR101629479B1 (ko) 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
TWI523488B (zh) 處理包含在信號中的視差資訊之方法
JP5450330B2 (ja) 画像処理装置および方法、ならびに立体画像表示装置
WO2015161541A1 (zh) 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法
US20120128234A1 (en) System for Generating Images of Multi-Views
US9154762B2 (en) Stereoscopic image system utilizing pixel shifting and interpolation
JP2011090400A (ja) 画像表示装置および方法、並びにプログラム
US5764236A (en) Image data processing apparatus and image reproduction apparatus
JP2013065951A (ja) 表示装置、表示方法、及びプログラム
US8976171B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
JP5931062B2 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP2013090129A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5423845B2 (ja) 立体視画像生成装置、立体視画像生成方法およびプログラム
KR101192121B1 (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치
EP4030752A1 (en) Image generation system and method
JP5708395B2 (ja) 映像表示装置及び映像表示方法
JP5780214B2 (ja) 奥行き情報生成装置、奥行き情報生成方法、奥行き情報生成プログラム、擬似立体画像生成装置
TW201332338A (zh) 立體影像處理裝置及立體影像處理方法
Johnson Practical Stereo Rendering
JP2012105169A (ja) 立体映像撮像装置および立体映像撮像方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980100046.8

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 7368/CHENP/2009

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2009758305

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20107002176

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2010103049

Country of ref document: RU

Ref document number: 12671367

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09758305

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: PI0903910

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20100129