WO2012066627A1 - 立体視画像を発生する方法および装置 - Google Patents

立体視画像を発生する方法および装置 Download PDF

Info

Publication number
WO2012066627A1
WO2012066627A1 PCT/JP2010/070337 JP2010070337W WO2012066627A1 WO 2012066627 A1 WO2012066627 A1 WO 2012066627A1 JP 2010070337 W JP2010070337 W JP 2010070337W WO 2012066627 A1 WO2012066627 A1 WO 2012066627A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
stereoscopic image
parameter
depth
stereoscopic
Prior art date
Application number
PCT/JP2010/070337
Other languages
English (en)
French (fr)
Inventor
博久 三田
暁冬 王
Original Assignee
リーダー電子株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by リーダー電子株式会社 filed Critical リーダー電子株式会社
Priority to PCT/JP2010/070337 priority Critical patent/WO2012066627A1/ja
Publication of WO2012066627A1 publication Critical patent/WO2012066627A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals

Definitions

  • the disclosed embodiment relates to the generation of a stereoscopic image, and more particularly to a method and apparatus for generating a stereoscopic image that produces a desired stereoscopic effect under actual viewing conditions.
  • the effect of stereoscopic vision such as depth varies depending not only on the width of the screen displaying the image but also on other factors. Therefore, if the amount of parallax is specified only by the ratio to the conventional screen width, the effect of stereoscopic vision such as depth perceived from a stereoscopic image having the designated amount of parallax will change if the actual viewing conditions change. There was a problem.
  • a method for generating a stereoscopic image to be displayed on a display device is a step of receiving a parameter used to generate a stereoscopic image, wherein the parameter looks at the display device. Including a first parameter for determining viewing conditions and a second parameter for determining a stereoscopic effect of the stereoscopic image, and generating the stereoscopic image according to the received parameter. .
  • the second parameter that determines the effect of the stereoscopic view may include a parameter related to the depth of the stereoscopic image, such as a depth or a convergence angle.
  • the generating step generates an image including at least the stereoscopic image, and the image including at least the stereoscopic image includes a numerical image related to the depth. it can.
  • a numerical image related to the depth may be included in the stereoscopic image.
  • the image including at least the stereoscopic image may include a planar image including a numerical value of at least one of the parameters.
  • the generating step generates an image including at least the stereoscopic image, and the image including at least the stereoscopic image includes the stereoscopic image generated according to the parameter, and a specific image. And at least one stereoscopic image having a depth. Further, the generating step may include a step of synthesizing the stereoscopic image generated according to the parameter and at least one stereoscopic image having the specific depth according to each depth. The at least one stereoscopic image having the specific depth may include at least one of a stereoscopic image having a depth of zero and a stereoscopic image having an infinite depth.
  • the first parameter may include a distance between eyes of a viewer, a distance of the viewer from the screen of the display device, and a width of the screen.
  • the second parameter may include a motion parameter that determines the motion of the stereoscopic image.
  • a computer program for causing a computer to execute the above-described method or a computer-readable storage medium storing a computer-executable instruction for causing a computer to execute the above-described method is provided.
  • a stereoscopic image generating device that generates a stereoscopic image displayed on a display device is a parameter setting unit that sets parameters used to generate a stereoscopic image.
  • the parameter setting means includes: a first parameter that defines a viewing condition for viewing the display device; and a second parameter that defines a stereoscopic effect of the stereoscopic image; and the parameter setting means.
  • Image generating means for generating a stereoscopic image according to the set parameter.
  • the image generation means includes a source image supply means for supplying at least one first source image, a calculation means for calculating a parallax amount from the parameters, and a first stereoscopic image.
  • Stereoscopic image generation means for generating the stereoscopic image, wherein the first stereoscopic image has the amount of parallax generated and calculated from at least one of the first source images; Can be included.
  • the source image supply means further supplies at least one second source image
  • the stereoscopic image generation means further generates at least one second stereoscopic image, and the at least one second stereoscopic image.
  • Each of the two stereoscopic images may have a specific depth that is generated from at least one of the second source images and serves as a reference.
  • the calculation means calculates a depth corresponding to the calculated amount of parallax
  • the stereoscopic image generation means generates means for generating a numerical image including numerical values related to the calculated depth, Synthesis means for including the numerical image in one source image.
  • FIG. 1 is a functional block diagram showing a stereoscopic image generating apparatus according to one embodiment.
  • FIGS. 2A and 2B are diagrams illustrating a stereoscopic vision principle for each of a case where the position of the stereoscopic image is close to the viewer and a location far from the viewer with reference to the screen surface.
  • FIG. 3 is a block diagram showing a computer-based stereoscopic image generating apparatus according to the second embodiment.
  • FIG. 4 is a flowchart of stereoscopic image generation processing executed in the stereoscopic image generation apparatus of FIG.
  • FIG. 5 is a diagram showing an interface for setting viewing conditions in the stereoscopic image generation processing of FIG. 4.
  • FIG. 6 is a diagram illustrating an interface for setting parallax in the stereoscopic image generation processing of FIG. 4.
  • 7 is a diagram showing a screen display example displayed on the display device of FIG. 3 in the stereoscopic image generation processing of FIG.
  • FIG. 8 is a flowchart showing in detail the stereoscopic image creation processing in FIG. 4.
  • FIG. 9A illustrates a display example of a stereoscopic image according to the embodiment
  • FIG. 9B illustrates a display example of a stereoscopic image including a depth numerical image.
  • FIG. 10 is a flowchart showing a stereoscopic image scroll process executed in the stereoscopic image generation apparatus of FIG. 3.
  • FIG. 10A is a diagram showing a movement pattern of a stereoscopic image on the screen in the line scrolling process and the circle scrolling process.
  • FIG. 11 is a flowchart showing details of a line / scroll setting process in the stereoscopic image scroll process of FIG. 10.
  • 12 is a flowchart showing details of a circle / scroll setting process in the stereoscopic image scroll process of FIG.
  • FIG. 13 is a flowchart showing details of scroll reproduction processing in the stereoscopic image scroll processing of FIG. 10.
  • FIG. 1 is a functional block diagram showing a stereoscopic image generating apparatus 10 according to one embodiment.
  • the stereoscopic image generation apparatus 10 includes a parameter setting block 12 and an image generation block 14.
  • the parameter setting block 12 includes a viewing condition parameter setting block 120, a stereoscopic effect parameter setting block 122 that determines the effect of stereoscopic vision, and a motion parameter setting block 124 that determines the motion of the stereoscopic image.
  • the viewing condition parameters include the distance between the left eye and the right eye of the viewer, that is, the interocular distance Dipd, the screen width Dsw of the display device used for displaying the stereoscopic image, and the distance from the viewer to the screen, A viewing distance Dvd is included.
  • the stereoscopic effect parameter includes a parameter related to depth.
  • the depth DEP represents a distance from the screen surface to the position of the stereoscopic image in a direction perpendicular to the surface.
  • the parameters related to the depth include, for example, a screen parallax DIS, a depth DEP, or a convergence angle AOA that represents the amount of deviation between the left-eye image and the right-eye image on the screen.
  • the motion parameters include parameters used when moving the stereoscopic image with a certain motion pattern. Examples of the motion pattern include a line pattern that is a linear motion (for example, a horizontal or vertical linear motion) and a circle pattern that indicates a circular motion that is a non-linear motion.
  • the motion parameter includes a spatial range (including left / right, up / down or front / rear (depth direction)) on which the stereoscopic image is moved, a speed of movement, and a range of change in the size of the stereoscopic image (depth direction). Determine changes in image size, etc. when moving.
  • display devices that display stereoscopic images include a cathode ray tube (CRT), a liquid crystal display device (LCD), a projector, a movie theater projection device (including a screen), and the like.
  • CTR cathode ray tube
  • LCD liquid crystal display device
  • projector projector
  • movie theater projection device including a screen
  • the image generation block 14 that receives the set parameters from the parameter setting block 12 includes a calculation block 140, a stereoscopic image generation block 142, and a planar image generation block 144.
  • the calculation block 140 calculates the screen parallax amount based on the parameter received from the parameter setting block 12.
  • the stereoscopic image generation block 142 that receives the calculation result includes a source image supply block 1420, a depth related numerical image generation block 1422, and a synthesis block 1424.
  • the source image supply block 1420 includes at least one first source image used for generating a left-eye image and a right-eye image constituting a stereoscopic image, and at least one second source used as a reference depth position image.
  • Source images can be supplied. These source images can be composed of a single planar image, or can be composed of a pair of planar images including a left-eye image and a right-eye image.
  • the reference depth position image refers to an image used as a reference of the depth position of an image to be stereoscopically displayed. For example, one or both of an image having a depth 0 that is a position of the screen surface and an image having an infinite depth are used. Can be included. Although the depth 0 and infinity are used as a reference, other depth positions may be used as a reference. Further, as the reference depth position image of depth 0, an image in which the back is partially visible or an image in which the back is not visible can be used. In the case of an image in which the back cannot be seen, if there is a stereoscopic image farther than depth 0, the region occupied by the stereoscopic image is transparent.
  • an image that occupies a part of the screen or a pattern that is partially transparent can be used.
  • a single picture for example, a donut-shaped image (transparent areas at the center and outside of the donut)
  • a character such as a logo for example, the character portion is opaque
  • a partially transparent pattern for example, there is a lattice pattern, which is formed by intersecting a plurality of horizontal lines and a plurality of vertical lines, and a space portion other than these lines is transparent.
  • any pattern other than the lattice for example, a black and white checkered flag (white portion is transparent)
  • a single color and no pattern that is, a solid color
  • it can be solid but non-single, or have a gray scale.
  • the depth-related numerical image generation block 1422 receives the numerical value related to the depth from the calculation block 140 and generates an image indicating the numerical value related to the depth of the stereoscopic image to be generated.
  • the synthesis block 1424 receives the screen parallax amount from the calculation block 140 and at least one first source image from the source image supply block 1420 and generates a left eye image and a right eye image from each first source image. To do. At this time, the stereoscopic effect is generated by giving the shift amount corresponding to the screen parallax amount between the left-eye image and the right-eye image.
  • the first source image is a single planar image
  • the left-eye image and the right-eye image are the same image.
  • the synthesis block 1424 can generate one or both of the depth related numerical image and the reference depth position image in addition to the stereoscopic image from the first source image.
  • the depth related numerical image generation block 1422 receives a numerical value related to the depth, for example, a depth DEP numerical value from the calculation block, and generates a numerical image representing this numerical value.
  • the composition block 1424 that receives this numerical image in one embodiment, composites this numerical image with the first source image from the source image supply block 1420.
  • the synthesis block 1424 generates a stereoscopic image as described above from the first source image to which the numerical image is added by synthesis.
  • the first source image is composed of a pair of left-eye and right-eye images as described above, a numerical image can be added to each image by synthesis.
  • a numerical value related to the depth is added to the stereoscopic image itself, numerical information related to the depth of the stereoscopic image can be provided to the user together with the stereoscopic image.
  • the user can read the numerical information from the stereoscopic image without shifting the eye gaze or focus of the eyes.
  • a convergence angle AOA or screen parallax can be used instead of the depth DEP.
  • the synthesis block 1424 receives from the source image supply block 1420 a second source image that can be used as a depth 0 reference depth position image, and this From the second source image, a pair of left-eye and right-eye images having the above-described deviation are generated. This is the same as the generation from the first source image. However, in this case, the shift amount corresponding to depth 0 is given to the left-eye image and the right-eye image. Next, the pair of left-eye and right-eye images generated from the second source image are combined with the corresponding images of the pair of left-eye and right-eye images generated from the first source image, respectively.
  • a left-eye image and a right-eye image representing the synthesis result are generated.
  • the motion of the stereoscopic image can be set by the motion parameter setting block 124 as described above.
  • the calculation block 140 calculates the amount of parallax, the position and size for displaying the stereoscopic image, and the like according to the set motion.
  • the synthesis block 1424 changes the shift amount between the left-eye image and the right-eye image corresponding to the position for displaying the stereoscopic image, the size of the stereoscopic image, and the amount of parallax according to the set motion parameter. .
  • the stereoscopic image can be displayed not only in a stationary state but also in a moving state. Thereby, the stereoscopic effect of the stereoscopic image in the moving state can be confirmed.
  • the image generation block 14 of the stereoscopic image generation apparatus 10 in FIG. 1 further includes a planar image generation block 144.
  • the plane image generation block 144 receives the calculation result from the calculation block 140 and the setting parameter from the parameter setting block 12, and displays any of the received parameters or the calculation result in the form of a plane image.
  • a plane image for generating the image is generated. Thereby, it is possible to provide the user with information on parameters or numerical values related to various stereoscopic images.
  • the stereoscopic image generated by the stereoscopic image generation block 142 and the planar image generated by the planar image generation block 144 may be supplied to the display device after being combined with each other, or may be combined in the display device. It may be.
  • Dipd is the interocular distance
  • Dsw is the screen width
  • Dvd is the distance from the viewer to the screen, that is, the viewing distance
  • Ps is the screen width indicated by the number of dots.
  • DISper is a percentage parallax amount indicating the parallax amount as a percentage of the screen
  • DISdot is a dot number parallax amount indicating the parallax amount by the number of dots on the screen
  • DIScm is a screen indicating the parallax amount by a width (cm) on the screen.
  • the width parallax amount, DEP is depth
  • AOV is the convergence angle.
  • the above formula or the above formula is modified and used.
  • the stereoscopic image generating device 30 is a general configuration of a computer, such as an input device 300 such as a keyboard and a mouse, a processor 302, a non-volatile memory such as a hard disk and a ROM, and a volatile memory such as a RAM.
  • a storage device 304 composed of a memory and a display device 306 such as an LCD or a CRT are provided.
  • the stereoscopic image generating apparatus 30 stores a program for generating the above-described stereoscopic image, and can generate the stereoscopic image as described above by executing this program.
  • FIG. 4 shows a flowchart of stereoscopic image generation processing executed by the program.
  • the flow initializes a buffer used for storing various parameters used in the processing. This buffer can be realized in a part of the storage device 304 of FIG.
  • a user interface used in the stereoscopic image generation is initialized.
  • the apparatus enters a standby state and waits for input from the user regarding various events. Events include parameter setting, target setting, stereoscopic image creation setting, target setting correction, input / output (I / O), and end events.
  • the parameter setting event relates to processing for setting parameters for generating a stereoscopic image, and the parameters include a viewing condition parameter and a stereoscopic effect parameter.
  • the target setting event relates to a process of selecting a source image to be used for generating a stereoscopic image. In the present embodiment, a specific one of a plurality of source images (including an image created by a user) prepared in advance is used. Is selected as a “target”, that is, a target image to which a stereoscopic effect is imparted.
  • the stereoscopic image creation setting event relates to processing for creating a stereoscopic image from a target.
  • the target setting correction event relates to processing for correcting the target setting once set.
  • the I / O event relates to input / output processing related to stereoscopic image generation.
  • step 410 If there is an input for selecting a parameter setting event in step 410, an interface for parameter setting is initialized in step 412, and then input from the user in step 414. To make settings.
  • FIG. 5 shows an interface for setting the viewing conditions.
  • the viewing condition setting screen 500 values of the interocular distance IPD, viewing distance, and screen width are input by the user.
  • a part of the screen for example, a rectangular region
  • the width is set as a “ground area”. In this case, the width of the background area is used as a screen width which is one of viewing conditions.
  • step 414 when the above setting is completed, the process proceeds from step 414 to step 416. If the completed setting is not stored, the process returns to step 404. If the setting is stored, the process proceeds to step 418. Save the settings by updating. Next, it progresses to step 420, and after updating a display screen, it returns to step 404 and waits.
  • step 431 When there is an input for selecting a target setting event in step 430, in step 431, a source image to be used as a target to which a stereoscopic effect is given is selected. Examples of source images include images of clocks, the earth, butterflies, Saturn, motorcycles, and the like.
  • step 432 a screen position for displaying the selected target is set.
  • step 433 the parallax setting interface is initialized.
  • step 434 parallax setting is performed.
  • FIG. 6 illustrates an interface for setting parallax.
  • the parallax setting screen 600 it is selected whether to display the stereoscopic image on the side closer to the user or on the far side with reference to the screen. Further, in order to set the stereoscopic effect parameter, the user may set any one of the three parameters of screen parallax, depth, and convergence angle.
  • the screen parallax can be specified by any one of the above-described percentage parallax amount, screen width parallax amount, or dot number parallax amount.
  • the percentage parallax amount is set as the screen parallax
  • not only the remaining parameters of the screen parallax but also the depth and the convergence angle can be obtained by calculation, and therefore the calculation result is displayed on the parallax setting screen 600.
  • the user can set the parallax by any one of the screen parallax, the depth, and the convergence angle, so that the setting can be performed only by operating only the parameter that the user pays attention to in the stereoscopic effect.
  • step 434 When the setting is completed in step 434, when it is determined in step 435 that the setting is not saved, the process returns to step 404.
  • step 436 When it is determined that the setting is saved, the process proceeds to step 436, and the set parameter is saved by updating the buffer. Thereafter, after the display is updated in step 420, the process returns to step 404.
  • FIG. 7 shows a screen 700 displayed on the display device 306 when the above target setting event is completed.
  • seven targets (clock, earth, butterfly, bike, Saturn, Buddha, etc.) are displayed in a background area 702, which is a rectangular area where a stereoscopic image is displayed.
  • An area 704 below the background area displays viewing condition parameters and the like, and the contents are shown in Table 1.
  • the area 706 on the right side of this area 704 displays the stereoscopic effect parameters regarding each target displayed in the background area 702, and a part of the contents is shown in Table 2.
  • parallax amount in Table 2 is indicated by the dot number parallax amount, but may be expressed by a screen width parallax amount (cm), a percentage-percent parallax amount (%), a depth (cm), and a convergence angle (degree).
  • a thumbnail image after the format conversion of the image displayed in the background area 702 is displayed in an area 708 on the right side of the background area 702. Examples of this image format include left and right independent images, anaglyphs, convergence, line-by-line, side-by-side formats, and the like.
  • step 440 When there is an input for selecting this event in step 440, a stereoscopic image creation process is executed in step 442, and then after step 420, the process returns to step 404.
  • the stereoscopic image creation processing in step 442 will be described later with reference to FIG.
  • step 460 When there is an input for selecting this event at step 460, the target to be corrected is selected at step 461, and when it is determined that the setting is corrected at step 462, steps 464 to 467 are performed. If it is determined to delete the target, the process proceeds to step 468.
  • the setting is corrected
  • the parallax setting interface shown in FIG. 6 is initialized at step 464, and the new setting is accepted at step 465.
  • the process returns to step 404 to save the setting. To do so, the buffer is updated in step 467.
  • step 468 the buffer is updated corresponding to the deletion of the target and saved. After steps 468 and 467, the process returns to step 404 through step 420.
  • step 470 when an I / O event is selected in step 470, input / output processing is executed in step 472.
  • input / output processing is executed in step 472.
  • set parameters, generated stereoscopic image data, or data obtained by converting the format of the stereoscopic image data can be output.
  • stereoscopic image data can be output in a left-right independent image, anaglyph, convergence, line-by-line, and side-by-side format.
  • step 480 when the end event is selected in step 480, this flow is exited and the stereoscopic image generation ends.
  • a background image to be used as a background of the generated stereoscopic image is drawn in the video memory.
  • this background image for example, a solid image having a depth of infinity and a single color is used.
  • all targets included in the buffer are aligned in the depth direction.
  • the depth direction order is, for example, the order from the side closer to the viewer to the side farther, but it is also possible to reverse the order.
  • step 804 it is determined whether all target images closer to the viewer are drawn in the video memory with reference to the screen. If NO, steps 806 and 808 are sequentially performed from the closer target image.
  • the target left-eye image and right-eye image are drawn in the video memory.
  • a left-eye image and a right-eye image having a set screen parallax are generated from the specific source image selected as the target and rendered in the video memory.
  • steps 806 and 808 images representing depth-related numerical values calculated from the set parameters are added to the left-eye and right-eye images.
  • step 804 the process returns to step 804, and this loop is repeated until the images for the left eye and the right eye of all the nearest target images are drawn in the video memory.
  • drawing is performed in the order of target 1, target 2, and target 3.
  • step 810 a reference depth position image, that is, a lattice pattern having depth 0 is drawn in the video memory. Since this lattice image is depth 0, the screen parallax is 0.
  • steps 812 to 816 perform the same processing as steps 804 to 808, except that all target images far from the viewer are drawn in the video memory.
  • FIG. 9A shows a display example of a stereoscopic image according to the present embodiment.
  • a solid image 900 at infinity a grid image 902 with depth 0, and a soccer ball 904 having a depth closer to the viewer than the screen are shown.
  • the soccer ball is illustrated with images for the left eye and the right eye.
  • the grid image of depth 0 makes it easy to recognize the depth of the ball, particularly the difference between positive and negative depth.
  • An image at infinity is useful for creating a sense of depth.
  • FIG. 9 (B) shows the same soccer ball, but in this case, the soccer ball is behind the grid with a depth of plus. Further, in this example, the depth numerical value “+1.22” (unit: cm) indicated by the reference number 906 is displayed, and the depth information of the soccer ball is provided. Thereby, it is possible to grasp the appearance of the ball and the depth value at that time without greatly shifting the line of sight or focus of the eyes.
  • FIG. 9B since the amount of deviation between the left-eye image and the right-eye image is small, it appears as a single image. As described above, a convergence angle or screen parallax can be used instead of the depth value.
  • FIG. 10 a flowchart of a stereoscopic image scroll process for moving a stereoscopic image with a selected motion pattern is shown.
  • This process is executed by the stereoscopic image generating apparatus 30 in FIG.
  • the scroll process initializes a scroll buffer in step 1000.
  • This buffer is also realized by a part of the storage device 304 in FIG.
  • step 1002 the user interface for scrolling is initialized, and in step 1004, the standby state is entered, awaiting input from the user regarding various events.
  • Events related to scrolling include parameter setting, line scroll setting, scroll event, circle scroll setting, I / O, and end event.
  • the parameter setting event is the same as the parameter setting event in the stereoscopic image generation process of FIG.
  • the line / scroll setting event relates to a process for setting a parameter for moving a stereoscopic image in a straight line (up / down, left / right, or front / back), and the circle / scroll setting interface is used for moving a stereoscopic image in a circle. It relates to the process of setting parameters.
  • FIG. 10A shows horizontal (or left-right) movement 1080 and vertical (or vertical) movement 1082 as examples of line scrolling. The movement in the front-rear direction (or depth direction) is not shown. This figure also shows an ellipse movement 1084 as an example of circle scrolling.
  • the scroll event relates to a process for executing scrolling.
  • the I / O event relates to input / output processing related to scrolling of a stereoscopic image.
  • step 1020 when there is an input for selecting a line / scroll setting event, the process proceeds from step 1020 to step 1022, in which the line / scroll setting interface is initialized, and in step 1024, the setting is performed. Details of the line / scroll setting process will be described later with reference to FIG.
  • step 1026 when the setting made in step 1024 is not saved, the process returns to step 1004, and when saved, it is executed by updating the buffer in step 1028. Thereafter, the process returns to step 1004.
  • step 1030 when there is an input for selecting a circle / scroll setting event, the process proceeds from step 1030 to step 1032 to initialize the circle / scroll setting interface in the same manner as in the case of line / scroll setting. Set up. This setting process will be described later with reference to FIG. Next, after determining whether or not it is necessary to save the setting in step 1036, when saving, the process proceeds to step 1038 to save by updating the buffer, and thereafter, the process returns to step 1004.
  • step 1050 when an I / O event is selected, the process proceeds from step 1050 to step 1052 to execute input / output processing.
  • step 1052 parameter setting and stereoscopic image data input / output can be performed in the same manner as the input / output process in step 472 of FIG.
  • this process ends, the process returns to step 1004.
  • step 1040 when the scroll start event is selected, the process proceeds from step 1040 to step 1042, and the process proceeds to step 1044 except when the scrolling is stopped, and the scroll reproduction process is executed.
  • step 1044 This scroll reproduction process will be described later with reference to FIG.
  • the process returns to step 1042, the scroll reproduction process is repeatedly executed until there is an input to stop scrolling, and if there is a stop input, the process returns to step 1004.
  • the movement start position is set as a horizontal position and a vertical position.
  • the left and right edges of the screen are specified with values of 0% and 100%, so the center position of the screen is specified with a value of 50%.
  • the start position in the front-rear direction (depth direction) is a fixed value of the screen surface position.
  • horizontal movement (1080 in FIG. 10A) is performed by setting the speed and direction of movement. The speed is specified by the number of dots that move per unit time, and the moving direction is selected from left to right or from right to left. If no horizontal movement is set, this step can be passed.
  • step 1104 vertical movement (1082 in FIG. 10A) is performed by setting its speed and moving direction.
  • the speed is specified by the number of dots that move per unit time, and the moving direction is selected from top to bottom or from bottom to top. If no vertical movement is set, this step can be passed.
  • step 1106 the setting of the movement in the front-rear direction is performed by specifying the speed, the moving direction, the parallax change range, and the size change range. Specifically, the speed is set by designating the number of dots whose screen parallax changes per unit time. The amount of change in parallax determines the moving speed in the front-rear direction.
  • the moving direction is set by selecting one of the following (or far) to the front (or near) or the front to the rear.
  • the parallax change range is specified by setting the parallax at the earliest time ("frontmost time") and the parallax at the rearmost or deepest time ("backmost").
  • the parallax at the forefront and the parallax at the back can be set by any one of screen parallax, depth, and convergence angle. If any one is set, the remaining parameters are obtained by automatic calculation.
  • the change range of the size is also specified by setting the size at the front and the size at the back. It should be noted that this step can be passed if the forward / backward movement is not set.
  • a frame period for display is used as a unit time for setting the speed.
  • step 1034 of FIG. 10 a horizontal radius and a vertical radius are specified in this embodiment in order to determine the motion of the elliptical orbit (1084 in FIG. 10A).
  • the vertical and horizontal directions of the elliptical movement are fixed to the movement from the upper left position to the lower right position.
  • step 1202 the speed is specified by an angle that changes per unit time.
  • step 1204 a range of change in parallax in the front-rear direction is set. This setting is the same as step 1106 in FIG.
  • a background image is drawn in video memory.
  • a solid color image for example, the image 900 in FIG. 9 with a depth of infinity is drawn in the video memory.
  • the parallax, position, etc. of the target image for example, soccer ball 904 shown in FIG. 9 in the current frame are calculated.
  • the position changes but the parallax does not change.
  • the position does not change, but the parallax and size change.
  • Circle scrolling changes size in addition to both parallax and position changes.
  • step 1304 it is determined whether the target image is “near” (that is, the depth value is 0 or negative) or “far” (that is, the depth value is positive) with reference to the screen surface.
  • the reference depth position image of depth 0 in this embodiment, a lattice image (for example, the lattice 902 in FIG. 9)
  • the left-eye target image and a right-eye target.
  • step 1312, 1314, and 1316 the left eye target image, the right eye target image, and the depth 0 reference depth position image are drawn in the video memory in this order.
  • step 1324 it is determined whether or not there is a user input to stop scrolling. If NO, the process returns to step 1300 to repeat the above processing for the next frame, and if YES, this processing is terminated.
  • the user can confirm whether or not a desired stereoscopic effect can be obtained from stereoscopic images displayed at different positions on the screen. For example, if horizontal scrolling such as 1080 in FIG. 10A is performed, it is possible to confirm how the screen is viewed at successive positions in the horizontal direction (including left side, center, and right side). Further, by performing this horizontal scroll at the upper side, the center, or the lower side of the screen, it is possible to check at different positions in the vertical direction of the screen. Further, if a vertical scroll such as 1082 in FIG. 10A is used, it is possible to confirm how the screen is viewed at successive positions (including the center, upper end, and lower end) in the vertical direction.
  • the stereoscopic effect can be confirmed at consecutive positions in the front-rear direction, and further, the front-rear direction at any position on the screen can be performed by performing it at different positions in the horizontal or vertical direction on the screen.
  • the stereoscopic effect can be confirmed.
  • a circle scroll such as 1084 in FIG. 10A is used, it is possible to confirm the stereoscopic effect at consecutive positions in the trajectory when the movements in the horizontal direction, vertical direction, and front-rear direction are combined.
  • this embodiment is realized by a computer and software as hardware.
  • this embodiment can also be implemented as a dedicated hardware device that generates a stereoscopic image.
  • the present embodiment can also be implemented as a computer program or a computer-readable recording medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

 表示装置で表示される立体視画像を発生する立体視画像発生装置を提供する。この立体視画像発生装置は、立体視画像を生成するのに使用するパラメータを設定するパラメータ設定ブロック(12)と画像生成ブロック(14)とを含む。パラメータ設定ブロック(12)で設定するパラメータは、表示装置を目視する目視条件を定める第1のパラメータ(120)と、立体視画像の立体視の効果を定める第2のパラメータ(122)とを含む。画像生成ブロック(14)は、パラメータ設定ブロックで設定されたパラメータにしたがって立体視画像を生成する。

Description

立体視画像を発生する方法および装置
 開示した実施形態は、立体視画像の発生に関し、特に、実際の目視条件において所望の立体視効果を生じさせる立体視画像を発生するための方法および装置に関するものである。
 従来、立体視画像の立体視の効果、例えば表示スクリーンに表示される画像のデプス(すなわち、スクリーン面に対し垂直の方向における画像の位置)を制御するため、スクリーンの幅に対する割合を使用して視差量を定め、この視差量を有するように立体視画像を構成する右目用画像と左目用画像を生成することが知られている。
 しかし、デプス等の立体視の効果は、画像を表示するスクリーンの幅だけでなく、その他の要因によっても変化する。したがって、従来のスクリーン幅に対する割合のみで視差量を指定すると、指定された視差量を有する立体視画像から知覚されるデプス等の立体視の効果は、実際の目視条件が変化すると変動してしまうという問題があった。
 以下に述べる種々の側面および実施形態は、装置、方法に関して記述し説明するが、これらは、単なる一例であって説明のためのものであり、したがって範囲限定を意味するものではない。種々の実施形態においては、上記の問題の1つまたはそれ以上が軽減または除去されるが、他の改良のために向けた他の実施形態もある。
 1実施形態によれば、表示装置で表示される立体視画像を発生する方法は、立体視画像を生成するのに使用するパラメータを受けるステップであって、前記パラメータが、前記表示装置を目視する目視条件を定める第1のパラメータと、前記立体視画像の立体視の効果を定める第2のパラメータとを含む、ステップと、受けた前記パラメータにしたがって前記立体視画像を生成するステップと、を含む。
 別の1実施形態によれば、前記立体視の効果を定める前記第2のパラメータは、立体視画像のデプスに関係したパラメータ、例えばデプスまたは輻輳角を含むことができる。
 さらに別の実施形態によれば、前記生成するステップは、前記立体視画像を少なくとも含む画像を発生し、前記前記立体視画像を少なくとも含む画像は、前記デプスに関係した数値の画像を含むこともできる。前記デプスに関係した数値の画像は、前記立体視画像に含めることもできる。また、前記立体視画像を少なくとも含む前記画像は、前記パラメータのうちの少なくとも1つの数値を含む平面画像を含むこともできる。
 さらに別の実施形態によれば、前記生成するステップは前記立体視画像を少なくとも含む画像を生成し、該立体視画像を少なくとも含む画像は、前記パラメータにしたがって生成した前記立体視画像と、特定のデプスを有する少なくとも1つの立体視画像とを含むこともできる。さらに、前記生成するステップは、前記パラメータにしたがって生成した前記立体視画像と、前記特定のデプスを有する少なくとも1つの立体視画像とを、それぞれのデプスにしたがって合成するステップを含むこともできる。前記特定のデプスを有する少なくとも1つの立体視画像は、デプスがゼロの立体視画像、およびデプスが無限遠の立体視画像のうちの少なくとも1つを含むことができる。
 また、別の実施形態によれば、前記第1のパラメータは、目視者の眼間距離、目視者の前記表示装置のスクリーンからの距離、前記スクリーンの幅とを含むことができる。また、前記第2のパラメータは、前記立体視画像の動きを定める動きパラメータを含むことができる。
 また、別の実施形態にしたがって、上述の方法をコンピュータに実行させるためのコンピュータ・プログラム、あるいは上述の方法をコンピュータに実行させるためのコンピュータ実行可能命令を格納したコンピュータ読み取り可能記憶媒体を提供する。
 また、さらに別の実施形態によれば、表示装置で表示される立体視画像を発生する立体視画像発生装置は、立体視画像を生成するのに使用するパラメータを設定するパラメータ設定手段であって、前記パラメータが、前記表示装置を目視する目視条件を定める第1のパラメータと、前記立体視画像の立体視の効果を定める第2のパラメータとを含む、パラメータ設定手段と、前記パラメータ設定手段で設定された前記パラメータにしたがって立体視画像を生成する画像生成手段と、を含む。
 さらに別の実施形態によれば、前記画像生成手段は、少なくとも1つの第1のソース画像を供給するソース画像供給手段と、前記パラメータから視差量を計算する計算手段と、第1の立体視画像を生成する立体視画像生成手段であって、前記第1の立体視画像が、少なくとも1つの前記第1のソース画像から生成されかつ計算された前記視差量を有する、立体視画像生成手段と、を含むことができる。さらに、前記ソース画像供給手段は、更に少なくとも1つの第2のソース画像を供給し、前記立体視画像生成手段は、さらに少なくとも1つの第2の立体視画像を生成し、前記少なくとも1つの前記第2の立体視画像の各々は、少なくとも1つの前記第2のソース画像から生成されかつ基準となる特定のデプスを有することができる。さらに、前記計算手段は、計算された前記視差量に対応するデプスを計算し、前記立体視画像生成手段は、計算された前記デプスに関係した数値を含む数値画像を生成する手段と、前記第1のソース画像に前記数値画像を含める合成手段と、を含むことができる。
 上記の例示的な実施形態および側面に加え、別の実施形態および側面も、図面を参照しまた以下の説明を検討することにより当業者には明らかとなる。
図1は、1実施形態による立体視画像発生装置を示す機能ブロック図である。 図2は、スクリーン面を基準として立体像の位置が目視者に近い場合と目視者から遠い場合のそれぞれについて示す立体視原理図。 図3は、第2の実施形態によるコンピュータ・ベースの立体視画像発生装置を示すブロック図。 図4は、図3の立体視画像発生装置において実行される立体視画像生成処理のフローチャート。 図5は、図4の立体視画像生成処理における目視条件の設定のためのインターフェースを示す図。 図6は、図4の立体視画像生成処理において視差の設定のためのインターフェースを示す図。 図7は、図4の立体視画像生成処理において図3の表示装置に表示される画面表示例を示す図。 図8は、図4における立体視画像作成処理を詳細に示すフローチャート。 図9(A)は、実施形態による立体視画像の表示例を示し、図9(B)は、デプス数値画像を含む立体視画像の表示例を示す図。 図10は、図3の立体視画像発生装置において実行される立体視画像スクロール処理を示すフローチャート。 図10Aは、ライン・スクロールとサークル・スクロールの処理において、スクリーン上での立体視画像の動きのパターンを示す図。 図11は、図10の立体視画像スクロール処理におけるライン・スクロール設定処理の詳細を示すフローチャート。 図12は、図10の立体視画像スクロール処理におけるサークル・スクロール設定処理の詳細を示すフローチャート。 図13は、図10の立体視画像スクロール処理におけるスクロール再生処理の詳細を示すフローチャート。
 以下、種々の実施形態について詳細に説明する。
 図1は、1実施形態による立体視画像発生装置10を示す機能ブロック図である。図示のように、この立体視画像発生装置10は、パラメータ設定ブロック12と、画像生成ブロック14を備えている。詳細には、パラメータ設定ブロック12は、目視条件パラメータ設定ブロック120と、立体視の効果を定める立体視効果パラメータ設定ブロック122と、立体視画像の動きを定める動きパラメータ設定ブロック124とを含む。
 ここで、図2に示す立体視原理図を参照して、それらパラメータについて説明する。目視条件パラメータには、目視者の左目と右目の間の距離、すなわち眼間距離Dipdと、立体視画像の表示に使用される表示装置のスクリーン幅Dswと、目視者からそのスクリーンまでの距離すなわち目視距離Dvdが含まれる。立体視効果パラメータには、デプスに関係したパラメータが含まれる。ここで、デプスDEPは、スクリーン面からこの面に垂直な方向における立体像の位置までの距離を表す。このデプスに関係したパラメータとしては、例えば、スクリーン上における左目用画像と右目用画像のズレ量を表すスクリーン視差DIS、デプスDEP、あるいは輻輳角AOAが含まれる。動きパラメータには、立体視画像をある動きパターンで動かすときに使用するパラメータが含まれる。動きパターンとしては、例えば、直線状の動きであるライン・パターン(例えば、水平または垂直の直線状の動き)と、非直線状の動きである円形状の動きを示すサークル・パターンがある。動きパラメータは、そのようなパターンにおいて、立体視画像を動かすスクリーン上の空間的範囲(左右、上下または前後(デプス方向)を含む)、動きの速度、立体視画像のサイズの変化範囲(デプス方向に動くときの画像のサイズの変化、等を定める。
 この立体視画像発生装置10では、立体視画像を表示する表示装置としては、陰極線管(CRT)、液晶表示装置(LCD)、プロジェクタ、映画館の映写装置(スクリーンを含む)等が含まれる。
 次に、パラメータ設定ブロック12からの設定されたパラメータを受ける画像生成ブロック14は、計算ブロック140と、立体視画像生成ブロック142と、平面画像生成ブロック144とを備えている。計算ブロック140は、パラメータ設定ブロック12から受けたパラメータに基づいて、スクリーン視差量を計算する。
 この計算結果を受ける立体視画像生成ブロック142は、ソース画像供給ブロック1420と、デプス関係数値画像生成ブロック1422と、合成ブロック1424とを備えている。ソース画像供給ブロック1420は、立体視画像を構成する左目用画像と右目用画像とを生成するために使用する少なくとも1つの第1のソース画像と、基準デプス位置画像として使用する少なくとも1つの第2のソース画像を供給することができる。これらソース画像は、単一の平面画像で構成したり、あるいは左目用画像と右目用画像を含む1対の平面画像で構成することもできる。
 基準デプス位置画像とは、立体視表示する画像のデプス位置の基準として使用する画像を指し、例えば、スクリーン面の位置であるデプス0をもつ画像、無限遠のデプスをもつ画像の一方または双方を含むことができる。尚、デプス0と無限遠を基準としたが、その他のデプス位置を基準としてもよい。また、デプス0の基準デプス位置画像としては、背後が部分的に見える画像または背後が見えない画像を用いることができる。背後が見えない画像の場合には、デプス0より遠い立体視画像が存在するときには、その立体視画像が占める領域部分は透明とする。背後が部分的に見える画像の場合には、画面の一部を占める画像や、一部が透明な模様を用いることができる。画面の一部を占める画像としては、単独の絵(例えば、ドーナツ状の画像(ドーナツの中心側と外側の領域は透明))やロゴ等の文字(例えば、文字の部分は不透明)を使用することができる。また、一部が透明な模様としては、例えば格子模様があり、これは、複数の水平線と複数の垂直線が交差して構成されていて、それら線以外の空間部分は透明である。この透明の空間部分を有することにより、立体視画像がデプス0位置から正の数値のデプス位置(目視者からより遠くなる位置)に移動するときでも、その透明空間から格子の背後にある立体視画像を視認することが可能となる。したがって、背後が見える模様であれば、格子以外の任意の模様(例えば、白黒のチェッカーフラッグ(白い部分は透明))も使用することができる。さらに、無限遠の基準デプス画像としては、単一色で模様のないもの、すなわち無地を使用することができる。あるいはまた、無地であるが非単一色としたり、あるいはグレースケールを有するようにすることもできる。
 デプス関係数値画像生成ブロック1422は、計算ブロック140からのデプスに関係する数値を受けて、生成する立体視画像のデプスに関係する数値を示す画像を生成する。
 合成ブロック1424は、計算ブロック140からのスクリーン視差量と、ソース画像供給ブロック1420からの少なくとも1つの第1のソース画像を受けて、各々の第1ソース画像から左目用画像と右目用画像を生成する。このとき、左目用画像と右目用画像とには、上記スクリーン視差量に対応するズレ量をもたせることによって立体視効果を生成する。尚、第1ソース画像が単一の平面画像であるときには、左目用画像と右目用画像とは同じ画像となる。
 また、合成ブロック1424は、上記の第1ソース画像からの立体視画像に加えて、デプス関係数値画像及び基準デプス位置画像の一方または双方を生成することもできる。
 例えば、デプス関係数値画像を追加するときには、デプス関係数値画像生成ブロック1422は、計算ブロックからデプスに関係した数値、例えばデプスDEP数値を受け、そしてこの数値を表す数値画像を生成する。この数値画像を受ける合成ブロック1424は、1実施形態では、この数値画像を、ソース画像供給ブロック1420からの第1のソース画像と合成する。合成ブロック1424は、その数値画像が合成によって追加された第1ソース画像から、上述のように立体視画像を生成する。第1ソース画像が上述のように1対の左目用と右目用の画像からなるときは、その各画像に数値画像を合成によって追加することができる。このように、立体視画像自体にデプスに関係した数値を追加すれば、ユーザに対し、立体視画像のデプスに関係した数値情報をその立体視画像と一緒に提供することができる。これにより、ユーザは、立体視画像からほとんど目の視線や焦点をずらすことなくその数値情報を読み取ることができる。尚、デプスに関係した数値としては、デプスDEPの代わりに輻輳角AOAやスクリーン視差を使用することもできる。
 また、基準デプス位置画像、例えばデプス0の基準デプス位置画像を追加するときには、合成ブロック1424は、ソース画像供給ブロック1420からデプス0の基準デプス位置画像として使用できる第2ソース画像を受け、そしてこの第2ソース画像から、上記のズレを有する1対の左目用と右目用の画像を生成する。この点は、第1ソース画像からの生成と同様である。ただし、この場合は、デプス0に対応するズレ量をそれら左目用画像と右目用画像にもたせる。次に、この第2ソース画像から生成した1対の左目用と右目用の画像を、第1ソース画像から生成した1対の左目用と右目用の画像のそれぞれ対応する画像と合成して、合成結果を表す左目用画像と右目用画像を生成する。デプス0の基準デプス位置画像を追加することにより、スクリーン面より前にあるのか後ろにあるのかが判別しやすくなり、したがってその他の表示された立体視画像の立体視効果が認識しやすくなる。
 さらに、無限遠の基準デプス位置画像を追加することもでき、このときも、デプス0の基準デプス位置画像と同様に合成すれば良い。この無限遠の画像も、立体視画像の立体視効果を認識しやすくする。
 さらに、図1の立体視画像発生装置10においては、前述のように、立体視画像の動きを動きパラメータ設定ブロック124によって設定することができる。このため、動きパラメータが設定されたときには、計算ブロック140は、設定された動きにしたがって視差量、立体視画像を表示する位置やサイズ等を計算する。これとともに、合成ブロック1424は、設定された動きパラメータにしたがって立体視画像を表示させる位置、立体視画像のサイズ、視差量に対応した左目用画像と右目用画像との間のズレ量を変化させる。これによって、立体視画像を、静止した状態で表示するだけでなく、動く状態でも表示することができる。これにより、動く状態での立体視画像の立体視効果を確認することができる。
 図1の立体視画像発生装置10の画像生成ブロック14は、さらに平面画像生成ブロック144も備えている。この平面画像生成ブロック144は、計算ブロック140からの計算結果、並びにパラメータ設定ブロック12からの設定パラメータを受け、そして平面画像の形式でそれら受けたパラメータのうちの任意のものあるいはその計算結果を表示するための平面画像を生成する。これにより、種々の立体視画像の関連するパラメータあるいは数値の情報をユーザに提供することができる。
 尚、立体視画像生成ブロック142が発生する立体視画像と、平面画像生成ブロック144が発生する平面画像とは、互いに合成した後に表示装置に供給してもよいし、あるいは表示装置において合成するようにしてもよい。
 ここで、立体視効果に関する関係式は以下の通りである。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
 ここで、Dipdは眼間距離、Dswはスクリーン幅、Dvdは目視者からそのスクリーンまでの距離すなわち目視距離、Psはドット数で示したスクリーン幅である。また、DISperは視差量をスクリーンに対する割合で示す百分率視差量、DISdotは、視差量をスクリーンのドット数で示したドット数視差量、DIScmは、視差量をスクリーン上の幅(cm)で示すスクリーン幅視差量、DEPはデプス、AOVは輻輳角である。本実施形態では、上記の式、あるいは上記の式を変形して使用する。
 次に、図3を参照して、第2の実施形態によるコンピュータ・ベースの立体視画像発生装置30について説明する。図示のように、立体視画像発生装置30は、コンピュータの一般的な構成である、キーボードやマウスのような入力装置300,プロセッサ302,ハードディスクやROMのような不揮発性メモリやRAM等の揮発性メモリで構成された記憶装置304、並びにLCDあるいはCRTのような表示装置306を備えている。この立体視画像発生装置30は、上述した立体視画像を生成するためのプログラムを格納しており、そしてこのプログラムを実行することによって上述のような立体視画像を生成することができる。
 図4は、そのプログラムで実行される立体視画像生成処理のフローチャートを示す。図示のように、このフローは、最初のステップ400において、本処理において使用する種々のパラメータ等を保存するために使用するバッファの初期化を行う。このバッファは、図3の記憶装置304の一部において実現できる。次に、ステップ402で、この立体視画像生成において使用するユーザ・インターフェースを初期化する。次に、ステップ404においてスタンバイ状態となり、種々のイベントに関するユーザからの入力を待つ。イベントとしては、パラメータ設定、ターゲット設定、立体視画像作成設定、ターゲット設定修正、入出力(I/O)、終了のイベントがある。パラメータ設定イベントは、立体視画像生成のためのパラメータを設定する処理に関しており、そのパラメータには、目視条件パラメータ、立体視効果パラメータが含まれる。ターゲット設定イベントは、立体視画像の生成に使用するソース画像を選択する処理に関しており、本実施形態では、予め用意した複数のソース画像(ユーザが作成した画像を含む)のうちの特定の1つを、「ターゲット」、すなわち立体視効果を付与する対象画像として選択する。立体視画像作成設定イベントは、ターゲットから立体視画像を作成する処理に関している。ターゲット設定修正イベントは、一旦設定したターゲット設定を修正する処理に関するものである。I/Oイベントは、立体視画像生成に関する入出力処理に関するものである。
 次に、各種のイベントについて詳細に説明する。まず初めに、パラメータ設定イベントについて説明すると、ステップ410において、パラメータ設定イベントを選択する入力があると、ステップ412において、パラメータ設定のためのインターフェースを初期化し、次にステップ414で、ユーザからの入力を受けて設定を行う。
 図5は、目視条件の設定のためのインターフェースを図示している。目視条件設定画面500においては、眼間距離IPD、目視距離、スクリーン幅の値が、ユーザにより入力される。尚、図示していないが、表示装置のスクリーン全体を立体視画像の表示に使用しない場合には、立体視画像の表示に使用するスクリーンの一部の領域(例えば、矩形の領域)を「バックグラウンド領域」として定めてその幅を設定する。この場合には、バックグラウンド領域の幅が、目視条件の1つであるスクリーン幅として使用する。
 図4に戻って、上記の設定が完了すると、ステップ414からステップ416に進み、完了した設定を保存しない場合にはステップ404に戻り、そして保存する場合にはステップ418に進み、ここで、バッファを更新することにより設定を保存する。次に、ステップ420に進んで、表示画面を更新した後、ステップ404に戻って待機する。
 次に、ターゲット設定イベントについて説明すると、ステップ430でターゲット設定イベントを選択する入力があると、ステップ431で、立体視効果を付与するターゲットとして使用するソース画像を選択する。ソース画像としては、例えば、時計、地球、蝶々、土星、バイク等の画像がある。次に、ステップ432において、選択したターゲットを表示するスクリーン位置を設定する。次に、ステップ433で、視差設定インターフェースを初期化する。次にステップ434で、視差設定を行う。
 図6は、視差の設定のためのインターフェースを図示している。視差設定画面600においては、立体視画像をスクリーンを基準としてユーザに近い側に表示するか、あるいは遠い側に表示するか選択する。また、ユーザは、立体視効果パラメータを設定するためには、スクリーン視差、デプスあるいは輻輳角の3つのパラメータのうちのいずれか1つのパラメータを設定すればよい。ここで、スクリーン視差は、前述した百分率視差量、スクリーン幅視差量、あるいはドット数視差量のうちの任意の1つで指定することができる。スクリーン視差として例えば百分率視差量が設定されると、スクリーン視差の残りのパラメータだけでなく、デプスと輻輳角も、計算によって求めることができ、したがって、その計算結果が視差設定画面600に表示される。このように、ユーザは、スクリーン視差、デプスあるいは輻輳角のいずれかで視差設定をすることができるため、立体視効果のうちユーザが注目するパラメータのみを操作するだけで設定を行うことができる。
 ステップ434において設定が完了すると、次のステップ435で設定を保存しないと判定したときにはステップ404に戻り、保存すると判定したときには、ステップ436に進んで、設定されたパラメータをバッファの更新によって保存する。この後、ステップ420で表示を更新した後に、ステップ404に戻る。
 図7は、上記のターゲット設定イベントが完了した時点での表示装置306に表示される画面700を示している。この画面700は、立体視画像が表示される矩形領域であるバックグラウンド領域702中に7つのターゲット(時計、地球、蝶々、バイク、土星、仏像等)が表示されている。このバックグラウンド領域の下にある領域704は、目視条件パラメータ等を表示し、その内容は、表1に示す。
Figure JPOXMLDOC01-appb-T000005
 この領域704の右の領域706は、バックグラウンド領域702に表示された各々のターゲットに関する立体視効果パラメータを表示し、その内容の一部を表2に示す。
Figure JPOXMLDOC01-appb-T000006
 尚、表2の視差量は、ドット数視差量で示しているが、スクリーン幅視差量(cm), 百分率視差量(%)、デプス(cm)、輻輳角(度)で表してもよい。また、バックグラウンド領域702の右の領域708には、バックグラウンド領域702の表示された画像のフォーマット変換後のサムネイル画像が表示されている。この画像のフォーマットの例としては、左右独立画像、アナグリフ、コンバージェンス、ライン・バイ・ライン、サイド・バイ・サイド等のフォーマットがある。
 次に、立体視画像作成設定イベントについて説明すると、ステップ440でこのイベントを選択する入力があると、ステップ442で立体視画像作成処理を実行し、そしてその後ステップ420を経た後にステップ404に戻る。ステップ442での立体視画像作成処理については、図8を参照して後述する。
 次に、ターゲット設定修正イベントについて説明すると、ステップ460でこのイベントを選択する入力があると、ステップ461で、修正するターゲットを選択し、そしてステップ462で設定を修正すると判定したときにはステップ464~467に進み、ターゲットを削除すると判定したときにはステップ468に進む。まず、設定の修正のときには、ステップ464で、図6に示す視差設定インターフェースを初期化し、そしてステップ465で新たな設定を受け入れ、次に、この設定を保存しないときにはステップ404に戻り、設定を保存するときにはステップ467でバッファを更新することによって行う。一方、ターゲットの削除のときには、ステップ468でターゲットの削除に対応してバッファを更新して保存を行う。このステップ468と467の次には、ステップ420を経てステップ404に戻る。
 次に、ステップ470でI/Oイベントが選択されたときには、ステップ472で入出力処理を実行する。ここで、入力処理のときには、パラメータ設定や立体視画像データの入力を受けることができる。出力処理のときには、設定されたパラメータや、生成された立体視画像データあるいはこの立体視画像データのフォーマット変換されたデータを出力することができる。例えば、立体視画像データは、左右独立画像、アナグリフ、コンバージェンス、ライン・バイ・ライン、サイド・バイ・サイドのフォーマットで出力することができる。この処理が終了すると、ステップ420を経てステップ404に戻る。
 最後に、終了イベントがステップ480で選択されると、このフローを出て、立体視画像生成は終わる。
 次に、図8を参照して、図4のステップ442の立体視画像作成処理について詳細に説明する。先ずステップ800で、生成する立体視画像の背景として使用する背景画像をビデオメモリにおいて描く。この背景画像として、例えばデプスが無限遠で、かつ単一色で無地の画像を用いる。次に、ステップ802で、バッファ内に含まれる全てのターゲットを、デプス方向順で整列させる。このデプス方向順は、例えば、目視者に近い方から遠い方に向かう順序であるが、ただしその逆にすることも可能である。
 次に、ステップ804において、スクリーンを基準にして目視者に近い方のターゲット画像のすべてをビデオメモリにおいて描画したか否か判定し、NOのときには、近い方のターゲット画像から順番にステップ806と808において、ターゲットの左目用画像と右目用画像とをビデオメモリにおいて描画する。このとき、ターゲットとして選択した特定のソース画像から、設定されたスクリーン視差をもつ左目用と右目用の画像を生成してビデオメモリにおいて描画する。また、ターゲット画像にデプス関係数値画像を追加するときには、これらステップ806、808において、設定されたパラメータから計算されたデプス関係数値を表す画像を左目用と右目用の画像に追加する。その後、ステップ804に戻り、そしてこのループを、近い方のターゲット画像全ての左目用と右目用の画像がビデオメモリにおいて描画されるまで繰り返す。表2の例で言えば、ターゲット1,ターゲット2、ターゲット3の順番で描画される。次に、ステップ810で、基準デプス位置画像、すなわちデプス0を有する格子模様をビデオメモリにおいて描画する。この格子画像は、デプス0なのでスクリーン視差は0となる。次のステップ812~816は、ステップ804~808と同様の処理を行うが、但し、目視者から遠い方のターゲット画像のすべてをビデオメモリにおいて描画する。
 図9(A)は、本実施形態による立体視画像の表示例を示している。この例では、無限遠の無地の画像900と、デプス0の格子画像902と、スクリーンよりも目視者に近い方のデプスを有するサッカーボール904を示している。尚、サッカーボールは、左目用と右目用の画像が図示されている。デプス0の格子画像は、ボールのデプス、特に正と負のデプスの違いを認識しやすくする。また、無限遠の画像は、奥行き感覚の形成に役に立つ。
 図9(B)は、同じサッカーボールを示しているが、この場合、サッカーボールは、デプスがプラスとなって格子の背後にある。さらに、この例では、参照番号906で指示するデプス数値「+1.22」(単位はcm)が表示されていて、サッカーボールのデプス情報を提供している。これにより、ボールの見え方とそのときのデプス値とを、目の視線や焦点を大きくずらさずに把握することができる。尚、図9(B)では、左目用と右目用の画像の間のズレの量は小さいため、単一の画像として見えている。尚、上述したように、このデプス数値の代わりに、輻輳角やスクリーン視差を使用することもできる。
 次に、図10を参照して、選択した動きパターンで立体視画像を動かすための立体視画像スクロール処理のフローチャートを示す。この処理は、図3の立体視画像発生装置30で実行される。図示のように、このスクロール処理は、ステップ1000で、スクロール用のバッファを初期化する。このバッファも図3の記憶装置304の一部で実現される。次にステップ1002で、スクロールのためのユーザ・インターフェースを初期化し、そしてステップ1004でスタンバイ状態となり、種々のイベントに関するユーザからの入力を待つ。スクロールに関するイベントとしては、パラメータ設定、ライン・スクロール設定、スクロール・イベント、サークル・スクロール設定、I/O、終了のイベントがある。パラメータ設定イベントは、立体視画像生成のためのパラメータを設定する処理に関して、図4の立体視画像生成処理におけるパラメータ設定イベントと同じであるが、但し目視条件パラメータの設定のみである。ライン・スクロール設定イベントは、立体視画像を直線状(上下、左右、又は前後)に動かすためのパラメータを設定する処理に関しており、サークル・スクロール設定インターフェースは、立体視画像をサークル状に動かすためのパラメータを設定する処理に関している。図10Aには、ライン・スクロールの例として、水平(または左右)方向の動き1080と、垂直(または上下)方向の動き1082を示している。尚、前後方向(又はデプス方向)の動きは図示していない。またこの図には、サークル・スクロールの例として、楕円の動き1084を示している。尚、本実施形態では、非直線状の動きの例としてサークル、例えば楕円を示すが、その他の非直線の動きを採用することもできる。スクロール・イベントは、スクロールを実行する処理に関している。I/Oイベントは、立体視画像のスクロールに関する入出力処理に関するものである。
 次に、各種のイベントについて詳細に説明する。まず初めに、パラメータ設定イベントについて説明すると、ステップ1010~1018で実行されるこのイベントは、図4の立体視画像生成処理におけるパラメータ設定イベント(ステップ410~418)と同じであり、したがって説明を省略する。このイベントが完了すると、ステップ1004に戻って、ユーザからの入力を待つ。
 次に、ライン・スクロール設定イベントを選択する入力があると、ステップ1020からステップ1022に進み、このステップで、ライン・スクロール設定インターフェースを初期化し、そしてステップ1024で、その設定を行う。このライン・スクロール設定処理の詳細は、図11を参照して後述する。次のステップ1026では、ステップ1024で行われた設定を保存しないときはステップ1004に戻り、保存するときにはステップ1028でバッファを更新することにより実行する。この後ステップ1004に戻る。
 同様に、サークル・スクロール設定イベントを選択する入力があると、ライン・スクロール設定のときと同様にして、ステップ1030からステップ1032に進んで、サークル・スクロール設定インターフェースを初期化し、次のステップ1034で設定を行う。この設定処理は、図12を参照して後述する。次にステップ1036で設定保存の要否を判定した後、保存するときにはステップ1038に進んでバッファを更新することにより保存を行い、そしてこの後にステップ1004に戻る。
 次に、I/Oイベントが選択されたときには、ステップ1050からステップ1052に進んで入出力処理を実行する。この入出力処理は、図4のステップ472の入出力処理と同様に、パラメータ設定や立体視画像データの入出力を行うことがきる。この処理が終了すると、ステップ1004に戻る。
 次に、スクロール開始イベントが選択されると、ステップ1040からステップ1042に進み、スクロールを停止する場合を除きステップ1044に進んで、スクロール再生処理を実行する。このスクロール再生処理については、図13を参照して後述する。この処理の後、ステップ1042に戻って、スクロールを停止する入力があるまで、スクロール再生処理を繰り返し実行し、そして停止入力があると、ステップ1004に戻る。
 最後に、終了イベントが選択されると、ステップ1060から本フローを出て終了する。
 次に、図11を参照して、図10のステップ1024のライン・スクロール設定処理の詳細を説明する。まず最初のステップ1100において、動きの開始位置を、水平位置と垂直位置で設定する。スクリーンの左端と右端は、0%と100%の値で指定され、したがってスクリーンの中央位置は50%の値で指定される。また、前後方向(デプス方向)の開始位置は、スクリーン面位置の固定値である。次のステップ1102で、水平方向の動き(図10Aの1080)を、スピードと移動方向とを設定することにより行う。スピードは、単位時間あたりに移動するドット数で指定し、移動方向は左から右へまたは右から左へのいずれかを選択する。尚、水平方向の動きを設定しない場合には、このステップをパスすることができる。次にステップ1104では、垂直方向の動き(図10Aの1082)を、そのスピードと移動方向とを設定することにより行う。スピードは、単位時間あたりに移動するドット数で指定し、移動方向は上から下へまたは下から上へのいずれかを選択する。尚、垂直方向の動きを設定しない場合には、このステップをパスすることができる。次にステップ1106では、前後方向の動きの設定を、そのスピードと、移動方向と、視差の変化範囲と、サイズの変化範囲とを指定することにより行う。詳しくは、スピードは、スクリーン視差が単位時間当たりに変化するドット数を指定することにより設定する。この視差の変化量が前後方向の移動スピードを決める。また、移動方向は、後(又は遠)から前(又は近)あるいは前から後のいずれかを選択することにより設定する。視差の変化範囲は、最も前の時(「最前時」)の視差と、最も後ろまたは奥の時(「最奥時」)の視差とを設定することにより指定する。最前時の視差と最奥時の視差は、スクリーン視差、デプス、輻輳角のいずれか1つで設定することができる。いずれか1つを設定すると、残りのパラメータは自動計算で求められる。サイズの変化範囲も、最前時のサイズと最奥時のサイズとを設定することにより指定する。尚、前後方向の動きを設定しない場合は、このステップをパスすることができる。尚、本実施形態では、スピードを設定するための単位時間として、表示のためのフレーム周期を使用している。
 次に、図12を参照して、図10のステップ1034のサークル・スクロール設定処理の詳細を説明する。最初のステップ1200において、本実施形態では楕円軌道の動き(図10Aの1084)を定めるため、水平方向の半径と垂直方向の半径とを指定する。尚、楕円の動きの上下左右方向は、左上の位置から右下の位置への動きに固定している。次のステップ1202で、スピードを、単位時間当たりに変化する角度で指定する。次に、ステップ1204において、前後方向の視差の変化範囲を設定する。この設定は、図11のステップ1106と同じである。
 次に、図13を参照して、図10のステップ1044のスクロール再生処理の詳細を説明する。まず最初のステップ1300において、背景画像をビデオメモリにおいて描く。本実施形態では、無限遠のデプスで単一色で無地の画像(例えば、図9の画像900)をビデオメモリにおいて描く。次のステップ1302では、現在のフレームにおけるターゲット画像(例えば、図9に示すサッカーボール904)の視差、位置等を計算する。水平方向と垂直方向のライン・スクロールでは位置は変化するが視差は変化せず、前後方向のライン・スクロールでは位置は変化しないが視差とサイズが変化する。サークル・スクロールでは、視差と位置の双方の変化に加えてサイズも変化する。次にステップ1304で、ターゲット画像が、スクリーン面を基準にして「近」(すなわち、デプス値が0または負)か「遠」(すなわちデプス値が正)を判定し、YESの場合すなわちターゲット画像が「近」の場合、ステップ1306,1308,1310で、デプス0の基準デプス位置画像(本実施形態では格子画像(例えば、図9の格子902))、左目用のターゲット画像、右目用のターゲット画像の順にビデオメモリにおいて描く。一方、ステップ1304においてNOの場合、ステップ1312,1314,1316で、左目用のターゲット画像、右目用のターゲット画像、デプス0の基準デプス位置画像の順にビデオメモリにおいて描く。
 次に、ステップ1324で、スクロール停止のユーザ入力があるかどうか判定し、NOのときにはステップ1300に戻って、次のフレームに対し上記の処理を繰り返し、そしてYESのときにはこの処理を終了する。
 以上に述べたスクロール処理により、ユーザは、スクリーン上の異なった位置において表示される立体視画像から所望の立体視効果が得られるかどうかを確認することが可能となる。例えば、図10Aの1080のような水平方向スクロールを行えば、スクリーンの水平方向における連続した位置(左側、中央、右側を含む)での見え方を確認できる。さらに、この水平方向スクロールを、スクリーンの上側、中央、または下側で行うことにより、スクリーンの上下方向における異なった位置での確認も行うことができる。また、図10Aの1082のような垂直方向スクロールを用いれば、スクリーンの垂直方向における連続した位置(中央、上端、下端を含む)での見え方を確認でき、さらにまたこの垂直スクロールをスクリーンの左側、中央、右側で行えば、スクリーンの水平方向における異なった位置での確認も行える。また、前後方向のスクロールを用いれば、前後方向の連続した位置において立体視効果を確認でき、さらに、スクリーン上の水平または垂直方向の異なった位置で行うことにより、スクリーン上のあらゆる位置における前後方向の立体視効果の確認を行える。さらに、図10Aの1084のようなサークル・スクロールを用いると、水平方向、垂直方向、前後方向の動きが組合わさったときの軌道における連続した位置での立体視効果を確認することもできる。
 以上に説明した図3の実施形態においては、ハードウェアとしてのコンピュータとソフトウェアとで本実施形態を実現している。しかし、本実施形態は、立体視画像を生成する専用のハードウェア装置として実施することもできる。また、本実施形態は、コンピュータ・プログラムとしてあるいはコンピュータ読み取り可能記録媒体として実施することもできる。
 以上、種々の例示的な側面および実施形態について詳述したが、当業者には、種々の変更、置換、追加、サブコンビネーションが認識される。したがって、添付の請求の範囲に記載した請求項および将来請求の範囲に含めることのある請求項の解釈は、真の要旨および範囲内にあるものとしてのあらゆるそのような変更、置換、追加、サブコンビネーション等もそれら請求項が包含するもの、としてなされるよう意図している。

Claims (21)

  1.  表示装置で表示される立体視画像を発生する方法であって、
     立体視画像を生成するのに使用するパラメータを受けるステップであって、前記パラメータが、前記表示装置を目視する目視条件を定める第1のパラメータと、前記立体視画像の立体視の効果を定める第2のパラメータとを含む、ステップと、
     受けた前記パラメータにしたがって前記立体視画像を生成するステップと、
    を含む、立体視画像発生方法。
  2.  請求項1記載の方法において、
     前記立体視の効果を定める前記第2のパラメータは、立体視画像のデプスに関係したパラメータを含む、
    方法。
  3.  請求項2記載の方法において、前記デプスに関係したパラメータは、デプスまたは輻輳角である、
    方法。
  4.  請求項3記載の方法において、
     前記生成するステップは、前記立体視画像を少なくとも含む画像を発生し、
     前記前記立体視画像を少なくとも含む画像は、
     前記デプスに関係した数値の画像を含む、
    方法。
  5.  請求項4記載の方法において、
     前記デプスに関係した数値の画像は、前記立体視画像に含まれる、
    方法。
  6.  請求項4から5のいずれかに記載の方法において、
     前記立体視画像を少なくとも含む前記画像は、前記パラメータのうちの少なくとも1つの数値を含む平面画像を含む、
    方法。
  7.  請求項1~6のいずれかに記載の方法において、
     前記生成するステップは、前記立体視画像を少なくとも含む画像を生成し、
     前記立体視画像を少なくとも含む画像は、
     前記パラメータにしたがって生成した前記立体視画像と、特定のデプスを有する少なくとも1つの立体視画像とを含む、
    方法。
  8.  請求項1に記載の方法において、
     前記生成するステップは、前記立体視画像を少なくとも含む画像を生成し、
     前記立体視画像を少なくとも含む画像は、前記パラメータにしたがって生成した前記立体視画像と、特定のデプスを有する少なくとも1つの立体視画像とを含む、
    方法。
  9.  請求項8に記載の方法において、
     前記生成するステップは、
     前記パラメータにしたがって生成した前記立体視画像と、前記特定のデプスを有する少なくとも1つの立体視画像とを、それぞれのデプスにしたがって合成するステップを含む、
    方法。
  10.  請求項9記載の方法において、
    前記特定のデプスを有する少なくとも1つの立体視画像は、デプスがゼロの立体視画像、およびデプスが無限遠の立体視画像のうちの少なくとも1つを含む、
    方法。
  11.  請求項1から10のいずれかに記載の方法において、
     前記第1のパラメータは、目視者の眼間距離、目視者の前記表示装置のスクリーンからの距離、前記スクリーンの幅とを含む、
    方法。
  12.  請求項11に記載の方法において、
     前記第2のパラメータは、前記立体視画像の動きを定める動きパラメータを含む、
    方法。
  13.  請求項12に記載の方法において、
     前記動きパラメータは、前記立体視画像の直線的な動きのパターンまたは非直線的な動きのパターンを定める、
    方法。
  14.  請求項13に記載の方法において、
     前記動きパラメータは、動きの速度を定めるパラメータを少なくとも含む、
    方法。
  15.  請求項1から14のいずれかに記載の方法をコンピュータに実行させるためのコンピュータ・プログラム。
  16.  請求項1から14のいずれかに記載の方法をコンピュータに実行させるためのコンピュータ実行可能命令を格納したコンピュータ読み取り可能記憶媒体。
  17.  表示装置で表示される立体視画像を発生する立体視画像発生装置であって、
     立体視画像を生成するのに使用するパラメータを設定するパラメータ設定手段であって、前記パラメータが、前記表示装置を目視する目視条件を定める第1のパラメータと、前記立体視画像の立体視の効果を定める第2のパラメータとを含む、パラメータ設定手段と、
     前記パラメータ設定手段で設定された前記パラメータにしたがって立体視画像を生成する画像生成手段と、
    を含む、立体視画像発生装置。
  18.  請求項17記載の装置において、
     前記画像生成手段は、
     少なくとも1つの第1のソース画像を供給するソース画像供給手段と、
     前記パラメータから視差量を計算する計算手段と、
     第1の立体視画像を生成する立体視画像生成手段であって、前記第1の立体視画像が、少なくとも1つの前記第1のソース画像から生成されかつ計算された前記視差量を有する、立体視画像生成手段と、
    を含む、立体視画像発生装置。
  19.  請求項18に記載の装置において、
     前記ソース画像供給手段は、更に少なくとも1つの第2のソース画像を供給し、
     前記立体視画像生成手段は、さらに少なくとも1つの第2の立体視画像を生成し、前記少なくとも1つの前記第2の立体視画像の各々は、少なくとも1つの前記第2のソース画像から生成されかつ基準となる特定のデプスを有する、
    立体視画像発生装置。
  20.  請求項19に記載の装置において、
     前記計算手段は、計算された前記視差量に対応するデプスに関係した数値を計算し、
     前記立体視画像生成手段は、
     計算された前記デプスに関係した数値を含む数値画像を生成する手段と、
     前記第1のソース画像に前記数値画像を含める合成手段と、
    を含む、立体視画像発生装置。
  21.  請求項20に記載の装置において、
     前記合成手段は、
     前記第1の立体視画像と前記第2の立体視画像とを合成する、
    立体視画像発生装置。
PCT/JP2010/070337 2010-11-16 2010-11-16 立体視画像を発生する方法および装置 WO2012066627A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/070337 WO2012066627A1 (ja) 2010-11-16 2010-11-16 立体視画像を発生する方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/070337 WO2012066627A1 (ja) 2010-11-16 2010-11-16 立体視画像を発生する方法および装置

Publications (1)

Publication Number Publication Date
WO2012066627A1 true WO2012066627A1 (ja) 2012-05-24

Family

ID=46083593

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/070337 WO2012066627A1 (ja) 2010-11-16 2010-11-16 立体視画像を発生する方法および装置

Country Status (1)

Country Link
WO (1) WO2012066627A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007396A (ja) * 2002-03-27 2004-01-08 Sanyo Electric Co Ltd 立体画像処理方法および装置
JP2005353047A (ja) * 2004-05-13 2005-12-22 Sanyo Electric Co Ltd 立体画像処理方法および立体画像処理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007396A (ja) * 2002-03-27 2004-01-08 Sanyo Electric Co Ltd 立体画像処理方法および装置
JP2005353047A (ja) * 2004-05-13 2005-12-22 Sanyo Electric Co Ltd 立体画像処理方法および立体画像処理装置

Similar Documents

Publication Publication Date Title
US8605136B2 (en) 2D to 3D user interface content data conversion
EP2448276B1 (en) GUI providing method, and display apparatus and 3D image providing system using the same
US9218113B2 (en) Information processing device, information processing method and program
WO2012036120A1 (ja) 立体画像生成装置、立体画像表示装置、立体画像調整方法、立体画像調整方法をコンピュータに実行させるためのプログラム、及びそのプログラムを記録した記録媒体
CN103329165B (zh) 放缩三维场景中的用户控制的虚拟对象的像素深度值
JP2005164916A (ja) 立体表示装置
WO2012157540A1 (ja) 画像処理装置、画像処理方法、およびプログラム
KR20140089860A (ko) 디스플레이 장치 및 그 디스플레이 방법
CN102708577B (zh) 多视点立体图片的合成方法
JP2011199389A (ja) 画像処理装置、画像変換方法、およびプログラム
JP2011139281A (ja) 三次元画像生成装置、三次元画像表示装置、三次元画像生成方法およびプログラム
JP2006178900A (ja) 立体画像生成装置
WO2018187635A1 (en) System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display
CN103731657B (zh) 一种对dibr算法处理后的含有空洞影像的空洞填充处理方法
JP2006115151A (ja) 立体表示装置
JP6089383B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2015043187A (ja) 画像生成装置および画像生成プログラム
WO2012066627A1 (ja) 立体視画像を発生する方法および装置
JP5036088B2 (ja) 立体画像処理装置、立体画像処理方法およびプログラム
JP4902012B1 (ja) ズーミング可能なステレオフォトビューア
JP5319728B2 (ja) 視差画像生成装置、表示装置、視差画像生成方法、視差画像生成プログラムおよびそれを記録した記録媒体
JP2001103514A (ja) 2次元映像を3次元映像に変換する方法
US20130307930A1 (en) Stereoscopic image processing apparatus and method thereof
WO2010098159A1 (ja) 立体表示装置
US9547933B2 (en) Display apparatus and display method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10859845

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10859845

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP