WO2012169220A1 - 立体画像表示装置および立体画像表示方法 - Google Patents

立体画像表示装置および立体画像表示方法 Download PDF

Info

Publication number
WO2012169220A1
WO2012169220A1 PCT/JP2012/052257 JP2012052257W WO2012169220A1 WO 2012169220 A1 WO2012169220 A1 WO 2012169220A1 JP 2012052257 W JP2012052257 W JP 2012052257W WO 2012169220 A1 WO2012169220 A1 WO 2012169220A1
Authority
WO
WIPO (PCT)
Prior art keywords
images
distance
image display
image
stereoscopic image
Prior art date
Application number
PCT/JP2012/052257
Other languages
English (en)
French (fr)
Inventor
永雄 服部
山本 健一郎
久雄 熊井
郁子 椿
幹生 瀬戸
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2012169220A1 publication Critical patent/WO2012169220A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/24Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type involving temporal multiplexing, e.g. using sequentially activated left and right shutters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Definitions

  • the present invention relates to a stereoscopic image display device.
  • stereoscopic images Humans have the ability to grasp the space from the difference in the images obtained by each of the two eyes with a fixed interval.
  • the shift of corresponding points in an image obtained from different viewpoints by the left and right eyes is called parallax, and the positional relationship of the object is grasped in three dimensions using parallax as one of the cues.
  • a means for displaying a right-eye image and a left-eye image on the right eye is provided to provide a right-eye image and an image with parallax as a left-eye image.
  • a plurality of images with parallax intended for stereoscopic viewing are referred to as stereoscopic images.
  • the extreme parallax causes an unnatural positional relationship even on the near side from the actual display surface, and the user is forced to have an extreme cross-over, so that comfortable stereoscopic viewing cannot be performed.
  • the difference between the convergence and the focus adjustment of the eyes increases, resulting in an unnatural state, which causes a sense of discomfort.
  • stereoscopic viewing can be comfortably performed within a certain range of the parallax amount of the stereoscopic image.
  • the parallax amount is large, the images of both eyes are not fused and stereoscopic viewing is impossible.
  • the stereoscopic image is a display in which an object is displayed in the depth direction with respect to the display surface by adding a parallax to the corresponding point of the right-eye image and the left-eye image. Therefore, unless the ratio that was intended when creating the stereoscopic image, that is, the ratio between the display size and the viewing distance, is not properly maintained, stereoscopic viewing as intended is impossible, and the reality and immersiveness are not possible. The result is inferior.
  • Patent Document 1 discloses a stereoscopic image display device that provides a viewpoint image after defining a user's viewing distance.
  • Patent Document 1 it is possible to provide a viewpoint image that matches the viewing distance of the user. However, only one viewing distance can be handled, and the same effect cannot be given to each of a plurality of users who are observing the screen at different positions.
  • the present invention provides a stereoscopic image display device that can simultaneously provide stereoscopic images corresponding to a plurality of viewing distances.
  • the stereoscopic image display apparatus includes a display unit that sequentially displays a plurality of images in time division, a synchronization unit that outputs a synchronization signal in synchronization with the display on the display unit, and the synchronization signal received from the synchronization unit Then, according to the synchronization signal, the right eye or the left eye is shielded to selectively transmit the plurality of images to the right eye and the left eye, and distance detection is performed to detect the distance between the shielding means and the display means. And the shielding means selects a set of images to be transmitted through the right eye and the left eye from the plurality of images according to the distance detected by the distance detection means.
  • the plurality of images may include images obtained by capturing the subject from different viewpoints, and may include two or more sets of images that are transmitted through the right eye and the left eye.
  • the sets of images that are transmitted through the right eye and the left eye may have different lateral parallaxes.
  • the sets of images that are transmitted through the right eye and the left eye may have parallaxes corresponding to different viewing distances.
  • At least one of the plurality of images may be included in a set of images that are transmitted through the plurality of right eyes and left eyes.
  • the plurality of images may include a two-dimensional display image.
  • the plurality of images may be generated in consideration of display timing when each of the images is displayed on the display unit in a time-sharing manner.
  • the shielding means may transmit a predetermined set of images in the plurality of images to the right eye and the left eye.
  • the shielding unit may transmit the same image in the plurality of images to the right eye and the left eye.
  • the shielding unit transmits a predetermined set of images in the plurality of images to the right eye and the left eye. May be.
  • the shielding unit may transmit the same image in the plurality of images to the right eye and the left eye.
  • the synchronization signal may include a signal indicating a correspondence between the distance detected by the distance detection unit and a set of images transmitted through the right eye and the left eye.
  • the synchronization signal may include a signal representing a set of images that the shielding means transmits to the right eye and the left eye when the distance cannot be obtained from the distance detection means.
  • the synchronization signal may include a signal representing an image that the shielding unit transmits to the right eye and the left eye when there is no image transmitted through the right eye and the left eye corresponding to the distance detected by the distance detection unit.
  • the different viewpoints in each of the plurality of images may be set in association with a preset viewing distance.
  • the different viewpoints in each of the plurality of images may be set in association with the viewing distance selected by the user.
  • It further comprises wall distance acquisition means for acquiring the distance between the display means and the wall at the rear of the user, and the different viewpoints in each of the plurality of solids correspond to the distance acquired by the wall distance acquisition means It may also be set.
  • the synchronization signal may be output by infrared rays.
  • the synchronization signal may be output by radio waves.
  • the shielding means may be a glasses type.
  • the shielding means may be a helmet type.
  • the shielding means may be a surface shape covering the user's face.
  • the image adjustment means may be provided that adjusts the parallax in the horizontal direction by relatively shifting the entire or part of the screen area of the image of a certain viewpoint in the horizontal direction, and generates the plurality of images.
  • An image adjustment unit may be provided that generates an image that can be regarded as an image obtained by capturing a subject from different viewpoints from an image of a certain viewpoint, and generates the plurality of images.
  • stereoscopic images corresponding to a plurality of viewing distances can be provided simultaneously.
  • FIG. 3 is a block diagram illustrating an example of a configuration of a parallax adjustment unit 101.
  • FIG. 2 is a block diagram illustrating an example of a configuration of shutter glasses 107.
  • FIG. (A)-(d) is a figure explaining the relationship between parallax and depth display.
  • FIG. 5 is a diagram showing the pop-out amount a brought about by the same parallax d by three viewing distances (A) to (U). It is a figure which shows the relationship between the difference in parallax by binocular distance, and a visual distance.
  • FIG. 1 is a block diagram illustrating an example of the configuration of the stereoscopic image display apparatus according to the present embodiment.
  • the stereoscopic image display apparatus according to the present embodiment has an input unit 10 that receives image data, and display data that can be displayed in 3D by processing the input image data (hereinafter, stereoscopic image data).
  • 3D image processing unit 100 that performs image processing to generate image
  • a parallax adjustment unit 101 that adjusts the parallax of the image
  • a display control unit 102 that controls display by matching the image with the display unit 103, and displays an image
  • a display unit 103 a system control unit 104 that controls the entire system
  • a user input unit 105 that a user inputs
  • a glasses synchronization unit 106 that synchronizes shutter glasses 107
  • shutter glasses 107 that a user wears.
  • FIG. 2 is a block diagram illustrating an example of the configuration of the parallax adjustment unit 101.
  • the parallax adjustment unit 101 includes a communication / control unit 1011, a parallax calculation unit 1012, a parallax correction unit 1014, a shielding compensation unit 1015, and image processing units 1016 a to 1016 d.
  • FIG. 3 is a block diagram illustrating an example of the configuration of the shutter glasses 107.
  • the shutter glasses 107 include a glasses synchronization receiving unit 1071, a shutter control unit 1072, a distance measuring unit 1073, and shutter units 1074a and 1074b.
  • the shutters 1074a and 1074b correspond to a right eye shutter and a left eye shutter, respectively.
  • the input unit 10 transmits the image data input to the stereoscopic image display device to the stereoscopic image processing unit 100, and the stereoscopic image processing unit 100 expands the left-eye data and the right-eye data according to the input format.
  • the input image data may be any data such as data based on a broadcast wave, data read electronically from a recording medium, or data acquired by communication. That is, the input unit 10 may be a semiconductor memory reading device, or may have a communication function with an optical disk or magnetic disk reading device, a radio wave receiver, or a network. In short, any data can be used as long as it can input data that can be interpreted as a stereoscopic image.
  • the right-eye image data and the left-eye image data may be created from a single piece of image data. That is, it may be a multi-viewpoint image synthesized from image data and depth data or parallax data, or a multi-viewpoint image created by estimating depth information. It may be a multi-view image for multi-view display. If there is additional information in the input image data, the stereoscopic image processing unit 100 extracts the additional information and transmits it to the system control unit 104.
  • the additional information may be parameters at the time of shooting, parallax information, parallax amount correction information, depth data, and the like.
  • the stereoscopic image processing unit 100 transmits the developed left-eye image data and right-eye image data to the parallax adjustment unit 101, and the parallax adjustment unit 101 recombines the left-eye image data and the right-eye image data into a plurality of viewpoint images. To do.
  • a communication / control unit 1011 that communicates with the system control unit 104 controls each unit.
  • the parallax calculation unit 1012 calculates the parallax from the shift of the corresponding points of the left and right images in the image data input to the parallax control unit 101, and sends the calculated parallax data to the parallax correction unit 1014.
  • the parallax data may be a so-called parallax map representing the parallax for each pixel, for example.
  • the parallax correction unit 1014 selects a parameter necessary for system control from the received parallax data, and transmits the parameter to the system control unit 104 via the communication / control unit 1011.
  • the parameter to be transmitted may be, for example, the maximum value or the minimum value of parallax in the image.
  • the disparity on the far side of the display screen is expressed as a positive value and the near side is expressed as a negative value, so the maximum value of the disparity is the disparity of the farthest point in the screen, and the minimum value is the most user in the screen. Represents the parallax of a point close to.
  • the system control unit 104 obtains an appropriate correction parameter for each viewpoint image based on the parameter received from the parallax adjustment unit 101 and the set viewpoint position, and transmits the correction parameter to the parallax adjustment unit 101.
  • each viewpoint position may be associated with a preset viewing distance range, or may be input by the user operating the user input unit 105.
  • the user may set a viewing distance range according to the viewing environment, or may mainly input a viewing distance.
  • a viewpoint image corresponding to the viewing environment can be obtained by inputting a plurality of viewing distances according to the viewing environment.
  • a method of separately providing a distance measuring device and measuring the distance from the screen to the wall may be used. When the distance from the screen to the wall is automatically measured using the distance measuring device, it is possible to obtain a setting that matches the viewing environment without manually inputting a setting value.
  • the communication / control unit 1011 transmits the correction parameter transmitted from the system control unit 104 to the parallax adjustment unit 101 to the parallax correction unit 1014.
  • the parallax correction unit 1014 obtains a plurality of corrected parallax data corresponding to the assumed viewpoint positions based on the correction parameters received from the communication / control unit 1011 and the parallax data received from the parallax calculation unit 1012.
  • the image is calculated and output to the shielding compensation unit 1015 and the image processing unit 1016 corresponding to each viewpoint image.
  • the parallax data at this time may also be a so-called parallax map.
  • the occlusion compensation unit 1015 When the occlusion compensation unit 1015 re-synthesizes an image based on a plurality of parallax data corrected by the parallax correction unit 1014, the occlusion compensation unit 1015 changes image data regarding a portion where the occlusion relation changes and the image data disappears due to a change in viewpoint. Compensation image data to be compensated is generated.
  • the compensation image data can be generated using, for example, images of other viewpoints having different shielding relations among the input images.
  • a plurality of pieces of compensation image data are output corresponding to the number of image processing units 1016.
  • the image processing units 1016a to 1016d use the corrected parallax data and the compensated image data to re-synthesize a new viewpoint image according to each assumed viewpoint position. More specifically, based on the corrected plurality of parallax data, the pixel data of the target region is moved, and the pixel data of the corresponding portion of the compensation image data is supplemented in the region where the corresponding pixel disappears due to the movement. . In this way, a viewpoint image that is not included in the input stereoscopic data is generated.
  • the parallax adjustment unit 101 sends the generated plurality of viewpoint images to the display control unit 102.
  • the display control unit 102 performs display control in accordance with the display unit 103, and at the same time, displays timings for displaying the plurality of viewpoint images and timings for displaying the respective right-eye images and left-eye images on the glasses synchronization unit 106. Send a signal to show.
  • the glasses synchronization unit 106 sends a synchronization signal to the shutter glasses 107 worn by the user based on the signal received from the display control unit 102, and performs a synchronization process with the display unit 103. Specifically, for example, in the case of a system in which four viewpoint images are displayed in a time-sharing manner using a liquid crystal display panel on the display unit 103 and stereoscopic viewing is performed in synchronization with the shutter glasses 107 worn by the user, display control is performed.
  • the unit 102 sequentially outputs four viewpoint images to the display unit 103.
  • the output frequency is, for example, 60 images each second corresponding to each viewpoint.
  • the display unit 103 displays the image sent from the display control unit 102 at any time.
  • the display unit 103 and the shutter glasses 107 are synchronized, and the left-eye image is displayed on any of the four viewpoint images sequentially displayed on the display unit 103.
  • the shutter control unit 1072 controls the timing of the shutter open / close signal based on the synchronization signal received by the glasses synchronization receiving unit 1071 and the distance measurement signal obtained from the distance measurement unit 1073. Then, by driving the shutter units 1074a and 1074b, the viewpoint image is presented to the user in synchronization with the display unit 103.
  • the burden on the user can be reduced by transmitting the synchronization signal wirelessly without connecting the glasses synchronization unit 106 and the shutter glasses 107 by wire.
  • the glasses synchronization unit 106 and the glasses synchronization reception unit 1071 are provided at a position where the user can observe the display screen by providing the glasses synchronization unit 106 at a position that can be seen by the user near the display unit 103. There is no obstacle between them and an appropriate distance is maintained, and the shutter glasses 107 can receive the synchronization signal.
  • the synchronization signal is transmitted by radio waves, it is not necessary to provide the glasses synchronization unit 106 at a position that can be seen by the user near the display unit 103, and it is not necessary for the shutter glasses 107 to face the glasses synchronization unit 106. Even if there is an obstacle between the shutter glasses 107 and the shutter glasses 107, synchronization is possible.
  • FIG. 4 is a diagram illustrating the relationship between parallax and depth display.
  • FIG. 4 is a top view of the user and the display.
  • FIG. 4A shows a state in which the corresponding points of the right-eye image and the left-eye image are at the same position on the display when a stereoscopic image is displayed, which is the same as in the normal two-dimensional display state. In this case, the corresponding point is perceived as being on the display.
  • FIG. 4B shows a state in which the corresponding point of the right-eye image is shifted to the right and the corresponding point of the left-eye image is shifted to the left on the display. In this state, the corresponding point is perceived by the user behind the display surface.
  • FIG. 4C shows a state in which the corresponding point of the right-eye image is shifted to the left and the corresponding point of the left-eye image is shifted to the right on the display. In this state, the user perceives the corresponding point in front of the display surface.
  • FIG. 4 (d) is a summary of FIGS. 4 (A) to 4 (c).
  • the corresponding point of the right-eye image is displayed on the right, the corresponding point of the left-eye image is shifted to the left, and the distance between the corresponding points of the left-right image is equal to the binocular distance, Corresponding points are perceived at infinity, but if the distance between corresponding points exceeds the binocular distance, the line of sight is not directed in the divergent direction and cannot be fused.
  • the line of sight becomes an extreme crossed state and cannot be merged. Therefore, the depth range in which stereoscopic viewing can be comfortably performed, that is, the comfortable fusion range shown in FIG. 4D is on the inner side of the display surface than these fusion ranges.
  • the left and right eye images are relatively shifted to the left and right to increase or decrease the shift of corresponding points in the left and right eye images. , You can be in the foreground.
  • FIG. 5 is a diagram showing the pop-out amount a brought about by the same parallax d by three viewing distances (A) to (U).
  • A viewing distance
  • U viewing distance
  • FIG. 6 is a diagram showing the relationship between the difference in parallax depending on the binocular distance and the viewing distance. Since the parallax is caused by a relative shift between the left and right viewpoints, the larger the binocular distance, the larger the parallax. On the other hand, as the viewing distance increases, the parallax decreases relatively. Therefore, when shooting an object with two cameras, if the distance from the object to the camera is shorter than the assumed viewing distance, the baseline length of the two cameras is made small, and if the distance between the two cameras is longer than the assumed viewing distance, By taking a large base-line length of the camera, it is possible to correctly photograph the unevenness of the object.
  • the base line length necessary to capture the image of the viewpoint a at the distance b is represented as a ′
  • the base line length necessary to capture the image of the viewpoint c is represented as c ′.
  • FIG. 7 is a diagram for explaining how a plurality of viewpoint images are captured by a plurality of cameras. As shown in FIG. 7, two images with relatively appropriate viewpoint deviation amounts are extracted from images from a plurality of viewpoints photographed by a plurality of cameras arranged at intervals, and each is a right-eye image. In addition, the parallax amount can be selected by using the image for the left eye. Further, a plurality of viewpoint images can be obtained by adjusting the relative shift amount of each viewpoint at this time and changing the way of selecting the combination.
  • FIG. 8 is a diagram for explaining a method of obtaining a stereoscopic image with six parallaxes from viewpoint images from four viewpoints.
  • camera 1 and camera 2, camera 1 and camera 3, camera 1 and camera 4, camera 2 and camera 3, camera 2 and camera 4, camera 3 and camera 4 are at different intervals.
  • the stereoscopic images obtained from the respective sets of cameras have different parallax amounts.
  • the shutter glasses 107 select and transmit an appropriate combination from a plurality of viewpoint images in synchronization with a synchronization signal sent from the glasses synchronization unit, and present a viewpoint image with an appropriate amount of parallax. Is possible.
  • a combination of viewpoint images according to the viewing distance that is, the distance from the display screen to the user's eyes
  • the appropriate depth sensation according to the viewing distance is selected.
  • 3D images can be presented. For example, in a system that presents images for four viewpoints in a time-sharing manner, an image corresponding to a viewing distance of 1 m is combined when the images of viewpoint 1 and viewpoint 2 are combined, and a viewing distance of 2 m is combined when images of viewpoints 1 and 3 are combined.
  • Each viewpoint image is created so that a corresponding image, an image corresponding to a viewing distance of 5 m is obtained by combining the images of viewpoint 1 and viewpoint 4, and this combination is switched by shutter glasses 107 according to the viewing distance.
  • a system that presents a stereoscopic image with a parallax amount corresponding to the viewing distance can be realized.
  • the viewing distance may be acquired with the shutter glasses 107. More specifically, there is a method of attaching a distance measuring unit to the shutter glasses 107, recognizing a display screen or a marker by using an image acquisition unit, and acquiring by the principle of triangulation, but the acquisition method is not limited thereto. Absent. A method of estimating the distance from the elapsed time using the reflection of ultrasonic waves, a method of measuring the distance from the arrival time difference using both the ultrasonic waves and the electromagnetic waves may be used. Further, the distance measuring unit is not necessarily attached to the shutter glasses 107. In short, the distance between the individual shutter glasses 107 and the display unit 103 only needs to be transmitted to the individual shutter glasses 107.
  • the correspondence between the combination of the viewing distance and the viewpoint image may be determined in advance, or may be transmitted by being superimposed on the synchronization signal sent from the glasses synchronization unit 106. Accordingly, it is possible to present an appropriate set of images corresponding to various stereoscopic images, observation environments, and purposes.
  • the correct distance may not be obtained when the user's movement is intense or the posture is not appropriate. Even when the distance is obtained correctly, it may exceed the range of viewing distance that can be handled. In such a case, an image with an unnatural parallax can be prevented from being presented to the user by presenting a predetermined combination of images.
  • a signal representing a combination of images to be presented when the distance cannot be obtained may be transmitted by being superimposed on the synchronization signal sent from the glasses synchronization unit 106. In this way, the set of images to be presented can be changed according to the scene and purpose. In such a case, when a two-dimensional image is presented, it is not necessary to take a correspondence between the distance and the parallax, and an image with an unnatural parallax can be prevented from being presented to the user.
  • a set of a plurality of images corresponding to a plurality of viewing distances can be presented according to the distance between the shutter glasses 107 worn by the user and the display unit 103. That is, a stereoscopic image with a parallax amount corresponding to the assumed viewing distance can be obtained, and a stereoscopic image can be presented with an appropriate parallax amount to a plurality of users from combinations of the respective viewpoint images.
  • the shielding means sinutter glasses 107
  • the number of users can be increased as much as possible for one display device.
  • the shutter glasses 107 worn by each user are not significantly different from general sunglasses, and the visual discomfort is not great, so that the shutter glasses 107 do not easily interfere with communication between users.
  • viewpoints may be arranged such that the optical axes are arranged in parallel or the optical axes are converged, the viewpoints are arranged in a horizontal line, or the viewpoints are arranged at equal distances to the convergence point of the optical axis. Absent. Further, although an example with four viewpoints has been shown, the number of viewpoints is not limited to four, and should be adjusted according to the response speed of the display device. Needless to say, the more viewpoint images that are elements, the more combinations can be obtained.
  • the set of viewpoint images selected by the shutter glasses 107 may include a combination that presents the same viewpoint image on the left and right. In that case, a two-dimensional image is presented to the user.
  • a viewpoint image to be displayed as a two-dimensional image is added, and the same image is displayed as a two-dimensional image with the left and right eyes. It may be possible to observe. Since a stereoscopic image is produced on the premise that it is observed with both eyes, when one of the stereoscopic images is extracted, it may not always be an appropriate viewpoint. This is particularly noticeable when the distance to the subject is close to the baseline length. In order to avoid this phenomenon, if an image premised on two-dimensional display is prepared, a good two-dimensional image can be presented. In addition, it is possible to avoid image alteration associated with viewpoint recombination. By the two-dimensional display, it is possible to safely observe images including users who are not suitable for viewing stereoscopic images due to their constitution and physical condition. Similarly, a two-dimensional image can be presented using shutter glasses.
  • FIG. 9 is a diagram illustrating an example of a method for presenting four viewpoint images including an image for two-dimensional display.
  • the viewpoint images 1-3 are images from different viewpoints.
  • the set 3 of images that are presented and the viewpoint image 3 is presented to the right eye is a parallax image to which different parallaxes are added.
  • the viewpoint image 1 that is also included in the parallax image can be presented as the left eye and the right eye as in the image set 4, but the viewpoint image 4 that is an image for two-dimensional display is displayed in the left eye. And can be presented to the right eye.
  • the system has been described by taking a parallax map representing parallax for each pixel as an example.
  • the parallax map for a reduced image is not necessarily required for each pixel. In this way, the processing amount for obtaining the parallax can be reduced.
  • the parallax map having a low resolution may be used as it is, or a parallax map having a higher resolution by filter processing or the like may be used.
  • FIG. 10 is a block diagram illustrating an example of the configuration of the stereoscopic image display apparatus according to the present embodiment.
  • the stereoscopic image display apparatus according to the present embodiment includes a user operation unit 20, a game control unit 201, a display control unit 202, a display unit 203, glasses synchronization unit 206, and shutter glasses 207.
  • the game control unit 201 includes a system control unit 2011, a program storage unit 2012, and a stereoscopic image generation unit 2013.
  • the user operation unit 20 may be a game controller.
  • the system control unit 2011 may include I / O with each of the user operation unit 20, the program storage unit 2012, the stereoscopic image generation unit 2013, and the display control unit 202, a CPU, a memory, and the like.
  • the program storage unit 2012 may be a hard disk or an optical disk that stores game software and the like.
  • the stereoscopic image generation unit 2013 may include a GPU (Graphic Processing Unit), a memory, and the like.
  • the display unit 203 may be a liquid crystal display, a plasma display, an organic EL display, or the like, but is preferably a display device with a high response speed. For example, if an LED display or the like is used, a high-speed response can be obtained.
  • the glasses synchronization unit 206 sends a synchronization signal to the shutter glasses 207 by infrared rays or radio waves. There may be a plurality of user operation units 20 and shutter glasses 207.
  • the configuration of the shutter glasses 207 is the same as the configuration of the shutter glasses 107 shown in the first embodiment and FIG.
  • the system control unit 2011 receives an operation from the user operation unit 20, reads the program from the program storage unit 2012 and executes it.
  • the program may be stored in the program storage unit 2012 that is an optical disk or a hard disk.
  • the program storage unit 2012 may be another storage device such as a solid-state memory.
  • the program storage unit 2012 is a hard disk
  • the program may be stored in the hard disk in any form such as a method of reading from the optical disk, a method of acquiring from the network, and a method of reading from the solid memory.
  • the system control unit 2011 outputs a stereoscopic image model to the stereoscopic image generation unit 2013 as the program is executed.
  • the stereoscopic image model represents the shape and arrangement of an object to be displayed, the position of a light source serving as illumination, a virtual viewpoint position, and the like on three-dimensional coordinates.
  • the three-dimensional coordinates may be an orthogonal coordinate system or a polar coordinate system.
  • the pattern and state of the surface of the object to be displayed may be described.
  • the stereoscopic image generation unit 2013 expands the stereoscopic image model input from the system control unit 2011 and generates individual viewpoint images.
  • a plurality of viewpoint images are obtained by generating a diagram in which an arrangement diagram of objects included in the stereoscopic image model is viewed from the positions of a plurality of virtual cameras included in the stereoscopic image model.
  • the positions of the plurality of virtual cameras are positions corresponding to a plurality of viewpoints assuming a plurality of viewing distances, for example, as shown in FIG. FIG. 8 shows that images with six parallaxes are obtained from four viewpoint images by four virtual cameras. Some of these six parallaxes are associated with viewing distances.
  • the stereoscopic image generation unit 2013 sends the generated plurality of viewpoint images to the display control unit 202.
  • the display control unit 202 receives a plurality of viewpoint images from the stereoscopic image generation unit 2013, performs display control in accordance with the display unit 203, and simultaneously sends a signal to the glasses synchronization unit 206.
  • the glasses synchronization unit 206 sends a synchronization signal to the shutter glasses 207 worn by the user based on the signal received from the display control unit 202, and performs a synchronization process with the display unit 203.
  • the display control unit 202 The four viewpoint images are sequentially output to the display unit 203.
  • the output frequency is, for example, 60 images each second corresponding to each viewpoint.
  • the display unit 203 displays the image sent from the display control unit 202 at any time, but the display unit 203 and the shutter glasses 207 are synchronized, and the left-eye shutter and the right-eye are displayed on any of the four viewpoint images sequentially displayed on the display unit. By opening the shutters in synchronization, the corresponding viewpoint images are presented to the left eye and the right eye to realize stereoscopic viewing.
  • FIG. 11 is a diagram for explaining the situation at this time.
  • FIG. 11 shows a point-like object being emitted from a cylindrical object.
  • the appearance of the cylindrical object changes according to the viewpoint, and the display position of the dot-like object changes with the passage of time.
  • the viewpoint change is omitted in the representation of the figure.
  • An image along the time axis may be generated by interpolation of time-series images.
  • the shutter glasses 207 selects and presents a combination of viewpoint images that match the viewing distance measured by each shutter glasses 207 from the plurality of viewpoint images.
  • viewpoint images corresponding to a plurality of viewing distances can be obtained. That is, a viewpoint image corresponding to the viewing distance of each user can be presented to a plurality of users. That is, a stereoscopic image with a parallax amount corresponding to the assumed viewing distance can be obtained, and a stereoscopic image can be presented with an appropriate parallax amount to each of a plurality of users from a combination of viewpoint images.
  • the shutter glasses used by each user select an appropriate combination of viewpoint images, it is possible to increase the number of users who observe the screen with respect to one stereoscopic image display device.
  • shutter glasses are used as shielding means for selecting an image in synchronization with the stereoscopic image display device, but the shape of the shielding means is not limited to glasses.
  • a shielding means which provided the shielding element for example, a liquid-crystal shutter, in the part which covers a thing like a surface or a helmet.
  • the effect of external light entering through the gap between the glasses and the face when using glasses can be reduced.
  • a more immersive game device using the image display device can be configured.
  • each component device is connected by wire, but compared to glasses, the surface and helmet support the weight of the connection line with the entire head. It can reduce the troublesomeness.
  • the present invention can be used for a stereoscopic image display device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

複数の画像を時分割で順に表示する表示手段と、前記表示手段における表示と同期して同期信号を出力する同期手段と、前記同期手段から前記同期信号を受信し、前記同期信号に応じて右目または左目を遮蔽して前記複数の画像を選択的に右目および左目に透過させる遮蔽手段と、前記遮蔽手段と前記表示手段との間の距離を検出する距離検出手段とを備え、前記遮蔽手段は、前記距離検出手段が検出した距離に応じて、前記複数の画像から右目および左目に透過させる画像の組を選択する。これにより複数のユーザに適した立体画像を同時に提供することができる立体画像表示装置を提供することができる。

Description

立体画像表示装置および立体画像表示方法
 本発明は、立体画像表示装置に関する。
 人間は、一定の間隔を持つ2つの目の各々により得られる画像の違いから空間を把握する能力を持つ。左右の目による互いに異なる視点から得られる画像中の対応点のずれを視差と呼び、視差を手掛かりの一つとして対象物の位置関係を立体的に把握している。このことを利用して、右目用画像を右目に表示し、左目用画像を左目に表示する手段を設けて、右目用画像、左目用画像として視差を付けた画像を提供することにより、立体視が可能であることが知られている。ここでは、立体視を意図して視差を付けた複数の画像のことを立体画像と称する。
 立体視において、人間は、視差に応じた両眼の光軸のなす角、すなわち輻輳の大きさを対象物までに対応付けていると言われている。よって、右目用画像を右に、左目用画像を左に、相対的にずらし、視差を付けた画像を見せると、実際の表示面より遠くに表示物を知覚させることができる。しかし、この時に視差を付けすぎて、ユーザの目の間隔、正確には無限遠を見ているときの瞳孔間の距離を超えた視差とすると、自然界では起き得ない状態となり、立体視が不可能となるか、立体視できたとしても人体に強い負担を強いることになる。同様に、実際の表示面より近距離側でも、極端な視差は不自然な位置関係を生じるうえ、極度な寄り目をユーザに強いることとなり、快適な立体視ができなくなる。また、視差が大きくなるほど輻輳と目の焦点の調節との乖離が大きくなり、不自然な状態となるので、違和感を生じる。このように、立体画像の視差量がある一定の範囲では快適に立体視が可能であるが、視差量が大きくなると両目の画像が融合しなくなり、立体視が不可能となる。
 このように、立体画像は右目用画像と左目用画像の対応点に視差を付けて表示面に対し奥行き方向に物体を表示するものであるが、実際の輻輳の大きさは視距離と視差との関係で変化するので、立体画像の制作時に意図された比率、すなわち表示サイズと視距離の比率を適切に保たなければ、意図された通りの立体視は不可能であり、現実感や没入感に劣る結果となる。
 そこで、ユーザの視距離を規定したうえで視点画像を提供する立体画像表示装置が、特許文献1に示されている。
特開2006-333400号公報
 特許文献1の方法によれば、ユーザの視距離に合わせた視点画像を提供することができる。しかしながら、対応できる視距離は1通りのみであり、それぞれ異なる位置で画面を観察している複数のユーザ一人ひとりに同様の効果を与えることはできない。
 本発明は、このような実情に鑑み、複数の視距離に対応した立体画像を同時に提供することができる立体画像表示装置を提供する。
 本発明の立体画像表示装置は、複数の画像を時分割で順に表示する表示手段と、前記表示手段における表示と同期して同期信号を出力する同期手段と、前記同期手段から前記同期信号を受信し、前記同期信号に応じて右目または左目を遮蔽して前記複数の画像を選択的に右目および左目に透過させる遮蔽手段と、前記遮蔽手段と前記表示手段との間の距離を検出する距離検出手段とを備え、前記遮蔽手段は、前記距離検出手段が検出した距離に応じて、前記複数の画像から右目および左目に透過させる画像の組を選択することを特徴とする。
 前記複数の画像は、被写体をそれぞれ異なる視点からとらえた画像から成り、前記右目および左目に透過させる画像の組を2組以上含んでもよい。
 前記右目および左目に透過させる画像の組は、それぞれ異なる横方向の視差が付けられていてもよい。
 前記右目および左目に透過させる画像の組は、それぞれ異なる視距離に対応する視差が付けられていてもよい。
 前記複数の画像のうち少なくとも1つは、複数の前記右目および左目に透過させる画像の組に含まれてもよい。
 前記複数の画像は、2次元表示用画像を含んでもよい。
 前記複数の画像は、それぞれ前記表示手段において時分割で表示される際の表示タイミングを考慮して生成されたものであってもよい。
 前記距離検出手段から前記距離が得られない場合、前記遮蔽手段は前記複数の画像における予め決められた画像の組を右目および左目に透過させてもよい。
 前記距離検出手段から前記距離が得られない場合、前記遮蔽手段は前記複数の画像における同一の画像を右目および左目に透過させてもよい。
 前記距離検出手段によって検出された前記距離に対応する前記右目および左目に透過させる画像の組がない場合、前記遮蔽手段は前記複数の画像における予め決められた画像の組を右目および左目に透過させてもよい。
 前記距離検出手段によって検出された前記距離に対応する前記右目および左目に透過させる画像の組がない場合、前記遮蔽手段は前記複数の画像における同一の画像を右目および左目に透過させてもよい。
 前記同期信号は、前記距離検出手段により検出される前記距離と前記右目および左目に透過させる画像の組との対応を示す信号を含んでもよい。
 前記同期信号は、前記距離検出手段から前記距離が得られない場合に前記遮蔽手段が右目および左目に透過させる画像の組を表す信号を含んでもよい。
 前記同期信号は、前記距離検出手段によって検出された前記距離に対応する前記右目および左目に透過させる画像がない場合に前記遮蔽手段が右目および左目に透過させる画像を表す信号を含んでもよい。
 前記複数の画像の各々における前記異なる視点は、それぞれ予め設定された視距離に対応付けて設定されてもよい。
 前記複数の画像の各々における前記異なる視点は、ユーザにより選択された視距離に対応付けて設定されてもよい。
 前記表示手段とユーザの後部にある壁との間の距離を取得する壁距離取得手段をさらに備え、前記複数の立体の各々における前記異なる視点は、前記壁距離取得手段によって取得された距離に対応付けて設定されてもよい。
 前記同期信号は赤外線で出力されてもよい。
 前記同期信号は電波で出力されてもよい。
 前記遮蔽手段はメガネ型であってもよい。
 前記遮蔽手段はヘルメット型であってもよい。
 前記遮蔽手段はユーザの顔を覆う面形であってもよい。
 ある視点の画像の画面領域の全面または一部を横方向に相対的にずらすことによって横方向の視差を調節し、前記複数の画像を生成する画像調整手段を備えてもよい。
 ある視点の画像から、被写体をそれぞれ異なる視点からとらえた画像とみなせる画像を生成し、前記複数の画像を生成する画像調整手段を備えてもよい。
 本明細書は本願の優先権の基礎である日本国特許出願2011-126654号の明細書および/または図面に記載される内容を包含する。
 本発明によれば、複数の視距離に対応した立体画像を同時に提供することができる。
本発明の第1の実施形態による立体画像表示装置の構成の一例を示すブロック図である。 視差調整部101の構成の一例を示すブロック図である。 シャッタメガネ107の構成の一例を示すブロック図である。 (a)~(d)は視差と奥行き表示との関係を説明する図である。 同じ視差dのもたらす飛び出し量aを(あ)~(う)の3通りの視距離で表した図である。 両眼距離による視差の違いと視距離との関係を示す図である。 複数のカメラにより複数の視点画像を撮影する様子を説明する図である。 4視点からの視点画像から6通りの視差がついた立体画像を得る方法を説明する図である。 視点画像の提示方法の一例を示す図である。 本発明の第2の実施形態による立体画像表示装置の構成の一例を示すブロック図である。 円筒形の物体から点状の物体が発射されている様子を示す図である。
<第1の実施形態>
 以下に、本発明の第1の実施形態による立体画像表示装置について、図面を参照して説明する。図1は、本実施形態による立体画像表示装置の構成の一例を示すブロック図である。図1が示すように、本実施形態による立体画像表示装置は、画像データを受け付ける入力部10と、入力された画像データを処理し、立体表示が可能な表示データ(以下、立体視用画像データ)を生成するための画像処理を行う立体画像処理部100と、画像の視差を調整する視差調整部101と、画像を表示部103に合わせ表示制御を行う表示制御部102と、画像を表示する表示部103と、システム全体を制御するシステム制御部104と、ユーザが入力を行うユーザ入力部105と、シャッタメガネ107の同期を行うメガネ同期部106と、ユーザが装着するシャッタメガネ107とを備える。
 図2は、視差調整部101の構成の一例を示すブロック図である。視差調整部101は、通信・制御部1011と、視差算出部1012と、視差補正部1014と、遮蔽補償部1015と、画像加工部1016a~1016dとを備える。
 図3は、シャッタメガネ107の構成の一例を示すブロック図である。シャッタメガネ107は、メガネ同期受信部1071と、シャッタ制御部1072と、測距部1073と、シャッタ部1074aおよび1074bとを備える。シャッタ1074aおよび1074bは、それぞれ右目用シャッタおよび左目用シャッタに対応する。
 次に、各部の動作を説明する。入力部10は、立体画像表示装置に入力される画像データを立体画像処理部100に伝送し、立体画像処理部100は、入力形式に合わせて左目用データと右目用データとに展開する。ここで、入力される画像データは、放送波によるもの、記録メディアから電子的に読み出されたもの、通信により取得されたものなど、どのようなものでも構わない。すなわち、入力部10は、半導体メモリ読出し装置であってもよいし、光ディスクや磁気ディスクの読み出し装置、電波の受信機や、ネットワークとの通信機能を持つものであってもよい。要するに、立体画像として解釈可能なデータを入力できるものであればよい。また、右目用画像データ、左目用画像データは、1枚の画像データから作成されたものでも構わない。すなわち、画像データと奥行きデータもしくは視差データから合成された複数視点画像、または、奥行き情報を推定して作成された複数視点画像であってもよい。多眼表示用の多視点画像であってもよい。立体画像処理部100は、入力された画像データに付加情報がある場合は付加情報を抽出し、システム制御部104に伝送する。付加情報は、撮影時のパラメータや視差情報、視差量補正情報や奥行きデータ等であってもよい。
 立体画像処理部100は、展開した左目用画像データおよび右目用画像データを視差調整部101に伝送し、視差調整部101は、左目用画像データおよび右目用画像データを複数の視点画像に再合成する。視差制御部101内では、システム制御部104と通信する通信・制御部1011が各部を制御している。
 視差算出部1012は、視差制御部101に入力された画像データにおける左右画像の対応点のずれから視差を算出し、算出された視差データを視差補正部1014に送る。視差データは、例えば画素毎に視差を表した、いわゆる視差マップであってもよい。
 視差補正部1014は、受信した視差データのうち、システム制御に必要なパラメータを選択して、通信・制御部1011を経由してシステム制御部104に送信する。送信するパラメータは、例えば、画像内の視差の最大値、最小値であってもよい。なお、ここでは、表示画面より遠景側の視差を正の値、近景側を負の値と表現するので、視差の最大値は画面内の最も遠い点の視差、最小値は画面内の最もユーザに近い点の視差を表す。
 システム制御部104は、視差調整部101から受信したパラメータと、設定された視点位置とに基づいて、各視点画像に適切な補正パラメータを求め、視差調整部101に送信する。ここで、各視点位置は、予め設定した視距離の範囲に対応付けてもよいが、ユーザがユーザ入力部105を操作して入力してもよい。ユーザが各視点位置を入力する場合、ユーザが視聴環境に合わせて視距離の範囲を設定してもよいし、主に視聴する距離を入力してもよい。視聴環境に合わせて視距離を複数通り入力することによって、視聴環境に対応した視点画像を得ることができる。また、距離測定装置を別に設け、画面から壁までの距離を測定するなどの方法をとってもよい。距離測定装置を用いて自動的に画面から壁までの距離を測定するようにすると、手動で設定値を入力せずとも視聴環境に合わせた設定を得ることができる。
 通信・制御部1011は、システム制御部104から視差調整部101に送信される補正パラメータを視差補正部1014に伝送する。視差補正部1014は、通信・制御部1011から受信した補正パラメータと、視差算出部1012から受信した視差データとに基づいて、それぞれ想定された視点位置に対応する、補正された複数の視差データを算出し、遮蔽補償部1015と、各視点画像に対応する画像加工部1016に出力される。この時の視差データも、いわゆる視差マップであってもよい。
 遮蔽補償部1015は、視差補正部1014により補正された複数の視差データに基づき画像を再合成する際、視点が変わることによって遮蔽関係が変化して画像データがなくなってしまう部分に関し、画像データを補償する補償画像データを生成する。補償画像データは、例えば入力された画像のうち遮蔽関係の異なる他の視点の画像を用いて生成できる。補償画像データは、画像加工部1016の数に対応して複数出力される。
 画像加工部1016a~1016dは、前記補正された複数の視差データおよび前記補償画像データを用いて、それぞれ想定された視点位置に合わせた新たな視点画像を再合成する。より具体的には、前記補正された複数の視差データに基づいて、対象領域の画素データを移動させ、移動によって対応する画素がなくなった領域には前記補償画像データの対応部分の画素データを補う。このようにして、入力された立体視用データに含まれていない視点の画像を生成する。
 なお、ここでは左右画像から視差を求めて演算したが、入力が画像データと奥行きデータの組み合わせである場合は、入力された奥行きデータを視差データに変換して用いてもよい。また、図2では画像加工部1016a~1016dに対し左右の画像を入力しているが、右または左のうち一方の画像でも構わない。このようにすることによって、仮想的にカメラ位置をずらした視点画像を生成し、画像の視差を調整することができる。
 視差調整部101は、生成した複数の視点画像は表示制御部102に送る。表示制御部102は、表示部103に合わせた表示制御をすると同時に、メガネ同期部106に対し、前記複数の視点画像を表示するタイミング、およびそれぞれの右目用画像および左目用画像を表示するタイミングを示す信号を送る。
 メガネ同期部106は、表示制御部102から受信した信号に基づいて、ユーザの装着するシャッタメガネ107に対し同期信号を送り、表示部103との同期処理を行う。具体的には、例えば、表示部103に液晶表示パネルを用いて4視点の視点画像を時分割で表示し、ユーザの装着したシャッタメガネ107と同期して立体視を行う方式の場合、表示制御部102は、表示部103に対し、4視点の視点画像を順に出力する。出力の頻度は、例えば各視点に対応する画像をそれぞれ毎秒60枚とする。表示部103は表示制御部102から送られる画像を随時表示し、その際、表示部103とシャッタメガネ107は同期し、表示部103に順に表示される4視点の視点画像のいずれかに左目用シャッタ、右目用シャッタを同期して開とすることにより、それぞれ対応する視点画像を左目及び右目に提示して、立体視を実現する。具体的には、シャッタメガネ107は、メガネ同期受信部1071で受信した同期信号と、測距部1073から得られる測距信号とに基づいて、シャッタ制御部1072がシャッタの開閉信号のタイミングを制御し、シャッタ部1074aおよび1074bを駆動することによって、表示部103と同期してユーザに視点画像を提示する。
 なお、メガネ同期部106とシャッタメガネ107とを有線接続せず、同期信号を無線で伝達することによりユーザの負担を軽減することができる。同期信号を赤外線で伝送する場合、表示部103付近のユーザから見える位置にメガネ同期部106を設けることにより、ユーザが表示画面を観察できる位置にいれば、メガネ同期部106とメガネ同期受信部1071の間には障害物がなく、かつ適切な距離を保つことになり、シャッタメガネ107は同期信号を受信することができる。同期信号を電波で伝送する場合、表示部103付近のユーザから見える位置にメガネ同期部106を設ける必要がなく、シャッタメガネ107がメガネ同期部106を向いている必要もないので、メガネ同期部106とシャッタメガネ107の間に障害物があった場合でも同期が可能である。
 図4は、視差と奥行き表示との関係を説明する図である。図4は、ユーザとディスプレイを上から見た図である。
 図4(a)は、立体画像表示時に右目用画像と左目用画像の対応点がディスプレイ上で同じ位置にある状態であり、通常の2次元表示状態の場合と同様である。この場合、対応点はディスプレイ上にあるように知覚される。
 図4(b)は、ディスプレイ上で、右目用画像の対応点が右に、左目用画像の対応点が左にずれた状態である。この状態では、ユーザには対応点はディスプレイ面よりも奥に知覚される。
 図4(c)は、ディスプレイ上で、右目用画像の対応点が左に、左目用画像の対応点が右にずれた状態である。この状態では、ユーザには対応点はディスプレイ面よりも手前に知覚される。
 図4(d)は、図4(A)~図4(c)をまとめた図である。前述したとおり、ディスプレイ上で、右目用画像の対応点が右、左目用画像の対応点が左にずれて表示され、かつ左右目用画像の対応点間の距離が両眼距離に等しい場合、対応点は無限遠に知覚されるが、対応点間の距離が両眼距離を超えた場合、視線は開散方向には向かず、融合できなくなる。同様に、ディスプレイ上で、右目用画像の対応点が左に、左目用画像の対応点が右に大きくずれた状態では、視線は極端な寄り目状態となり、融合できなくなる。従って、快適に立体視できる奥行きの範囲、すなわち、図4(d)に示した快適融合範囲は、これらの融合範囲よりもディスプレイ面に対し内側となる。これらを応用し、左右目用画像を相対的に左右にずらし、左右目用画像中の対応点のずれを大きくしたり小さくしたりすることによって、立体画像の奥行き感を全体的により奥にしたり、より手前にしたりすることができる。
 しかし、同じ視差量に対応する奥行き量は視距離により変化し、このことにより立体画像の制作時に想定された視距離以外で観察すると正しい立体感が得られない。図5は、同じ視差dのもたらす飛び出し量aを(あ)~(う)の3通りの視距離で表した図である。このように、現実の空間では一定であるべき飛び出し量が視距離に応じて変化する。このことを防止するためには、視距離に応じて適切な立体画像を作成し、視距離に応じて提示する必要がある。
 図6は、両眼距離による視差の違いと視距離との関係を示す図である。視差は左右の視点の相対的なずれにより生ずるので、両眼距離が大きいほど大きな視差が付く。一方、視距離が大きくなると、相対的に視差は小さくなる。ゆえに、2台のカメラで物体を撮影するときには、物体からカメラまでの距離が想定された視距離より短い時には2台のカメラの基線長を小さくとり、想定された視距離より長い時には2台のカメラの基線長を大きくとることによって、物体の凹凸感を正しく撮影することができる。図6では、bの距離でaの視点の画像を撮影するのに必要な基線長をa’、cの視点の画像を撮影するのに必要な基線長をc’と表している。
 図7は、複数のカメラにより複数の視点画像を撮影する様子を説明する図である。図7に示すように、間隔をおいて配置した複数のカメラにより撮影される複数の視点からの画像のうち、相対的に視点のずれ量が適切な画像を2枚抽出し、それぞれ右目用画像及び左目用画像として用いることで、視差量を選択することができる。また、この時のそれぞれの視点の相対的なずれ量を調節し、組み合わせの選び方を変えることによって、複数の視点画像を得ることができる。
 図8は、4視点からの視点画像から6通りの視差がついた立体画像を得る方法を説明する図である。図8に示すように、カメラ1およびカメラ2、カメラ1およびカメラ3、カメラ1およびカメラ4、カメラ2およびカメラ3、カメラ2およびカメラ4、カメラ3およびカメラ4を、それぞれ異なった間隔となるように配置して撮影することにより、それぞれのカメラの組から得られる立体画像は、互いに視差量が異なったものとなる。
 前述のとおり、シャッタメガネ107は、メガネ同期部から送られる同期信号に同期して複数の視点画像から適当な組み合わせを選択して透過させ、適切な視差量の視点画像を提示することにより立体視を可能とする。このとき、視距離すなわち表示画面からユーザの目までの距離と略同一である、表示画面からシャッタメガネまでの距離に応じて視点画像の組み合わせを選ぶことにより、視距離に応じた適切な奥行き感の立体画像を提示することができる。例えば、時分割で4視点分の画像を提示するシステムで、視点1の画像と視点2の画像を組み合わせると視距離1mに相当する画像、視点1と視点3の画像を組み合わせると視距離2mに相当する画像、視点1と視点4の画像を組み合わせると視距離5mに相当する画像となるように各視点画像を作成しておき、この組み合わせを視距離に応じてシャッタメガネ107で切り替えるようにしておくことにより、視距離に応じた視差量の立体画像を提示するシステムを実現できる。
 視距離はシャッタメガネ107で取得するとよい。より具体的には、シャッタメガネ107に測距部を取り付け、画像取得手段を用いて表示画面あるいはマーカを認識し、三角測量の原理で取得するなどの方法があるが、取得方法はこれに限らない。超音波の反射を用いて、経過時間から距離を推定する方法や、超音波と電磁波を併用し、到達時間差から距離を測定する方法などでもよい。また、測距部は、必ずしもシャッタメガネ107に取り付けなくともよい。要するに、個々のシャッタメガネ107と表示部103との距離が、個々のシャッタメガネ107に伝達されるようになっていればよい。
 視距離と視点画像の組み合わせの対応は予め決めておいてもよいが、メガネ同期部106から送られる同期信号に重畳して伝送してもよい。これにより、種々の立体画像や観察環境、目的に対応した適切な画像の組を提示することができる。
 なお、ユーザの動きが激しい時や、姿勢が適切でない場合は、正しい距離を得られない場合がある。正しく距離が得られている場合でも、対応可能な視距離の範囲を超えている場合もある。このような場合には、予め規定された組み合わせの画像を提示することによって、ユーザに不自然な視差の付いた画像を提示しないようにできる。また、距離が得られない場合に提示する画像の組み合わせを表す信号を、メガネ同期部106から送られる同期信号に重畳して伝送してもよい。このようにすれば、シーンや目的に合わせて提示する画像の組を変更することができる。なお、このような時には2次元の画像を提示すると、距離と視差の対応を取らずに済み、ユーザに不自然な視差の付いた画像を提示しないようにできる。
 このようにして、複数の視距離に対応する複数の画像の組を、ユーザの装着するシャッタメガネ107と表示部103との間の距離に応じて提示することができる。すなわち、想定した視距離に対応した視差量の立体画像を得ることができ、それぞれの視点画像の組み合わせから、複数のユーザに対し適切な視差量で立体画像を提示することができる。また、それぞれのユーザが用いる遮蔽手段(シャッタメガネ107)がそれぞれ適切な視点画像の組み合わせを選択するため、1台の表示装置に対してユーザをいくらでも増やすことができる。それぞれのユーザの装着するシャッタメガネ107は、一般的なサングラスと大きな違いはなく、見た目の違和感も大きくはないため、ユーザ同士のコミュニケーションを阻害する要因にもなりにくい。
 なお、ここでは2点の視点画像から4点の視点画像を変換により得る方法を示したが、当然のことながら実際のカメラを4視点分用いて画像を取得しても構わない。視点の配置は、光軸を平行に設置したものでも光軸が輻輳するものでもよいし、横一列に視点を配置したものでも光軸の輻輳点までが等距離になるよう配置したものでも構わない。また、4視点での例を示したが、視点数は4に限定されるものではなく、表示デバイスの応答速度に応じて加減されるべきものである。要素となる視点画像が多いほど多くの組み合わせを得ることができるのは言うまでもない。
 シャッタメガネ107が選択する視点画像の組には、左右同一の視点画像を提示する組み合わせがあってもよい。その場合、ユーザには2次元画像を提示することになる。
 また、本実施形態では、仮想的にカメラ位置を移動した4視点の画像を表示したが、このほかに2次元画像として表示する視点画像を追加し、左右の目で同じ画像を2次元画像として観察できるようにしてもよい。立体画像は両目で観察することを前提に制作されるので、立体画像のうちの1枚を抽出すると、必ずしも適切な視点となっていない場合がある。特に、基線長に対し被写体までの距離が近い場合に顕著である。この現象を避けるために、2次元表示することを前提とした画像を用意すると、良好な2次元画像を提示することができる。また、視点の再合成に伴う画像の変質を避けることもできる。2次元表示により、体質・体調により立体画像の鑑賞に適さないユーザも含めて安全に画像を観察することができる。2次元画像も同様にシャッタメガネを用いて提示することができる。
 図9は、2次元表示用の画像を含む4つの視点画像の提示方法の一例を示す図である。視点画像1-3は、互いに異なる視点からの画像である。視点画像1を左目に提示し視点画像2を右目に提示する画像の組1と、視点画像2を左目に提示し視点画像3を右目に提示する画像の組2と、視点画像1を左目に提示し視点画像3を右目に提示する画像の組3は、互いに異なる視差が付加された視差画像となる。2次元表示する場合、例えば、画像の組4のように、視差画像にも含まれる視点画像1を左目および右目に提示することもできるが、2次元表示用の画像である視点画像4を左目および右目に提示することもできる。
 なお、本実施形態では、画素ごとに視差を表した視差マップを例にシステムを説明したが、必ずしも画素ごとの視差である必要はなく、縮小画像に対しての視差マップであってもよい。このようにすると、視差を求める処理量を軽減することができる。この場合、実際に処理する際に、低い解像度の視差マップのままで用いてもよいが、フィルタ処理等により解像度を高めた視差マップを用いてもよい。
<第2の実施形態>(CGによる複数視差生成)
 以下に、本発明の第2の実施形態による立体画像表示装置について、図面を参照して説明する。図10は、本実施形態による立体画像表示装置の構成の一例を示すブロック図である。図10に示すように、本実施形態による立体画像表示装置は、ユーザ操作部20と、ゲーム制御部201と、表示制御部202と、表示部203と、メガネ同期部206と、シャッタメガネ207とを備える。ゲーム制御部201は、システム制御部2011と、プログラム蓄積部2012と、立体画像生成部2013とを備える。
 ユーザ操作部20は、ゲームコントローラであってもよい。システム制御部2011は、ユーザ操作部20、プログラム蓄積部2012、立体画像生成部2013および表示制御部202のそれぞれとのI/Oや、CPUや、メモリ等を備えてもよい。プログラム蓄積部2012は、ゲームソフト等を蓄積するハードディスクや光ディスクなどであってもよい。立体画像生成部2013は、GPU(Graphic Processing Unit)およびメモリ等を備えてもよい。
 表示部203は、液晶ディスプレイやプラズマディスプレイ、有機ELディスプレイなどであってもよいが、応答速度が高速な表示デバイスであることが望ましい。例えば、LEDディスプレイ等を用いれば高速な応答が得られる。メガネ同期部206は、シャッタメガネ207に対し、赤外線や電波などで同期信号を送る。ユーザ操作部20やシャッタメガネ207は複数あっても構わない。
 シャッタメガネ207の構成は、第1の実施形態及び図3に示したシャッタメガネ107の構成と同様である。
 次に、各部の動作を説明する。システム制御部2011は、ユーザ操作部20からの操作を受け、プログラム蓄積部2012からプログラムを読み出して実行する。前述の通り、プログラムは、光ディスクやハードディスクであるプログラム蓄積部2012に蓄積されていてもよい。プログラム蓄積部2012は、固体メモリ等の他の記憶装置であってももちろん構わない。プログラム蓄積部2012がハードディスクである場合、ハードディスクへのプログラムの蓄積は、光ディスクから読み出す方法、ネットワークから取得する方法、固体メモリから読み出す方法など、どのような形態でもよい。
 システム制御部2011は、プログラムの実行に伴い、立体画像生成部2013に対し、立体画像モデルを出力する。ここで、立体画像モデルとは、表示すべき物体の形状や配置、照明となる光源の位置、及び仮想的な視点位置等を3次元座標上に表現したものである。3次元座標は、直交座標系でも極座標系でも構わない。また、表示すべき物体の表面の模様や状態等が記述されていてもよい。立体画像生成部2013は、システム制御部2011から入力された立体画像モデルを展開して、個々の視点画像を生成する。より具体的には、立体画像モデルに含まれる物体の配置図を立体画像モデルに含まれる複数の仮想カメラの位置から見た図を生成することによって、複数の視点画像を得る。複数の仮想カメラの位置は、複数の視距離を想定した複数の視点に対応する位置とし、例えば図8に示すような配置とする。図8は、4台の仮想カメラによる4つの視点画像から6通りの視差のついた画像を得るようすを示している。この6通りの視差のうちのいくつかをそれぞれ視距離と対応付ける。
 立体画像生成部2013は、生成した複数の視点画像を表示制御部202に送る。表示制御部202は、立体画像生成部2013から複数の視点画像を受信し、表示部203に合わせた表示制御をすると同時に、メガネ同期部206に対し信号を送る。メガネ同期部206は、表示制御部202から受信した信号に基づいて、ユーザの装着するシャッタメガネ207に対し同期信号を送り、表示部203との同期処理を行う。具体的には、例えば、表示部203に液晶表示パネルを用いて4視点の視点画像を表示し、ユーザの装着したシャッタメガネ207と同期して立体視を行う方式の場合、表示制御部202は、表示部203に対し、4視点の視点画像を順に出力する。出力の頻度は、例えば各視点に対応する画像をそれぞれ毎秒60枚とする。表示部203は表示制御部202から送られる画像を随時表示するが、表示部203とシャッタメガネ207は同期し、表示部に順に表示される4視点の視点画像のいずれかに左目用シャッタ、右目用シャッタを同期して開とすることにより、それぞれ対応する視点画像を左目及び右目に提示して、立体視を実現する。
 この際、複数の視点画像は順に表示されるので、立体画像生成部2013では、各視点画像に関し、表示部203において実際に時分割で表示されるタイミングを考慮して画像を生成すると、ユーザに時間軸に沿った滑らかな動きを知覚させることができ、好適である。図11は、この際の様子を説明する図である。図11は、円筒形の物体から点状の物体が発射されている様子を表している。このとき、円筒形の物体は視点に合わせて見え方が変化し、点状の物体は時間の経過に合わせて表示位置が変化している。点状の物体も視点に合わせて見え方が変化するが、図11は小さいため、図の表現上、視点変化は省略されている。時間軸に沿った画像は、時系列画像の補間により生成してもよい。
 前述のとおり、シャッタメガネ207は、これら複数の視点画像から、それぞれのシャッタメガネ207で測定された視距離に合う視点画像の組み合わせを選択し、提示する。このようにして、複数の視距離に対応する視点画像を得ることができる。すなわち、複数のユーザに、各々のユーザの視距離に対応する視点画像を提示することができる。すなわち、想定した視距離に対応した視差量の立体画像を得ることができ、それぞれの視点画像の組み合わせから、複数のユーザに対しそれぞれ適切な視差量で立体画像を提示することができるので、複数のユーザが同時に同じ表示画面に向かって、奥行き感の正しい立体表示のゲームを楽しむことができる。また、それぞれのユーザが用いるシャッタメガネがそれぞれ適切な視点画像の組み合わせを選択しているので、1台の立体画像表示装置に対して画面を観察するユーザをいくらでも増やすことができる。
 なお、上記では立体画像表示装置に同期して画像を選択する遮蔽手段としてシャッタメガネを採用しているが、遮蔽手段の形状はメガネに限定されない。例えば、面のようなものやヘルメットの目を覆う部分に遮蔽素子、例えば液晶シャッタを設けた遮断手段としてもよい。この場合、球技や格闘技等に用いる防護面や、モータスポーツ等に用いるヘルメットを模したものとすることにより、メガネを用いた場合のメガネと顔の隙間から入る外光の影響を軽減でき、立体画像表示装置を用いた、より没入感のあるゲーム装置を構成することができる。また、メガネの場合にありがちなメガネのずり落ちや傾きなどを軽減できるうえ、センサや処理部を組み込むスペースがメガネと比較して大きく、さらに離れた位置にセンサを設置することもできるので、より正確な距離を測定することができ、適切な視差を推定することができる。さらに、公共空間に設置されるゲーム装置では個々の構成装置は有線接続されることが好ましいが、メガネと比較して面やヘルメットでは接続線の重量等を頭全体で支えることになり、接続線によるわずらわしさを軽減することができる。
 本発明は、立体画像表示装置に利用可能である。
10 入力部
20 ユーザ操作部
100 立体画像処理部
101 視差調整部
102、202 表示制御部
103、203 表示部
104、2011 システム制御部
105 ユーザ入力部
106、206 メガネ同期部
107、207 シャッタメガネ
201 ゲーム制御部
1011 通信・制御部
1012 視差算出部
1071 メガネ同期受信部
1072 シャッタ制御部
1073 測距部
1074a、b シャッタ部
1014 視差補正部
1015 遮蔽補償部
1016a~d 画像加工部
2012 プログラム蓄積部
2013 立体画像生成部
 本明細書で引用した全ての刊行物、特許および特許出願をそのまま参考として本明細書にとり入れるものとする。

Claims (26)

  1.  複数の画像を時分割で順に表示する表示手段と、
     前記表示手段における表示と同期して同期信号を出力する同期手段と、
     前記同期手段から前記同期信号を受信し、前記同期信号に応じて右目または左目を遮蔽して、前記複数の画像を選択的に右目および左目に透過させる遮蔽手段と、
     前記遮蔽手段と前記表示手段との間の距離を検出する距離検出手段とを備え、
     前記遮蔽手段は、前記距離検出手段が検出した距離に応じて、前記複数の画像から右目および左目に透過させる画像の組を選択するを特徴とする立体画像表示装置。
  2.  前記複数の画像は、被写体をそれぞれ異なる視点からとらえた画像から成り、前記右目および左目に透過させる画像の組を2組以上含むことを特徴とする請求項1に記載の立体画像表示装置。
  3.  前記右目および左目に透過させる画像の組は、それぞれ異なる横方向の視差が付けられていることを特徴とする請求項1または2に記載の立体画像表示装置。
  4.  前記右目および左目に透過させる画像の組は、それぞれ異なる視距離に対応する視差が付けられていることを特徴とする請求項1から3のいずれか1項に記載の立体画像表示装置。
  5.  前記複数の画像のうち少なくとも1つは、複数の前記右目および左目に透過させる画像の組に含まれることを特徴とする請求項1から4のいずれか1項に記載の立体画像表示装置。
  6.  前記複数の画像は、2次元表示用画像を含むことを特徴とする請求項1から5のいずれか1項に記載の立体画像表示装置。
  7.  前記複数の画像は、それぞれ前記表示手段において時分割で表示される際の表示タイミングを考慮して生成されたものであることを特徴とする請求項1から6のいずれか1項に記載の立体画像表示装置。
  8.  前記距離検出手段から前記距離が得られない場合、前記遮蔽手段は前記複数の画像における予め決められた画像の組を右目および左目に透過させることを特徴とする請求項1から7のいずれか1項に記載の立体画像表示装置。
  9.  前記距離検出手段から前記距離が得られない場合、前記遮蔽手段は前記複数の画像における同一の画像を右目および左目に透過させることを特徴とする請求項1から7のいずれか1項に記載の立体画像表示装置。
  10.  前記距離検出手段によって検出された前記距離に対応する立体画像がない場合、前記遮蔽手段は予め決められた立体画像を選択して透過させることを特徴とする請求項1から9のいずれか1項に記載の立体画像表示装置。
  11.  前記距離検出手段によって検出された前記距離に対応する前記右目および左目に透過させる画像の組がない場合、前記遮蔽手段は前記複数の画像における同一の画像を右目および左目に透過させることを特徴とする請求項1から9のいずれか1項に記載の立体画像表示装置。
  12.  前記同期信号は、前記距離検出手段により検出される前記距離と前記右目および左目に透過させる画像の組との対応を示す信号を含むことを特徴とする請求項1から11のいずれか1項に記載の立体画像表示装置。
  13.  前記同期信号は、前記距離検出手段から前記距離が得られない場合に前記遮蔽手段が右目および左目に透過させる画像の組を表す信号を含むことを特徴とする請求項8に記載の立体画像表示装置。
  14.  前記同期信号は、前記距離検出手段によって検出された前記距離に対応する前記右目および左目に透過させる画像の組がない場合に前記遮蔽手段に右目および左目に透過させる画像の組を表す信号を含むことを特徴とする請求項10に記載の立体画像表示装置。
  15.  前記複数の画像の各々における前記異なる視点は、それぞれ予め設定された視距離に対応付けて設定されることを特徴とする請求項2に記載の立体画像表示装置。
  16.  前記複数の画像の各々における前記異なる視点は、ユーザにより選択された視距離に対応付けて設定されることを特徴とする請求項2に記載の立体画像表示装置。
  17.  前記表示手段とユーザの後部にある壁との間の距離を取得する壁距離取得手段をさらに備え、前記複数の画像の各々における前記異なる視点は、前記壁距離取得手段によって取得された距離に対応付けて設定されることを特徴とする請求項2に記載の立体画像表示装置。
  18.  前記同期信号は赤外線で出力されることを特徴とする請求項1から17のいずれか1項に記載の立体画像表示装置。
  19.  前記同期信号は電波で出力されることを特徴とする請求項1から17のいずれか1項に記載の立体画像表示装置。
  20.  前記遮蔽手段はメガネ型であることを特徴とする請求項1から19のいずれか1項に記載の立体画像表示装置。
  21.  前記遮蔽手段はヘルメット型であることを特徴とする請求項1から19のいずれか1項に記載の立体画像表示装置。
  22.  前記遮蔽手段はユーザの顔を覆う面形であることを特徴とする請求項1から19のいずれか1項に記載の立体画像表示装置。
  23.  ある視点の画像の画面領域の全面または一部を横方向に相対的にずらすことによって横方向の視差を調節し、前記複数の画像を生成する画像調整手段を備えることを特徴とする請求項4に記載の立体画像表示装置。
  24.  ある視点の画像から、被写体をそれぞれ異なる視点からとらえた画像とみなせる画像を生成し、前記複数の画像を生成する画像調整手段を備えることを特徴とする請求項2に記載の立体画像表示装置。
  25.  表示手段が、複数の画像を時分割で順に表示する表示ステップと、
     同期手段が、前記表示ステップにおける表示と同期して同期信号を出力する同期ステップと、
     遮蔽手段が前記同期信号を受信し、前記同期信号に応じて右目または左目を遮蔽して前記複数の画像を選択的に右目および左目に透過させる遮蔽ステップと、
     距離検出手段が前記遮蔽手段と前記表示手段との間の距離を検出する距離検出ステップとを含み、
     前記遮蔽ステップにおいて、前記遮蔽手段が、前記距離検出手段が検出した前記距離に応じて、前記複数の画像から右目および左目に透過させる画像の組を選択することを特徴とする立体画像表示方法。
  26.  請求項25に記載の立体画像表示方法をコンピュータに実行させるプログラム。
PCT/JP2012/052257 2011-06-06 2012-02-01 立体画像表示装置および立体画像表示方法 WO2012169220A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-126654 2011-06-06
JP2011126654 2011-06-06

Publications (1)

Publication Number Publication Date
WO2012169220A1 true WO2012169220A1 (ja) 2012-12-13

Family

ID=47295799

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/052257 WO2012169220A1 (ja) 2011-06-06 2012-02-01 立体画像表示装置および立体画像表示方法

Country Status (1)

Country Link
WO (1) WO2012169220A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004333661A (ja) * 2003-05-02 2004-11-25 Nippon Hoso Kyokai <Nhk> 立体画像表示装置、立体画像表示方法および立体画像表示プログラム
JP2006340017A (ja) * 2005-06-01 2006-12-14 Olympus Corp 立体映像表示装置及び立体映像表示方法
WO2010084849A1 (ja) * 2009-01-22 2010-07-29 日本電気株式会社 立体映像鑑賞システム、表示システム、光シャッタおよび立体映像鑑賞方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004333661A (ja) * 2003-05-02 2004-11-25 Nippon Hoso Kyokai <Nhk> 立体画像表示装置、立体画像表示方法および立体画像表示プログラム
JP2006340017A (ja) * 2005-06-01 2006-12-14 Olympus Corp 立体映像表示装置及び立体映像表示方法
WO2010084849A1 (ja) * 2009-01-22 2010-07-29 日本電気株式会社 立体映像鑑賞システム、表示システム、光シャッタおよび立体映像鑑賞方法

Similar Documents

Publication Publication Date Title
KR20210154814A (ko) 패스 쓰루 이미징을 갖는 헤드 마운트 디스플레이
KR101730737B1 (ko) 안구추적을 기반으로 한 상이한 거리 자동적응 홀로그램 디스플레이 방법 및 장치
EP2979127B1 (en) Display method and system
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
RU2015145510A (ru) Наголовное устройство отображения, способ управления наголовным устройством отображения и система отображения
US20120306860A1 (en) Image generation system, image generation method, and information storage medium
US6788274B2 (en) Apparatus and method for displaying stereoscopic images
CN113568170A (zh) 虚拟图像生成系统及其操作方法
JP2011010126A (ja) 画像処理装置、画像処理方法
KR101046259B1 (ko) 응시위치를 추적하여 입체영상을 표시하는 입체영상 표시장치
JP4580678B2 (ja) 注視点位置表示装置
TWI589150B (zh) 3d自動對焦顯示方法及其系統
JP6775669B2 (ja) 情報処理装置
WO2018074419A1 (ja) 情報処理装置
JPWO2018084087A1 (ja) 画像表示システム、画像表示装置、その制御方法、及びプログラム
JP5037713B1 (ja) 立体画像表示装置および立体画像表示方法
WO2012147482A1 (ja) 立体画像表示装置および立体画像表示方法
JP2012244466A (ja) 立体画像処理装置
JP3425402B2 (ja) 立体画像を表示する装置および方法
US20140285484A1 (en) System of providing stereoscopic image to multiple users and method thereof
WO2017163649A1 (ja) 画像処理装置
WO2017191703A1 (ja) 画像処理装置
EP3547081B1 (en) Data processing
WO2012169220A1 (ja) 立体画像表示装置および立体画像表示方法
JP2006340017A (ja) 立体映像表示装置及び立体映像表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12797150

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12797150

Country of ref document: EP

Kind code of ref document: A1