WO2012060406A1 - 立体画像データ作成装置、立体画像データ再生装置、及びファイル管理方法 - Google Patents

立体画像データ作成装置、立体画像データ再生装置、及びファイル管理方法 Download PDF

Info

Publication number
WO2012060406A1
WO2012060406A1 PCT/JP2011/075289 JP2011075289W WO2012060406A1 WO 2012060406 A1 WO2012060406 A1 WO 2012060406A1 JP 2011075289 W JP2011075289 W JP 2011075289W WO 2012060406 A1 WO2012060406 A1 WO 2012060406A1
Authority
WO
WIPO (PCT)
Prior art keywords
parallax
image data
information
maximum
minimum
Prior art date
Application number
PCT/JP2011/075289
Other languages
English (en)
French (fr)
Inventor
北浦 竜二
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to EP11838056.7A priority Critical patent/EP2637413A1/en
Priority to US13/823,458 priority patent/US20130182078A1/en
Priority to CN201180052193XA priority patent/CN103190154A/zh
Publication of WO2012060406A1 publication Critical patent/WO2012060406A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Definitions

  • the present invention relates to a stereoscopic image data creation device, a stereoscopic image data reproduction device, and a file management method for attaching attribute information to image data when creating image data for three-dimensional display.
  • binocular type that uses binocular parallax.
  • This method enables stereoscopic viewing by preparing a left-eye image and a right-eye image having binocular parallax and independently projecting them to the left and right eyes.
  • the above-described images are referred to as a left-eye image and a right-eye image.
  • 3D is used as a term meaning 3D or 3D
  • 2D is used as a term meaning 2D
  • stereoscopic image data is called 3D image data
  • normal 2D image data is called 2D image data.
  • Non-Patent Document 1 describes safety guidelines for creating a 3D image using binocular parallax.
  • the three-dimensional popping feeling and depth feeling can be controlled by adjusting the parallax, but even with the same parallax, a person or child with a narrow inter-pupil distance feels a strong three-dimensional feeling.
  • the interpupillary distance of a 6-year-old child is about 5 cm based on the result of examining the interpupillary distance, and this is taken as the representative value of the child in consideration of safety.
  • FIG. 19 is a conceptual diagram for explaining the frame sequential method.
  • the frame sequential method is a display that switches image frames at high speed for display and an active lens that controls the lens shutter of the glasses in synchronization with the display to open and close the left and right lenses alternately. ⁇ It consists of shutter glasses.
  • the left-eye image 400 and the right-eye image 401 are alternately displayed at high speed on the display.
  • the active shutter glasses 402 causes the right-eye lens shutter 404 to block light so that the left-eye lens shutter 403 transmits light. So as to control each.
  • control is performed so that the right-eye lens shutter 404 blocks light and the left-eye lens shutter 403 blocks light.
  • an observer can observe a stereoscopic image by displaying an image that matches the parallax of each eye in the left and right eyes in a time-sharing manner.
  • FIG. 20 is a conceptual diagram for explaining the parallax barrier method.
  • FIG. 20A is a diagram illustrating the principle of generating parallax.
  • FIG. 20B is a diagram illustrating an example of a screen displayed by the parallax barrier method.
  • FIG. 20 (a) an image in which a left-eye image and a right-eye image are arranged alternately every other pixel in the horizontal direction as shown in FIG.
  • a parallax barrier 411 displayed on the front view side of the image display panel 410 at a narrower interval than the pixel interval of the same viewpoint, the left-eye image is only the left eye 412 and the right-eye image is displayed. Can be observed only with the right eye 413, and stereoscopic viewing is possible.
  • Patent Document 1 an object at a position 505 closest to the imaging device at the time of shooting together with the original images forming two stereo pairs shot by the imaging device 501 and the imaging device 502 is disclosed.
  • the maximum parallax of the imaging mechanism which is the parallax of 503, and the minimum parallax of the imaging mechanism of the object 504 at the position 506 farthest from the imaging apparatus at the time of shooting are recorded as a parallax range on the transmission apparatus side.
  • the viewer can determine the position where the transmitted three-dimensional image is stereoscopically displayed.
  • a method of remapping to a viewing space that allows comfortable viewing of stereoscopic images is disclosed. Further, it is disclosed that the parallax range transmitted from the transmission device side together with the original image may use the maximum parallax value and the minimum parallax value obtained on the transmission device side by searching for corresponding points from the original image.
  • the transmission apparatus side transmits to the reception apparatus side a set of the maximum parallax value and the minimum parallax value of the parallax range together with the original image data.
  • a display image is created by remapping according to a set of the maximum parallax value and the minimum parallax value.
  • the parallax may change in the opposite direction to the one that you want to adjust, and the possibility of performing the adjustment opposite to the intended parallax adjustment may occur. There was a problem that.
  • the present invention has been made to solve the above-described problems, and its purpose is to provide versatility to image data for three-dimensional display and to make the playback apparatus safer and more comfortable.
  • An object of the present invention is to provide a stereoscopic image data creation device, a stereoscopic image data reproduction device, and a file management method capable of presenting a stereoscopic video having an appropriate parallax.
  • a stereoscopic image data creation device is a stereoscopic image data creation device that creates image data of a predetermined file format from a plurality of image data corresponding to each of a plurality of viewpoints.
  • a first maximum parallax that is a maximum value of parallax required for the first imaging unit, a first minimum parallax that is within a predetermined parallax range from the mechanism of the imaging unit and that is a parallax at a position closest to the imaging unit
  • the second maximum parallax that is the maximum parallax value of the left-eye image and right-eye image of the stereoscopic image and the second minimum parallax that is the minimum parallax value of the left-eye image and right-eye image of the stereoscopic image are input and input.
  • At least one of the maximum parallax or the minimum parallax is used to obtain 3D information.
  • Create A 3D information creating unit that, with the 3D information, the multiplexed image data, characterized by comprising a multiplexing means for creating a three-dimensional image data of a predetermined file format.
  • a stereoscopic image data creation device is a stereoscopic image data creation device that creates image data of a predetermined file format from a plurality of image data corresponding to each of a plurality of viewpoints.
  • the first maximum parallax that is the maximum value of the parallax that is determined scientifically, and the first minimum parallax that is within the predetermined parallax range from the mechanism of the imaging means and that is the parallax at the closest distance from the imaging means
  • a second maximum parallax that is the maximum parallax between the left-eye image and the right-eye image of the stereoscopic image and a second minimum parallax that is the minimum parallax between the left-eye image and the right-eye image of the stereoscopic image 3D using at least one or more of the first maximum parallax, the second maximum parallax, the first minimum parallax, and the second minimum parallax.
  • the stereoscopic image data in the predetermined file format includes the image data of three or more n viewpoints as the plurality of viewpoints.
  • the 3D information creating means includes Parallax unit information indicating units for the first maximum parallax, the second maximum parallax, the first minimum parallax, and the second minimum parallax is generated, and the stereoscopic image data in the predetermined file format is The parallax unit information is included.
  • the parallax unit information includes the first maximum parallax, the second maximum parallax, the first minimum parallax, and the second minimum parallax unit in pixel unit, sub-pixel unit, length It is either a unit of distance, a unit of distance, or a percentage with respect to the horizontal width of the entire image.
  • the 3D information creating means includes The first maximum parallax, the second maximum parallax, the first minimum parallax, and the second minimum parallax are obtained by a combination of any two viewpoint image data among the plurality of image data.
  • Parallax target image information indicating whether or not the image is displayed, and the stereoscopic image data in the predetermined file format includes the visual parallax target image information.
  • the stereoscopic image data creation device is a stereoscopic image data reproduction device that reproduces a plurality of image data corresponding to each of a plurality of viewpoints from image data in a predetermined file format. From the first maximum parallax that is the maximum parallax geometrically determined from the mechanism of the means, the second maximum parallax that is the maximum parallax of the left-eye image and right-eye image of the stereoscopic image, and the mechanism of the imaging means A first minimum parallax that is within a predetermined parallax range and that is closest to the imaging unit, and a second minimum parallax that is a minimum parallax between the left-eye image and the right-eye image of the stereoscopic image.
  • demultiplexing means for separating 3D information indicating at least one maximum parallax or minimum parallax and image data
  • 3D information analysis means for analyzing the 3D information
  • the image 3D intensity conversion means for adjusting parallax with respect to the data
  • the 3D information analysis means analyzes the 3D information
  • the solid intensity conversion means includes the first maximum parallax and the second parallax.
  • the stereoscopic image data reproduction apparatus is a stereoscopic image data reproduction apparatus that reproduces a plurality of image data corresponding to each of a plurality of viewpoints from image data in a predetermined file format. From the first maximum parallax that is the maximum parallax geometrically determined from the mechanism of the means, the second maximum parallax that is the maximum parallax of the left-eye image and right-eye image of the stereoscopic image, and the mechanism of the imaging means A first minimum parallax that is within a predetermined parallax range and that is closest to the imaging unit, and a second minimum parallax that is a minimum parallax between the left-eye image and the right-eye image of the stereoscopic image.
  • demultiplexing means for separating 3D information indicating at least one maximum parallax or minimum parallax and compressed image data
  • 3D information analysis means for analyzing the 3D information
  • Image decoding means for decoding the compressed image data
  • solid intensity conversion means for adjusting parallax for the image data obtained by decoding the compressed image data.
  • the 3D information analysis means analyzes the 3D information.
  • the solid intensity conversion means includes at least one of the first maximum parallax, the second maximum parallax, the first minimum parallax, and the second minimum parallax, or The image data is reproduced by adjusting the parallax of the image data using the minimum parallax.
  • the 3D information analysis means includes the Analyzing parallax unit information indicating units for the first maximum parallax, the second maximum parallax, the first minimum parallax, and the second minimum parallax, and using the analyzed parallax unit information, Information indicating the first maximum parallax, the second maximum parallax, the first minimum parallax, and the second minimum parallax is analyzed.
  • the first maximum parallax, the second maximum parallax, the first minimum parallax, and the second minimum parallax may be any two of the plurality of image data.
  • the 3D information analysis unit analyzes the parallax target image information, and the three-dimensional intensity conversion unit includes: Parallax adjustment is performed on the image data shown.
  • the three-dimensional intensity conversion unit compares the first maximum parallax with the second maximum parallax, and compares the second maximum parallax. However, when the value is larger than the first maximum parallax, it is determined that the value of the second maximum parallax is inappropriate, and the parallax is adjusted based on the first maximum parallax. To do.
  • the stereoscopic intensity conversion unit compares the first minimum parallax with the second minimum parallax and calculates the second minimum parallax.
  • the parallax is adjusted so that the first minimum parallax becomes a value of the second minimum parallax.
  • the stereoscopic intensity conversion unit compares the first minimum parallax with the second minimum parallax and calculates the second minimum parallax.
  • the image data is reduced and displayed so that the first minimum parallax becomes a value of the second minimum parallax.
  • the stereoscopic intensity conversion unit compares the first minimum parallax with the second minimum parallax and calculates the second minimum parallax.
  • the parallax is smaller than the first minimum parallax, it is determined that the value of the second minimum parallax is inappropriate, and the stereoscopic display is stopped and 2D display is performed, or image data of one viewpoint
  • 2D-3D conversion is performed and 3D display is performed.
  • the stereoscopic intensity conversion unit compares the first minimum parallax with the second minimum parallax and calculates the second minimum parallax.
  • the parallax is smaller than the first minimum parallax, it is determined that the value of the second minimum parallax is inappropriate, and the image data of any one viewpoint among the image data, 2D-3D conversion is performed and 3D display is performed.
  • the stereoscopic intensity conversion unit compares the first maximum parallax with the second maximum parallax, and compares the second maximum parallax with the second maximum parallax.
  • the parallax is adjusted based on the value of the second maximum parallax.
  • the stereoscopic intensity conversion unit compares the first minimum parallax with the second minimum parallax and calculates the second minimum parallax.
  • the parallax is adjusted based on the value of the second minimum parallax.
  • the 3D information analysis unit analyzes the parallax target image information, and the three-dimensional intensity conversion unit performs parallax adjustment on the image data indicated by the parallax target image information. .
  • a stereoscopic image file management method is a file management method for managing, together with image data, 3D information that is attribute information for stereoscopic display, and the 3D information includes parallax target image information indicating a combination of viewpoint images.
  • Parallax unit information indicating units of the first and second maximum parallaxes and the first and second minimum parallaxes, the first maximum parallax, the second maximum parallax, the first minimum parallax, The minimum disparity of 2 and an assumed display size indicating a size of a display for stereoscopic display of the image data are characterized.
  • the 3D information includes a parallax recording availability flag indicating whether or not the parallax information of the first and second maximum parallaxes and the first and second minimum parallaxes are recorded in the 3D information. It is characterized by.
  • One file to be managed includes a file header, the 3D information, management information used for recording information not directly related to the three-dimensional image, and the image data.
  • the file header, the 3D The information, the management information, and the image data are arranged in the order of the file header, the 3D information, the management information, and the image data from the top of the file.
  • One file to be managed includes the 3D information, management information used for recording information not directly related to the three-dimensional image, a file header, and the image data.
  • the information, the file header, and the image data are arranged in the order of the 3D information, the management information, the file header, and the image data from the top of the file.
  • the image data includes both left-eye image data and right-eye image data.
  • the image data of the first file to be managed is image data for left eye
  • the image data of the second file to be managed is image data for right eye
  • the first file The second file is a set of image data for the left eye and right eye forming a 3D image, and is managed in the same dedicated folder.
  • the image data of the first file to be managed is image data for left eye
  • the image data of the second file to be managed is image data for right eye
  • the first file And the second file is a set of image data for the left eye and right eye that form a 3D image, and is managed by providing an index in the file name to distinguish it from other image data sets.
  • the image data of the first file to be managed is image data for the left eye
  • the image data of the second file to be managed is image data for the right eye and is managed.
  • This file is a 3D management information file that stores 3D management information indicating that the first file and the second file are a set of image data for the left eye and right eye that form a 3D image.
  • the 3D management information file is a metafile, and the first file name and the second file name indicating a set of left-eye and right-eye image data forming a 3D image are described in the metafile. It is characterized by management.
  • the one file to be managed includes the first file header, the first 3D information, the first management information, the first image data, the second file header, and the second 3D.
  • Information, second management information, and second image data, the first file header, the first 3D information, the first management information, the first image data, the first image data, The second file header, the second 3D information, the second management information, and the second image data are the first file header, the first 3D information, and the first image data from the top of the file.
  • Management information, the first image data, the second file header, the second 3D information, the second management information, and the second image data are arranged in this order, and the first image data And the second image data form a 3D image Characterized in that that a pair of left-eye and the image data for the right eye.
  • one file to be managed includes a file header, first 3D information, first management information, first image data, second 3D information, and second management information, Second image data, and the file header, the first 3D information, the first management information, the first image data, the second 3D information, the second management information,
  • the second image data includes the file header, the first 3D information, the first management information, the first image data, the second 3D information, and the second management from the top of the file.
  • the first image data and the second image data are arranged in the order of information and the second image data, and the first image data and the second image data are a set of image data for the left eye and the right eye that form a 3D image. .
  • one file to be managed includes the third 3D information, the third management information, the first file header, the first 3D information, the first management information, and the first image.
  • Data a second file header, second 3D information, second management information, and second image data, the third 3D information, the third management information, the second 1 file header, the first 3D information, the first management information, the first image data, the second file header, the second 3D information, the second management information, the second Image data of the first 3D information, the third management information, the first file header, the first 3D information, the first management information, and the first management information from the beginning of the file.
  • the third 3D information includes 3D information of a common part of the first and second image data, and the first 3D information includes individual 3D information of the first image data, and 2 3D information includes individual 3D information of the second image data.
  • one file to be managed includes the third 3D information, the third management information, the file header, the first 3D information, the first management information, the first image data, It is composed of second 3D information, second management information, and second image data, and the third 3D information, the third management information, the file header, the first 3D information,
  • the first management information, the first image data, the second 3D information, the second management information, and the second image data are the third 3D information and the third image data from the beginning of the file.
  • Management information, the file header, the first 3D information, the first management information, the first image data, the second 3D information, the second management information, and the second image data Arranged in order, the first image data and the second image data.
  • the third 3D information includes 3D information of a common part of the first and second image data
  • the first 3D The information includes individual 3D information of the first image data
  • the second 3D information includes individual 3D information of the second image data.
  • one managed file includes a plurality of viewpoint image information including a file header created for each different viewpoint image data, 3D information, management information, and viewpoint image data, and a plurality of different viewpoints.
  • a plurality of pieces of image information are repeatedly arranged in the order of the file header, the 3D information, the management information, and the viewpoint image data from the top of the file.
  • one file to be managed is created for each piece of viewpoint image data, common information of 3D information of the plurality of viewpoint image information created for each of the plurality of viewpoint image data, management information for the entire file, and each of the plurality of viewpoint image data.
  • a plurality of the viewpoint image information, and the common information of the 3D information, the management information of the entire file, and the plurality of viewpoint image information are the common information of the 3D information from the head of the file,
  • the 3D information of the viewpoint image information that is arranged in the order of management information and the plurality of viewpoint image information and is generated for each of the plurality of viewpoint image data includes individual 3D information that is generated for each viewpoint image data. It is characterized by that.
  • parallax adjustment in accordance with the display size to be displayed can be performed with higher degree of freedom, safety, and appropriateness. .
  • FIG. 1 is a block diagram showing a schematic configuration of a stereoscopic image data creation device according to the first embodiment of the present invention.
  • the stereoscopic image data creation device 1 includes a parallax calculation unit 2, a 3D information creation unit 3, an image compression encoding unit 4, and a multiplexing unit 5.
  • the parallax calculation means 2 receives the camera mechanism information, the left-eye image data, and the right-eye image data, and receives first parallax information obtained from the camera mechanism information by geometric calculation, the left-eye image data, and the right-eye image data.
  • Second parallax information obtained by corresponding point search using image data, parallax calculation viewpoint information indicating from which viewpoint image parallax was calculated, left-eye image data, and right-eye image data are output.
  • the 3D information creation unit 3 receives the parallax calculation viewpoint information, the first parallax information, and the second parallax information as input, and inputs the parallax calculation viewpoint information, the first parallax information, and the second parallax information. 3D information is created and output.
  • the image compression encoding unit 4 receives the left-eye image data and the right-eye image data as input, performs compression encoding on the input image data, creates compressed image data, and outputs the compressed image data.
  • the multiplexing unit 5 receives the 3D information and the compressed image data, multiplexes the input 3D information and the compressed image data, creates multiplexed data, and outputs the multiplexed data.
  • the first parallax information and the second parallax information are each composed of a maximum parallax and a minimum parallax. Next, the maximum parallax and the minimum parallax will be described.
  • FIG. 2 is a diagram illustrating the parallax of a stereoscopic image.
  • FIG. 2A shows the left-eye image data 6, and when stereoscopic display is performed, the farthest point is the farthest point 7, and the closest point is the nearest point 8.
  • FIG. 2B shows right-eye image data 9, of which, when stereoscopically displayed, the farthest point is the farthest point 10, and the closest point is the nearest point 11. .
  • the distance from the left end of the left-eye image data 6 to the farthest point 7 is dfL
  • the distance from the nearest point 8 is dnL
  • the distance from the left end of the right-eye image data 9 to the farthest point 10 is dfR
  • the distance to the nearest left point 11 is dnR and the parallax in the part that is farthest from the observer is defined as the maximum parallax when stereoscopic display is performed using the left-eye image data 6 and the right-eye image data 9
  • the value is dfR-dfL.
  • the first parallax information is obtained by geometric calculation from the camera mechanism information such as the orientation and arrangement of the camera used for shooting and the angle of view information of the lens, and the value is calculated by the parallel method. It depends on whether it is the crossing method or the angle of view of the camera in the case of the crossing method.
  • the first parallax information is the first parallax with respect to the background when the background where the parallax is physically maximum is at infinity, and also from the camera mechanism information, And a first minimum parallax that is a parallax when the subject is placed at a recommended shooting distance unique to the camera so that a comfortable parallax value is obtained. .
  • FIG. 3 is a diagram for explaining stereoscopic shooting by the parallel method.
  • a camera 14 and a camera 13 installed so that the optical axes are parallel to the vertical direction and the horizontal direction shoot a subject 14 as a foreground and a background 15 as a distant view.
  • the camera 12 and the camera 13 are cameras having the same specifications.
  • the base line length of the camera which is the distance between the optical axis 16 of the camera 12 and the optical axis 17 of the camera 13, is T, and the angle of view between the camera 12 and the camera 13 is ⁇ .
  • the shooting range of the camera 12 is set as a shooting range 18, and the shooting range of the camera 13 is set as a shooting range 19.
  • the camera 12 captures a captured image 20 and the camera 13 captures a captured image 21.
  • the size of the parallax Df between the captured image 20 and the background 15 of the captured image 21 is the same as the baseline length T.
  • the shooting range of the camera becomes very large, so the magnitude of the parallax Df can be approximated to zero. . Therefore, in parallel imaging, the first maximum parallax constituting the first parallax information is zero.
  • the position of the subject that can be photographed as a stereoscopic image from the camera is regulated by the baseline length T and the camera angle of view ⁇ .
  • the camera angle of view ⁇ affects the range of the shooting range 18 and the shooting range 19
  • the base line length T affects the size of the area where the shooting range 18 and the shooting range 19 intersect.
  • the parallax value of the subject 14 with respect to the distance from the baseline length position of the camera 12 and the camera 13 to the subject 14 is the distance from the baseline length of the camera to the subject, the size of the baseline length that is the camera mechanism, and the angle of view ⁇ . Is uniquely determined.
  • FIG. 4 is an example of a photographed image when the camera 12 and the camera 13 photograph with the parallel method arrangement of FIG. 4A shows the left-eye image data 20 captured by the camera 12, and FIG. 4B shows the right-eye image data 21 captured by the camera 13.
  • the minimum parallax at this time is d2nR-d2nL.
  • the absolute value of d2nR ⁇ d2nL is the same value as the value of Dn in Expression (2).
  • the camera's instruction manual generally contains the recommended shooting distance specific to the camera, and the subject is within the recommended camera-specific shooting distance described in this instruction manual.
  • the parallax value when installing is set as the minimum parallax.
  • the user may input in advance the recommended shooting distance that suits him / herself into the camera.
  • the value may be stored in the storage area of the camera so that it can be output as the first minimum parallax at any time as the first minimum parallax for each user.
  • FIG. 5 is a diagram for explaining stereoscopic shooting by the intersection method.
  • the configuration of the camera in FIG. 5 is a configuration in which the camera 13 is tilted horizontally with respect to the configuration described in FIG.
  • the optical axis of the camera 12 and the camera 13 is parallel to the vertical direction as in FIG. 3, but the horizontal direction is set so that the optical axis 16 and the optical axis 17 intersect unlike the case of FIG. 3.
  • a point where the optical axis 16 and the optical axis 17 intersect is defined as a convergence point 23.
  • the feature point 24 is located on the optical axis 16, a line segment passing through the feature point 24 and intersecting the optical axis 17 at a right angle is defined as a line segment 25, and the length of the photographing range of the camera 13 is defined as W. To do. A point where the line segment 25 and the optical axis 17 intersect is defined as a point 26. Further, as illustrated in FIG. 5, the position of the feature point 24 on the line segment 25 is a position away from the point 26 by Wd0.
  • the value of the ratio of Wd0 to the length W of the line segment 25 is the right eye image from the center point of the right eye image to the feature point 24 with respect to the horizontal display size H of the display that displays the right eye image. It is equal to the value of the ratio of the distance Hd, and can be expressed by Expression (3).
  • the parallax of the feature point 24 is Hd.
  • the distance from the camera 12 to the feature point 24 is L
  • the distance from the camera 12 to the convergence point 23 is Lo
  • the distance from the camera 13 to the line segment 25 is A
  • the distance from the convergence point 23 to the point 26 is A1.
  • the distance between the convergence point 23 and the camera 13 is A2. If the center of the camera 12 is the point 27, the center of the camera 13 is the point 28, and the rightmost point of the line segment 25 is the point 29, paying attention to the triangle formed by the point 26, the point 28, and the point 29, the equation The relationship (4) is obtained.
  • Hd H ⁇ (LT / tan ⁇ ) ⁇ sin ⁇ / ⁇ L ⁇ cos ⁇ ⁇ 2 ⁇ tan ( ⁇ / 2) ⁇ (11)
  • L the maximum value Hdmax of the parallax Hd is obtained. From equation (11), if L is approximated as infinity, T / tan ⁇ can be ignored compared to L, and Hdmax is expressed by equation (12).
  • Hdmax H ⁇ tan ⁇ / ⁇ 2 ⁇ tan ( ⁇ / 2) ⁇ (12) From the above, the maximum value of parallax in the intersection method can be approximated as the value of equation (12), and this value is determined by the display size to be displayed, the angle of view of the camera, and the angle at which the optical axes intersect, The maximum parallax value at this time is output as the maximum parallax in the first parallax information.
  • the minimum parallax that constitutes the first parallax information is the parallax when the subject is placed at the recommended shooting distance specific to the camera described in the camera instruction manual etc. Value.
  • the user may input a recommended shooting distance that suits herself into the camera in advance.
  • the value may be stored in the storage area of the camera so that it can be output as the first minimum parallax at any time as the first minimum parallax for each user.
  • the second parallax information is composed of the second minimum parallax that is the parallax at the nearest point that is the closest position from the camera and the second maximum parallax that is the parallax at the farthest point that is the farthest position from the camera. Yes.
  • the second minimum parallax and the maximum parallax are obtained by searching for corresponding points using the stereo matching method, so that the parallax of the subject at the closest point closest to the camera is used as the second minimum parallax in the screen. Then, the parallax of the farthest subject located farthest from the camera is obtained as the second maximum parallax.
  • the stereo matching method is an image in which an image photographed by the left camera is taken by the right camera using a set of two images photographed by two cameras arranged on the left and right. This is a method of determining which part of each point corresponds by calculating area correlation and estimating the three-dimensional position of each point by triangulation using the correspondence.
  • the user may search for a corresponding point in the image and input parallax of a subject at the nearest point and the farthest point.
  • the first parallax information which is a physical parallax range, obtained by geometric calculation from the camera mechanism information such as the orientation and arrangement unique to the camera used for shooting and the angle of view information of the lens,
  • the second parallax information which is the actual parallax range calculated by stereo matching or manual input by the user, etc. Even when an error occurs, it is possible to perform display in a comfortable and safe parallax range.
  • FIG. 6 is a flowchart showing the operation of the stereoscopic image data creation device 1 according to the first embodiment of the present invention, and the operation will be described along this.
  • the stereoscopic image data creation device 1 of FIG. 1 includes imaging means (not shown) in the preceding stage.
  • the imaging means at least two or more cameras, or one camera with a stereo adapter, a large-diameter lens, or a special lens that can shoot all directions, or one camera horizontally A sliding method is available.
  • step S1 of FIG. 6 the power of the stereoscopic image data creation device 1 is turned on, and the process proceeds to step S2.
  • step S2 from a camera (not shown) connected to the outside of the stereoscopic image data creation device 1, the parallax calculation means 2 captures the image data for the left eye, the image data for the right eye, the baseline length of the camera, Camera mechanism information including information on the angle of view and the angle of convergence is input.
  • the left-eye image data and the right-eye image data are input to the parallax calculation means 2 for each frame as image data composed of continuous frames.
  • FIG. 7 is a block diagram showing a schematic configuration of the parallax calculation means of the stereoscopic image data creation device according to the first embodiment of the present invention.
  • the parallax calculation unit 2 generates a second parallax from the mechanism parallax calculation unit 30 that creates first parallax information from the input camera mechanism information and the input left-eye image data and right-eye image data.
  • Stereo matching means 31 for creating information
  • parallax correction means 32 for correcting the parallax of the first parallax information and the second parallax information by the amount of parallax shift when the parallax shift is performed on the entire image.
  • the image segmenting means 33 is configured to segment the left-eye image data and the right-eye image data at positions where the parallax is shifted.
  • the stereo matching unit 31 may be provided with a user input unit (not shown) that accepts a user input from the outside.
  • the user input means for example, by presenting the left-eye image data and the right-eye image data to the user, the user searches for a corresponding point between the nearest point and the farthest point in the image, and the parallax at that time is set to the second minimum parallax.
  • the parallax and the second maximum parallax may be input.
  • step S3 the first method is used in accordance with the method for obtaining the first parallax information described with reference to FIGS. 3 to 5 by the mechanism parallax calculation unit 30 inside the parallax calculation unit 2 from the input camera mechanism information. To create parallax information.
  • step S4 it is determined whether or not the second parallax information is manually input from the user by the user input means to the stereo matching means 31 in the parallax calculation means 2, and if it is input, the process proceeds to step S6. If not, the process proceeds to step S5.
  • step S5 second parallax information is created by the stereo matching method using the left-eye image data and the right-eye image data input to the stereo matching means 31.
  • step S 6 the first parallax information output from the mechanism parallax calculation unit 30 and the second parallax information output from the stereo matching unit 31 are input to the parallax correction unit 32.
  • step S7 referring to the first disparity information and the second disparity information input to the disparity correcting unit 32, it is determined whether or not the disparity shift is performed. If not, the process proceeds to step S10.
  • the parallax barrier usually has vertical pixel units or sub-pixels so that left-eye image data and right-eye image data of the same size are displayed at the same position in the case of the frame sequential method.
  • the left and right images are displayed alternately in units.
  • at least one of the left and right images is respectively shifted from the original display position uniformly in either the left or right direction, thereby reducing the parallax between the corresponding points of the left and right images.
  • This change is called parallax shift.
  • the user may select whether to perform parallax shifting. For example, the image may be displayed in a three-dimensional manner with no parallax shift, and the user may shift the image so that the desired parallax is obtained.
  • the second maximum parallax information of the second parallax information and the second minimum parallax information are selected and it is determined that the absolute value of the selected parallax information is larger than a predetermined value.
  • the parallax is shifted so that the absolute value of the selected parallax information becomes smaller than the predetermined value. You may make it do.
  • the parallax may be shifted so that the image includes both the projecting subject and the subject retracting in the back. For example, when the image is taken by the parallel method, the background at infinity is displayed on the display surface, and all the objects in front of the background are displayed in front of the display surface. At this time, the entire screen may be shifted uniformly in a direction in which the parallax of all the subjects in front of the background is reduced.
  • step S8 the parallax amount shifted by the parallax correction means 32 of FIG. 7 with respect to the input first parallax information and the second parallax information, the first parallax information, and the second parallax information
  • the first disparity information and the second disparity information that are created by correction by subtracting each from the disparity information are modified as new first disparity information and second disparity information, and the 3D information creation in FIG.
  • the first parallax information, the second parallax information, and the viewpoint information are output to the means 3, and the corrected parallax amount is output to the image cutout means 33.
  • step S9 the position of the left-eye image data or right-eye image data is shifted by using the corrected amount of parallax from the parallax correcting unit 32 by the image cut-out unit 33 in FIG. 7, and the left-eye image data and the right-eye image data are shifted. A region in which the corresponding points at the left and right ends of each of the images are removed is cut out. The state of the parallax shift at this time will be described in detail with reference to FIGS.
  • FIG. 8 shows an example of left-eye image data and right-eye image data before performing parallax shifting.
  • FIG. 8A is an example of left-eye image data.
  • the image data 34 for the left eye when a stereoscopic display is performed, there are a subject 35 that pops out most forward from the display surface and a subject 36 that appears to be retracted farthest from the display surface.
  • FIG. 8B is an example of right-eye image data.
  • the subject corresponding to the subject 35 is the subject 38
  • the subject corresponding to the subject 36 is the subject 39.
  • the parallax between the subject 35 and the subject 38 is Dn1
  • the parallax between the subject 36 and the subject 39 is Df1.
  • FIG. 9 is an example of the left-eye image data and the right-eye image data after performing the parallax shift.
  • the parallax Dn2 between the subject 35 and the subject 38 becomes 0.
  • the parallax Df2 between the subject 36 and the subject 39 is Df1 + Dn1
  • the subject 35 is displayed on the display surface
  • the subject 36 is displayed at a position further retracted than before performing the parallax shift.
  • the area 40 surrounded by the thick frame of the left-eye image data 34 and the area 41 surrounded by the thick frame of the right-eye image data 37 have corresponding points. No area occurs. At this time, the projected images of the areas 40 and 41 are cut off because there are no corresponding points. At the time of display, the display area in the horizontal direction is narrowed by the cut amount.
  • a method of performing parallax adjustment by performing parallax shift in this manner is generally used. However, when parallax adjustment is performed, the value of the first parallax information or the value of the second parallax information is the amount of parallax shifted. Only fixed.
  • the parallax may be shifted by shifting the positions of the left and right images instead of shifting the screen.
  • step S10 the left-eye image data and right-eye image data cut out by the image cut-out means 33 in FIG. 7 are output to the 3D information creating means 3 in FIG. 1, and the process proceeds to step S11.
  • the image cutout unit 33 has described the case where the left and right eye images are individually output.
  • a single image in which the left and right eye images are arranged horizontally is generally called a side-by-side method.
  • a single image called a top-and-bottom method in which left and right eye images are arranged one above the other may be created and output.
  • step S11 the 3D information creating unit 3 in FIG. 1 creates 3D information using the first parallax information, the second parallax information, the viewpoint information, and the like output from the parallax calculating unit 2.
  • This 3D information is output to the multiplexing means 5.
  • the 3D information will be described.
  • FIG. 10 is a diagram illustrating an example of 3D information.
  • the 3D information includes the first maximum parallax, the second maximum parallax, the first minimum parallax, and the second minimum parallax.
  • a parallax target indicating a combination of viewpoint images that are targets of the first maximum parallax, the second maximum parallax, the first minimum parallax, and the second minimum parallax.
  • An assumed display size indicating whether to perform stereoscopic display may be included.
  • the disparity unit information may use different disparity unit information for each of the first maximum disparity, the second maximum disparity, the first minimum disparity, and the second minimum disparity. Alternatively, all the same unit information may be unified to create 3
  • the assumed display size may be input by the user separately from the outside to the 3D information creating unit 3, or may be input from the camera to the 3D information creating unit 3 as part of the camera mechanism information.
  • the parallax target image information is information that is not necessary when recording images of two left and right viewpoints, but is necessary when handling images of three or more viewpoints. Since the parallax is obtained from images of two viewpoints, it is necessary to specify which two viewpoint images of three or more viewpoint images are the parallaxes calculated.
  • the parallax unit information is information indicating a unit used when the first and second maximum parallaxes and the magnitudes of the first and second minimum parallaxes are recorded.
  • the magnitudes of the first and second maximum parallaxes and the first and second minimum parallaxes may be handled in units of pixels, or may be handled in absolute units such as “mm” or “cm”. However, it may be handled as a percentage of the horizontal width of the screen. For example, when the parallax unit information is 0, it is a pixel unit, 1 is an absolute unit such as “mm” or “cm”, and 2 is a percentage of the horizontal width of the screen. May be.
  • the parallax unit information, the first and second maximum parallaxes, and the first and second minimum parallaxes are inserted into 3D information as one set, but 3D including a plurality of these sets. It may be information.
  • the set of parallax unit information can be selectively used according to the usage situation. For example, when the pixel pitch is not known or when dot-by-dot display such as reduced / enlarged display is not performed, parallax information expressed as a percentage of the horizontal width of the screen is used. Also, when it is easy to handle parallax in units of pixels, such as when performing parallax shifting on the display side, parallax information in units of pixels is used. Further, when it is confirmed that the parallax displayed stereoscopically in the depth direction does not exceed the width of the human interpupillary distance, it is desirable to handle the parallax with an absolute value.
  • the 3D information includes a plurality of sets of parallax unit information
  • step S12 the image compression / encoding unit 4 compresses and encodes the image using the left-eye image data and the right-eye image data input from the parallax calculation unit 2 of FIG. 1 to generate compressed image data.
  • the images input from the parallax calculation means 2 may be left and right separately, or a single image in which left and right eye images are arranged horizontally, called a side-by-side method, or a top-and-bottom method. It may be a single image in which the left and right eye images are arranged one above the other.
  • an international standard method such as JPEG or JPEG2000 is adopted for still images, and MPEG-1, MPEG-2, MPEG-4AVC is adopted for moving images.
  • the international standard system such as When only intra-frame coding is used as a moving image coding, a method such as Motion JPEG may be used.
  • the image compression encoding method is not limited to the above, and a non-standard method may be used.
  • multiplexed data is created by the multiplexing means 5 of FIG.
  • the multiplexing means 5 uses the 3D information created by the input 3D information creation means 3 and the compressed image data created by the image compression means 4 to convert to a predetermined format to create multiplexed data, Output.
  • a recording device such as an IC memory, a magneto-optical disk, a magnetic tape, or a hard disk, or a communication device such as a LAN or a modem is connected to the output destination of the multiplexing means 5.
  • a recording device such as an IC memory, a magneto-optical disk, a magnetic tape, or a hard disk, or a communication device such as a LAN or a modem is connected to the output destination of the multiplexing means 5.
  • a communication device such as a LAN or a modem
  • the recording format when recording multiplexed data in the IC memory is described below.
  • a file system such as FAT (File Allocation Table) is constructed on the IC memory, and data is recorded as a file.
  • FAT File Allocation Table
  • an existing format may be used, or a newly defined unique format may be used.
  • FIG. 11 is a diagram showing a file format for recording multiplexed data.
  • data is recorded in a file in the order from the top to the bottom of the figure.
  • FIG. 11A shows a case where an existing format is used
  • FIG. 11B shows a case where a new format is used.
  • 3D information is recorded in an extension header area provided for extending a file header. It is recorded as a part of an existing file header, and in this case, a generally used extension is used as it is.
  • a generally used extension is used as it is.
  • the extension jpg is used. In this way, even a conventional playback device that does not have a three-dimensional image display function can recognize the file as an existing format and display it as a two-dimensional image.
  • 3D information is recorded at the head of the file. Furthermore, a unique extension that can be distinguished from the existing file is attached so that the file can be identified as a new file. Note that the management information described in FIGS. 11A and 11B is used for recording information that is not directly related to the three-dimensional image, such as the creation date and the creator.
  • FIG. 12 is a diagram showing an example of using an existing file format when recording multiplexed data. A method of storing the left and right images when the existing format shown in FIG. 11A is used as the existing file format will be described.
  • FIG. 12A shows an example in which the left-eye image data and the right-eye image data are recorded as one image data in the image data area of FIG. 11A.
  • FIG. 12B shows an example in which the left and right image data are recorded as separate files.
  • FIG. 12C shows an example in which the two files in FIG. 12B are recorded as one file.
  • the file header exists on each of the left and right sides.
  • the two files are a set of image data for the left and right eyes that form one 3D image.
  • a folder dedicated to these files may be created, and two files may be stored and managed in that folder.
  • a predetermined naming rule may be used for each file name.
  • the file names of image data for left eye and right eye of a certain 3D image 1 are “3D image 1 left.jpg” and “3D image 1 right.jpg”, respectively, and left eye and right eye of another 3D image 2
  • the file names of the 3D image 1 and the 3D image 2 are distinguished by the file name by setting the file names of the image data for the files to “3D image 2 left.jpg” and “3D image 2 right.jpg”, respectively. You may do it.
  • management information for indicating that these two files are a set of left and right image data forming one 3D image may be created as separate files.
  • a file describing these two file names may be created as a 3D management information file.
  • the 3D management information file may be created by describing these two file names in a metafile such as “RAM” or “ASX” used on the PC. Further, at least one of the left and right files and the common 3D information file and the 3D management information file described above may be handled in a folder created as a dedicated folder for these files.
  • FIG. 13 is a diagram showing an example in which a new file format is used when recording multiplexed data.
  • FIGS. 12C and 12D when a set of image data for the left and right eyes forming a 3D image is made into one file, information that can share 3D information of each image data. The information is divided into individual information that cannot be shared, and only the portion that can be shared is stored in the common 3D information storage area, and the individual information is stored in the 3D information storage area of the image data for the left and right eyes.
  • FIG. 13A shows a file format when the common information and individual information of the 3D information shown in FIG. 12C are stored in different areas.
  • FIG. 13B shows a file format when the common information and individual information of the 3D information shown in FIG. 12D are stored in different areas.
  • 3D information is inserted into the CIPA standard “CIPA DC-006 digital still camera stereo still image format” or “CIPA DC-007 multi-picture format” as a file format for recording still images. Also good. Although the case where the arrangement order of the left and right images and the storage order in the file are fixed has been described, the order may be variable. If variable, the order information may be recorded in the 3D information.
  • step S14 of FIG. 6 it is determined whether the left-eye image data and the right-eye image data input to the stereoscopic image data creation device 1 are the last frame data. If not, return to Step S2. In step S15, the stereoscopic image data creation device 1 ends the process because there is no input of image data.
  • the stereoscopic image data creation device 1 uses, as the stereoscopic image data, the first maximum parallax, the first parallax information including the first minimum parallax, the second maximum parallax, and the second maximum parallax.
  • Multiplexed data including the information and the second disparity information actually generated can be created.
  • the example in which the 3D information and the compressed image data created by the image compression encoding unit 4 are multiplexed has been described.
  • the image compression encoding unit 4 is omitted, and the input left-eye image data and the right eye image data are displayed. It is also possible to multiplex uncompressed image data used as it is and 3D information without compressing the image data for use.
  • the first maximum parallax, the second maximum parallax, the first minimum parallax, and the second minimum parallax are recorded. However, at least one of these parallaxes is recorded. Only the above maximum parallax or minimum parallax may be recorded.
  • the parallax record indicating whether or not the value is recorded in the 3D information for each of the first maximum parallax, the second maximum parallax, the first minimum parallax, and the second minimum parallax.
  • the availability flag may be recorded in the 3D information.
  • the value is recorded in the 3D information according to the value of the parallax record enable / disable flag. Only the parallax set to be recorded is recorded in the 3D information.
  • FIG. 14 is a block diagram showing a schematic configuration of the stereoscopic image data reproducing apparatus according to the first embodiment of the present invention.
  • a stereoscopic image data reproducing apparatus 100 includes a demultiplexing unit 101 that separates multiplexed data, a 3D information analyzing unit 102 that analyzes 3D information, and an image decoding unit 103 that decodes compression-encoded compressed image data.
  • the 3D information analyzing unit 102 and the stereoscopic intensity converting unit 104 that generates a 3D video based on input data from the image decoding unit 103 are configured.
  • the operation of the stereoscopic image data reproducing apparatus 100 configured as described above will be described.
  • the demultiplexing means 101 reads multiplexed data multiplexed in a predetermined format from a recording device or communication device, and separates it into compressed image data and 3D information. Although not shown in FIG. 14, when voice and music are multiplexed, those data are also separated by the demultiplexing means 101.
  • an IC memory is connected to the demultiplexing means 101.
  • an image file is recorded in the IC memory in an existing format or a new format. Since the existing format and the new format can be distinguished by the extension of the file, when the file to be reproduced is the file of the existing format shown in FIG. 11A, 3D information is read from the extension area of the file header. In the case of the new format shown in FIG. 11B, 3D information is read from the beginning of the file.
  • the 3D information analysis unit 102 analyzes the 3D information, and displays the parallax target image information, the parallax unit information, the first maximum parallax, the second maximum parallax, the first minimum parallax, the second minimum parallax, and the assumed display size. Are extracted and output to the solid intensity conversion means 104.
  • the image decoding unit 103 decodes the input compressed image data and outputs the decoded image data to the three-dimensional intensity conversion unit 104.
  • the three-dimensional intensity conversion means 104 includes parallax target image information, parallax unit information, first maximum parallax, second maximum parallax, first minimum parallax, second minimum parallax, assumed display size, and decoded image. Decoded image using parallax target image information, parallax unit information, first maximum parallax, second maximum parallax, first minimum parallax, second minimum parallax, and assumed display size with data as input A three-dimensional image in which parallax is adjusted for data is created and output to an external display device.
  • the parallax may be adjusted using the first parallax information obtained from the mechanical information of the camera and the second parallax information actually generated by stereo matching or the like.
  • the second maximum parallax is The first maximum parallax is used without using the second maximum parallax.
  • the magnitude of the first maximum parallax is obtained from the first maximum parallax, the assumed display size, and the parallax unit information, and the parallax is adjusted so that this value does not exceed the width of the human eye.
  • the width of the human eye at this time is 5 cm in consideration of the infant's eye width as described in Non-Patent Document 1.
  • the stereoscopic intensity converting means 104 determines that it is inappropriate to stereoscopically view this image, and the second minimum parallax
  • the parallax adjustment may be performed by shifting the entire screen to the left or right so as to be larger than the first minimum parallax, or the parallax adjustment may be performed by reducing and displaying a stereoscopic image.
  • the stereoscopic display may be stopped and displayed in 2D, or the 3D display may be performed by performing 2D-3D conversion using the image of one eye.
  • the magnitude of the second maximum parallax is compared with the first maximum parallax, and when the second maximum parallax is smaller than the first maximum parallax, The parallax may be adjusted based on the value.
  • the magnitude of the first minimum parallax and the second minimum parallax are compared, and when the second minimum parallax is larger than the first minimum parallax, the second minimum parallax The parallax may be adjusted based on the value.
  • the parallax adjustment is calculated with the assumed display size
  • the display size to be displayed is different from the assumed display size
  • the viewing distance at this time is assumed to be viewed at an assumed display size or three times the height of the actual display size.
  • the parallax is adjusted using all of the first maximum parallax, the second maximum parallax, the first minimum parallax, and the second minimum parallax.
  • the parallax may be adjusted using at least one or more maximum parallaxes or minimum parallaxes.
  • the parallax may be adjusted using at least one or more maximum parallaxes or minimum parallaxes.
  • the image decoding means 103 does not perform any decoding process and is input.
  • the uncompressed image data may be output as it is instead of the decoded image data.
  • the first disparity information and the second disparity information are obtained by the system configured by the stereoscopic image data creation device 1 and the stereoscopic image data reproduction device 100 according to the first embodiment of the present invention. By using the appropriate parallax adjustment, a safer and more comfortable stereoscopic display can be realized.
  • the present invention can also be applied to a so-called multi-viewpoint having three or more viewpoints.
  • the number of images input to the stereoscopic image data creation device is n viewpoints or more (n is an integer of 3 or more).
  • FIG. 15 is a block diagram showing a schematic configuration of a stereoscopic image data creation device according to the second embodiment of the present invention.
  • the stereoscopic image data creation apparatus 200 includes a parallax calculation unit 201, a 3D information creation unit 3, an image compression encoding unit 4, and a multiplexing unit 202.
  • the parallax calculation unit 201 receives the camera mechanism information and the n-viewpoint image data as input, and obtains the first parallax information obtained by geometric calculation from the camera mechanism information and the two-viewpoint image data from the n-viewpoint image data.
  • the corresponding point search is performed using the selected two-viewpoint image data, the calculated second disparity information, the disparity calculation viewpoint information indicating from which viewpoint image the disparity is calculated, and the n-viewpoint image Output data.
  • the 3D information creation unit 3 receives the parallax calculation viewpoint information, the first parallax information, and the second parallax information as input, and inputs the parallax calculation viewpoint information, the first parallax information, and the second parallax information. 3D information is created and output.
  • the image compression encoding means 4 receives n viewpoint image data as input, performs compression encoding on the input n viewpoint image data, creates compressed image data, and outputs the compressed image data.
  • the multiplexing unit 202 receives the 3D information created by the 3D information creation unit 3 and the compressed image data created by the image compression encoding unit 4 as input, multiplexes the inputted 3D information and the compressed image data, and multiplexes them. Create and output data.
  • the 3D information generation unit 3 and the image compression encoding unit 4 are the same as those in the first embodiment, and thus description thereof is omitted here.
  • the operations of the calculation unit 201 and the multiplexing unit 202 will be described respectively.
  • FIG. 16 is a block diagram showing a schematic configuration of the parallax calculation means of the stereoscopic image data creation device according to the second embodiment of the present invention.
  • the parallax calculation unit 201 includes a mechanism parallax calculation unit 30, an image selection unit 204, a stereo matching unit 31, a parallax correction unit 32, and an image cutout unit 205.
  • the parallax calculation unit 201 in FIG. 16 is a unit obtained by extending the parallax calculation unit 2 in FIG. 7 to input an n-viewpoint image.
  • the mechanism parallax calculation unit 30, the stereo matching unit 31, and the parallax correction unit 32 are the same as those in the first embodiment, and thus description thereof is omitted here.
  • n-viewpoint image data is input to the image selection unit 204, and the image selection unit 204 selects and outputs 2-viewpoint image data from the input n-viewpoint image data.
  • the image data of the two viewpoints to be selected an image that is a combination of viewpoints consistent with the camera mechanism information is selected.
  • the camera mechanism information is information from cameras of adjacent viewpoints
  • the camera mechanism information may be selected from any combination of viewpoint cameras corresponding to the information.
  • the parallax calculation unit 201 outputs information about the selected viewpoint image data to the 3D creation information unit 3 as parallax calculation viewpoint information.
  • the image selecting means 204 may select a plurality of combinations of viewpoints that are consistent with the camera mechanism information. In that case, the stereo matching means 31 may obtain parallax for each of a plurality of combinations, and among them, the largest parallax may be output.
  • the n-viewpoint image data is input to the image cutout unit 205, and the image cutout unit 205 shifts the parallax amount specified by the parallax correction unit 32 with respect to the input n-viewpoint image data, Each image cut out is output as n-viewpoint image data.
  • the parallax is shifted, the parallax is changed by the same amount with respect to all the viewpoint image data of n viewpoints so that the same amount of shifting is obtained in each of the adjacent combinations of the viewpoint image data of n viewpoints.
  • the image may be cut out, or the parallax shift may be performed only by a combination of two viewpoint image data indicated by the parallax calculation viewpoint information.
  • FIG. 17 is a diagram showing an example of a file format for recording multiplexed data created from n viewpoint image data created by the stereoscopic image data creation device 200.
  • the viewpoint image information is information regarding one viewpoint image data, and includes a file header, 3D information extracted from each viewpoint image data, management information regarding each viewpoint image data, and viewpoint image data.
  • FIG. 17A shows an example in which n viewpoint image information is stored as one file by concatenating from the head of the file.
  • FIG. 17B from the 3D information held for each of n pieces of viewpoint image information, common information is separately separated into one piece as common 3D information and stored at the beginning of the file.
  • the management information of the entire file and the n pieces of linked viewpoint image information are stored.
  • the stereoscopic image data generation device 200 uses the first maximum parallax, the first parallax information including the first minimum parallax, the second maximum parallax, and the second maximum parallax as the stereoscopic image data.
  • the second parallax information composed of the minimum parallax, the 3D information including the parallax calculation viewpoint information, and the multiplexed data including the compressed image data obtained by compressing the viewpoint image data of the n viewpoints the mechanical information of the camera Creating multiplexed data corresponding to the viewpoint image data of n viewpoints including the first disparity information that becomes the maximum disparity information obtained from the above and the second disparity information that is actually generated Can do.
  • the stereoscopic image data reproduction device 300 for stereoscopically displaying the image data created by the stereoscopic image data creation device 200 as a three-dimensional image will be described.
  • FIG. 18 is a block diagram showing a schematic configuration of a stereoscopic image data reproducing device according to the second embodiment of the present invention.
  • a stereoscopic image data reproducing apparatus 300 includes a demultiplexing unit 101 that separates multiplexed data, a 3D information analyzing unit 102 that analyzes 3D information, and an image decoding unit 103 that decodes compressed and encoded compressed image data.
  • the 3D information analyzing unit 102 and the stereoscopic intensity converting unit 301 that generates a 3D video based on input data from the image decoding unit 103 are configured.
  • the demultiplexing unit 101, the 3D information analysis unit 102, and the image decoding unit 103 are the same as those in the first embodiment, and therefore here.
  • the operation of the three-dimensional intensity conversion means 301 will be described below.
  • the 3D intensity conversion unit 301 analyzes the parallax target image information, the parallax unit information, the first maximum parallax, the second maximum parallax, and the first minimum as 3D information analyzed and extracted by the 3D information analysis unit 102.
  • the parallax, the second minimum parallax, the assumed display size, and the viewpoint image data of n viewpoints decoded by the image decoding unit 103 are input.
  • two viewpoint image data indicated by the parallax target image information is selected from the input viewpoint images of n viewpoints, and the selected image data is subjected to the same process as the three-dimensional intensity conversion unit 104.
  • the parallax adjustment is performed on the selected image data using the parallax unit information, the first maximum parallax, the second maximum parallax, the first minimum parallax, the second minimum parallax, and the assumed display size. Create and output a dimension time image. At this time, the three-dimensional intensity conversion unit 301 may shift the parallax by the same amount with respect to other adjacent viewpoint images not selected above.
  • the first disparity information and the second disparity information are obtained by the system configured by the stereoscopic image data creation device 200 and the stereoscopic image data reproduction device 300 according to the second embodiment of the present invention.
  • the present invention is also applicable to a case where a monocular imaging device is equipped with an adapter for stereoscopic photography.
  • Stereoscopic adapters include a stereo adapter for capturing left and right eye images on one screen and an adapter for capturing a plurality of viewpoint images on one screen.
  • the parallax calculation unit 2 and the parallax calculation unit 201 calculate the parallax by separating two images necessary for the calculation of the parallax and output them as a single image as they are, or separate them into individual viewpoints. And output to the image compression encoding means 4 in a form matching the format of the desired compressed image data.
  • description thereof will be omitted.
  • the stereoscopic image data creation device can obtain the maximum value of the parallax geometrically determined from the mechanism of the imaging means.
  • the first maximum parallax, the first minimum parallax that is within the predetermined parallax range and located at the closest distance from the imaging unit, and the maximum parallax of the stereoscopic image from the mechanism of the imaging unit Using the second maximum parallax as a value and the second minimum parallax as the minimum parallax of a stereoscopic image, the 3D information is created as 3D information and a plurality of image data constituting the stereoscopic image data
  • the multiplexed data is generated and transmitted, and the multiplexed data is received and demultiplexed by the stereoscopic image data reproducing device, and decoded from 3D information, and the first minimum parallax and the first minimum Visual
  • the first parallax information and the second parallax information are recorded and reproduced as 3D information, thereby using the parallax limit value by the camera mechanism and the actual parallax value.
  • the parallax can be adjusted, the first maximum parallax and the second maximum parallax can be compared, the first minimum parallax and the second minimum parallax can be adjusted. By comparison, it is possible to obtain an advantageous effect that it is possible to determine whether or not the values of the second maximum parallax and the minimum parallax are appropriate.
  • the present invention when displaying stereoscopic image data on a large screen, etc., by using the parallax limit value by the mechanism of the camera, by adjusting the strength of the stereoscopic effect by shifting the parallax, etc.
  • the advantageous effect that a safe three-dimensional effect can be adjusted is obtained.
  • the first maximum parallax, the second maximum parallax, the first minimum parallax, and the second minimum parallax are converted into metadata, thereby generating image data for three-dimensional display.
  • the examples are illustrative in all respects and should not be considered as restrictive.
  • the stereoscopic image data creation device, the stereoscopic image data playback device, and the file management method have been illustrated.
  • a 3D video signal can be created or played back. It is not limited to a device.
  • the present invention provides a 3D digital camera, a 3D digital movie, a 3D television, a digital video recorder, a portable movie player, a mobile phone, a car navigation system, as well as a stereoscopic image data creation device, a stereoscopic image data reproduction device, and a file management method.
  • the present invention can be widely applied to devices that can output or display 3D video signals such as portable DVD players and PCs.
  • the stereoscopic image data creation device, the stereoscopic image data reproduction device, and the file management method according to the present invention provide a parallax adjustment value according to the display size and a parallax limit of the stereoscopic image and a parallax of the stereoscopic image when displaying a stereoscopic image.
  • the present invention relates to a stereoscopic image data creation device, a stereoscopic image data reproduction device, and a file management method that can perform parallax adjustment with higher safety, reliability, and higher degree of freedom.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

 従来の方式では、3次元画像とともに伝送される最大視差と最小視差がそれぞれ1種類しかないため、安全、かつ、自由度の高い立体表示を行うことができなかった。本発明に係る立体画像データ作成装置、立体画像データ再生装置、及びファイル管理方法は、複数の視点の各々に対応した複数の画像データと、撮像手段の機構から幾何学的に求められる視差の最大値である第1の最大視差と、撮像手段の機構から適切な視差範囲の限界となる撮像手段から最も近い距離の被写体位置における視差を示す第1の最小視差と、立体画像の実際に発生している視差の最大値となる第2の最大視差と、立体画像の実際に発生している視差の最小値となる第2の最小視差を含む3D情報を多重化して、1つの立体画像データとして取り扱い、前記3D情報を用いて、視差の調整や、立体での表示の可否等を判定することにより、より安全で快適な立体表示を行うことを特徴としている。

Description

立体画像データ作成装置、立体画像データ再生装置、及びファイル管理方法
 本発明は、3次元表示するための画像データを作成する際に、画像データに属性情報を付随させる立体画像データ作成装置、立体画像データ再生装置、及びファイル管理方法に関する。
 従来、3次元画像を表示するための様々な方法が提案されてきた。その中でも一般的に用いられているのは、両眼視差を利用する「2眼式」と呼ばれるものである。この方式は、両眼視差を持った左目用の画像と右目用の画像を用意し、それぞれ独立に左右の目に投影することにより立体視を行うことができる。以下の説明では、前記記載のそれぞれ画像を、左目用画像、右目用画像と称する。また、3Dは3次元または立体を、2Dは2次元を意味する用語としてそれぞれ用いることとし、立体視用の画像データを3D画像データ、通常の2次元画像データを2D画像データと称する。
 尚、非特許文献1には、両眼視差を用いた3D画像を作成するための安全ガイドラインが記載されている。両眼視差を用いた3D画像では、立体の飛び出し感、奥行き感は視差の調整で制御できるが、同じ視差でも瞳孔間間隔の狭い人や子供は立体感を強く感じる。また、ディスプレイの後方に表示する場合は、両眼は左右には開かないため、ディスプレイ上で両眼瞳孔間間隔を超える視差がつくことは可能な限り避ける必要がある。このため、安全ガイドラインでは、瞳孔間隔の調査結果より、6歳児の瞳孔間間隔が5cm程度であり、安全を考慮してこれを子供の代表値としている。
 ここで、2眼式の代表的な方式としてフレームシーケンシャル方式や視差バリア方式等が提案されており、その概念図に基づいて以下詳述する。
 図19は、フレームシーケンシャル方式を説明するための概念図である。一般的に、フレームシーケンシャル方式は、高速に画像フレームを切り替えて表示するディスプレイと、ディスプレイの表示に同期して、メガネのレンズシャッターを制御し、左右のレンズを交互に開閉することが可能なアクティブ・シャッターメガネから構成されている。図19において、ディスプレイ上に、左目用画像400と、右目用画像401が時間的に交互に高速で表示される。このタイミングに合わせ、アクティブ・シャッターメガネ402は、左目用画像400が表示される際は、左目用のレンズシャッター403が、光が透過するように、右目用のレンズシャッター404が、光を遮断するように、それぞれ制御する。逆に、右目用画像401が表示される際は、右目用のレンズシャッター404が、光が透過するように、左目用のレンズシャッター403が、光を遮断するように、それぞれ制御する。こうすることにより、時分割で左右の目に、それぞれの目の視差に合わせた映像を表示することにより、観察者は立体映像を観察することができる。
 また、図20は、視差バリア方式を説明するための概念図である。図20(a)は、視差が生じる原理を示す図である。一方、図20(b)は、パララクスバリア方式で表示される画面の例を示す図である。図20(a)に示す構成では、図20(b)に示すような左目用画像と右目用画像とが水平方向において1画素おきに交互に並んだ構成で配置された画像を、画像表示パネル410に表示し、同一視点の画素の間隔よりも狭い間隔でスリットを持つパララクスバリア411を画像表示パネル410の前面の視点側に設置することにより、左目用画像は左目412のみで、右目用画像は右目413のみで観察することができ、立体視することが可能となる。
 更に、特許文献1には、図21で示すように、撮像装置501と撮像装置502で撮影された2枚のステレオペアを構成する原画像と共に、撮影時に撮像装置に最も近い位置505にある物体503の視差である撮像機構の最大視差と、撮影時に撮像装置に最も遠い位置506にある物体504がもつ撮像機構の最小視差を、視差範囲として送信装置側で記録し、送信装置は、前記原画像と共に視差範囲を受信装置に送信し、受信装置側で、これらの視差を再スケーリングして、立体ディスプレイで表示することにより、送信された3次元画像が立体表示される位置を、視聴者が快適に立体映像を視聴できるような視空間に再マッピングする方法が開示されている。また、送信装置側から、原画像と共に送信される視差範囲は、前記原画像から対応点検索により送信装置側で求めた最大視差値と最小視差値を用いても良いことが開示されている。
特表2009-516447号公報
"3DC安全ガイドライン"、[online]、平成22年4月20日、3Dコンソーシアム安全ガイドライン部会、[平成22年9月15日検索]、インターネット〈URL:http://www.3dc.gr.jp/jp/scmt_wg_rep/3dc_guideJ_20100420.pdf〉
 しかしながら、上記特許文献1の方式では、送信装置側から受信装置側に、原画像データと共に視差範囲の最大視差値と最小視差値を一組として送信し、受信装置側では、受信した視差範囲の一組の最大視差値および最小視差値に応じて、再マッピングして表示画像を作成している。このような方式では、送信する最大視差と最小視差の値がそれぞれ1種類のみとなるため、受信装置が対応点検索による最大視差と最小視差のみを受信した場合、もしこれらの値に誤差を含んでいれば、この視差の範囲を元にして視差の調整を行うと、不適切な視差で表示する可能性が生じるという問題があった。
 また、逆に、撮像機構情報のみを受信し、受信した撮像機構情報から算出した最大視差と最小視差を元に視差調整を行った場合、機構的にそれ以上の視差範囲に収まるため、安全ではあるが、調整可能な視差の範囲が少なくなり、立体表示する立体映像の呈示位置の変更に自由度がなくなってしまうという問題があった。
 更に、撮影された立体映像の実際の視差の値によっては、調整を行いたいのとは逆の方向に視差が変わり、意図した視差調整と逆の調整を行ってしまうような可能性も生じてしまうという問題があった。
 本発明は、以上のような問題点を解決するためになされたものであって、その目的は、3次元表示のための画像データに汎用性を持たせるとともに、再生装置側でより安全で快適な視差をもつ立体映像の呈示が可能となる立体画像データ作成装置、立体画像データ再生装置、及びファイル管理方法を提供することにある。
 本発明にかかる立体画像データ作成装置は、複数の視点の各々に対応した複数の画像データから、所定のファイル形式の画像データを作成する立体画像データ作成装置において、撮像手段の機構から幾何学的に求められる視差の最大値である第1の最大視差と、撮像手段の機構から所定の視差範囲内に収まり、かつ、撮像手段から最も近い距離の位置における視差である第1の最小視差と、立体画像の左目画像と右目画像の視差の最大値となる第2の最大視差と、立体画像の左目画像と右目画像の視差の最小値となる第2の最小視差とを入力とし、入力された前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差のうち、少なくとも一つ以上の最大視差、または最小視差を用いて3D情報を作成し出力する3D情報作成手段と、前記3D情報と、前記画像データを多重化し、所定のファイル形式の立体画像データを作成する多重化手段とを備えることを特徴とする。
 また、本発明にかかる立体画像データ作成装置は、複数の視点の各々に対応した複数の画像データから、所定のファイル形式の画像データを作成する立体画像データ作成装置において、撮像手段の機構から幾何学的に求められる視差の最大値である第1の最大視差と、撮像手段の機構から所定の視差範囲内に収まり、かつ、撮像手段から最も近い距離の位置における視差である第1の最小視差と、立体画像の左目画像と右目画像の視差の最大値となる第2の最大視差と、立体画像の左目画像と右目画像の視差の最小値となる第2の最小視差とを入力とし、入力された前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差のうち、少なくとも一つ以上の最大視差、または最小視差を用いて3D情報を作成し出力する3D情報作成手段と、入力された前記複数の画像データに対して圧縮符号化を行い、圧縮画像データを出力する画像圧縮符号化手段と、前記3D情報と、前記圧縮画像データを多重化し、所定のファイル形式の立体画像データを作成する多重化手段とを備えることを特徴とする。
 さらには、前記所定のファイル形式の立体画像データには、前記複数の視点として3個以上のn個の視点の前記画像データを含むことを特徴とする。
 さらには、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差から3D情報を作成する場合に、前記3D情報作成手段は、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差に対する単位を示す視差単位情報を生成し、前記所定のファイル形式の立体画像データは、前記視差単位情報を含むことを特徴とする。
 また、前記視差単位情報は、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差の単位が、ピクセル単位、サブピクセル単位、長さ、距離の単位、または、画像全体の横幅に対するパーセンテージのいずれかであることを特徴とする。
 さらには、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差から3D情報を作成する場合に、前記3D情報作成手段は、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差が、前記複数の画像データのうち、どの2つの視点画像データの組み合わせによって求められたものかを示す視差対象画像情報を生成し、前記所定のファイル形式の立体画像データは、前記視視差対象画像情報を含むことを特徴とする。
 また、本発明にかかる立体画像データ作成装置は、所定のファイル形式の画像データから、複数の視点の各々に対応した複数の画像データを再生する立体画像データ再生装置において、前記ファイル形式から、撮像手段の機構から幾何学的に求められる視差の最大値である第1の最大視差と、立体画像の左目画像と右目画像の視差の最大値となる第2の最大視差と、撮像手段の機構から所定の視差範囲内に収まり、かつ、撮像手段から最も近い距離の位置における視差である第1の最小視差と、立体画像の左目画像と右目画像の視差の最小値となる第2の最小視差のうち、少なくとも一つ以上の最大視差、または最小視差を示す3D情報と、画像データとを分離する逆多重化手段と、前記3D情報を解析する3D情報解析手段と、前記画像データに対して、視差の調整を行う立体強度変換手段を備え、前記3D情報解析手段は、前記3D情報を解析し、前記立体強度変換手段は、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差のうち、少なくとも一つ以上の最大視差、または最小視差を用いて、前記画像データの視差を調整して、再生することを特徴とする。
 また、本発明にかかる立体画像データ再生装置は、所定のファイル形式の画像データから、複数の視点の各々に対応した複数の画像データを再生する立体画像データ再生装置において、前記ファイル形式から、撮像手段の機構から幾何学的に求められる視差の最大値である第1の最大視差と、立体画像の左目画像と右目画像の視差の最大値となる第2の最大視差と、撮像手段の機構から所定の視差範囲内に収まり、かつ、撮像手段から最も近い距離の位置における視差である第1の最小視差と、立体画像の左目画像と右目画像の視差の最小値となる第2の最小視差のうち、少なくとも一つ以上の最大視差、または最小視差を示す3D情報と、圧縮画像データとを分離する逆多重化手段と、前記3D情報を解析する3D情報解析手段と、前記圧縮画像データを復号する画像復号手段と、前記圧縮画像データが復号された画像データに対して、視差の調整を行う立体強度変換手段を備え、前記3D情報解析手段は、前記3D情報を解析し、前記立体強度変換手段は、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差のうち、少なくとも一つ以上の最大視差、または最小視差を用いて、前記画像データの視差を調整して、再生することを特徴とする。
 さらには、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差を示す情報を解析する場合に、前記3D情報解析手段は、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差に対する単位を示す視差単位情報を解析し、解析した前記視差単位情報を用いて、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差を示す情報を解析することを特徴とする。
 また、前記3D情報には、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差が、前記複数の画像データのうち、どの2つの視点画像データの組み合わせによって求められたものかを示す視差対象画像情報を含み、前記3D情報解析手段が、前記視差対象画像情報を解析し、前記立体強度変換手段は、前記視差対象画像情報の示す前記画像データに対して、視差の調整を行うことを特徴とする。
 また、前記画像データに対して視差の調整を行う場合に、前記立体強度変換手段は、前記第1の最大視差と、前記第2の最大視差の大きさを比較し、前記第2の最大視差が、前記第1の最大視差よりも大きい場合に、前記第2の最大視差の値が不適切であると判断し、前記第1の最大視差に基づいて、視差の調整を行うことを特徴とする。
 好ましくは、前記画像データに対して視差の調整を行う場合に、前記立体強度変換手段は、前記第1の最小視差と、前記第2の最小視差の大きさを比較し、前記第2の最小視差が、前記第1の最小視差よりも小さい場合に、前記第1の最小視差が、前記第2の最小視差の値になるように視差の調整を行うことを特徴とする。
 好ましくは、前記画像データに対して視差の調整を行う場合に、前記立体強度変換手段は、前記第1の最小視差と、前記第2の最小視差の大きさを比較し、前記第2の最小視差が、前記第1の最小視差よりも小さい場合に、前記第1の最小視差が、前記第2の最小視差の値になるように、前記画像データを縮小表示することを特徴とする。
 好ましくは、前記画像データに対して視差の調整を行う場合に、前記立体強度変換手段は、前記第1の最小視差と、前記第2の最小視差の大きさを比較し、前記第2の最小視差が、前記第1の最小視差よりも小さい場合に、前記第2の最小視差の値が不適切であると判断し、立体表示をやめ、2Dで表示する、または、1つの視点の画像データに対して、2D-3D変換を行い、3D表示を行うことを特徴とする。
 好ましくは、前記画像データに対して視差の調整を行う場合に、前記立体強度変換手段は、前記第1の最小視差と、前記第2の最小視差の大きさを比較し、前記第2の最小視差が、前記第1の最小視差よりも小さい場合に、前記第2の最小視差の値が不適切であると判断し、前記画像データのうち、いずれか1つの視点の画像データに対して、2D-3D変換を行い、3D表示を行うことを特徴とする。
 好ましくは、前記画像データに対して視差の調整を行う場合に、前記立体強度変換手段は、前記第1の最大視差と、前記第2の最大視差の大きさを比較し、前記第2の最大視差が、前記第1の最大視差よりも小さい場合に、前記第2の最大視差の値に基づいて、視差の調整を行うことを特徴とする。
 好ましくは、前記画像データに対して視差の調整を行う場合に、前記立体強度変換手段は、前記第1の最小視差と、前記第2の最小視差の大きさを比較し、前記第2の最小視差が、前記第1の最小視差よりも大きい場合に、前記第2の最小視差の値に基づいて、視差の調整を行うことを特徴とする。
 好ましくは、前記3D情報解析手段は、前記視差対象画像情報を解析し、前記立体強度変換手段は、前記視差対象画像情報の示す前記画像データに対して、視差の調整を行うことを特徴とする。
 本発明にかかる立体画像ファイル管理方法は、立体表示のための属性情報である3D情報を画像データと共に管理するファイル管理方法であって、前記3D情報は、視点画像の組み合わせを示す視差対象画像情報と、第1及び第2の最大視差と第1及び第2の最小視差の単位を示す視差単位情報と、第1の最大視差と、第2の最大視差と、第1の最小視差と、第2の最小視差と、前記画像データを立体表示するディスプレイのサイズを示す想定ディスプレイサイズとにより構成されることを特徴とする。
 さらには、前記3D情報は、第1及び第2の最大視差と第1及び第2の最小視差のそれぞれの視差情報が、前記3D情報に記録されているかどうかを示す視差記録可否フラグを含むことを特徴とする。
 また、管理される1つのファイルは、ファイルヘッダと、前記3D情報と、3次元画像と直接関係ない情報の記録に使用する管理情報と、前記画像データとで構成され、前記ファイルヘッダ、前記3D情報、前記管理情報、前記画像データは、前記ファイルの先頭より、前記ファイルヘッダ、前記3D情報、前記管理情報、前記画像データの順番で配置されることを特徴とする。
 また、管理される1つのファイルは、前記3D情報と、3次元画像と直接関係ない情報の記録に使用する管理情報と、ファイルヘッダと、前記画像データとで構成され、前記3D情報、前記管理情報、前記ファイルヘッダ、前記画像データは、前記ファイルの先頭より、前記3D情報、前記管理情報、前記ファイルヘッダ、前記画像データの順番で配置されることを特徴とする。
 また、前記画像データは、左目用画像データと右目用画像データとの両方で構成されることを特徴とする。
 好ましくは、管理される第一のファイルの前記画像データは、左目用画像データであって、管理される第二のファイルの前記画像データは、右目用画像データであって、前記第一のファイルと前記第二のファイルは、3D画像を形成する左目及び右目用の画像データの組であり、同一の専用フォルダにて管理されることを特徴とする。
 好ましくは、管理される第一のファイルの前記画像データは、左目用画像データであって、管理される第二のファイルの前記画像データは、右目用画像データであって、前記第一のファイルと前記第二のファイルは、3D画像を形成する左目及び右目用の画像データの組であり、他の画像データの組と判別するため、ファイル名に指標を設けて管理されることを特徴とする。
 好ましくは、管理される第一のファイルの前記画像データは、左目用画像データであって、管理される第二のファイルの前記画像データは、右目用画像データであって、管理される第三のファイルは、前記第一のファイルと前記第二のファイルが、3D画像を形成する左目及び右目用の画像データの組であることを示す3D管理情報を格納する3D管理情報ファイルであることを特徴とする。
 好ましくは、前記3D管理情報ファイルは、メタファイルであり、3D画像を形成する左目及び右目用の画像データの組を示す前記第一のファイル名と前記第二のファイル名を前記メタファイルに記載し管理することを特徴とする。
 好ましくは、管理される1つのファイルは、第1のファイルヘッダと、第1の3D情報と、第1の管理情報と、第1の画像データと、第2のファイルヘッダと、第2の3D情報と、第2の管理情報と、第2の画像データとで構成され、前記第1のファイルヘッダ、前記第1の3D情報、前記第1の管理情報、前記第1の画像データ、前記第2のファイルヘッダ、前記第2の3D情報、前記第2の管理情報、前記第2の画像データは、前記ファイルの先頭より、前記第1のファイルヘッダ、前記第1の3D情報、前記第1の管理情報、前記第1の画像データ、前記第2のファイルヘッダ、前記第2の3D情報、前記第2の管理情報、前記第2の画像データの順番で配置され、前記第1の画像データと前記第2の画像データは、3D画像を形成する左目及び右目用の画像データの組であることを特徴とする。
 好ましくは、管理される1つのファイルは、ファイルヘッダと、第1の3D情報と、第1の管理情報と、第1の画像データと、第2の3D情報と、第2の管理情報と、第2の画像データとで構成され、前記ファイルヘッダ、前記第1の3D情報、前記第1の管理情報、前記第1の画像データ、前記第2の3D情報、前記第2の管理情報、前記第2の画像データは、前記ファイルの先頭より、前記ファイルヘッダ、前記第1の3D情報、前記第1の管理情報、前記第1の画像データ、前記第2の3D情報、前記第2の管理情報、前記第2の画像データの順番で配置され、前記第1の画像データと前記第2の画像データは、3D画像を形成する左目及び右目用の画像データの組であることを特徴とする。
 好ましくは、管理される1つのファイルは、第3の3D情報と、第3の管理情報と、第1のファイルヘッダと、第1の3D情報と、第1の管理情報と、第1の画像データと、第2のファイルヘッダと、第2の3D情報と、第2の管理情報と、第2の画像データとで構成され、前記第3の3D情報、前記第3の管理情報、前記第1のファイルヘッダ、前記第1の3D情報、前記第1の管理情報、前記第1の画像データ、前記第2のファイルヘッダ、前記第2の3D情報、前記第2の管理情報、前記第2の画像データは、前記ファイルの先頭より、前記第3の3D情報、前記第3の管理情報、前記第1のファイルヘッダ、前記第1の3D情報、前記第1の管理情報、前記第1の画像データ、前記第2のファイルヘッダ、前記第2の3D情報、前記第2の管理情報、前記第2の画像データの順番で配置され、前記第1の画像データと前記第2の画像データは、3D画像を形成する左目及び右目用の画像データの組であり、前記第3の3D情報は、前記第1及び第2の画像データの共通部分の3D情報を含み、前記第1の3D情報は、前記第1の画像データの個別の3D情報を含み、前記第2の3D情報は、前記第2の画像データの個別の3D情報を含むことを特徴とする。
 好ましくは、管理される1つのファイルは、第3の3D情報と、第3の管理情報と、ファイルヘッダと、第1の3D情報と、第1の管理情報と、第1の画像データと、第2の3D情報と、第2の管理情報と、第2の画像データとで構成され、前記第3の3D情報、前記第3の管理情報、前記ファイルヘッダ、前記第1の3D情報、前記第1の管理情報、前記第1の画像データ、前記第2の3D情報、前記第2の管理情報、前記第2の画像データは、前記ファイルの先頭より前記第3の3D情報、前記第3の管理情報、前記ファイルヘッダ、前記第1の3D情報、前記第1の管理情報、前記第1の画像データ、前記第2の3D情報、前記第2の管理情報、前記第2の画像データの順番で配置され、前記第1の画像データと前記第2の画像データは、3D画像を形成する左目及び右目用の画像データの組であり、前記第3の3D情報は、前記第1及び第2の画像データの共通部分の3D情報を含み、前記第1の3D情報は、前記第1の画像データの個別の3D情報を含み、前記第2の3D情報は、前記第2の画像データの個別の3D情報を含むことを特徴とする。
 好ましくは、管理される1つのファイルは、異なる視点画像データ毎に作成されたファイルヘッダ、3D情報、管理情報、及び視点画像データとで構成される視点画像情報を複数含み、複数の異なる前記視点画像情報は、前記ファイルの先頭より前記ファイルヘッダ、前記3D情報、前記管理情報、前記視点画像データの順番で複数繰り返し配置されることを特徴とする。
 好ましくは、管理される1つのファイルは、複数の視点画像データ毎に作成される複数の前記視点画像情報の3D情報の共通情報と、ファイル全体の管理情報と、複数の視点画像データ毎に作成された複数の前記視点画像情報を格納し、前記3D情報の共通情報、前記ファイル全体の管理情報、前記複数の視点画像情報は、前記ファイルの先頭より前記3D情報の共通情報、前記ファイル全体の管理情報、前記複数の視点画像情報の順番で配置され、複数の視点画像データ毎に作成される前記視点画像情報の3D情報には、各視点画像データ毎に作成された個別の3D情報を含むことを特徴とする。
 本発明の立体画像データ作成装置、立体画像データ再生装置、及びファイル管理方法によれば、表示するディスプレイサイズに合わせた視差調整を、より自由度を高く、かつ、安全で適切に行うことができる。
本発明の第1の実施の形態による立体画像データ作成装置の概略構成を示すブロック図である。 立体画像の視差を説明する図である。 平行法での立体撮影について説明する図である。 平行法での立体撮影画像の一例である。 交差法での立体撮影について説明する図である。 本発明の第1の実施の形態による立体画像データ作成装置の動作についてのフローチャート図である。 本発明の第1の実施の形態による立体画像データ作成装置の視差算出手段の概略構成を示すブロック図である。 視差ずらしを行う前の左目用画像データと、右目用画像データの一例である。 視差ずらしを行った後の左目用画像データと、右目用画像データの一例である。 3D情報の一例を示す図である。 多重化データを記録するファイル形式の一例を示す図である。 多重化データを記録する際に、既存のファイル形式を用いた場合の一例を示す図である。 多重化データを記録する際に、新規のファイル形式を用いた場合の一例を示す図である。 本発明の第1の実施の形態による立体画像データ再生装置の概略構成を示すブロック図である。 本発明の第2の実施の形態による立体画像データ作成装置の概略構成を示すブロック図である。 本発明の第2の実施の形態による立体画像データ作成装置の視差算出手段の概略構成を示すブロック図である。 多重化データを記録するファイル形式の一例を示す図である。 本発明の第2の実施の形態による立体画像データ再生装置の概略構成を示すブロック図である。 従来のフレームシーケンシャル方式を説明するための概念図である。 従来の視差バリア方式を説明するための概念図である。 従来の近くの被写体と遠くの被写体とを撮像する撮像機構を例示する図である。
 以下に添付図面を参照して、この発明にかかる立体画像データ作成装置、立体画像データ再生装置、及びファイル管理方法の好適な実施の形態を詳細に説明する。また、以下の説明において、異なる図面においても同じ符号を付した構成は同様のものであるとして、その説明を省略することとする。
 第1の実施形態に係る立体画像データ作成装置について、図面を参照し説明する。
 図1は、本発明の第1の実施の形態による立体画像データ作成装置の概略構成を示すブロック図である。図1において、立体画像データ作成装置1は、視差算出手段2と、3D情報作成手段3と、画像圧縮符号化手段4と、多重化手段5と、を有して構成される。視差算出手段2は、カメラ機構情報と、左目用画像データと、右目用画像データを入力とし、前記カメラ機構情報から幾何学的計算により求める第1の視差情報と、左目用画像データと右目用画像データを用いた対応点検索により求める第2の視差情報と、どの視点の画像から視差を算出したかを示す視差算出視点情報と、左目用画像データと右目用画像データを出力する。3D情報作成手段3は、視差算出視点情報と、第1の視差情報と、第2の視差情報を入力とし、入力された視差算出視点情報と、第1の視差情報と、第2の視差情報から3D情報を作成し、出力する。画像圧縮符号化手段4は、左目用画像データと右目用画像データを入力とし、入力された画像データに対して圧縮符号化を行い、圧縮画像データを作成し、出力する。多重化手段5は、3D情報と圧縮画像データを入力とし、入力された3D情報と圧縮画像データを多重化し、多重化データを作成し、出力する。ここで、第1の視差情報と第2の視差情報はそれぞれ、最大視差と最小視差から構成されている。次に最大視差と最小視差について説明する。
 図2は、立体画像の視差を説明する図である。図2(a)は、左目用画像データ6を示し、立体表示をした際に、最も遠くに見える部分を最遠点7とし、最も近くに見える点を最近点8とする。また、図2(b)は、右目用画像データ9を示し、このうち、立体表示をした際に、最も遠くに見える部分を最遠点10とし、最も近くに見える点を最近点11とする。このとき、左目用画像データ6の左端から、最遠点7までの距離をdfL、最近点8までの距離をdnL、右目用画像データ9の左端から、最遠点10までの距離をdfR、左最近点11までの距離をdnRとし、左目用画像データ6と、右目用画像データ9を用いて立体表示をした際に、観察者から最も遠くに見える部分における視差を最大視差と定義した場合、その値はdfR-dfLとなる。同じく左目用画像データ6と、右目用画像データ9を用いて立体表示をした際に、観察者から最も近くに見える部分における最小視差と定義し、その値をdnR-dnLとする。
 次に、前記第1の視差情報について説明する。第1の視差情報は、撮影に使用するカメラの向きや配置、レンズの画角情報等のカメラ機構情報から幾何学的計算により求められ、その値は、カメラの撮影の方法が、平行法であるか交差法であるかという点や、また、交差法の場合にはカメラの画角に依存する。ここで、前記第1の視差情報は、物理的に視差が最大となる背景が無限遠にある場合の背景に対する視差を第1の最大視差とし、また、同じくカメラ機構情報から、物理的にカメラに近づくことができる位置、かつ、快適な立体視が可能な視差の値となるような、カメラ固有の推奨撮影距離に被写体を設置した場合の視差である第1の最小視差から構成されている。
 まず、平行法撮影の場合における第1の視差情報の求め方について説明する。
 図3は、平行法での立体撮影について説明する図である。図3において、光軸が垂直方向と水平方向に平行となるように設置されたカメラ12とカメラ13で、近景となる被写体14と、遠景となる背景15を撮影する。ここで、カメラ12とカメラ13は同一のスペックのカメラとする。カメラ12の光軸16とカメラ13の光軸17の間の距離であるカメラの基線長をTとし、カメラ12とカメラ13の画角をθとする。また、カメラ12の撮影範囲を撮影範囲18とし、カメラ13の撮影範囲を撮影範囲19とする。カメラ12は、撮影画像20を、カメラ13は、撮影画像21をそれぞれ撮影する。ここで、撮影画像20と、撮影画像21の背景15の視差Dfの大きさは、基線長Tと同じ大きさとなる。しかし、背景15の位置がカメラ12と13から近似的に無限遠としてよいほど、十分遠くに位置する場合は、カメラの撮影範囲が非常に大きくなるため、視差Dfの大きさは0に近似できる。よって、平行法撮影の場合、第1の視差情報を構成する第1の最大視差は0となる。
 また、平行法撮影の場合の第1の視差情報を構成する第1の最小視差の求め方について説明する。平行法撮影の場合、立体映像として撮影できる被写体のカメラからの位置は、基線長Tとカメラ画角θにより規制される。図3に示すようにカメラ画角θは、撮影範囲18と、撮影範囲19の範囲に影響を及ぼし、基線長Tは、撮影範囲18と、撮影範囲19が交わる領域の大きさに影響する。カメラ12とカメラ13の基線長の位置から被写体14までの距離に対する被写体14の視差の値は、カメラの基線長から被写体までの距離と、カメラの機構である基線長の大きさと、画角θで一意的に決まる。
 例えば、カメラ12とカメラ13の基線長から、被写体14までの距離をLn、背景15までの距離をLf、撮影画像における被写体14の視差をDnとすると、式(1)の相似関係が得られる。
 (Lf-Ln): Ln=Dn:T ・・・(1)
 式(1)より、視差Dnは式(2)で求められる。
 Dn=T×(Lf-Ln)/Ln  ・・・(2)
 図4は、図3の平行法による配置でカメラ12とカメラ13で撮影した場合の、撮影画像の一例である。図4(a)がカメラ12で撮影した左目用画像データ20であり、図4(b)がカメラ13で撮影した右目用画像データ21である。ここで、左目用画像データ20の左端から被写体14までの距離をd2nL、右目用画像データ21の左端から被写体14までの距離をd2nRとする場合、このときの最小視差はd2nR-d2nLであり、このd2nR-d2nLの絶対値は、式(2)のDnの値と同じ値となる。この視差の絶対値が大きくなると、立体視の際に眼精疲労を生じたり、2重に見えて立体視できなくなったりする。
 また、図3において、例えば、被写体14を被写体22の位置まで動かすと、カメラに近くなりすぎて、被写体22が、撮影範囲18と、撮影範囲19からはみ出してしまい、左右の目に提示する画像において対応する点が表示できなくなり、その結果、立体視ができなくなる。これを避けるため、カメラの取扱い説明書等には、カメラ固有の推奨撮影距離が記載されていることが一般的であり、この取扱い説明書等に記載されているカメラ固有の推奨撮影距離に被写体を設置した場合の視差の値を最小視差とする。
 また、立体視可能な視差の大きさには個人差はあるため、ユーザがあらかじめ、自分自身にあった推奨撮影距離を、カメラに入力しておいてもよい。カメラ側ではその値を、ユーザ個別の第1の最小視差としていつでも第1の最小視差として出力できるように、カメラの記憶領域に記憶しておいてもよい。
 続いて、交差法撮影の場合における第1の視差情報の求め方について説明する。
 図5は、交差法での立体撮影について説明する図である。図5のカメラの構成は、図3で説明した構成に対し、カメラ13を水平に傾けただけの構成である。カメラ12とカメラ13は、図3同様、光軸は垂直方向に平行であるが、水平方向は、図3の場合と異なり、光軸16と光軸17が交差するように設置されている。光軸16と光軸17が交差する点を輻輳点23とする。次に、特徴点24における視差の求め方について説明する。ここで、特徴点24は、光軸16上に位置し、この特徴点24を通り、光軸17と直角に交わる線分を線分25とし、そのカメラ13の撮影範囲の長さをWとする。また、線分25と光軸17が交わる点を点26とする。更に、図5に図示するように、線分25上における特徴点24の位置は、点26からWd0離れた位置とする。ここで、線分25の長さWに対するWd0の割合の値は、右目用画像において、右目用画像を表示するディスプレイの水平方向の表示サイズHに対する、右目用画像の中心点から特徴点24までの距離Hdの割合の値と等しく、式(3)で表せる。
 Wd0/W=Hd/H・・・(3)
 特徴点24は光軸16上に位置することから、左目用画像における特徴点24の位置は、左目用画像の中心位置となる。よって、特徴点24の視差はHdとなる。ここで、カメラ12から特徴点24までの距離をL、カメラ12から輻輳点23までの距離をLo、カメラ13から線分25までの距離をA、輻輳点23と点26までの距離をA1、輻輳点23とカメラ13までの距離をA2とする。また、カメラ12の中心を点27、カメラ13の中心を点28、線分25の右端の点を点29とすると、点26と、点28、点29が形成する三角形に注目して、式(4)の関係が得られる。
 tan (θ/2)=W/(2×A)・・・(4)
 式(4)より、線分25の長さWは、式(5)で求められる。
 W=2×A×tan (θ/2)・・・(5)
 光軸16と光軸17が交差する角度をアルファとすると、輻輳点23と、特徴点24、点26が形成する三角形に注目して、式(6)の関係が得られる。
 A1=(L-Lo)×cosα・・・(6)
 Wd0=(L-Lo)×sinα・・・(7)
 また、輻輳点23と、点27、点28が形成する三角形に注目して、式(8)及び式(9)の関係が得られる。
 A2=T/sinα・・・(8)
 Lo=T/tanα・・・(9)
 ここで、A=A1+A2と式(5)、式(6)、式(8)、式(9)より、線分25の長さWは、式(10)のようになる。
 W=2×((L-T/tanα)×cosα+T/sinα)×tan (θ/2)・・・(10)
 式(3)と式(10)より、視差Hdは、式(11)となる。
 Hd=H×(L-T/tanα)×sinα/{L×cosα×2×tan (θ/2)}・・・(11)
 ここで、交差法において、輻輳点より、特徴点24は遠ざかれば、遠ざかるほど視差Hdは大きくなるため、Lを無限大とすると、視差Hdの最大値Hdmaxが求められる。式(11)より、Lを無限大として近似すると、Lに比べ、T/tanαは無視できるため、Hdmaxは、式(12)となる。
 Hdmax=H×tanα/{2×tan (θ/2)}・・・(12)
 以上より、交差法における視差の最大値は、式(12)の値として近似することができ、この値は、表示するディスプレイサイズと、カメラの画角と、光軸の交差する角度で決まり、このときの視差の最大値を第1の視差情報における最大視差として出力する。
 また、最大視差と同じく第1の視差情報を構成する最小視差は、平行法と交差法でも同じく、カメラの取扱い説明書等に記載のカメラ固有の推奨撮影距離に被写体を設置した場合の視差の値とする。
 また、平行法の場合と同様に、立体視可能な視差の大きさには個人差はあるため、ユーザがあらかじめ、自分自身にあった推奨撮影距離を、カメラに入力しておいてもよい。カメラ側ではその値を、ユーザ個別の第1の最小視差としていつでも第1の最小視差として出力できるように、カメラの記憶領域に記憶しておいてもよい。
 次に、前記第2の視差情報について説明する。第2の視差情報は、カメラから最も近い位置である最近点における視差である第2の最小視差と、カメラから最も遠い位置である最遠点における視差である第2の最大視差から構成されている。これらの第2の最小視差と最大視差は、ステレオマッチング法を用いて対応点を検索することにより、画面中で、最もカメラの近い位置にある最近点の被写体の視差を第2の最小視差として、最もカメラと離れた位置にある最遠点の被写体の視差を第2の最大視差として、それぞれ求める。
 ここで、ステレオマッチング法とは、左右に配置された2台のカメラで撮影された2枚1組の画像を用いて、左のカメラで撮影された画像が、右のカメラで撮影された画像のどの部分に対応するかを面積相関の計算により求め、その対応関係を使った三角測量により、各点の3次元的位置を推測する方法である。また、ステレオマッチング以外の方法として、ユーザが、画像内で対応点を探し、最近点と最遠点にある被写体の視差を入力してもよい。
 以上のように、撮影に使用するカメラ固有の向きや配置、レンズの画角情報等のカメラ機構情報から幾何学的計算により求められた、物理的な視差範囲である第1の視差情報と、ステレオマッチングやユーザの手入力等により算出された実際の視差範囲である第2の視差情報を算出し、出力し、記録や伝送することにより、大画面で表示を行う際に、ステレオマッチング等で誤差が発生した場合でも、快適で、かつ、安全な視差範囲での表示を行うことができる。
 図6は、本発明の第1の実施の形態による立体画像データ作成装置1の動作についてのフローチャート図であり、これに沿って動作の説明をする。ここで、図1の立体画像データ作成装置1は、その前段に、図示しない撮像手段を備えている。撮像手段の一例として、少なくとも2台以上の複数のカメラ、もしくは、ステレオアダプターや、大口径レンズや、全方位が撮影できる特殊レンズのついた1台のカメラ、もしくは、1台のカメラを水平にスライドさせる方式などがあげられる。
 図6のステップS1において、立体画像データ作成装置1の電源がONにされ、ステップS2に進む。ステップS2において、立体画像データ作成装置1の外部に接続されている図示しないカメラから、視差算出手段2に前記カメラで撮影した左目用画像データと、右目用画像データと、カメラの基線長や、画角、輻輳角の情報を含むカメラ機構情報が入力される。ここで、左目用画像データと、右目用画像データは、連続するフレームから構成される画像データとして、1フレーム毎に視差算出手段2に入力される。
 図7は、本発明の第1の実施の形態による立体画像データ作成装置の視差算出手段の概略構成を示すブロック図である。図7において、視差算出手段2は、入力されたカメラ機構情報から第1の視差情報を作成する機構視差算出手段30と、入力された左目用画像データと右目用画像データから、第2の視差情報を作成するステレオマッチング手段31と、画像全体に対して視差ずらしを行った際に、第1の視差情報と、第2の視差情報の視差を視差ずらしした量だけ修正する視差修正手段32と、視差ずらしした位置で、左目用画像データと右目用画像データをそれぞれ切り出す画像切り出し手段33から構成されている。ここで、ステレオマッチング手段31に、外部からユーザの入力を受け付ける図示しないユーザ入力手段を設けても良い。ユーザ入力手段では、例えば、ユーザに左目画像データと、右目用画像データを提示することにより、ユーザが画像内で最近点と最遠点の対応点を探し、そのときの視差を第2の最小視差と第2の最大視差として入力するようにしてもかまわない。
 ステップS3では、入力されたカメラ機構情報から、視差算出手段2内部の機構視差算出手段30により、図3から図5を用いて説明した第1の視差情報の求め方に準じた方法で第1の視差情報を作成する。
 判定ステップS4では、視差算出手段2内部のステレオマッチング手段31にユーザ入力手段により、ユーザから手入力で第2の視差情報が入力されたか否かを判定し、入力された場合は、ステップS6へ進み、そうでない場合はステップS5に進む。
 ステップS5では、ステレオマッチング手段31に入力された左目用画像データと、右目用画像データを用いて、前記ステレオマッチング法により、第2の視差情報を作成する。
 ステップS6では、機構視差算出手段30から出力された第1の視差情報とステレオマッチング手段31から出力された第2の視差情報が視差修正手段32に入力される。
 判定ステップS7において、視差修正手段32に入力された第1の視差情報と、第2の視差情報を参照し、視差ずらしを行うか否かを判定し、視差ずらしを行う場合は、ステップS8に進み、そうでない場合はステップS10に進む。
 ここで、視差ずらしについて説明する。立体表示する場合、通常、同じ大きさの左目用画像データと右目用画像データを、フレームシーケンシャル方式の場合であれば同じ位置に表示されるように、視差バリアでは、縦にピクセル単位またはサブピクセル単位で、左右の画像が交互に並ぶように表示する。この際、左右の画像のうち、少なくとも一方をそれぞれ、本来の表示位置に対して、画面全体を左右のどちらか一方向に一様にずらしていくことにより、左右の画像の対応点の視差を変化させることを、視差ずらしという。視差ずらしを行うか否かは、ユーザが選択してもよい。例えば、視差ずらしのない状態で、画像を立体表示させて、ユーザが、好みの視差となるように画像をずらしてもよい。
 また、第1の視差情報の第1の最大視差情報と第1の最小視差情報と、第2の視差情報の第2の最大視差情報と第2の最小視差情報の4つの視差情報のうち、少なくとも1つの視差情報を選択し、選択した視差の情報の絶対値が所定の値よりも大きいと判断した場合に、選択した視差の情報の絶対値が所定の値よりも小さくなるように視差ずらしを行う様にしても良い。
 また、前記4つの視差情報のうち、全ての被写体がディスプレイ面よりも手前に飛び出しているか、または、奥に引っ込んでいるかを判定し、全ての被写体が飛び出しまたは奥に引っ込んでいる場合には、飛び出した被写体と奥に引っ込んでいる被写体の両方を含む画像となるように視差ずらしを行ってもよい。例えば、平行法で撮影した場合は、無限遠にある背景がディスプレイ面に、背景よりも前にあるすべての被写体がディスプレイ面よりも手前に飛び出して表示される。この際、背景よりも前にあるすべての被写体の視差が小さくなる方向に、画面全体を一様にずらしてもよい。
 ステップS8では、図7の視差修正手段32により、入力された第1の視差情報と、第2の視差情報に対して、ずらした分の視差量を、第1の視差情報と、第2の視差情報からそれぞれ引くことにより修正して作成した第1の視差情報と、第2の視差情報を、新たな第1の視差情報と、第2の視差情報として修正し、図1の3D情報作成手段3に第1の視差情報と第2の視差情報と視点情報を出力し、画像切り出し手段33に修正された視差量を出力する。
 ステップS9では、図7の画像切り出し手段33により、視差修正手段32からの修正された視差量を用い、左目用画像データもしくは右目用画像データの位置をずらし、左目用画像データと右目用画像データの左右端それぞれの対応点がなくなった領域を切りとり、画像の切り出しを行っている。このときの視差ずらしの様子を図8と図9を用いて詳細に説明する。
 図8は、視差ずらしを行う前の左目用画像データと、右目用画像データの一例である。図8(a)は、左目用画像データの例である。左目用画像データ34において、立体表示を行った際に、ディスプレイ面よりも最も前に飛び出す被写体35と、ディスプレイ面より最も奥に引っ込んでみえる被写体36である。一方、図8(b)は、右目用画像データの例である。右目用画像データ37において、被写体35に対応する被写体は被写体38となり、また、被写体36に対応する被写体は被写体39となる。ここで、被写体35と被写体38の間の視差をDn1とし、被写体36と被写体39の間の視差をDf1とする。
 次に、左目用画像データ、もしくは、右目用画像データのいずれかを画面全体を一様にずらすことにより、視差を変更する方式について説明する。尚、一般的に、右画像用データに対して、左目用画像データの表示位置を左にずらして、立体表示をする場合は、全体として、全ての被写体が視差ずらしを行う前よりも奥に表示され、左目用画像データの表示位置を右にずらして、立体表示をする場合は、全体として、全ての被写体が視差ずらしを行う前よりも手前に表示される。
 図9は、視差ずらしを行った後の左目用画像データと、右目用画像データの一例である。ここで、例えば、左目用画像データ34の被写体35の視差を0にするために、左目用画像データ34を左にDn1だけずらした場合、被写体35と被写体38の間の視差Dn2は0となり、被写体36と被写体39の間の視差をDf2は、Df1+Dn1となり、被写体35はディスプレイ面に、被写体36は、視差ずらしを行う前よりもさらに奥に引っ込んだ位置に表示される。
 ここで、左目用画像データをDn1だけ左にずらすことにより、左目用画像データ34の太枠で囲んだ領域40と右目用画像データ37の太枠で囲んだ領域41とは、それぞれ対応点がない領域が発生する。このとき、それぞれはみ出した領域40と領域41の画像は対応点がなくなるため切り取られる。表示の際は、切り取られた分だけ、水平方向の表示領域を狭めて表示する。このようにして視差ずらしを行うことにより、視差調整を行う方法が一般的であるが、視差調整した場合は、第1の視差情報や、第2の視差情報の値が視差ずらしを行った分だけ修正される。
 上記では、切り取った結果左右画像が、立体表示するディスプレイの表示サイズよりも小さくなる場合について説明したが、あらかじめ、カメラのCCDを実際に表示する画像よりも大きめにしておき、視差の調整を行っても、立体表示するディスプレイの表示サイズより小さくならないようにしてもよい。この場合は画面をずらすのではなく、左右画像の位置をそれぞれずらして切り出すことにより、視差ずらしを行っても良い。
 ステップS10では、図7の画像切り出し手段33により切り出された左目用画像データと右目用画像データを図1の3D情報作成手段3に向けて出力し、ステップS11に進む。ここで、画像切り出し手段33は、上記では、左右の目用の画像を個別に出力する場合について述べたが、一般にサイドバイサイド方式と呼ばれる、左右の目用の画像を水平に並べた一枚の画像や、トップアンドボトム方式と呼ばれる、左右の目用の画像を上下に並べた一枚の画像を作成し、出力してもよい。
 ステップS11では、図1の3D情報作成手段3により、視差算出手段2から出力された第1の視差情報と、第2の視差情報と、視点情報等を用いて、3D情報を作成する。この3D情報は、多重化手段5に出力される。ここで、前記3D情報について説明する。
 図10は、3D情報の一例を示す図である。3D情報は、第1の最大視差と、第2の最大視差と、第1の最小視差と、第2の最小視差を含んでいる。また、3D情報に含まれる他の情報として、第1の最大視差と、第2の最大視差と、第1の最小視差と、第2の最小視差の対象となる視点画像の組み合わせを示す視差対象画像情報や、第1の最大視差と、第2の最大視差と、第1の最小視差と、第2の最小視差の単位を示す視差単位情報や、立体表示する際に、どのサイズのディスプレイで立体表示を行うかを示す想定ディスプレイサイズなどを含んでもよい。このとき、視差単位情報は、第1の最大視差と、第2の最大視差と、第1の最小視差と、第2の最小視差のそれぞれの視差毎に別々の視差単位情報を用いても良いし、全て同じ単位情報に統一して3D情報を作成してもよい。
 また、想定ディスプレイサイズは外部から別途3D情報作成手段3にユーザが入力してもよいし、カメラ機構情報の一部として、カメラから3D情報作成手段3に入力するようにしてもよい。ここで、視差対象画像情報は、左右の2視点の画像を記録する際は不要だが、3視点以上の画像を取り扱う場合に、必要となる情報である。視差は、2つの視点の画像から求めるため、3視点以上の画像のどの2つの視点画像により算出された視差であるかを指定する必要がある。
 また、ここで、視差単位情報について説明する。視差単位情報とは、第1及び第2の最大視差と、第1及び第2の最小視差の大きさを記録した際に使用した単位を示す情報である。第1及び第2の最大視差と、第1及び第2の最小視差の大きさを、画素単位で取り扱ってもよいし、「mm」或いは「cm」などの絶対的な単位で取り扱ってもよいし、画面の水平幅に対するパーセンテージで取り扱っても構わない。例えば、視差単位情報が、0の場合は画素単位であり、1の場合は「mm」或いは「cm」などの絶対的な単位であり、2の場合は画面の水平幅に対するパーセンテージとなるようにしてもよい。
 図10では、視差単位情報と、第1及び第2の最大視差と、第1及び第2の最小視差を1つのセットとして、3D情報に挿入しているが、これらのセットを複数含んだ3D情報にしてもよい。
 上記のように複数のセットを含む構成にした場合、使用状況に応じて、視差単位情報のセットの使い分けをすることができる。例えば、画素ピッチが分からない場合や、縮小拡大表示等のドットバイドット表示を行わない場合などは、画面の水平幅に対するパーセンテージで表現された視差情報を使用する。また、表示側で視差ずらしを行うときなど、画素単位で視差を取り扱うのが簡易な場合は、画素単位の視差情報を使用する。また、奥行き方向に立体表示される視差が、人間の両眼瞳孔間間隔の幅を超えていないことを確認する場合などは、絶対値で視差を取り扱う方が望ましい。
 以上のように、3D情報に視差単位情報が複数セット含む構成にした場合、再生側で視差の単位を変換することなく、望みの単位の視差情報を取得することができるため大変便利である。
 ステップS12では、図1の視差算出手段2から入力された左目用画像データと右目用画像データを用いて、画像圧縮符号化手段4により前記画像の圧縮と符号化を行い、圧縮画像データを作成する。ここで、視差算出手段2から入力される画像は、左右個別であってもよいし、サイドバイサイド方式と呼ばれる、左右の目用の画像を水平に並べた一枚の画像、或いはトップアンドボトム方式と呼ばれる、左右の目用の画像を上下に並べた一枚の画像であっても構わない。また、ここで、画像圧縮符号化方式としては、静止画像に対しては、JPEG、JPEG2000等の国際標準方式を採用し、動画像に対しては、MPEG-1、MPEG-2、MPEG-4AVC等の国際標準方式を用いるものとする。動画像の符号化として、フレーム内符号化のみを用いる場合は、Motion JPEG等の方式を用いてもよい。画像圧縮符号化方式としては、上記に限らず非標準の方式を用いてもよい。
 ステップS13では、図1の多重化手段5により、多重化データを作成する。多重化手段5では、入力された3D情報作成手段3により作成された3D情報と画像圧縮手段4により作成された圧縮画像データとを用い、所定のフォーマットに変換して多重化データを作成し、出力する。尚、図示していないが、音声や音楽を多重化する場合は、それらのデータも多重化手段5にて多重化される。また、ここで、多重化手段5の出力先には、ICメモリや光磁気ディスク、磁気テープ、ハードディスクなどの記録デバイスや、LANやモデムなどの通信デバイスが接続される。ここでは、多重化手段5にICメモリが接続されているものとする。
 以下に、ICメモリに多重化データを記録する場合の記録フォーマットについて説明する。一般にICメモリを記録媒体に使用する場合には、ICメモリ上にFAT(File Allocation Table)などのファイルシステムが構築され、データはファイルとして記録される。ここで使用するファイル形式は、既存の形式を使用してもよいし、新規に定めた独自の形式を使用してもよい。
 図11は、多重化データを記録するファイル形式を示す図である。図11では、データは図の上から下に向かう順にファイルに記録されるものとする。図11(a)は既存の形式を使用した場合であり、図11(b)は新規の形式を用いた場合である。図11(a)の既存の形式を使用する場合、3D情報は、ファイルヘッダを拡張するために設けられている拡張ヘッダの領域に記録される。既存のファイルヘッダの一部として記録され、この場合には、一般に使用されている拡張子をそのまま使用する。例えば、JPEGファイルの場合、一般に.jpgという拡張子を用いる。こうすることで、3次元画像の表示機能を持たない従来の再生装置でも既存の形式のファイルとして認識し、2次元画像として表示することができる。
 一方、図11(b)のように新規の形式を使用する場合には、3D情報をファイルの先頭に記録する。更に、新規の形式のファイルであることがわかるように、既存形式のファイルと区別することのできるユニークな拡張子をつける。尚、図11(a)、(b)に記載されている管理情報は作成日や作成者など、3次元画像と直接関係ない情報の記録に使用するものとする。
 図12は、多重化データを記録する際に、既存のファイル形式を用いた場合の一例を示す図である。既存のファイル形式として、図11(a)に示す既存形式を使用した場合の、左右画像の格納の仕方について説明する。
 図12(a)には、図11(a)の画像データの領域に、左目用画像データと右目用画像データが1つに結合された画像データとして記録する例を示した。また、図12(b)には、左右の2つの画像データを別々のファイルとして記録する例を示した。
 更に図12(c)には、図12(b)の2つのファイルを1つのファイルとして記録する例を示した。このとき、ファイルヘッダは、左右それぞれで存在している。尚、図11(a)の既存のファイル形式の変形にはなるが、図12(d)のようにファイルヘッダをひとつに共通化しても良い。
 尚、図12(b)のように左右の2つの画像データを別々のファイルとして記録する際、これら2つのファイルがひとつの3D画像を形成する左右の目用の画像データの組であることを示すために、これらのファイル専用のフォルダを作成し、そのフォルダ内に2つのファイルを格納して管理するようにしてもよい。また、これら2つのファイルがひとつの3D画像を形成する左右の目用の画像データの組であることを示すために、それぞれのファイル名に所定の命名規則を用いてもよい。例えば、ある3D画像1の左目用と右目用の画像データのファイル名をそれぞれ、“3D画像1左.jpg”、“3D画像1右.jpg”とし、別の3D画像2の左目用と右目用の画像データのファイル名をそれぞれ、“3D画像2左.jpg”、“3D画像2右.jpg”とすることにより、3D画像1と3D画像2用のファイルの組をファイル名により区別するようにしてもよい。更には、これら2つのファイルがひとつの3D画像を形成する左右の画像データの組であることを示すための管理情報を別ファイルとして作成してもよい。例えば、これら2つのファイル名を記述したファイルを、3D管理情報ファイルとして作成してもよい。また、この3D管理情報ファイルは、PC上で使われている“RAM”や“ASX”などといったようなメタファイル内に、これら2つのファイル名を記述して作成してもよい。更には、左右の2つのファイルと、上記で説明した共通3D情報ファイルや、3D管理情報ファイルのうち少なくともひとつを、これらのファイルの専用のフォルダとして作成したフォルダにおいて扱うようにしてもよい。
 図13は、多重化データを記録する際に、新規のファイル形式を用いた場合の一例を示す図である。図12(c)及び図12(d)のように3D画像を形成する左右の目用の画像データの組を一つのファイルにする際に、それぞれの画像データの3D情報を、共通化できる情報と、共通化できない個別の情報に分け、共通化できる部分だけを共通3D情報の格納領域に格納し、個別の情報は、左右の目用の画像データの3D情報の格納領域に格納する。図13(a)は、図12(c)の3D情報の共通情報と個別情報を別領域に格納する場合のファイルフォーマットである。また、図13(b)は、図12(d)の3D情報の共通情報と個別情報を別領域に格納する場合のファイルフォーマットである。
 また、静止画で記録する場合のファイルフォーマットとして、CIPA規格「CIPA DC-006 デジタルスチルカメラ用ステレオ静止画像フォーマット」や、「CIPA DC-007 マルチピクチャフォーマット」に対して、3D情報を挿入してもよい。
 尚、左右画像の配置順やファイルへの格納順が固定の場合について説明したが、これらの順番は可変であってもよい。可変の場合には、順番の情報を3D情報に記録してもよい。
 図6の判定ステップS14では、立体画像データ作成装置1に入力された左目用画像データと右目用画像データが最後のフレームのデータか否かを判定し、最後のフレームであれば、ステップS15に進み、そうでなければステップS2に戻る。
 ステップS15において、立体画像データ作成装置1は画像データの入力がないため、処理を終了する。
 以上のようにして、立体画像データ作成装置1は、立体画像データとして、第1の最大視差と、第1の最小視差から成る第1の視差情報と、第2の最大視差と、第2の最小視差から成る第2の視差情報を含む3D情報と圧縮画像データを含む多重化データを作成することにより、カメラの機構的な情報から求まる限界の最大視差の情報となるような第1の視差情報と、実際に発生している第2の視差情報を含んだ多重化データを作成することができる。
 また、上記では、3D情報と、画像圧縮符号化手段4で作成した圧縮画像データを多重化する例を示したが、画像圧縮符号化手段4を省略し、入力された左目用画像データと右目用画像データに対して圧縮を行わず、そのまま用いた無圧縮の画像データと、3D情報を多重化しても構わない。また、上記では、第1の最大視差と、第2の最大視差、第1の最小視差と、第2の最小視差のすべてを記録する場合について説明したが、これらの視差のうち、少なくとも一つ以上の最大視差、または最小視差のみを記録してもよい。
 また、上記では、第1の最大視差と、第2の最大視差、第1の最小視差と、第2の最小視差のそれぞれについて、値が3D情報内に記録されているか否かを示す視差記録可否フラグを、3D情報内に記録してもかまわない。このとき、第1の最大視差と、第2の最大視差、第1の最小視差と、第2の最小視差のうち、前記視差記録可否フラグの値により、その値が3D情報内に記録されていると設定されている視差のみが、3D情報内に記録される。
 続いて、立体画像データ作成装置1で作成した画像データを3次元画像として立体表示するための再生装置について説明する。
 図14は、本発明の第1の実施の形態による立体画像データ再生装置の概略構成を示すブロック図である。図14において、立体画像データ再生装置100は、多重化データを分離する逆多重化手段101、3D情報を解析する3D情報解析手段102、圧縮符号化された圧縮画像データを復号する画像復号手段103、3D情報解析手段102と画像復号手段103からの入力データにより3次元映像を生成する立体強度変換手段104から構成される。以上のように構成された立体画像データ再生装置100について、その動作を説明する。
 逆多重化手段101は、記録デバイスや通信デバイスから所定のフォーマットに多重化された多重化データを読み込み、圧縮画像データと3D情報に分離する。図14には図示していないが、音声や音楽が多重化されている場合は、それらのデータも逆多重化手段101にて分離される。ここでは、逆多重化手段101にICメモリが接続されているものとする。前述したように、ICメモリには画像ファイルが既存形式あるいは新規形式で記録される。既存形式と新規形式の区別は、ファイルの拡張子によって行うことができるので、再生するファイルが図11(a)に示す既存形式のファイルの場合、ファイルヘッダの拡張領域から3D情報を読み出す。また図11(b)に示す新規形式の場合には、ファイルの先頭から3D情報を読み出す。
 3D情報解析手段102は、3D情報を解析し、視差対象画像情報や、視差単位情報、第1の最大視差、第2の最大視差、第1の最小視差、第2の最小視差、想定ディスプレイサイズの設定値を抽出し、立体強度変換手段104に出力する。
 画像復号手段103は、入力された圧縮画像データを復号し、復号された画像データを立体強度変換手段104に出力する。
 立体強度変換手段104は、視差対象画像情報や、視差単位情報、第1の最大視差、第2の最大視差、第1の最小視差、第2の最小視差、想定ディスプレイサイズと、復号された画像データを入力とし、視差対象画像情報や、視差単位情報、第1の最大視差、第2の最大視差、第1の最小視差、第2の最小視差、想定ディスプレイサイズを用いて、復号された画像データに対して視差の調整を行った3次元映像を作成し、外部の表示装置へ出力する。
 このときの立体強度変換手段104における視差の調整について詳細に説明する。
 カメラの機構的な情報から求まる第1の視差情報と、ステレオマッチングなどにより、実際に発生している第2の視差情報を用いて視差の調整を行ってもよい。
 例えば、第1の最大視差と第2の最大視差を比べ、第1の最大視差による立体映像の呈示位置よりも奥となるような第2の最大視差である場合は、第2の最大視差を不適と判断し、第2の最大視差を用いずに第1の最大視差を用いる。この第1の最大視差と、想定ディスプレイサイズと視差単位情報から、第1の最大視差の大きさを求め、この値が人間の目の幅を超えないように、視差を調整する。このときの人間の目の幅は、非特許文献1に記載されているように幼児の目の幅を考慮して5cmとする。
 また、第1の最小視差と第2の最小視差を比べ、第1の最小視差による立体映像の呈示位置よりも手前となるような第2の最小視差である場合は、被写体の位置が、カメラの取扱い説明書等にあるカメラ固有の推奨撮影距離よりも手前にあることを示すため、立体強度変換手段104は、この画像を立体視することは不適であると判定し、第2の最小視差が、第1の最小視差よりも大きくなるように、画面全体を左右にずらす視差ずらしによる視差調整を行ってもよいし、立体映像を縮小表示することにより、視差調整を行ってもよいし、立体表示をやめ、2Dで表示してもよいし、片目の画像を用いて2D-3D変換を行って立体表示してもよい。
 また、前記第1の最大視差と、前記第2の最大視差の大きさを比較し、前記第2の最大視差が、前記第1の最大視差よりも小さい場合に、前記第2の最大視差の値に基づいて、視差の調整を行ってもよい。
 また、前記第1の最小視差と、前記第2の最小視差の大きさを比較し、前記第2の最小視差が、前記第1の最小視差よりも大きい場合に、前記第2の最小視差の値に基づいて、視差の調整を行ってもよい。
 また、上記の視差調整の際、想定ディスプレイサイズで計算したが、表示するディスプレイのサイズが、想定ディスプレイサイズと異なる場合は、ユーザの手入力や、機器間で通信するなどして、表示するディスプレイのサイズを、立体画像データ再生装置100に外部から入力し、入力された表示するディスプレイのサイズを用いて、視差を求めてもよい。尚、このときの視距離は、想定ディスプレイサイズや、実際に表示するディスプレイのサイズの高さの3倍で見ることを想定する。
 また、上記では、第1の最大視差と、第2の最大視差、第1の最小視差と、第2の最小視差のすべてを用いて、視差の調整を行う場合について説明したが、これらの視差のうち、少なくとも一つ以上の最大視差、または最小視差を用いて、視差の調整を行ってもよい。さらにまた、3D情報内に、第1の最大視差と、第2の最大視差、第1の最小視差と、第2の最小視差のすべてが記録されていない場合は、記録されている視差のうち、少なくとも一つ以上の最大視差、または最小視差を用いて、視差の調整を行ってもよい。
 なお、上記において、逆多重化手段101に入力された多重化データが、3D情報と、無圧縮の画像データから構成されている場合、画像復号手段103は、特に復号処理を行わず、入力された無圧縮の画像データを、そのまま、復号された画像データの代わりとして出力すればよい。以上のようにして、本発明の第1の実施形態による、立体画像データ作成装置1と、立体画像データ再生装置100で構成されたシステムにより、第1の視差情報と、第2の視差情報を用いて、適切な視差調整を行うことにより、より安全で快適な立体表示を実現することができる。また、上記の実施の形態では、視点数が2の場合について述べたが、本発明は視点数が3以上のいわゆる多視点の場合についても適用可能である。
 次に、本発明の第2の実施の形態として、立体画像データ作成装置に入力される画像の数がn視点以上(nは3以上の整数)の場合について説明する。
 図15は、本発明の第2の実施の形態による立体画像データ作成装置の概略構成を示すブロック図である。図15において、立体画像データ作成装置200は、視差算出手段201と、3D情報作成手段3と、画像圧縮符号化手段4と多重化手段202とを有して構成される。視差算出手段201は、カメラ機構情報と、n視点の画像データを入力とし、前記カメラ機構情報から幾何学的計算により求める第1の視差情報と、n視点の画像データから2視点の画像データを選択し、選択した2視点の画像データを用いて対応点検索を行い、算出した第2の視差情報と、どの視点の画像から視差を算出したかを示す視差算出視点情報と、n視点の画像データを出力する。3D情報作成手段3は、視差算出視点情報と、第1の視差情報と、第2の視差情報を入力とし、入力された視差算出視点情報と、第1の視差情報と、第2の視差情報から3D情報を作成し、出力する。画像圧縮符号化手段4は、n視点の画像データを入力とし、入力されたn視点の画像データに対して圧縮符号化を行い、圧縮画像データを作成し、出力する。多重化手段202は、3D情報作成手段3で作成された3D情報と画像圧縮符号化手段4で作成された圧縮画像データを入力とし、入力された3D情報と圧縮画像データを多重化し、多重化データを作成し、出力する。
 立体画像データ作成装置200を構成する各手段のうち、3D情報作成手段3と画像圧縮符号化手段4については、第1の実施の形態と同様であるので、ここでの説明は省略し、視差算出手段201と多重化手段202の動作についてそれぞれ説明する。
 まず、視差算出手段201について説明する。
 図16は、本発明の第2の実施の形態による立体画像データ作成装置の視差算出手段の概略構成を示すブロック図である。図16において、視差算出手段201は、機構視差算出手段30と、画像選択手段204と、ステレオマッチング手段31と、視差修正手段32と、画像切り出し手段205を有して構成される。図16の視差算出手段201は、図7の視差算出手段2をn視点の画像の入力に拡張した手段である。視差算出手段201を構成する各手段のうち、機構視差算出手段30、ステレオマッチング手段31、視差修正手段32については、第1の実施の形態と同様であるので、ここでの説明は省略する。
 まず、n視点の画像データが画像選択手段204に入力され、画像選択手段204は、入力されたn視点の画像データから2視点の画像データを選択して出力する。このとき、選択する2視点の画像データは、カメラ機構情報と整合性のとれる視点の組み合わせとなる画像を選択する。例えば、カメラ機構情報が隣り合う視点のカメラによる情報であれば、その情報に対応した視点のカメラの組み合わせのうち、いずれかより選択するようにしてもよい。このとき、視差算出手段201は、選択した視点画像データについての情報を、視差算出視点情報として、3D作成情報手段3に出力する。また、ここで、画像選択手段204は、上記カメラ機構情報と整合性のとれる視点の組みあわせが複数ある場合、複数選択してもよい。その場合、複数の組み合わせそれぞれに対して、ステレオマッチング手段31は視差を求め、そのうちで、最も大きい視差を出力するようにしてもよい。
 次に画像切り出し手段205について説明する。n視点の画像データが画像切り出し手段205に入力され、画像切り出し手段205は、入力されたn視点の画像データに対して、視差修正手段32の指定する視差量分、視差ずらしを行った後、それぞれ画像を切り出したものを、n視点の画像データとして出力する。このとき、視差ずらしの際、n視点の視点画像データの隣り合う組み合わせのそれぞれで同じだけのずらし量となるように、n視点の視点画像データすべてに対して、同じ量だけ視差が変化するように画像を切り出してもよいし、視差算出視点情報で示す2つの視点画像データの組み合わせでのみ視差ずらしを行うようにしてもよい。
 図17は、立体画像データ作成装置200が作成するn視点の視点画像データから作成した多重化データを記録するファイル形式の一例を示す図である。ここで、視点画像情報は、1つの視点画像データに関する情報であり、ファイルヘッダと、各視点画像データから抽出した3D情報と、各視点画像データに関する管理情報と、視点画像データで構成されている。図17(a)には、n個の視点画像情報を1つのファイルとして、ファイルの先頭より連結して格納する例を示した。また、図17(b)には、n個の視点画像情報毎に持つ、3D情報から、共通の情報を別途、共通の3D情報として1つにまとめて、ファイルの先頭に格納し、続いて、ファイル全体の管理情報と、連結したn個の視点画像情報を格納する例を示した。
 以上のようにして、立体画像データ作成装置200は、立体画像データとして、第1の最大視差と、第1の最小視差から成る第1の視差情報と、第2の最大視差と、第2の最小視差から成る第2の視差情報と、視差算出視点情報を含む3D情報と、n視点の視点画像データを圧縮した圧縮画像データを含む多重化データを作成することにより、カメラの機構的な情報から求まる限界の最大視差の情報となるような第1の視差情報と、実際に発生している第2の視差情報を含んだ、n視点の視点画像データに対応した多重化データを作成することができる。
 続いて、立体画像データ作成装置200で作成した画像データを3次元画像として立体表示するための立体画像データ再生装置300について説明する。
 図18は、本発明の第2の実施の形態による立体画像データ再生装置の概略構成を示すブロック図である。図18において、立体画像データ再生装置300は、多重化データを分離する逆多重化手段101、3D情報を解析する3D情報解析手段102、圧縮符号化された圧縮画像データを復号する画像復号手段103、3D情報解析手段102と画像復号手段103からの入力データにより3次元映像を生成する立体強度変換手段301から構成される。図18の立体画像データ再生装置300を構成する各手段のうち、逆多重化手段101と、3D情報解析手段102、画像復号手段103については、第1の実施の形態と同様であるので、ここでの説明は省略し、立体強度変換手段301について、その動作を以下に説明する。
 立体強度変換手段301には、3D情報解析手段102で解析し、抽出された3D情報として、視差対象画像情報や、視差単位情報、第1の最大視差、第2の最大視差、第1の最小視差、第2の最小視差、想定ディスプレイサイズと、画像復号手段103にて復号されたn視点の視点画像データが入力される。立体強度変換手段301では、入力されたn視点の視点画像から、視差対象画像情報が示す2視点の画像データを選択し、選択した画像データに対して、立体強度変換手段104と同様にして、視差単位情報、第1の最大視差、第2の最大視差、第1の最小視差、第2の最小視差、想定ディスプレイサイズを用いて、選択された画像データに対して視差の調整を行った3次元時映像を作成し、出力する。このとき、立体強度変換手段301は、上記で選択されなかった、他の隣り合う視点画像に対して、同じ量だけ視差ずらしを行っても構わない。
 以上のようにして、本発明の第2の実施形態による、立体画像データ作成装置200と、立体画像データ再生装置300で構成されたシステムにより、第1の視差情報と、第2の視差情報を用いて、適切な視差調整を行うことにより、n視点の画像データを取り扱う場合であっても、2視点の場合と同様にして、より安全な立体表示を実現することができる。
 また、上記の実施の形態では複数の画像入力がある場合について述べたが、本発明は、単眼式の撮像装置に立体撮影用のアダプタを装着した場合にも適用可能である。立体撮影用のアダプタには、左右の目用の画像を1画面に撮影するためのステレオアダプターや、1画面に複数の視点画像が撮影されるアダプタが存在する。その場合、上記視差算出手段2や、視差算出手段201では、視差の算出に必要な2枚の画像を分離して視差を算出し、そのまま1枚の画像として出力するか、個別の視点に分離して出力するかを選択して、望みの圧縮画像データのフォーマットに合わせる形で、画像圧縮符号化手段4へ出力する。ここで、上記で述べた、視差算出手段2や、視差算出手段201の動作以外は、同じ動作をするため、説明は省略する。
 以上のように、本発明の立体画像データ作成装置、立体画像データ再生装置及びファイル管理方法によれば、前記立体画像データ作成装置が、撮像手段の機構から幾何学的に求められる視差の最大値である第1の最大視差と、撮像手段の機構から、所定の視差範囲内に収まり、かつ、撮像手段から最も近い距離の位置における視差である第1の最小視差と、立体画像の視差の最大値となる第2の最大視差と、立体画像の視差の最小値となる第2の最小視差を用いて、3D情報として作成し、作成した3D情報と、立体画像データを構成する複数の画像データを多重化した多重化データを作成、送信し、前記多重化データを、前記立体画像データ再生装置が受信、逆多重化し、3D情報から復号した前記第1の最大視差と、前記第1の最小視差と、前記第2の最大視差と、前記第2の最小視差と、を用いることにより、表示するディスプレイサイズに合わせた視差調整を、より自由度を高く、かつ、安全で適切に行うことができる。
 また、本発明によれば、第1の視差情報と、第2の視差情報を3D情報として記録し、再生することにより、カメラの機構による視差の限界値と、実際の視差の値を用いて、視差の調整をすることができるようになり、また、第1の最大視差と、第2の最大視差の大きさの比較や、第1の最小視差と、第2の最小視差の大きさの比較により、第2の最大視差や最小視差の値が適正か否かが判断できるという有利な効果が得られる。
 また、本発明によれば、立体画像データを大画面で表示を行うときなどは、カメラの機構による視差の限界値を用いて、視差ずらし等による立体感の強さを調節することにより、より安全な立体感の調整を行うことができるという有利な効果が得られる。
 また、本発明によれば、第1の最大視差と、第2の最大視差と、第1の最小視差と、第2の最小視差をメタデータ化することにより、3次元表示のための画像データに汎用性をもたせることができるという有利な効果が得られる。
 以上、実施例は、全ての点で例示であって、制限的なものではないと考えるべきである。例えば、本実施の形態では、立体画像データ作成装置、立体画像データ再生装置、及びファイル管理方法について例示したが、3Dの映像信号を作成又は再生できれば良く、立体画像データ作成装置、立体画像データ再生装置に限定されるものではない。本発明は立体画像データ作成装置、立体画像データ再生装置、及びファイル管理方法以外にも、3Dデジタルカメラ、3Dデジタルムービー、3Dテレビ、デジタルビデオレコーダー、携帯型ムービープレイヤー、携帯電話、カーナビゲーションシステム、携帯型DVDプレイヤー、PC等の3D映像信号を出力又は表示可能な機器についても広く適用できる。
 本発明にかかる立体画像データ作成装置、立体画像データ再生装置、及びファイル管理方法は、立体画像を表示する際に、ディスプレイサイズに合わせた視差調整をカメラ機構による視差の限界値と立体画像の視差の限界値から、より安全で信頼性、及び自由度の高い視差調整を行うことができる立体画像データ作成装置、立体画像データ再生装置、及びファイル管理方法に関するものである。
1,200…立体画像データ作成装置、2,201…視差算出手段、3…3D情報作成手段、4…画像圧縮符号化手段、5,202…多重化手段、6,34…左目用画像データ、7,10…最遠点、8,11…最近点、9,37…右目用画像データ、12,13…カメラ、14,22,35,36,38,39…被写体、15…背景、16,17…光軸、18,19…撮影範囲、20,21…撮影画像、23…輻輳点、24…特徴点、25…線分、26,27,28,29…点、30…機構視差算出手段、31…ステレオマッチング手段、32…視差修正手段、33,205…画像切り出し手段、40,41…領域、100,300…立体画像データ再生装置、101…逆多重化手段、102…3D情報解析手段、103…画像復号手段、104,301…立体強度変換手段、204…画像選択手段、400…左目用画像、401…右目用画像、402…アクティブ・シャッターメガネ、403…左目用のレンズシャッター、404…右目用のレンズシャッター、410…画像表示パネル、411…パララクスバリア、412…左目、413…右目、S1,S2,S3,S5,S6,S8,S9,S10,S11,S12,S13,S15…ステップ、S4,S7,S14…判定ステップ

Claims (16)

  1.  複数の視点の各々に対応した複数の画像データから、所定のファイル形式の画像データを作成する立体画像データ作成装置において、
     撮像手段の機構から幾何学的に求められる視差の最大値である第1の最大視差と、
     撮像手段の機構から所定の視差範囲内に収まり、かつ、撮像手段から最も近い距離の位置における視差である第1の最小視差と、
     立体画像の左目画像と右目画像の視差の最大値となる第2の最大視差と、
     立体画像の左目画像と右目画像の視差の最小値となる第2の最小視差とを入力とし、
     入力された前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差のうち、少なくとも一つ以上の最大視差、または最小視差を用いて3D情報を作成し出力する3D情報作成手段と、
     前記3D情報と、前記画像データを多重化し、所定のファイル形式の立体画像データを作成する多重化手段とを備えることを特徴とする立体画像データ作成装置。
  2.  複数の視点の各々に対応した複数の画像データから、所定のファイル形式の画像データを作成する立体画像データ作成装置において、
     撮像手段の機構から幾何学的に求められる視差の最大値である第1の最大視差と、
     撮像手段の機構から所定の視差範囲内に収まり、かつ、撮像手段から最も近い距離の位置における視差である第1の最小視差と、
     立体画像の左目画像と右目画像の視差の最大値となる第2の最大視差と、
     立体画像の左目画像と右目画像の視差の最小値となる第2の最小視差とを入力とし、
     入力された前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差のうち、少なくとも一つ以上の最大視差、または最小視差を用いて3D情報を作成し出力する3D情報作成手段と、
     入力された前記複数の画像データに対して圧縮符号化を行い、圧縮画像データを出力する画像圧縮符号化手段と、
     前記3D情報と、前記圧縮画像データを多重化し、所定のファイル形式の立体画像データを作成する多重化手段とを備えることを特徴とする立体画像データ作成装置。
  3.  請求項1又は請求項2に記載の立体画像データ作成装置において、前記所定のファイル形式の立体画像データには、前記複数の視点として3個以上のn個の視点の前記画像データを含むことを特徴とする立体画像データ作成装置。
  4.  請求項1から請求項3に記載の立体画像データ作成装置において、
     前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差から3D情報を作成する場合に、前記3D情報作成手段は、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差に対する単位を示す視差単位情報を生成し、前記所定のファイル形式の立体画像データは、前記視差単位情報を含むことを特徴とする立体画像データ作成装置。
  5.  請求項4に記載の前記視差単位情報は、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差の単位が、ピクセル単位、サブピクセル単位、長さ、距離の単位、または、画像全体の横幅に対するパーセンテージのいずれかであることを特徴とする立体画像データ作成装置。
  6.  請求項1から請求項3に記載の立体画像データ作成装置において、
     前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差から3D情報を作成する場合に、前記3D情報作成手段は、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差が、前記複数の画像データのうち、どの2つの視点画像データの組み合わせによって求められたものかを示す視差対象画像情報を生成し、前記所定のファイル形式の立体画像データは、前記視差対象画像情報を含むことを特徴とする立体画像データ作成装置。
  7.  所定のファイル形式の画像データから、複数の視点の各々に対応した複数の画像データを再生する立体画像データ再生装置において、
     前記ファイル形式から、撮像手段の機構から幾何学的に求められる視差の最大値である第1の最大視差と、立体画像の左目画像と右目画像の視差の最大値となる第2の最大視差と、撮像手段の機構から所定の視差範囲内に収まり、かつ、撮像手段から最も近い距離の位置における視差である第1の最小視差と、立体画像の左目画像と右目画像の視差の最小値となる第2の最小視差のうち、少なくとも一つ以上の最大視差、または最小視差を示す3D情報と、画像データとを分離する逆多重化手段と、
     前記3D情報を解析する3D情報解析手段と、
     前記画像データに対して、視差の調整を行う立体強度変換手段を備え、
     前記3D情報解析手段は、前記3D情報を解析し、
     前記立体強度変換手段は、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差のうち、少なくとも一つ以上の最大視差、または最小視差を用いて、前記画像データの視差を調整して、再生することを特徴とする立体画像データ再生装置。
  8.  所定のファイル形式の画像データから、複数の視点の各々に対応した複数の画像データを再生する立体画像データ再生装置において、
     前記ファイル形式から、撮像手段の機構から幾何学的に求められる視差の最大値である第1の最大視差と、立体画像の左目画像と右目画像の視差の最大値となる第2の最大視差と、撮像手段の機構から所定の視差範囲内に収まり、かつ、撮像手段から最も近い距離の位置における視差である第1の最小視差と、立体画像の左目画像と右目画像の視差の最小値となる第2の最小視差のうち、少なくとも一つ以上の最大視差、または最小視差を示す3D情報と、圧縮画像データとを分離する逆多重化手段と、
     前記3D情報を解析する3D情報解析手段と、
     前記圧縮画像データを復号する画像復号手段と、
     前記圧縮画像データが復号された画像データに対して、視差の調整を行う立体強度変換手段を備え、
     前記3D情報解析手段は、前記3D情報を解析し、
     前記立体強度変換手段は、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差のうち、少なくとも一つ以上の最大視差、または最小視差を用いて、前記画像データの視差を調整して、再生することを特徴とする立体画像データ再生装置。
  9.  請求項7又は請求項8に記載の立体画像データ再生装置において、
     前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差を示す情報を解析する場合に、前記3D情報解析手段は、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差に対する単位を示す視差単位情報を解析し、解析した前記視差単位情報を用いて、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差を示す情報を解析することを特徴とする立体画像データ再生装置。
  10.  請求項7又は請求項8に記載の立体画像データ再生装置において、
     前記3D情報には、前記第1の最大視差と、前記第2の最大視差と、前記第1の最小視差と、前記第2の最小視差が、前記複数の画像データのうち、どの2つの視点画像データの組み合わせによって求められたものかを示す視差対象画像情報を含み、
     前記3D情報解析手段は、前記視差対象画像情報を解析し、前記立体強度変換手段は、前記視差対象画像情報の示す前記画像データに対して、視差の調整を行うことを特徴とする立体画像データ再生装置。
  11.  請求項7又は請求項8に記載の立体画像データ再生装置において、
     前記画像データに対して視差の調整を行う場合に、前記立体強度変換手段は、前記第1の最大視差と、前記第2の最大視差の大きさを比較し、前記第2の最大視差が、前記第1の最大視差よりも大きい場合に、前記第2の最大視差の値が不適切であると判断し、前記第1の最大視差に基づいて、視差の調整を行うことを特徴とする立体画像データ再生装置。
  12.  立体表示のための属性情報である3D情報を画像データと共に管理するファイル管理方法であって、
     前記3D情報は、視点画像の組み合わせを示す視差対象画像情報と、第1及び第2の最大視差と第1及び第2の最小視差の単位を示す視差単位情報と、第1の最大視差と、第2の最大視差と、第1の最小視差と、第2の最小視差と、前記画像データを立体表示するディスプレイのサイズを示す想定ディスプレイサイズとにより構成されることを特徴とするファイル管理方法。
  13.  請求項12記載のファイル管理方法であって、
     前記3D情報は、第1及び第2の最大視差と第1及び第2の最小視差のそれぞれの視差情報が、前記3D情報に記録されているかどうかを示す視差記録可否フラグを含むことを特徴とするファイル管理方法。
  14.  請求項12又は請求項13記載のファイル管理方法であって、
     管理される1つのファイルは、ファイルヘッダと、前記3D情報と、3次元画像と直接関係ない情報の記録に使用する管理情報と、前記画像データとで構成され、
     前記ファイルヘッダ、前記3D情報、前記管理情報、前記画像データは、前記ファイルの先頭より、前記ファイルヘッダ、前記3D情報、前記管理情報、前記画像データの順番で配置されることを特徴とするファイル管理方法。
  15.  請求項12又は請求項13記載のファイル管理方法であって、
     管理される1つのファイルは、前記3D情報と、3次元画像と直接関係ない情報の記録に使用する管理情報と、ファイルヘッダと、前記画像データとで構成され、
     前記3D情報、前記管理情報、前記ファイルヘッダ、前記画像データは、前記ファイルの先頭より、前記3D情報、前記管理情報、前記ファイルヘッダ、前記画像データの順番で配置されることを特徴とするファイル管理方法。
  16.  請求項12から請求項15記載のファイル管理方法であって、
     前記画像データは、左目用画像データと右目用画像データとの両方で構成されることを特徴とするファイル管理方法。
PCT/JP2011/075289 2010-11-05 2011-11-02 立体画像データ作成装置、立体画像データ再生装置、及びファイル管理方法 WO2012060406A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP11838056.7A EP2637413A1 (en) 2010-11-05 2011-11-02 Device for creating stereoscopic image data, device for playing back stereoscopic image data, and file management method
US13/823,458 US20130182078A1 (en) 2010-11-05 2011-11-02 Stereoscopic image data creating device, stereoscopic image data reproducing device, and file management method
CN201180052193XA CN103190154A (zh) 2010-11-05 2011-11-02 立体图像数据生成装置、立体图像数据重放装置、以及文件管理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010248567A JP5002047B2 (ja) 2010-11-05 2010-11-05 立体画像データ再生装置
JP2010-248567 2010-11-05

Publications (1)

Publication Number Publication Date
WO2012060406A1 true WO2012060406A1 (ja) 2012-05-10

Family

ID=46024519

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/075289 WO2012060406A1 (ja) 2010-11-05 2011-11-02 立体画像データ作成装置、立体画像データ再生装置、及びファイル管理方法

Country Status (5)

Country Link
US (1) US20130182078A1 (ja)
EP (1) EP2637413A1 (ja)
JP (1) JP5002047B2 (ja)
CN (1) CN103190154A (ja)
WO (1) WO2012060406A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6476658B2 (ja) * 2013-09-11 2019-03-06 ソニー株式会社 画像処理装置および方法
US10178247B2 (en) * 2015-01-30 2019-01-08 Jerry Nims Digital multi-dimensional image photon platform system and methods of use
US9992473B2 (en) * 2015-01-30 2018-06-05 Jerry Nims Digital multi-dimensional image photon platform system and methods of use
EP3376761B1 (en) * 2015-11-11 2021-10-13 Sony Group Corporation Image processing device and image processing method
WO2017213234A1 (en) * 2016-06-10 2017-12-14 Sharp Kabushiki Kaisha Systems and methods for signaling of information associated with a visual language presentation
TWI697692B (zh) 2017-08-01 2020-07-01 緯創資通股份有限公司 近眼顯示系統及其操作方法
CN107959846B (zh) * 2017-12-06 2019-12-03 苏州佳世达电通有限公司 影像显示设备及影像显示方法
CN110798707B (zh) 2018-08-02 2023-06-16 华为技术有限公司 传输媒体数据的方法、客户端和服务器
US20210321077A1 (en) * 2020-01-09 2021-10-14 JUC Holdings Limited 2d digital image capture system and simulating 3d digital image sequence
US11917119B2 (en) 2020-01-09 2024-02-27 Jerry Nims 2D image capture system and display of 3D digital image
US12106501B2 (en) 2020-01-09 2024-10-01 JUC Holdings Limited Subsurface imaging and display of 3D digital image and 3D image sequence
US12108015B2 (en) * 2020-01-09 2024-10-01 JUC Holdings Limited 2D digital image capture system, frame speed, and simulating 3D digital image sequence

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089421A (ja) * 1994-06-20 1996-01-12 Sanyo Electric Co Ltd 立体映像装置
JPH1032840A (ja) * 1996-04-05 1998-02-03 Matsushita Electric Ind Co Ltd 多視点画像伝送方法および多視点画像表示方法
JPH1127703A (ja) * 1997-06-30 1999-01-29 Canon Inc 表示装置及びその制御方法
JP2001142166A (ja) * 1999-09-15 2001-05-25 Sharp Corp 3dカメラ
JP2002095018A (ja) * 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2004240469A (ja) * 2002-12-13 2004-08-26 Sharp Corp 画像データ作成装置およびそのデータを再生する画像データ再生装置
JP2004349736A (ja) * 2003-05-08 2004-12-09 Sharp Corp 立体画像処理装置、立体画像処理プログラムおよびそのプログラムを記録した記録媒体
WO2007064159A1 (en) * 2005-12-02 2007-06-07 Electronics And Telecommunications Research Institute Method for providing 3d contents service based on digital broadcasting
JP2008167064A (ja) * 2006-12-27 2008-07-17 Fujifilm Corp 画像生成装置及び画像再生装置
JP2009516447A (ja) 2005-11-17 2009-04-16 ノキア コーポレイション 3次元画像データを生成、転送および処理するための方法および装置
WO2009145426A1 (en) * 2008-05-27 2009-12-03 Samsung Electronics Co., Ltd. Method and apparatus for generating stereoscopic image data stream by using camera parameter, and method and apparatus for restoring stereoscopic image by using camera parameter

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1617684A4 (en) * 2003-04-17 2009-06-03 Sharp Kk THREE-DIMENSIONAL IMAGE CREATION DEVICE, THREE-DIMENSIONAL IMAGE REPRODUCING DEVICE, THREE-DIMENSIONAL IMAGE PROCESSING DEVICE, THREE-DIMENSIONAL IMAGE PROCESSING PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME
JP4649219B2 (ja) * 2005-02-01 2011-03-09 キヤノン株式会社 立体画像生成装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089421A (ja) * 1994-06-20 1996-01-12 Sanyo Electric Co Ltd 立体映像装置
JPH1032840A (ja) * 1996-04-05 1998-02-03 Matsushita Electric Ind Co Ltd 多視点画像伝送方法および多視点画像表示方法
JPH1127703A (ja) * 1997-06-30 1999-01-29 Canon Inc 表示装置及びその制御方法
JP2001142166A (ja) * 1999-09-15 2001-05-25 Sharp Corp 3dカメラ
JP2002095018A (ja) * 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2004240469A (ja) * 2002-12-13 2004-08-26 Sharp Corp 画像データ作成装置およびそのデータを再生する画像データ再生装置
JP2004349736A (ja) * 2003-05-08 2004-12-09 Sharp Corp 立体画像処理装置、立体画像処理プログラムおよびそのプログラムを記録した記録媒体
JP2009516447A (ja) 2005-11-17 2009-04-16 ノキア コーポレイション 3次元画像データを生成、転送および処理するための方法および装置
WO2007064159A1 (en) * 2005-12-02 2007-06-07 Electronics And Telecommunications Research Institute Method for providing 3d contents service based on digital broadcasting
JP2008167064A (ja) * 2006-12-27 2008-07-17 Fujifilm Corp 画像生成装置及び画像再生装置
WO2009145426A1 (en) * 2008-05-27 2009-12-03 Samsung Electronics Co., Ltd. Method and apparatus for generating stereoscopic image data stream by using camera parameter, and method and apparatus for restoring stereoscopic image by using camera parameter

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"3DC Safety Guidelines", 3D CONSORTIUM SAFETY/GUIDELINES SECTION, 20 April 2010 (2010-04-20)

Also Published As

Publication number Publication date
CN103190154A (zh) 2013-07-03
US20130182078A1 (en) 2013-07-18
JP2012100211A (ja) 2012-05-24
EP2637413A1 (en) 2013-09-11
JP5002047B2 (ja) 2012-08-15

Similar Documents

Publication Publication Date Title
JP5002047B2 (ja) 立体画像データ再生装置
JP4755565B2 (ja) 立体画像処理装置
JP4174001B2 (ja) 立体画像表示装置、記録方法、及び伝送方法
JP5705250B2 (ja) ステレオスコピック映像の部分データ区間の再生のためのステレオスコピック映像データストリーム生成方法及び装置、ステレオスコピック映像の部分データ区間の再生方法及び装置
JP6229962B2 (ja) 符号化装置及び符号化方法
JP4763571B2 (ja) 立体画像生成装置及び立体画像復号装置
JP5299214B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP4251864B2 (ja) 画像データ作成装置およびそのデータを再生する画像データ再生装置
TWI573425B (zh) 產生三維視訊信號
JP4942106B2 (ja) 奥行データ出力装置及び奥行データ受信装置
JP4252105B2 (ja) 画像データ作成装置及び画像データ再生装置
US8373745B2 (en) Image processing apparatus, image display apparatus, image apparatus, and image processing method
US20090244258A1 (en) Stereoscopic display apparatus, stereoscopic display method, and program
JP2004264882A (ja) 画像データ作成装置およびそのデータを再生する画像データ再生装置
JP2005094168A (ja) ファイル構造及びそれを用いる画像記録装置並びに画像再生装置
WO2012137454A1 (ja) 立体映像出力装置及び立体映像出力方法
JP5144456B2 (ja) 画像処理装置および方法、画像再生装置および方法並びにプログラム
JP2005184377A (ja) 画像変換装置及びそれを用いた画像記録装置
WO2012101916A1 (ja) 立体動画処理装置、立体動画処理プログラム及びその記録媒体、立体撮像装置並びに立体動画処理方法
JP2007312407A (ja) 立体画像表示装置およびその方法
JPWO2007029686A1 (ja) 立体画像記録再生システム
WO2004030377A1 (ja) 立体画像表示装置、記録方法、及び伝送方法
KR101433082B1 (ko) 2차원 영상과 3차원 영상의 중간 정도 느낌을 주는 영상 변환 및 재생 방법
JP2014175813A (ja) 立体映像表示方法および装置
WO2013058359A1 (ja) 画像ファイル生成装置、画像ファイル読込装置、画像ファイル生成方法、画像ファイル読込方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11838056

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 13823458

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2013122471

Country of ref document: RU

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2011838056

Country of ref document: EP

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112013010391

Country of ref document: BR