WO2007116549A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2007116549A1
WO2007116549A1 PCT/JP2006/320202 JP2006320202W WO2007116549A1 WO 2007116549 A1 WO2007116549 A1 WO 2007116549A1 JP 2006320202 W JP2006320202 W JP 2006320202W WO 2007116549 A1 WO2007116549 A1 WO 2007116549A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
parallax
transparency
image processing
information
Prior art date
Application number
PCT/JP2006/320202
Other languages
English (en)
French (fr)
Inventor
Yasutaka Wakabayashi
Ryuji Kitaura
Original Assignee
Sharp Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Kabushiki Kaisha filed Critical Sharp Kabushiki Kaisha
Priority to JP2008509683A priority Critical patent/JP4693900B2/ja
Priority to US12/296,252 priority patent/US20090284584A1/en
Publication of WO2007116549A1 publication Critical patent/WO2007116549A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus

Definitions

  • the present invention relates to an image processing apparatus for adding viewable attribute information to image data when creating image data for three-dimensional display.
  • the left and right eye images for creating a stereoscopic image are taken by placing the camera at a position corresponding to the left and right viewpoints. In some cases, an artificial camera on the software is placed at the viewpoint position to create an image. At this time, the left and right eye images that have been taken are used.
  • the parallel method the left eye image is directed to the left and the right eye image is directed to the right. The image is created by placing the right image on the right and the right eye image on the left.
  • a display device has also been proposed that can stereoscopically view a stereoscopic electronic image such as an image for the left eye and an image for the right eye using the naked eye or some special glasses.
  • Typical examples of the binocular method include a time division method, a parallax barrier method, and a polarization filter method.
  • the paralatras noria system will be described as an example.
  • FIG. 14 is a conceptual diagram for explaining the parallax barrier method.
  • Fig. 14 (a) is a diagram showing the principle of parallax.
  • FIG. 14 (b) is a diagram showing a screen displayed in the paralatras noria method.
  • FIG. 14 (a) an image in which the left-eye image and the right-eye image as shown in FIG. 14 (b) are alternately arranged every other pixel in the horizontal direction is displayed on the image display panel. 50
  • the left eye 52 is the only image for the left eye and the right eye image is the right Observing only with the eye 53, stereoscopic viewing is possible.
  • FIG. 15 shows an example of a recording data format corresponding to the parallax barrier method. From the left-eye image shown in Fig. 15 (a) and the right-eye image shown in Fig. 15 (b), each one pixel row shown in Fig. 15 (c) is thinned out every other pixel row in the horizontal direction. Create and record an image. At the time of display, this stereoscopic image is rearranged for each pixel, and the viewer can observe stereoscopically with the naked eye by a display device compatible with the Norrax Noria method or the lenticular method.
  • a binocular stereoscopic viewing image is displayed as shown in Fig. 15 (c).
  • the image for the eye and the image for the right eye are arranged side by side.
  • Patent Document 1 Japanese Patent Laid-Open No. 6-324413
  • Patent Document 2 JP 2004-104331 A
  • Patent Document 3 JP-A-7-38918
  • Patent Document 4 JP-A-8-251419
  • the present invention has been made to solve the above-described problems, and has an effect on image quality while taking parallax into consideration when compositing an object such as an image in stereoscopic image data.
  • An object of the present invention is to provide an image processing apparatus for combining images while suppressing the above.
  • the present invention provides an image synthesizing unit that synthesizes an object with the stereoscopic image data in an image processing apparatus that creates stereoscopic image data composed of a plurality of images corresponding to each of a plurality of viewpoints; Transparency determining means for setting transparency of the object, wherein the transparency determining means determines the transparency of the object based on disparity information between a plurality of images corresponding to the plurality of viewpoints.
  • the transparency determining means acquires, as parallax information, parallax of a region where the outside of the object is synthesized in a plurality of images corresponding to the plurality of viewpoints, and from the parallax information, the parallax information It is characterized by setting the transparency of the object.
  • the transparency determining means takes a difference value between each parallax in the region where the object is synthesized in the image and the parallax of the object, and determines the transparency according to the value.
  • the image processing apparatus further includes position determining means for determining the position of the object, wherein the position determining means detects an occlusion area having no corresponding point from disparity information in the image and overlaps the occlusion area. The position of the object is determined.
  • the image synthesizing unit based on the parallax information of the area where the object is synthesized in the image, the object to each of the images so that the parallax of the object is closest to the parallax of the parallax information. It is characterized by combining.
  • the image synthesizing unit is configured such that the parallax of the object is larger than the parallax of the parallax information based on the parallax information of the area where the object is synthesized in the image, and the left end or the right end of the object is encoded.
  • the horizontal position of the object is determined so as to coincide with the boundary of the block.
  • the image composition means encodes the vertical lower end or upper end boundary of the object and the horizontal left end or right end boundary. It is characterized by synthesizing so as to match the block boundary.
  • the size of the object is an integral multiple of the coding block in both the vertical and horizontal directions.
  • the object is characterized by visible stereoscopic image identification information including information indicating that the object is a stereoscopic image.
  • the image processing apparatus includes an image composition unit that synthesizes an object with the stereoscopic image data, and a transparency determination unit that sets the transparency of the object, and the transparency determination unit includes the plurality of viewpoints.
  • the transparency of the object is determined on the basis of disparity information between a plurality of images corresponding to the object, so that when the object is combined with the stereoscopic image, the object may interfere with stereoscopic vision or feel uncomfortable. Give rise to Can be prevented.
  • the transparency determining means may obtain parallax of a region where the outside of the object is synthesized as disparity information in a plurality of images corresponding to the plurality of viewpoints, and set the transparency of the object from the disparity information.
  • the stereoscopic image can be displayed even if it is an area where the original stereoscopic image can be seen in front of the object.
  • the transparency By setting the transparency to an area with parallax in the original, the original stereoscopic image can be seen through the object, and it is possible to prevent the sense of incongruity and combine them.
  • the transparency determining means takes a difference value between each parallax in the region where the object is synthesized in the image and the parallax of the object, and changes the transparency according to the value, As described above, the higher the transparency, the greater the disparity and the greater the sense of discomfort.
  • the image synthesizing unit detects a stereoscopic region without corresponding points from disparity information in the image, and composes the object so as to overlap the occultation region, thereby providing a stereoscopic view.
  • the occultation area that obstructs the image becomes less noticeable by the object, making it possible to reduce the sense of incongruity.
  • the object is set so that the disparity outside the object is closest to the disparity having the disparity information power.
  • the object is arranged so as to be seen in front of the image based on the disparity information of the region in which the object is synthesized in the image using the image synthesizing unit, and the object is located at the left end.
  • the object is three-dimensional by compositing the object so that it appears at the front. It is possible to prevent the image from being seen in the back direction from the image, and to reduce discomfort or observer fatigue.
  • the object When the object is combined with the image using the image combining means, By synthesizing the boundary of the lower end or upper end of the object in the vertical direction and the left or right boundary in the horizontal direction so as to coincide with the boundary of the code block, the object is encoded during encoding. It is possible to reduce the amount of code because the area crossing the boundary of the ⁇ block can be minimized.
  • the object by making the object a visible stereoscopic image identification information including information indicating that it is a stereoscopic image, an observer can display the stereoscopic image on a 2D display device. It is possible to determine at a glance that is a stereoscopic image.
  • FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to a first embodiment of the present invention.
  • FIG. 2 is a diagram for explaining parallax of stereoscopic image data.
  • FIG. 3 is a diagram relating to a description of a parallax detection method.
  • ⁇ 4 It is a diagram related to the description of the parallax detection method.
  • FIG. 5 is a diagram relating to object composition with stereoscopic image data.
  • FIG. 6 is a diagram illustrating an example of stereoscopic image data after object composition.
  • FIG. 7 is a diagram for explaining a block at the time of block code input.
  • FIG. 8 is a block diagram showing a procedure of block code key.
  • FIG. 9 is a block diagram illustrating a configuration of an image processing device according to a second embodiment of the present invention.
  • FIG. 10 is a diagram illustrating an example of a 3D mark in stereoscopic image data.
  • FIG. 11 is a diagram for explaining a method for synthesizing an object with stereoscopic image data.
  • FIG. 12 is a diagram for explaining a method for synthesizing an object with stereoscopic image data.
  • FIG. 13 is a conceptual diagram for explaining a time division method.
  • FIG. 14 is a conceptual diagram for explaining the parallax barrier method.
  • FIG. 15 is a diagram for explaining a recording data format of a parallax barrier method.
  • Image composition means
  • 3D is used as a word meaning 3D or 3D
  • 2D is used as a word meaning 2D
  • 3D or 3D image is “3D image”
  • normal 2D image is “3D image”. This is described as “2D image”.
  • FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention.
  • the image processing device 1 receives, as inputs, a left-eye image obtained from a viewpoint corresponding to the left eye and a right-eye image from the right eye, and a parallax detection unit 2 that detects parallax information and the parallax information.
  • transparency determining means 3 for determining the transparency of the object to be combined with the image for the left eye and the image for the right eye, and the image for combining the image for the left eye and the image for the right eye with the object Composition means 4, position determination means 5 for determining the composition position of the object, encoding means 6 for encoding the synthesized image, and means for accessing a recording medium or communication line (not shown) .
  • an image created by the image processing apparatus will be described as being displayed on a 3D display apparatus of the Noraratus Noria system.
  • the parallax detection means 2 uses the parallax information from the left eye image and the right eye image. Is detected.
  • the parallax is detected by stereo matching, for example. Stereo matching is to calculate which part of the image for the left eye corresponds to the part of the image for the right eye by calculating the area correlation, and the shift of the corresponding point is used as the parallax.
  • FIG. 2 shows the parallax.
  • Fig. 2 shows an image of the house.
  • the image in Fig. 2 (a) shows the image for the left eye taken by the intersection method
  • the image in Fig. 2 (b) shows the image for the right eye.
  • the background is assumed to have no parallax.
  • the corresponding point of the image for the right eye seen from the image for the left eye appears to pop out if it is on the left side of the image for the left eye, and appears in the back direction from the display screen if it is on the right side. .
  • If there is no parallax that is, if the positions of the left-eye image point and the right-eye image point are the same, these points appear to be at the position of the display screen.
  • the parallax is calculated by comparing the image for the left eye and the image for the right eye and obtaining corresponding points of the subject.
  • the input image is viewed as a two-dimensional array with each pixel value as the value, and the correspondence between the points in the same row is calculated, the result is very unstable only by comparing the pixels at that point. End up. Therefore, the area correlation method is used to compare on the surface around the pixel of interest, and the difference between the left and right images is obtained for each point on the surface, and the total force S is smaller than the corresponding point.
  • the epipolar lines are coincident, when searching for corresponding points, the vertical direction is fixed at the same height and only the horizontal direction is shifted.
  • the epipolar line is the intersection of the feature point 9 in the space and the plane (epipolar plane) 12 formed by the lens centers of the two cameras 10, 11 and the image planes 13, 14 of each camera.
  • the lines are the corresponding lines, and are the 15 and 16 dotted lines in the figure.
  • the cameras are set at the same height and installed parallel to the horizontal plane!
  • corresponding points are searched for in blocks of a certain size.
  • a comparison is made based on the difference between the RGB (red, green, and blue) components of each pixel.
  • Fig. 4 (a) is an image for the left eye
  • Fig. 4 (b) is an image for the right eye.
  • the xth pixel in the horizontal direction from the top and the yth pixel in the vertical direction are represented as L (x, y) and R (x, y).
  • L (x, y) and R (x, y) are represented as L (x, y) and R (x, y).
  • the parallax is calculated by comparing only in the horizontal direction.
  • the parallax is represented by d, and the difference in RGB components is compared for the pixel values of L (x, y) and R (x—d, y).
  • each block For example, if the block has a 4 x 4 pixel configuration, the left and right 16 pixel values are compared, their difference and the sum are obtained, and the similarity of each block is determined by the sum of the differences. I see. When the sum of the differences is the smallest, each block corresponds, and d at that time becomes the parallax.
  • the force R, G, B which compares the differences of the RGB components, may be weighted even if different weights are applied.
  • RGB components are converted into YUV components that are expressed by brightness and color difference, and Y,
  • Different weights may be applied to the differences between U and V. For example, find the sum of differences using only the luminance component.
  • the pixel configuration of the block may be a shoe! /.
  • the parallax detection unit 2 sends the left-eye image and the right-eye image to the image synthesis unit 4, and sends the parallax information to the transparency determination unit 3.
  • Transparency determining means 3 receives an object to be combined with the 3D image as an input, and determines the combining position of the object according to the position information from position determining means 5.
  • the object is a solid, white, rectangular image.
  • the position determination means 5 obtains position information regarding the arrangement position in the 3D image, for example, according to an instruction from the user. For example, if this image processing device is a PC (Personal Computer)
  • the user designates the arrangement position in the image with the keyboard and mouse and the input device.
  • parallax information is input from the parallax detection unit 2 to the position determination unit 5, and the position determination unit 5 obtains an area where the parallax information power has no corresponding point in the original 3D image and sets the ratio of the area. Try to place the objects so that they contain as many positions as possible.
  • occlusion areas Areas that are concealed due to different viewpoints and do not have corresponding points in the image are generally called occlusion areas, and force objects that may hinder stereoscopic vision are placed so as to overlap the occlusion area This makes it difficult for the observer to see this occultation region, and makes it possible to make a stereoscopically obscured image.
  • the transparency determining means 3 obtains parallax information at the synthesized position of the object from the parallax detecting means 2 based on the synthesized position of the object to the 3D image determined from the position information, and based on the parallax information. Create transparency information that indicates which area of the object is to which transparency.
  • the object when the arrangement position of the object and the surrounding parallax in the 3D image are in a direction that appears in front of the display screen, the object is synthesized with the left-eye image and the right-eye image so that the parallax is zero.
  • the object when the image is viewed stereoscopically, the object appears at the position of the display screen and the periphery of the object pops out to the front, making it unnatural and difficult to see.
  • the parallax force of the original stereoscopic image obtained from the parallax information described above is set as P1
  • the area that is larger than the value power ⁇ obtained by subtracting the parallax of the object is set as P1
  • the area that is 0 or less is set as P2.
  • the transparency determining means 3 determines the transparency of the object for each divided area as described above. For example, the transparency information is created assuming that the transparency of the object in the area P1 is 50% and the transparency of the object in the area P2 is 0%. As a result, the object can be seen through in the region P1, and only the object is observed in the region P2.
  • the transparency information is created with the transparency of such an area as 20%, for example.
  • the transparency determination means 3 creates information including the above-described transparency information, information on the object and its arrangement position (hereinafter referred to as “object position information”) as object information, and sends it to the image composition means 4. send.
  • the image composition unit 4 includes the left-eye image and the right-eye image obtained from the parallax detection unit 2, and the transparency information and the object and object position information included in the object information obtained from the transparency determination unit 3. Based on the above, image synthesis is performed.
  • FIG. 5 shows a diagram when the objects are respectively combined with the left and right eye images.
  • 1 9L shows the object synthesized with the image for the left eye
  • 19R shows the object synthesized with the image for the right eye
  • the 3D image with left eye image and right eye image power is assumed to have parallax in the background and parallax in the home area.
  • the areas 20L and 20R at the edge of the house where the objects 19L and 19R represented by diagonal lines overlap are left on the left side of the 20R, as shown by C.
  • the parallax exists so that it can be seen in the near direction as viewed from the person, and the non-shaded portions 21L and 21R of the objects 19L and 19R indicate that the power of the background is also the parallax force ⁇ .
  • the image composition means 4 sets the transparency of the object based on the transparency information included in the object information.
  • the transparency information specifies that the transparency of the object is 50%
  • the object Is synthesized with the original 3D image, and the original 3D image can be seen through before the object.
  • the image is composed at a ratio of (100—n)% of the original image and 3 ⁇ 4% of the original image. Is done. In other words, if the transparency of the object is 0%, only the object will be visible.
  • a method for setting the composition ratio simply weight the pixels at the same position at the above ratio. It may be created, or other known methods may be used, and since it is not related to the present invention, detailed description is omitted.
  • the occlusion area has a transparency of 20%, otherwise If you specify that the transparency of the area is 0%, the object is opaque in the area where the original 3D image is displayed behind the object in the stereoscopic view among the areas where the objects overlap according to this information.
  • the transparency is set to 20% by the above setting, and the object is synthesized with the original 3D image It will be.
  • the occlusion area is made less visible to the observer, and a stereoscopically squeezed image can be obtained.
  • the composite image output by the image composition means 4 is obtained by horizontally aligning the left and right viewpoint images as shown in FIG. 15 (c).
  • the image is composed of left and right frames with a bow between every other pixel column.
  • Figure 6 shows an example of the combined image.
  • the image data created by the image synthesizing unit 4 is sent to the encoding unit 6.
  • the encoding means 6 performs encoding and compresses the image data.
  • the image encoding method is JPEG (Joint Photographic Expert Group).
  • JPEG Joint Photographic Expert Group
  • an image is divided into small square blocks, subjected to orthogonal transformation, developed into a sum of a plurality of prescribed images that are orthogonal to each other, and a coefficient for each prescribed image is encoded.
  • DCT discrete Fourier transform
  • the input image is divided into a plurality of blocks as shown in FIG. 7, and each block is composed of 8 ⁇ 8 pixels as shown in the block 22 of the enlarged view surrounded by a circle.
  • the sign key means 6 performs sign coding of the image in the flow shown in FIG. 8 for each block.
  • two-dimensional DCT conversion is performed on the block 22 by the DCT device 23.
  • the frequency is decomposed, and the quantizer 24 refers to the quantization table 25, divides each coefficient after DCT conversion by the divisor of the quantization table 25, rounds the remainder, and drops the high-frequency term.
  • the entropy encoder 26 encodes this by using a Huffman code, for example, with reference to the code table 27, and outputs a 3D image as code key data.
  • the encoded data is decoded by the reproduction means performing the reverse process, sent to the display device, and displayed.
  • the 3D image that is sent to the 3D display device is displayed with its transparency set when compositing the image, so the image after image compositing must be stereoscopically viewed without increasing discomfort and fatigue. Is possible.
  • the left and right eye images are taken by the intersection method, but the parallel method may be used.
  • the image is JPEG, but other image formats such as GIF (Graphic Interchange Format), PNG (Portable Network Grapmcs, or is TIFF, ⁇ , agged Image File Format) can be used.
  • GIF Graphic Interchange Format
  • PNG Portable Network Grapmcs
  • TIFF TIFF
  • agged Image File Format
  • the parallax detection means 2 has various methods such as a method improved from this and a method using a complex system, and any method may be used. If parallax information such as a parallax map is divided even if parallax is not detected from the image, it may simply be used.
  • the force described with the transparency of the object being 50% or 20% is not limited to this, and may be higher or lower, such as 80%.
  • parallax may be applied to a force object that has been synthesized with parallax of the object set to zero. Even when parallax is applied, synthesis can be performed in the same manner
  • position information may be input from the position determination unit 5 to the parallax detection unit 2 in advance, and parallax detection may be performed only on the position where the objects overlap.
  • the transparency is set only for the area that overlaps the parallax area.
  • the transparency setting that allows the entire object to be transparent is the front side of the display screen. You may apply to the image which becomes.
  • the object may be a rectangular image, such as a mouse cursor and a pointer.
  • the synthesis method in the case where there is a parallax in the area where the object of the original 3D image is synthesized, or the occlusion area without corresponding points is shown, but the position determination means 5 is The parallax information power of the original 3D image is also determined as a region where there is no parallax or a region occupied by a region without parallax, the position of the object is determined from the region, and the transparency determining means 3 uses any transparency. There is also a method of compositing objects by adding transparency information.
  • FIG. 9 is a block diagram showing the configuration of the image processing apparatus according to the second embodiment of the present invention. Note that the same reference numerals are given to the same functions as those in the above-described embodiment.
  • the image processing device 30 visually recognizes that the image is a 3D image by receiving identification information indicating that the image is a 3D image, information on a method for creating the 3D image, and 3F blue information such as parallax information.
  • 3D mark blueprint creation means 31 for creating 3D mark as an object
  • position determination means 5 for outputting position information when the 3D mark is synthesized
  • 3D mark blueprint creation means 31 to 3D mark And parallax information position information received from the position determination means 5, and adjustment means 32 for adjusting the 3D mark composite position based on the position information, 3D mark and position information input from the adjustment means 32, input not shown
  • Means Image synthesizing means 33 for synthesizing an image from a 3D image composed of an image for the left eye corresponding to the viewpoint of the left eye and an image for the right eye corresponding to the viewpoint of the right eye, and a code of the synthesized image Encoding means 6 and an image It comprises a multiplexing means 34 that multiplexes and outputs data and 3
  • an image created by the image processing device 30 will be described as being displayed on a 3D display device using a parallax noria method.
  • the image is demultiplexed by a demultiplexer (not shown), separated into image data and 3f blueprints, and input to the image processor 30.
  • the image processing apparatus may have a function of demultiplexing.
  • the 3rd blue news is input to the 3rd blue news production means 31.
  • the 3F blueprint is assumed to be identification information indicating that it is a solid image, type information indicating a photographing method, and parallax map power that represents parallax information.
  • the 3D blue report creation means 31 creates an image that allows the user to confirm that the image is a 3D image, what kind of imaging method and when 3D information is given. This is called a 3D mark, and is an object for image synthesis in this embodiment.
  • Figure 10 shows an example of a composite image when 3D marks are combined.
  • “3D Parallel displayed area 35 indicates a 3D mark.“ 3D ”indicates that the image is a three-dimensional image, and“ Parallel ”creates this image by the parallel method. It has been shown.
  • “Stereo”, “Stereo PhotographJ” or “Stereo ImageJ” may be used as a character string indicating that the image is a 3D image. If it is a method, for example, “Cr O S sing” may be displayed, and the parallel method may be expressed as “P” and the intersection method as “C”.
  • the parallel method may be represented by a symbol such as “
  • a character string indicating a stereoscopic image or a character string indicating the type of creation method can be arbitrarily determined.
  • the 3F blueprint creating means 31 sends the 3D mark and the parallax information to the adjusting means 32.
  • the position determining means 5 sends information relating to the 3D mark combining position to the adjusting means 32 as position information.
  • the adjusting unit 32 determines the composite position based on the position information and the parallax information.
  • a method for determining the synthesis position will be described.
  • the image is compressed by the PEG method in the above embodiment. As shown in FIGS. 7 and 8, the image is encoded for each block of 8 ⁇ 8 pixels during encoding. This is called a sign key block.
  • the adjustment means 32 adjusts the position so that the boundary between the block and the 3D mark coincides.
  • FIG. 11 is a diagram showing adjustment of 3D mark positioning by the position force adjusting means 32 determined by the position determining means 5.
  • FIG. 11 (a) is before adjustment by the adjusting means 32, and the diagram shown in FIG. 11 (b) is after adjustment.
  • portions 36 and 37 surrounded by a circular shape on the left side are enlarged views of the image showing the positional relationship between the 3D mark and the block.
  • the left black lines 38 and 39 in the center correspond to the left-eye image and the right-hand side corresponds to the right-eye image, and the square drawn in a square pattern indicates the sign block.
  • the 3D mark is determined by the position determining means 5 so as to be arranged with parallax, and the 3D mark 40 of the left-eye image is the left edge of the left-eye image.
  • the 3D mark 41 of the right-eye image is only a distance less than 2 blocks away from the central thick line 38 that is the left end of the right-eye image.
  • the left and right 3D marks 40 and 41 are arranged so as to cross the code block, so that the image quality is greatly deteriorated.
  • the adjusting means 32 moves so that either one of the upper and lower block boundaries of the 3D marks 40 and 41 is close to the block boundary of the original image and coincides with the block boundary.
  • move the 3D mark so that the mark boundary coincides with the block boundary where the moving distance is the shortest.
  • they are arranged as shown in 42 and 43 in FIG. 11 (b).
  • the dotted lines and arrows in Fig. 11 are shown to show that the 3D mark has moved in that direction. As a result, it is possible to suppress deterioration in image quality during image composition.
  • the 3D mark has moved so that the moving distance of the 3D mark is minimized from the position determined by the position determining means 5.
  • the position information of the position determining means 5 indicates that the 3D mark is replaced with the overlapping area of the original image.
  • the original image is the display image when it is arranged according to the parallax. If the image is visible in front of the surface and moves as short as possible, the parallax of the 3D mark will be less than the parallax of the original image in the overlapped area, and it may appear slightly sunk. As described above, it seems uncomfortable if it appears to sink to the back with respect to the surroundings. In such a case, the 3D mark is moved in a direction that increases the parallax.
  • the adjusting unit 32 when adjusting the position of the 3D mark, the adjusting unit 32 first moves in line with the closest block boundary in the direction in which the parallax increases, and thus when the stereoscopic view is performed. To eliminate the sense of discomfort. Next, the size of the 3D mark itself is automatically enlarged / reduced so that it becomes an integral multiple of the block, so that all the boundaries coincide with the block boundaries.
  • Fig. 12 (a) shows the 3D mark before moving
  • Fig. 12 (b) shows the moved and enlarged / reduced image
  • 3D mark 44 is on the right side for the left eye image
  • 3D mark 45 is for the right eye image side. Has been moved to the left, and the parallax has increased.
  • the image is reduced in the horizontal direction and enlarged in the vertical direction, which is an integral multiple of the block size.
  • the image data synthesized in this way is sent from the image synthesizing means 33 to the sign key means 6.
  • the encoding is performed in the flow shown in FIG. Since the synthesized 3D mark is adjusted by the adjusting means 32 to the boundary of the code key block, the deterioration of the image quality at the time of the code key is suppressed.
  • the encoded data is sent from the encoding means 6 to the multiplexing means 34, multiplexed with the 3f blueprints, and output as multiplexed data.
  • the image size, the block, and the like have been described with numerical values different from the actual size for easy understanding.
  • the image size can be any size other than 640 X 480, 1600 X 1 200, and so on.
  • a moving image that is compressed by encoding such as MP EG (Moving Picture Experts Group) 1 or MPEG2 as a still image here may be used.
  • the unit of the encoding block is PEG and PEG, the power of 8 x 8 pixels is used. It is not limited to the size, and MPEG2 can take various sizes such as 16 X 16
  • the position determination unit 5 determines the left and right composite positions of the 3D mark here, the position determination unit sets only a rough position, and the adjustment unit 32 sets the disparity information based on the disparity information. Therefore, the parallax according to the background may be set automatically.
  • the parallax is increased when the object is superimposed on the image that appears in front of the display screen. Even if the transparency is set according to the boundary as in the first embodiment, the deterioration of the image quality can be suppressed and the uncomfortable feeling can be reduced. In the object movement / enlargement / reduction process, the order of the forces of enlargement / reduction after moving may be reversed.
  • the power described with reference to the example of the parallata noria method that is a two-lens method may be used as a stereoscopic display method.
  • a time-division display method that is also a twin-lens method may be used.
  • the left-eye image and right-eye image shown in Fig. 15 (a) and Fig. 15 (b) are used as the format, as shown in Fig. 13.
  • This is then displayed in a 3D display device, such as a projector, that supports the time-division display method.
  • a 3D display device such as a projector
  • a method such as a multi-view method or an integral photography method that prepares an image corresponding to a larger number of viewpoints than the binocular method described here and performs stereoscopic viewing may be used.
  • the present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the claims, and the technical means disclosed in the different embodiments are appropriately combined. Embodiments obtained in this manner are also included in the technical scope of the present invention.
  • Industrial applicability As described above, according to the image processing apparatus of the present invention, when an object is combined with a 3D image, the transparency of the object is determined in consideration of the parallax of the 3D image, and the object is not uncomfortable by combining the objects. In addition to realizing an image, it is possible to adjust the composition position of the object in order to suppress the deterioration of the image quality when the block code is displayed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

 3D画像に画像を合成する際、3D画像の視差を考慮して合成する事で違和感のない合成画像を実現すると共に、ブロック符号化時の画質の劣化を抑える画像処理装置を提供する。画像処理装置1は、左眼に対応する視点から得られた左眼用画像および右眼からの右眼用画像を入力とし、視差情報を検出する視差検出手段2からの視差情報、並びに位置決定手段5からの位置情報を元に、透明度決定手段3が左眼用画像および右眼用画像に合成するオブジェクトの透明度を決定し、または、調整手段32によりオブジェクトの合成位置を符号化ブロックの境界に合わせるように決定して、左眼用画像および右眼用画像とオブジェクトの合成を行う。

Description

明 細 書
画像処理装置
技術分野
[0001] 本発明は、 3次元表示する為の画像データを作成する際に、画像データに視認可 能な属性情報を付加する画像処理装置に関する。
背景技術
[0002] 従来、立体画像を表示する様々な方法が提案されてきた。その中でも一般的に用 いられているのは、両眼視差を利用する「2眼式」と呼ばれるものである。両眼視差を 持った左眼用の画像と右眼用の画像 (以下、それぞれ「左眼用画像」、「右眼用画像 」という)を用意し、観察者が左眼用画像を左眼で、右眼用画像を右眼で見ることによ り、被写体を直接見て 、るかのような立体感を得ることが出来る。
[0003] このような立体視における立体画像の作成方法として、平行法、交差法という 2つの 方式が知られている。立体画像を作成するための左'右眼用画像は、左右の視点に 対応する位置にカメラを置 、て撮影する。ある 、はソフトウェア上での擬似的なカメラ を視点位置におき、画像を作成する。この時、撮影した該左 ·右眼用画像を用い、平 行法においては左眼用画像を向力つて左に、右眼用画像を向かって右に配置し、交 差法では左眼用画像を向力つて右に、右眼用画像を向かって左に配置して作成す る。
[0004] 近年では、左眼用画像、右眼用画像カゝらなる立体視用の電子画像を裸眼、ある ヽ は特殊な眼鏡などを使用して立体視することが可能な表示装置も提案されており、 2 眼式の代表的な方式として、例えば、時分割方式、パララクスバリア方式又は偏光フ ィルタ方式などがある。このうち、例としてパララタスノリア方式に関して説明する。
[0005] 図 14は、パララクスバリア方式を説明するための概念図である。図 14 (a)は、視差 が生じる原理を示す図である。一方、図 14 (b)は、パララタスノリア方式で表示される 画面を示す図である。
[0006] 図 14 (a)では、図 14 (b)に示すような左眼用画像と右眼用画像が水平方向 1画素 おきに交互にならんだ形に配置された画像を、画像表示パネル 50に表示し、同一視 点の画素の間隔よりも狭い間隔でスリットを持つパララタスノ リア 51を画像表示パネ ル 50の前面に配置することにより、観察者は左眼用画像は左眼 52だけで、右眼用 画像は右眼 53だけで観察することになり、立体視を行うことができる。
[0007] ここでパララクスバリア方式に対応した記録データ形式の一例を図 15に示す。図 1 5 (a)に示す左眼用画像と図 15 (b)に示す右眼用画像から、それぞれを水平方向に 1画素列おきに間引きして図 15 (c)に示す 1枚の立体画像を作って記録する。表示 する際にはこの立体画像を画素毎に並べ替え、ノララクスノリア方式、あるいはレン ティキユラ方式に対応した表示装置により観察者は裸眼で立体的に観察することが 可能となる。
[0008] 各立体視の方式に従い、左 ·右眼用画像の画素配置などの構成は変わることがあ るものの、 2眼式の立体視用の画像を図 15 (c)に示すような左眼用画像と右眼用画 像が左右に並んだフォーマットとすることが多い。
[0009] このような立体画像にぉ 、て、画像や文字などを合成した!/、と 、う要望がある。例え ば、立体画像を立体視に対応しない通常の表示装置で表示した場合、左眼用画像 、右眼用画像が左右に並んだ画像が表示されるだけとなってしまう。この場合、通常 の表示装置しか所有していない人にとっては、それが立体視向けに撮影された画像 であることを明確に識別することが出来ず、混乱を引き起こす可能性がある。このた め、立体写真の場合には、撮影した画像のどちらが左眼用、右眼用かを示す識別情 報をあらわすパターンと、撮影方法に応じた立体視を補助する為に左眼用、右眼用 画像に共通のパターンをフィルム上に写しこむ方法が提案されて ヽる。(特許文献 1 参照)
同様に、表示装置で表示する為の立体画像データでもこのようなマークを合成する 事で、立体画像であることを明確にすることができる。
[0010] また、立体画像に任意の文字等を書き込む方法が開示されている。入力された任 意の文字等の遠近の調整には、これら文字等の遠近感を近づけたり、遠ざけたりす るためのボタンがあり、該ボタンによりユーザーが任意に遠近を調整する。(特許文献 2参照)
[0011] また、このような画像合成を行う際、単純に画像合成を行った場合、圧縮符号化処 理をする際に画質の劣化を引き起こすという問題があるが、これを回避する方法とし て、圧縮符号ィ匕を行う際のブロックサイズに応じて合成画像の配置する位置を限定 する方法が開示されている。(特許文献 3参照)
[0012] また、文字画像データを合成する際に、前記データを構成する単位画素のサイズ を、ブロック符号ィ匕するブロックサイズの偶数分の 1もしくは整数倍にするような方法 が開示されている。(特許文献 4参照)
特許文献 1:特開平 6— 324413号公報
特許文献 2 :特開 2004— 104331号公報
特許文献 3 :特開平 7— 38918号公報
特許文献 4:特開平 8 - 251419号公報
発明の開示
発明が解決しょうとする課題
[0013] しかし、このような合成を行う際に立体画像の視差を考慮せずに合成すると、見づら く観察者に疲労を与えることがある。例えば、立体視した際に飛び出して見える画像 に、視差をつけず、表示画面上の位置に見える画像を合成すると、合成した画像領 域だけが周囲に対して奥の方向に見えることとなり、違和感が強ぐまた疲労を招く可 能性もある。
[0014] 本発明は、以上のような問題点を解決するためになされたものであって、立体画像 データ内に画像などのオブジェクトを合成する際に、視差を考慮しつつ画質への影 響を抑えて合成する画像処理装置を提供することを目的とする。
課題を解決するための手段
[0015] 本発明は、複数視点の各々に対応した複数の画像から構成される立体画像データ を作成する画像処理装置にお ヽて、前記立体画像データにオブジェクトを合成する 画像合成手段と、前記オブジェクトの透明度を設定する透明度決定手段とを備え、 前記透明度決定手段は、前記複数視点に対応した複数の画像間の視差情報に基 づき前記オブジェクトの透明度を決定することを特徴とする。
[0016] また、前記透明度決定手段は、前記複数視点に対応した複数の画像における前記 オブジェ外を合成する領域の視差を視差情報として取得し、前記視差情報から前記 オブジェクトの透明度を設定することを特徴とする。
[0017] また、前記透明度決定手段は、前記画像における前記オブジェクトを合成する領域 内のそれぞれの視差と、前記オブジェクトの視差との差分値を取り、その値に応じて 透明度を決定することを特徴とする。
[0018] また、前記オブジェクトの位置を決定する位置決定手段を備え、前記位置決定手 段は、前記画像における視差情報より対応点のないオタルージョン領域を検出し、前 記ォクルージョン領域と重なるように前記オブジェクトの位置を決定することを特徴と する。
[0019] また、前記画像合成手段は、前記画像における前記オブジェクトを合成する領域の 視差情報に基づき、前記オブジェクトの視差が該視差情報の視差に最も近くなるよう 、前記オブジェクトを前記画像のそれぞれに合成することを特徴とする。
[0020] また、前記画像合成手段は、前記画像における前記オブジェクトを合成する領域の 視差情報に基づき、前記オブジェクトの視差が該視差情報の視差よりも大きぐかつ 前記オブジェクトの左端あるいは右端が符号ィ匕ブロックの境界と一致するように前記 オブジェクトの水平方向位置を決めることを特徴とする。
[0021] また、前記画像合成手段は、前記オブジェクトを前記画像に合成する際、前記ォブ ジ タトの垂直方向の下端あるいは上端の境界、かつ水平方向の左端ある 、は右端 の境界を符号化ブロックの境界に一致するよう合成することを特徴とする。
[0022] また、前記オブジェクトの大きさは、垂直方向と水平方向共に、前記符号化ブロック の整数倍の大きさとなることを特徴とする。
[0023] また、前記オブジェクトは、立体画像であることを示す情報を含む視認可能な立体 画像識別情報であることを特徴とする。
発明の効果
[0024] 本発明の画像処理装置によれば、前記立体画像データにオブジェクトを合成する 画像合成手段と、前記オブジェクトの透明度を設定する透明度決定手段を備え、前 記透明度決定手段は、前記複数視点に対応した複数の画像間の視差情報に基づき 前記オブジェクトの透明度を決定することを特徴とすることにより、立体画像にォブジ ェクトを合成する際に、該オブジェクトが立体視の妨げになったり、違和感を生じさせ てしまうのを防ぐことが可能となる。
[0025] また、前記透明度決定手段は、前記複数視点に対応した複数の画像における前記 オブジェ外を合成する領域の視差を視差情報として取得し、前記視差情報から前記 オブジェクトに透明度を設定することが可能であり、この手段を用いることにより、立体 画像にオブジェクトを合成する際に、オブジェクトの配置位置力 元の立体画像の方 がオブジェクトよりも手前に見えるような領域であっても、前記立体画像における視差 のある領域に透明度を設定する事で元の立体画像はオブジェクトを通して透けて見 えることとなり、違和感を防止して合成することが可能となる。
[0026] また、前記透明度決定手段は、前記画像における前記オブジェクトを合成する領域 内のそれぞれの視差と、前記オブジェクトの視差との差分値を取り、その値に応じて 透明度を変更することにより、視差が大きく違和感の大きい場所ほど透明度を上げる と言ったように、より違和感を防止する合成が可能となる。
[0027] また、前記画像合成手段は、前記画像における視差情報より対応点のな!ヽォクル 一ジョン領域を検出し、前記オタルージョン領域と重なるように前記オブジェクトを合 成することにより、立体視の妨げとなるオタルージョン領域がオブジェクトにより目立た なくなり、違和感を減ずることが可能となる。
[0028] また、前記画像合成手段を用いて、前記画像における前記オブジェクトを合成する 領域の視差情報に基づき、前記オブジェ外の視差が前記視差情報力もの視差に最 も近くなるよう、前記オブジェクトを前記画像それぞれに合成することにより、合成後 の画像であっても合成前と同じような視差を保つことが可能となる。
[0029] また、前記画像合成手段を用いて、前記画像における前記オブジェクトを合成する 領域の視差情報に基づき、前記画像よりも手前にみえるように前記オブジェクトを配 置し、かつ前記オブジェクトの左端ある 、は右端が符号化ブロックの境界と一致する ように水平方向位置を決めることにより、表示画面より前方に見えるように合成する際 、最も手前に見えるように前記オブジェクトを合成することでオブジェクトが立体画像 よりも奥の方向に見えるのを防ぎ、違和感、又は観察者の疲労を少なくすることが可 能となる。
[0030] また、前記画像合成手段を用いて、前記オブジェクトを前記画像に合成する場合、 前記オブジェクトの垂直方向の下端あるいは上端の境界、かつ水平方向の左端ある いは右端の境界を符号ィ匕ブロックの境界に一致するように合成することにより、符号 化の際、前記オブジェクトが符号ィ匕ブロックの境界をまたぐ領域を最小限に抑えるこ とができるため、符号量を少なくすることが可能となる。
[0031] また、前記オブジェクトの大きさを、垂直方向と水平方向共に、前記符号化ブロック の整数倍とすることにより、符号ィ匕ブロックの境界をオブジェクトがまたぐことがなくな るため、効率よく符号ィ匕することが可能となる。
[0032] また、前記オブジェクトを、立体画像であることを示す情報を含む視認可能な立体 画像識別情報とすることにより、観察者は、 2Dの表示装置でこの立体画像を表示し ても、それが立体向けの画像であることを一目で判別することが可能となる。
図面の簡単な説明
[0033] [図 1]本発明の実施形態 1の画像処理装置の構成を示すブロック図である。
[図 2]立体画像データの視差について説明するための図である。
[図 3]視差検出方法の説明に関する図である。
圆 4]視差検出方法の説明に関する図である。
[図 5]立体画像データへのオブジェクト合成に関する図である。
[図 6]オブジェクト合成後の立体画像データの一例を示す図である。
[図 7]ブロック符号ィ匕時のブロックに関する説明のための図である。
[図 8]ブロック符号ィ匕の手順を示すブロック図である。
[図 9]本発明の実施形態 2の画像処理装置の構成を示すブロック図である。
[図 10]立体画像データにおける 3Dマークの一例を示す図である。
[図 11]立体画像データへのオブジェクトの合成方法に関する説明の図である。
[図 12]立体画像データへのオブジェクトの合成方法に関する説明の図である。
[図 13]時分割方式を説明するための概念図である。
[図 14]パララクスバリア方式を説明するための概念図である。
[図 15]パララクスバリア方式の記録データ形式を説明する図である。
符号の説明
[0034] 1、 30 画像処理装置 視差検出手段
透明度決定手段
画像合成手段
位置決定手段
符号化手段
L、8L 左眼用画像の点
R、8R 右眼用画像の点
特徴点
0、 11 カメラ
2 ェピポーラ平面
3、 14 画像平面
5、 16 ェピポーラ線
7、 18 ブロック
9、 35、 40、 41、 42、 43、 44、 45 オブジェク卜0、 21、 36、 37 画像領域
2 ブロック画像
3 DCT器
4 量子化器
5 量子化テーブル
6 エントロピー符号化器
7 符号テーブル
1 3D情報作成手段
2 調整手段
3 画像合成手段
多重化手段
、 39、 46 左右境界線
画像表示パネル
1 パララクスバリア 52 右眼
53 左眼
発明を実施するための最良の形態
[0035] (実施形態 1)
本発明の実施形態について、図面を参照しながら説明する。以下では、 3次元また は立体を意味する語として「3D」を、 2次元を意味する語として「2D」をそれぞれ用い 、 3次元または立体画像を「3D画像」、通常の 2次元画像を「2D画像」として説明を 行なう。
[0036] 図 1は、本発明の実施形態 1の画像処理装置の構成を示すブロック図である。
画像処理装置 1は、左眼に対応する視点から得られた左眼用画像、および右眼か らの右眼用画像を入力とし、視差情報を検出する視差検出手段 2と、前記視差情報 を元に、前記左眼用画像と前記右眼用画像力もなる画像に合成するオブジェクトの 透明度を決定する透明度決定手段 3と、左眼用画像および右眼用画像と、オブジェ タトの合成を行う画像合成手段 4と、オブジェクトの合成位置を決定する位置決定手 段 5と、合成した画像を符号化する符号化手段 6と、図示しない記録媒体や通信回線 にアクセスする手段とを備えて構成される。
本実施形態では、例えば、本画像処理装置によって作成された画像は、ノララタス ノリア方式での 3D表示装置で表示するものとして説明する。
[0037] まず、左眼用画像と右眼用画像力もなる画像信号が、画像処理装置 1に入力され ると、視差検出手段 2は、該左眼用および該右眼用画像から、視差情報を検出する。 視差は、例えば、ステレオマッチングにより検出する。ステレオマッチングとは、左眼 用画像が右眼用画像のどの部分に対応するかを面積相関の計算により算出し、対 応する点のずれを視差とするものである。
[0038] 3D画像を、 3D表示に対応した 3D表示装置によって表示する場合、視差が大きい ほど表示画面より飛び出して、あるいは表示画面よりも奥に見える。
図 2は視差について示す図である。図 2は家を撮影した画像を示しており、それぞ れ図 2 (a)の画像は交差法により撮影された左眼用画像、図 2 (b)の画像は右眼用画 像を示している。背景は視差がないものとする。 ここで、左眼用画像からみた右眼用画像の対応点は、左眼用画像のものより左側 にある場合は飛び出して見え、右側にある場合には表示画面よりも奥の方向に見え る。また、視差が無い場合、つまり、左眼用画像の点と右眼用画像の点の位置が同じ 位置であれば、それらの点は、表示画面の位置にあるように見える。
[0039] 例えば、画像図 2 (a)と図 2 (b)を比較すると、左眼用画像の点 7L、 8Lに対応する 右眼用画像の点をそれぞれ 7R、 8Rとすると、それぞれの画像を撮影したカメラの位 置に近い 7Lと 7Rの視差は大きくなり、また、前記カメラの位置力 遠い 8Lと 8Rの視 差は小さくなる。またこのとき、左眼用画像からみた右眼用画像の対応点は左側にあ る。よって、 7Lと 7R、 8Lと 8Rともに表示画面に対して飛び出して見える力 視差が 大きい 7Lと 7Rの点の方力 8Lと 8Rの点より観察者には手前に飛び出して見える。
[0040] 前記視差検出手段 2において、ステレオマッチングにより視差情報を検出する方法 について、以下、詳細に説明する。
視差は、左眼用画像と右眼用画像を比較し、被写体の対応点を求める事で算出す る。しかし、入力画像をそれぞれの画素値を値にもつ 2次元の配列と見て、同じ行に おける点の対応関係を求めるときに、その点の画素の比較だけでは結果が非常に不 安定になってしまう。そこで、面積相関法を使用し、注目している画素の周りの面で 比較し、その面中の点それぞれについて左右の画像中で差をとり、その合計力 Sもっと も小さ 、ものを対応点とする。
[0041] 図 2においてその例を示す。ここで、ェピポーラ線は一致しているので、対応点を探 すときは、縦方向は同じ高さに固定し、横方向のみをずらしながら探索すればよい。 ェピポーラ線とは、図 3に示すように空間中の特徴点 9と 2つのカメラ 10、 11のレンズ 中心によってできる平面(ェピポーラ平面) 12と、それぞれのカメラの画像平面 13、 1 4との交線が対応する線であり、図では 15、 16の点線となる。図 3では一致していな いが、本実施形態の図 2の画像ではカメラを同じ高さにして、水平面に対して平行に 設置して!/、る為一致して 、る。
[0042] 図 4に示すように、ある一定のサイズのブロック単位で対応点を探す。それぞれの画 素の RGB (赤、緑、青)成分の差を元に比較を行う。
図 4 (a)は左眼用画像、図 4 (b)は右眼用画像であり、それぞれの画像において左 上から横方向に x番目、縦方向に y番目の画素を、 L (x、 y)、 R (x、 y)と表すものとす る。上述のように、縦方向には一致しているので、横方向のみで比較し視差を算出す る。視差を dで表し、 L (x、 y)と R(x— d、 y)の画素値について RGB成分の差を比較 することになる。これをブロック毎に行い、例えばブロックを 4 X 4の画素構成とすると、 左右それぞれ 16個の画素値を比較し、それらの差分およびその総和を求め、この差 分の総和によって各ブロックの類似度を見る。この差分の総和が最も小さくなる時そ れぞれのブロックは対応していることとなり、そのときの dが視差となる。
[0043] 図 4において、図 4 (a)の 17と図 4 (b)の 181、 18m、 18ηのブロックをそれぞれ上記 のように RGB成分の差で算出すると、 18mで最も差が小さくなり、このブロックが対応 するブロックであることが分かり、視差 dが算出される。画像全体をブロックに分け、そ れぞれ対応点を見つけ出す事で、画像全体の視差をブロック単位で算出することが 出来る。
[0044] また、上記では、 RGB成分の差を比較した力 R、 G、 Bそれぞれの差分に対して 異なる重み付けをしても力まわな 、。
さらにまた、 RGB成分を、輝度と色差により表現する YUV成分などに変換し、 Y、
U、 Vそれぞれの差分に対して異なる重み付けをしてもかまわない。例えば、輝度成 分だけを用いて差分の総和を求めてもょ 、。
上記では、ブロックを 4 X 4の画素構成とした力 水平'垂直とも少なくとも一つ以上 の画素から構成されて 、れば、ブロックの画素構成が 、くつであってもかまわな!/、。
[0045] 視差検出手段 2は、左眼用画像、右眼用画像をそれぞれ画像合成手段 4へと送り、 視差情報は透明度決定手段 3へと送る。透明度決定手段 3は、 3D画像に合成する オブジェクトを入力として受けとり、位置決定手段 5からの位置情報に従って、該ォブ ジェタトの合成位置を決定する。
[0046] ここでは、例えばオブジェクトを無地で白色、矩形の画像とする。
位置決定手段 5は、例えば、ユーザーからの指示に従い、 3D画像中の配置位置に 関する位置情報を得る。例えば、本画像処理装置が PC (Personal Computer)と
V、つた端末機器であったとすると、ユーザーがキーボードやマウスと 、つた入力装置 により画像中の配置位置を指定することとなる。 [0047] また、視差検出手段 2から位置決定手段 5に視差情報が入力され、位置決定手段 5 は、該視差情報力も元の 3D画像の対応点の無い領域を求め、その領域の割合をも つとも多く含む位置になるようオブジェクトを配置するようにしてもょ 、。
視点が異なることから隠蔽され、画像内に対応点が無い領域は、ォクルージョン領 域と一般的に呼ばれ、立体視の妨げとなる可能性がある力 オブジェクトをォクルー ジョン領域に重なるように配置することにより、このオタルージョン領域が観察者に見 えにくくなり、より立体視しゃすい画像にすることができる。
[0048] 透明度決定手段 3は、位置情報より決定した該 3D画像へのオブジェクトの合成位 置を元に、視差検出手段 2からオブジェクトの合成位置における視差情報を得て、該 視差情報を元にオブジェクトのどの領域をどのくらいの透明度にするかを示す透明 度情報を作成する。
[0049] 例えば、 3D画像においてオブジェクトの配置位置及びその周囲の視差が表示画 面より手前に見える方向であった場合、オブジェクトを視差 0となるように左眼用及び 右眼用画像にそれぞれ合成し、該画像を立体視したときに、オブジェクトは表示画面 位置に、オブジェクトの周囲は手前に飛び出して見えることとなり、不自然で見づらく なってしまう。
[0050] この問題を解決するために、まず元の 3D画像内のオブジェクトを配置する領域の 視差情報を参照して、その領域を元の 3D画像の方がオブジェクトよりも前面に表示 される領域 P1と、そうでない領域 P2とに分ける。つまり、対象とする領域において、前 記視差情報から求めた元の立体画像の視差力 前記オブジェクトの視差を引いた値 力^より大きくなる領域を P1、0以下の値となる領域を P2とする。
[0051] 次に、透明度決定手段 3は、オブジェクトの透明度を上記のように分けた領域別に 決定する。例えば、領域 P1におけるオブジェクトの透明度を 50パーセント、領域 P2 におけるオブジェクトの透明度を 0パーセントとして、透明度情報を作成する。これに より、領域 P1ではオブジェクトが透けて見え、領域 P2ではオブジェクトのみが観察さ れることとなる。
[0052] このとき、左眼用画像と右眼用画像に対応点がない場合があり、該領域に関しては 、オブジェクトの透明度を下げるようにしてもよいし、不透明としてもよい。本実施形態 では、そのような領域の透明度を例えば 20パーセントとして透明度情報を作成する。
[0053] 透明度決定手段 3は、上述した透明度情報、オブジェクト及びその配置位置の情 報 (以下、「オブジェクト位置情報」 、う)を含んだ情報をオブジェクト情報として作成 し、画像合成手段 4へと送る。
[0054] 画像合成手段 4は、視差検出手段 2から得た左眼用画像、右眼用画像と、透明度 決定手段 3から得たオブジェクト情報に含まれる透明度情報とオブジェクト及びォブ ジ タト位置情報を元に、画像の合成を行う。
[0055] まず、左眼用画像と右眼用画像のそれぞれに対してオブジェクトを合成する方法を 図面を用いて説明する。
図 5は、オブジェクトをそれぞれ左'右眼用画像に合成したときの図を示している。 1 9Lは左眼用画像に合成したオブジェクト、 19Rは右眼用画像に合成したオブジェク トを示しており、各画像における左上からのオブジェクトの位置は同じであり、ォブジ ェタトに視差はないものとする。左眼用画像、右眼用画像力もなる 3D画像は、背景は 視差 0で家の領域には視差があるものとする。斜線で表したオブジェクト 19L、 19R が重なる家の端の領域 20L、 20Rは Cで示すように 20Rの左側の境界が 20Lより左 に存在することから、オブジェクトが合成される元の画像には観察者から見て手前の 方向に見えるように視差が存在し、オブジェクト 19Lと 19Rの斜線でない部分 21L、 2 1Rは背景であること力も視差力^であることを示している。
[0056] 画像合成手段 4は、オブジェクト情報に含まれる透明度情報によりオブジェクトの透 明度を設定する。
例えば、立体視の際に元の 3D画像がオブジェクトよりも前面に表示される領域 20L 、 20Rは、オブジェクトの透明度を 50%とすることが透明度情報に指定されていると すると、この情報に従いオブジェクトが元の 3D画像に合成され、オブジェクトより前に 元の 3D画像が透けて見えることとなる。
[0057] ここで、オブジェクトの透明度が n% (0≤n≤ 100)で設定されて!、た場合、ォブジ ェタトが(100— n) %、元の画像カ¾%の割合で画像が合成される。すなわち、ォブ ジェタトの透明度が 0%であった場合、オブジェクトだけが見えることとなる。合成の割 合の設定方法としては、単純に同位置の画素を前記のような割合で重み付けをして 作成してもよいし、他の公知の方法を用いてもよぐ本発明とは関係が無いため詳細 な説明は省略する。
[0058] また、他に対応点が無!、領域 (オタルージョン領域)に関する情報を位置決定手段 5から取得し、透明度決定手段が透明度情報として、例えば、ォクルージョン領域は 透明度を 20パーセント、それ以外の領域は透明度を 0パーセントとすることを指定す れば、この情報に従って、オブジェクトが重なる領域のうち、元の 3D画像が立体視の 際にオブジェクトよりも背面に表示される領域ではオブジェクトを不透明に、ォクルー ジョン領域は視差が存在せず、本来その部分がオブジェクトよりも背面になるか前面 になる力判断できないため、前記設定により透明度を 20パーセントにして、元の 3D 画像にオブジェクトを合成することとなる。
[0059] このように、ォクルージョン領域に対して、オブジェクトの透明度を低くして合成する ことにより、ォクルージョンを観察者に見えにくくすることになり、より立体視しゃすい 画像にすることができる。
[0060] このようにして合成することにより、再生手段を通してこの合成画像を 3D表示装置 で表示すると、元の 3D画像とオブジェクトが重なっている領域であっても、自然に立 体視ができ、また、オブジェクト自体も観察することができる。
これにより、オブジェクトの位置を視差 0で立体画像に合成した際でも、周囲に対し てオブジェクトが不自然に見えることがなくなり、違和感を与えることがない。
[0061] 例えば、表示装置がパララクスバリア方式の 3D表示装置である場合、画像合成手 段 4が出力する合成画像は、図 15 (c)で示したように左右の各視点画像を水平方向 に 1画素列おきに間弓 Iきして左右に合成した画像となる。合成した時の画像の例を図 6に示す。
[0062] 画像合成手段 4によって作成された画像データは、符号化手段 6へと送られる。符 号化手段 6は符号化を行い、画像データを圧縮する。ここでは、画像の符号化方式 を JPEG (Joint Photographic Expert Group)とする。 JPEGでは、画像を小さ な正方形のブロックに分割して直行変換を施し、互 、に直行する複数の規定画像の 和に展開し、それぞれの規定画像に対する係数を符号化する。直行変換としては D CT (離散フーリヱ変換)が使用される。 [0063] 符号化手段 6では、入力画像は、図 7に示すように複数のブロックに分割され、円で 囲まれた拡大図のブロック 22に示すように各ブロックは 8 X 8画素で構成される。 符号ィ匕手段 6がこの各ブロックに対して図 8に示す流れで画像の符号ィ匕を行う。 まず、ブロック 22に対して DCT器 23により 2次元 DCT変換を行う。これにより周波 数分解され、量子化器 24は量子化テーブル 25を参照して、 DCT変換後の各係数 を量子化テーブル 25による除数で割り算を行い、余りを丸めて高周波項を落とす。こ れをエントロピー符号化器 26は、例えばハフマン符号を用い、符号テーブル 27を参 照して、符号化し、符号ィ匕データとして 3D画像が出力される。
[0064] 符号化データはこの逆の処理を再生手段が行う事で復号され、表示装置に送られ て表示される。ここでは 3D表示装置に送られ、表示される 3D画像は画像合成する 際に透明度が設定されて合成される為、画像合成後の画像も違和感や疲労感を増 大させることなく立体視することが可能となる。
[0065] なお、本実施形態では左右眼の画像を交差法で撮影したものとしたが、平行法で あっても良い。また、ここでは画像を JPEGとしたが、 GIF (Graphic Interchange Format)、 PNG (Portable Network Grapmcsノ、又 is TIFF、丄、 agged Image File Format)といった他の画像形式でもよぐ各形式に応じて図 1における符号ィ匕 手段 6の構成は変わる。 Motion—JPEGと!、つた動画であってもよ!/、。
[0066] また、視差検出手段 2は、ここで説明した以外にもこれを改良した方式や複雑系を 利用した方式など様々な方式があり、どのような方式であっても構わない。画像から 視差を検出しなくてもあら力じめ視差マップ等視差の情報が分力つているときには、 単にそれを利用する形であっても良い。
[0067] また、ここではオブジェクトの透明度を 50パーセントや 20パーセントとして説明した 力 これに限定するわけではなく 80パーセントなどこれより高くても、低くてもよい。
[0068] また、上記の例では、オブジェクトの視差を 0として合成を行った力 オブジェクトに 視差をつけてもよい。視差をつけた場合であっても同様にして合成を行うことができる
[0069] また、位置決定手段 5からあらかじめ位置情報を視差検出手段 2に入力させておき 、オブジェクトが重なる位置に対してのみ視差検出を行うようにしても構わない。 [0070] 本実施形態では視差のある領域と重なる領域だけに透明度を設定するとしたが、 オブジェクト全体を透明にしても良ぐ透明度の設定は表示画面に対して前面になる 画像だけでなぐ奥側になる画像に適用しても構わない。また、オブジェクトはここで は矩形の画像とした力 例えばマウスカーソルと 、つたポインタなどであっても良 、。
[0071] また、ここでは元の 3D画像のオブジェクトを合成する領域に視差がある場合、ある いは対応点のな ヽォクルージョン領域である場合の合成方法を示したが、位置決定 手段 5が、元の 3D画像の視差情報力も視差のない領域、あるいは視差のない領域 の占める割合の多い場所を求め、該領域の中からオブジェクトの位置を決定し、透明 度決定手段 3にて任意の透明度で透明度情報を付加し、オブジェクトを合成する方 法もある。
[0072] (実施形態 2)
図 9は、本発明の実施形態 2の画像処理装置の構成を示すブロック図である。なお 、上述の実施形態と同様の機能を示すものについては、同一の参照番号を付与して いる。
[0073] 画像処理装置 30は、立体画像であることを示す識別情報、立体画像の作成方法 に関する情報及び視差情報等の 3ひ f青報を入力として、立体画像であることが視覚 的に認知可能な 3Dマークをオブジェクトとして作成する 3ひ f青報作成手段 31と、前記 3Dマークを合成する際の位置情報を出力する位置決定手段 5と、前記 3ひ f青報作成 手段 31から 3Dマークと視差情報を、位置決定手段 5から位置情報を受け取り、これ らを元に 3Dマークの合成位置等を調整する調整手段 32と、調整手段 32から入力さ れる 3Dマーク及び位置情報、図示しない入力手段力 入力される左眼の視点に対 応する左眼用画像及び右眼の視点に対応する右眼用画像からなる 3D画像より画像 の合成を行う画像合成手段 33と、合成した画像を符号化する符号化手段 6と、画像 データと 3ひ f青報を多重化して出力する多重化手段 34と、図示しない記録媒体や通 信回線にアクセスする手段とを備えて構成される。
本実施形態では、一例として、本画像処理装置 30によって作成された画像は、パ ララクスノリア方式での 3D表示装置で表示するものとして説明する。
[0074] 左右に合成された左眼用画像と右眼用画像及び 3ひ f青報が多重化された状態の画 像を不図示の逆多重化装置で逆多重化し、画像データと 3ひ f青報に分離され、画像 処理装置 30に入力される。逆多重化する機能は、本画像処理装置に備えていてもよ い。このうち、 3ひ f青報は 3ひ f青報作成手段 31に入力される。 3ひ f青報は、ここでは立 体画像であることを示す識別情報、撮影方法を示す種別情報、並びに視差情報をあ らわす視差マップ力もなるものとする。 3ひ f青報作成手段 31は、ユーザーが立体画像 であること、どのような撮影法かといつた 3Dに関する情報を見て確認することが出来 る画像を作成する。これを 3Dマークと呼び、本実施形態で画像合成をするオブジェ タトとなる。 3Dマークを合成した際の合成画像例を図 10に示す。
[0075] 図 10に示す画像内の「3D Parallelと表示されている領域 35が 3Dマークを示す 。「3D」により、立体画像であることを、「Parallel」によりこの画像が平行法によって作 成されたことを示している。立体画像であることを示す文字列としては、「3D」の他、 例えば「Stereo」、「Stereo PhotographJといったものや、「Stereo ImageJなど でもよい。また作成方法の種別を示す文字列としては、交差法であれば、例えば「Cr OSsing」などと表示すればよぐより簡単に平行法を「P」、交差法を「C」と表してもよ い。また、文字以外にも平行法を「 | |」、交差法を「X」といった記号で表してもよい 。立体画像であることを示す文字列または作成方法の種別を表す文字列は、任意に 定めることができる。
[0076] このようにユーザーが識別できるようにマークを統合することにより、 2Dディスプレイ で表示した際に、ユーザーがすぐに 3D用の画像であることが判断可能となる。また 作成方式が明確になる事で、 2Dのディスプレイで表示した上記 3D画像を裸眼によ つて立体視する際に、立体視しやすいという利点がある。立体視する場合、平行法で あれば左眼で左側に配置された画像を、右眼で右側に配置された画像を見る必要 があり、交差法であれば左眼で右側に配置された画像を、右眼で左側に配置された 画像を見る必要がある力 画像の作成方法が明確になる事で、どちらの見方をすれ ばよいかすぐに判別することが可能となる。
[0077] 3ひ f青報作成手段 31は、 3Dマークと視差情報を調整手段 32へと送る。位置決定 手段 5は、 3Dマークの合成位置に関する情報を位置情報として調整手段 32へ送る 。調整手段 32は、位置情報と視差情報を元に、合成位置を決定する。 [0078] ここで合成位置の決定方法について説明する。ここでは、画像は上述の実施形態 同 PEG方式で圧縮されるものとして説明する。図 7、図 8に示したように、画像は 符号ィ匕の際 8 X 8画素のブロック毎に符号ィ匕される。これを符号ィ匕ブロックと呼ぶ。画 像を合成する際、この符号ィ匕ブロックにまたがるように 3Dマークが合成されると、画像 の高周波成分が増大するため符号量が増加することとなり、同じ符号量を保とうとす ると画質が劣化するという問題がある。そのため少しでも画質の劣化を防ぐ為に、調 整手段 32はブロックと 3Dマークの境界が一致するように位置の調整を行う。
[0079] 図 11は、位置決定手段 5により決定された位置力 調整手段 32による 3Dマークの 位置決めの調整を表した図を示している。図 11 (a)が調整手段 32によって調整を行 う前、図 11 (b)に示す図が調整を行った後である。また左側の円状に囲まれた部分 3 6、 37は、 3Dマークとブロックの位置関係を示す画像の領域拡大図である。中央の 黒い太線 38、 39の左側が左眼用画像、右側が右眼用画像に対応しており、升目状 に描かれた四角は符号ィ匕ブロックを示している。
[0080] 図 11 (a)の画像を見ると、 3Dマークは視差をつけて配置するように位置決定手段 5 により決められており、左眼用画像の 3Dマーク 40は左眼用画像の左端から 2ブロッ ク以上右側にあるのに対し、右眼用画像の 3Dマーク 41は右眼用画像の左端である 中央の太線 38から見て 2ブロックに満たない距離しか離れていない。図 11 (a)の画 像に示す位置に配置した場合、左右どちらの 3Dマーク 40、 41も符号ィ匕ブロックをま たぐように配置されているため、画質の劣化が大きくなる。そのため、調整手段 32は 3 Dマーク 40、 41の上側、あるいは下側のブロックの境界のどちらか一方のうち、元画 像のブロック境界と近 、方のブロック境界と一致するように移動する。左右方向につ いても同様に、一番移動距離が短くなるようなブロック境界にマークの境界が一致す るように 3Dマークを移動する。これにより、図 11 (b)の図に示す 42、 43のように配置 される。図 11中の点線および矢印はその方向に 3Dマークが移動したことを示す為に 記載している。これにより、画像合成時の画質劣化を抑えることが可能となる。
[0081] 上記の例では、 3Dマークの移動距離が位置決定手段 5により決められた位置から 最も少なくなるように移動したが、位置決定手段 5の位置情報が 3Dマークを元画像 の重畳領域の視差に合わせて配置するようにして 、た場合で、かつ元画像が表示画 面に対して手前に見える画像であるときに最短で移動すると、 3Dマークの視差が重 畳領域の元画像の視差よりも少なくなり、やや沈んで見えてしまうことがある。前述の ように周囲に対して奥側に沈んで見えると違和感があるため、このような場合には、 3 Dマークを視差が大きくなるような方向に移動する。
[0082] また、 3Dマークの上下方向、あるいは左右方向のそれぞれ一方ずつをブロック境 界に合わせるだけでは、図 11からも明らかなように、あわせた場所以外のマーク境界 はブロックの境界とは一致しない可能性が高い。そこで、図 12に示すように、調整手 段 32は、まず、 3Dマークの位置調整を行う際、視差が大きくなる方向で最も近いブ ロック境界に合わせるように移動する事で、立体視した際の違和感を解消する。次に 、 3Dマーク自体の大きさをブロックの整数倍になるように自動で拡大縮小処理をする 事で、全ての境界がブロック境界に一致するようにする。
図 12 (a)は、 3Dマーク移動前、図 12 (b)が移動及び拡大 ·縮小後を示しており、左 眼用画像では 3Dマーク 44は右側に、右眼用画像側では 3Dマーク 45が左側に移 動されており、視差が大きくなつている。また、水平方向に縮小、垂直方向に拡大処 理が施され、ブロックサイズの整数倍の大きさになっている。
[0083] このようにして合成された画像データは、画像合成手段 33から符号ィ匕手段 6へと送 られる。前述のように、本実施形態の画像 «JPEGとして説明しているので実施形態 1 と同様、図 8に示した流れで符号ィ匕が行われる。合成された 3Dマークは調整手段 32 で符号ィ匕ブロックの境界に合わせているため、符号ィ匕の際の画質の劣化は抑制され ている。
[0084] 符号化データは、符号化手段 6から多重化手段 34へと送られ、 3ひ f青報とともに多 重化され、多重化データとして出力される。
[0085] なお、本実施形態において画像のサイズやブロック等は、理解を容易にするために 実際の大きさとは異なる数値により説明した。画像のサイズは 640 X 480、 1600 X 1 200などこれ以外にも任意のサイズを取りうる。またここでは静止画としている力 MP EG (Moving Picture Experts Group) 1や MPEG2といった符号化による圧縮 を行う動画像でもよい。
[0086] また、符号化ブロックの単位はここで ίお PEGのため 8 X 8画素とした力 この画素サ ィズに限定されるものではなく MPEG2であれば 16 X 16等、様々な大きさを取り得る
[0087] また、ここでは位置決定手段 5によって 3Dマークの合成位置が左右とも決められて いたが、位置決定手段では大まかな位置だけを設定し、調整手段 32で視差情報で ある視差マップに基づ 、て、背景に応じた視差を自動で設定するようにしても良 、。
[0088] また、ここでは符号ィ匕ブロックの境界にオブジェクトをあわせる際、表示画面より前 方に見える画像に重畳する際は視差を大きくするようにしたが、視差が小さくなる方 向のブロックの境界に合わせて、実施形態 1のように透明度を設定しても画質の劣化 を抑えられ、違和感の低減も可能となる。オブジェクトの移動、拡大縮小処理はここで は移動した後拡大縮小するようにした力 順序は逆であっても良い。
[0089] また、本発明の説明では、立体表示の方式として、 2眼式であるパララタスノリア方 式の例を用いて説明を行った力 それ以外の表示方式であっても良 、。
例えば、同じく 2眼式の方式である時分割表示方式を用いてもよい。この方式を用 いた場合、図 15 (a)、図 15 (b)に示す左眼用画像、右眼用画像を、図 13に示すよう な 1画素ずつ水平方向に並べた画像をフォーマットとして使用し、これを時分割表示 方式に対応した 3D表示装置、例えばプロジェクターなどにより立体表示を行う。この 3D表示装置の再生タイミングに同期して開閉するシャッターを備えた液晶シャッター 眼鏡などを通して該画像を観察することにより、ある時間では左眼用画像だけが、次 のある時間では右眼用画像だけが見えるようなり、観察者は立体画像として観察する ことができる。
[0090] またさらに、ここで上げた 2眼式だけでなぐより多くの視点に対応した画像を用意し て立体視を行う多眼式やインテグラルフォトグラフィー方式といった方式であっても良 い。各方式に従い、 3D画像のフォーマットはここで示した 2種類以外にも様々な方式 がある。
[0091] また、本発明は上述した各実施形態に限定されるものではなぐ請求項に示した範 囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を 適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 産業上の利用可能性 以上のように、本発明における画像処理装置によれば、 3D画像にオブジェクトを合 成する際、 3D画像の視差を考慮してオブジェクトの透明度等を決定し、合成する事 で違和感のな 、合成画像を実現すると共に、ブロック符号ィヒ時の画質の劣化を抑え るためにオブジェクトの合成位置を調整することを可能とする。

Claims

請求の範囲
[1] 複数視点の各々に対応した複数の画像から構成される立体画像データを作成する 画像処理装置において、
前記立体画像データにオブジェクトを合成する画像合成手段と、
前記オブジェクトの透明度を設定する透明度決定手段とを備え、
前記透明度決定手段は、前記複数視点に対応した複数の画像間の視差情報に基 づき前記オブジェクトの透明度を決定することを特徴とする画像処理装置。
[2] 前記透明度決定手段は、前記複数視点に対応した複数の画像における前記ォブ ジ 外を合成する領域の視差を視差情報として取得し、前記視差情報から前記ォブ ジェタトの透明度を設定することを特徴とする請求項 1に記載の画像処理装置。
[3] 前記透明度決定手段は、前記画像における前記オブジェクトを合成する領域内の それぞれの視差と、前記オブジェクトの視差との差分値を取り、その値に応じて透明 度を決定することを特徴とする請求項 1又は 2に記載の画像処理装置。
[4] 前記オブジェクトの位置を決定する位置決定手段を備え、前記位置決定手段は、 前記画像における視差情報より対応点のな 、ォクルージョン領域を検出し、前記オタ ルージョン領域と重なるように前記オブジェクトの位置を決定することを特徴とする請 求項 1から 3のいずれか 1つに記載の画像処理装置。
[5] 前記画像合成手段は、前記画像における前記オブジェクトを合成する領域の視差 情報に基づき、前記オブジェクトの視差が該視差情報の視差に最も近くなるよう、前 記オブジェクトを前記画像のそれぞれに合成することを特徴とする請求項 1から 4の いずれか 1つに記載の画像処理装置。
[6] 前記画像合成手段は、前記画像における前記オブジェクトを合成する領域の視差 情報に基づき、前記オブジェクトの視差が該視差情報の視差よりも大きぐかつ前記 オブジェクトの左端あるいは右端が符号ィ匕ブロックの境界と一致するように前記ォブ ジェタトの水平方向位置を決めることを特徴とする請求項 1から 5のいずれ力 1つに記 載の画像処理装置。
[7] 前記画像合成手段は、前記オブジェクトを前記画像に合成する際、前記オブジェク トの垂直方向の下端ある!/、は上端の境界、かつ水平方向の左端あるいは右端の境 界を符号化ブロックの境界に一致するよう合成することを特徴とする請求項 1から 6の いずれか 1つに記載の画像処理装置。
[8] 前記オブジェクトの大きさは、垂直方向と水平方向共に、前記符号ィ匕ブロックの整 数倍の大きさとなることを特徴とする請求項 1から 7のいずれ力 1つに記載の画像処 理装置。
[9] 前記オブジェクトは、立体画像であることを示す情報を含む視認可能な立体画像識 別情報であることを特徴とする請求項 1から 8のいずれか 1つに記載の画像処理装置
PCT/JP2006/320202 2006-04-07 2006-10-10 画像処理装置 WO2007116549A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008509683A JP4693900B2 (ja) 2006-04-07 2006-10-10 画像処理装置
US12/296,252 US20090284584A1 (en) 2006-04-07 2006-10-10 Image processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006106386 2006-04-07
JP2006-106386 2006-04-07

Publications (1)

Publication Number Publication Date
WO2007116549A1 true WO2007116549A1 (ja) 2007-10-18

Family

ID=38580852

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/320202 WO2007116549A1 (ja) 2006-04-07 2006-10-10 画像処理装置

Country Status (3)

Country Link
US (1) US20090284584A1 (ja)
JP (1) JP4693900B2 (ja)
WO (1) WO2007116549A1 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010055344A (ja) * 2008-08-28 2010-03-11 Fujifilm Corp 3次元表示装置および方法並びにプログラム
WO2010058546A1 (ja) * 2008-11-18 2010-05-27 パナソニック株式会社 立体視再生を行う再生装置、再生方法、プログラム
JP2010244244A (ja) * 2009-04-03 2010-10-28 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US20100309297A1 (en) * 2009-06-09 2010-12-09 Sony Corporation Display device and display system
JP2011010128A (ja) * 2009-06-26 2011-01-13 Canon Inc 再生装置、撮像装置、及びその制御方法
US20110141233A1 (en) * 2009-06-29 2011-06-16 Sony Corporation Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, and three-dimensional image data reception method
US20110141234A1 (en) * 2009-06-29 2011-06-16 Sony Corporation Stereoscopic Image Data Transmission Device, Stereoscopic AImage Data Transmission Method, And Stereoscopic Image Data Reception Device
CN102342112A (zh) * 2009-06-29 2012-02-01 索尼公司 立体图像数据发送装置、立体图像数据发送方法、立体图像数据接收装置和立体图像数据接收方法
JP2012065330A (ja) * 2011-10-21 2012-03-29 Fujifilm Corp 3次元表示装置および方法並びにプログラム
EP2451165A1 (en) * 2009-06-29 2012-05-09 Sony Corporation Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, three-dimensional image data reception method, image data transmission device, and image data reception device
EP2451169A1 (en) * 2009-06-29 2012-05-09 Sony Corporation Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, and three-dimensional image data reception method
JP2012178061A (ja) * 2011-02-25 2012-09-13 Namco Bandai Games Inc プログラム、情報記憶媒体及び立体視画像生成装置
US8335425B2 (en) 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
JP2012249930A (ja) * 2011-06-06 2012-12-20 Konami Digital Entertainment Co Ltd ゲーム装置、画像表示装置、立体画像表示方法、および、プログラム
CN104025586A (zh) * 2011-10-05 2014-09-03 比特安尼梅特有限公司 分辨率增强3d视频渲染系统和方法
US8848036B2 (en) 2009-06-29 2014-09-30 Sony Corporation Stereoscopic image data transmission device, stereoscopic image data transmission method, stereoscopic image data reception device and stereoscopic image data reception method
US8860786B2 (en) 2009-06-29 2014-10-14 Sony Corporation Stereo image data transmitting apparatus and stereo image data receiving apparatus
JP2016001476A (ja) * 2015-07-10 2016-01-07 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
US9491430B2 (en) 2011-02-24 2016-11-08 Nintendo Co., Ltd. Storage medium having stored therein display control program, display control apparatus, display control system, and display control method

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2906899B1 (fr) * 2006-10-05 2009-01-16 Essilor Int Dispositif d'affichage pour la visualisation stereoscopique.
US20100097444A1 (en) * 2008-10-16 2010-04-22 Peter Lablans Camera System for Creating an Image From a Plurality of Images
JP5379660B2 (ja) * 2009-12-04 2013-12-25 キヤノン株式会社 画像処理装置及びその制御方法
JP5800501B2 (ja) 2010-03-12 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
JP2011203811A (ja) * 2010-03-24 2011-10-13 Fujifilm Corp 画像処理装置、画像処理方法、画像処理プログラム、及び複眼デジタルカメラ
JP5669599B2 (ja) * 2010-05-14 2015-02-12 キヤノン株式会社 画像処理装置及びその制御方法
JP2011249945A (ja) * 2010-05-24 2011-12-08 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
CN102474647B (zh) * 2010-05-25 2015-08-19 松下电器(美国)知识产权公司 图像编码装置、图像编码方法以及集成电路
JP2012010311A (ja) * 2010-05-26 2012-01-12 Sony Corp 送信装置、送信方法、受信装置、受信方法および送受信システム
KR20110137607A (ko) * 2010-06-17 2011-12-23 삼성전자주식회사 디스플레이 장치 및 그 3d 영상 인식 진단 방법
US20130169761A1 (en) * 2010-07-27 2013-07-04 Panasonic Corporation Image capturing device
US10134150B2 (en) * 2010-08-10 2018-11-20 Monotype Imaging Inc. Displaying graphics in multi-view scenes
JP2012044625A (ja) * 2010-08-23 2012-03-01 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
KR101708306B1 (ko) * 2010-09-13 2017-02-20 엘지전자 주식회사 이동 단말기 및 그의 3d 이미지 합성방법
JP4956664B1 (ja) * 2010-12-14 2012-06-20 株式会社東芝 立体映像表示装置及び方法
US9113074B2 (en) * 2010-12-22 2015-08-18 Olympus Corporation Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image
JP5804760B2 (ja) * 2011-04-26 2015-11-04 株式会社東芝 画像処理システム及び方法
JP2013046082A (ja) * 2011-08-22 2013-03-04 Sony Corp 映像信号処理装置及び映像信号処理方法、並びにコンピューター・プログラム
FR2982448A1 (fr) * 2011-11-07 2013-05-10 Thomson Licensing Procede de traitement d'image stereoscopique comprenant un objet incruste et dispositif correspondant
JP5817639B2 (ja) * 2012-05-15 2015-11-18 ソニー株式会社 映像フォーマット判別装置及び映像フォーマット判別方法、並びに映像表示装置
JP2014203017A (ja) * 2013-04-09 2014-10-27 ソニー株式会社 画像処理装置、画像処理方法、表示装置、および電子機器
JP2015149547A (ja) * 2014-02-05 2015-08-20 ソニー株式会社 画像処理方法、画像処理装置、及び電子機器
US9807372B2 (en) * 2014-02-12 2017-10-31 Htc Corporation Focused image generation single depth information from multiple images from multiple sensors
US9965861B2 (en) * 2014-12-29 2018-05-08 Intel Corporation Method and system of feature matching for multiple images
CN115297312A (zh) * 2022-08-04 2022-11-04 深圳市瑞云科技有限公司 一种传输图像透明度信息的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067265A (ja) * 1998-08-25 2000-03-03 Canon Inc 画像処理装置およびその方法
JP2004248212A (ja) * 2003-02-17 2004-09-02 Kazunari Era 立体視画像表示装置
JP2005004341A (ja) * 2003-06-10 2005-01-06 Sanyo Electric Co Ltd 画像表示装置およびコンピュータに画像表示機能を付与するプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3311221B2 (ja) * 1995-01-10 2002-08-05 キヤノン株式会社 画像処理装置及びその方法
JP3268625B2 (ja) * 1995-08-11 2002-03-25 シャープ株式会社 3次元画像表示装置
JP2004234423A (ja) * 2003-01-31 2004-08-19 Seiko Epson Corp ステレオ画像処理方法およびステレオ画像処理装置、並びにステレオ画像処理プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067265A (ja) * 1998-08-25 2000-03-03 Canon Inc 画像処理装置およびその方法
JP2004248212A (ja) * 2003-02-17 2004-09-02 Kazunari Era 立体視画像表示装置
JP2005004341A (ja) * 2003-06-10 2005-01-06 Sanyo Electric Co Ltd 画像表示装置およびコンピュータに画像表示機能を付与するプログラム

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010055344A (ja) * 2008-08-28 2010-03-11 Fujifilm Corp 3次元表示装置および方法並びにプログラム
US8301013B2 (en) 2008-11-18 2012-10-30 Panasonic Corporation Reproduction device, reproduction method, and program for stereoscopic reproduction
WO2010058546A1 (ja) * 2008-11-18 2010-05-27 パナソニック株式会社 立体視再生を行う再生装置、再生方法、プログラム
US8335425B2 (en) 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
JP4772163B2 (ja) * 2008-11-18 2011-09-14 パナソニック株式会社 立体視再生を行う再生装置、再生方法、プログラム
CN102210156B (zh) * 2008-11-18 2013-12-18 松下电器产业株式会社 进行立体视觉再生的再生装置、再生方法
JP2011239373A (ja) * 2008-11-18 2011-11-24 Panasonic Corp 立体視再生を行う再生装置、再生方法、プログラム
US8717415B2 (en) 2009-04-03 2014-05-06 Sony Corporation Information processing device, information processing method, and program
JP2010244244A (ja) * 2009-04-03 2010-10-28 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US20100309297A1 (en) * 2009-06-09 2010-12-09 Sony Corporation Display device and display system
US9261705B2 (en) * 2009-06-09 2016-02-16 Sony Corporation Display device and display system
JP2011010128A (ja) * 2009-06-26 2011-01-13 Canon Inc 再生装置、撮像装置、及びその制御方法
EP2451165A4 (en) * 2009-06-29 2013-12-04 Sony Corp DEVICE FOR TRANSMITTING THREE-DIMENSIONAL IMAGE DATA, METHOD FOR TRANSMITTING THREE-DIMENSIONAL IMAGE DATA, DEVICE FOR RECEIVING THREE-DIMENSIONAL IMAGE DATA, METHOD FOR RECEIVING THREE-DIMENSIONAL IMAGE DATA, IMAGE DATA TRANSMISSION DEVICE AND IMAGE DATA TRANSMISSION METHOD
CN102342111A (zh) * 2009-06-29 2012-02-01 索尼公司 立体图像数据传输装置、立体图像数据传输方法、立体图像数据接收装置、以及立体图像数据接收方法
EP2451169A1 (en) * 2009-06-29 2012-05-09 Sony Corporation Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, and three-dimensional image data reception method
US8937642B2 (en) 2009-06-29 2015-01-20 Sony Corporation Stereo image data transmitting apparatus and stereo image data receiving apparatus
EP2451168A1 (en) * 2009-06-29 2012-05-09 Sony Corporation Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, and three-dimensional image data reception method
US20110141233A1 (en) * 2009-06-29 2011-06-16 Sony Corporation Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, and three-dimensional image data reception method
US8860786B2 (en) 2009-06-29 2014-10-14 Sony Corporation Stereo image data transmitting apparatus and stereo image data receiving apparatus
US8963995B2 (en) 2009-06-29 2015-02-24 Sony Corporation Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method
EP2451169A4 (en) * 2009-06-29 2013-12-04 Sony Corp THREE-DIMENSIONAL IMAGE DATA TRANSMISSION DEVICE, THREE-DIMENSIONAL IMAGE DATA TRANSMISSION METHOD, THREE-DIMENSIONAL IMAGE DATA RECEIVING DEVICE, AND THREE-DIMENSIONAL IMAGE DATA RECEIVING METHOD
EP2451168A4 (en) * 2009-06-29 2013-12-04 Sony Corp THREE-DIMENSIONAL IMAGE DATA TRANSMISSION DEVICE, THREE-DIMENSIONAL IMAGE DATA TRANSMISSION METHOD, THREE-DIMENSIONAL IMAGE DATA RECEIVING DEVICE, AND THREE-DIMENSIONAL IMAGE DATA RECEIVING METHOD
CN102342112A (zh) * 2009-06-29 2012-02-01 索尼公司 立体图像数据发送装置、立体图像数据发送方法、立体图像数据接收装置和立体图像数据接收方法
EP2451165A1 (en) * 2009-06-29 2012-05-09 Sony Corporation Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, three-dimensional image data reception method, image data transmission device, and image data reception device
US20110141234A1 (en) * 2009-06-29 2011-06-16 Sony Corporation Stereoscopic Image Data Transmission Device, Stereoscopic AImage Data Transmission Method, And Stereoscopic Image Data Reception Device
US8848036B2 (en) 2009-06-29 2014-09-30 Sony Corporation Stereoscopic image data transmission device, stereoscopic image data transmission method, stereoscopic image data reception device and stereoscopic image data reception method
US9491430B2 (en) 2011-02-24 2016-11-08 Nintendo Co., Ltd. Storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP2012178061A (ja) * 2011-02-25 2012-09-13 Namco Bandai Games Inc プログラム、情報記憶媒体及び立体視画像生成装置
JP2012249930A (ja) * 2011-06-06 2012-12-20 Konami Digital Entertainment Co Ltd ゲーム装置、画像表示装置、立体画像表示方法、および、プログラム
CN104025586A (zh) * 2011-10-05 2014-09-03 比特安尼梅特有限公司 分辨率增强3d视频渲染系统和方法
US9495791B2 (en) 2011-10-05 2016-11-15 Bitanimate, Inc. Resolution enhanced 3D rendering systems and methods
US10102667B2 (en) 2011-10-05 2018-10-16 Bitanimate, Inc. Resolution enhanced 3D rendering systems and methods
US10600237B2 (en) 2011-10-05 2020-03-24 Bitanimate, Inc. Resolution enhanced 3D rendering systems and methods
JP2012065330A (ja) * 2011-10-21 2012-03-29 Fujifilm Corp 3次元表示装置および方法並びにプログラム
JP2016001476A (ja) * 2015-07-10 2016-01-07 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法

Also Published As

Publication number Publication date
US20090284584A1 (en) 2009-11-19
JPWO2007116549A1 (ja) 2009-08-20
JP4693900B2 (ja) 2011-06-01

Similar Documents

Publication Publication Date Title
JP4693900B2 (ja) 画像処理装置
US8422801B2 (en) Image encoding method for stereoscopic rendering
US9357231B2 (en) Video encoding device, video encoding method, video reproducing device, video reproducing method, video recording medium, and video data stream
US7889196B2 (en) 3-dimensional image creating apparatus, 3-dimensional image reproducing apparatus, 3-dimensional image processing apparatus, 3-dimensional image processing program and recording medium recorded with the program
US8767046B2 (en) Image based 3D video format
KR101468267B1 (ko) 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출
US8488869B2 (en) Image processing method and apparatus
KR100740607B1 (ko) 화상 데이터 작성 장치 및 그 데이터를 재생하는 화상데이터 재생 장치
TWI549475B (zh) Dimensional image coding apparatus, stereoscopic image decoding apparatus, stereo image coding method, stereo image decoding method, stereo image coding program, and stereo image decoding program
JP5544361B2 (ja) 三次元ビデオ信号を符号化するための方法及びシステム、三次元ビデオ信号を符号化するための符号器、三次元ビデオ信号を復号するための方法及びシステム、三次元ビデオ信号を復号するための復号器、およびコンピュータ・プログラム
KR20110129903A (ko) 3d 시청자 메타데이터의 전송
WO2007013449A1 (ja) 画像処理装置
JP2004343290A (ja) 立体画像表示装置
KR20130088741A (ko) 디지털 수신기 및 디지털 수신기에서의 캡션 데이터 처리 방법
US20150334369A1 (en) Method of encoding a video data signal for use with a multi-view stereoscopic display device
JP4657258B2 (ja) 立体画像表示装置およびその方法
JP4173684B2 (ja) 立体画像作成装置
JP4657066B2 (ja) 立体表示装置
KR20070032515A (ko) 와이유브이 컬러 시스템의 양안 입체 카메라 및 그카메라를 이용한 입체영상 디스플레이 방법과 입체영상처리방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 06811515

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008509683

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 12296252

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 06811515

Country of ref document: EP

Kind code of ref document: A1