WO2014048242A1 - 预测图像生成方法和装置 - Google Patents

预测图像生成方法和装置 Download PDF

Info

Publication number
WO2014048242A1
WO2014048242A1 PCT/CN2013/083084 CN2013083084W WO2014048242A1 WO 2014048242 A1 WO2014048242 A1 WO 2014048242A1 CN 2013083084 W CN2013083084 W CN 2013083084W WO 2014048242 A1 WO2014048242 A1 WO 2014048242A1
Authority
WO
WIPO (PCT)
Prior art keywords
boundary
value
pixel block
coordinate
rectangular pixel
Prior art date
Application number
PCT/CN2013/083084
Other languages
English (en)
French (fr)
Inventor
虞露
张熠辰
赵寅
洪英杰
李明
Original Assignee
中兴通讯股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中兴通讯股份有限公司 filed Critical 中兴通讯股份有限公司
Priority to US14/441,445 priority Critical patent/US10154282B2/en
Priority to EP13841502.1A priority patent/EP2903283B1/en
Publication of WO2014048242A1 publication Critical patent/WO2014048242A1/zh
Priority to US16/168,289 priority patent/US10708619B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/583Motion compensation with overlapping blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter

Definitions

  • BACKGROUND OF THE INVENTION Image prediction refers to directly copying an image that has been edited/decoded or acquiring a partial image by sub-pixel interpolation or the like through a motion vector, a reference frame index, or the like during video encoding/decoding.
  • Decode the predicted image of the image block At the encoding end, the predicted image is subtracted from the original image to obtain an image residual and encoded into the code stream; at the decoding end, the predicted image is added to the image residual obtained by decoding in the code stream, and the reconstructed image can be reconstructed.
  • Image, encoding and decoding by means of such predictive image can effectively improve the efficiency of codec.
  • the commonly used method for generating a predicted image is to adopt a forward projection method, that is, to use the depth information of each pixel point or each pixel block in the reference view point to project the image of the reference view point to the target view point to obtain the target view point. image.
  • the commonly used block-based forward projection is generally implemented as follows:
  • the size and position of the reference pixel block Br used to generate Bt in the reference view is determined by Bt
  • the size, location, and depth value corresponding to each pixel in Bt, BP, in this method, the reference pixel block needs to be determined by the depth information of the target viewpoint.
  • the disparity value is converted from the depth value corresponding to each pixel point, and the left boundary of Bt is subtracted.
  • the appearance of voids is related to the depth, the sampling rate of the texture, and also due to the occlusion of objects in the three-dimensional scene.
  • the scene behind the object cannot be acquired while shooting, and after projection, the image originally located behind the object cannot be reproduced.
  • the method of hole filling is usually to fill in the pixel values belonging to the background area (based on the relationship between the relative foreground and background of two pixels) of the two projected pixels on both sides of the hole. Fill the entire cavity; if the hole has only projected pixels on one side (generally appearing on the image boundary), then the only projected pixel fills the entire hole.
  • Embodiments of the present invention provide a method and an apparatus for generating a predicted image, so as to at least solve the problem that the depth information of the target viewpoint and the depth information of the reference viewpoint need to be simultaneously used in the process of generating the predicted image in the prior art.
  • the technical problem of data dependence is large.
  • a method for generating a predicted image including: determining a reference rectangular pixel block according to parameter information, wherein the parameter information includes a position of a target rectangular pixel block and/or depth information of a reference view;
  • the reference rectangular pixel block is mapped to the target viewpoint by the depth information of the reference viewpoint to obtain a projected rectangular pixel block; and the predicted image block is obtained from the projected rectangular pixel block.
  • the depth information of the reference view includes at least one of the following: a depth image of the reference view, and camera parameter information of the reference view.
  • the reference rectangular pixel block is mapped to the target viewpoint in a forward projection manner.
  • determining the reference rectangular pixel block according to the parameter information includes: subtracting a value of a left boundary value of the target rectangular pixel block by a first predetermined offset value as the reference a left boundary value of the rectangular pixel block; a value obtained by subtracting a second predetermined offset value from a right boundary value of the target rectangular pixel block as a right boundary value of the reference rectangular pixel block; and an upper boundary value of the target rectangular pixel block
  • the upper boundary value of the reference rectangular pixel block the lower boundary value of the target rectangular pixel block is used as the lower boundary value of the reference rectangular pixel block
  • the left boundary value, the right boundary value, and the upper boundary of the determined reference rectangular pixel block The value and the lower boundary value are used as boundary information of the above-described reference rectangular pixel block to determine the above-described reference rectangular pixel block in the reference view.
  • the first predetermined offset value and the second predetermined offset value are preset values that are not zero.
  • determining the reference rectangular pixel block according to the parameter information comprises: determining the first group of the reference rectangular pixel block according to the position of the target rectangular pixel block a boundary value; updating the first set of boundary values according to the depth information of the reference view point, and using the updated result as the second set of boundary values of the reference rectangular pixel block, where the second set of boundary values corresponds to the reference
  • the area of the rectangular pixel block is smaller than the area of the reference rectangular pixel block corresponding to the first set of boundary values; and the reference rectangular pixel block is determined in the reference view according to the second set of boundary values.
  • determining, according to the position of the target rectangular pixel block, the first set of boundary values of the reference rectangular pixel block comprises: subtracting a value of a left predetermined boundary value of the target rectangular pixel block by a third predetermined offset value as the reference rectangle a left boundary value of the first set of boundary values of the pixel block; a value obtained by subtracting a right predetermined boundary value of the target rectangular pixel block by a fourth predetermined offset value as the first set of boundary values of the reference rectangular pixel block a right boundary value; the upper boundary value of the target rectangular pixel block is used as an upper boundary value in the first set of boundary values; and a lower boundary value of the target rectangular pixel block is used as a lower boundary value in the first set of boundary values .
  • the third predetermined offset value and the fourth predetermined offset value are preset values that are not zero.
  • the third predetermined offset value comprises: a maximum disparity value between the reference view point and the target view point
  • the fourth predetermined offset value comprises: a minimum disparity value between the reference view point and the target view point.
  • updating the first set of boundary values according to the depth information of the reference view point includes: determining one or more according to location information of one or more pixel points on the boundary of the target rectangular pixel block and depth information of the reference view point. a boundary value, wherein the boundary value includes a left boundary range value and/or a right boundary range value; and the first set of boundary values is updated according to the determined one or more boundary range values.
  • updating the first set of boundary values according to the determined one or more boundary range values comprises: selecting one of the one or more left boundary range values as the left boundary value in the first set of boundary values, wherein The left boundary range value is a boundary range value corresponding to a pixel point on a left boundary of the target rectangular pixel block; and/or one of the one or more right boundary range values is selected as a right boundary of the first set of boundary values a value, wherein the right boundary range value is a boundary range value corresponding to a pixel point on a right boundary of the target rectangular pixel block.
  • the step of determining the one or more left boundary range values according to the position information of the one or more pixel points on the boundary of the target rectangular pixel block and the depth information of the reference view point includes: a left boundary from the target rectangular pixel block Selecting a pixel point as the first pixel point; using the left boundary value of the first set of boundary values as the left boundary range value corresponding to the first pixel point; and shifting the coordinate of the first pixel point by a default parallax
  • the first coordinate is used as the second coordinate in the reference view;
  • the depth information of the pixel corresponding to the second coordinate in the reference view determines the pixel point corresponding to the second coordinate in the target view a projection coordinate; when the horizontal component of the first projection coordinate is less than or equal to the left boundary value of the first set of boundary values, updating a left boundary range value corresponding to the first pixel point is a horizontal component of the second coordinate; and And determining one or more right boundary range values according to the position information of the one or more pixel points on the boundary of the
  • the default parallax is a disparity value corresponding to a depth value between the reference view point and the target view point.
  • the condition that the horizontal component of the first projected coordinate is less than or equal to the left boundary value of the first set of boundary values is determined, or the left boundary value corresponding to the first pixel is updated to be the second coordinate
  • the method further includes: updating a left boundary range value corresponding to the first pixel point; and/or determining that a horizontal component that does not satisfy the second projected coordinate is greater than or equal to a right of the first set of boundary values
  • the method further includes: updating the right boundary range value corresponding to the second pixel.
  • updating the left boundary range value corresponding to the first pixel point comprises: updating the second coordinate to a coordinate after the current second coordinate offset is a fifth predetermined offset value; according to the current second coordinate, Determining, according to the depth information of the pixel point corresponding to the view point, the third projection coordinate of the pixel point corresponding to the current second coordinate in the target view point; when the horizontal component of the third projection coordinate is less than or equal to the first set of boundary values And the left boundary value of the current second coordinate is greater than the current left boundary value corresponding to the first pixel, and the left boundary value corresponding to the first pixel is updated to the current second coordinate
  • the horizontal component; and/or updating the right boundary range value corresponding to the second pixel point includes: updating the fourth coordinate to a coordinate after the current fourth coordinate offset sixth predetermined offset value; according to the current fourth Determining, by the depth information of the pixel corresponding to the coordinate in the reference view, the pixel corresponding to the current fourth coordinate is The fourth projection coordinate in the target viewpoint; when the horizontal component of the
  • the step of updating the left boundary range value corresponding to the first pixel point is performed repeatedly for a predetermined number of times, and/or the step of updating the left boundary range value corresponding to the second pixel point is performed repeatedly for a predetermined number of times .
  • the fifth predetermined offset value is determined by a difference between a horizontal component of the first pixel point coordinate and a horizontal component of a projected coordinate of the pixel point corresponding to the second coordinate in the target viewpoint.
  • the sixth predetermined offset value is determined by a difference between a horizontal component of the second pixel point coordinate and a horizontal component of the projection coordinate of the pixel corresponding to the second coordinate in the target viewpoint. of.
  • determining the plurality of left boundary range values according to the position information of the one or more pixel points on the boundary of the target rectangular pixel block and the depth information of the reference view point includes: adopting a parallel manner according to one of the boundaries of the target rectangular pixel block Or determining position information of the plurality of pixel points and the depth information of the reference view point; and/or determining the position information of the one or more pixel points on the boundary of the target rectangular pixel block and the depth of the reference view point
  • the determining the plurality of right boundary range values includes: determining, in a parallel manner, a plurality of right boundary range values according to position information of one or more pixel points on the boundary of the target rectangular pixel block and depth information of the reference view point.
  • updating the first set of boundary values according to the determined one or more boundary range values comprises: updating a left boundary value of the first set of boundary values to the one or more left boundary range values a maximum or minimum or median; and/or updating the right boundary value of the first set of boundary values described above to a maximum or minimum or median of the one or more right boundary range values described above.
  • the above method is applied to a 3D image encoding and decoding technique.
  • a predictive image generating apparatus comprising: a reference rectangular pixel block determining module configured to determine a reference rectangular pixel block according to parameter information, wherein the parameter information includes a position of a target rectangular pixel block and/or Or the depth information of the reference view; the mapping module is configured to map the reference rectangular pixel block to the target view point by using the depth information of the reference view point to obtain a projected rectangular pixel block; and the predicted image obtaining module is configured to be from the projected rectangular pixel block Get the predicted image block.
  • the depth information of the reference view includes at least one of the following: a depth image of the reference view, and camera parameter information of the reference view.
  • the projection module may map the reference rectangular pixel block to the target viewpoint in a forward projection manner.
  • the reference rectangular pixel block determining module includes: a first determining unit, configured to determine the reference rectangle according to the position of the target rectangular pixel block when the parameter information includes the position of the target rectangular pixel block and the depth information of the reference view a first set of boundary values of the pixel block; the updating unit is configured to update the first set of boundary values according to the depth information of the reference view point, and use the updated result as the second set of boundary values of the reference rectangular pixel block, The area of the reference rectangular pixel block corresponding to the second set of boundary values is smaller than the area of the reference rectangular pixel block corresponding to the first set of boundary values; and the second determining unit is configured to be in the reference view according to the second set of boundary values.
  • the first determining unit includes: a left boundary value determining subunit, configured to subtract a value of a left boundary value of the target rectangular pixel block by a third predetermined offset value as the first part of the reference rectangular pixel block a left boundary value in the group boundary value; a right boundary value determining subunit, configured to subtract a value of a right boundary value of the target rectangular pixel block from a fourth predetermined offset value as the first group of the reference rectangular pixel block a boundary value in the boundary value; an upper boundary value determining subunit, configured to set an upper boundary value of the target rectangular pixel block as an upper boundary value in the first set of boundary values; a lower boundary value determining subunit, set to be The lower boundary value of the target rectangular pixel block is used as the lower boundary value in the first set of boundary values.
  • the updating unit includes: a boundary range value determining subunit, configured to determine one or more boundary range values according to position information of one or more pixel points on the boundary of the target rectangular pixel block and depth information of the reference view point.
  • the foregoing boundary range value includes a left boundary range value and/or a right boundary range value; and the update subunit is configured to update the first set of boundary values according to the determined one or more boundary range values.
  • the foregoing boundary range value determining subunit is further configured to determine one or more left boundary range values in the following manner: selecting one pixel point from the left boundary of the target rectangular pixel block as the first pixel point; The left boundary value in the group boundary value is used as the left boundary range value corresponding to the first pixel point; the first coordinate obtained by shifting the coordinate of the first pixel point by a default parallax is used as the second coordinate in the reference view point; Determining the first projection coordinate of the pixel point corresponding to the second coordinate in the target viewpoint according to the depth information of the pixel point corresponding to the second coordinate in the reference coordinate point; when the horizontal component of the first projection coordinate is less than or equal to the above When the left boundary value of the first set of boundary values is updated, the left boundary range corresponding to the first pixel point is updated to be a horizontal component of the second coordinate; and/or the boundary range value determining subunit is further set to be determined as follows One or more right boundary range values: Select a pixel point from the right border of the
  • a new method for generating a predicted image is provided.
  • generating a reference rectangular pixel block only the position of the target rectangular pixel block and/or the depth information of the reference view and/or the target viewpoint are required.
  • Information such as camera parameters, and does not need to determine the reference rectangular pixel block through the depth image of the target viewpoint.
  • the depth information of the reference viewpoint is also determined, and the depth image of the target viewpoint is not needed in the whole process. .
  • the technical problem that the dependence on the data caused by the depth image of the target view and the depth image of the reference view in the process of generating the predicted image in the prior art is solved in the above manner, and the data is reduced. The dependencies and technical effects of improving codec efficiency.
  • FIG. 1 is a preferred flowchart of a method for generating a predicted image according to an embodiment of the present invention
  • FIG. 2 is another preferred flowchart of a method for generating a predicted image according to an embodiment of the present invention
  • FIG. 4 is still another preferred flowchart of the predicted image generating method according to an embodiment of the present invention
  • FIG. 5 is a predicted image generating according to an embodiment of the present invention.
  • FIG. 6 is a block diagram showing another preferred structure of a predictive image generating apparatus according to an embodiment of the present invention;
  • FIG. 6 is a preferred schematic diagram of a block-based predicted image generating apparatus according to an embodiment of the present invention;
  • 8 is a preferred schematic diagram of a block-based predicted image generating apparatus according to Embodiment 6 of the present invention;
  • FIG. 9 is a preferred schematic diagram of a Bound calculating module in the block-based predicted image generating apparatus according to Embodiment 7 of the present invention;
  • An embodiment of the present invention provides a preferred method for generating a predicted image. As shown in FIG.
  • the method includes the following steps: Step S102: Determine a reference rectangular pixel block according to the parameter information, where the parameter information includes a location of the target rectangular pixel block and/or Or refer to the depth information of the viewpoint; Step S104: Forward projection of the reference rectangular pixel block to the target viewpoint by referring to the depth information of the viewpoint to obtain a projected rectangular pixel block; Step S106: Acquire a predicted image from the projected rectangular pixel block.
  • Step S102 Determine a reference rectangular pixel block according to the parameter information, where the parameter information includes a location of the target rectangular pixel block and/or Or refer to the depth information of the viewpoint
  • Step S104 Forward projection of the reference rectangular pixel block to the target viewpoint by referring to the depth information of the viewpoint to obtain a projected rectangular pixel block
  • Step S106 Acquire a predicted image from the projected rectangular pixel block.
  • a new method for generating a predicted image is proposed. When generating a reference rectangular pixel block, only the position of the target rectangular pixel block and/or the depth
  • the depth information of the reference view may include, but is not limited to, at least one of: a depth image of the reference view, camera parameter information of the reference view.
  • determining the reference rectangular pixel block according to the parameter information includes the following steps: Step S1: subtracting the left boundary value of the target rectangular pixel block by the first predetermined offset The value after the value is used as the left boundary value of the reference rectangular pixel block; Step S2: subtracting the value of the right boundary value of the target rectangular pixel block from the second predetermined offset value as the right boundary value of the reference rectangular pixel block; Step S3: Taking an upper boundary value of the target rectangular pixel block as an upper boundary value of the reference rectangular pixel block; Step S4: using a lower boundary value of the target rectangular pixel block as a lower boundary value of the reference rectangular pixel block; Step S5: using the left boundary value, the right boundary value, the upper
  • the first predetermined offset value and the second predetermined offset value are preset values that are not zero, and may be, for example, 100, 200, 150.5, -100, -200, or the like. That is, the boundary value corresponding to the reference rectangular pixel block can be determined only according to the boundary value of the target rectangular pixel block, which is simple to implement and can improve the efficiency of encoding and decoding.
  • the embodiment of the present invention further provides a more accurate method for determining a reference rectangular pixel block. In this method, the depth information of the reference view is needed.
  • the specific implementation method is as shown in FIG.
  • Step S202 Determine a first set of boundary values of the reference rectangular pixel block according to the position of the target rectangular pixel block;
  • Step S204 Update the first set of boundary values according to the depth information of the reference view, and use the updated result as a reference rectangle.
  • a second set of boundary values of the pixel block wherein an area of the reference rectangular pixel block corresponding to the second set of boundary values is smaller than an area of the reference rectangular pixel block corresponding to the first set of boundary values;
  • Step S206 referencing according to the second set of boundary values
  • a reference rectangular pixel block is determined in the viewpoint. That is, the determined reference rectangular pixel block is adjusted by referring to the depth information of the viewpoint, so that the image obtained by the determined codec is more accurate.
  • the reference rectangular pixel block determined by the simplest method described above can be used as the basis for adjustment, that is, the most basic reference rectangular pixel block is determined in the above manner, and the boundary value of the most basic reference rectangular pixel block is determined.
  • the first predetermined offset value at this time may be a maximum disparity value between the reference view point and the target view point
  • the second predetermined offset value may be a minimum disparity value between the reference view point and the target view point.
  • the first set of boundary values can be adjusted by pixels on the left and right boundaries of the target rectangular pixel block.
  • updating the first set of boundary values according to the depth information of the reference view includes: determining one or more according to the location information of the one or more pixel points on the boundary of the target rectangular pixel block and the depth information of the reference view a boundary range value, wherein the boundary range value includes a left boundary range value and/or a right boundary range value; the first set of boundary values are updated according to the determined one or more boundary range values. That is, a plurality of points on the boundary of the target rectangular pixel block can be selected, and then a boundary range value is determined for each point on the selected boundary, and the pair is selected A boundary value that is updated by a set of boundary values.
  • one of the boundary range values corresponding to the left boundary pixel point may be selected to update the left boundary value in the first set of boundary values, which may be from the boundary range value corresponding to the right boundary pixel point. Selecting an update to the right boundary value in the first set of boundary values enables an update to the first set of boundary values.
  • updating the first set of boundary values according to the determined one or more boundary range values comprises: selecting one of the one or more left boundary range values as the left boundary value of the first set of boundary values Wherein the left boundary range value is a boundary range value corresponding to a pixel point on a left boundary of the target rectangular pixel block; and/or one of the one or more right boundary range values is selected as a right boundary value in the first set of boundary values Wherein, the right boundary range value is a boundary range value corresponding to a pixel point on a right boundary of the target rectangular pixel block.
  • the embodiment of the present invention also provides a method for determining a boundary range value corresponding to a pixel point on a boundary, and the left boundary is taken as an example. As shown in FIG.
  • the determining the one or more left boundary range values by the location information of the pixel and the depth information of the reference view includes: Step S302: selecting one pixel from the left boundary of the target rectangular pixel block as the first pixel; Step S304: The left boundary value of the first set of boundary values is used as the left boundary range value corresponding to the first pixel point; Step S306: the first coordinate obtained by shifting the coordinates of the first pixel point by a default parallax is used as the second of the reference views Coordinates; Step S308: determining, according to the depth information of the pixel point corresponding to the second coordinate in the reference view, the first projection coordinate of the pixel point corresponding to the second coordinate in the target view point; Step S310: When the level of the first projected coordinate When the component is less than or equal to the left boundary value in the first set of boundary values, updating the left boundary range corresponding to the first pixel point is a horizontal component of the second coordinate; The default par
  • Step S402 Update the second coordinate to the coordinate after the third predetermined offset value of the current second coordinate offset.
  • the third predetermined offset value may be determined by a difference between a horizontal component of the first pixel point coordinate and a horizontal component of the projected coordinate of the pixel coordinate corresponding to the second coordinate in the target viewpoint; Step S404: determining, according to the depth information of the pixel point corresponding to the current second coordinate in the reference view, the third projection coordinate of the pixel point corresponding to the current second coordinate in the target view point; Step S406: When the level of the third projected coordinate If the component is less than or equal to the left boundary value of the first set of boundary values, and the horizontal component of the current second coordinate is greater than the left boundary range value corresponding to the current first pixel, the left boundary range corresponding to the updated first pixel is the current value. The horizontal component of the second coordinate.
  • the above steps S402 to S406 may be repeatedly performed, that is, the step of updating the left boundary range value corresponding to the first pixel point may be repeatedly performed a predetermined number of times to make the boundary range value corresponding to the pixel more accurate. If it is necessary to acquire the boundary range values of the pixels on the plurality of boundaries at the same time, the serial mode or the parallel mode may be adopted, and the corresponding serial mode only needs to divide one processing module, if In parallel, it is necessary to have multiple modules for generating boundary range values in the system at the same time, so that multiple boundary pixel points can be processed at the same time.
  • Updating the first set of boundary values according to the determined one or more boundary range values may include - updating the left boundary value of the first set of boundary values to a maximum of one or more left boundary range values Or the minimum value or the value in the middle of the size.
  • the above description is mainly described based on the left boundary.
  • the manner of determining the range value corresponding to the pixel point on the right border is the same as the manner of determining the range value corresponding to the pixel point on the left border, and details are not described herein again.
  • the method of acquiring a predicted image involved in each of the above preferred embodiments may be applied to a 3D image encoding and decoding technique.
  • FIG. 5 is a block diagram of a preferred structure of a predicted image generating apparatus according to an embodiment of the present invention. As shown in FIG. 5, the method includes: a reference rectangular pixel block determining module 502 and a projection module 504, and a predicted image acquiring module 506. This structure will be described.
  • a reference rectangular pixel block determining module 502 configured to determine a reference rectangular pixel block according to the parameter information, wherein the parameter information includes a location of the target rectangular pixel block and/or depth information of the reference view;
  • the mapping module 504 is configured to forward the reference rectangular pixel block to the target viewpoint by using the depth information of the reference view to obtain a projected rectangular pixel block;
  • the predicted image acquisition module 506 is configured to acquire a predicted image from the projected rectangular pixel block.
  • the reference rectangular pixel block determining module includes: a first determining unit 602, configured to: when the parameter information includes the position of the target rectangular pixel block and the depth information of the reference view, according to the target rectangle The position of the pixel block determines a first set of boundary values of the reference rectangular pixel block; the updating unit 604 is configured to update the first set of boundary values according to the depth information of the reference view, and use the updated result as the reference rectangular pixel block a second set of boundary values, wherein an area of the reference rectangular pixel block corresponding to the second set of boundary values is smaller than an area of the reference rectangular pixel block corresponding to the first set of boundary values; and a second determining unit 606 is configured to be based on the second set of boundary values A reference rectangular pixel block is determined in the reference view.
  • the first determining unit includes: a left boundary value determining subunit, configured to subtract a value of a left boundary value of the target rectangular pixel block by a third predetermined offset value as the first of the reference rectangular pixel blocks a left boundary value in the group boundary value; a right boundary value determining subunit, configured to subtract the value of the right boundary value of the target rectangular pixel block from the fourth predetermined offset value as the first set of boundary values of the reference rectangular pixel block a right boundary value; an upper boundary value determining subunit, configured to set an upper boundary value of the target rectangular pixel block as an upper boundary value in the first set of boundary values; a lower boundary value determining subunit, set to be a target rectangular pixel block The lower boundary value is used as the lower boundary value in the first set of boundary values.
  • the updating unit comprises: a boundary range value determining subunit, configured to determine one or more boundary ranges according to position information of one or more pixel points on the boundary of the target rectangular pixel block and depth information of the reference view point a value, wherein the boundary range value includes a left boundary range value and/or a right boundary range value; the update subunit is configured to update the first set of boundary values according to the determined one or more boundary range values.
  • the depth value corresponding to a pixel point may be the distance between the point on the object in the physical space corresponding to the point and the camera, or may be the converted intermediate parameter, such as the pixel point relative to The disparity, depth level, etc. of a viewpoint.
  • the disparity can be obtained by the following formula: ⁇ __ ⁇ _
  • represents the depth level
  • represents the true distance between the point corresponding to the pixel point in the image and the camera
  • z ar respectively represents the maximum and minimum value of z in the current image
  • bitdepth represents the data bit width of the depth level.
  • the maximum value of the disparity value is MaxDisparity and the minimum value MinDisparity: the value range of the depth level is 0-255, and the MaxDisparity is the depth level from 0 to 255.
  • the maximum value of all disparity values, MinDisparity is the minimum of all disparity values corresponding to the depth level from 0 to 255.
  • Embodiment 1 This embodiment provides a block-based prediction image generation method, where the position of the target rectangular pixel block Bt in the target view and the depth information in the reference view are used in reference.
  • the reference rectangular pixel block Br is determined in the viewpoint and the Br is forward projected to the target viewpoint using the depth information of the reference viewpoint, and the predicted image is obtained from the projected rectangular pixel block Bs obtained by the projection. Wherein at least one pixel projected in Br to the target viewpoint falls within Bt.
  • the upper boundary value of Br is assigned to the upper boundary value of Bt, and the lower boundary value of Br is assigned to the lower boundary value of Bt.
  • the Br in the reference view is forward projected to the target view by using the depth information of the reference view, and the predicted image is obtained from the projected rectangular block Ps obtained by the projection, and the predicted image is less than or equal to Bs.
  • the predicted image is formed by intercepting the pixel of the corresponding position from Bs according to the position of the predicted image.
  • the above variable ShiftValueLeft can take values of 100, 200, 150.5, -100, -200; the above variable ShiftValueRight can also take values of 100, 200, 150.5, -100, -200.
  • Embodiment 2 a block-based predictive image generating method is provided, in which a reference rectangular pixel block Br is determined in a reference view from a position of a target rectangular pixel block Bt in a target view and depth information in a reference view.
  • the Br is forward projected to the target viewpoint using the depth information of the reference viewpoint, and the predicted image is obtained from the projected rectangular pixel block Bs obtained by the projection.
  • at least one pixel projected in Br to the target viewpoint falls within Bt.
  • Br's left boundary value BrLeft is assigned to the value of Bt's left boundary value after MaxDisparity
  • Br's right boundary value BrRight is the value of Bt's right boundary value after MinDisparity
  • Br's upper boundary value is assigned to Bt.
  • the lower boundary value of Br is assigned the lower boundary value of Bt.
  • MaxDisparity and MinDisparity are respectively a maximum disparity value and a minimum disparity value between the reference view point and the target view point.
  • the upper boundary value of Br is assigned to the upper boundary value of Bt, and the lower boundary value of Br is assigned to the lower boundary value of Bt, where MaxDisparity and MinDisparity are the maximum disparity value and minimum disparity between the reference viewpoint and the target viewpoint, respectively. value.
  • Embodiment 3 This embodiment provides a block-based prediction image generation method for determining a reference rectangular pixel block Br from a reference view by using a position of a target rectangular pixel block Bt in a target view and depth information in a reference view.
  • the depth information of the viewpoint advances Br to the target viewpoint, and acquires the predicted image from the projected rectangular pixel block Bs obtained by the projection.
  • Br left boundary value BrLeft assignment Bt left boundary BtLeft offset MaxDisparity value, ie
  • BrLeft BtLeft-MaxDisparity
  • Br's upper boundary value is assigned to the upper boundary value of Bt, and the lower boundary value of Br Assigned to the lower boundary value of Bt.
  • MaxDisparity and MinDisparity are the maximum disparity value and the minimum disparity value between the reference view point and the target view point, respectively.
  • DefaultDisp can be the disparity value between the reference view and the target view when the depth value is 128 or other depth values.
  • ShiftDisp a*(XCt-XPBt) + b, where a and b are real numbers, and the value of a can be 1, -1, 0, 1.5, -1.5, etc., b can be 1, -1 , 0, etc.;
  • B 0U nd XCr
  • BrLeft and BrRight are the left and right boundary values of the reference rectangular pixel block Br, respectively.
  • the depth information of the reference viewpoint can be used to forward the Br in the reference viewpoint to the target viewpoint, and the predicted image is obtained from the projected rectangular pixel block Bs obtained by the projection, and the predicted image is less than or equal to Bs.
  • the predicted image is formed by intercepting the pixel of the corresponding position from Bs according to the position of the predicted image.
  • Embodiment 4 This embodiment provides a block-based predicted image generating apparatus, as shown in FIG. 7, including a reference rectangular pixel block determining module, a mapping module, and a predicted image acquiring module. These modules are described in detail below.
  • the input is the position of the target rectangular pixel block Bt in the target viewpoint, and the depth information in the reference viewpoint.
  • the upper boundary value of Br is assigned to the upper boundary value of Bt
  • the lower boundary value of Br is assigned to the lower boundary value of Bt
  • Br is output to the mapping module.
  • the above variable ShiftValueLeft can take values of 100, 200, 150.5, -100, -200; the above variable ShiftValueRight can also take values of 100, 200, 150.5, -100, -200.
  • a mapping module the input is a reference rectangular pixel block Br from the reference rectangular pixel block determining module, and the depth information in the reference view is used for forward projection of the Br to the target viewpoint by using the depth information of the reference view to obtain the projected rectangular pixel block Bs.
  • the Bs is output to the predicted image acquisition module.
  • the input is a position of the predicted image
  • the projected rectangular pixel block Bs from the mapping module is configured to obtain a predicted image from the Bs according to the position of the predicted image, wherein the predicted image is less than or equal to Bs, and when the predicted image is smaller than Bs According to the position of the predicted image, the pixel of the corresponding position is intercepted from Bs to form a predicted image, and the predicted image is output.
  • Example 5 The present embodiment provides a block-based predictive image generating apparatus including a reference rectangular pixel block determining module, a mapping module, a predicted image acquiring module-reference rectangular pixel block determining module, and inputting the position of the target rectangular pixel block Bt in the target viewpoint, Refer to the depth information in the viewpoint.
  • the upper boundary value of Br is assigned to the upper boundary value of Bt, and the lower boundary value of Br is assigned to the lower boundary value of Bt, where MaxDisparity and MinDisparity are respectively reference
  • the maximum disparity value and the minimum disparity value between the viewpoint and the target viewpoint are outputted to the mapping module.
  • the input is a reference rectangular pixel block Br from the reference rectangular pixel block determining module, and the depth information in the reference view is used for forward projection of the Br to the target viewpoint by using the depth information of the reference view to obtain the projected rectangular pixel block Bs.
  • the Bs is output to the predicted image acquisition module.
  • a prediction image acquisition module the input is a position of the predicted image
  • the projected rectangular pixel block Bs from the mapping module is configured to obtain a predicted image from the Bs according to the position of the predicted image, wherein the predicted image is less than or equal to Bs, and when the predicted image is smaller than Bs A pixel is taken from the Bs according to the position of the predicted image to form a predicted image, and the predicted image is output.
  • Embodiment 6 provides a block-based prediction image generating apparatus, as shown in FIG. 8, including a Br initialization module, an initialization module, a Cr initialization module, a Bound update module, a Cr update module, a Br boundary update module, and a mapping.
  • Module, predictive image acquisition module :
  • the Br initialization module inputs the position of the target rectangular pixel block Bt in the target viewpoint, the depth information in the reference viewpoint, and is used to determine the reference rectangular pixel block Br in the reference viewpoint, and the left boundary value BrBr of Br is assigned to the left boundary BtLeft of Bt
  • the value after offset MaxDisparity, ie BrLeft BtLeft-MaxDisparity
  • Br's upper boundary value is assigned Bt
  • the upper boundary value, the lower boundary value of Br is assigned to the lower boundary value of Bt, where MaxDisparity and MinDisparity are the maximum disparity value and the minimum disparity value between the reference viewpoint and the target viewpoint, respectively, and the position of the output Br is to the initialization module, Br Boundary update module.
  • the input is the pixel point PBt
  • the coordinate CrO is equal to the coordinate of the PBt coordinate after offsetting the DefaultDisp in the horizontal direction
  • the coordinate value of the PBt is (XPBt, YPBt)
  • the coordinate value of the CrO is ( XCrO, YCrO)
  • XCrO XPBt - DefaultDisp
  • YCrO YPBt
  • DefaultDisp can be the disparity value between the reference view and the target view when the depth value is 128 or other depth values
  • Bound update module input as depth information in reference view, pixel point PBt, flag bit Init, coordinate CrO from Cr initialization module, DirSign from initialization module, BoundO Boundl from Bound update module, coordinate Crl from Cr update module
  • the coordinate value of Cr is (XCr, YCr)
  • the coordinate value of Crl is (XCrl, YCrl).
  • the Cr update module inputs the pixel PBt, the coordinate Cr2 from the Bound update module, and the coordinate Ct.
  • Boundl (N)), or BrLeft Median (Boundl(l), Boundl (2), Boundl (N)) ;
  • the return value is the minimum value from xl to xK.
  • Median(xl, x2, ..., xK) returns the median value from xl to xK; output Br to the mapping module.
  • the mapping module inputs the depth information in the reference view, the reference rectangular pixel block Br from the Br boundary update module. For forward projection of Br to the target viewpoint using the depth information of the reference viewpoint to obtain a projected rectangular pixel block Bs, and outputting Bs to the predicted image acquisition module; the predicted image acquisition module, the input is the position of the predicted image, and the projection from the mapping module
  • the rectangular pixel block Bs is based on the position of the predicted image.
  • the predicted image is less than or equal to Bs.
  • the predicted image is formed by capturing the pixel of the corresponding position from Bs according to the position of the predicted image, and the predicted image is output.
  • Embodiment 7 provides a block-based prediction image generating apparatus, by which a Bound corresponding to a plurality of pixel points can be generated in parallel, as shown in FIG. 10, including a Br initialization module, a Bound calculation module, and a Br boundary update. Module, mapping module, predictive image acquisition module.
  • the Bound update module (shown in Figure 9) includes submodules such as an initialization module, a Cr initialization module, a Bound update module, and a Cr update module.
  • the Bound update module inputs the position of the pixel PBt, the reference rectangular pixel block Br from the Br initialization module, and outputs the Boundl to Br boundary update module.
  • the input is the pixel point PBt
  • the default disparity value DefaultDisp the coordinate CrO is equal to the coordinate of the PBt coordinate after offsetting the DefaultDisp in the horizontal direction
  • the coordinate value of the PBt is (XPBt, YPBt)
  • the coordinate value of the CrO is ( XCr0, YCr0)
  • Bay lj XCrO XPBt - DefaultDisp
  • YCrO YPBt. among them,
  • the value of DefaultDisp may be a disparity value between the reference view and the target view when the depth value is 128 or other depth values, and the CrO to Bound update module is output.
  • the Br initialization module inputs the position of the target rectangular pixel block Bt in the target viewpoint, the depth information in the reference viewpoint, determines the reference rectangular pixel block Br in the reference viewpoint, and the left boundary value BrLe of Br is assigned to the left boundary BtLeft offset of Bt
  • the value after MaxDisparity, ie BrLeft BtLeft-MaxDisparity
  • Br's upper boundary value is assigned to the upper boundary of Bt Value
  • the lower boundary value of Br is assigned to the lower boundary value of Bt, where MaxDisparity and MinDisparity are the maximum disparity value and the minimum disparity value between the reference viewpoint and the target viewpoint, respectively, and the position of the output Br is to the Bound calculation module, Br boundary Update the module.
  • the mapping module inputs the depth information in the reference view, the reference rectangular pixel block Br from the Br boundary update module, and uses the depth information of the reference view to forward the Br to the target view to obtain the projected rectangular pixel block Bs, and outputs the Bs to a predicted image acquisition module; a predicted image acquisition module, the input being a position of the predicted image, and a projected rectangular pixel block Bs from the mapping module.
  • the predicted image is less than or equal to Bs.
  • the predicted image is formed by capturing the pixel of the corresponding position from the Bs according to the position of the predicted image, and the predicted image is output.
  • Embodiment 8 This embodiment provides a media content, wherein the process of generating an image by the media content may be implemented by any one of Embodiments 1 to 3 based on a block-based predicted image generation method.
  • the predicted image may also be subjected to a down-sampling, sub-pixel interpolation, etc. processing method to generate a new predicted image.
  • software is also provided for performing the technical solutions described in the above embodiments and preferred embodiments.
  • a storage medium is provided, the software being stored, including but not limited to: an optical disk, a floppy disk, a hard disk, a rewritable memory, and the like.
  • a new method for generating a predicted image is proposed.
  • generating a reference rectangular pixel block only the position of the target rectangular pixel block and/or the position of the target rectangular pixel block is required.
  • Referencing the depth information of the viewpoint and/or the camera parameters of the target viewpoint and does not need to determine the reference rectangular pixel block by the depth image of the target viewpoint, and also performs the forward projection by determining the depth information of the reference viewpoint, There is no need to know the depth image of the target viewpoint during the process.
  • the depth image of the target viewpoint and the depth of the reference viewpoint in the prior art in generating the predicted image are solved in the above manner.
  • the technical problem that the image is highly dependent on the data achieves the technical effect of reducing the dependence on the data and improving the coding and decoding efficiency.
  • modules or steps of the present invention can be implemented by a general-purpose computing device, which can be concentrated on a single computing device or distributed over a network composed of multiple computing devices.
  • they may be implemented by program code executable by the computing device, such that they may be stored in the storage device by the computing device and, in some cases, may be different from the order herein.
  • the steps shown or described are performed, or they are separately fabricated into individual integrated circuit modules, or a plurality of modules or steps are fabricated as a single integrated circuit module.
  • the invention is not limited to any specific combination of hardware and software.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种预测图像生成方法和装置,其中,该方法包括:根据参数信息确定参考矩形像素块,其中,参数信息包括目标矩形像素块的位置和/或参考视点的深度信息;通过参考视点的深度信息将参考矩形像素块向目标视点进行映射得到投影矩形像素块;从投影矩形像素块中获取预测图像块。本发明解决了现有技术中在生成预测图像的过程中需要同时用到目标视点的深度图像和参考视点的深度图像而造成的对数据的依赖性较大的技术问题,达到了减少对数据的依赖和提高编解码效率的技术效果。

Description

预测图像生成方法和装置 技术领域 本发明涉及通信领域, 具体而言, 涉及一种预测图像生成方法和装置。 背景技术 图像预测, 是指在视频编 /解码过程中, 通过运动矢量、 参考帧索引等信息, 从已 经编 /解码完成的图像中直接拷贝或者通过亚像素插值等方法获取部分图像, 作为当前 编 /解码图像块的预测图像。 在编码端, 将该预测图像与原始图像相减, 可以得到图像 残差并编码写入码流; 在解码端, 将该预测图像与码流中解码得到的图像残差相加, 可以得到重建图像,通过这种预测图像的方式进行编解码可以有效提升编解码的效率。 目前, 常用的生成预测图像的方式是采用前向投影的方式, 即指利用参考视点中 的每个像素点或者每个像素块的深度信息, 将参考视点的图像投影至目标视点得到目 标视点的图像。 目前, 常用的基于块的前向投影一般都是按照以下方式实现: 为了在目标视点中生成一个目标像素块 Bt, 在参考视点中用于生成 Bt的参考像 素块 Br的大小以及位置是由 Bt的大小、位置以及 Bt中各像素点对应的深度值决定的, BP, 在该方法中需要通过目标视点的深度信息来确定参考像素块。 在上述方法中,通过统计 Bt中各像素点对应的视差值中的最大值 Dmax与最小值 Dmin其中, 视差值由各像素点对应的深度值转换而来, 将 Bt的左边界减去 Dmax, Bt的右边界减去 Dmin, 保持上下边界不变, 得到一组新的边界值, 将该新的边界值 作为 Br的边界。将 Br投影至目标视点并填充 Bt内未被投影到的像素点, 得到被投影 的 Bt, 并将 Bt作为预测图像, 在投影的过程中需要用到参考视点的深度信息, 从而 生成所需的预测图像。 上述的空洞填充就是在图像中物体的边界区域等深度变化的地方, 经过虚拟视投 影以后会出现空洞。 被投影视点的图像投影至目标视点以后, 目标视点中未被投影到 的单个点或者连续的点段被称为空洞。 空洞的出现与深度、 纹理的采样率有关, 同时 也是由于三维场景中物体的遮挡关系引起的。 处于物体背后的场景在拍摄时无法被获 取, 经过投影以后就无法复现原本位于物体背后的图像。 出现空洞时, 需要采用空洞 填充技术将整幅投影后的图像填充完整。 空洞填充的方法通常是取空洞两侧的两个已 投影像素中属于背景区域 (基于两个像素的相对前景和背景之间的关系) 的像素值填 充整个空洞; 若空洞只有一侧有已投影像素(一般出现在图像边界上), 则取这一仅有 的已投影像素填充整个空洞。 上述仅是空洞填充技术的一种方式, 还可以采用其它多 种方式实现。 由上述描述可知, 现有技术中在进行前向投影时, 需要利用参考视点的深度信息 确定参考像素块, 在进行投影时又需要用到目标视点的深度信息, 因此, 在生成预测 图像的过程中需要同时用到目标视点的深度信息和参考视点的深度信息, 对数据的依 赖性比较大。 针对上述的问题, 目前尚未提出有效的解决方案。 发明内容 本发明实施例提供了一种预测图像生成方法和装置, 以至少解决现有技术中在生 成预测图像的过程中需要同时用到目标视点的深度信息和参考视点的深度信息而造成 的对数据的依赖性较大的技术问题。 根据本发明的一个方面, 提供了一种预测图像生成方法, 包括: 根据参数信息确 定参考矩形像素块, 其中, 上述参数信息包括目标矩形像素块的位置和 /或参考视点的 深度信息; 通过上述参考视点的深度信息将上述参考矩形像素块向目标视点进行映射 得到投影矩形像素块; 从上述投影矩形像素块中获取预测图像块。 优选地, 上述参考视点的深度信息包括以下至少之一: 上述参考视点的深度图像、 上述参考视点的摄像机参数信息。 优选地, 可采用前向投影的方式将上述参考矩形像素块向目标视点进行映射。 优选地, 当上述参数信息包括目标矩形像素块的位置时, 根据参数信息确定参考 矩形像素块包括: 将上述目标矩形像素块的左边界值减去第一预定偏移值后的值作为 上述参考矩形像素块的左边界值; 将上述目标矩形像素块的右边界值减去第二预定偏 移值后的值作为上述参考矩形像素块的右边界值; 将上述目标矩形像素块的上边界值 作为上述参考矩形像素块的上边界值; 将上述目标矩形像素块的下边界值作为上述参 考矩形像素块的下边界值; 将确定的参考矩形像素块的左边界值、 右边界值、 上边界 值以及下边界值作为上述参考矩形像素块的边界信息以在参考视点中确定上述参考矩 形像素块。 优选地, 上述第一预定偏移值与上述第二预定偏移值是预先设定的一个不为 0的 数值。 优选地, 当上述参数信息包括目标矩形像素块的位置和参考视点的深度信息时, 根据参数信息确定参考矩形像素块包括: 根据上述目标矩形像素块的位置确定上述参 考矩形像素块的第一组边界值; 根据上述参考视点的深度信息对上述第一组边界值进 行更新, 将更新后得到的结果作为上述参考矩形像素块的第二组边界值, 其中, 上述 第二组边界值对应的参考矩形像素块的面积小于上述第一组边界值对应的参考矩形像 素块的面积; 根据上述第二组边界值在参考视点中确定上述参考矩形像素块。 优选地, 根据上述目标矩形像素块的位置确定上述参考矩形像素块的第一组边界 值包括: 将上述目标矩形像素块的左边界值减去第三预定偏移值后的值作为上述参考 矩形像素块的上述第一组边界值中的左边界值; 将上述目标矩形像素块的右边界值减 去第四预定偏移值后的值作为上述参考矩形像素块的上述第一组边界值中的右边界 值; 将上述目标矩形像素块的上边界值作为上述第一组边界值中的上边界值; 将上述 目标矩形像素块的下边界值作为上述第一组边界值中的下边界值。 优选地, 上述第三预定偏移值与上述第四预定偏移值是预先设定的一个不为 0的 数值。 优选地, 上述第三预定偏移值包括: 上述参考视点与上述目标视点之间的最大视 差值, 上述第四预定偏移值包括: 上述参考视点与目标视点之间的最小视差值。 优选地, 根据上述参考视点的深度信息对上述第一组边界值进行更新包括: 根据 上述目标矩形像素块边界上的一个或多个像素点的位置信息和上述参考视点的深度信 息确定一个或多个边界范围值, 其中, 上述边界范围值包括左边界范围值和 /或右边界 范围值; 根据确定的一个或多个边界范围值对上述第一组边界值进行更新。 优选地, 根据确定的一个或多个边界范围值对上述第一组边界值进行更新包括: 从一个或多个左边界范围值中选择一个作为上述第一组边界值中的左边界值, 其中, 上述左边界范围值为上述目标矩形像素块左边界上的像素点对应的边界范围值; 和 / 或从一个或多个右边界范围值中选择一个作为上述第一组边界值中的右边界值,其中, 上述右边界范围值为上述目标矩形像素块右边界上的像素点对应的边界范围值。 优选地, 根据上述目标矩形像素块边界上的一个或多个像素点的位置信息和上述 参考视点的深度信息确定一个或多个左边界范围值的步骤包括: 从上述目标矩形像素 块的左边界上选择一个像素点作为第一像素点; 将上述第一组边界值中的左边界值作 为第一像素点对应的左边界范围值; 将上述第一像素点的坐标偏移一个默认视差后得 到的第一坐标作为上述参考视点中的第二坐标; 根据上述第二坐标在上述参考视点中 所对应的像素点的深度信息确定上述第二坐标所对应的像素点在上述目标视点中的第 一投影坐标; 当上述第一投影坐标的水平分量小于等于上述第一组边界值中的左边界 值时, 更新上述第一像素点对应的左边界范围值为上述第二坐标的水平分量; 和 /或根 据上述目标矩形像素块边界上的一个或多个像素点的位置信息和上述参考视点的深度 信息确定一个或多个右边界范围值包括: 从上述目标矩形像素块的右边界上选择一个 像素点作为第二像素点; 将上述第一组边界值中的右边界值作为上述第二像素点对应 的右边界范围值; 将上述第二像素点的坐标偏移一个默认视差后得到的第三坐标作为 上述参考视点中的第四坐标; 根据上述第四坐标在上述参考视点中所对应的像素点的 深度信息确定上述第四坐标所对应的像素点在上述目标视点中的第二投影坐标; 当上 述第二投影坐标的水平分量大于等于上述第一组边界值中的右边界值时, 更新上述第 二像素点对应的右边界范围值为上述第四坐标的水平分量。 优选地, 上述默认视差是上述参考视点与上述目标视点之间的一个深度值所对应 的视差值。 优选地, 在判断不满足上述第一投影坐标的水平分量小于等于上述第一组边界值 中的左边界值的条件, 或者更新上述第一像素点对应的左边界范围值为上述第二坐标 的水平分量之后, 上述方法还包括: 对上述第一像素点对应的左边界范围值进行更新; 和 /或在判断不满足上述第二投影坐标的水平分量大于等于上述第一组边界值中的右 边界值的条件, 或者更新上述第二像素点对应的右边界范围值为上述第四坐标的水平 分量之后, 上述方法还包括: 对上述第二像素点对应的右边界范围值进行更新。 优选地, 对上述第一像素点对应的左边界范围值进行更新包括: 将上述第二坐标 更新为当前第二坐标偏移第五预定偏移值之后的坐标; 根据当前上述第二坐标在上述 参考视点中所对应的像素点的深度信息确定当前上述第二坐标所对应的像素点在上述 目标视点中的第三投影坐标; 当上述第三投影坐标的水平分量小于等于上述第一组边 界值中的左边界值, 且当前上述第二坐标的水平分量大于当前上述第一像素点对应的 左边界范围值时, 更新上述第一像素点对应的左边界范围值为当前的上述第二坐标的 水平分量; 和 /或对上述第二像素点对应的右边界范围值进行更新包括: 将上述第四坐 标更新为当前第四坐标偏移第六预定偏移值之后的坐标; 根据当前上述第四坐标在上 述参考视点中所对应的像素点的深度信息确定当前上述第四坐标所对应的像素点在上 述目标视点中的第四投影坐标; 当上述第四投影坐标的水平分量大于等于上述第一组 边界值中的右边界值, 且当前上述第四坐标的水平分量大于当前上述第二像素点对应 的右边界范围值时, 更新上述第二像素点对应的右边界范围值为当前的上述第四坐标 的水平分量。 优选地, 重复执行预定次数遍对上述第一像素点对应的左边界范围值进行更新的 步骤, 和 /或, 重复执行预定次数遍对上述第二像素点对应的左边界范围值进行更新的 步骤。 优选地, 上述第五预定偏移值是由上述第一像素点坐标的水平分量和上述第二坐 标所对应的像素点在上述目标视点中的投影坐标的水平分量之间的差值确定的, 和 / 或, 上述述第六预定偏移值是由上述第二像素点坐标的水平分量和上述第二坐标所对 应的像素点在上述目标视点中的投影坐标的水平分量之间的差值确定的。 优选地, 根据上述目标矩形像素块边界上的一个或多个像素点的位置信息和上述 参考视点的深度信息确定多个左边界范围值包括: 采用并行方式根据上述目标矩形像 素块边界上的一个或多个像素点的位置信息和上述参考视点的深度信息确定多个左边 界范围值; 和 /或根据上述目标矩形像素块边界上的一个或多个像素点的位置信息和上 述参考视点的深度信息确定多个右边界范围值包括: 采用并行方式根据上述目标矩形 像素块边界上的一个或多个像素点的位置信息和上述参考视点的深度信息确定多个右 边界范围值。 优选地, 根据确定的一个或多个边界范围值对上述第一组边界值进行更新包括: 将上述第一组边界值中的左边界值更新为上述的一个或多个左边界范围值中的最大值 或最小值或中值; 和 /或将上述第一组边界值中的右边界值更新为上述的一个或多个右 边界范围值中的最大值或最小值或中值。 优选地, 上述方法应用于 3D图像编解码技术中。 根据本发明的一个方面, 提供了一种预测图像生成装置, 包括: 参考矩形像素块 确定模块, 设置为根据参数信息确定参考矩形像素块, 其中, 上述参数信息包括目标 矩形像素块的位置和 /或参考视点的深度信息; 映射模块, 设置为通过上述参考视点的 深度信息将上述参考矩形像素块向目标视点进行映射得到投影矩形像素块; 预测图像 获取模块, 设置为从上述投影矩形像素块中获取预测图像块。 优选地, 上述参考视点的深度信息包括以下至少之一: 上述参考视点的深度图像、 上述参考视点的摄像机参数信息。 优选地, 投影模块可采用前向投影的方式将上述参考矩形像素块向目标视点进行 映射。 优选地, 上述参考矩形像素块确定模块包括: 第一确定单元, 设置为当上述参数 信息包括目标矩形像素块的位置和参考视点的深度信息时, 根据上述目标矩形像素块 的位置确定上述参考矩形像素块的第一组边界值; 更新单元, 设置为根据上述参考视 点的深度信息对上述第一组边界值进行更新, 将更新后得到的结果作为上述参考矩形 像素块的第二组边界值, 其中, 上述第二组边界值对应的参考矩形像素块的面积小于 上述第一组边界值对应的参考矩形像素块的面积; 第二确定单元, 设置为根据上述第 二组边界值在参考视点中确定上述参考矩形像素块。 优选地, 上述第一确定单元包括: 左边界值确定子单元, 设置为将上述目标矩形 像素块的左边界值减去第三预定偏移值后的值作为上述参考矩形像素块的上述第一组 边界值中的左边界值; 右边界值确定子单元, 设置为将上述目标矩形像素块的右边界 值减去第四预定偏移值后的值作为上述参考矩形像素块的上述第一组边界值中的右边 界值; 上边界值确定子单元, 设置为将上述目标矩形像素块的上边界值作为上述第一 组边界值中的上边界值; 下边界值确定子单元, 设置为将上述目标矩形像素块的下边 界值作为上述第一组边界值中的下边界值。 优选地, 上述更新单元包括: 边界范围值确定子单元, 设置为根据上述目标矩形 像素块边界上的一个或多个像素点的位置信息和上述参考视点的深度信息确定一个或 多个边界范围值, 其中, 上述边界范围值包括左边界范围值和 /或右边界范围值; 更新 子单元, 设置为根据确定的一个或多个边界范围值对上述第一组边界值进行更新。 优选地, 上述边界范围值确定子单元还设置为按照以下方式确定一个或多个左边 界范围值: 从上述目标矩形像素块的左边界上选择一个像素点作为第一像素点; 将上 述第一组边界值中的左边界值作为第一像素点对应的左边界范围值; 将上述第一像素 点的坐标偏移一个默认视差后得到的第一坐标作为上述参考视点中的第二坐标; 根据 上述第二坐标在上述参考视点中所对应的像素点的深度信息确定上述第二坐标所对应 的像素点在上述目标视点中的第一投影坐标; 当上述第一投影坐标的水平分量小于等 于上述第一组边界值中的左边界值时, 更新上述第一像素点对应的左边界范围值为上 述第二坐标的水平分量; 和 /或上述边界范围值确定子单元还设置为按照以下方式确定 一个或多个右边界范围值: 从上述目标矩形像素块的右边界上选择一个像素点作为第 二像素点; 将上述第一组边界值中的右边界值作为上述第二像素点对应的右边界范围 值; 将上述第二像素点的坐标偏移一个默认视差后得到的第三坐标作为上述参考视点 中的第四坐标; 根据上述第四坐标在上述参考视点中所对应的像素点的深度信息确定 上述第四坐标所对应的像素点在上述目标视点中的第二投影坐标; 当上述第二投影坐 标的水平分量大于等于上述第一组边界值中的右边界值时, 更新上述第二像素点对应 的右边界范围值为上述第四坐标的水平分量。 在本发明实施例中, 提供了一种新的预测图像的生成方法, 在生成参考矩形像素 块时,仅需要采用目标矩形像素块的位置和 /或参考视点的深度信息和 /或目标视点的摄 像机参数等信息, 而并不需要通过目标视点的深度图像确定参考矩形像素块, 在进行 前向投影时同样通过参考视点的深度信息进行确定, 在整个过程中都不需要知道目标 视点的深度图像。 通过上述方式解决了现有技术中在生成预测图像的过程中需要同时 用到目标视点的深度图像和参考视点的深度图像而造成的对数据的依赖性较大的技术 问题, 达到了减少对数据的依赖和提高编解码效率的技术效果。 附图说明 此处所说明的附图用来提供对本发明的进一步理解, 构成本申请的一部分, 本发 明的示意性实施例及其说明用于解释本发明, 并不构成对本发明的不当限定。 在附图 中- 图 1是根据本发明实施例的预测图像生成方法的一种优选流程图; 图 2是根据本发明实施例的预测图像生成方法的另一种优选流程图; 图 3是根据本发明实施例的预测图像生成方法的又一种优选流程图; 图 4是根据本发明实施例的预测图像生成方法的又一种优选流程图; 图 5是根据本发明实施例的预测图像生成装置的一种优选结构框图; 图 6是根据本发明实施例的预测图像生成装置的另一种优选结构框图; 图 Ί是本发明实施例基于块的预测图像生成装置的一种优选示意图; 图 8是本发明实施例 6基于块的预测图像生成装置的一种优选示意图; 图 9是本发明实施例 7基于块的预测图像生成装置中的 Bound计算模块的一种优 选示意图; 以及 图 10是本发明实施例 7基于块的预测图像生成装置的一种优选示意图。 具体实施方式 下文中将参考附图并结合实施例来详细说明本发明。 需要说明的是, 在不冲突的 情况下, 本申请中的实施例及实施例中的特征可以相互组合。 本发明实施例提供了一种优选的预测图像生成方法, 如图 1所示,包括以下步骤: 步骤 S102: 根据参数信息确定参考矩形像素块, 其中, 参数信息包括目标矩形像 素块的位置和 /或参考视点的深度信息; 步骤 S104:通过参考视点的深度信息将参考矩形像素块向目标视点进行前向投影 得到投影矩形像素块; 步骤 S106: 从投影矩形像素块中获取预测图像。 在上述优选实施方式中, 提出了一种新的预测图像的生成方法, 在生成参考矩形 像素块时,仅需要采用目标矩形像素块的位置和 /或参考视点的深度信息和 /或目标视点 的摄像机参数等信息, 而并不需要通过目标视点的深度图像确定参考矩形像素块, 在 进行前向投影时同样通过参考视点的深度信息进行确定, 在整个过程中都不需要知道 目标视点的深度图像。 通过上述方式解决了现有技术中在生成预测图像的过程中需要 同时用到目标视点的深度图像和参考视点的深度图像而造成的对数据的依赖性较大的 技术问题, 达到了减少对数据的依赖和提高编解码效率的技术效果。 在上述优选实施方式中, 参考视点的深度信息可以包括但不限于以下至少之一: 参考视点的深度图像、 参考视点的摄像机参数信息。 在本实施例中提供了一种简单的确定参考矩形像素块的方法, 在该方法中仅需要 依据特定的偏移值和目标矩形像素块的边界值即可确定出一个参考矩形像素块。 在一 个优选实施方式中, 当参数信息包括目标矩形像素块的位置时, 根据参数信息确定参 考矩形像素块包括以下步骤: 步骤 S1 :将目标矩形像素块的左边界值减去第一预定偏移值后的值作为参考矩形 像素块的左边界值; 步骤 S2:将目标矩形像素块的右边界值减去第二预定偏移值后的值作为参考矩形 像素块的右边界值; 步骤 S3 : 将目标矩形像素块的上边界值作为参考矩形像素块的上边界值; 步骤 S4: 将目标矩形像素块的下边界值作为参考矩形像素块的下边界值; 步骤 S5 : 将确定的参考矩形像素块的左边界值、 右边界值、 上边界值以及下边界 值作为参考矩形像素块的边界信息以在参考视点中确定参考矩形像素块。 对于上述的第一预定偏移值与第二预定偏移值是预先设定的一个不为 0的数值, 例如可以取 100, 200, 150.5, -100, -200等等。 即, 仅按照目标矩形像素块的边界值确定参考矩形像素块对应的边界值即可, 实 现起来较为简单, 可以提高编解码的效率。 为了使得预测图像更为准确, 本发明实施例还提供了较为精确的确定参考矩形像 素块的方法,在该方法中需要用到参考视点的深度信息, 具体的实现方法如图 2所示, 包括: 步骤 S202: 根据目标矩形像素块的位置确定参考矩形像素块的第一组边界值; 步骤 S204: 根据参考视点的深度信息对第一组边界值进行更新, 将更新后得到的 结果作为参考矩形像素块的第二组边界值, 其中, 第二组边界值对应的参考矩形像素 块的面积小于第一组边界值对应的参考矩形像素块的面积; 步骤 S206: 根据第二组边界值在参考视点中确定参考矩形像素块。 即, 通过参考视点的深度信息来对确定的参考矩形像素块进行调整, 从而使得确 定的编解码得到的图像更为精准。 在这个过程中可以将上述通过最简单的方法确定的参考矩形像素块作为调整的基 础, 即, 按照上述的方式确定最基本的参考矩形像素块, 将该最基本的参考矩形像素 块的边界值作为第一组边界值。 然而, 此时的第一预定偏移值可以是参考视点与目标视点之间的最大视差值, 第 二预定偏移值可以是参考视点与目标视点之间的最小视差值。 可以通过目标矩形像素块的左右边界上的像素点对第一组边界值进行调整。 在一 个优选实施方式中, 根据参考视点的深度信息对第一组边界值进行更新包括: 根据目 标矩形像素块边界上的一个或多个像素点的位置信息和参考视点的深度信息确定一个 或多个边界范围值, 其中, 边界范围值包括左边界范围值和 /或右边界范围值; 根据确 定的一个或多个边界范围值对第一组边界值进行更新。 即, 可以选取目标矩形像素块 边界上的多个点, 然后为每个选取的边界上的点确定一个边界范围值, 从中选择对第 一组边界值进行更新的边界范围值, 例如可以从左边界像素点对应的边界范围值中选 择一个更新第一组边界值中的左边界值, 可以从右边界像素点对应的边界范围值中选 择一个更新第一组边界值中的右边界值, 从而实现对第一组边界值的更新。 在一个优选实施方式中, 根据确定的一个或多个边界范围值对第一组边界值进行 更新包括: 从一个或多个左边界范围值中选择一个作为第一组边界值中的左边界值, 其中, 左边界范围值为目标矩形像素块左边界上的像素点对应的边界范围值; 和 /或从 一个或多个右边界范围值中选择一个作为第一组边界值中的右边界值, 其中, 右边界 范围值为目标矩形像素块右边界上的像素点对应的边界范围值。 本发明实施例还给出了如何确定边界上的像素点所对应的边界范围值的方法, 以 左边界为例进行说明, 如图 3所示, 根据目标矩形像素块边界上的一个或多个像素点 的位置信息和参考视点的深度信息确定一个或多个左边界范围值的步骤包括: 步骤 S302: 从目标矩形像素块的左边界上选择一个像素点作为第一像素点; 步骤 S304: 将第一组边界值中的左边界值作为第一像素点对应的左边界范围值; 步骤 S306:将第一像素点的坐标偏移一个默认视差后得到的第一坐标作为参考视 点中的第二坐标; 步骤 S308:根据第二坐标在参考视点中所对应的像素点的深度信息确定第二坐标 所对应的像素点在目标视点中的第一投影坐标; 步骤 S310: 当第一投影坐标的水平分量小于等于第一组边界值中的左边界值时, 更新第一像素点对应的左边界范围值为第二坐标的水平分量; 上述的默认视差可以是 参考视点与目标视点之间的一个深度值所对应的视差值, 例如可以是深度值 128对应 的视差值。 为了进一步更新上述的边界范围值, 无论上述步骤中对边界范围值的更新是否成 功, 都可以再重复执行以下操作对边界范围值进行更新, 从而使得像素点对应的边界 范围值最终确定的参考矩形像素块尽可能的小, 从而提高图像编解码的精确度, 如图 4所示, 包括以下步骤: 步骤 S402: 将第二坐标更新为当前第二坐标偏移第三预定偏移值之后的坐标, 其 中, 第三预定偏移值可以由第一像素点坐标的水平分量和第二坐标所对应的像素点在 目标视点中的投影坐标的水平分量之间的差值确定; 步骤 S404:根据当前第二坐标在参考视点中所对应的像素点的深度信息确定当前 第二坐标所对应的像素点在目标视点中的第三投影坐标; 步骤 S406: 当第三投影坐标的水平分量小于等于第一组边界值中的左边界值, 且 当前第二坐标的水平分量大于当前第一像素点对应的左边界范围值时, 更新第一像素 点对应的左边界范围值为当前的第二坐标的水平分量。 上述步骤 S402至 S406可以重复执行, 即可以重复执行预定次数遍对第一像素点 对应的左边界范围值进行更新的步骤从而使得该像素对应的边界范围值更为精准。 如果需要同时对多个边界上的像素点进行边界范围值的获取, 既可以采用串行的 方式也可以采用并行的方式, 相应的采用串行的方式仅需要划分一个处理模块即可, 如果采用并行的方式相应的就需要在系统中同时存在多个用于生成边界范围值的模 块, 便可以同时对多个边界像素点进行处理。 对于上述的根据确定的一个或多个边界范围值对第一组边界值进行更新可以包 括- 将第一组边界值中的左边界值更新为的一个或多个左边界范围值中的最大值或最 小值或者是大小位于最中间的那个数值。 以上描述主要是基于左边界进行描述的, 优选地, 右边界上像素点对应的范围值 的确定方式与上述左边界上像素点对应的范围值的确定方式是相同的,在此不再赘述。 上述各个优选实施方式中所涉及的预测图像的获取方法可以应用于 3D 图像编解 码技术中。 在本实施例中还提供了一种预测图像生成装置, 该装置用于实现上述实施例及优 选实施方式, 已经进行过说明的不再赘述。 如以下所使用的, 术语"单元"或者"模块" 可以实现预定功能的软件和 /或硬件的组合。尽管以下实施例所描述的装置较佳地以软 件来实现, 但是硬件, 或者软件和硬件的组合的实现也是可能并被构想的。 图 5是根 据本发明实施例的预测图像生成装置的一种优选结构框图, 如图 5所示, 包括: 参考 矩形像素块确定模块 502和投影模块 504、 以及预测图像获取模块 506, 下面对该结构 进行说明。
1 )参考矩形像素块确定模块 502, 设置为根据参数信息确定参考矩形像素块, 其 中, 参数信息包括目标矩形像素块的位置和 /或参考视点的深度信息; 2)映射模块 504, 设置为通过参考视点的深度信息将参考矩形像素块向目标视点 进行前向投影得到投影矩形像素块;
4) 预测图像获取模块 506, 设置为从投影矩形像素块中获取预测图像。 在一个优选实施方式中, 如图 6所示, 参考矩形像素块确定模块包括: 第一确定 单元 602, 设置为当参数信息包括目标矩形像素块的位置和参考视点的深度信息时, 根据目标矩形像素块的位置确定参考矩形像素块的第一组边界值; 更新单元 604, 设 置为根据参考视点的深度信息对第一组边界值进行更新, 将更新后得到的结果作为参 考矩形像素块的第二组边界值, 其中, 第二组边界值对应的参考矩形像素块的面积小 于第一组边界值对应的参考矩形像素块的面积; 第二确定单元 606, 设置为根据第二 组边界值在参考视点中确定参考矩形像素块。 在一个优选实施方式中, 第一确定单元包括: 左边界值确定子单元, 设置为将目 标矩形像素块的左边界值减去第三预定偏移值后的值作为参考矩形像素块的第一组边 界值中的左边界值; 右边界值确定子单元, 设置为将目标矩形像素块的右边界值减去 第四预定偏移值后的值作为参考矩形像素块的第一组边界值中的右边界值; 上边界值 确定子单元, 设置为将目标矩形像素块的上边界值作为第一组边界值中的上边界值; 下边界值确定子单元, 设置为将目标矩形像素块的下边界值作为第一组边界值中的下 边界值。 在一个优选实施方式中, 更新单元包括: 边界范围值确定子单元, 设置为根据目 标矩形像素块边界上的一个或多个像素点的位置信息和参考视点的深度信息确定一个 或多个边界范围值, 其中, 边界范围值包括左边界范围值和 /或右边界范围值; 更新子 单元, 设置为根据确定的一个或多个边界范围值对第一组边界值进行更新。 为了使得本发明的目的、 技术方案和优点更加清楚, 下面将结合几个具体的实施 例对本发明进行进一步的详细描述, 然而值得注意的是这些优选的实施例仅是为了更 好地说明本发明, 并不构成对本发明的不当限定。 首先, 对下述实施例可能用到的几个名词进行说明。
1 ) 根据投影关系计算投影坐标: 例如, 现在有一个参考视点中的一个像素点 pA 以及该像素点对应的深度值, 为了计算 pA在另一个目标视点中的投影坐标 ρρΑ' , 可 以利用 pA在参考视点中的位置信息、 pA对应的深度信息以及两个视点 (参考视点与 目标视点) 的摄像机参数等信息, 根据 pA在空间中的位置等信息计算得到投影至目 标视点中的投影坐标。 投影坐标的值通常是经过量化的, 即投影坐标的值一般可以表 示为 1/t的整数倍。
2 )深度值: 一个像素点对应的深度值表示的可以是该点对应的物理空间中物体上 的那一点与摄像机之间的距离, 也可以是经过转换后的中间参数, 如该像素点相对于 一个视点的视差值 (disparity)、 深度级 (depth level)等。 其中, 视差值 (disparity)—般可以通过如下公式转换得到: 丄 __ \_
d = Zfa X 2bitdepth disp = fitv— 、 + (cv - cr )
其中, 表示视差, /表示摄像机焦距, ζ表示图像中像素点对应的点与摄像 机的真实距离, (tv - 表示两台摄像机 (视点) 之间的平移关系, (cv -c )表示两台 摄像机 (视点) 之间基准点位置的差值。 深度级 (depth level)—般可以通过如下公式转换得到: 丄 __ \_
d― X
其中, ί表示深度级, ζ表示图像中像素点对应的点与摄像机的真实距离, z ar, 分别表示当前图像中 z的最大最小值, bitdepth表示深度级的数据位宽。 对两个视点来说(参考视点与目标视点),视差值的最大值 MaxDisparity与最小值 MinDisparity为:以深度级的数值范围为 0-255为例, MaxDisparity为深度级从 0至 255 对应的所有视差值中的最大值, MinDisparity为深度级从 0至 255对应的所有视差值 中的最小值。
2 ) 像素点, 一个像素点包含它的像素值、 以及其对应的坐标等信息。
3 )矩形像素块,一个 M*N大小的矩形像素块的左上角的像素点的坐标值为 (XTL, YTL) , 则矩形像素块内所有像素点的坐标值可以表示为 (XTL+i,YTL+j),其中 0≤i<M, 0≤j<N。 一个矩形像素块的位置可以由该矩形像素块上下左右四个侧面的边界所在的位置 所决定。 矩形像素块的上边界值为该块中最上侧的像素点的竖直方向坐标值, 矩形像 素块的下边界值为该块中最下侧的像素点的竖直方向坐标值, 矩形像素块的左边界值 为该块中最左侧的像素点的水平方向坐标值, 矩形像素块的右边界值为该块中最右侧 的像素点的水平方向坐标值。 下面结合几个具体的实施例进行描述: 实施例 1 本实施例提供了一种基于块的预测图像生成方法, 由目标视点中目标矩形像素块 Bt的位置以及参考视点中的深度信息, 在参考视点中确定参考矩形像素块 Br并利用 参考视点的深度信息将 Br 向目标视点进行前向投影, 从投影得到的投影矩形像素块 Bs中获取预测图像。 其中, Br中投影至目标视点的至少一个像素点落在 Bt内。
Br的左边界值 BrLeft赋值为 Bt的左边界 BtLeft偏移 ShiftValueLeft后的值, 即 BrLeft=BtLeft- ShiftValueLeft; Br的右边界 BrRight值赋值为 Bt的右边界 BtRight偏 移 ShiftValueRight后的位置, 即 BrRight=BtRight- ShiftValueRight; Br的上边界值赋 值为 Bt的上边界值, Br的下边界值赋值为 Bt的下边界值。 在确定 Br的边界范围以后, 利用参考视点的深度信息将参考视点中的 Br向目标 视点进行前向投影,从投影得到的投影矩形像素块 Bs中获取预测图像,预测图像小于 等于 Bs。 当预测图像小于 Bs时, 根据预测图像所在位置, 从 Bs中截取相应位置的像素点 形成预测图像。 优选地, 上述的变量 ShiftValueLeft可以取 100, 200, 150.5, -100, -200等值; 上述的变量 ShiftValueRight也可以取 100, 200, 150.5, -100, -200等值。 实施例 2 在本实施例中提供了一种基于块的预测图像生成方法, 由目标视点中目标矩形像 素块 Bt的位置以及参考视点中的深度信息, 在参考视点中确定参考矩形像素块 Br并 利用参考视点的深度信息将 Br向目标视点进行前向投影,从投影得到的投影矩形像素 块 Bs中获取预测图像。 其中, Br中投影至目标视点的至少一个像素点落在 Bt内。 其中, Br的左边界值 BrLeft赋值为 Bt的左边界值偏移 MaxDisparity后的值, Br 的右边界值 BrRight为 Bt的右边界值偏移 MinDisparity后的值, Br的上边界值赋值为 Bt 的上边界值, Br 的下边界值赋值为 Bt 的下边界值。 优选地, MaxDisparity 与 MinDisparity分别为参考视点与目标视点之间的最大视差值与最小视差值。
Br的左边界值 BrLeft赋值为 Bt的左边界 BtLeft偏移 MaxDisparity后的值, 即 BrLeft=BtLeft- MaxDisparity; Br的右边界 BrRight值赋值为 Bt的右边界 BtRight偏移 MinDisparity后的位置, 即 BrRight=BtRight_ MinDisparity; Br的上边界值赋值为 Bt 的上边界值, Br的下边界值赋值为 Bt的下边界值其中 MaxDisparity与 MinDisparity 分别为参考视点与目标视点之间的最大视差值与最小视差值。 在确定 Br的边界范围以后, 利用参考视点的深度信息将参考视点中的 Br向目标 视点进行前向投影,从投影得到的投影矩形像素块 Bs中获取预测图像,预测图像小于 等于 Bs。 当预测图像小于 Bs时, 根据预测图像所在位置, 从 Bs中截取相应位置的像 素点形成预测图像。 实施例 3 本实施例提供了一种基于块的预测图像生成方法, 由目标视点中目标矩形像素块 Bt的位置以及参考视点中的深度信息, 在参考视点中确定参考矩形像素块 Br并利用 参考视点的深度信息将 Br 向目标视点进行前向投影, 从投影得到的投影矩形像素块 Bs中获取预测图像。 Br的左边界值 BrLeft赋值为 Bt的左边界 BtLeft偏移 MaxDisparity后的值, 即
BrLeft=BtLeft- MaxDisparity; Br的右边界 BrRight值赋值为 Bt的右边界 BtRight偏移 MinDisparity后的位置, 即 BrRight=BtRight_ MinDisparity; Br的上边界值赋值为 Bt 的上边界值, Br的下边界值赋值为 Bt的下边界值。优选地, MaxDisparity与 MinDisparity 分别为参考视点与目标视点之间的最大视差值与最小视差值。 在由目标视点中目标矩形像素块 Bt的位置以及参考视点中的深度信息,在参考视 点中确定参考矩形像素块 Br的过程中, 对目标矩形像素块 Bt左右边界上的像素点中 的至少一个像素点 PBt进行以下操作: 1 ) 初始化: 若 PBt位于 Bt的左边界上, DirSign赋值为一负数, 如 DirSign=-l, Bound赋值为参考矩形像素块 Br的左边界值 BrLeft, 即 Bound=BrLeft; 否贝 lj, DirSign 赋值为一正数,如 DirSign=l, Bound赋值为 Br的右边界值 BrRight,即 Bound=BrRight。
2)①初始化 Cr:坐标 Cr等于 PBt的坐标在水平方向偏移一个默认视差 DefaultDisp 后的坐标, 记 PBt的坐标值为 (XPBt,YPBt), Cr的坐标值为 (XCr,YCr), M XCr = XPBt
- DefaultDisp, YCr = YPBt, 其中, DefaultDisp的取值可以是参考视点与目标视点之 间当深度值为 128或其他深度值时对应的视差值。
②更新 Bound:将位于 Cr的像素点 PCr结合 PCr对应的深度信息根据投影关系计 算 PCr在目标视点中的投影坐标 Ct, 即 Ct的坐标值为 (XCt,YCt), 若 Ct与 PBt的水平 坐标差值与 DirSign的乘积 (XCt-XPBt)*DirSign≥0, 则将 Bound更新为 Cr的水平坐标 值, 即 B0Und=XCr; 3 ) 重复非负整数遍以下步骤, 即可以不执行也可以重复执行预 定次数以下步骤:
①更新 Cr: 将 Cr更新为 Cr在水平方向偏移 ShiftDisp后的坐标, 即 (XCr, YCr) = (XCr - ShiftDisp, YCr), 其中, ShiftDisp的值由 Ct与 PBt的水平坐标差值决定, 如 ShiftDisp = a*(XCt-XPBt) + b, 其中 a与 b均为实数, a的取值可以为 1, -1, 0, 1.5, -1.5等, b的取值可以为 1, -1,0等;
②更新 Bound:将位于 Cr的像素点 PCr结合 PCr对应的深度信息根据投影关系计 算 PCr在目标视点中的投影坐标 Ct, 即 Ct的坐标值为 (XCt,YCt), 若 Ct与 PBt的水平 坐标差值与 DirSign的乘积 (XCt-XPBt)*DirSign≥0, 则将 Bound更新为 Cr的水平坐标 值, 即 B0Und=XCr; 更新 Br边界: 当判断 Bt左边界有像素点执行了上述操作之后, 则从所有执行了上述操作的像素点对应的 Bound值中选择一个用于更新 BrLeft; 优选 地,可以记 N个由 Bt左边界上的像素点计算得到的 Bound值为 Bound(i), i = 1,2,...,Ν, 贝 lj BrLeft = Maximum(Bound(l), Bound(2), Bound(N)), 或者 BrLeft =
Minimum(Bound(l), Bound(2), Bound(N)) , 或者 BrLeft = Median(Bound(l), Bound(2), ... , Bound(N)); 若有 Bt右边界上的像素点执行了上述操作,则从所有执行了上述操作的像素点对 应的 Bound值中选择一个用于更新 BrRight;记 M个由 Bt右边界上的像素点计算得到 的 Bound值为 Bound(j), i = 1,2,...,M, 则 BrRight = Maximum(Bound(l), Bound(2), Bound(M)),或者 BrRight = Minimum(Bound(l), Bound(2), Bound(M)),或者 BrRight = Median(Bound(l), Bound(2), Bound(M)); 其中, 函数 Maximum xl, x2, xK)返回值是 xl 至 xK这些数中的最大值, Minimum(xl, x2, xK)返回值是 xl至 xK这些数中的最小值, Median(xl, x2, xK) 返回值是 xl至 xK这些数的处于最中间的数值。 其中, BrLeft与 BrRight分别为参考 矩形像素块 Br的左边界和右边界值。 在确定 Br的边界范围以后, 就可以利用参考视点的深度信息将参考视点中的 Br 向目标视点进行前向投影,从投影得到的投影矩形像素块 Bs中获取预测图像,预测图 像小于等于 Bs, 当预测图像小于 Bs时, 根据预测图像所在位置, 从 Bs中截取相应位 置的像素点形成预测图像。 实施例 4 本实施例提供了一种基于块的预测图像生成装置, 如图 7所示, 包含参考矩形像 素块确定模块、 映射模块、 预测图像获取模块。 下面对这几个模块进行具体描述。 参考矩形像素块确定模块, 输入为目标视点中目标矩形像素块 Bt的位置、参考视 点中的深度信息。 在参考视点中确定参考矩形像素块 Br, Br的左边界值 BrLeft赋值 为 Bt的左边界 BtLeft偏移 ShiftValueLeft后的值, 即 BrLeft=BtLeft- ShiftValueLeft, Br的右边界 BrRight值赋值为 Bt的右边界 BtRight偏移 ShiftValueRight后的位置, 即 BrRight=BtRight- ShiftValueRight, Br的上边界值赋值为 Bt的上边界值, Br的下边界 值赋值为 Bt的下边界值, 将 Br输出至映射模块。 优选地, 上述的变量 ShiftValueLeft可以取 100, 200, 150.5, -100, -200等值; 上述的变量 ShiftValueRight也可以取 100, 200, 150.5, -100, -200等值。 映射模块, 输入为来自参考矩形像素块确定模块的参考矩形像素块 Br、 参考视点 中的深度信息,用于利用参考视点的深度信息将 Br向目标视点进行前向投影得到投影 矩形像素块 Bs, 将 Bs输出至预测图像获取模块。 预测图像获取模块,输入为预测图像的位置、来自映射模块的投影矩形像素块 Bs, 用于根据预测图像的位置从 Bs中获取预测图像, 其中, 预测图像小于等于 Bs, 当预 测图像小于 Bs时, 根据预测图像所在位置, 从 Bs中截取相应位置的像素点形成预测 图像, 输出预测图像。
实施例 5 本实施例提供了一种基于块的预测图像生成装置包含参考矩形像素块确定模块、 映射模块、 预测图像获取模块- 参考矩形像素块确定模块, 输入为目标视点中目标矩形像素块 Bt的位置、参考视 点中的深度信息。 用于在参考视点中确定参考矩形像素块 Br, Br 的左边界值 BrLeft 赋值为 Bt的左边界 BtLeft偏移 MaxDisparity后的值,即 BrLeft=BtLeft- MaxDisparity; Br的右边界 BrRight值赋值为 Bt的右边界 BtRight偏移 MinDisparity后的位置, 即 BrRight=BtRight- MinDisparity; Br的上边界值赋值为 Bt的上边界值, Br的下边界值 赋值为 Bt的下边界值,其中 MaxDisparity与 MinDisparity分别为参考视点与目标视点 之间的最大视差值与最小视差值, 将 Br输出至映射模块。 映射模块, 输入为来自参考矩形像素块确定模块的参考矩形像素块 Br、 参考视点 中的深度信息,用于利用参考视点的深度信息将 Br向目标视点进行前向投影得到投影 矩形像素块 Bs, 将 Bs输出至预测图像获取模块。 预测图像获取模块,输入为预测图像的位置、来自映射模块的投影矩形像素块 Bs, 用于根据预测图像的位置从 Bs中获取预测图像, 其中, 预测图像小于等于 Bs, 当预 测图像小于 Bs时, 根据预测图像所在位置从 Bs中截取相应位置的像素点形成预测图 像, 输出预测图像。 实施例 6 本实施例提供了一种基于块的预测图像生成装置, 如图 8所示,包含 Br初始化模 块、 初始化模块、 Cr初始化模块、 Bound更新模块、 Cr更新模块、 Br边界更新模块、 映射模块、 预测图像获取模块:
Br初始化模块, 输入为目标视点中目标矩形像素块 Bt的位置、 参考视点中的深 度信息, 用于在参考视点中确定参考矩形像素块 Br, Br的左边界值 BrLeft赋值为 Bt 的左边界 BtLeft偏移 MaxDisparity后的值, 即 BrLeft=BtLeft- MaxDisparity; Br的右 边界 BrRight 值赋值为 Bt 的右边界 BtRight 偏移 MinDisparity 后的位置, 即 BrRight=BtRight- MinDisparity; Br的上边界值赋值为 Bt的上边界值, Br的下边界值 赋值为 Bt的下边界值,其中 MaxDisparity与 MinDisparity分别为参考视点与目标视点 之间的最大视差值与最小视差值, 输出 Br的位置至初始化模块、 Br边界更新模块。 初始化模块, 输入为像素点 PBt, 来自 Br初始化模块的参考矩形像素块 Br的位 置。 若 PBt位于 Bt的左边界上, DirSign赋值为一负数, 如 DirSign=-l, BoundO赋值 为参考矩形像素块 Br的左边界值 BrLeft, 即 BoundO=BrLeft, 否则 DirSign赋值为一 正数, 如 DirSign=l, BoundO赋值为 Br的右边界值 BrRight, 即 BoundO=BrRight, 输 出 BoundO、 DirSign至 Bound更新模块。
Cr初始化模块, 输入为像素点 PBt、 默认视差值 DefaultDisp, 坐标 CrO等于 PBt 的坐标在水平方向偏移 DefaultDisp后的坐标, 记 PBt 的坐标值为 (XPBt,YPBt), CrO 的坐标值为 (XCrO,YCrO),则 XCrO = XPBt - DefaultDisp, YCrO = YPBt,其中 DefaultDisp 的取值可以为参考视点与目标视点之间当深度值为 128 或其他深度值时对应的视差 值, 输出 CrO至 Bound更新模块。
Bound更新模块, 输入为参考视点中的深度信息、 像素点 PBt、 标志位 Init、 来自 Cr初始化模块的坐标 CrO、 来自初始化模块的 DirSign、 BoundO 来自 Bound更新模 块的 Boundl、 来自 Cr更新模块的坐标 Crl ; Cr的坐标值为 (XCr,YCr), Crl的坐标值 为 (XCrl,YCrl), 当 Init等于 0时, 将 Bound赋值为 BoundO, Cr赋值为 CrO, 即 Bound = BoundO, XCr = XCrO, YCr = YCrO, 否则将 Bound赋值为 Boundl, Cr赋值为 Crl, 即 Bound = Boundl, XCr = XCrl , YCr = YCrl 0 其中, Init表示本模块是否已经接收 过来自初始化模块与 Cr初始化模块的数据, 未接收时 Init等于 0, 否则 Init等于 1 ; 将位于 Cr的像素点 PCr结合 PCr对应的深度信息根据投影关系计算 PCr在目标视点 中的投影坐标 Ct, Ct的坐标值为 (XCt, YCt), 若 Ct与 PBt的水平坐标差值与 DirSign 的乘积 (XCt-XPBt)*DirSign≥0, 且当 Init等于 1时, 还满足 Cr的水平坐标值与 Bound 的差值与 DirSign的乘积 (XCr-Bound)*DirSign<0,则将 Bound更新为 Cr的水平坐标值, 即 Bound=XCr; 将 Boundl赋值为 Bound (即 Boundl = Bound) 并输出至 Bound更新 模块、 Br边界更新模块,将 Cr2赋值为 Cr ( Cr2的坐标值为 (XCr2, YCr2) = (XCr, YCr)) 并输出至 Cr更新模块, 输出 Ct至 Cr更新模块。
Cr更新模块, 输入为像素点 PBt、 来自 Bound更新模块的坐标 Cr2、 坐标 Ct, 将 Crl更新为 Cr2在水平方向偏移 ShiftDisp后的坐标,即 (XCrl, YCrl) = (XCr2 - ShiftDisp: YCr2) , 其中 ShiftDisp 的值由 Ct 与 PBt 的水平坐标差值决定, 如 ShiftDisp = a*(XCt-XPBt) + b, 其中 a与 b均为实数, a的取值可以为 1, -1, 0, 1.5, -1.5等, b 的取值可以为 1, -1,0等, 输出 Crl至 Bound更新模块。
Br边界更新模块, 输入为来自 Bound更新模块的 Boundl、来自 Br初始化模块的 参考矩形像素块 Br的位置, 当本模块接收到了 N个由 Bt左边界上的像素点计算得到 的 Boundl值 Boundl(l), Boundl (2),…, Boundl (N),则 BrLeft = Maximum(Boundl(l), Boundl (2), Boundl (N)) , 或者 BrLeft = Minimum(Boundl(l), Boundl (2),
Boundl (N)), 或者 BrLeft = Median(Boundl(l), Boundl (2), Boundl (N)); 当本模块接 收到了 M个由 Bt右边界上的像素点计算得到的 Bound值 Boundl(l), Boundl (2), ..., Bound 1(M), BrRight = Maximum(Boundl(l), Bound 1(2), Boundl(M)), 或者 BrRight = Minimum(Boundl(l), Boundl(2), Boundl(M)), 或者 BrRight = Median(Boundl(l), Boundl(2), Boundl(M));其中函数 Maximum(xl, x2, xK)返回值为从 xl至 xK这 些数中的最大值, Minimum(xl, x2, ..., xK)返回值为从 xl至 xK这些数中的最小值, Median(xl, x2, ..., xK)返回值为从 xl至 xK这些数的中值; 输出 Br至映射模块。 映射模块,输入为参考视点中的深度信息、来自 Br边界更新模块的参考矩形像素 块 Br。 用于利用参考视点的深度信息将 Br向目标视点进行前向投影得到投影矩形像 素块 Bs, 将 Bs输出至预测图像获取模块; 预测图像获取模块,输入为预测图像的位置、来自映射模块的投影矩形像素块 Bs, 根据预测图像的位置。 用于从 Bs中获取预测图像, 其中, 预测图像小于等于 Bs。 当 预测图像小于 Bs时, 根据预测图像所在位置, 从 Bs中截取相应位置的像素点形成预 测图像, 输出预测图像。
实施例 7 本实施例提供了一种基于块的预测图像生成装置, 通过该装置可以并行生成多个 像素点对应的 Bound, 如图 10所示, 包含 Br初始化模块、 Bound计算模块、 Br边界 更新模块、 映射模块、 预测图像获取模块。 其中, Bound更新模块 (如图 9所示) 包 含初始化模块、 Cr初始化模块、 Bound更新模块、 Cr更新模块等子模块。
Bound更新模块, 输入为像素点 PBt、 来自 Br初始化模块的参考矩形像素块 Br 的位置, 输出 Boundl至 Br边界更新模块。 初始化模块, 输入为像素点 PBt, 参考矩形像素块 Br的位置, 若 PBt位于 Bt的 左边界上, DirSign赋值为一负数, 如 DirSign=-l, BoundO赋值为参考矩形像素块 Br 的左边界值 BrLeft, S卩 Bound0=BrLeft, 否则 DirSign赋值为一正数, 如 DirSign=l, BoundO赋值为 Br的右边界值 BrRight, 即 Bound0=BrRight, 输出 BoundO、 DirSign至 Bound更新模块。
Cr初始化模块, 输入为像素点 PBt、 默认视差值 DefaultDisp, 坐标 CrO等于 PBt 的坐标在水平方向偏移 DefaultDisp后的坐标, 记 PBt 的坐标值为 (XPBt,YPBt), CrO 的坐标值为 (XCr0,YCr0), 贝 lj XCrO = XPBt - DefaultDisp , YCrO = YPBt。 其中,
DefaultDisp的取值可以为参考视点与目标视点之间当深度值为 128或其他深度值时对 应的视差值, 输出 CrO至 Bound更新模块。 Bound更新模块, 输入为参考视点中的深度信息、 像素点 PBt、 标志位 Init、 来自 Cr初始化模块的坐标 Cr0、 来自初始化模块的 DirSign、 Bound0、 来自 Bound更新模 块的 Boundl、 来自 Cr更新模块的坐标 Crl ; Cr的坐标值为 (XCr,YCr), Crl的坐标值 为 (XCrl,YCrl), 当 Init等于 0时, 将 Bound赋值为 Bound0, Cr赋值为 Cr0, 即 Bound = BoundO, XCr = XCrO, YCr = YCrO, 否则将 Bound赋值为 Boundl, Cr赋值为 Crl, 即 Bound = Boundl, XCr = XCrl , YCr = YCrl 0 其中, Init表示本模块是否已经接收 过来自初始化模块与 Cr初始化模块的数据, 未接收时 Init等于 0, 否则 Init等于 1 ; 将位于 Cr的像素点 PCr结合 PCr对应的深度信息根据投影关系计算 PCr在目标视点 中的投影坐标 Ct, Ct的坐标值为 (XCt, YCt), 若 Ct与 PBt的水平坐标差值与 DirSign 的乘积 (XCt-XPBt)*DirSign≥0, 且当 Init等于 1时, 还满足 Cr的水平坐标值与 Bound 的差值与 DirSign的乘积 (XCr-Bound)*DirSign<0,则将 Bound更新为 Cr的水平坐标值, 即 Bound=XCr; 将 Boundl赋值为 Bound (即 Boundl = Bound) 并输出至 Bound更新 模块、 Br边界更新模块,将 Cr2赋值为 Cr ( Cr2的坐标值为 CXCr2, YCr2) = (XCr, YCr)) 并输出至 Cr更新模块, 输出 Ct至 Cr更新模块。 Cr更新模块, 输入为像素点 PBt、 来自 Bound更新模块的坐标 Cr2、 坐标 Ct, 将
Crl更新为 Cr2在水平方向偏移 ShiftDisp后的坐标,即 (XCrl, YCrl) = (XCr2 - ShiftDisp: YCr2)。 其中, ShiftDisp 的值由 Ct 与 PBt 的水平坐标差值决定, 如 ShiftDisp = a*(XCt-XPBt) + b, 其中, a与 b均为实数, a的取值可以为 1, -1, 0, 1.5, -1.5等, b 的取值可以为 1, -1,0等, 输出 Crl至 Bound更新模块。 Br初始化模块, 输入为目标视点中目标矩形像素块 Bt的位置、 参考视点中的深 度信息, 在参考视点中确定参考矩形像素块 Br, Br的左边界值 BrLeft赋值为 Bt的左 边界 BtLeft偏移 MaxDisparity后的值, 即 BrLeft=BtLeft- MaxDisparity; Br的右边界 BrRight值赋值为 Bt的右边界 BtRight偏移 MinDisparity后的位置,即 BrRight=BtRight- MinDisparity; Br的上边界值赋值为 Bt的上边界值, Br的下边界值赋值为 Bt的下边 界值, 其中 MaxDisparity与 MinDisparity分别为参考视点与目标视点之间的最大视差 值与最小视差值, 输出 Br的位置至 Bound计算模块、 Br边界更新模块。
Br边界更新模块, 输入为来自 Bound更新模块的 Bound(l)至 Bound(L)、 来自 Br 初始化模块的参考矩形像素块 Br的位置, 当本模块接收到了 N个由 Bt左边界上的像 素点计算得到的 Boundl 值 Bound(l), Bound(2) , ..., Bound(N) , 贝 !J BrLeft = Maximum(Bound(l), Bound(2), Bound(N)) , 或者 BrLeft = Minimum(Bound(l), Bound(2), Bound(N)), 或者 BrLeft = Median(Bound(l), Bound(2), Bound(N)); 当 本模块接收到了 M 个由 Bt 右边界上的像素点计算得到的 Bound 值 Bound(l), Bound(2), ..., Bound(M), BrRight = Maximum(Bound(l), Bound(2), Bound(M)), 或 者 BrRight = Minimum(Bound(l), Bound(2), Bound(M)), 或者 BrRight =
Median(Bound(l), Bound(2), Bound(M)); 其中 N+M=L; 其中函数 Maximum(xl , x2, xK)返回值为从 xl至 xK这些数中的最大值, Minimum(xl , χ2, ... , χΚ)返回值为 从 xl至 xK这些数中的最小值, Median(xl , x2, xK)返回值为从 xl至 xK这些数的 中值; 输出 Br至映射模块。 映射模块,输入为参考视点中的深度信息、来自 Br边界更新模块的参考矩形像素 块 Br, 利用参考视点的深度信息将 Br向目标视点进行前向投影得到投影矩形像素块 Bs, 将 Bs输出至预测图像获取模块; 预测图像获取模块,输入为预测图像的位置、来自映射模块的投影矩形像素块 Bs。 用于根据预测图像的位置从 Bs中获取预测图像。 其中, 预测图像小于等于 Bs, 当预 测图像小于 Bs时, 根据预测图像所在位置, 从 Bs中截取相应位置的像素点形成预测 图像, 输出预测图像。 实施例 8 本实施例提供了一种媒体内容, 其中, 该媒体内容生成图像的过程中可以通过实 施例 1至 3中的任意一种基于块的预测图像生成方法实现。 在上述各个优选实施例中, 预测图像还可以经过下采样、 亚像素插值等处理方法 生成新的预测图像。 在另外一个实施例中, 还提供了一种软件, 该软件用于执行上述实施例及优选实 施方式中描述的技术方案。 在另外一个实施例中, 还提供了一种存储介质, 该存储介质中存储有上述软件, 该存储介质包括但不限于: 光盘、 软盘、 硬盘、 可擦写存储器等。 从以上的描述中, 可以看出, 本发明实现了如下技术效果: 提出了一种新的预测 图像的生成方法, 在生成参考矩形像素块时, 仅需要采用目标矩形像素块的位置和 / 或参考视点的深度信息和 /或目标视点的摄像机参数等信息, 而并不需要通过目标视点 的深度图像确定参考矩形像素块, 在进行前向投影时同样通过参考视点的深度信息进 行确定, 在整个过程中都不需要知道目标视点的深度图像。 通过上述方式解决了现有 技术中在生成预测图像的过程中需要同时用到目标视点的深度图像和参考视点的深度 图像而造成的对数据的依赖性较大的技术问题, 达到了减少对数据的依赖和提高编解 码效率的技术效果。 显然, 本领域的技术人员应该明白, 上述的本发明的各模块或各步骤可以用通用 的计算装置来实现, 它们可以集中在单个的计算装置上, 或者分布在多个计算装置所 组成的网络上, 可选地, 它们可以用计算装置可执行的程序代码来实现, 从而, 可以 将它们存储在存储装置中由计算装置来执行, 并且在某些情况下, 可以以不同于此处 的顺序执行所示出或描述的步骤, 或者将它们分别制作成各个集成电路模块, 或者将 它们中的多个模块或步骤制作成单个集成电路模块来实现。 这样, 本发明不限制于任 何特定的硬件和软件结合。 以上所述仅为本发明的优选实施例而已, 并不用于限制本发明, 对于本领域的技 术人员来说, 本发明可以有各种更改和变化。 凡在本发明的精神和原则之内, 所作的 任何修改、 等同替换、 改进等, 均应包含在本发明的保护范围之内。

Claims

权 利 要 求 书
1. 一种预测图像生成方法, 包括:
根据参数信息确定参考矩形像素块, 其中, 所述参数信息包括目标矩形像 素块的位置和 /或参考视点的深度信息;
通过所述参考视点的深度信息将所述参考矩形像素块向目标视点进行映射 得到投影矩形像素块;
从所述投影矩形像素块中获取预测图像块。
2. 根据权利要求 1所述的方法, 其中, 所述参考视点的深度信息包括以下至少之 一: 所述参考视点的深度图像、 所述参考视点的摄像机参数信息。
3. 根据权利要求 1所述的方法, 其特征在于, 所述通过所述参考视点的深度信息 将所述参考矩形像素块向目标视点进行映射的过程使用前向投影。
4. 根据权利要求 1所述的方法, 其中, 当所述参数信息包括目标矩形像素块的位 置时, 根据参数信息确定参考矩形像素块包括:
将所述目标矩形像素块的左边界值减去第一预定偏移值后的值作为所述参 考矩形像素块的左边界值;
将所述目标矩形像素块的右边界值减去第二预定偏移值后的值作为所述参 考矩形像素块的右边界值;
将所述目标矩形像素块的上边界值作为所述参考矩形像素块的上边界值; 将所述目标矩形像素块的下边界值作为所述参考矩形像素块的下边界值; 将确定的参考矩形像素块的左边界值、 右边界值、 上边界值以及下边界值 作为所述参考矩形像素块的边界信息以在参考视点中确定所述参考矩形像素 块。
5. 根据权利要求 4所述的方法, 其中, 所述第一预定偏移值与所述第二预定偏移 值是预先设定的一个不为 0的数值。
6. 根据权利要求 1所述的方法, 其中, 当所述参数信息包括目标矩形像素块的位 置和参考视点的深度信息时, 根据参数信息确定参考矩形像素块包括: 根据所述目标矩形像素块的位置确定所述参考矩形像素块的第一组边界 值;
根据所述参考视点的深度信息对所述第一组边界值进行更新, 将更新后得 到的结果作为所述参考矩形像素块的第二组边界值, 其中, 所述第二组边界值 对应的参考矩形像素块的面积小于所述第一组边界值对应的参考矩形像素块的 面积;
根据所述第二组边界值在参考视点中确定所述参考矩形像素块。
7. 根据权利要求 6所述的方法, 其中, 根据所述目标矩形像素块的位置确定所述 参考矩形像素块的第一组边界值包括:
将所述目标矩形像素块的左边界值减去第三预定偏移值后的值作为所述参 考矩形像素块的所述第一组边界值中的左边界值;
将所述目标矩形像素块的右边界值减去第四预定偏移值后的值作为所述参 考矩形像素块的所述第一组边界值中的右边界值;
将所述目标矩形像素块的上边界值作为所述第一组边界值中的上边界值; 将所述目标矩形像素块的下边界值作为所述第一组边界值中的下边界值。
8. 根据权利要求 7所述的方法, 其中, 预定偏移值与所述第四预定偏移 值是预先设定的一个不为 0的数值。
9. 根据权利要求 7所述的方法, 其中,
与所述目标视点之间的最大视差值,
与目标视点之间的最小视差值。
10. 根据权利要求 7所述的方法, 其中, 根据所述参考视点的深度信息对所述第一 组边界值进行更新包括:
根据所述目标矩形像素块边界上的一个或多个像素点的位置信息和所述参 考视点的深度信息确定一个或多个边界范围值, 其中, 所述边界范围值包括左 边界范围值和 /或右边界范围值;
根据确定的一个或多个边界范围值对所述第一组边界值进行更新。
11. 根据权利要求 10所述的方法,其中,根据确定的一个或多个边界范围值对所述 第一组边界值进行更新包括: 从一个或多个左边界范围值中选择一个作为所述第一组边界值中的左边界 值, 其中, 所述左边界范围值为所述目标矩形像素块左边界上的像素点对应的 边界范围值; 和 /或
从一个或多个右边界范围值中选择一个作为所述第一组边界值中的右边界 值, 其中, 所述右边界范围值为所述目标矩形像素块右边界上的像素点对应的 边界范围值。
12. 根据权利要求 10或 11所述的方法, 其中,
根据所述目标矩形像素块边界上的一个或多个像素点的位置信息和所述参 考视点的深度信息确定一个或多个左边界范围值的步骤包括:
从所述目标矩形像素块的左边界上选择一个像素点作为第一像素点; 将所述第一组边界值中的左边界值作为第一像素点对应的左边界范围值; 将所述第一像素点的坐标偏移一个默认视差后得到的第一坐标作为所述参 考视点中的第二坐标;
根据所述第二坐标在所述参考视点中所对应的像素点的深度信息确定所述 第二坐标所对应的像素点在所述目标视点中的第一投影坐标;
当所述第一投影坐标的水平分量小于等于所述第一组边界值中的左边界值 时, 更新所述第一像素点对应的左边界范围值为所述第二坐标的水平分量; 禾口 /或
根据所述目标矩形像素块边界上的一个或多个像素点的位置信息和所述参 考视点的深度信息确定一个或多个右边界范围值包括:
从所述目标矩形像素块的右边界上选择一个像素点作为第二像素点; 将所述第一组边界值中的右边界值作为所述第二像素点对应的右边界范围 值;
将所述第二像素点的坐标偏移一个默认视差后得到的第三坐标作为所述参 考视点中的第四坐标;
根据所述第四坐标在所述参考视点中所对应的像素点的深度信息确定所述 第四坐标所对应的像素点在所述目标视点中的第二投影坐标;
当所述第二投影坐标的水平分量大于等于所述第一组边界值中的右边界值 时, 更新所述第二像素点对应的右边界范围值为所述第四坐标的水平分量。
13. 根据权利要求 12所述的方法,其中,所述默认视差是所述参考视点与所述目标 视点之间的一个深度值所对应的视差值。
14. 根据权利要求 12所述的方法, 其中, 在判断不满足所述第一投影坐标的水平分量小于等于所述第一组边界值中 的左边界值的条件, 或者更新所述第一像素点对应的左边界范围值为所述第二 坐标的水平分量之后, 所述方法还包括:
对所述第一像素点对应的左边界范围值进行更新;
禾口 /或
在判断不满足所述第二投影坐标的水平分量大于等于所述第一组边界值中 的右边界值的条件, 或者更新所述第二像素点对应的右边界范围值为所述第四 坐标的水平分量之后, 所述方法还包括:
对所述第二像素点对应的右边界范围值进行更新。
15. 根据权利要求 14所述的方法, 其中, 对所述第一像素点对应的左边界范围值进行更新包括:
将所述第二坐标更新为当前第二坐标偏移第五预定偏移值之后的坐标; 根据当前所述第二坐标在所述参考视点中所对应的像素点的深度信息确定 当前所述第二坐标所对应的像素点在所述目标视点中的第三投影坐标;
当所述第三投影坐标的水平分量小于等于所述第一组边界值中的左边界 值, 且当前所述第二坐标的水平分量大于当前所述第一像素点对应的左边界范 围值时, 更新所述第一像素点对应的左边界范围值为当前的所述第二坐标的水 平分量;
禾口 /或
对所述第二像素点对应的右边界范围值进行更新包括:
将所述第四坐标更新为当前第四坐标偏移第六预定偏移值之后的坐标; 根据当前所述第四坐标在所述参考视点中所对应的像素点的深度信息确定 当前所述第四坐标所对应的像素点在所述目标视点中的第四投影坐标;
当所述第四投影坐标的水平分量大于等于所述第一组边界值中的右边界 值, 且当前所述第四坐标的水平分量大于当前所述第二像素点对应的右边界范 围值时, 更新所述第二像素点对应的右边界范围值为当前的所述第四坐标的水 平分量。
16. 根据权利要求 15所述的方法,其中,重复执行预定次数遍对所述第一像素点对 应的左边界范围值进行更新的步骤, 和 /或, 重复执行预定次数遍对所述第二像 素点对应的左边界范围值进行更新的步骤。
17. 根据权利要求 15所述的方法,其中,所述第五预定偏移值是由所述第一像素点 坐标的水平分量和所述第二坐标所对应的像素点在所述目标视点中的投影坐标 的水平分量之间的差值确定的, 和 /或, 所述述第六预定偏移值是由所述第二像 素点坐标的水平分量和所述第二坐标所对应的像素点在所述目标视点中的投影 坐标的水平分量之间的差值确定的。
18. 根据权利要求 12所述的方法, 其中, 根据所述目标矩形像素块边界上的一个或多个像素点的位置信息和所述参 考视点的深度信息确定多个左边界范围值包括:
采用并行方式根据所述目标矩形像素块边界上的一个或多个像素点的位置 信息和所述参考视点的深度信息确定多个左边界范围值;
禾口 /或 根据所述目标矩形像素块边界上的一个或多个像素点的位置信息和所述参 考视点的深度信息确定多个右边界范围值包括:
采用并行方式根据所述目标矩形像素块边界上的一个或多个像素点的位置 信息和所述参考视点的深度信息确定多个右边界范围值。
19. 根据权利要求 12所述的方法,其中,根据确定的一个或多个边界范围值对所述 第一组边界值进行更新包括:
将所述第一组边界值中的左边界值更新为所述的一个或多个左边界范围值 中的最大值或最小值或中值; 和 /或
将所述第一组边界值中的右边界值更新为所述的一个或多个右边界范围值 中的最大值或最小值或中值。
20. 根据权利要求 1至 19中任一项所述的方法, 其中, 所述方法应用于 3D图像编 解码技术中。
21. 一种预测图像生成装置, 包括: 参考矩形像素块确定模块, 设置为根据参数信息确定参考矩形像素块, 其 中, 所述参数信息包括目标矩形像素块的位置和 /或参考视点的深度信息; 映射模块, 设置为通过所述参考视点的深度信息将所述参考矩形像素块向 目标视点进行映射得到投影矩形像素块;
预测图像获取模块, 设置为从所述投影矩形像素块中获取预测图像块。
22. 根据权利要求 21所述的装置,其特征在于,所述参考视点的深度信息包括以下 至少之一: 所述参考视点的深度图像、 所述参考视点的摄像机参数信息。
23. 根据权利要求 21所述的装置,其特征在于,所述映射模块通过所述参考视点的 深度信息将所述参考矩形像素块向目标视点进行映射的过程使用前向投影。
24. 根据权利要求 21所述的装置, 其中, 所述参考矩形像素块确定模块包括: 第一确定单元, 设置为当所述参数信息包括目标矩形像素块的位置和参考 视点的深度信息时, 根据所述目标矩形像素块的位置确定所述参考矩形像素块 的第一组边界值;
更新单元, 设置为根据所述参考视点的深度信息对所述第一组边界值进行 更新, 将更新后得到的结果作为所述参考矩形像素块的第二组边界值, 其中, 所述第二组边界值对应的参考矩形像素块的面积小于所述第一组边界值对应的 参考矩形像素块的面积;
第二确定单元, 设置为根据所述第二组边界值在参考视点中确定所述参考 矩形像素块。
25. 根据权利要求 24所述的装置, 其中, 所述第一确定单元包括: 左边界值确定子单元, 设置为将所述目标矩形像素块的左边界值减去第三 预定偏移值后的值作为所述参考矩形像素块的所述第一组边界值中的左边界 值;
右边界值确定子单元, 设置为将所述目标矩形像素块的右边界值减去第四 预定偏移值后的值作为所述参考矩形像素块的所述第一组边界值中的右边界 值;
上边界值确定子单元, 设置为将所述目标矩形像素块的上边界值作为所述 第一组边界值中的上边界值; 下边界值确定子单元, 设置为将所述目标矩形像素块的下边界值作为所述 第一组边界值中的下边界值。
26. 根据权利要求 24所述的装置, 其中, 所述更新单元包括: 边界范围值确定子单元, 设置为根据所述目标矩形像素块边界上的一个或 多个像素点的位置信息和所述参考视点的深度信息确定一个或多个边界范围 值, 其中, 所述边界范围值包括左边界范围值和 /或右边界范围值;
更新子单元, 设置为根据确定的一个或多个边界范围值对所述第一组边界 值进行更新。
27. 根据权利要求 26所述的装置, 其中,
所述边界范围值确定子单元还设置为按照以下方式确定一个或多个左边界 范围值- 从所述目标矩形像素块的左边界上选择一个像素点作为第一像素点; 将所述第一组边界值中的左边界值作为第一像素点对应的左边界范围值; 将所述第一像素点的坐标偏移一个默认视差后得到的第一坐标作为所述参 考视点中的第二坐标;
根据所述第二坐标在所述参考视点中所对应的像素点的深度信息确定所述 第二坐标所对应的像素点在所述目标视点中的第一投影坐标;
当所述第一投影坐标的水平分量小于等于所述第一组边界值中的左边界值 时, 更新所述第一像素点对应的左边界范围值为所述第二坐标的水平分量; 禾口 /或
所述边界范围值确定子单元还设置为按照以下方式确定一个或多个右边界 范围值- 从所述目标矩形像素块的右边界上选择一个像素点作为第二像素点; 将所述第一组边界值中的右边界值作为所述第二像素点对应的右边界范围 值;
将所述第二像素点的坐标偏移一个默认视差后得到的第三坐标作为所述参 考视点中的第四坐标;
根据所述第四坐标在所述参考视点中所对应的像素点的深度信息确定所述 第四坐标所对应的像素点在所述目标视点中的第二投影坐标; 当所述第二投影坐标的水平分量大于等于所述第一组边界值中的右边界值 更新所述第二像素点对应的右边界范围值为所述第四坐标的水平分量。
PCT/CN2013/083084 2012-09-29 2013-09-06 预测图像生成方法和装置 WO2014048242A1 (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/441,445 US10154282B2 (en) 2012-09-29 2013-09-06 Method and device for generating predicted pictures
EP13841502.1A EP2903283B1 (en) 2012-09-29 2013-09-06 Prediction image generation method and device
US16/168,289 US10708619B2 (en) 2012-09-29 2018-10-23 Method and device for generating predicted pictures

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201210376819.9 2012-09-29
CN201210376819.9A CN103716641B (zh) 2012-09-29 2012-09-29 预测图像生成方法和装置

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/441,445 A-371-Of-International US10154282B2 (en) 2012-09-29 2013-09-06 Method and device for generating predicted pictures
US16/168,289 Continuation US10708619B2 (en) 2012-09-29 2018-10-23 Method and device for generating predicted pictures

Publications (1)

Publication Number Publication Date
WO2014048242A1 true WO2014048242A1 (zh) 2014-04-03

Family

ID=50386972

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2013/083084 WO2014048242A1 (zh) 2012-09-29 2013-09-06 预测图像生成方法和装置

Country Status (4)

Country Link
US (2) US10154282B2 (zh)
EP (1) EP2903283B1 (zh)
CN (1) CN103716641B (zh)
WO (1) WO2014048242A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108765480A (zh) * 2017-04-10 2018-11-06 钰立微电子股份有限公司 深度处理设备
WO2023134482A1 (zh) * 2022-01-12 2023-07-20 深圳传音控股股份有限公司 图像处理方法、智能终端及存储介质

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6365153B2 (ja) * 2014-09-10 2018-08-01 株式会社ソシオネクスト 画像符号化方法および画像符号化装置
CN106954082A (zh) * 2016-01-07 2017-07-14 中兴通讯股份有限公司 视频编解码方法、编解码装置及系统
CN107959855B (zh) * 2016-10-16 2020-02-14 华为技术有限公司 运动补偿预测方法和设备
CN114727084B (zh) * 2021-01-04 2023-10-03 浙江大学 一种筛选图像的方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1494804A (zh) * 2001-01-24 2004-05-05 ����÷�ع�˾ 视频图像压缩方法
US20090103616A1 (en) * 2007-10-19 2009-04-23 Gwangju Institute Of Science And Technology Method and device for generating depth image using reference image, method for encoding/decoding depth image, encoder or decoder for the same, and recording medium recording image generated using the method
CN101521823A (zh) * 2009-03-27 2009-09-02 北京航空航天大学 空间相关的全景数据压缩方法
CN102138333A (zh) * 2008-08-29 2011-07-27 汤姆逊许可公司 利用启发式视图合并的视图合成

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7181081B2 (en) * 2001-05-04 2007-02-20 Legend Films Inc. Image sequence enhancement system and method
CN101483765B (zh) * 2008-01-11 2011-09-21 华为技术有限公司 一种图像处理方法、编解码方法及装置
JP5346076B2 (ja) 2008-04-25 2013-11-20 トムソン ライセンシング 奥行きを用いた視点間スキップモード
CN101271583B (zh) * 2008-04-28 2010-04-21 清华大学 一种基于深度图的快速图像绘制方法
CN101754042B (zh) * 2008-10-30 2012-07-11 华为终端有限公司 图像重构方法和图像重构系统
US7845300B1 (en) 2008-09-05 2010-12-07 Marine Floats Corporation Modular floating marine dock
JP2012019490A (ja) * 2010-07-09 2012-01-26 Sony Corp 画像処理装置及び画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1494804A (zh) * 2001-01-24 2004-05-05 ����÷�ع�˾ 视频图像压缩方法
US20090103616A1 (en) * 2007-10-19 2009-04-23 Gwangju Institute Of Science And Technology Method and device for generating depth image using reference image, method for encoding/decoding depth image, encoder or decoder for the same, and recording medium recording image generated using the method
CN102138333A (zh) * 2008-08-29 2011-07-27 汤姆逊许可公司 利用启发式视图合并的视图合成
CN101521823A (zh) * 2009-03-27 2009-09-02 北京航空航天大学 空间相关的全景数据压缩方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2903283A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108765480A (zh) * 2017-04-10 2018-11-06 钰立微电子股份有限公司 深度处理设备
CN108765480B (zh) * 2017-04-10 2022-03-15 钰立微电子股份有限公司 深度处理设备
WO2023134482A1 (zh) * 2022-01-12 2023-07-20 深圳传音控股股份有限公司 图像处理方法、智能终端及存储介质

Also Published As

Publication number Publication date
US20150296219A1 (en) 2015-10-15
CN103716641B (zh) 2018-11-09
US10708619B2 (en) 2020-07-07
EP2903283A1 (en) 2015-08-05
EP2903283B1 (en) 2021-11-03
US20190158875A1 (en) 2019-05-23
US10154282B2 (en) 2018-12-11
CN103716641A (zh) 2014-04-09
EP2903283A4 (en) 2015-09-30

Similar Documents

Publication Publication Date Title
JP5763184B2 (ja) 3次元画像に対する視差の算出
JP2021168479A (ja) デプスマップの推定および更新を用いる効率的なマルチビュー符号化
US20190265646A1 (en) Methods and Apparatus for Full Parallax Light Field Display Systems
WO2014048242A1 (zh) 预测图像生成方法和装置
US9225967B2 (en) Multi-view image processing apparatus, method and computer-readable medium
US20150245062A1 (en) Picture encoding method, picture decoding method, picture encoding apparatus, picture decoding apparatus, picture encoding program, picture decoding program and recording medium
JP5883153B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP2007036800A (ja) 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
JPWO2011105337A1 (ja) 多視点映像符号化方法、多視点映像復号方法、多視点映像符号化装置、多視点映像復号装置、及びプログラム
WO2015141613A1 (ja) 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム
JPWO2015098948A1 (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム及び映像復号プログラム
JP2024012332A (ja) マルチビュービデオのデコードの方法及び装置、並びに画像処理の方法及び装置
JP2020005202A (ja) 映像処理装置
JP2010021844A (ja) 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
JP2023123784A (ja) クロマイントラ予測方法および装置、並びにコンピュータ記憶媒体
JP6232075B2 (ja) 映像符号化装置及び方法、映像復号装置及び方法、及び、それらのプログラム
JP6209026B2 (ja) 画像符号化装置及びその制御方法
JP4851564B2 (ja) 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
CN105612748A (zh) 活动图像编码方法、活动图像解码方法、活动图像编码装置、活动图像解码装置、活动图像编码程序、以及活动图像解码程序
WO2013075515A1 (zh) 多视点视频的编码、解码方法、装置和编解码器
WO2013067942A1 (zh) 一种帧内预测方法和装置
US20160286212A1 (en) Video encoding apparatus and method, and video decoding apparatus and method
JP2009207183A (ja) 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
EP2839437A1 (en) View synthesis using low resolution depth maps
CN106464899A (zh) 活动图像编码装置及方法和活动图像解码装置及方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13841502

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013841502

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14441445

Country of ref document: US