WO2017094482A1 - 映像符号化方法、映像符号化装置、映像復号方法、映像復号装置、及びプログラム、並びに映像システム - Google Patents

映像符号化方法、映像符号化装置、映像復号方法、映像復号装置、及びプログラム、並びに映像システム Download PDF

Info

Publication number
WO2017094482A1
WO2017094482A1 PCT/JP2016/083681 JP2016083681W WO2017094482A1 WO 2017094482 A1 WO2017094482 A1 WO 2017094482A1 JP 2016083681 W JP2016083681 W JP 2016083681W WO 2017094482 A1 WO2017094482 A1 WO 2017094482A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
picture
dynamic range
encoding
video signal
Prior art date
Application number
PCT/JP2016/083681
Other languages
English (en)
French (fr)
Inventor
貴之 石田
慶一 蝶野
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to KR1020187014826A priority Critical patent/KR102198120B1/ko
Priority to US15/777,980 priority patent/US10645421B2/en
Priority to KR1020207037536A priority patent/KR102242880B1/ko
Priority to EP16870421.1A priority patent/EP3386200A4/en
Priority to BR112018010465-5A priority patent/BR112018010465B1/pt
Priority to CA3006941A priority patent/CA3006941C/en
Publication of WO2017094482A1 publication Critical patent/WO2017094482A1/ja
Priority to US16/824,778 priority patent/US10827201B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • the present invention relates to a video encoding method, a video encoding device, a video decoding method, a video decoding device, a program, and a video system.
  • full HD (High Definition) video content of 1920 (horizontal) ⁇ 1080 (pixel) in the horizontal direction is supplied.
  • 4K high-definition video
  • 8K commercial broadcasting of high-definition video
  • video signals are generally encoded based on the H.264 / AVC (Advanced Video Coding) standard or HEVC (High Efficiency Video Coding) standard on the transmission side, and video is decoded and processed on the reception side.
  • the signal is reproduced, but in the case of 8K, since the number of pixels is large, the processing load in the encoding process and the decoding process becomes high.
  • Non-Patent Document 1 As a method for reducing the processing load in the case of 8K, for example, there is a quadrant encoding using a slice described in Non-Patent Document 1 (see FIG. 11).
  • MC motion prediction
  • MC motion vector for motion compensation
  • the vertical (longitudinal) component of the slice is 128 pixels or less.
  • motion vector restriction there is no restriction on the motion vector range in the vertical direction across the slice boundary for blocks that do not belong to the vicinity of the slice boundary.
  • optimal motion vector means an original (normal) motion vector selected by a predictor that performs inter-screen prediction (inter prediction) processing in the video encoding device.
  • the M value is small
  • the inter-frame distance is small
  • the value of the motion vector tends to be small.
  • the time direction hierarchy is reduced particularly in a stationary scene.
  • the code amount distribution according to the hierarchy (layer) is restricted, the encoding efficiency is lowered.
  • the M value is large
  • the inter-frame distance is large, so that the value of the motion vector tends to be large.
  • the time direction hierarchy increases especially in a stationary scene.
  • the restriction on the code amount distribution according to the hierarchy (layer) is relaxed, so that the coding efficiency is improved.
  • the M value is changed from 8 to 4
  • the value of the motion vector is halved
  • the M value is changed from 4 to 8
  • the value of the motion vector is doubled.
  • Non-Patent Document 1 the concept of SOP (Set of pictures) is introduced.
  • SOP is a unit for describing the coding order and reference relationship of each AU (Access Unit) when performing temporal direction hierarchical encoding.
  • the temporal direction hierarchical coding is coding that enables partial extraction of a frame from a plurality of frames of video.
  • Structure with L 0: SOP structure composed only of pictures with Temporal ID 0 (that is, the number of stages of pictures included in the SOP is 1. It can be said that L indicating the maximum Temporal ID is 0. )
  • L indicating the maximum temporal ID is 1) It can also be said.
  • Structure with L 2: SOP structure composed of a picture with a temporal ID of 0, a picture of 1, and a picture of 2 (that is, the number of stages of pictures included in the SOP is three. The maximum temporal ID is It can be said that L shown is 2.
  • Structure with L 3: SOP structure composed of picture with Temporal ID 0, 1 picture, 2 pictures, and 3 pictures (that is, the number of stages of pictures included in the SOP is four. (It can be said that L indicating Temporal ID is 3.)
  • the value of the motion vector tends to increase. Therefore, particularly in a scene in which an object on the screen or the entire screen moves fast in the vertical direction, the image quality is caused by the motion vector limitation. Deteriorates. This is because an optimal motion vector may not be selected at a slice boundary due to motion vector limitation.
  • the present invention is an encoding method that compresses after dividing a video screen, and an object of the present invention is to suppress deterioration in image quality when using an encoding method that restricts motion vector selection in the vicinity of a slice boundary. And, as described above, since switching between SDR and HDR needs to be considered in 4K and 8K, the present invention aims to suppress the image quality deterioration in consideration of switching between SDR and HDR.
  • a video coding method is a video coding method for generating a bitstream by appropriately selecting a hierarchical coding structure from a plurality of hierarchical coding structures, using video signal information relating to a dynamic range, and When the video signal to be encoded is switched from SDR (Standard Dynamic Range) to HDR (High Dynamic Rang), or when switching from HDR to SDR, the video signal information related to the dynamic range for switching the dynamic range is transmitted. It is characterized by using a possible hierarchical coding structure.
  • a video encoding apparatus is a video encoding apparatus that uses information of a video signal related to a dynamic range and generates a bitstream by appropriately selecting a hierarchical encoding structure from a plurality of hierarchical encoding structures, When the video signal to be encoded is switched from SDR (Standard Dynamic Range) to HDR (High Dynamic Rang), or when switching from HDR to SDR, the video signal information related to the dynamic range for switching the dynamic range is transmitted.
  • SDR Standard Dynamic Range
  • HDR High Dynamic Rang
  • a video encoding program uses information of a video signal relating to a dynamic range, selects a hierarchical encoding structure from a plurality of hierarchical encoding structures as appropriate, and generates a bitstream to a computer in a time direction.
  • the video signal to be encoded is switched from SDR (Standard Dynamic Range) to HDR (High Dynamic Rang), or when switching from HDR to SDR, the video signal information related to the dynamic range for switching the dynamic range is transmitted.
  • SDR Standard Dynamic Range
  • HDR High Dynamic Rang
  • the video decoding method is a video decoding method that uses video signal information relating to a dynamic range, decodes a bitstream generated by appropriately selecting a hierarchical coding structure from a plurality of hierarchical coding structures, and obtains a video.
  • the video signal to be encoded is switched from SDR (Standard Dynamic Range) to HDR (High Dynamic Rang) or from HDR to SDR in the time direction, the dynamic range is related to switching the dynamic range.
  • a video is obtained from a bit stream using a hierarchical coding structure capable of transmitting signal information.
  • a video decoding device is a video decoding device that uses video signal information relating to a dynamic range and obtains video by decoding a bitstream generated by appropriately selecting a hierarchical coding structure from a plurality of hierarchical coding structures.
  • the dynamic range is related to switching the dynamic range.
  • a decoding unit that obtains video from a bitstream using a hierarchical coding structure capable of transmitting signal information is provided.
  • a video decoding program is a video decoding apparatus that uses video signal information relating to a dynamic range and decodes a bitstream generated by appropriately selecting a hierarchical coding structure from a plurality of hierarchical coding structures to obtain a video.
  • the video signal to be encoded is switched from SDR (Standard Dynamic Range) to HDR (High Dynamic Rang), or from HDR to SDR in the time direction, the video related to the dynamic range for switching the dynamic range.
  • the present invention is characterized in that a process for obtaining video from a bit stream using a hierarchical coding structure capable of transmitting signal information is executed.
  • a video system multiplexes and outputs the video encoding device, an audio encoding unit that encodes an audio signal, a bit stream from the video encoding device, and a bit stream from the audio encoding unit. And a multiplexing unit.
  • FIG. 1 is a block diagram illustrating a configuration example of an embodiment of a video encoding device.
  • a video encoding apparatus 100 illustrated in FIG. 1 includes an encoding unit 101, an analysis unit 111, a determination unit 112, and an M value determination unit 113. Note that the video encoding apparatus 100 executes the encoding process based on the HEVC standard, but may execute the encoding process based on another standard, for example, the H.264 / AVC standard. Hereinafter, an example in which 8K video is input will be described.
  • the encoding unit 101 includes a screen divider 102 that divides an input image into a plurality of screens, a frequency transformer / quantizer 103, an inverse quantizer / inverse frequency transformer 104, a buffer 105, a predictor 106, and an entropy encoder. 107 is included.
  • the screen divider 102 divides the input video screen into four screens (see FIG. 11).
  • the frequency converter / quantizer 103 performs frequency conversion on the prediction error image obtained by subtracting the prediction signal from the input video signal.
  • the frequency transformer / quantizer 103 further quantizes the frequency-converted prediction error image (frequency transform coefficient).
  • the quantized frequency transform coefficient is referred to as a transform quantization value.
  • the entropy encoder 107 entropy encodes the prediction parameter and the transform quantization value, and outputs a bit stream.
  • the prediction parameters are information related to CTU (Coding
  • the predictor 106 generates a prediction signal for the input video signal.
  • the prediction signal is generated based on intra prediction or inter-frame prediction.
  • the inverse quantization / inverse frequency converter 104 inversely quantizes the transform quantization value. Further, the inverse quantization / inverse frequency converter 104 performs inverse frequency conversion on the inversely quantized frequency conversion coefficient.
  • the reconstructed prediction error image subjected to inverse frequency conversion is supplied with a prediction signal and supplied to the buffer 105.
  • the buffer 105 stores the reconstructed image.
  • the analysis unit 111 analyzes the encoded statistical information. Based on the analysis result of the analysis unit 111, the determination unit 112 determines whether or not an optimal motion vector can be selected near the slice boundary with the above-described motion vector restriction.
  • the encoding statistical information is information on the encoding result of a past frame (for example, a frame immediately before the current encoding target frame), and a specific example of the encoding statistical information will be described later.
  • the vicinity of the slice boundary is an area in which an optimal motion vector could not be selected.
  • a range of ⁇ 128 pixels or a range of ⁇ 256 pixels from the slice boundary. May be near the slice boundary.
  • the range of “near the slice boundary” may be appropriately changed according to the state of the video (such as large / small motion). For example, when the generation ratio of a motion vector having a large value is high, the range “near the slice boundary” may be set wide.
  • FIG. 2 is a block diagram illustrating a configuration example of an embodiment of the video decoding apparatus.
  • the video decoding apparatus 200 shown in FIG. 2 includes an entropy decoder 202, an inverse quantization / inverse frequency converter 203, a predictor 204, and a buffer 205.
  • the entropy decoder 202 entropy decodes the video bitstream.
  • the entropy decoder 202 supplies the transform quantization value subjected to entropy decoding to the inverse quantization / inverse frequency converter 203.
  • the inverse quantization / inverse frequency converter 203 obtains a frequency conversion coefficient by inversely quantizing the converted quantization values of luminance and chrominance with a quantization step width. Further, the inverse quantization / inverse frequency converter 203 performs inverse frequency conversion on the inversely quantized frequency conversion coefficient.
  • the predictor 204 After the inverse frequency conversion, the predictor 204 generates a prediction signal using the image of the reconstructed picture stored in the buffer 205 (the prediction is also referred to as motion compensation prediction or MC reference).
  • the reconstructed prediction error image subjected to inverse frequency conversion by the inverse quantization / inverse frequency converter 203 is added with the prediction signal supplied from the predictor 204 and supplied to the buffer 205 as a reconstructed picture. Then, the reconstructed picture stored in the buffer 205 is output as decoded video.
  • FIG. FIG. 3 is a flowchart showing the operation of the first embodiment of the video encoding apparatus 100 shown in FIG.
  • an 8K video is divided into four (see FIG. 11) and there is a motion vector restriction near the slice boundary.
  • ⁇ 128 is taken as an example.
  • the 8K video is divided into four, and the motion vector limitation is the same in other embodiments.
  • the analysis unit 111 analyzes past encoding results stored in the buffer 105 (for example, the encoding result of the immediately preceding frame). Specifically, the analysis unit 111 calculates an average value or median value of motion vectors in blocks other than the slice boundary (hereinafter, the average value or median value is referred to as M avg ) (step S101).
  • the encoded statistical information is a value of a motion vector
  • the analysis result is an average value or a median value of the motion vectors.
  • the determination unit 112 determines how large M avg is based on ⁇ 128 as the motion vector limit (step S102).
  • the M value determination unit 113 determines the M value based on the determination result of how large M avg is (step S103).
  • the M value determination unit 113 determines the M value based on the determination result as follows, for example.
  • the M value determining unit 113 when the M value is set to 8, as in the cases (1) and (2), When it is estimated that the value of the motion vector near the slice boundary is within ⁇ 128, the M value is returned to 8. In other words, the M value determination unit 113 returns the M value to 8 when it can be estimated that an optimal motion vector can be selected near the slice boundary under the motion vector restriction. In other cases, the M value is determined in accordance with M avg so that the value of the motion vector near the slice boundary is within ⁇ 128.
  • threshold value setting is an example, and the threshold value may be changed or a finer case division may be performed.
  • the control of the video encoding device of the first embodiment is based on the following concept.
  • the determination unit 112 performs coding based on a motion vector as encoded statistical information generated in a region other than the slice boundary (there is no motion vector limitation, and in other words, an optimal motion vector). It is estimated whether or not the target screen is a screen image of a scene that moves fast. When the determination unit 112 estimates that the video is a fast moving scene, the M value determination unit 113 changes the M value so that an optimal motion vector can be selected in the vicinity of the slice boundary.
  • the optimal motion vector may not be selected in the vicinity of the slice boundary. This is equivalent to estimating that the optimal motion vector is not selected near the slice boundary.
  • FIG. FIG. 4 is a flowchart showing the operation of the second embodiment of the video encoding apparatus 100 shown in FIG.
  • the analysis unit 111 analyzes past encoding results stored in the buffer 105 (for example, the encoding result of the immediately preceding frame). Specifically, the analysis unit 111 calculates a block ratio P 1 in which intra-screen prediction (intra prediction) is used for all blocks (for example, PU: Prediction Unit) in a range other than the slice boundary. (step S201), for all the blocks in the vicinity of a slice boundary, and calculates the ratio P 2 of the blocks used are intra prediction (step S202).
  • the encoded statistical information is a prediction mode of a block near a slice boundary (specifically, the number of blocks for intra-screen prediction), and the analysis result is a ratio P 1 and a ratio P. 2 .
  • the determination unit 112 compares the ratio P 1 and the ratio P 2 and determines the degree of deviation between them. Specifically, as compared with the ratio P 1, it determines whether or not the ratio P 2 is quite large. Determination unit 112, for example, determines whether the difference between the ratio P 2 and the ratio P 1 exceeds a predetermined value (step S203).
  • M value determining unit 113 when the difference between the ratio P 2 and the ratio P 1 exceeds a predetermined value, the smaller the M value (step S204).
  • a plurality of predetermined values are provided. For example, when the difference exceeds the first predetermined value, the M value is decreased by a plurality of levels, and the difference exceeds the second predetermined value ( ⁇ first predetermined value). Sometimes the M value may be decreased by one step.
  • M value determining unit 113 the difference between the ratio P 2 and the ratio P 1 is the case is less than the predetermined value, maintaining or M value, or increases the M value (step S205). For example, the M value determination unit 113 increases the M value when the difference is equal to or smaller than a third predetermined value ( ⁇ second predetermined value), and maintains the M value when the difference exceeds the third predetermined value. To do.
  • the control of the video encoding device of the second embodiment is based on the following concept.
  • the encoding unit 101 can use either intra prediction or inter prediction (inter prediction) as a prediction mode when encoding each block in the screen.
  • intra prediction intra prediction
  • the video is a video of a scene where the entire screen moves fast
  • the occurrence rate of the number of motion vectors having a large value when the inter-screen prediction is used is considered to be high even near the slice boundary (the motion vector limit is If not).
  • an optimal motion vector large motion vector
  • intra prediction is often used near the slice boundary.
  • intra prediction is less used than in the vicinity of the slice boundary.
  • the optimal motion vector may not be selected in the vicinity of the slice boundary. This is equivalent to the fact that the ratio P 1 and the ratio P 2 are greatly deviated.
  • the empirical or experimental use of such a value as a threshold value as a predetermined value for determining whether or not there is a large divergence may result in an optimal motion vector not being selected near the slice boundary.
  • a value that can be estimated to be sexual is selected.
  • FIG. FIG. 5 is a flowchart showing the operation of the third embodiment of the video encoding apparatus 100 shown in FIG.
  • the analysis unit 111 analyzes past encoding results stored in the buffer 105 (for example, the encoding result of the immediately preceding frame). Specifically, the analysis unit 111, the previous frame (e.g., two frames before the current encoding target frame) is calculated generated code amount C 1 in the block in the vicinity of a slice boundary (step S301). Further, the analysis unit 111 calculates a generated code amount C 2 in the block near the slice boundary of the previous frame (step S302). In the third embodiment, the encoded statistical information is the generated code amount of blocks near the slice boundary, and the analysis results are the generated code amount C 1 and the generated code amount C 2 .
  • the determination unit 112 compares the generated code amount C 1 and the generated code amount C 2 and determines the degree of deviation between them. Specifically, as compared to the amount of generated codes C 1, determines whether or not considerably large amount of generated codes C 2. Determination unit 112, for example, determines whether the difference between the generated code amount C 2 and the generated code amount C 1 exceeds a predetermined amount (step S303).
  • M value determining unit 113 when the difference between the generated code amount C 2 and the generated code amount C 1 exceeds a predetermined amount, the smaller the M value (step S304).
  • a plurality of predetermined amounts are provided. For example, when the difference exceeds the first predetermined amount, the M value is decreased by a plurality of levels, and the difference exceeds the second predetermined amount ( ⁇ first predetermined amount). Sometimes the M value may be decreased by one step.
  • M value determining unit 113 when the difference between the generated code amount C 2 and the generated code amount C 1 is equal to or less than the predetermined amount, maintaining or M value, or increases the M value (step S305 ). For example, the M value determination unit 113 increases the M value when the difference is equal to or smaller than a third predetermined amount ( ⁇ second predetermined amount), and maintains the M value when the difference exceeds the third predetermined amount. To do.
  • the control of the video encoding device of the third embodiment is based on the following concept.
  • the ratio of the number of motion vectors having a large value when the inter-screen prediction is used is considered to be high even near the slice boundary (motion vector restriction). If not).
  • an optimal motion vector large motion vector
  • in-screen prediction is often used near the slice boundary. Conceivable. In general, the amount of generated code is larger when intra prediction is used than when inter prediction is used.
  • the optimal motion vector may not be selected near the slice boundary. in is equivalent to the generated code amount C 2 increases greatly.
  • an optimal motion vector may not be selected in the vicinity of the slice boundary. A value that can be estimated is selected.
  • the M value is adaptively switched based on the past encoding result (encoding statistical information). Based on the encoded statistical information, it is estimated whether or not an optimal motion vector (in other words, a motion vector outside the motion vector limit) can be selected near the slice boundary under the motion vector restriction. If it is estimated that it cannot be selected, the M value is changed to a smaller value. If it is determined that it can be selected, it is considered that an optimal motion vector can be selected in the vicinity of the slice boundary under the motion vector restriction even with the current M value, so that the M value is maintained or a larger value. Changed to
  • pre-analysis analysis processing executed as pre-processing when encoding the current frame
  • pre-analysis processing executed as pre-processing when encoding the current frame
  • the analysis unit 111, the determination unit 112, and the M value determination unit 113 are configured so that any two or all of the first to third embodiments are incorporated. It may be.
  • the M-value determining unit 113 determines an encoding structure by using switching information between SDR and HDR set from the outside, and the entropy encoder 107 further switches information between SDR and HDR. May be transmitted to the video decoding device side.
  • the M value determination unit 113 controls the M value so that the coding sequence (CVS) can be terminated at the switching position (time position) between SDR and HDR set from the outside.
  • fNumSwitch be the number of frames from the frame at the current time position to the frame at the switching time position
  • M be the temporarily determined M value
  • the M value determination unit 113 updates M to a value equal to or less than fNumSwitch.
  • the M value determination unit sets M to 1 so that CVS is terminated with a previously encoded frame. That is, the video encoding apparatus compresses the current frame as an IDR-picture. Further, the entropy encoder 107 sets the information of the switched SDR ⁇ or HDR in the transfer_characteristics syntax of the VUI of the SPS of the IDR picture in order to transmit the SDR and HDR switching information to the video decoding device side. For example, transfer_characteristics syntax is set to 18 when switching to HLG HDR, transfer_characteristics syntax is set to 16 when switching to PQ HDR, and transfer_characteristics syntax is set to 14 when switching to SDR of Rec.
  • ITU-R BT.2020 Is set to 11 in the transfer_characteristics syntax when switching to SDR in IEC 61966-2-4, and 1 is set in transfer_characteristics syntax in switching to Rec. (ITU-R) BT.709 (SDR).
  • the entropy encoder 107 may output the bit stream of EOS before the bitstream of IDR picture.
  • the M value determination unit 113 outputs M as it is.
  • the video decoding apparatus shown in FIG. 2 converts a bitstream encoded using an M value set in a range that satisfies the motion vector restriction as exemplified in the first to third embodiments. Decrypt.
  • the video decoding device shown in FIG. 2 can also receive the SDR and HDR switching information transmitted from the video encoding device side by decoding the bitstream.
  • the entropy decoder 202 of the video decoding apparatus can receive SDR and HDR switching information by decoding the SPS VUI transfer_characteristics syntax value.
  • the transfer_characteristics syntax is 18, a switch to HLG HDR is received, when the transfer_characteristics syntax is 16, a PQ switch to HDR is received, and when the transfer_characteristics syntax is 14, Rec. ITU-R BT.2020 SDR
  • the receiving terminal using the above video decoding device can know the switching information between SDR and HDR, and can adjust the video display according to the characteristics of the video signal. That is, it is possible to display an image in which image quality deterioration is suppressed while corresponding to switching display between SDR and HDR.
  • FIG. 6 is a block diagram illustrating an example of a video system.
  • the video system shown in FIG. 6 is a system in which the video encoding device 100 of each of the above embodiments and the video decoding device 200 shown in FIG. 2 are connected by a wireless transmission line or a wired transmission line 300.
  • the video encoding device 100 is the video encoding device 100 of any of the first to third embodiments described above, but the video encoding device 100 is an arbitrary one of the first to third embodiments.
  • the analysis unit 111, the determination unit 112, and the M value determination unit 113 may be configured to execute two or all processes.
  • the transmission means for transmitting the switching information between the SDRH and the HDR to the video decoding side is realized by the entropy encoder 107.
  • the entropy decoder 202 implements decoding means for decoding the switching information between the encoded video and the SDR and HDR transmitted from the video encoding side.
  • the entropy encoder that performs entropy encoding is configured separately from the multiplexer that multiplexes the encoded data from the entropy encoder and the switching information of SDR and HDR, and performs entropy decoding.
  • the video system is configured with parts that do not include the multiplexer It is also possible to adopt a system that includes a video encoding device that is configured and a video decoding device that includes a portion that does not include a demultiplexer.
  • FIG. 7 is a block diagram showing another example of the video system.
  • the video system shown in FIG. 7 includes an audio encoding unit 401, a video encoding unit 402, and a multiplexing unit 403.
  • the audio encoding unit 401 converts an audio signal of data (contents) including video and audio into, for example, MPEG-4 AAC (Advanced Audio Coding) standard or MPEG-4 ALS standard defined by the ARIB STD-B32 standard. Create an audio bitstream by encoding based on (Audio ⁇ ⁇ Lossless Coding) and output it.
  • MPEG-4 AAC Advanced Audio Coding
  • MPEG-4 ALS MPEG-4 ALS standard defined by the ARIB STD-B32 standard.
  • the video encoding unit 402 is configured as shown in FIG. 1, for example, and creates and outputs a video bitstream.
  • the multiplexing unit 403 creates and outputs a bit stream by multiplexing an audio bit stream, a video bit stream, and other information based on, for example, the ARIB STD-B32 standard.
  • each of the above embodiments can be configured by hardware, it can also be realized by a computer program.
  • the information processing system shown in FIG. 8 includes a processor 1001, a program memory 1002, a storage medium 1003 for storing video data, and a storage medium 1004 for storing a bitstream.
  • the storage medium 1003 and the storage medium 1004 may be separate storage media, or may be storage areas composed of the same storage medium.
  • a magnetic storage medium such as a hard disk can be used as the storage medium.
  • a program for realizing the function of each block (excluding the buffer block) shown in each of FIGS. Or a video decoding program).
  • the processor 1001 executes processing according to the program stored in the program memory 1002, thereby realizing the functions of the video encoding device or the video decoding device shown in FIGS.
  • FIG. 9 is a block diagram showing the main part of the video encoding device.
  • the video encoding device 10 includes an analysis unit 11 (corresponding to the analysis unit 111 in the embodiment) that analyzes encoded statistical information, and a slice boundary near the analysis result of the analysis unit 11.
  • the estimation unit 12 Based on the estimation unit 12 (implemented in the determination unit 112 in the embodiment) that estimates whether or not an optimal motion vector can be selected, the estimation result of the estimation unit 12 and the switching information of SDR and HDR SOP structure composed only of pictures whose Temporal ID is 0, SOP structure consisting of pictures whose Temporal ID is 0 and 1 pictures, pictures whose Temporal ID is 0, 1 pictures and 2 pictures Coding structure determination that adaptively determines any of SOP structure composed of SOP structure composed of SOP structure composed of picture, Temporal ID is 0 picture, 1 picture, 2 picture, and 3 picture 13 (implemented in the M-value determining unit 113 in the embodiment) and a transmission unit 14 (in the embodiment, implemented by the entropy encoder 107) that transmits switching information between SDR and HDR to the video decoding side. ).
  • FIG. 10 is a block diagram showing the main part of the video decoding apparatus.
  • the video decoding apparatus 20 includes an SOP structure composed only of pictures whose Temporal ID is 0, an SOP structure composed of pictures whose Temporal ID is 0 and 1 pictures, and pictures whose Temporal ID is 0.
  • a decoder 21 (implemented by the entropy decoder 202 in the embodiment) for decoding the SDR and HDRH switching information transmitted from the video encoding side.
  • the decoding unit 21 has an SOP ⁇ ⁇ ⁇ ⁇ structure composed only of a picture with Temporal ID 0, a SOP structure composed of a picture with Temporal ID ID 0 and a picture 1 with Temporal ID ID as the set coding structure.
  • SOP structure composed of 0 picture, 1 picture, and 2 picture, SOP structure composed of picture whose Temporal ID is 0, 1 picture, 2 pictures, and 3 pictures A bitstream encoded based on the structure can be decoded.
  • the decoding unit 21 is divided into four slices as shown in FIG. 11, and when the PU of one slice refers to another slice with motion compensation (MC) as shown in FIG. 12,
  • MC motion compensation
  • the MC reference of the same PU across the slice boundary is limited to refer to only pixels within 128 lines from the slice boundary, so that the encoded bit stream can be decoded.
  • the following SOP cage structure as shown in FIG. 13 can be used on the video encoding and decoding side.
  • L 2 structure: an SOP structure composed of a picture with a temporal ID of 0, a picture of 1 and a picture of 2 (or M) (that is, the number of stages of pictures included in the SOP is three).
  • L indicating the maximum Temporal ID is 2 (or M).
  • Structure with L 4: SOP structure composed of a picture with a temporal ID of 0, a picture of 1, a picture of 2, a picture of 3, a picture of 4 (or M) (that is, a picture included in the SOP) (The number of stages is 4. It can also be said that L indicating the maximum Temporal ID is 4 (or M).)
  • Video coding apparatus 11 Analysis part 12 Estimation part 13 Coding structure determination part 14 Transmission part 20 Video decoding apparatus 21 Decoding part 100 Video coding apparatus 101 Encoding part 102 Screen divider 103 Frequency converter / quantizer 104 Inverse quantum / Inverse frequency converter 105 buffer 106 predictor 107 entropy encoder 111 analysis unit 112 determination unit 113 M value determination unit 200 video decoding device 202 entropy decoder 203 inverse quantization / inverse frequency converter 204 predictor 205 buffer 401 Audio encoding unit 402 Video encoding unit 403 Multiplexing unit 1001 Processor 1002 Program memory 1003, 1004 Storage medium

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

映像符号化装置は、ダイナミックレンジに関する映像信号の情報を用い、複数の階層符号化構造から階層符号化構造を適宜選択してビットストリームを生成する映像符号化装置であって、時間方向で、符号化対象の映像信号がSDR (Standard Dynamic Range)からHDR (High Dynamic Rang )に切り替わるとき、または、HDR からSDR に切り替わるとき、ダイナミックレンジを切り替えるためのダイナミックレンジに関する映像信号の情報を伝送可能な階層符号化構造を選択する符号化部を備える。

Description

映像符号化方法、映像符号化装置、映像復号方法、映像復号装置、及びプログラム、並びに映像システム
 本発明は、映像符号化方法、映像符号化装置、映像復号方法、映像復号装置、及びプログラム、並びに映像システムに関する。
 映像の高精細化の要請に応じて、水平方向1920×垂直方向1080(画素)のフルHD(High Definition )の映像コンテンツが供給されている。また、水平方向3840×垂直方向2160(画素)の高精細映像(以下、4Kという。)の試験放送や商用放送が開始されている。さらに、水平方向7680×垂直方向4320(画素)の高精細映像(以下、8Kという。)の商用放送が計画されている。
 映像コンテンツの配信システムにおいて、一般に、伝送側では映像信号はH.264/AVC (Advanced Video Coding )規格やHEVC(High Efficiency Video Coding)規格に基づいて符号化され、受信側では復号処理を経て映像信号が再生されるが、8Kの場合には画素数が多いので、符号化処理及び復号処理における処理負荷が高くなる。
 8Kの場合の処理負荷を低減するための方法として、例えば非特許文献1に記載されたスライスを用いた画面4分割符号化がある(図11参照)。図12に示すように、非特許文献1では、スライス境界付近のブロックにおいて、動き補償(MC)のための動きベクトルでは、画面4分割符号化が使用される場合、インター予測が行われるときに、スライスの垂直方向(縦方向)の成分が128画素以下であるという制約が設けられている。なお、スライス境界付近に属さないブロックに対して、スライス境界を跨ぐ垂直方向の動きベクトル範囲の制約(以下、動きベクトル制限という。)はない。
 また、4Kや8Kでは、標準ダイナミックレンジ方式(以下、SDR (Standard Dynamic Range)という。)の映像信号だけでなく、ARIB STD-B67規格のハイダイナミックレンジ方式(以下、HDR (High Dynamic Rang )という。)であるHybrid Log Gamma(以下、HLGという。)や、SMPTE (Society of Motion Picture and Television Engineers) ST.2084 規格のHDR であるPerceptual Quantizer(以下、PQという。) などの映像信号も扱うことが検討されている。ゆえに、SDR とHDR の切り替えも考慮する必要がある。
ARIB(Association of Radio Industries and Businesses)標準規格 STD-B32 3.0版 平成26年7月31日 電波産業会
 動きベクトル制限がある場合、画面中の物体や画面全体が縦方向に速く動くシーンを符号化するときに、スライス境界では最適な動きベクトルが選択できないことがある。その結果、局所的な画質劣化を発生させる可能性がある。劣化の程度は、速い動きのときにM値が大きいほど大きくなる。M値は、参照ピクチャの間隔である。なお、「最適な動きベクトル」は、映像符号化装置における画面間予測(インター予測)処理を行う予測器で選択された本来の(正規の)動きベクトルを意味する。
 図14に、M=4の場合とM=8の場合の参照ピクチャの間隔が例示されている。一般に、M値が小さい場合には、フレーム間距離が小さくなるので、動きベクトルの値は小さくなる傾向がある。しかし、特に定常的なシーンにおいて、時間方向階層が少なくなる。その結果、階層(レイヤ)に応じた符号量配分が制約されるため、符号化効率は低下する。一方、M値が大きい場合には、フレーム間距離が大きくなるので、動きベクトルの値は大きくなる傾向がある。しかし、特に定常的なシーンにおいて、時間方向階層が多くなる。その結果、階層(レイヤ)に応じた符号量配分の制約が緩和されるため、符号化効率は向上する。一例として、M値を8から4に変えると、動きベクトルの値は1/2になり、M値を4から8に変えると、動きベクトルの値は2倍になる。
 なお、非特許文献1においてSOP(Set of Pictures )という概念が導入されている。SOP は、時間方向階層符号化を行う場合に、各AU(Access Unit )の符号化順及び参照関係を記述する単位になる。時間方向階層符号化は、複数フレームの映像の中から、部分的にフレームを取り出せるようにする符号化である。
 SOP構造は、L=0の構造、L=1の構造、L=2の構造及びL=3の構造を含む。図15に示すように、Lx(x=0,1,2,3)は、以下のような構造である。
・L=0の構造:Temporal ID が0のピクチャだけで構成されるSOP 構造(つまり、同SOPに含まれるピクチャの段数は1つである。最大Temporal ID を示すLが0であるともいえる。)
・L=1の構造:Temporal ID が0のピクチャおよび1のピクチャで構成されるSOP 構造(つまり、同SOP に含まれるピクチャの段数は2つである。最大Temporal ID を示すLが1であるともいえる。)
・L=2の構造:Temporal ID が0のピクチャ、1のピクチャ、および、2のピクチャで構成されるSOP 構造(つまり、同SOP に含まれるピクチャの段数は3つである。最大Temporal ID を示すLが2であるともいえる。)
・L=3の構造:Temporal ID が0のピクチャ、1のピクチャ、2のピクチャ、および3のピクチャで構成されるSOP 構造(つまり、同SOP に含まれるピクチャの段数は4つである。最大Temporal ID を示すLが3であるともいえる。)
 本明細書の記載では、M=1はL=0の構造のSOP に対応し、M=2はN=1の場合のL=1の構造のSOP (図15参照)に対応し、M=3はN=2の場合のL=1の構造のSOP (図15参照)に対応し、M=4はL=2の構造のSOP に対応し、M=8はL=3の構造のSOP に対応する。
 定常的なシーン(例えば、画面中の物体や画面全体が速く動かないシーン)については、上述したように参照ピクチャ間隔(M値)が大きいほど符号化効率がよい。よって、8Kなどの高精細映像を低レートで符号化するためには、映像符号化装置が基本的にM=8で動作することが好ましい。
 しかし、上述したように、M値を大きくすると動きベクトルの値が大きくなる傾向があるので、特に、画面中の物体や画面全体が縦方向に速く動くシーンにおいて、動きベクトル制限に起因して画質が劣化する。動きベクトル制限によって、スライス境界において、最適な動きベクトルを選択できない場合があるためである。
 本発明は、映像の画面を分割してから圧縮する符号化方法であって、スライス境界付近において動きベクトルの選択の制約がある符号化方法を使用する場合に、画質劣化を抑制することを目的とする。加えて、上述したように4Kや8KではSDR とHDR の切り替えも考慮する必要があるため、本発明は、SDR とHDR の切り替えも考慮して、上記画質劣化を抑制することを目的とする。
 
 本発明による映像符号化方法は、ダイナミックレンジに関する映像信号の情報を用い、複数の階層符号化構造から階層符号化構造を適宜選択してビットストリームを生成する映像符号化方法であって、時間方向で、符号化対象の映像信号がSDR (Standard Dynamic Range)からHDR (High Dynamic Rang )に切り替わるとき、または、HDR からSDR に切り替わるとき、ダイナミックレンジを切り替えるためのダイナミックレンジに関する映像信号の情報を伝送可能な階層符号化構造を使用することを特徴とする。
 本発明による映像符号化装置は、ダイナミックレンジに関する映像信号の情報を用い、複数の階層符号化構造から階層符号化構造を適宜選択してビットストリームを生成する映像符号化装置であって、時間方向で、符号化対象の映像信号がSDR (Standard Dynamic Range)からHDR (High Dynamic Rang )に切り替わるとき、または、HDR からSDR に切り替わるとき、ダイナミックレンジを切り替えるためのダイナミックレンジに関する映像信号の情報を伝送可能な階層符号化構造を選択する符号化部を備えたことを特徴とする。
 本発明による映像符号化プログラムは、ダイナミックレンジに関する映像信号の情報を用い、複数の階層符号化構造から階層符号化構造を適宜選択してビットストリームを生成する映像符号化装置におけるコンピュータに、時間方向で、符号化対象の映像信号がSDR (Standard Dynamic Range)からHDR (High Dynamic Rang )に切り替わるとき、または、HDR からSDR に切り替わるとき、ダイナミックレンジを切り替えるためのダイナミックレンジに関する映像信号の情報を伝送可能な階層符号化構造を使用する処理を実行させることを特徴とする。
 本発明による映像復号方法は、ダイナミックレンジに関する映像信号の情報を用い、複数の階層符号化構造から階層符号化構造を適宜選択して生成されたビットストリームを復号して映像を得る映像復号方法であって、時間方向で、符号化対象の映像信号がSDR (Standard Dynamic Range)からHDR (High Dynamic Rang )に切り替わるとき、または、HDR からSDR に切り替わるとき、ダイナミックレンジを切り替えるためのダイナミックレンジに関する映像信号の情報を伝送可能な階層符号化構造が使用されたビットストリームから映像を得ることを特徴とする。
 本発明による映像復号装置は、ダイナミックレンジに関する映像信号の情報を用い、複数の階層符号化構造から階層符号化構造を適宜選択して生成されたビットストリームを復号して映像を得る映像復号装置であって、時間方向で、符号化対象の映像信号がSDR (Standard Dynamic Range)からHDR (High Dynamic Rang )に切り替わるとき、または、HDR からSDR に切り替わるとき、ダイナミックレンジを切り替えるためのダイナミックレンジに関する映像信号の情報を伝送可能な階層符号化構造が使用されたビットストリームから映像を得る復号部を備えたことを特徴とする。
 本発明による映像復号プログラムは、ダイナミックレンジに関する映像信号の情報を用い、複数の階層符号化構造から階層符号化構造を適宜選択して生成されたビットストリームを復号して映像を得る映像復号装置におけるコンピュータに、時間方向で、符号化対象の映像信号がSDR (Standard Dynamic Range)からHDR (High Dynamic Rang )に切り替わるとき、または、HDR からSDR に切り替わるとき、ダイナミックレンジを切り替えるためのダイナミックレンジに関する映像信号の情報を伝送可能な階層符号化構造が使用されたビットストリームから映像を得る処理を実行させることを特徴とする。
 本発明による映像システムは、上記の映像符号化装置と、音声信号を符号化する音声符号化部と、映像符号化装置からのビットストリームと音声符号化部からのビットストリームとを多重化して出力する多重化部とを備える。
 本発明によれば、SDR とHDR の切り替えに対応しつつ、画質劣化を抑制することができる。
映像符号化装置の実施形態の構成例を示すブロック図である。 映像復号装置の実施形態の構成例を示すブロック図である。 映像符号化装置の第1の実施形態の動作を示すフローチャートである。 映像符号化装置の第2の実施形態の動作を示すフローチャートである。 映像符号化装置の第3の実施形態の動作を示すフローチャートである。 映像システムの一例を示すブロック図である。 映像システムの他の例を示すブロック図である。 映像符号化装置及び映像復号装置の機能を実現可能な情報処理システムの構成例を示すブロック図である。 映像符号化装置の主要部を示すブロック図である。 映像復号装置の主要部を示すブロック図である。 画面分割の一例を示す説明図である。 動きベクトル制限を説明するための説明図である。 SOP構造を示す説明図である。 参照ピクチャの間隔の一例を示す説明図である。 SOP構造を示す説明図である。
 以下、本発明の実施形態を図面を参照して説明する。
 図1は、映像符号化装置の実施形態の構成例を示すブロック図である。図1に示す映像符号化装置100は、符号化部101、解析部111、判定部112及びM値決定部113を含む。なお、映像符号化装置100は、HEVC規格に基づいて符号化処理を実行するが、他の規格、例えば、H.264/AVC規格に基づいて符号化処理を実行してもよい。また、以下、8Kの映像が入力される場合を例にする。
 符号化部101は、入力画像を複数の画面に分割する画面分割器102、周波数変換/量子化器103、逆量子化/逆周波数変換器104,バッファ105、予測器106、及びエントロピー符号化器107を含む。
 画面分割器102は、入力映像の画面を4つの画面に分割する(図11参照)。周波数変換/量子化器103は、入力映像信号から予測信号を減じた予測誤差画像を周波数変換する。周波数変換/量子化器103は、さらに、周波数変換された予測誤差画像(周波数変換係数)を量子化する。以下、量子化された周波数変換係数を変換量子化値という。
 エントロピー符号化器107は、予測パラメータと変換量子化値をエントロピー符号化して、ビットストリームを出力する。予測パラメータは、予測モード(イントラ予測、インター予測)、イントラ予測ブロックサイズ、イントラ予測方向、インター予測ブロックサイズ、及び動きベクトルなど、CTU(Coding Tree Unit)及びブロックの予測に関連した情報である。
 予測器106は、入力映像信号に対する予測信号を生成する。予測信号は、イントラ予測またはフレーム間予測に基づいて生成される。
 逆量子化/逆周波数変換器104は、変換量子化値を逆量子化する。さらに、逆量子化/逆周波数変換器104は、逆量子化した周波数変換係数を逆周波数変換する。逆周波数変換された再構築予測誤差画像は、予測信号が加えられて、バッファ105に供給される。バッファ105は、再構築画像を格納する。
 解析部111は、符号化統計情報を解析する。判定部112は、上述した動きベクトル制限で、スライス境界付近で最適な動きベクトルを選択できるか否かを、解析部111の解析結果に基づいて判定する。なお、符号化統計情報は、過去のフレーム(例えば、現在の符号化対象のフレームの直前のフレーム)の符号化結果の情報であるが、符号化統計情報の具体例については後述する。
 なお、スライス境界付近は、最適な動きベクトルを選択できなかった領域になるが、以下の制御を実現する際に、便宜的に、例えば、スライス境界から±128画素の範囲や±256画素の範囲を、スライス境界付近としてもよい。また、以下の制御を実現する際に、「スライス境界付近」の範囲を、映像の状況(動きが大きい/小さいなど)に応じて、適宜変更可能であるようにしてもよい。例えば、値が大きい動きベクトルの発生比率が高い場合に、「スライス境界付近」の範囲を広く設定するようにしてもよい。
 M値決定部113は、判定部112の判定結果に基づいて、M値を適応的に決定する。なお、上述したように、M値を決定することは、SOP構造におけるLx(x=0,1,2,3)構造を決定することと等価である。また、符号化統計情報については、後述する。
 図2は、映像復号装置の実施形態の構成例を示すブロック図である。図2に示す映像復号装置200は、エントロピー復号器202、逆量子化/逆周波数変換器203、予測器204、及びバッファ205を含む。
 エントロピー復号器202は、映像のビットストリームをエントロピー復号する。エントロピー復号器202は、エントロピー復号した変換量子化値を逆量子化/逆周波数変換器203に供給する。
 逆量子化/逆周波数変換器203は、量子化ステップ幅で、輝度及び色差の変換量子化値を逆量子化して周波数変換係数を得る。さらに、逆量子化/逆周波数変換器203は、逆量子化した周波数変換係数を逆周波数変換する。
 逆周波数変換後、予測器204は、バッファ205に格納された再構築ピクチャの画像を用いて予測信号を生成する(前記予測は、動き補償予測、または、MC参照とも呼ばれる。)。逆量子化/逆周波数変換器203で逆周波数変換された再構築予測誤差画像は、予測器204から供給される予測信号が加えられて、再構築ピクチャとしてバッファ205に供給される。そして、バッファ205に格納された再構築ピクチャが復号映像として出力される。
 次に、映像符号化装置100における解析部111、判定部112及びM値決定部113の動作を説明する。
実施形態1.
 図3は、図1に示された映像符号化装置100の第1の実施形態の動作を示すフローチャートである。第1の実施形態では、8Kの映像は4分割され(図11参照)、スライス境界付近において動きベクトル制限があるとする。また、動きベクトル制限として、±128を例にする。8Kの映像は4分割され、かつ、動きベクトル制限があることは、他の実施形態でも同様である。なお、M値の初期値は8(M=8)である。
 解析部111は、バッファ105に格納されている過去の符号化結果(例えば、直前フレームの符号化結果)を解析する。具体的には、解析部111は、スライス境界以外のブロックにおける動きベクトルの平均値又は中央値(以下、平均値又は中央値をMavgとする。)を算出する(ステップS101)。なお、第1の実施形態では、符号化統計情報は、動きベクトルの値であり、解析結果は、動きベクトルの平均値又は中央値である。
 判定部112は、Mavgが、動きベクトル制限としての±128を基準として、どの程度の大きさになっているかを判定する(ステップS102)。
 そして、M値決定部113は、Mavgがどの程度の大きさになっているかの判定結果に基づいて、M値を決定する(ステップS103)。
 M値決定部113は、判定結果に基づいて、例えば、以下のようにM値を決定する。
(1)M=8である場合:
     |Mavg|≦128 → M=8を維持
 128<|Mavg|≦256 → M=4(M=8の1/2)に決定
 256<|Mavg|≦512 → M=2(M=8の1/4)に決定
 512<|Mavg|     → M=1(M=8の1/8)に決定
(2)M=4である場合:
     |Mavg|≦64  → M=8に決定
  64<|Mavg|≦128 → M=4を維持
 128<|Mavg|≦256 → M=2に決定
 256<|Mavg|     → M=1に決定
 M値決定部113は、M値がその他の値であるときにも、上記の(1),(2)の場合と同様に、M値を8にしたときに、動きベクトル制限の下で、スライス境界付近での動きベクトルの値が±128以内に収まると推定できたときには、M値を8に戻す。換言すれば、M値決定部113は、動きベクトル制限の下で、スライス境界付近で最適な動きベクトルを選択できると推定できた場合には、M値を8に戻す。その他の場合にも、Mavgに応じて、スライス境界付近での動きベクトルの値が±128以内に収まるようにM値を決定する。
 なお、上記の場合分け(閾値の設定)は一例であって、閾値を変えたり、より細かな場合分けをしてもよい。
 第1の実施形態の映像符号化装置の制御は、以下のような考え方に基づく。
 映像が、画面全体が速く動くシーンの映像であるときには、発生した全ての動きベクトルに対して、スライス境界付近でもスライス境界付近以外でも、値が大きい動きベクトルの数の比率が高い。しかし、動きベクトル制限があるので、スライス境界付近では、最適な動きベクトルが選択されていない可能性がある。そこで、判定部112は、スライス境界以外の領域において発生した符号化統計情報としての動きベクトル(動きベクトル制限はないので、正規の、換言すれば最適な動きベクトルである。)に基づいて、符号化対象の画面が速く動くシーンの映像の画面であるか否かを推定する。M値決定部113は、速く動くシーンの映像であると判定部112が推定した場合には、スライス境界付近において最適な動きベクトルを選択可能になるようにM値を変える。
 なお、速く動くシーンの映像である場合には、スライス境界付近において最適な動きベクトルが選択されていない可能性があるので、速く動くシーンの映像であると推定されたことは、動きベクトル制限の下で、スライス境界付近において最適な動きベクトルが選択されていないと推定されたことと等価である。
 また、上述したように、M値とSOP構造とは相関している。よって、M値決定部113がM値を決定することは、SOP構造(すなわち、Lx(x=0,1,2,3)構造)を決定することと等価である。
実施形態2.
 図4は、図1に示された映像符号化装置100の第2の実施形態の動作を示すフローチャートである。
 解析部111は、バッファ105に格納されている過去の符号化結果(例えば、直前フレームの符号化結果)を解析する。具体的には、解析部111は、スライス境界以外の範囲における全てのブロック(例えば、PU:Prediction Unit )に対して、画面内予測(イントラ予測)が用いられたブロックの割合Pを算出し(ステップS201)、スライス境界付近の全てのブロックに対して、画面内予測が用いられたブロックの割合Pを算出する(ステップS202)。なお、第2の実施形態では、符号化統計情報は、スライス境界付近のブロックの予測モード(具体的には、画面内予測のブロックの数)であり、解析結果は、割合P及び割合Pである。
 判定部112は、割合Pと割合Pとを比較し、それらの乖離の程度を判定する。具体的には、割合Pと比較して、割合Pがかなり大きいか否かを判定する。判定部112は、例えば、割合Pと割合Pとの差が所定値を越えているか否か判定する(ステップS203)。
 M値決定部113は、割合Pと割合Pとの差が所定値を越えている場合には、M値を小さくする(ステップS204)。なお、複数の所定値を設け、例えば、差が第1の所定値を越えているときにはM値を複数段階小さくし、差が第2の所定値(<第1の所定値)を越えているときにはM値を1段階小さくするようにしてもよい。
 また、M値決定部113は、割合Pと割合Pとの差が所定値以下である場合には、M値を維持するか、又は、M値を大きくする(ステップS205)。例えば、M値決定部113は、差が第3の所定値(<第2の所定値)以下であるときにはM値を大きくし、差が第3の所定値を越えているときにはM値を維持する。
 第2の実施形態の映像符号化装置の制御は、以下のような考え方に基づく。
 符号化部101は、画面内の各ブロックを符号化する際に、予測モードとして画面内予測と画面間予測(インター予測)とのいずれかを使用できる。映像が、画面全体が速く動くシーンの映像であるときには、スライス境界付近においても、画面間予測が使用されるときに値が大きい動きベクトルの数の発生率が高いと考えられる(動きベクトル制限がない場合)。動きベクトル制限があるので、スライス境界付近では、最適な動きベクトル(大きな動きベクトル)を発生することができず、その結果、スライス境界付近では、画面内予測が使用されることが多いと考えられる。スライス境界付近以外では、動きベクトル制限はないので、スライス境界付近に比べて、画面内予測が使用されることは少ないと考えられる。
 よって、割合Pと割合Pとが大きく乖離している場合には、速く動くシーンの映像の信号が符号化部101に入力されていると推定される。
 なお、速く動くシーンの映像である場合には、スライス境界付近において最適な動きベクトルが選択されていない可能性があるので、速く動くシーンの映像であると推定されたことは、動きベクトル制限の下で、割合Pと割合Pとが大きく乖離していることと等価である。
 大きく乖離しているか否か判定するための所定値として、一例として、経験的又は実験的に、そのような値を閾値として使用すれば、スライス境界付近において最適な動きベクトルが選択されていない可能性があることを推定可能な値が選択される。
実施形態3.
 図5は、図1に示された映像符号化装置100の第3の実施形態の動作を示すフローチャートである。
 解析部111は、バッファ105に格納されている過去の符号化結果(例えば、直前フレームの符号化結果)を解析する。具体的には、解析部111は、以前のフレーム(例えば、現在の符号化対象のフレームの2フレーム前)のスライス境界付近のブロックにおける発生符号量Cを算出する(ステップS301)。また、解析部111は、直前のフレームのスライス境界付近のブロックにおける発生符号量Cを算出する(ステップS302)。なお、第3の実施形態では、符号化統計情報は、スライス境界付近のブロックの発生符号量であり、解析結果は、発生符号量C及び発生符号量Cである。
 判定部112は、発生符号量Cと発生符号量Cとを比較し、それらの乖離の程度を判定する。具体的には、発生符号量Cと比較して、発生符号量Cがかなり大きいか否かを判定する。判定部112は、例えば、発生符号量Cと発生符号量Cとの差が所定量を越えているか否か判定する(ステップS303)。
 M値決定部113は、発生符号量Cと発生符号量Cとの差が所定量を越えている場合には、M値を小さくする(ステップS304)。なお、複数の所定量を設け、例えば、差が第1の所定量を越えているときにはM値を複数段階小さくし、差が第2の所定量(<第1の所定量)を越えているときにはM値を1段階小さくするようにしてもよい。
 また、M値決定部113は、発生符号量Cと発生符号量Cとの差が所定量以下である場合には、M値を維持するか、又は、M値を大きくする(ステップS305)。例えば、M値決定部113は、差が第3の所定量(<第2の所定量)以下であるときにはM値を大きくし、差が第3の所定量を越えているときにはM値を維持する。
 第3の実施形態の映像符号化装置の制御は、以下のような考え方に基づく。
 上述したように、画面全体が速く動くシーンの映像であるときには、スライス境界付近においても、画面間予測が使用されるときに値が大きい動きベクトルの数の比率が高いと考えられる(動きベクトル制限がない場合)。しかし、動きベクトル制限があるので、スライス境界付近では、最適な動きベクトル(大きな動きベクトル)を発生することができず、その結果、スライス境界付近では、画面内予測が使用されることが多いと考えられる。一般に、画面間予測が使用されるときに比べて、画面内予測が使用されるときには、発生符号量は多くなる。
 よって、発生符号量Cと比較して、発生符号量Cがかなり多い場合には、速く動くシーンの映像の信号が符号化部101に入力される状況に変化したと推定される。
 なお、速く動くシーンの映像になった場合には、スライス境界付近において最適な動きベクトルが選択されない可能性があるので、速く動くシーンの映像になったと推定されたことは、動きベクトル制限の下で、発生符号量Cが大きく増えたことと等価である。
 大きく増えたか否か判定するための所定量として、一例として、経験的又は実験的に、そのような量を閾値として使用すれば、スライス境界付近において最適な動きベクトルが選択されない可能性があることを推定可能な値が選択される。
 以上に説明したように、上記の各実施形態では、過去の符号化結果(符号化統計情報)に基づいてM値が適応的に切替えられる。符号化統計情報に基づいて動きベクトル制限の下で、スライス境界付近で最適な動きベクトル(換言すれば、動きベクトル制限を外れる動きベクトル)を選択できるか否かが推定される。選択できないと推定され場合には、M値はより小さな値に変更される。選択できると判定された場合、そのときのM値でも動きベクトル制限の下でスライス境界付近で最適な動きベクトルを選択できると考えられるので、M値は、維持されるか、又は、より大きな値に変更される。
 その結果、動きベクトル制限によってスライス境界付近で最適な動きベクトルを選択できない状態になることをでるだけ回避でき、局所的な画質劣化が生ずる可能性を低減できる。すなわち、動きの速さに応じてM値が適応的に切替えられるので、好適な画質を得ることができる。
 また、符号化結果(例えば、直前のフレームの符号化結果)に基づいてM値を切り替えることができるので、事前解析(現在のフレームを符号化する際に前処理として実行される解析処理)を行う必要がなく、事前解析を行う場合と比較して、符号化のための処理時間が延びてしまうことが防止される。
 なお、映像符号化装置100において、第1~第3の実施形態のうちの任意の2つ又は全ての形態が組み込まれるように、解析部111、判定部112及びM値決定部113が構成されていてもよい。
 さらに、映像符号化装置100において、M値決定部113は外部から設定されるSDR とHDR の切り替え情報も用いて符号化構造を決定し、さらに、エントロピー符号化器107がSDR とHDR の切り替え情報を映像復号装置側に伝送してもよい。
 具体的には、M値決定部113は、外部から設定されるSDR とHDR の切り替えの位置(時間位置)で符号化シーケンス(CVS )を終端できるように、M値を制御する。
 説明の簡単のため、現在の時間位置のフレームから切り替え時間位置のフレームまでのフレーム数をfNumSwitch、仮決定したM値をMとする。
 fNumSwitchが1以上で、かつ、MがfNumSwitchよりも大きな時、M値決定部113は、MをfNumSwitch以下の値に更新する。
 その他の場合で、fNumSwitchが0の時、M値決定部は、過去に符号化したフレームでCVS が終端されるように、Mを1とする。つまり、映像符号化装置は、現在のフレームをIDR ピクチャとして圧縮することになる。さらに、エントロピー符号化器107は、SDR とHDR の切り替え情報を映像復号装置側に伝送するために、IDR ピクチャのSPS のVUI のtransfer_characteristicsシンタクスに、切り替わったSDR またはHDR の情報を設定する。例えば、HLG のHDR に切り替わった場合transfer_characteristicsシンタクスに18を設定し、PQのHDR に切り替わった場合transfer_characteristicsシンタクスに16を設定し、Rec. ITU-R BT.2020のSDR に切り替わった場合transfer_characteristicsシンタクスに14を設定し、IEC 61966-2-4 のSDR に切り替わった場合transfer_characteristicsシンタクスに11を設定し、Rec. ITU-R BT.709 のSDR に切り替わった場合transfer_characteristicsシンタクスに1 を設定する。なお、このとき、エントロピー符号化器107は、IDR ピクチャのビットストリームよりも前に、EOS のビットストリームを出力してもよい。
 その他の場合、M値決定部113は、Mをそのまま出力する。
 なお、上述したSDR やHDR に対応するtransfer_characteristicsシンタクスの値と特性の関係は以下の表の通りである。
Figure JPOXMLDOC01-appb-T000001
 
 また、図2に示された映像復号装置は、第1~第3の実施形態において例示されたような、動きベクトル制限を満たす範囲で設定されたM値を用いて符号化されたビットストリームを復号する。
 さらに、図2に示された映像復号装置は、ビットストリームの復号によって、映像符号化装置側から伝送されたSDR とHDR の切り替え情報を受信することもできる。
 具体的には、映像復号装置のエントロピー復号器202は、SPSのVUIのtransfer_characteristicsシンタクスの値を復号することでSDR とHDR の切り替え情報を受信できる。例えば、transfer_characteristicsシンタクスが18の場合HLG のHDR への切り替わりを受信し、transfer_characteristicsシンタクスが16の場合PQのHDR への切り替わりを受信し、transfer_characteristicsシンタクスが14の場合Rec. ITU-R BT.2020のSDR への切り替わりを受信し、transfer_characteristicsシンタクスが11の場合IEC 61966-2-4 のSDR への切り替わりを受信し、transfer_characteristicsシンタクスが1 の場合Rec. ITU-R BT.709 への切り替わりを受信できる。ここで、SDR とHDR の切り替えは、M=1で符号化されたIDR ピクチャのSPS の復号だけで受信(検出)されることはいうまでもない。また、IDR ビットストリームの前にはEOS のビットストリームが受信(検出)されていてもよいことはいうまでもない。
 上記の映像復号装置を利用した受信端末は、SDR とHDR の切り替え情報を知ることができ、映像信号の特性に応じた映像表示を調整できる。つまり、SDR とHDR の切り替え表示に対応しつつ、画質劣化が抑制された映像表示ができる。
 図6は、映像システムの一例を示すブロック図である。図6に示す映像システムは、上記の各実施形態の映像符号化装置100と図2に示された映像復号装置200とが、無線伝送路又は有線伝送路300で接続されるシステムである。映像符号化装置100は、上記の第1~第3の実施形態のいずれかの映像符号化装置100であるが、映像符号化装置100において、第1~第3の実施形態のうちの任意の2つ又は全ての処理を実行するように、解析部111、判定部112及びM値決定部113が構成されていてもよい。
 なお、上記の例では、SDR とHDR の切り替え情報を映像復号側に伝送する伝送手段は、エントロピー符号化器107で実現される。また、符号化された映像と映像符号化側から伝送されたSDR とHDR の切り替え情報を復号する復号手段は、エントロピー復号器202で実現される。しかし、エントロピー符号化を行うエントロピー符号化器が、エントロピー符号化器による符号化データとSDR とHDR の切り替え情報とを多重化する多重化器とは分離して構成され、エントロピー復号を行うエントロピー復号器が、多重化ビットストリームからSDR とHDR の切り替え情報と映像とを分離する多重化解除器とは分離して構成されている場合には、映像システムを、多重化器を含まない部分で構成される映像符号化装置と、多重化解除器を含まない部分で構成される映像復号装置とで構成されるシステムとしてもよい。
 図7は、映像システムの他の例を示すブロック図である。図7に示す映像システムは、音声符号化部401、映像符号化部402及び多重化部403を含む。
 音声符号化部401は、映像と音声とを含むデータ(コンテンツ)のうちの音声信号を、例えばARIB STD-B32規格で規定されるMPEG-4 AAC(Advanced Audio Coding) 規格やMPEG-4 ALS 規格(Audio Lossless Coding) に基づいて符号化することによって音声ビットストリームを作成して出力する。
 映像符号化部402は、例えば、図1に示すように構成され、映像ビットストリームを作成して出力する。
 多重化部403は、例えばARIB STD-B32規格に基づいて、音声ビットストリーム、映像ビットストリーム及びその他の情報を多重化することによってビットストリームを作成して出力する。
 また、上記の各実施形態を、ハードウェアで構成することも可能であるが、コンピュータプログラムにより実現することも可能である。
 図8に示す情報処理システムは、プロセッサ1001、プログラムメモリ1002、映像データを格納するための記憶媒体1003およびビットストリームを格納するための記憶媒体1004を備える。記憶媒体1003と記憶媒体1004とは、別個の記憶媒体であってもよいし、同一の記憶媒体からなる記憶領域であってもよい。記憶媒体として、ハードディスク等の磁気記憶媒体を用いることができる。
 図8に示された情報処理システムにおいて、プログラムメモリ1002には、図1,図2のそれぞれに示された各ブロック(バッファのブロックを除く)の機能を実現するためのプログラム(映像符号化プログラム又は映像復号プログラム)が格納される。そして、プロセッサ1001は、プログラムメモリ1002に格納されているプログラムに従って処理を実行することによって、図1,図2のそれぞれに示された映像符号化装置または映像復号装置の機能を実現する。
 図9は、映像符号化装置の主要部を示すブロック図である。図9に示すように、映像符号化装置10は、符号化統計情報を解析する解析部11(実施形態における解析部111に相当)と、解析部11の解析結果に基づいて、スライス境界付近で最適な動きベクトルを選択できるか否かを推定する推定部12(実施形態では、判定部112で実現される。)と、推定部12の推定結果およびSDR とHDR の切り替え情報に基づいて、符号化構造を、Temporal ID が0のピクチャだけで構成されるSOP 構造、Temporal ID が0のピクチャおよび1のピクチャで構成されるSOP 構造、Temporal ID が0のピクチャ、1のピクチャ、および2のピクチャで構成されるSOP 構造、Temporal ID が0のピクチャ、1のピクチャ、2のピクチャおよび3のピクチャで構成されるSOP 構造のいずれかに適応的に決定する符号化構造決定部13(実施形態では、M値決定部113で実現される。)と、SDR とHDR の切り替え情報を映像復号側に伝送する伝送部14(実施形態では、エントロピー符号化器107で実現される。)とを備える。
 図10は、映像復号装置の主要部を示すブロック図である。図10に示すように、映像復号装置20は、Temporal ID が0のピクチャだけで構成されるSOP 構造、Temporal ID が0のピクチャおよび1のピクチャで構成されるSOP 構造、Temporal ID が0のピクチャ、1のピクチャ、および2のピクチャで構成されるSOP 構造、Temporal ID が0のピクチャ、1のピクチャ、2のピクチャ、および3のピクチャで構成されるSOP 構造のいずれかで符号化された映像と映像符号化側から伝送されたSDR とHDR の切り替え情報とを復号する復号部21(実施形態では、エントロピー復号器202で実現される。)を備える。
 なお、復号部21は、設定された符号化構造としての、Temporal IDが0のピクチャだけで構成されるSOP 構造、Temporal ID が0のピクチャおよび1のピクチャで構成されるSOP 構造、Temporal ID が0のピクチャ、1のピクチャ、および、2のピクチャで構成されるSOP 構造、Temporal ID が0のピクチャ、1のピクチャ、2のピクチャ、および3のピクチャで構成されるSOP 構造のいずれかのSOP 構造に基づいて符号化されたビットストリームを復号することができる。
 さらに、復号部21は、図11に示すような4個のスライスに分割されて、さらに、図12に示すような、あるスライスのPUが別のスライスを動き補償(MC)参照する場合に、スライス境界を跨ぐ同PUのMC参照はスライス境界から128ライン以内の画素のみを参照するように制限されて、符号化されたビットストリームを復号できる。
 なお、実施形態では、120Pの動画像を扱う場合、映像符号化および復号側で図13に示すような、以下のSOP 構造を用いることができる。
・L=0の構造:Temporal ID が0のピクチャだけで構成されるSOP 構造(つまり、同SOP に含まれるピクチャの段数は1つである。最大Temporal ID を示すLが0であるともいえる。)
・L=1の構造:Temporal ID が0のピクチャおよび1(またはM)のピクチャで構成されるSOP 構造(つまり、同SOP に含まれるピクチャの段数は2つである。最大Temporal ID を示すLが1(またはM)であるともいえる。)
・L=2の構造:Temporal ID が0のピクチャ、1のピクチャ、および、2(またはM)のピクチャで構成されるSOP 構造(つまり、同SOP に含まれるピクチャの段数は3つである。最大Temporal ID を示すLが2(またはM)であるともいえる。)
・L=3の構造:Temporal ID が0のピクチャ、1のピクチャ、2のピクチャ、および3(またはM)のピクチャで構成されるSOP 構造(つまり、同SOP に含まれるピクチャの段数は4つである。最大Temporal ID を示すLが3(またはM)であるともいえる。)
・L=4の構造:Temporal ID が0のピクチャ、1のピクチャ、2のピクチャ、3のピクチャ、および、4(またはM)のピクチャで構成されるSOP 構造(つまり、同SOP に含まれるピクチャの段数は4つである。最大Temporal ID を示すLが4(またはM)であるともいえる。)
 以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2015年12月2日に出願された日本特許出願2015-235525を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 10   映像符号化装置
 11   解析部
 12   推定部
 13   符号化構造決定部
 14   伝送部
 20   映像復号装置
 21   復号部
 100  映像符号化装置
 101  符号化部
 102  画面分割器
 103  周波数変換/量子化器
 104  逆量子化/逆周波数変換器
 105  バッファ
 106  予測器
 107  エントロピー符号化器
 111  解析部
 112  判定部
 113  M値決定部
 200  映像復号装置
 202  エントロピー復号器
 203  逆量子化/逆周波数変換器
 204  予測器
 205  バッファ
 401  音声符号化部
 402  映像符号化部
 403  多重化部
 1001 プロセッサ
 1002 プログラムメモリ
 1003,1004 記憶媒体

Claims (22)

  1.  ダイナミックレンジに関する映像信号の情報を用い、複数の階層符号化構造から階層符号化構造を適宜選択してビットストリームを生成する映像符号化方法であって、
     時間方向で、符号化対象の映像信号がSDR (Standard Dynamic Range)からHDR (High Dynamic Rang )に切り替わるとき、または、HDR からSDR に切り替わるとき、前記ダイナミックレンジを切り替えるための前記ダイナミックレンジに関する映像信号の情報を伝送可能な階層符号化構造を使用する
     ことを特徴とする映像符号化方法。
  2.  前記複数の階層符号化構造は、Temporal ID が0のピクチャだけで構成される階層符号化構造、Temporal ID が0のピクチャまたは1のピクチャで構成される階層符号化構造、Temporal ID が0のピクチャ、1のピクチャまたは2のピクチャで構成される階層符号化構造、および、Temporal ID が0のピクチャ、1のピクチャ、2のピクチャまたは3のピクチャで構成される階層符号化構造を含む
     請求項1記載の映像符号化方法。
  3.  切り替わり後の先頭のピクチャセットの階層符号化構造をTemporal ID が0のピクチャだけで構成される階層符号化構造に設定する
     請求項1または請求項2記載の映像符号化方法。
  4.  切り替わり後の先頭のピクチャセットに含まれる最初のピクチャをIDR ピクチャとして符号化し、
     前記IDR ピクチャのSPS のVUI のtransfer_characteristicsシンタクスに前記ダイナミックレンジに関する映像信号の情報を設定する
     請求項1から請求項3のうちのいずれか1項に記載の映像符号化方法。
  5.  切り替わり後の先頭のピクチャセットの最初のピクチャのビットストリームよりも前に、EOS のビットストリームを出力する
     請求項1から請求項4のうちのいずれか1項に記載の映像符号化方法。
  6.  前記ダイナミックレンジに関する映像信号の情報がHDR からSDR に切り替わる場合には、
     少なくとも、V = α * Lc 0.45 - (  α -  1)   for 1 ≧  Lc  ≧  β
     V = 4.500 * Lc  for β >  Lc  ≧  0 の特性を用い、
     前記ダイナミックレンジに関する映像信号の情報がSDR からHDR に切り替わる場合には、
     V = ( ( c1 + c2 * Lc n ) ÷ ( 1 + c3 * Lc n ) )m  for all values of Lc
     c1 = c3 - c2 + 1 = 3424 ÷ 4096 = 0.8359375
     c2 = 32 * 2413 ÷ 4096 = 18.8515625
     c3 = 32 * 2392 ÷ 4096 = 18.6875
     m = 128 * 2523 ÷ 4096 = 78.84375
     n = 0.25 * 2610 ÷ 4096 = 0.1593017578125
     for which Lc equal to 1 for peak white is ordinarily intended to correspond to a display luminance level of 10  equal to 1 for peak white is ordinarily intended to correspond to a display luminance level of 10 000 candelas per square met
    の特性、または、
     V = 0.5 * Lc 0.5  for 1  ≧  Lc  ≧  0
     V = a * Ln( Lc - b ) + c  for Lc > 1
     a = 0.17883277, b = 0.28466892, c = 0.55991073
     の特性を用いる
     請求項1から請求項5のうちのいずれか1項に記載の映像符号化方法。
  7.  ダイナミックレンジに関する映像信号の情報を用い、複数の階層符号化構造から階層符号化構造を適宜選択してビットストリームを生成する映像符号化装置であって、
     時間方向で、符号化対象の映像信号がSDR (Standard Dynamic Range)からHDR (High Dynamic Rang )に切り替わるとき、または、HDR からSDR に切り替わるとき、前記ダイナミックレンジを切り替えるための前記ダイナミックレンジに関する映像信号の情報を伝送可能な階層符号化構造を選択する符号化部を備えた
     ことを特徴とする映像符号化装置。
  8.  前記複数の階層符号化構造は、Temporal ID が0のピクチャだけで構成される階層符号化構造、Temporal ID が0のピクチャまたは1のピクチャで構成される階層符号化構造、Temporal ID が0のピクチャ、1のピクチャまたは2のピクチャで構成される階層符号化構造、および、Temporal ID が0のピクチャ、1のピクチャ、2のピクチャまたは3のピクチャで構成される階層符号化構造を含む
     請求項7記載の映像符号化装置。
  9.  前記符号化部は、切り替わり後の先頭のピクチャセットの階層符号化構造をTemporal ID が0のピクチャだけで構成される階層符号化構造に設定する
     請求項7または請求項8記載の映像符号化装置。
  10.  前記符号化部は、
     切り替わり後の先頭のピクチャセットに含まれる最初のピクチャをIDR ピクチャとして符号化し、
     前記IDR ピクチャのSPS のVUI のtransfer_characteristicsシンタクスに前記ダイナミックレンジに関する映像信号の情報を設定する
     請求項7から請求項9のうちのいずれか1項に記載の映像符号化装置。
  11.  前記符号化部は、切り替わり後の先頭のピクチャセットの最初のピクチャのビットストリームよりも前に、EOS のビットストリームを出力する
     請求項7から請求項10のうちのいずれか1項に記載の映像符号化装置。
  12.  前記符号化部は、
     前記ダイナミックレンジに関する映像信号の情報がHDR からSDR に切り替わる場合には、
     少なくとも、V = α * Lc 0.45 - (  α -  1)   for 1 ≧  Lc  ≧  β
     V = 4.500 * Lc  for β >  Lc  ≧  0 の特性を用い、
     前記ダイナミックレンジに関する映像信号の情報がSDR からHDR に切り替わる場合には、
     V = ( ( c1 + c2 * Lc n ) ÷ ( 1 + c3 * Lc n ) )m  for all values of Lc
     c1 = c3 - c2 + 1 = 3424 ÷ 4096 = 0.8359375
     c2 = 32 * 2413 ÷ 4096 = 18.8515625
     c3 = 32 * 2392 ÷ 4096 = 18.6875
     m = 128 * 2523 ÷ 4096 = 78.84375
     n = 0.25 * 2610 ÷ 4096 = 0.1593017578125
     for which Lc equal to 1 for peak white is ordinarily intended to correspond to a display luminance level of 10  equal to 1 for peak white is ordinarily intended to correspond to a display luminance level of 10 0 candelas per square metre
    の特性、または、
     V = 0.5 * Lc 0.5  for 1  ≧  Lc  ≧  0
     V = a * Ln( Lc - b ) + c  for Lc > 1
     a = 0.17883277, b = 0.28466892, c = 0.55991073
     の特性を用いる
     請求項7から請求項11のうちのいずれか1項に記載の映像符号化装置。
  13.  ダイナミックレンジに関する映像信号の情報を用い、複数の階層符号化構造から階層符号化構造を適宜選択してビットストリームを生成する映像符号化装置におけるコンピュータに、
     時間方向で、符号化対象の映像信号がSDR (Standard Dynamic Range)からHDR (High Dynamic Rang )に切り替わるとき、または、HDR からSDR に切り替わるとき、前記ダイナミックレンジを切り替えるための前記ダイナミックレンジに関する映像信号の情報を伝送可能な階層符号化構造を使用する処理を実行させるための映像符号化プログラム。
  14.  前記複数の階層符号化構造は、Temporal ID が0のピクチャだけで構成される階層符号化構造、Temporal ID が0のピクチャまたは1のピクチャで構成される階層符号化構造、Temporal ID が0のピクチャ、1のピクチャまたは2のピクチャで構成される階層符号化構造、および、Temporal ID が0のピクチャ、1のピクチャ、2のピクチャまたは3のピクチャで構成される階層符号化構造を含む
     請求項13記載の映像符号化プログラム。
  15.  コンピュータに、
     切り替わり後の先頭のピクチャセットの階層符号化構造をTemporal ID が0のピクチャだけで構成される階層符号化構造に設定させる
     請求項13または請求項14記載の映像符号化プログラム。
  16.  コンピュータに、
     切り替わり後の先頭のピクチャセットに含まれる最初のピクチャをIDR ピクチャとして符号化させ、
     前記IDR ピクチャのSPS のVUI のtransfer_characteristicsシンタクスに前記ダイナミックレンジに関する映像信号の情報を設定させる
     請求項13から請求項15のうちのいずれか1項に記載の映像符号化プログラム。
  17.  コンピュータに、
     切り替わり後の先頭のピクチャセットの最初のピクチャのビットストリームよりも前に、EOS のビットストリームを出力させる
     請求項13から請求項16のうちのいずれか1項に記載の映像符号化プログラム。
  18.  コンピュータに、
     前記ダイナミックレンジに関する映像信号の情報がHDR からSDR に切り替わる場合には、
     少なくとも、V = α * Lc 0.45 - (  α -  1)   for 1 ≧  Lc  ≧  β
     V = 4.500 * Lc  for β >  Lc  ≧  0 の特性を使用させ、
     前記ダイナミックレンジに関する映像信号の情報がSDR からHDR に切り替わる場合には、
     V = ( ( c1 + c2 * Lc n ) ÷ ( 1 + c3 * Lc n ) )m  for all values of Lc
     c1 = c3 - c2 + 1 = 3424 ÷ 4096 = 0.8359375
     c2 = 32 * 2413 ÷ 4096 = 18.8515625
     c3 = 32 * 2392 ÷ 4096 = 18.6875
     m = 128 * 2523 ÷ 4096 = 78.84375
     n = 0.25 * 2610 ÷ 4096 = 0.1593017578125
     for which Lc equal to 1 for peak white is ordinarily intended to correspond to a display luminance level of 10  equal to 1 for peak white is ordinarily intended to correspond to a display luminance level of 10 000 candelas per square met
    の特性、または、
     V = 0.5 * Lc 0.5  for 1  ≧  Lc  ≧  0
     V = a * Ln( Lc - b ) + c  for Lc > 1
     a = 0.17883277, b = 0.28466892, c = 0.55991073
     の特性を使用させる
     請求項13から請求項17のうちのいずれか1項に記載の映像符号化プログラム。
  19.  ダイナミックレンジに関する映像信号の情報を用い、複数の階層符号化構造から階層符号化構造を適宜選択して生成されたビットストリームを復号して映像を得る映像復号方法であって、
     時間方向で、符号化対象の映像信号がSDR (Standard Dynamic Range)からHDR (High Dynamic Rang )に切り替わるとき、または、HDR からSDR に切り替わるとき、前記ダイナミックレンジを切り替えるための前記ダイナミックレンジに関する映像信号の情報を伝送可能な階層符号化構造が使用されたビットストリームから映像を得る
     ことを特徴とする映像復号方法。
  20.  ダイナミックレンジに関する映像信号の情報を用い、複数の階層符号化構造から階層符号化構造を適宜選択して生成されたビットストリームを復号して映像を得る映像復号装置であって、
     時間方向で、符号化対象の映像信号がSDR (Standard Dynamic Range)からHDR (High Dynamic Rang )に切り替わるとき、または、HDR からSDR に切り替わるとき、前記ダイナミックレンジを切り替えるための前記ダイナミックレンジに関する映像信号の情報を伝送可能な階層符号化構造が使用されたビットストリームから映像を得る復号部を備えた
     ことを特徴とする映像復号装置。
  21.  ダイナミックレンジに関する映像信号の情報を用い、複数の階層符号化構造から階層符号化構造を適宜選択して生成されたビットストリームを復号して映像を得る映像復号装置におけるコンピュータに、
     時間方向で、符号化対象の映像信号がSDR (Standard Dynamic Range)からHDR (High Dynamic Rang )に切り替わるとき、または、HDR からSDR に切り替わるとき、前記ダイナミックレンジを切り替えるための前記ダイナミックレンジに関する映像信号の情報を伝送可能な階層符号化構造が使用されたビットストリームから映像を得る処理を実行させるための映像復号プログラム。
  22.  請求項7から請求項12のうちのいずれか1項に記載の映像符号化装置と、
     音声信号を符号化する音声符号化部と、
     前記映像符号化装置からのビットストリームと前記音声符号化部からのビットストリームとを多重化して出力する多重化部と
     を備える映像システム。
PCT/JP2016/083681 2015-12-02 2016-11-14 映像符号化方法、映像符号化装置、映像復号方法、映像復号装置、及びプログラム、並びに映像システム WO2017094482A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020187014826A KR102198120B1 (ko) 2015-12-02 2016-11-14 비디오 인코딩 방법, 비디오 인코딩 디바이스, 비디오 디코딩 방법, 비디오 디코딩 디바이스, 프로그램, 및 비디오 시스템
US15/777,980 US10645421B2 (en) 2015-12-02 2016-11-14 Video encoding method, video encoding device, video decoding method, video decoding device, program, and video system
KR1020207037536A KR102242880B1 (ko) 2015-12-02 2016-11-14 비디오 인코딩 방법, 비디오 인코딩 디바이스, 비디오 디코딩 방법, 비디오 디코딩 디바이스, 및 컴퓨터 판독가능 정보 기록 매체
EP16870421.1A EP3386200A4 (en) 2015-12-02 2016-11-14 VIDEO CODING METHOD, VIDEO CODING APPARATUS, VIDEO DECODING METHOD, VIDEO DECODING APPARATUS, PROGRAM, AND VIDEO SYSTEM
BR112018010465-5A BR112018010465B1 (pt) 2015-12-02 2016-11-14 Método de codificação de vídeo e dispositivo de codificação de vídeo para gerar um fluxo de bits e sistema de vídeo
CA3006941A CA3006941C (en) 2015-12-02 2016-11-14 Video encoding method, video encoding device, video decoding method, video decoding device, program, and video system
US16/824,778 US10827201B2 (en) 2015-12-02 2020-03-20 Video encoding method, video encoding device, video decoding method, video decoding device, program, and video system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015235525A JP6132006B1 (ja) 2015-12-02 2015-12-02 映像符号化装置、映像システム、映像符号化方法、及び映像符号化プログラム
JP2015-235525 2015-12-02

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/777,980 A-371-Of-International US10645421B2 (en) 2015-12-02 2016-11-14 Video encoding method, video encoding device, video decoding method, video decoding device, program, and video system
US16/824,778 Continuation US10827201B2 (en) 2015-12-02 2020-03-20 Video encoding method, video encoding device, video decoding method, video decoding device, program, and video system

Publications (1)

Publication Number Publication Date
WO2017094482A1 true WO2017094482A1 (ja) 2017-06-08

Family

ID=58745672

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/083681 WO2017094482A1 (ja) 2015-12-02 2016-11-14 映像符号化方法、映像符号化装置、映像復号方法、映像復号装置、及びプログラム、並びに映像システム

Country Status (7)

Country Link
US (2) US10645421B2 (ja)
EP (1) EP3386200A4 (ja)
JP (1) JP6132006B1 (ja)
KR (2) KR102242880B1 (ja)
BR (1) BR112018010465B1 (ja)
CA (3) CA3138227C (ja)
WO (1) WO2017094482A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020040085A1 (ja) * 2018-08-24 2020-02-27 日本電信電話株式会社 映像送信装置及び映像送信方法
US11295422B2 (en) * 2018-08-07 2022-04-05 Canon Kabushiki Kaisha Image processing apparatus having image adjustment based on dynamic range, image processing method, and storage medium
WO2022209032A1 (ja) * 2021-03-30 2022-10-06 日本電気株式会社 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法および映像システム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2951773T3 (es) 2016-03-18 2023-10-24 Koninklijke Philips Nv Codificación y decodificación de vídeos HDR
US10812820B2 (en) 2016-11-30 2020-10-20 Qualcomm Incorporated Systems and methods for signaling and constraining a high dynamic range (HDR) video system with dynamic metadata
CN116193109A (zh) * 2017-01-16 2023-05-30 世宗大学校产学协力团 影像编码/解码方法
JP6838201B2 (ja) * 2017-09-22 2021-03-03 ドルビー ラボラトリーズ ライセンシング コーポレイション 後方互換性ディスプレイマネジメントメタデータ圧縮
US10917583B2 (en) * 2018-04-27 2021-02-09 Apple Inc. Standard and high dynamic range display systems and methods for high dynamic range displays
CN111083480B (zh) * 2019-12-10 2022-11-04 四川新视创伟超高清科技有限公司 一种基于cpu的8k超高清视频高速编码方法
CN113824914B (zh) * 2021-08-12 2022-06-28 荣耀终端有限公司 视频处理方法、装置、电子设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008118221A (ja) * 2006-10-31 2008-05-22 Toshiba Corp 復号装置及び復号方法
JP2014534719A (ja) * 2011-10-20 2014-12-18 ドルビー ラボラトリーズ ライセンシング コーポレイション ビデオ等化のための方法およびシステム
WO2015111467A1 (ja) * 2014-01-24 2015-07-30 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2015125719A1 (ja) * 2014-02-21 2015-08-27 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2016195450A (ja) * 2015-03-24 2016-11-17 ソニー株式会社 送信装置および送信方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
US8194997B2 (en) * 2006-03-24 2012-06-05 Sharp Laboratories Of America, Inc. Methods and systems for tone mapping messaging
AR091515A1 (es) 2012-06-29 2015-02-11 Sony Corp Dispositivo y metodo para el procesamiento de imagenes
JP6279220B2 (ja) 2013-03-15 2018-02-14 宮川化成工業株式会社 蒸気量測定装置
BR112015026979B1 (pt) * 2013-04-30 2023-04-11 Sony Corporation Dispositivos e métodos de transmissão e recepção
JP2015008361A (ja) * 2013-06-24 2015-01-15 ソニー株式会社 再生装置、再生方法、および記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008118221A (ja) * 2006-10-31 2008-05-22 Toshiba Corp 復号装置及び復号方法
JP2014534719A (ja) * 2011-10-20 2014-12-18 ドルビー ラボラトリーズ ライセンシング コーポレイション ビデオ等化のための方法およびシステム
WO2015111467A1 (ja) * 2014-01-24 2015-07-30 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2015125719A1 (ja) * 2014-02-21 2015-08-27 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2016195450A (ja) * 2015-03-24 2016-11-17 ソニー株式会社 送信装置および送信方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Digital Hoso ni Okeru Eizo Fugoka, Onsei Fugoka Oyobi Tajuka Hoshiki Hyojun Kikaku", ASSOCIATION OF RADIO INDUSTRIES AND BUSINESSES, 31 July 2014 (2014-07-31), pages 43 - 44 , 140 to 142 *
ARIB (ASSOCIATION OF RADIO INDUSTRIES AND BUSINESSES), STANDARD STD-B32 3.0, 31 July 2014 (2014-07-31)
RAJAN JOSHI ET AL.: "High Efficiency Video Coding (HEVC) Screen Content Coding: Draft 4", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT- VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 21ST MEETING, vol. 1, 26 June 2015 (2015-06-26), Warsaw, PL, pages 372 - 374, XP055368282 *
See also references of EP3386200A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11295422B2 (en) * 2018-08-07 2022-04-05 Canon Kabushiki Kaisha Image processing apparatus having image adjustment based on dynamic range, image processing method, and storage medium
WO2020040085A1 (ja) * 2018-08-24 2020-02-27 日本電信電話株式会社 映像送信装置及び映像送信方法
JP2020031391A (ja) * 2018-08-24 2020-02-27 日本電信電話株式会社 映像送信装置及び映像送信方法
JP7067367B2 (ja) 2018-08-24 2022-05-16 日本電信電話株式会社 映像送信装置及び映像送信方法
WO2022209032A1 (ja) * 2021-03-30 2022-10-06 日本電気株式会社 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法および映像システム

Also Published As

Publication number Publication date
KR102198120B1 (ko) 2021-01-04
US10645421B2 (en) 2020-05-05
KR20180077209A (ko) 2018-07-06
CA3138227A1 (en) 2017-06-08
BR112018010465B1 (pt) 2020-03-03
JP6132006B1 (ja) 2017-05-24
KR102242880B1 (ko) 2021-04-20
CA3006941C (en) 2020-05-05
EP3386200A1 (en) 2018-10-10
BR112018010465A8 (pt) 2019-02-26
CA3077470C (en) 2021-12-14
JP2017103622A (ja) 2017-06-08
CA3006941A1 (en) 2017-06-08
US20180352260A1 (en) 2018-12-06
CA3077470A1 (en) 2017-06-08
KR20210002124A (ko) 2021-01-06
EP3386200A4 (en) 2019-09-04
US10827201B2 (en) 2020-11-03
US20200221132A1 (en) 2020-07-09
CA3138227C (en) 2023-07-04
BR112018010465A2 (ja) 2018-08-28

Similar Documents

Publication Publication Date Title
WO2017094482A1 (ja) 映像符号化方法、映像符号化装置、映像復号方法、映像復号装置、及びプログラム、並びに映像システム
US10419756B2 (en) Image processing device and method
KR102435739B1 (ko) 인트라 예측 모드 스케일러블 코딩 방법 및 장치
US10104372B2 (en) Image processing apparatus and image processing method
US10271056B2 (en) Encoding apparatus, encoding method and program
CN114208175B (zh) 基于色度量化参数数据的图像解码方法及其设备
US20220337814A1 (en) Image encoding/decoding method and device using reference sample filtering, and method for transmitting bitstream
JP6241565B2 (ja) 映像符号化装置、映像システム、映像符号化方法、及び映像符号化プログラム
JP6677230B2 (ja) 映像符号化装置、映像復号装置、映像システム、映像符号化方法、及び映像符号化プログラム
US9264715B2 (en) Moving image encoding method, moving image encoding apparatus, and computer-readable medium
JP6241558B2 (ja) 映像符号化装置、映像システム、映像符号化方法、及び映像符号化プログラム
JP6489227B2 (ja) 映像符号化装置及び映像符号化方法
US20240205412A1 (en) Spatial illumination compensation on large areas
JP2017060174A (ja) 符号化装置、符号化方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16870421

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20187014826

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3006941

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112018010465

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112018010465

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20180523