WO2020039973A1 - 受信装置、受信方法、送信装置および送信方法 - Google Patents

受信装置、受信方法、送信装置および送信方法 Download PDF

Info

Publication number
WO2020039973A1
WO2020039973A1 PCT/JP2019/031540 JP2019031540W WO2020039973A1 WO 2020039973 A1 WO2020039973 A1 WO 2020039973A1 JP 2019031540 W JP2019031540 W JP 2019031540W WO 2020039973 A1 WO2020039973 A1 WO 2020039973A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
picture
base layer
layer
predetermined
Prior art date
Application number
PCT/JP2019/031540
Other languages
English (en)
French (fr)
Inventor
塚越 郁夫
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP19851658.5A priority Critical patent/EP3843417A4/en
Publication of WO2020039973A1 publication Critical patent/WO2020039973A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities

Definitions

  • the present technology relates to a receiving apparatus, a receiving method, a transmitting apparatus, and a transmitting method, and more particularly, to a receiving apparatus, a receiving method, a transmitting apparatus, and a transmitting method that handle mixed image data.
  • the present applicant has previously proposed a technique of performing pixel mixing between a picture in a reference frame period and pictures before and after the picture (see Japanese Patent Application Laid-Open No. H10-157300). 1). In this case, even if time sub-sampling is performed in the conventional receiver, moving elements are reflected in the time samples to be partially decoded, so that deterioration in moving image quality due to strobing is reduced.
  • the purpose of the present technology is to obtain a stable moving image on the receiving side.
  • a receiving unit that receives image data of each picture of the base layer and image data of each picture of the enhancement layer,
  • the image data of each picture of the base layer is such that, within a predetermined window range, image data of one picture is added to image data of one picture in units of two pictures that are temporally continuous in image data of a predetermined frame rate.
  • the receiving device further comprises:
  • the receiving unit receives the image data of each picture of the base layer and the image data of each picture of the enhancement layer.
  • the image data of each picture of the base layer is such that, within a predetermined window range, the image data of one picture is replaced by the image data of one picture in units of two pictures that are temporally continuous in the image data of a predetermined frame rate. It is obtained by mixing data, and outside the predetermined window range, is obtained by extracting image data of the one picture in units of the two temporally consecutive pictures.
  • the image data of each picture of the enhancement layer is obtained by extracting the image data of the other picture in units of two temporally consecutive pictures.
  • the predetermined window range is an image range including a motion portion equal to or greater than a threshold extracted based on image data of each picture corresponding to image data of each picture of the base layer among image data of a predetermined frame rate. It may be done as follows. Further, for example, the predetermined frame rate may be 120 Hz.
  • the processing unit obtains display image data by using only the image data of each picture of the base layer or both the image data of each picture of the base layer and the image data of each picture of the enhancement layer according to the display capability. .
  • the processing unit obtains display image data using both the image data of each picture of the base layer and the image data of each picture of the enhancement layer, the image data of each picture of the base layer is within a predetermined window range. To perform the reverse mixing process.
  • At least the image data of each picture of the basic layer includes information of the blending process, and the processing unit adds the image data of each picture of the basic layer within the window range based on the information of the blending process.
  • a reverse mixing process may be performed.
  • the information of the mixing process may include position information of a predetermined window.
  • the information on the mixing process may further include information on the mixing ratio in a predetermined window.
  • the image data of each picture of the base layer and the image data of each picture of the enhancement layer that are subjected to the mixing process only within the predetermined window range are received, and the base layer , Display image data is obtained using only the image data of each picture of the base layer, or both the image data of each picture of the base layer and the image data of each picture of the enhancement layer. Therefore, for example, in the layer of the basic frame frequency, it is possible to avoid the strobing deterioration in a predetermined window range, and to avoid double display of what should be clearly displayed in other ranges.
  • a processing unit that processes image data of a predetermined frame rate to obtain image data of each picture of the base layer and obtains image data of each picture of the enhancement layer
  • the image data of each picture of the base layer is one of two temporally consecutive picture units in the image data of the predetermined frame rate within a predetermined window range which is an image range including a motion portion equal to or more than a threshold value.
  • the image data of a picture is obtained by mixing the image data of a picture with the image data of the other picture. Outside the predetermined window range, the image data of the one picture is divided into two temporally continuous picture units.
  • the image data of each picture of the enhancement layer is obtained by extracting image data of the other picture in units of the two temporally consecutive pictures
  • the transmission device further includes a transmission unit that transmits image data of each picture of the base layer and image data of each picture of the enhancement layer.
  • image data of a predetermined frame rate is processed to obtain image data of each picture of the base layer and image data of each picture of the enhancement layer.
  • the image data of each picture of the base layer is, in a predetermined window range which is an image range including a motion portion equal to or larger than a threshold value, in units of two temporally consecutive pictures in the image data of the predetermined frame rate.
  • the image data of one picture is obtained by mixing the image data of one picture with the image data of the other picture. Outside the predetermined window range, the image of the one picture is divided into two temporally continuous picture units. It is obtained by extracting data.
  • the image data of each picture of the enhancement layer is obtained by extracting the image data of the other picture in units of two temporally consecutive pictures. Then, the transmission unit transmits the image data of each picture of the base layer and the image data of each picture of the enhancement layer.
  • a receiving unit that receives image data of a predetermined frame rate
  • a processing unit that processes the image data of the predetermined frame rate to obtain image data of each picture of the base layer
  • the image data of each picture of the base layer is one of two temporally consecutive picture units in the image data of the predetermined frame rate within a predetermined window range which is an image range including a motion portion equal to or more than a threshold value.
  • the image data of a picture is obtained by mixing the image data of a picture with the image data of the other picture. Outside the predetermined window range, the image data of the one picture is divided into two temporally continuous picture units. It is in the receiving device that is obtained by taking out.
  • the receiving unit receives image data at a predetermined frame rate. Then, the image data of the predetermined frame rate is processed, and the image data of each picture of the base layer is obtained.
  • the image data of each picture of the base layer is one of two temporally consecutive picture units in image data of a predetermined frame rate within a predetermined window range which is an image range including a motion portion equal to or more than a threshold value. Is obtained by mixing image data of the other picture with image data of the other picture, and outside the predetermined window range, the image data of the one picture is divided into two temporally continuous picture units. It was obtained by taking it out.
  • image data of each picture of the base layer that has been subjected to the mixing process only within a predetermined window range that is an image range including a moving portion equal to or greater than a threshold value can be obtained. Therefore, in the layer of the basic frame frequency, it is possible to avoid the strobing deterioration in a predetermined window range, and to avoid double display of what should be clearly displayed in other ranges.
  • a transmission unit that transmits image data of each picture of the base layer to an external device may be further provided.
  • the external device in the layer of the basic frame frequency, it is possible to avoid the strobing deterioration in a predetermined window range, and to avoid double display of what should be clearly displayed in other ranges.
  • FIG. 1 is a block diagram illustrating a configuration example of a transmission / reception system as an embodiment. It is a figure which shows an example of the image data of the 60 Hz basic layer obtained by performing the mixing process on the image data of the frame frequency of 120 Hz, and the image data of the +60 Hz enhancement layer. It is a figure which shows the outline
  • FIG. 3 is a block diagram illustrating a configuration example of a preprocessor of the transmission device.
  • FIG. 3 is a block diagram illustrating a configuration example of a window processing unit.
  • FIG. 10 is a diagram illustrating an example of an image change between an Nth and (N + 2) th picture pairs.
  • FIG. 11 is a diagram illustrating an example of generation of a grouping candidate and a window.
  • FIG. 9 is a diagram for describing an example of a procedure for generating a window in a window generating unit.
  • FIG. 4 is a diagram illustrating an example of a table for setting a mixing ratio in a mixing ratio setting unit.
  • 11 is a flowchart illustrating an example of a procedure of processing for acquiring a window and a mixture ratio in the window, which is performed for each picture in a window processing unit. It is a flowchart which shows an example of the procedure of the process for obtaining a grouping candidate. It is a figure showing the example of composition of a blending window information SEI message.
  • FIG. 3 is a block diagram illustrating a configuration example of a post processor.
  • FIG. 3 is a block diagram illustrating a configuration example of a transmission device.
  • FIG. 29 is a diagram illustrating a configuration example of a transport stream TS in a case where mixed processing information is added to only a 60-Hz hierarchical picture.
  • Fig. 24 is a diagram illustrating a configuration example of a transport stream TS in a case where mixed processing information is added to only all pictures. It is a block diagram which shows the example of a structure of the television receiver which has the decoding capability which can process the image data of a 120Hz frame frequency.
  • FIG. 7 is a diagram illustrating an outline of processing of a transmission device, an interface box, and an image display device.
  • FIG. 3 is a block diagram illustrating a configuration example of a processor.
  • FIG. 1 shows a configuration example of a transmission / reception system 10 as an embodiment.
  • the transmission / reception system 10 includes a transmission device 100 and a television receiver 200.
  • the transmission device 100 transmits the transport stream TS as a container on a broadcast wave.
  • This transport stream TS forms a container as a multiplexed stream.
  • the transport stream TS includes a coded stream (basic stream) of a base layer (Base @ layer) obtained from a high frame rate which is a predetermined frame rate, in this embodiment, 120 Hz image data (moving image data). And an encoded stream (enhanced stream) of an enhanced layer (Enhanced layer).
  • the basic stream and the extension stream have a NAL (Network Abstraction Layer) unit structure.
  • the basic stream includes, as an access unit, encoded image data obtained by encoding image data of each picture of the basic layer.
  • the extension stream includes, as an access unit, encoded image data obtained by encoding the image data of each picture of the enhancement layer.
  • the image data of each picture of the base layer is divided into the image data of one picture by the unit of two temporally continuous picture data of the frame data of 120 Hz within a predetermined window range. It is obtained by mixing image data, and is obtained by extracting image data of one picture in units of two temporally consecutive pictures outside a predetermined window range.
  • the predetermined window range is an image range including a motion portion equal to or greater than a threshold extracted based on image data of each picture corresponding to image data of each picture of the base layer among image data of a frame frequency of 120 Hz.
  • the frame rate of the image data of each picture of the base layer is 60 Hz.
  • the image data of each picture of the enhancement layer is obtained by extracting the image data of the other picture in units of two temporally consecutive pictures.
  • the frame rate of the image data of each picture of the enhancement layer is 60 Hz.
  • FIGS. 2A and 2B show an example of 60 Hz base layer image data and +60 Hz enhancement layer image data obtained by performing a mixing process on image data having a frame frequency of 120 Hz.
  • a picture pair (Picture-pair) is constituted by one picture (frame) constituting the image data of the base layer and one picture (frame) of the image data of the enhancement layer adjacent thereto.
  • the image data of the picture of the enhancement layer which is the first picture
  • the image data of the picture of the base layer that follows is not mixed.
  • the image data of the picture of the immediately preceding enhancement layer is mixed (mixed state) within a predetermined window range.
  • the image data of the picture of the base layer which is the first picture
  • the image data of the picture of the next enhancement layer within a predetermined window range (Mixed state)
  • the image data of the picture of the enhancement layer following it is not mixed (non-mixed state).
  • the information of the mixing process is added to the image data of each picture of the 60 Hz basic layer.
  • information on the mixing process includes information on a predetermined window range, information on a mixing ratio in the mixing process, one picture (picture of the enhancement layer) and the other picture (picture of the enhancement layer) in a unit of two consecutive pictures. And information indicating a temporal relative positional relationship with the base layer picture).
  • the receiving side can easily and appropriately perform the reverse mixing process (mixing release process) on the 60 Hz base layer image data based on the information of the mixing process.
  • the television receiver 200 receives the above-described transport stream TS transmitted from the transmitting device 100 on a broadcast wave.
  • the receiving apparatus 200 has a decoding capability capable of processing image data at a normal frame rate (60 Hz)
  • the receiving apparatus 200 processes only the basic stream included in the transport stream TS to obtain image data at the normal frame rate, Play it.
  • the television receiver 200 performs the in-layer predictive decoding process on the basic stream of the basic layer to obtain image data of each frame at the normal frame rate.
  • the television receiver 200 has a decoding capability capable of processing image data of a high frame rate (120 Hz)
  • the television receiver 200 processes both the basic stream and the extension stream included in the transport stream TS, and Obtain image data and reproduce the image.
  • the inverse mixing process is performed on the image data of each picture of the base layer within a predetermined window range.
  • FIG. 3 shows an outline of processing performed by the transmitting device 100 and the television receiver 200 (200A, 200B).
  • the image sequences R (N) and R (N + 1) output from the preprocessor 102 of the transmission device 100 and the image sequences R (N) and R (N + 1) output from the decoders 204A and 204B of the television receivers 200A and 200B are as follows. Although they are the same in chronological order, they include cases where the image quality differs between the two because they pass through the codec.
  • the preprocessor 102 processes the image data P having a frame frequency of 120 Hz, and processes the image data R (N) of each picture of the base layer (60 Hz layer) and the picture data R (N) of the enhancement layer (120 Hz layer). Image data R (N + 1) is obtained.
  • the image data R (N) of each picture of the base layer is one of two temporally continuous picture units in the image data P within a window range which is an image range including a motion portion equal to or more than a threshold value. It is obtained by mixing the image data of a picture with the image data of the other picture. Outside the predetermined window range, the image data of one picture is extracted and obtained in units of two temporally consecutive pictures.
  • the image data R (N + 1) of each picture of the enhancement layer is obtained by extracting the image data of the other picture in units of two temporally consecutive pictures.
  • FIG. 4 shows a configuration example of the preprocessor 102.
  • the preprocessor 102 has a time axis dividing unit 121, a window processing unit 122, and a mixing processing unit 123.
  • the time axis division unit 121 receives image data P having a frame frequency of 120 Hz and divides the image data into image data of each picture of a base layer (60 Hz layer) and image data of each picture of an enhancement layer (120 Hz layer).
  • the image data of each picture of the enhancement layer (120 Hz hierarchy) becomes the image data R (N + 1) of each picture of the enhancement layer from the preprocessor 102 as it is.
  • the window processing unit 122 inputs image data of each picture of the basic layer (60 Hz layer). Further, a threshold value of the number of moving pixels is given to the window processing unit 122 from a control unit (not shown). The window processing unit 122, for each picture, based on the image data of each picture of the base layer (60 Hz layer), The ratio is obtained and the information is sent to the control unit.
  • FIG. 5 shows a configuration example of the window processing unit 122.
  • the window processing unit 122 includes a bidirectional motion prediction unit 131, a speed determination unit 132, a window generation unit 133, and a mixture ratio setting unit 134.
  • the bidirectional motion prediction unit 131 inputs image data of each picture of the base layer (60 Hz layer).
  • the bidirectional motion prediction unit 131 sets itself as the Nth picture for each picture, and sets the motion vector MV between the Nth and (N + 2) th picture pairs in pixel block units such as 4 ⁇ 4 or 8 ⁇ 8. Find (i, j) in both directions.
  • the method of obtaining the motion vector MV (i, j) can be performed by, for example, a conventionally known block matching method.
  • FIG. 6 shows an example of an image change between the Nth and (N + 2) th picture pairs.
  • each square indicates a pixel block.
  • FIG. 6A shows the image of the Nth picture
  • FIG. 6B shows the (N + 2) th image
  • FIG. 6C shows the Nth and (N + 2) th combined images.
  • the broken line corresponds to the image of the N-th picture.
  • the N-th and (N + 2) -th images are at least partially deviated.
  • the speed determination unit 132 inputs the motion vector MV (i, j) of each pixel block obtained by the bidirectional motion prediction unit 131. Further, the speed determination unit 132 is provided with a threshold value of the number of moving pixels from a control unit (not shown). The speed determination unit 132 compares the motion vector MV (i, j) of each pixel block with the threshold value of the number of moving pixels, and sets a pixel block corresponding to the motion vector MV (i, j) equal to or larger than the threshold value as a grouping candidate.
  • the moving pixel number threshold T will be described. It is assumed that the movement of the object is considered only in the horizontal direction, and that the object W moves from left to right or right to left in one second for the entire screen W (the number of pixels in the horizontal direction). Such movements are relatively fast movements, and strobing shall be perceived if there is movement at a rate beyond that.
  • the moving pixel number threshold T described here is merely an example, and is not limited to this.
  • the window generator 133 inputs the position information of the pixel block of each grouping candidate obtained by the speed determiner 132.
  • the window generating unit 133 performs horizontal and vertical combining processing on each grouping candidate to perform grouping, and sets a rectangular area including a predetermined number of grouping candidates grouped into one as a window. Output location information for.
  • FIG. 7 illustrates an example of generation of a grouping candidate and a window when the image of the Nth picture is illustrated in FIG. 6A and the image of the (N + 2) th picture is illustrated in FIG. ing.
  • Pixel blocks indicated by hatching are grouping candidates, and broken-line rectangular frames indicate windows (mixed windows).
  • three windows, ie, window 1 (Window # 1), window 2 (Window # 2), and window 3 (Window # 3) are generated.
  • each square indicates a pixel block, a pixel block to which “1” is added is a grouping candidate BLK, and a pixel block to which “0” is added is not a grouping candidate.
  • a window is generated by grouping by following each connection state. As shown in FIG. 8B, (0,4), (0,5), (0,6) combination, (0,6), (1,6) combination, (1,6), From the combination of (1,7), the combination of (1,6) and (2,6), and the combination of (1,7) and (2,7), grouping indicated by a broken line can be performed. Then, a rectangular area including each grouped candidate is set as a window 1 (Window # 1) as shown in FIG. 8C. The top left (Top-left) in the rectangular area of the window 1 is (0, 4), and the bottom right (Bottom-right) is (2, 7).
  • the combination of (1,0) and (2,0), the combination of (1,3) and (2,3), and the combination of (2,0) and (2,0) 1), (2, 2) and (2, 3) can be grouped as indicated by a chain line.
  • a rectangular area including each grouped candidate is set as a window 2 (Window # 2) as shown in FIG. 8C.
  • the top left (Top-left) in the rectangular area of the window 2 is (1, 0), and the bottom right (Bottom-right) is (2, 3).
  • the mixture ratio setting unit 134 calculates the mixture ratio in each window generated as described above, and outputs the mixture ratio information of the window.
  • the position information of each window is given to the mixture ratio setting unit 134 from the window generation unit 133.
  • the mixture ratio setting unit 134 is supplied with image data of each picture of the base layer (60 Hz layer).
  • the moving ratio MV (i, j) of each pixel block is given to the mixture ratio setting unit 134 from the speed determination unit 132.
  • the mixture ratio setting unit 134 calculates a mixture ratio for each window based on information on the amount of movement and contrast of the moving object in that window. By calculating the mixing ratio in this manner, mixing at an appropriate level can be performed without performing unnecessary strong mixing.
  • the discontinuity of motion that is, the degree of perception of strobing varies depending on the amount of motion of the moving object and the degree of conspicuousness with respect to the background.
  • the motion amount of the motion object in the window can be obtained by using the value of the motion vector MV (i, j) of each pixel block included in the window from the speed determination unit 132.
  • the degree of perception of strobing is considered to be small.
  • the perception of strobing is considered to be large. It is conceivable to control the mixture ratio by classifying the amount of movement of the moving object into, for example, three levels of large, medium, and small according to the number of pixels moved between frames or the average value in units of seconds.
  • the visibility of the moving object with respect to the background can be determined by checking the magnitude of the contrast in the window of the input 60-Hz hierarchical image data. For example, as shown in the following equation (4), the variance S of the luminance value is obtained for each pixel in the window.
  • xi is the pixel luminance value
  • is the average pixel value
  • the variance S is obtained by dividing the sum of absolute differences between the pixel luminance value and the pixel average value by the number of pixels. If the variance S is large, it can be determined that the contrast is large, and if the variance S is small, it can be determined that the contrast is small. When the contrast is large, it is considered that the distinction between the moving object and the background is visually noticeable. Conversely, when the contrast is low, it is considered that the distinction between the moving object and the background is hardly noticeable. It is conceivable to control the mixture ratio by classifying the contrast level into, for example, three levels of large, medium, and small according to the variance S.
  • the mixture ratio is set to a relatively high coefficient. Conversely, when the motion amount is relatively small and the contrast is small, it is assumed that the strobing is not so conspicuous, and the mixture ratio is set to a weaker coefficient.
  • FIG. 9 shows an example of a table for setting the mixture ratio in the mixture ratio setting section 134.
  • the mixture ratio is set to “1 (weak)”.
  • the mixture ratio is set to “3 (medium)”.
  • the mixture ratio is set to “5 (strong)”.
  • the mixture ratio is “1 (weak)”, for example, a 4: 1 mixture is performed between the image data of the 60 Hz layer and the image data of the 120 Hz layer.
  • the mixture ratio is “5 (strong)”, for example, 1: 1 mixing is performed between the image data of the 60 Hz layer and the image data of the 120 Hz layer.
  • the mixture ratio between them is “2 (relatively weak)”, “3 (medium)”, or “4 (relatively strong)”
  • the image data of the 60 Hz layer and the image data of the 120 Hz layer are The mixing is performed at a ratio between 4: 1 and 1: 1.
  • the texture may be duplicated by mixing, so in such a case, the mixing ratio is set to a coefficient that is not so strong.
  • An example of the setting of the mixture ratio in that case is shown with "#" in FIG.
  • whether or not the texture is thin is determined to be thin if the distance between the edges is extremely short in the edge detection image obtained by the two-dimensional differential filter. Conversely, if the distance between the edges is a certain distance, it can be considered that there is a thick object between the edges.
  • basic examples of the two-dimensional differential filter include a Laplacian filter and a Sobel operator.
  • FIG. 10 illustrates an example of a procedure of processing for acquiring a window and a mixture ratio in the window, which is performed for each picture in the window processing unit 122 illustrated in FIG. 5.
  • step ST1 the window processing unit 122 starts processing.
  • step ST2 the window processing unit 122 causes the bidirectional motion prediction unit 131 to switch from the Nth picture to the (N + 2) th picture between the picture pair (the Nth picture and the (N + 2) th picture).
  • the motion vector (MV) calculation is performed on the picture in units of pixel blocks, and the speed determination unit 132 compares the motion vector MV (i, j) of each pixel block with the threshold value of the number of moving pixels, and The pixel block of the (N + 2) th picture corresponding to the motion vector MV (i, j) is obtained as a forward window grouping candidate.
  • the window processing unit 122 causes the bidirectional motion prediction unit 131 to switch between the (N + 2) th picture and the Nth picture between the picture pair (the Nth picture and the (N + 2) th picture).
  • the motion vector (MV) calculation is performed on the picture in units of pixel blocks, and the speed determination unit 132 compares the motion vector MV (i, j) of each pixel block with the threshold value of the number of moving pixels, and A pixel block of the N-th picture corresponding to the motion vector MV (i, j) is obtained as a backward window grouping candidate.
  • step ST4 the window processing unit 122 performs the horizontal and vertical combining processes on the grouping candidates obtained in steps ST2 and ST3 in the window generation unit 133, and the window processing unit 122 groups each of them into one.
  • a rectangular area including the predetermined number of grouping candidates is used as a window, and its position information is output.
  • step ST5 the window processing unit 122 calculates, for each window, information on the amount of movement M and the contrast C of the moving object in the window by the mixture ratio setting unit 134, and based on the information, for example, the mixture ratio
  • the mixing ratio is set with reference to the setting table (see FIG. 9), and the mixing ratio information is output.
  • the window processing unit 122 ends the process in step ST6.
  • FIG. 11 illustrates an example of the procedure of a process for obtaining a grouping candidate in step ST2 in FIG. This flowchart shows processing for one pixel block, and this processing is actually performed for all pixel blocks.
  • step ST11 the window processing unit 122 starts processing in the bidirectional motion prediction unit 131.
  • step ST12 the window processing unit 122 converts the Nth picture to the (N + 2) th picture between the picture pair (the Nth picture and the (N + 2) th picture).
  • the motion vector MV (i, j) for the target pixel block in the picture is obtained.
  • step ST13 the window processing unit 122 uses the speed determination unit 132 to determine whether the motion vector MV (i, j) of the target pixel block is equal to or greater than the threshold value of the number of moving pixels. If it is equal to or greater than the threshold value, the window processing unit 122 determines in step ST14 that the speed determination unit 132 classifies the pixel block of the (N + 2) th picture corresponding to the motion vector MV (i, j) in the forward window grouping. It is determined as a candidate, and then, in step ST15, the process ends. On the other hand, when it is not equal to or larger than the threshold in step ST13, the window processing unit 122 immediately ends the process in step ST15.
  • step ST3 of FIG. 10 the procedure of the process for obtaining the grouping candidates in step ST3 of FIG. 10 is also performed in the same manner as that shown in the flowchart of FIG.
  • the mixture ratio in each window is calculated based on the information on the amount of movement and the information on the contrast of the moving object in that window, but based on either the information on the amount of motion or the information on the contrast alone. It is also conceivable to calculate the mixture ratio.
  • the mixing processing unit 123 inputs the image data of each picture of the base layer (60 Hz layer) and the image data of each picture of the enhancement layer (120 Hz layer) obtained by the time axis division unit 121.
  • a mixing parameter (including information on a mixing process such as information on the position of each window, a mixing ratio, and information on a mixing target image) is supplied to the mixing processing unit 123 from a control unit (not shown).
  • the mixing processing unit 123 appropriately mixes the image data of the enhancement layer with the image data of the base layer for each picture pair to generate image data R (N) of each picture of the base layer. Output.
  • the mixing processing unit 123 mixes the image data of the base layer (60 Hz layer) and the image data of the enhancement layer (120 Hz layer) at a mixing ratio of the window, and mixes the image data of the base layer.
  • R (N) Further, outside the window range, the mixing processing unit 123 uses the image data of the base layer (60 Hz hierarchy) as the image data R (N) of the base layer as it is.
  • the encoder 103 adds, for example, HEVC (High Efficiency Video Coding) to the image data R (N) of each picture of the base layer and the image data R (N + 1) of each picture of the enhancement layer. Is performed to obtain a basic stream STb and an extension stream STe.
  • HEVC High Efficiency Video Coding
  • the basic stream STb includes coded image data of the image data R (N) of each picture of the basic layer (60 Hz layer).
  • the extension stream STe includes encoded image data of the image data R (N + 1) of each picture of the enhancement layer (120 Hz layer).
  • the encoder 103 adds at least image data of each picture of the base layer (60 Hz layer) to a mixing parameter (information of a position of each window, a mixing ratio, information of a mixing target image, and the like). (Including information).
  • a mixing parameter information of a position of each window, a mixing ratio, information of a mixing target image, and the like.
  • a newly defined blending window information SEI message (Blending__window_information @ SEI @ message) is inserted into the "SEIs" portion of the access unit (AU).
  • FIG. 12 shows an example of the structure (Syntax) of the blending window information / SEI message
  • FIG. 13 shows the contents (Semantics) of main information in the example of the structure.
  • the “blending_window_information_id” field is identification information indicating that the message is a blending window information / SEI message.
  • the “number_of_blending_windows” field indicates the number of mixed windows.
  • the “current_picture_position” field indicates the temporal position of the current picture in the two pictures that contribute to the mixing process. For example, “1” indicates that the temporal order of the two pictures is earlier, and “0” indicates that the temporal order of the two pictures is later.
  • the “blend_flag” field indicates whether or not the picture is mixed. For example, “1” indicates that they are mixed, and “0” indicates that they are not mixed.
  • the “window_start_position_horizontal” field indicates the horizontal pixel position at the start position of the window as a pixel unit offset from the top left of the image.
  • the “window_start_position_vertical” field indicates the vertical pixel position at the start position of the window as a pixel unit offset from the top left of the image.
  • the “window_end_position_horizontal” field indicates the horizontal pixel position at the end position of the window as a pixel unit offset from the top left of the image.
  • the “window_end_position_vertical” field indicates the vertical pixel position at the end position of the window as a pixel unit offset from the top left of the image.
  • the “blend_coefficient_A” field indicates the numerator of the coefficient of the mixing operation.
  • the field of “blend_coefficient_B” indicates a denominator of the coefficient of the mixing operation.
  • the decoder 204A performs a decoding process on the two streams STb and STe to obtain a base layer (60 Hz).
  • the image data R (N) of each picture of the layer (hierarchy) and the image data R (N + 1) of each picture of the enhancement layer (hierarchy of 120 Hz) are obtained.
  • the image data R (N) and R (N + 1) are processed in the post-processor 205A, and the image data having a frame frequency of 120 Hz similar to the image data P having a frame frequency of 120 Hz on the transmission side. P is obtained.
  • the post-processor 205A based on the mixing parameters (including the position of each window, the information of the mixing ratio, and the information of the mixing process such as the information of the image to be mixed) provided from the control unit, the base layer (60 Hz hierarchical layer) is used. ), The inverse mixing process (mixing release process) using the image data R (N + 1) of each picture of the enhancement layer (120 Hz layer) within the window range where the mixing process is performed. ) Is performed.
  • FIG. 14 shows a configuration example of the post processor 205A.
  • the post processor 205A has an inverse mixing processing unit 251 and a time axis synthesizing unit 252.
  • the demixing processing unit 251 inputs image data of each picture of the base layer (60 Hz layer) and image data of each picture of the enhancement layer (120 Hz layer). Further, a mixing parameter is supplied to the back mixing processing unit 251 from a control unit (not shown).
  • the inverse-mixing processing unit 251 appropriately performs an inverse-mixing process using the image data of the enhancement layer on the image data of the basic layer for each picture pair, and performs image data R ′ (N) of each picture of the basic layer. Is generated and supplied to the time axis synthesizing unit 252. In this case, since the image data R (N) is subjected to the mixing process within the window range, the inverse mixing processing unit 251 determines the window position of R (N) with respect to the image data R (N). Is subjected to an inverse mixing process based on the mixing ratio of the window using the image data of the enhancement layer (120 Hz hierarchy) corresponding to, and is output as image data R ′ (N). In addition, since the image data R (N) is not subjected to the mixing process outside the window range, the inverse mixing processing unit 251 outputs the image data R (N) as it is as the image data R ′ (N). .
  • the time axis synthesizing unit 252 synthesizes the image data R ′ (N) of each picture of the base layer obtained by the demixing processing unit 251 and the image data R (N + 1) of each picture of the enhancement layer, and Image data P having a frame frequency of 120 Hz, which is an output of 205A, is obtained.
  • the image data P having a frame frequency of 120 Hz obtained by the post-processor 205A is subjected to frame interpolation as it is or by a frame interpolation (Motion Compensated Frame Insertion) unit 206A to reduce the frame rate. It becomes image data for display after being enhanced.
  • frame interpolation Motion Compensated Frame Insertion
  • the decoder 204B performs a decoding process on the stream STb to obtain image data of each picture of the base layer (60 Hz layer). Image data having a frame frequency of 60 Hz including R (N) is obtained.
  • the image data of the frame frequency of 60 Hz is used as it is, or the frame rate is increased by the MCFI unit 206B to increase the frame rate, and becomes the display image data.
  • FIG. 15 illustrates a configuration example of the transmission device 100.
  • the transmission device 100 includes a control unit 101, a preprocessor 102, an encoder 103, a multiplexer 104, and a transmission unit 105.
  • the control unit 101 controls the operation of each unit of the transmission device 100.
  • the preprocessor 102 processes the image data P having a frame frequency of 120 Hz, and obtains image data R (N) of each picture of the base layer (60 Hz layer) and image data R (N + 1) of each picture of the enhancement layer (120 Hz layer). ) (See FIG. 4).
  • the image data R (N + 1) of the picture of the enhancement layer constituting the picture pair is within the window range which is the image range including the motion portion equal to or larger than the threshold value. Used to perform a mixing process.
  • the mixture ratio is set for each window based on information on the amount of movement and contrast of the moving object in that window (see FIGS. 5 and 9).
  • the encoder 103 performs, for example, HEVC encoding on the image data R (N) of each picture of the base layer and the image data R (N + 1) of each picture of the enhancement layer output from the preprocessor 102, and outputs a base stream STb, An extension stream STe is obtained.
  • the coded image data of the image data R (N) of each picture of the base layer (60 Hz layer) is included in the base stream STb.
  • the extension stream STe includes encoded image data of the image data R (N + 1) of each picture of the enhancement layer (120 Hz layer).
  • the encoder 103 includes at least image parameter data of each picture of the base layer (60 Hz hierarchy) with a mixing parameter (including information on a position of each window, a mixing ratio, and information on a mixing process such as information on a mixing target image). Add. Specifically, a newly defined blending window information SEI message (see FIG. 12) is inserted into the “SEIs” portion of the access unit (AU) of each picture.
  • the multiplexer 104 converts the basic stream STb and the extension stream STe generated by the encoder 103 into PES (Packetized Elementary Stream) packets, and further converts the packets into transport packets to obtain a transport stream TS as a multiplexed stream.
  • Transmitting section 105 modulates transport stream TS by a modulation method suitable for broadcasting such as QPSK / OFDM, and transmits an RF modulated signal from a transmitting antenna.
  • FIG. 16 shows a configuration example of the transport stream TS.
  • This example shows a configuration example in a case where the mixed processing information is attached only to the picture of the 60 Hz layer.
  • the transport stream TS includes two streams (substreams) of a basic stream (base stream) STb and an extension stream (enhancement stream) STe.
  • the transport stream TS includes PMT (Program Map Table) as one of PSI (Program Specific Information).
  • PSI Program Specific Information
  • PMT has a program loop (Program $ loop) that describes information related to the entire program. Further, the PMT has a video elementary stream loop having information related to each video stream. In this configuration example, there is a video elementary stream loop "video @ ES1 @ loop” corresponding to the basic stream STb, and a video elementary stream loop "video @ ES2 @ loop” corresponding to the extension stream STe.
  • the stream type is set to “0x24” indicating a basic stream.
  • the “video @ ES2 ⁇ loop” information such as a stream type and a packet identifier (PID) is arranged corresponding to the extension stream STe (video @ PES2), and a descriptor describing information related to the video stream. Is also arranged.
  • the stream type is set to “0x25” indicating an extension stream.
  • FIG. 17 shows another configuration example of the transport stream TS.
  • This example shows a configuration example in which mixed processing information is added to all pictures.
  • a blending information / SEI message is included in the coded image data of each picture of the 60 Hz layer contained in the PES packet “video @ PES1” and the coded image data of each picture of the 120 Hz layer contained in the PES packet “video @ PES2”. (See FIG. 12).
  • Other configurations are the same as those of the configuration example of the transport stream TS illustrated in FIG. 16, and a detailed description thereof will not be repeated.
  • Image data P having a frame frequency of 120 Hz is input to the preprocessor 102 (see FIG. 4).
  • the preprocessor 102 processes the image data P having a frame frequency of 120 Hz, and obtains image data R (N) of each picture of the base layer (60 Hz layer) and image data R (N) of each picture of the enhancement layer (120 Hz layer). N + 1) is obtained.
  • the image data R (N + 1) of the picture of the enhancement layer constituting the picture pair is within the window range which is the image range including the motion portion equal to or larger than the threshold value. Used to perform a mixing process.
  • the image data R (N) of each picture of the base layer and the image data R (N + 1) of each picture of the enhancement layer obtained by the preprocessor 102 are supplied to the encoder 103.
  • encoding processing by, for example, HEVC is performed on each of the image data R (N) and R (N + 1), and a basic stream STb and an extension stream STe are obtained.
  • the encoder 103 adds mixing parameters (information on the position of each window, the mixing ratio, and information on the image to be mixed, etc.) to the coded image data of each picture of the 60 Hz hierarchical image data on which the mixing process has been performed. (Including information on the mixing process). Specifically, a newly defined blending window information SEI message (see FIG. 12) is inserted into the “SEIs” portion of the access unit (AU) of each picture.
  • the basic stream STb and the extension stream STe generated by the encoder 103 are supplied to the multiplexer 104.
  • each stream is converted into a PES packet, further converted into a transport packet, and multiplexed, to obtain a transport stream TS as a multiplexed stream.
  • the transport stream TS generated by the multiplexer 104 is sent to the transmitting unit 105.
  • the transport stream TS is modulated by a modulation method suitable for broadcasting, such as QPSK / OFDM, and the RF modulated signal is transmitted from a transmission antenna.
  • FIG. 18 shows a configuration example of a television receiver 200A having a decoding capability capable of processing image data having a frame frequency of 120 Hz.
  • the television receiver 200A includes a control unit 201A, a receiving unit 202A, a demultiplexer 203A, a decoder 204A, a post processor 205A, an MCFI unit 206A, and a panel display unit 207A.
  • the control unit 201A controls the operation of each unit of the television receiver 200A.
  • the receiving unit 202A demodulates the RF modulation signal received by the receiving antenna, and acquires the transport stream TS.
  • the demultiplexer 203A extracts the basic stream STb and the extension stream STe from the transport stream TS by PID filtering, and supplies the extracted streams to the decoder 204A.
  • the decoder 204 performs a decoding process on the streams STb and STe, and converts the image data R (N) of each picture of the base layer (60 Hz layer) and the image data R (N + 1) of each picture of the enhancement layer (120 Hz layer). obtain.
  • the image data R (N + 1) of the picture of the enhancement layer constituting the picture pair is within the window range which is the image range including the motion portion equal to or larger than the threshold value. Used and subjected to a mixing process.
  • the decoder 204A extracts the parameter set and SEI inserted in each access unit constituting the streams STb and STe, and sends them to the control unit 201A.
  • a blending window information / SEI message (see FIG. 12) having a blending parameter (including information on blending processing such as information on the position of each window, blending ratio, and information on a blending target image) is also extracted.
  • the control unit 201A controls the backmixing process (mixing release process) for the 60 Hz hierarchical image data in the post-processor 205A based on the mixing parameter.
  • the post processor 205A processes the image data R (N) and R (N + 1) obtained by the decoder 204A to obtain image data P having a frame frequency of 120 Hz similar to image data P having a frame frequency of 120 Hz on the transmission side. (See FIG. 14).
  • the post-processor 205A sets the picture data R (N) of each picture of the base layer (60 Hz layer) within the window range where the mixing process is performed, based on the mixing parameters given from the control unit 201A.
  • An inverse mixing process (mixing release process) is performed using the image data R (N + 1) of the picture of the enhancement layer (120 Hz layer) forming the pair.
  • the MCFI unit 206A performs a motion compensation frame interpolation process on the image data P having a frame frequency of 120 Hz obtained by the post processor 205A to obtain image data with a further increased frame rate. In some cases, the MCFI unit 206A is not provided.
  • the panel display unit 207A displays an image using 240 Hz image data obtained by the post processor 205 or image data whose frame rate has been increased by the MCFI unit 206A.
  • the RF modulation signal received by the receiving antenna is demodulated, and a transport stream TS is obtained.
  • This transport stream TS is sent to the demultiplexer 203A.
  • the basic stream STb and the extension stream STe are extracted from the transport stream TS by PID filtering, and supplied to the decoder 204A.
  • the streams STb and STe are decoded, and the image data R (N) of each picture of the base layer (60 Hz layer) and the image data R (N + 1) of each picture of the enhancement layer (120 Hz layer) are obtained. Is obtained.
  • the image data R (N + 1) of the picture of the enhancement layer constituting the picture pair is within the window range which is the image range including the motion portion equal to or larger than the threshold value. Used and subjected to a mixing process.
  • the decoder 204A extracts the parameter set and SEI inserted in each access unit constituting the streams STb and STe, and sends them to the control unit 201.
  • a blending window information / SEI message (see FIG. 12) having a blending parameter (including information on blending processing such as information on the position of each window, blending ratio, and information on a blending target image) is also extracted.
  • the back mixing processing (mixing release processing) for the 60 Hz hierarchical image data in the post processor 205A is controlled.
  • the image data R (N) of each picture of the base layer and the image data R (N + 1) of each picture of the enhancement layer obtained by the decoder 204A are supplied to the post processor 205A.
  • the post-processor 205A processes the image data R (N) and R (N + 1) to obtain image data P having a frame frequency of 120 Hz similar to image data P having a frame frequency of 120 Hz on the transmission side.
  • the image data R (N) of each picture of the base layer is inverse-mixed using the image data R (N + 1) of the picture of the enhancement layer forming the picture pair within the window range where the mixing process is performed. Processing (mixing release processing) is performed. Therefore, the mixing of the 60 Hz hierarchical image data included in the 120 Hz frame frequency image data P output from the post processor 205A is released.
  • the image data of the frame frequency of 120 Hz obtained by the post processor 205A or the image data of which the frame rate is further increased by the MCFI unit 206A is supplied to the panel display unit 207A, and the panel display unit 207A displays the image based on the image data. Is done.
  • FIG. 19 shows a configuration example of a television receiver 200B having a decoding capability capable of processing 60 Hz image data.
  • This television receiver 200B has a control unit 201B, a receiving unit 202B, a demultiplexer 203B, a decoder 204B, an MCFI unit 206B, and a panel display unit 207B.
  • the control unit 201B controls the operation of each unit of the television receiver 200B.
  • Receiving section 202B demodulates the RF modulated signal received by the receiving antenna, and acquires transport stream TS.
  • the demultiplexer 203B extracts the basic stream STb from the transport stream TS by PID filtering, and supplies the basic stream STb to the decoder 204B.
  • the decoder 204B performs a decoding process on the basic stream STb to obtain image data having a frame frequency of 60 Hz including image data R (N) of each picture of the basic layer (60 Hz layer).
  • the image data R (N) of each picture of the base layer is subjected to the mixing process using the image data R (N + 1) of the picture of the enhancement layer forming the picture pair within the window range where the mixing process is performed. Have been.
  • the MCFI unit 206B performs frame interpolation processing of motion compensation on the image data having the frame frequency of 60 Hz to obtain image data with a higher frame rate. In some cases, the MCFI unit 206B is not provided.
  • the panel display unit 207B displays an image based on the image data of the frame frequency of 60 Hz obtained by the decoder 204B or the image data whose frame rate has been increased by the MCFI unit 206B.
  • the RF modulation signal received by the receiving antenna is demodulated, and transport stream TS is obtained.
  • This transport stream TS is sent to the demultiplexer 203B.
  • the demultiplexer 203B extracts the basic stream STb from the transport stream TS by PID filtering, and supplies the basic stream STb to the decoder 204B.
  • the decoder 204B performs a decoding process on the basic stream STb to obtain image data having a frame frequency of 60 Hz including image data R (N) of each picture of the basic layer.
  • the image data of the frame frequency of 60 Hz obtained by the decoder 204B or the image data of which the frame rate has been further increased by the MCFI unit 206B is supplied to the panel display unit 207B, and the panel display unit 207B displays the image based on the image data. Is done.
  • Data and image data of each picture of the enhancement layer are transmitted.
  • the layer of the basic frame frequency it is possible to avoid the strobing deterioration within the window range, and to avoid double display of what should be clearly displayed in other ranges.
  • the reception side receives the image data of each picture of the base layer and the image data of each picture of the enhancement layer that have been subjected to the mixing process only within a predetermined window range,
  • display image data is obtained by using only the image data of each picture of the base layer, or both the image data of each picture of the base layer and the image data of each picture of the enhancement layer. Therefore, for example, in the layer of the basic frame frequency, it is possible to avoid the strobing deterioration in a predetermined window range, and to avoid double display of what should be clearly displayed in other ranges.
  • HDMI High-Definition Multimedia Interface
  • HDMI High-Definition Multimedia Interface
  • FIG. 21 shows an outline of processing of the transmitting apparatus 100, the set-top box 200-1, and the display 200-2 in that case.
  • the operation is the same as the configuration of the transmission device 100 and the television receiver 200 (200A, 200B) shown in FIG.
  • the set-top box 200A-1 to the display 200A-2 add the image data R (N) and R (N + 1) together with the image data R (N) of each picture of the base layer (60 Hz layer) to the inverse mixing process ( Mixing parameters (including information on the position of each window, the mixing ratio, and information on the mixing target image, etc.) are sent as information for performing the mixing release processing.
  • the decoder 204A may have the function of the post processor 205A.
  • the set-top box 200A-1 inserts the mixing parameter corresponding to each picture into, for example, a blanking period in the image data of each picture and transmits it.
  • a newly defined HDMI blending window infoframe HDMI @ blending_window @ InfoFrame
  • the present invention is not limited to this.
  • FIG. 22 shows a structural example (Syntax) of the HDMI blending window infoframe, which corresponds to the structural example (Syntax) of the blending information SEI message of FIG. 12 described above, and details of individual information. The description of is omitted.
  • the first three bytes of this info frame are a header part, in which information of an info frame type, a version number, and a byte length of a data byte are arranged.
  • 8 8-bit information of “number_of_blending_windows” is arranged in data byte 0 (N + 0).
  • One-bit information of “current_picture_position” is arranged in the seventh bit of the data byte 1 (N + 1).
  • 1-bit information of “blend_flag” is arranged in the sixth bit of this data byte 1 (N + 1).
  • 16-bit information of “window_start_position_horizontal” is arranged in data byte 2 (N + 2) and data byte 3 (N + 3). Also, 16-bit information of “window_start_position_vertical” is arranged in data byte 4 (N + 4) and data byte 5 (N + 5). Also, 16-bit information of “window_end_position_horizontal” is arranged in data byte 6 (N + 6) and data byte 7 (N + 7). Also, 16-bit information of “window_end_position_vertical” is arranged in data byte 8 (N + 8) and data byte 9 (N + 9).
  • 8-bit information of “blend_coefficient_A” is arranged in data byte 10 (N + 10).
  • 8-bit information of “blend_coefficient_B” is arranged in data byte 11 (N + 11). Then, the elements from data byte 2 to data byte 11 are repeated in the space after data byte 12 (N + 12) by the value of “number_of_blending_windows”.
  • the image data P (N) of each picture of the base layer (60 Hz layer) and the image data P of each picture of the enhancement layer (120 Hz layer) on which the image data of the frame frequency of 120 Hz is processed The example in which (N + 1) is transmitted from the transmission side to the reception side has been described. However, the image data having the frame frequency of 120 Hz is transmitted from the transmitting side to the receiving side as it is, and the image data having the frame frequency of 120 Hz is processed on the receiving side, and the image data P of each picture of the base layer (60 Hz layer) is processed. It is also conceivable to obtain and use image data of a frame frequency of 60 Hz corresponding to (N).
  • FIG. 23 shows a configuration example of the transmission / reception system 10B in that case.
  • the transmission / reception system 10B includes a transmission device 100B, an interface box (IFB: Interface @ box) 300-1, and an image display device 300-2.
  • the image display device 300-2 is, for example, a television receiver or a display.
  • the interface box 300-1 and the image display device 300-2 are connected by a digital interface such as HDMI.
  • the transmitting device 100B transmits the transport stream TS as a container on a broadcast wave.
  • This transport stream TS forms a container as a multiplexed stream.
  • This transport stream TS includes a basic stream obtained by encoding image data having a frame frequency of 120 Hz.
  • the interface box 300-1 receives the above-described transport stream TS transmitted from the transmitting apparatus 100B on a broadcast wave.
  • the interface box 300-1 performs a decoding process on the basic stream included in the transport stream TS to obtain image data having a frame frequency of 120 Hz.
  • the image data having the frame frequency of 120 Hz is sent to the image display device 300-2 that handles the image data.
  • the interface box 300-1 processes the image data of the frame frequency of 120 Hz obtained as described above, and processes the image data of the base layer (60 Hz hierarchy) obtained by the proprocessor 102 of the transmitting apparatus 100 in FIG.
  • Image data having a frame frequency of 60 Hz corresponding to the image data P (N) of each picture is obtained.
  • the image data having the frame frequency of 60 Hz is sent to the image display device 300-2 which handles the image data.
  • the image data R (N) of each picture of the base layer is included in the image data R of the picture of the enhancement layer forming the picture pair within the window range which is the image range including the moving part having the threshold value or more. (N + 1) is used and subjected to a mixing process.
  • FIG. 24 shows an outline of the processing of the transmission device 100B, the interface box 300-1, and the image display device 300-2 (300A-2, 300B-2). Note that the image data P having a frame frequency of 120 Hz input to the transmitting device 100B and the image data P having a frame frequency of 120 Hz output from the decoder 311 of the interface box 300-1 are the same in time series. However, this includes cases where the image quality differs between the two because they pass through the codec.
  • the encoder 103B encodes the image data P having the frame frequency of 120 Hz to obtain the basic stream STb.
  • This basic stream STb is included in the transport stream TS and transmitted.
  • the decoder 311 performs a decoding process on the basic stream STb included in the transport stream TS and obtains image data P having a frame frequency of 120 Hz.
  • the processor 312 processes the image data P, and obtains the image data P (60 Hz hierarchy) of each picture of the base layer (60 Hz layer) obtained by the N), image data having a frame frequency of 60 Hz is obtained.
  • FIG. 25 shows a configuration example of the processor 312.
  • the processor 312 includes a time axis division unit 121, a window processing unit 122, and a mixing processing unit 123, and performs the same processing as the preprocessor 102 in FIG.
  • the image data As the image data, the image data P (N) of each picture of the base layer (60 Hz hierarchy) is output.
  • the image data P having a frame frequency of 120 Hz obtained by the decoder 311 of the interface box 300-1 is sent to the image display device 300A-2 by a digital interface such as HDMI.
  • the image data P is used as it is, or the frame rate is increased by a frame interpolation (Motion Compensated Frame Insertion) unit 321A to increase the frame rate, and becomes image data for display.
  • a frame interpolation Motion Compensated Frame Insertion
  • the image data R (N) having a frame frequency of 60 Hz obtained by the processor 312 of the interface box 300-1 is sent to the image display device 300B-2 via a digital interface such as HDMI.
  • the image data R (N) is used as it is, or the frame rate is increased by the frame interpolation by a Motion Compensated Frame Insertion (MCFI) unit 321B, and the image data R (N) becomes display image data.
  • MCFI Motion Compensated Frame Insertion
  • each of the pictures of the base layer in which the mixing process is performed only within the predetermined window range that is the image range including the motion portion equal to or more than the threshold value is performed.
  • Image data is obtained. Therefore, in the layer of the basic frame frequency, it is possible to avoid the strobing deterioration in a predetermined window range, and to avoid double display of what should be clearly displayed in other ranges.
  • the image data P (N) of each picture of the base layer (60 Hz layer) processed with the image data of the frame frequency of 120 Hz and the image data P of each picture of the enhancement layer (120 Hz layer) Although an example in which P (N + 1) is handled has been described, the present invention is not limited to this. For example, an example in which image data P (N) of each picture of a base layer (120 Hz layer) processed with image data of a frame frequency of 240 Hz and image data P (N + 1) of each picture of an enhancement layer (240 Hz layer) are handled. Can be similarly considered.
  • the container is a transport stream (MPEG-2 @ TS).
  • MPEG-2 @ TS transport stream
  • the present technology can be similarly applied to a system configured to be distributed to a receiving terminal using a network such as the Internet.
  • MP4 or other format containers In the case of distribution on the Internet, it is often distributed in MP4 or other format containers.
  • containers containers of various formats such as a transport stream (MPEG-2 @ TS) or MMT (MPEG @ Media @ Transport) adopted in the digital broadcasting standard and ISOBMFF (MP4) used in Internet distribution are used. Applicable.
  • the present technology may have the following configurations.
  • a receiving unit that receives image data of each picture of the base layer and image data of each picture of the enhancement layer,
  • the image data of each picture of the base layer is such that, within a predetermined window range, image data of one picture is added to image data of one picture in units of two pictures that are temporally continuous in image data of a predetermined frame rate.
  • a processing unit that obtains display image data using only the image data of each picture of the basic layer or both the image data of each picture of the basic layer and the image data of each picture of the enhancement layer according to the display capability.
  • a receiving device further comprising: (2) When the processing unit obtains display image data by using both the image data of each picture of the base layer and the image data of each picture of the enhancement layer, the processing unit outputs the image data of each picture of the base layer.
  • At least image data of each picture of the base layer includes information of the mixing process
  • the predetermined window range is an image including a motion portion equal to or greater than a threshold value extracted based on image data of each picture corresponding to image data of each picture of the basic layer among image data of the predetermined frame rate.
  • the receiving device according to any one of (1) to (5), which is a range. (7) The receiving device according to any one of (1) to (6), wherein the predetermined frame rate is 120 Hz. (8) a step of receiving image data of each picture of the base layer and image data of each picture of the enhancement layer, The image data of each picture of the base layer is such that, within a predetermined window range, image data of one picture is added to image data of one picture in units of two pictures that are temporally continuous in image data of a predetermined frame rate.
  • the image data of each picture of the enhancement layer is obtained by extracting image data of the other picture in units of the two temporally consecutive pictures.
  • At least the image data of each picture of the base layer includes the information of the mixing process
  • the information on the mixing process includes information on a mixing ratio in the predetermined window.
  • the predetermined window range is an image including a motion portion equal to or greater than a threshold value extracted based on image data of each picture corresponding to image data of each picture of the basic layer among image data of the predetermined frame rate.
  • the receiving method according to any one of the above (8) to (12).
  • (14) The receiving method according to any one of (8) to (13), wherein the predetermined frame rate is 120 Hz.
  • a processing unit that processes image data of a predetermined frame rate to obtain image data of each picture of the base layer and obtains image data of each picture of the enhancement layer,
  • the image data of each picture of the base layer is one of two temporally consecutive picture units in the image data of the predetermined frame rate within a predetermined window range which is an image range including a motion portion equal to or more than a threshold value.
  • the image data of a picture is obtained by mixing the image data of a picture with the image data of the other picture.
  • the image data of the one picture is divided into two temporally continuous picture units. It was obtained by taking out, The image data of each picture of the enhancement layer is obtained by extracting image data of the other picture in units of the two temporally consecutive pictures, A transmission device further comprising a transmission unit that transmits image data of each picture of the base layer and image data of each picture of the enhancement layer.
  • the image data of each picture of the base layer is one of two temporally consecutive picture units in the image data of the predetermined frame rate within a predetermined window range which is an image range including a motion portion equal to or more than a threshold value.
  • the image data of a picture is obtained by mixing the image data of a picture with the image data of the other picture. Outside the predetermined window range, the image data of the one picture is divided into two temporally continuous picture units.
  • the image data of each picture of the enhancement layer is obtained by extracting the image data of the other picture in units of the two temporally consecutive pictures, A transmission method, further comprising transmitting image data of each picture of the base layer and image data of each picture of the enhancement layer.
  • a receiving unit that receives image data of a predetermined frame rate;
  • a processing unit that processes the image data of the predetermined frame rate to obtain image data of each picture of the base layer,
  • the image data of each picture of the base layer is one of two temporally consecutive picture units in the image data of the predetermined frame rate within a predetermined window range which is an image range including a motion portion equal to or more than a threshold value.
  • the image data of a picture is obtained by mixing the image data of a picture with the image data of the other picture. Outside the predetermined window range, the image data of the one picture is divided into two temporally continuous picture units.
  • a receiving device that is obtained by taking it out.
  • the image data of each picture of the base layer is one of two temporally consecutive picture units in the image data of the predetermined frame rate within a predetermined window range which is an image range including a motion portion equal to or more than a threshold value.
  • the image data of a picture is obtained by mixing the image data of a picture with the image data of the other picture. Outside the predetermined window range, the image data of the one picture is divided into two temporally continuous picture units. Reception method that is obtained by taking out. (20) The receiving method according to (19), further including a step of transmitting image data of each picture of the base layer to an external device.
  • the main feature of the present technology is that the image data of each picture of the base layer and the image data of each picture of the enhancement layer that are subjected to the mixing process only within a predetermined window range are received, and the base layer By obtaining image data for display using only the image data of each picture of the above, or both the image data of each picture of the base layer and the image data of each picture of the enhancement layer, a predetermined frame frequency in the basic frame frequency layer In this case, it is possible to avoid the strobing deterioration in the window range, and to avoid double display of what should be clearly displayed in the other range (see FIGS. 3, 4, and 7).
  • decoder 20 A Post processor 206A, 206B: MCFI unit 207A, 207B: Panel display unit 251: Inverse mixing processing unit 252: Time axis synthesis unit 300-1: Interface box 300- 2,300A-2,300B-2 ... image display device 311 ... decoder 312 ... processor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

受信側において安定した動画像を得る。 所定のウインドウ範囲内だけ混合処理がされている基本レイヤの各ピクチャの画像データと、拡張レイヤの各ピクチャの画像データを受信する。表示能力に応じて、基本レイヤの各ピクチャの画像データのみ、または基本レイヤの各ピクチャの画像データおよび拡張レイヤの各ピクチャの画像データの双方を用いて表示用画像データを得る。基本となるフレーム周波数のレイヤにおいて、所定のウインドウ範囲でストロービング劣化を回避でき、その他の範囲で本来鮮明に表示すべきものが二重表示されることを回避できる。

Description

受信装置、受信方法、送信装置および送信方法
 本技術は、受信装置、受信方法、送信装置および送信方法に関し、詳しくは、混合処理された画像データを取り扱う受信装置、受信方法、送信装置および送信方法に関する。
 従来から放送されているフレームレートでデコードを行う受信機において、ハイフレームレート(High Frame Rate)の放送を受信する場合、ストリームの部分的なデコードを行うと動きの連続性が損なわれて動画質の劣化が生じる。この動画質の劣化の主な原因は、部分デコードされたピクチャ同士の時間連続性が粗くなるため、速い動きに対する人間の眼の網膜投影が間欠的になることで生ずるストロービング(Strobing)であるといわれている。
 ストロービングによる動画質の劣化を低減させるために、本出願人は、先に、基準となるフレーム周期でのピクチャについて、その前後のピクチャとの間で画素混合を行う技術を提案した(特許文献1参照)。この場合、従来の受信機において時間サブサンプルを行っても、動いた要素が部分デコードされる時間サンプルに反映されるので、ストロービングによる動画質劣化が低減される。
国際公開第2015/076277号
 従来の技術では、ピクチャ全体に対して混合処理を行うために、本来鮮明に表示すべきものが二重表示されるおそれがある。ストロービング劣化を回避すべき部分とハイフレームレートの鮮明度を維持すべき部分とを別々に処理を行って、安定した動画像を得ることが望まれる。
 本技術の目的は、受信側において安定した動画像を得ることを目的とする。
 本技術の概念は、
 基本レイヤの各ピクチャの画像データおよび拡張レイヤの各ピクチャの画像データを受信する受信部を備え、
 上記基本レイヤの各ピクチャの画像データは、所定のウインドウ範囲内では、所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものであり、
 上記拡張レイヤの各ピクチャの画像データは、上記時間的に連続する2個のピクチャ単位で他方のピクチャの画像データを取り出して得られたものであり、
 表示能力に応じて、上記基本レイヤの各ピクチャの画像データのみ、または上記基本レイヤの各ピクチャの画像データおよび上記拡張レイヤの各ピクチャの画像データの双方を用いて表示用画像データを得る処理部をさらに備える
 受信装置にある。
 本技術において、受信部により、基本レイヤの各ピクチャの画像データおよび拡張レイヤの各ピクチャの画像データが受信される。ここで、基本レイヤの各ピクチャの画像データは、所定のウインドウ範囲内では、所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものである。また、拡張レイヤの各ピクチャの画像データは、上記時間的に連続する2個のピクチャ単位で他方のピクチャの画像データを取り出して得られたものである。
 例えば、所定のウインドウ範囲は、所定フレームレートの画像データのうち基本レイヤの各ピクチャの画像データに対応した各ピクチャの画像データに基づいて抽出された閾値以上の動き部分を含む画像範囲である、ようにされてもよい。また、例えば、所定フレームレートは120Hzである、ようにされてもよい。
 処理部により、表示能力に応じて、基本レイヤの各ピクチャの画像データのみ、または基本レイヤの各ピクチャの画像データおよび拡張レイヤの各ピクチャの画像データの双方を用いて表示用画像データが得られる。例えば、処理部は、基本レイヤの各ピクチャの画像データおよび拡張レイヤの各ピクチャの画像データの双方を用いて表示用画像データを得る場合、基本レイヤの各ピクチャの画像データに所定のウインドウ範囲内で逆混合処理をする、ようにされてもよい。
 この場合、例えば、少なくとも基本レイヤの各ピクチャの画像データに混合処理の情報が含まれており、処理部は、混合処理の情報に基づいて、基本レイヤの各ピクチャの画像データにウインドウ範囲内で逆混合処理をする、ようにされてもよい。そして、この場合、混合処理の情報は、所定のウインドウの位置情報を含む、ようにされてもよい。また、この場合、混合処理の情報は、さらに、所定のウインドウにおける混合比の情報を含む、ようにされてもよい。
 このように本技術においては、所定のウインドウ範囲内だけ混合処理がされている基本レイヤの各ピクチャの画像データと、拡張レイヤの各ピクチャの画像データが受信され、表示能力に応じて、基本レイヤの各ピクチャの画像データのみ、または基本レイヤの各ピクチャの画像データおよび拡張レイヤの各ピクチャの画像データの双方を用いて表示用画像データが得られる。そのため、例えば、基本となるフレーム周波数のレイヤにおいて、所定のウインドウ範囲でストロービング劣化を回避でき、その他の範囲で本来鮮明に表示すべきものが二重表示されることを回避できる。
 また、本技術の他の概念は、
 所定フレームレートの画像データを処理して基本レイヤの各ピクチャの画像データを得ると共に拡張レイヤの各ピクチャの画像データを得る処理部とを備え、
 上記基本レイヤの各ピクチャの画像データは、閾値以上の動き部分を含む画像範囲である所定のウインドウ範囲内では、上記所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものであり、
 上記拡張レイヤの各ピクチャの画像データは、上記時間的に連続する2個のピクチャ単位で他方のピクチャの画像データを取り出して得られたものであり、
 上記基本レイヤの各ピクチャの画像データおよび上記拡張レイヤの各ピクチャの画像データを送信する送信部をさらに備える
 送信装置にある。
 本技術において、所定フレームレートの画像データが処理されて基本レイヤの各ピクチャの画像データが得られると共に拡張レイヤの各ピクチャの画像データが得られる。ここで、基本レイヤの各ピクチャの画像データは、閾値以上の動き部分を含む画像範囲である所定のウインドウ範囲内では、上記所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものである。また、拡張レイヤの各ピクチャの画像データは、上記時間的に連続する2個のピクチャ単位で他方のピクチャの画像データを取り出して得られたものである。そして、送信部により、基本レイヤの各ピクチャの画像データおよび拡張レイヤの各ピクチャの画像データが送信される。
 このように本技術においては、閾値以上の動き部分を含む画像範囲である所定のウインドウ範囲内だけ混合処理がされている基本レイヤの各ピクチャの画像データと、拡張レイヤの各ピクチャの画像データが送信されるものである。そのため、受信側において、基本となるフレーム周波数のレイヤにおいて、所定のウインドウ範囲でストロービング劣化を回避でき、その他の範囲で本来鮮明に表示すべきものが二重表示されることを回避できる。
 また、本技術の他の概念は、
 所定フレームレートの画像データを受信する受信部と、
 上記所定フレームレートの画像データを処理して、基本レイヤの各ピクチャの画像データを得る処理部を備え、
 上記基本レイヤの各ピクチャの画像データは、閾値以上の動き部分を含む画像範囲である所定のウインドウ範囲内では、上記所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものである
 受信装置にある。
 本技術において、受信部により、所定フレームレートの画像データが受信される。そして、所定フレームレートの画像データが処理されて、基本レイヤの各ピクチャの画像データが得られる。ここで、基本レイヤの各ピクチャの画像データは、閾値以上の動き部分を含む画像範囲である所定のウインドウ範囲内では、所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものである。
 このように本技術においては、閾値以上の動き部分を含む画像範囲である所定のウインドウ範囲内だけ混合処理がされている基本レイヤの各ピクチャの画像データが得られるものである。そのため、基本となるフレーム周波数のレイヤにおいて、所定のウインドウ範囲でストロービング劣化を回避でき、その他の範囲で本来鮮明に表示すべきものが二重表示されることを回避できる。
 なお、本技術において、例えば、基本レイヤの各ピクチャの画像データを外部機器に送信する送信部をさらに備える、ようにされてもよい。これにより、外部機器では、基本となるフレーム周波数のレイヤにおいて、所定のウインドウ範囲でストロービング劣化を回避でき、その他の範囲で本来鮮明に表示すべきものが二重表示されることを回避できる。
実施の形態としての送受信システムの構成例を示すブロック図である。 120Hzのフレーム周波数の画像データに混合処理が施されて得られた60Hzの基本レイヤの画像データと、+60Hzの拡張レイヤの画像データの一例を示す図である。 送信装置およびテレビ受信機の処理の概要を示す図である。 送信装置のプリプロセッサの構成例を示すブロック図である。 ウインドウ処理部の構成例を示すブロック図である。 N番目と(N+2)番目のピクチャペアの間における画像変化の一例を示す図である。 グルーピング候補およびウインドウの生成の一例を示す図である。 ウインドウ生成部におけるウインドウ生成の手順の一例を説明するための図である。 混合比設定部にける混合比設定のためのテーブルの一例を示す図である。 ウインドウ処理部においてピクチャ毎に行われる、ウインドウと、そのウインドウにおける混合比を取得する処理の手順の一例を示すフローチャートである。 グルーピング候補を得るための処理の手順の一例を示すフローチャートである。 ブレンディング・ウインドウ・インフォメーション・SEIメッセージの構造例を示す図である。 ブレンディング・ウインドウ・インフォメーション・SEIメッセージの構造例における主要な情報の内容を示す図である。 ポストプロセッサの構成例を示すブロック図である。 送信装置の構成例を示すブロック図である。 混合処理情報を60Hz階層のピクチャのみに付す場合におけるトランスポートストリームTSの構成例を示す図である。 混合処理情報を全ピクチャのみに付す場合におけるトランスポートストリームTSの構成例を示す図である。 120Hzのフレーム周波数の画像データを処理可能なデコード能力があるテレビ受信機の構成例を示すブロック図である。 60Hzのフレーム周波数の画像データを処理可能なデコード能力があるテレビ受信機の構成例を示すブロック図である。 送受信システムの他の構成例を示すブロック図である。 送信装置、セットトップボックスおよびディスプレイの処理の概要を示す図である。 HDMI・ブレンディング・ウインドウ・インフォフレームの構造例を示すブロック図である。 送受信システムの他の構成例を示すブロック図である。 送信装置、インタフェース・ボックスおよび画像表示機器の処理の概要を示す図である。 プロセッサの構成例を示すブロック図である。
 以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明は以下の順序で行う。
 1.実施の形態
 2.変形例
 <1.実施の形態>
 [送受信システム]
 図1は、実施の形態としての送受信システム10の構成例を示している。この送受信システム10は、送信装置100と、テレビ受信機200を有する構成となっている。
 送信装置100は、コンテナとしてのトランスポートストリームTSを放送波に載せて送信する。このトランスポートストリームTSは、多重化ストリームとしてのコンテナを構成している。このトランスポートストリームTSには、所定フレームレートであるハイフレームレート、この実施の形態においては120Hzの画像データ(動画像データ)から得られた基本レイヤ(Base layer)の符号化ストリーム(基本ストリーム)と拡張レイヤ(Enhanced layer)の符号化ストリーム(拡張ストリーム)が含まれる。
 この実施の形態において、基本ストリームおよび拡張ストリームは、NAL(Network Abstraction Layer)ユニット構造を有するものとされる。基本ストリームには、基本レイヤの各ピクチャの画像データを符号化して得られた符号化画像データがアクセスユニットとして含まれる。また、拡張ストリームには、拡張レイヤの各ピクチャの画像データを符号化して得られた符号化画像データがアクセスユニットとして含まれる。
 ここで、基本レイヤの各ピクチャの画像データは、所定のウインドウ範囲内では、120Hzのフレーム周波数の画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、所定のウインドウ範囲外では、時間的に連続する2個のピクチャ単位で一方のピクチャの画像データを取り出して得られたものである。例えば、所定のウインドウ範囲は、120Hzのフレーム周波数の画像データのうち基本レイヤの各ピクチャの画像データに対応した各ピクチャの画像データに基づいて抽出された閾値以上の動き部分を含む画像範囲とされる。ここで、基本レイヤの各ピクチャの画像データのフレームレートは60Hzである。
 また、拡張レイヤの各ピクチャの画像データは、上記時間的に連続する2個のピクチャ単位で他方のピクチャの画像データを取り出して得られたものである。ここで、拡張レイヤの各ピクチャの画像データのフレームレートは60Hzである。
 図2(a),(b)は、120Hzのフレーム周波数の画像データに混合処理が施されて得られた60Hzの基本レイヤの画像データと、+60Hzの拡張レイヤの画像データの一例を示している。基本レイヤの画像データを構成する一つのピクチャ(フレーム)と、それに隣接する拡張レイヤの画像データの1つのピクチャ(フレーム)からなる2ピクチャによりピクチャペア(Picture-pair)が構成されている。
 図2(a)においては、各ピクチャペアにおいて、最初のピクチャである拡張レイヤのピクチャの画像データは混合されていない状態(非混合状態)にあるが、それに続く基本レイヤのピクチャの画像データは一つ前の拡張レイヤのピクチャの画像データと所定のウインドウ範囲内で混合された状態(混合状態)にある。また、図2(b)において、各ピクチャペアにおいて、最初のピクチャである基本レイヤのピクチャの画像データは一つ後の拡張レイヤのピクチャの画像データと所定のウインドウ範囲内で混合された状態(混合状態)にあるが、それに続く拡張レイヤのピクチャの画像データは混合されていない状態(非混合状態)にある。以下、この実施の形態においては、各ピクチャペアの関係が、基本的には、図2(a)のパターンにあるものとして説明する。
 少なくとも、60Hzの基本レイヤの各ピクチャの画像データに、混合処理の情報が付加されている。この実施の形態において、混合処理の情報には、所定のウインドウ範囲の情報、混合処理における混合比の情報、連続する2個のピクチャ単位における一方のピクチャ(拡張レイヤのピクチャ)と他方のピクチャ(基本レイヤのピクチャ)との時間的な相対位置関係を示す情報などが含まれている。これにより、受信側では、この混合処理の情報に基づいて、60Hzの基本レイヤの画像データに対する逆混合処理(混合解除処理)を容易かつ適切に行い得るようになる。
 図1に戻って、テレビ受信機200は、送信装置100から放送波に載せて送られてくる上述のトランスポートストリームTSを受信する。受信装置200は、ノーマルフレームレート(60Hz)の画像データを処理可能なデコード能力がある場合、トランスポートストリームTSに含まれる基本ストリームのみを処理して、ノーマルフレームレートの画像データを得て、画像再生をする。
 この場合、テレビ受信機200は、基本レイヤの基本ストリームに対してレイヤ内の予測復号化処理を施してノーマルフレームレートの各フレームの画像データを得る。また、テレビ受信機200は、ハイフレームレート(120Hz)の画像データを処理可能なデコード能力がある場合、トランスポートストリームTSに含まれる基本ストリームおよび拡張ストリームの双方を処理して、ハイフレームレートの画像データを得て、画像再生をする。この場合、混合処理の情報に基づいて、基本レイヤの各ピクチャの画像データに、所定のウインドウ範囲内で逆混合処理が行われる。
 図3は、送信装置100およびテレビ受信機200(200A,200B)の処理の概要を示している。なお、送信装置100のプリプロセッサ102の出力の画像シーケンスR(N)、R(N+1)とテレビ受信機200A,200Bのデコーダ204A,204Bの出力の画像シーケンスR(N)、R(N+1)とは、時系列的には同じものであるが、コーデックを通しているので両者の画質が異なる場合も含む。
 送信装置100では、プリプロセッサ102において、120Hzのフレーム周波数の画像データPが処理されて、基本レイヤ(60Hz階層)の各ピクチャの画像データR(N)と、拡張レイヤ(120Hz階層)の各ピクチャの画像データR(N+1)が得られる。
 ここで、基本レイヤの各ピクチャの画像データR(N)は、閾値以上の動き部分を含む画像範囲であるウインドウ範囲内では、画像データPにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られ、上記所定のウインドウ範囲外では、時間的に連続する2個のピクチャ単位で一方のピクチャの画像データを取り出して得られる。一方、拡張レイヤの各ピクチャの画像データR(N+1)は、上記時間的に連続する2個のピクチャ単位で他方のピクチャの画像データを取り出して得られる。
 図4は、プリプロセッサ102の構成例を示している。このプリプロセッサ102は、時間軸分割部121と、ウインドウ処理部122と、混合処理部123を有している。時間軸分割部121は、120Hzのフレーム周波数の画像データPを入力し、基本レイヤ(60Hz階層)の各ピクチャの画像データと、拡張レイヤ(120Hz階層)の各ピクチャの画像データに分割する。この拡張レイヤ(120Hz階層)の各ピクチャの画像データは、そのままプリプロセッサ102からの拡張レイヤの各ピクチャの画像データR(N+1)となる。
 ウインドウ処理部122は、基本レイヤ(60Hz階層)の各ピクチャの画像データを入力する。また、このウインドウ処理部122には、図示しない制御部から移動画素数閾値が与えられる。ウインドウ処理部122は、基本レイヤ(60Hz階層)の各ピクチャの画像データに基づいて、ピクチャ毎に、閾値(移動画素数閾値)以上の動き部分を含む画像範囲であるウインドウと、当該ウインドウにおける混合比を取得し、それらの情報を制御部に送る。
 図5は、ウインドウ処理部122の構成例を示している。このウインドウ処理部122は、双方向動き予測部131と、速度判定部132と、ウインドウ生成部133と、混合比設定部134を有している。双方向動き予測部131は、基本レイヤ(60Hz階層)の各ピクチャの画像データを入力する。双方向動き予測部131は、ピクチャ毎に、自身をN番目のピクチャとし、N番目と(N+2)番目のピクチャペアの間で、4×4あるいは8×8などの画素ブロック単位で動きベクトルMV(i,j)を双方向で求める。動きベクトルMV(i,j)の求め方は、例えば従来周知のブロックマッチング法により行うことができる。
 図6は、N番目と(N+2)番目のピクチャペアの間における画像変化の一例を示している。なお、図示の例で、マス目の一つ一つは画素ブロックを示している。図6(a)はN番目のピクチャの画像を示し、図6(b)は(N+2)番目の画像を示し、図6(c)がN番目と(N+2)番目の合成画を示している。なお、図6(c)において、破線はN番目のピクチャの画像に対応している。この図6(c)に示すように、動画の場合にはN番目と(N+2)番目の画像は少なくともその一部はずれたものとなる。
 図5に戻って、速度判定部132は、双方向動き予測部131で求められた各画素ブロックの動きベクトルMV(i,j)を入力する。また、速度判定部132には、図示しない制御部から移動画素数閾値が与えられる。速度判定部132は、各画素ブロックの動きベクトルMV(i,j)を移動画素数閾値と比較し、閾値以上の動きベクトルMV(i,j)に対応した画素ブロックをグルーピング候補とする。
 ここで、移動画素数閾値Tについて説明する。物体の動きを水平方向のみで考え、画面W(水平方向画素数)いっぱい左から右へあるいは右から左へ1秒で移動することを想定する。そのような動きは比較的速い動きであり、それを越える速度の移動がある場合、ストロービング(strobing)が知覚されるものとする。その場合のフレーム間の移動画素数閾値Tは、以下の数式(1)で求められる。
    T=W/表示フレーム周波数   ・・・(1)
 実際のパラメータをあてると、HD解像度の画像の場合は、以下の数式(2)で表される。
    T=W/60Hz=1920/60=32(pixels/frame)   ・・・(2)
 また、UHD解像度の画像の場合は、以下の数式(3)で表される。
    T=W/60Hz=3840/60=64(pixels/frame)   ・・・(3)
 なお、ここで述べた移動画素数閾値Tは、あくまでも一例であって、これに限定されるものではない。
 ウインドウ生成部133は、速度判定部132で得られた各グルーピング候補の画素ブロックの位置情報を入力する。ウインドウ生成部133は、各グルーピング候補に対して水平方向、垂直方向の結合処理を行ってグルーピングを行い、それぞれ1つにグルーピングされた所定数のグルーピング候補を包含する長方形領域をウインドウとし、そのウインドウの位置情報を出力する。
 図7は、N番目のピクチャの画像が図6(a)に示され、(N+2)番目のピクチャの画像が図6(b)に示される場合における、グルーピング候補およびウインドウの生成の一例を示している。ハッチングを付して示す画素ブロックがグルーピング候補であり、破線矩形枠がウインドウ(混合ウインドウ)を示している。図示の例においては、ウインドウ1(Window 1)、ウインドウ2(Window 2)、ウインドウ3(Window 3)の3つのウインドウが生成されている。
 ウインドウ生成部133におけるウインドウ生成の手順の一例について説明する。ここでは、図8(a)に示すようにグルーピング候補が得られている場合を例にとって説明する。なお、図8において、マス目の一つ一つは画素ブロックを示し、“1”が付された画素ブロックはグルーピング候補BLKであり、“0”が付された画素ブロックはグルーピング候補ではない、とする。
 第1に、スキャンラインごとに水平位置が隣接するグルーピング候補BLKを水平隣接結合する。これにより、(0,4)、(0,5)、(0,6)が水平隣接結合され、(1,6)、(1,7)が水平隣接結合され、(2,0)、(2,1)、(2,2)、(2,3)が水平隣接結合され、さらに(2,6)、(2,7)が水平隣接結合される(図8(b)参照)。
 第2に、異なる垂直位置のグルーピング候補BLK間で、同一の水平位置を持つものを垂直隣接結合する。これにより、(1,0)、(2,0)が垂直隣接結合され、(1,3)、(2,3)が垂直隣接結合され、(0,6)、(1,6)が垂直隣接結合され、(1,6)、(2,6)が垂直隣接結合され、さらに(1,7)、(2,7)が垂直隣接結合される(図8(b)参照)。
 第3に、各結合状態をたどることでグループピングしてウインドウを生成する。図8(b)に示すように、(0,4)、(0,5)、(0,6)の結合、(0,6)、(1,6)の結合、(1,6)、(1,7)の結合、(1,6)、(2,6)の結合、および(1,7)、(2,7)の結合から、破線で示されるグルーピングができる。そして、グルーピングされた各グルーピング候補を包含する長方形領域が、図8(c)に示すように、ウインドウ1(Window 1)とされる。このウインドウ1の長方形領域の中でのトップ・レフト(Top-left)は(0,4)であり、ボトム・ライト(Bottom-right)は(2,7)である。
 また、図8(b)に示すように、(1,0)、(2,0)の結合、(1,3)、(2,3)の結合、および(2,0)、(2,1)、(2,2)、(2,3)の結合から、一点鎖線で示されるグルーピングができる。そして、グルーピングされた各グルーピング候補を包含する長方形領域が、図8(c)に示すように、ウインドウ2(Window 2)とされる。このウインドウ2の長方形領域の中でのトップ・レフト(Top-left)は(1,0)であり、ボトム・ライト(Bottom-right)は(2,3)である。
 図5に戻って、混合比設定部134は、上述したように生成された各ウインドウにおける混合比を算出し、そのウインドウの混合比情報を出力する。混合比設定部134には、ウインドウ生成部133から各ウインドウの位置情報が与えられる。また、この混合比設定部134には、基本レイヤ(60Hz階層)の各ピクチャの画像データが供給される。また、この混合比設定部134には、速度判定部132から、各画素ブロックの動くベクトルMV(i,j)が与えられる。混合比設定部134は、ウインドウ毎に、そのウインドウにおける動きオブジェクトの動き量やコントラストの情報に基づいて、混合比を算出する。このようにして混合比を算出することで、不必要に強い混合を行うことなく、適切なレベルでの混合が可能になる。
 動きの非連続性、つまりストロービング(Strobing)の知覚度合いは、動きオブジェクトの動き量と背景に対する目立ち易さで変化する。ウインドウにおける動きオブジェクトの動き量は、速度判定部132からのそのウインドウに含まれる各画素ブロックの動きベクトルMV(i,j)の値を利用して求めることができる。動きオブジェクトの動き量が相対的に小である場合、ストロービングの知覚度合いは小さいと考えられる。逆に、動きオブジェクトの動き量が相対的に大の場合、ストロービングの知覚度合いは大きいと考えられる。動きオブジェクトの動き量を、フレーム間移動画素数、あるいは秒単位の平均値に応じて例えば大、中、小の3段階に分類して、混合比を制御することが考えられる。
 また、動きオブジェクトの背景に対する目立ち易さは、入力される60Hz階層の画像データのウインドウ内のコントラストの大小をチェックすることで判定できる。例えば、以下の数式(4)に示すように、ウインドウ内の各画素に対して、輝度値の分散Sを求める。なお、この数式(4)において、xiは画素輝度値、μは画素平均値、nはウインドウ内の画素数である。
  S=(1/n)*(Σ|xi-μ|)   ・・・(4)
 数式(4)に示すように、分散Sは、画素輝度値と画素平均値の差分絶対値の総和を画素数で割ったものである。分散Sが大きければ、コントラストが大きいと判断でき、分散Sが小さければ、コントラストは小さいと判断できる。コントラストが大の場合、動きオブジェクトと背景との区別が視覚的に目立ち易いと考えられる。逆に、コントラストが小の場合、動きオブジェクトと背景との区別が視覚的に目立ちにくいと考えられる。コントラストのレベルを分散Sにおうじて例えば大、中、小の3段階に分類して、混合比を制御することが考えられる。
 この動き量とコントラストの2要素の組み合わせで考えると、動き量が大、かつコントラストが大である場合にストロービングが最も目立つことになる。その場合には混合比を強めの係数とする。逆に、動き量が比較的小、かつコントラストが小である場合はストロービングがあまり目立たないとし、混合比を弱めの係数とする。
 図9は、混合比設定部134にける混合比設定のためのテーブルの一例を示している。例えば、動き量Mのレベルが小(レベル1)で、かつコントラストCのレベルが小(レベル1)である場合は、混合比は「1(弱い)」に設定される。また、例えば、動き量Mのレベルが中(レベル2)で、かつコントラストCのレベルが中(レベル2)である場合は、混合比は「3(中庸)」に設定される。また、例えば、動き量Mのレベルが大(レベル3)で、かつコントラストCのレベルが大(レベル3)である場合は、混合比は「5(強い)」に設定される。
 ここで、混合比が「1(弱い)」の場合は、60Hz階層の画像データと120Hz階層の画像データの間で、例えば4:1の混合が行われる。また、混合比が「5(強い)」の場合は、60Hz階層の画像データと120Hz階層の画像データの間で、例えば1:1の混合が行われる。そして、これらの間の混合比が「2(比較的弱い)」、「3(中庸)」、「4(比較的強い)」の場合は、60Hz階層の画像データと120Hz階層の画像データの間で、4:1から1:1の間の比率での混合が行われる。
 ただし、動きオブジェクト自体が動き方向に細いテクスチャーである場合、混合することでテクスチャーが二重化することもあるため、そういった場合は混合比を敢えて強くない係数とする。その場合の混合比の設定の一例を図9に「#」を付して示している。なお、テクスチャーが細いかどうかの判断は、2次元微分フィルタで得られるエッジ検出画において、エッジ同士の距離が極めて近い場合、テクスチャーは細いと判断できる。逆に、エッジ同士の距離がある程度離れている場合、エッジとエッジの間に厚みのあるオブジェクトがあるとみなすことができる。例えば、2次元微分フィルタの基本的な例として、ラプラシアンフィルタ(Laplacian filter)やソーベルオペレータ(Sobel operator)などがある。
 図10のフローチャートは、図5に示すウインドウ処理部122においてピクチャ毎に行われる、ウインドウと、そのウインドウにおける混合比を取得する処理の手順の一例を示している。
 まず、ウインドウ処理部122は、ステップST1において、処理を開始する。次に、ウインドウ処理部122は、ステップST2において、双方向動き予測部131で、ピクチャペア(N番目のピクチャと(N+2)番目のピクチャ)の間で、N番目のピクチャから(N+2)番目のピクチャに対して、画素ブロック単位で、動きベクトル(MV)計算を行うと共に、速度判定部132で、各画素ブロックの動きベクトルMV(i,j)を移動画素数閾値と比較し、閾値以上の動きベクトルMV(i,j)に対応した(N+2)番目のピクチャの画素ブロックを、前方向のウインドウグルーピング候補として得る。
 次に、ウインドウ処理部122は、ステップST3において、双方向動き予測部131で、ピクチャペア(N番目のピクチャと(N+2)番目のピクチャ)の間で、(N+2)番目のピクチャからN番目のピクチャに対して、画素ブロック単位で、動きベクトル(MV)計算を行うと共に、速度判定部132で、各画素ブロックの動きベクトルMV(i,j)を移動画素数閾値と比較し、閾値以上の動きベクトルMV(i,j)に対応したN番目のピクチャの画素ブロックを、後方向のウインドウグルーピング候補として得る。
 次に、ウインドウ処理部122は、ステップST4において、ウインドウ生成部133で、ステップST2,ST3で得られたグルーピング候補に対して、水平方向、垂直方向の結合処理を行い、それぞれ一つにグルーピングされた所定数のグルーピング候補を包含する長方形領域をウインドウとし、その位置情報を出力する。
 次に、ウインドウ処理部122は、ステップST5において、混合比設定部134で、ウインドウ毎に、そのウインドウにおける動きオブジェクトの動き量MやコントラストCの情報を計算し、その情報に基づいて例えば混合比設定テーブル(図9参照)を参照して混合比を設定し、その混合比情報を出力する。そして、ウインドウ処理部122は、ステップST6において、処理を終了する。
 図11のフローチャートは、図10のステップST2のグルーピング候補を得るための処理の手順の一例を示している。このフローチャートは、1画素ブロックに対する処理を示しており、実際には、この処理が全画素ブロックに対して行われる。
 まず、ウインドウ処理部122は、ステップST11において、双方向動き予測部131で、処理を開始する。次に、ウインドウ処理部122は、ステップST12において、ピクチャペア(N番目のピクチャと(N+2)番目のピクチャ)の間で、N番目のピクチャから(N+2)番目のピクチャに対して、N番目のピクチャにおける対象画素ブロックについての動きベクトルMV(i,j)を求める。
 次に、ウインドウ処理部122は、ステップST13において、速度判定部132で、対象画素ブロックの動きベクトルMV(i,j)が移動画素数閾値以上か否かを判断する。閾値以上であるとき、ウインドウ処理部122は、ステップST14において、速度判定部132で、その動きベクトルMV(i,j)に対応した(N+2)番目のピクチャの画素ブロックを、前方向のウインドウグルーピング候補とし、その後に、ステップST15において、処理を終了する。一方、ステップST13で閾値以上でないとき、ウインドウ処理部122は、直ちに、ステップST15において、処理を終了する。
 なお、詳細説明は省略するが、図10のステップST3のグルーピング候補を得るための処理の手順に関しても、図11のフローチャートで示すものと同様に行われる。
 また、上述では、各ウインドウにおける混合比を、そのウインドウにおける動きオブジェクトの動き量やコントラストの情報に基づいて算出する例を示したが、動き量の情報あるいはコントラストの情報のいずれかだけに基づいて混合比を算出することも考えられる。
 図4に戻って、混合処理部123は、時間軸分割部121で得られた基本レイヤ(60Hz階層)の各ピクチャの画像データおよび拡張レイヤ(120Hz階層)の各ピクチャの画像データを入力する。また、この混合処理部123には、図示しない制御部から、混合パラメータ(各ウインドウの位置、混合比の情報、さらに混合対象画像の情報などの混合処理の情報を含む)が供給される。混合処理部123は、ピクチャペア毎に、基本レイヤの画像データに対して拡張レイヤの画像データを適宜混合して、基本レイヤの各ピクチャの画像データR(N)を生成して、プリプロセッサ102の出力とする。
 この場合、混合処理部123は、ウインドウ範囲内では、基本レイヤ(60Hz階層)の画像データおよび拡張レイヤ(120Hz階層)の画像データを、そのウインドウの混合比で混合して、基本レイヤの画像データR(N)とする。また、混合処理部123は、ウインドウ範囲外では、基本レイヤ(60Hz階層)の画像データをそのまま基本レイヤの画像データR(N)とする。
 図3に戻って、送信装置100では、エンコーダ103において、基本レイヤの各ピクチャの画像データR(N)と、拡張レイヤの各ピクチャの画像データR(N+1)に例えばHEVC(High Efficiency Video Coding)による符号化処理が施されて、基本ストリームSTbと、拡張ストリームSTeが得られる。
 基本ストリームSTbには、基本レイヤ(60Hz階層)の各ピクチャの画像データR(N)の符号化画像データが含まれる。拡張ストリームSTeには、拡張レイヤ(120Hz階層)の各ピクチャの画像データR(N+1)の符号化画像データが含まれる。
 また、送信装置100では、エンコーダ103において、少なくとも基本レイヤ(60Hz階層)の各ピクチャの画像データに、混合パラメータ(各ウインドウの位置、混合比の情報、さらに混合対象画像の情報などの混合処理の情報を含む)が付加される。このように混合パラメータが付加されることで、受信側において、逆混合処理(混合解除処理)を簡単かつ適切に行うことが可能となる。
 この実施の形態において、アクセスユニット(AU)の“SEIs”の部分に、新規定義する、ブレンディング・ウインドウ・インフォメーション・SEIメッセージ(Blending__window_information SEI message)が挿入される。
 図12は、ブレンディング・ウインドウ・インフォメーション・SEIメッセージの構造例(Syntax)を示し、図13は、その構造例における主要な情報の内容(Semantics)を示している。「blending_window_information_id」のフィールドは、ブレンディング・ウインドウ・インフォメーション・SEIメッセージであることを示す識別情報である。
 「number_of_blending_windows」のフィールドは、混合ウインドウの数を示す。「current_picture_position」のフィールドは、混合処理に寄与する2つのピクチャの中での現ピクチャの時間的位置を示す。例えば、 “1”は2つのピクチャのうち時間的順序が早い方であることを示し、“0”は2つのピクチャのうち時間的順序が遅い方であることを示す。「blend_flag」のフィールドは、当該ピクチャが混合されているか否かを示す。例えば、“1”は混合されていることを示し、“0”は混合されていないことを示す。
 「number_of_blending_windows」で示される混合ウインドウの数だけ、「window_start_position_horizontal」、「window_start_position_vertical」、「window_end_position_horizontal」、「window_end_position_vertical」、「blend_coefficient_A」および「blend_coefficient_B」のフィールドが繰り返される。
 「window_start_position_horizontal」のフィールドは、ウインドウの開始位置の水平画素位置を画像のトップ・レフト(top-left)からの画素単位オフセットで示す。「window_start_position_vertical」のフィールドは、ウインドウの開始位置の垂直画素位置を画像のトップ・レフト(top-left)からの画素単位オフセットで示す。
 「window_end_position_horizontal」のフィールドは、ウインドウの終了位置の水平画素位置を画像のトップ・レフト(top-left)からの画素単位オフセットで示す。「window_end_position_vertical」のフィールドは、ウインドウの終了位置の垂直画素位置を画像のトップ・レフト(top-left)からの画素単位オフセットで示す。
 「blend_coefficient_A」のフィールドは、混合演算の係数の分子を示す。「blend_coefficient_B」のフィールドは、混合演算の係数の分母を示す。
 図3に戻って、120Hzのフレーム周波数の画像データを処理可能なデコード能力があるテレビ受信機200Aでは、デコーダ204Aにおいて、2つのストリームSTb,STeに復号化処理が施されて、基本レイヤ(60Hz階層)の各ピクチャの画像データR(N)と、拡張レイヤ(120Hz階層)の各ピクチャの画像データR(N+1)が得られる。
 そして、テレビ受信機200Aでは、ポストプロセッサ205Aにおいて、画像データR(N),R(N+1)が処理されて、送信側における120Hzのフレーム周波数の画像データPと同様の120Hzのフレーム周波数の画像データPが得られる。
 この場合、ポストプロセッサ205Aでは、制御部から与えられる混合パラメータ(各ウインドウの位置、混合比の情報、さらに混合対象画像の情報などの混合処理の情報を含む)に基づいて、基本レイヤ(60Hz階層)の各ピクチャの画像データR(N)について、混合処理がされているウインドウ範囲内で、拡張レイヤ(120Hz階層)の各ピクチャの画像データR(N+1)を用いた逆混合処理(混合解除処理)が行われる。
 図14は、ポストプロセッサ205Aの構成例を示している。このポストプロセッサ205Aは、逆混合処理部251と、時間軸合成部252を有している。逆混合処理部251は、基本レイヤ(60Hz階層)の各ピクチャの画像データおよび拡張レイヤ(120Hz階層)の各ピクチャの画像データを入力する。また、この逆混合処理部251には、図示しない制御部から、混合パラメータが供給される。
 逆混合処理部251は、ピクチャペア毎に、基本レイヤの画像データに対して、拡張レイヤの画像データを用いた逆混合処理を適宜施して、基本レイヤの各ピクチャの画像データR´(N)を生成して、時間軸合成部252に供給する。この場合、逆混合処理部251は、ウインドウ範囲内では、画像データR(N)に混合処理が施されていることから、その画像データR(N)に対して、R(N)のウインドウ位置に相当する拡張レイヤ(120Hz階層)の画像データを用いて、そのウインドウの混合比に基づいた逆混合処理を施して、画像データR´(N)として出力する。また、逆混合処理部251は、ウインドウ範囲外では、画像データR(N)に混合処理が施されていないことから、その画像データR(N)をそのまま画像データR´(N)として出力する。
 時間軸合成部252は、逆混合処理部251で得られた基本レイヤの各ピクチャの画像データR´(N)と、拡張レイヤの各ピクチャの画像データR(N+1)を合成して、ポストプロセッサ205Aの出力となる120Hzのフレーム周波数の画像データPを得る。
 図3に戻って、テレビ受信機200Aでは、ポストプロセッサ205Aで得られた120Hzのフレーム周波数の画像データPが、そのまま、あるいはMCFI(Motion Compensated Frame Insertion)部206Aでフレーム補間がされてフレームレートが高められて、表示用画像データとなる。
 また、60Hzのフレーム周波数の画像データを処理可能なデコード能力があるテレビ受信機200Bでは、デコーダ204Bにおいて、ストリームSTbに復号化処理が施されて、基本レイヤ(60Hz階層)の各ピクチャの画像データR(N)を含む60Hzのフレーム周波数の画像データが得られる。そして、このテレビ受信機200Bでは、その60Hzのフレーム周波数の画像データが、そのまま、あるいはMCFI部206Bでフレーム補間がされてフレームレートが高められて、表示用画像データとなる。
 「送信装置の構成」
 図15は、送信装置100の構成例を示している。この送信装置100は、制御部101と、プリプロセッサ102と、エンコーダ103と、マルチプレクサ104と、送信部105を有している。制御部101は、送信装置100の各部の動作を制御する。
 プリプロセッサ102は、120Hzのフレーム周波数の画像データPを処理して、基本レイヤ(60Hz階層)の各ピクチャの画像データR(N)と、拡張レイヤ(120Hz階層)の各ピクチャの画像データR(N+1)を得る(図4参照)。
 この場合、基本レイヤの各ピクチャの画像データR(N)は、閾値以上の動き部分を含む画像範囲であるウインドウ範囲内で、ピクチャペアを構成する拡張レイヤのピクチャの画像データR(N+1)が用いられて、混合処理が施される。その場合の混合比は、ウインドウ毎に、そのウインドウにおける動きオブジェクトの動き量やコントラストの情報に基づいて設定される(図5、図9参照)。
 エンコーダ103は、プリプロセッサ102から出力される基本レイヤの各ピクチャの画像データR(N)と拡張レイヤの各ピクチャの画像データR(N+1)に例えばHEVCによる符号化処理を施し、基本ストリームSTbと、拡張ストリームSTeを得る。ここで、基本ストリームSTbには、基本レイヤ(60Hz階層)の各ピクチャの画像データR(N)の符号化画像データが含まれる。拡張ストリームSTeには、拡張レイヤ(120Hz階層)の各ピクチャの画像データR(N+1)の符号化画像データが含まれる。
 また、エンコーダ103は、少なくとも基本レイヤ(60Hz階層)の各ピクチャの画像データに、混合パラメータ(各ウインドウの位置、混合比の情報、さらに混合対象画像の情報などの混合処理の情報を含む)を付加する。具体的には、各ピクチャのアクセスユニット(AU)の“SEIs”の部分に、新規定義する、ブレンディング・ウインドウ・インフォメーション・SEIメッセージ(図12参照)を挿入する。
 マルチプレクサ104は、エンコーダ103で生成された基本ストリームSTbおよび拡張ストリームSTeを、PES(Packetized Elementary Stream)パケット化し、さらにトランスポートパケット化して多重し、多重化ストリームとしてのトランスポートストリームTSを得る。送信部105は、トランスポートストリームTSを、例えば、QPSK/OFDM等の放送に適した変調方式で変調し、RF変調信号を送信アンテナから送信する。
 図16は、トランスポートストリームTSの構成例を示している。この例は、混合処理情報を60Hz階層のピクチャのみに付す場合の構成例を示している。このトランスポートストリームTSには、基本ストリーム(ベースストリーム)STbと、拡張ストリーム(エンハンスストリーム)STeの2つのストリーム(サブストリーム)が含まれている。
 すなわち、この構成例では、パケット識別子「PID1」で識別される基本ストリームSTbのPESパケット「video PES1」が存在し、パケット識別子「PID2」で識別される拡張ストリームSTeのPESパケット「video PES2」が存在する。PESパケット「video PES1」でコンテナされる60Hz階層の各ピクチャの符号化画像データには、ブレンディング・ウインドウ・インフォメーション・SEIメッセージ(図12参照)が挿入されている。
 また、トランスポートストリームTSには、PSI(Program Specific Information)の一つとして、PMT(Program Map Table)が含まれている。このPSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。
 PMTには、プログラム全体に関連する情報を記述するプログラムループ(Program loop)が存在する。また、PMTには、各ビデオストリームに関連した情報を持つビデオエレメンタリストリームループが存在する。この構成例では、基本ストリームSTbに対応したビデオエレメンタリストリームループ「video ES1 loop」が存在し、拡張ストリームSTeに対応したビデオエレメンタリストリームループ「video ES2 loop」が存在する。
 「video ES1 loop」には、基本ストリームSTb(video PES1)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。ストリームタイプは、HEVC符号化の場合、基本ストリームを示す“0x24”とされる。
 また、「video ES2 loop」には、拡張ストリームSTe(video PES2)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。ストリームタイプは、HEVC符号化の場合、拡張ストリームを示す“0x25”とされる。
 図17は、トランスポートストリームTSの他の構成例を示している。この例は、混合処理情報を全ピクチャに付す場合の構成例を示している。PESパケット「video PES1」でコンテナされる60Hz階層の各ピクチャの符号化画像データおよびPESパケット「video PES2」でコンテナされる120Hz階層の各ピクチャの符号化画像データには、ブレンディング・インフォメーション・SEIメッセージ(図12参照)が挿入されている。その他は、図16に示すトランスポートストリームTSの構成例と同様であるので、その詳細説明は省略する。
 図15に示す送信装置100の動作を簡単に説明する。120Hzのフレーム周波数の画像データPがプリプロセッサ102(図4参照)に入力される。このプリプロセッサ102では、120Hzのフレーム周波数の画像データPが処理されて、基本レイヤ(60Hz階層)の各ピクチャの画像データR(N)と、拡張レイヤ(120Hz階層)の各ピクチャの画像データR(N+1)が得られる。この場合、基本レイヤの各ピクチャの画像データR(N)は、閾値以上の動き部分を含む画像範囲であるウインドウ範囲内で、ピクチャペアを構成する拡張レイヤのピクチャの画像データR(N+1)が用いられて、混合処理が施される。
 プリプロセッサ102で得られた基本レイヤの各ピクチャの画像データR(N)および拡張レイヤの各ピクチャの画像データR(N+1)は、エンコーダ103に供給される。エンコーダ103では、画像データR(N),R(N+1)のそれぞれに対して例えばHEVCによる符号化処理が施され、基本ストリームSTbと、拡張ストリームSTeが得られる。
 また、エンコーダ103では、少なくとも混合処理が施されている60Hz階層の画像データの各ピクチャの符号化画像データに、混合パラメータ(各ウインドウの位置、混合比の情報、さらに混合対象画像の情報などの混合処理の情報を含む)が付加される。具体的には、各ピクチャのアクセスユニット(AU)の“SEIs”の部分に、新規定義する、ブレンディング・ウインドウ・インフォメーション・SEIメッセージ(図12参照)が挿入される。
 エンコーダ103で生成された基本ストリームSTbおよび拡張ストリームSTeは、マルチプレクサ104に供給される。マルチプレクサ104では、各ストリームが、PESパケット化され、さらにトランスポートパケット化されて多重され、多重化ストリームとしてのトランスポートストリームTSが得られる。
 マルチプレクサ104で生成されたトランスポートストリームTSは、送信部105に送られる。送信部105では、このトランスポートストリームTSが、例えば、QPSK/OFDM等の放送に適した変調方式で変調され、このRF変調信号が送信アンテナから送信される。
 「テレビ受信機の構成」
 図18は、120Hzのフレーム周波数の画像データを処理可能なデコード能力があるテレビ受信機200Aの構成例を示している。このテレビ受信機200Aは、制御部201Aと、受信部202Aと、デマルチプレクサ203Aと、デコーダ204Aと、ポストプロセッサ205Aと、MCFI部206Aと、パネル表示部207Aを有している。
 制御部201Aは、テレビ受信機200Aの各部の動作を制御する。受信部202Aは、受信アンテナで受信されたRF変調信号を復調し、トランスポートストリームTSを取得する。デマルチプレクサ203Aは、トランスポートストリームTSから、PIDのフィルタリングによって、基本ストリームSTbおよび拡張ストリームSTeを取り出し、デコーダ204Aに供給する。
 デコーダ204は、ストリームSTb,STeに復号化処理を施し、基本レイヤ(60Hz階層)の各ピクチャの画像データR(N)と、拡張レイヤ(120Hz階層)の各ピクチャの画像データR(N+1)を得る。この場合、基本レイヤの各ピクチャの画像データR(N)は、閾値以上の動き部分を含む画像範囲であるウインドウ範囲内で、ピクチャペアを構成する拡張レイヤのピクチャの画像データR(N+1)が用いられて、混合処理が施されている。
 また、デコーダ204Aは、ストリームSTb,STeを構成する各アクセスユニットに挿入されているパラメータセットやSEIを抽出し、制御部201Aに送る。この場合、混合パラメータ(各ウインドウの位置、混合比の情報、さらに混合対象画像の情報などの混合処理の情報を含む)を持つブレンディング・ウインドウ・インフォメーション・SEIメッセージ(図12参照)も抽出される。制御部201Aは、この混合パラメータに基づいて、ポストプロセッサ205Aにおける60Hz階層の画像データに対する逆混合処理(混合解除処理)を制御する。
 ポストプロセッサ205Aは、デコーダ204Aで得られる画像データR(N),R(N+1)を処理して、送信側における120Hzのフレーム周波数の画像データPと同様の120Hzのフレーム周波数の画像データPを得る(図14参照)。この場合、ポストプロセッサ205Aでは、制御部201Aから与えられる混合パラメータに基づいて、基本レイヤ(60Hz階層)の各ピクチャの画像データR(N)について、混合処理がされているウインドウ範囲内で、ピクチャペアを構成する拡張レイヤ(120Hz階層)のピクチャの画像データR(N+1)を用いた逆混合処理(混合解除処理)が施される。
 MCFI部206Aは、ポストプロセッサ205Aで得られた120Hzのフレーム周波数の画像データPに、動き補償のフレーム補間処理を施して、フレームレートをさらに高めた画像データを得る。なお、このMCFI部206Aを有していない場合もある。パネル表示部207Aは、ポストプロセッサ205で得られた240Hzの画像データまたはMCFI部206Aでフレームレートが高められた画像データによる画像表示をする。
 図18に示すテレビ受信機200Aの動作を簡単に説明する。受信部202Aでは、受信アンテナで受信されたRF変調信号が復調され、トランスポートストリームTSが取得される。このトランスポートストリームTSは、デマルチプレクサ203Aに送られる。デマルチプレクサ203Aでは、トランスポートストリームTSから、PIDのフィルタリングによって、基本ストリームSTbおよび拡張ストリームSTeが取り出され、デコーダ204Aに供給される。
 デコーダ204Aでは、ストリームSTb,STeに復号化処理が施され、基本レイヤ(60Hz階層)の各ピクチャの画像データR(N)と、拡張レイヤ(120Hz階層)の各ピクチャの画像データR(N+1)が得られる。この場合、基本レイヤの各ピクチャの画像データR(N)は、閾値以上の動き部分を含む画像範囲であるウインドウ範囲内で、ピクチャペアを構成する拡張レイヤのピクチャの画像データR(N+1)が用いられて、混合処理が施されている。
 また、デコーダ204Aでは、ストリームSTb,STeを構成する各アクセスユニットに挿入されているパラメータセットやSEIが抽出され、制御部201に送られる。この場合、混合パラメータ(各ウインドウの位置、混合比の情報、さらに混合対象画像の情報などの混合処理の情報を含む)を持つブレンディング・ウインドウ・インフォメーション・SEIメッセージ(図12参照)も抽出される。この混合パラメータに基づいて、ポストプロセッサ205Aにおける60Hz階層の画像データに対する逆混合処理(混合解除処理)が制御される。
 デコーダ204Aで得られた基本レイヤの各ピクチャの画像データR(N)および拡張レイヤの各ピクチャの画像データR(N+1)は、ポストプロセッサ205Aに供給される。ポストプロセッサ205Aでは、画像データR(N),R(N+1)が処理されて、送信側における120Hzのフレーム周波数の画像データPと同様の120Hzのフレーム周波数の画像データPが得られる。
 この場合、基本レイヤの各ピクチャの画像データR(N)については、混合処理がされているウインドウ範囲内で、ピクチャペアを構成する拡張レイヤのピクチャの画像データR(N+1)を用いた逆混合処理(混合解除処理)が施される。そのため、ポストプロセッサ205Aから出力される120Hzのフレーム周波数の画像データPに含まれる60Hz階層の画像データは混合が解除されたものとなる。
 ポストプロセッサ205Aで得られた120Hzのフレーム周波数の画像データ、あるいはさらにMCFI部206Aでフレームレートが高められた画像データはパネル表示部207Aに供給され、パネル表示部207Aには当該画像データによる画像表示がされる。
 図19は、60Hzの画像データを処理可能なデコード能力があるテレビ受信機200Bの構成例を示している。このテレビ受信機200Bは、制御部201Bと、受信部202Bと、デマルチプレクサ203Bと、デコーダ204Bと、MCFI部206Bと、パネル表示部207Bを有している。
 制御部201Bは、テレビ受信機200Bの各部の動作を制御する。受信部202Bは、受信アンテナで受信されたRF変調信号を復調し、トランスポートストリームTSを取得する。デマルチプレクサ203Bは、トランスポートストリームTSから、PIDのフィルタリングによって、基本ストリームSTbを取り出し、デコーダ204Bに供給する。
 デコーダ204Bは、基本ストリームSTbに復号化処理を施して、基本レイヤ(60Hz階層)の各ピクチャの画像データR(N)を含む60Hzのフレーム周波数の画像データを得る。この基本レイヤの各ピクチャの画像データR(N)については、混合処理がされているウインドウ範囲内で、ピクチャペアを構成する拡張レイヤのピクチャの画像データR(N+1)を用いた混合処理が施されている。
 MCFI部206Bは、この60Hzのフレーム周波数の画像データに、動き補償のフレーム補間処理を施して、フレームレートをさらに高めた画像データを得る。なお、このMCFI部206Bを有していない場合もある。パネル表示部207Bは、デコーダ204Bで得られた60Hzのフレーム周波数の画像データまたはMCFI部206Bでフレームレートが高められた画像データによる画像表示をする。
 図19に示すテレビ受信機200Bの動作を簡単に説明する。受信部202Bでは、受信アンテナで受信されたRF変調信号が復調され、トランスポートストリームTSが取得される。このトランスポートストリームTSは、デマルチプレクサ203Bに送られる。デマルチプレクサ203Bでは、トランスポートストリームTSから、PIDのフィルタリングによって、基本ストリームSTbが取り出され、デコーダ204Bに供給される。
 デコーダ204Bでは、基本ストリームSTbに復号化処理が施されて、基本レイヤの各ピクチャの画像データR(N)を含む60Hzのフレーム周波数の画像データが得られる。デコーダ204Bで得られた60Hzのフレーム周波数の画像データ、あるいはさらにMCFI部206Bでフレームレートが高められた画像データはパネル表示部207Bに供給され、このパネル表示部207Bには当該画像データによる画像表示がされる。
 以上説明したように、図1に示す送受信システム10において、送信側では、移動画素数閾値以上の動き部分を含む画像範囲であるウインドウ範囲内だけ混合処理がされている基本レイヤの各ピクチャの画像データと、拡張レイヤの各ピクチャの画像データを送信するものである。そのため、受信側において、基本となるフレーム周波数のレイヤにおいて、ウインドウ範囲内でストロービング劣化を回避でき、その他の範囲で本来鮮明に表示すべきものが二重表示されることを回避できる。
 また、図1に示す送受信システム10においては、受信側では、所定のウインドウ範囲内だけ混合処理がされている基本レイヤの各ピクチャの画像データと、拡張レイヤの各ピクチャの画像データを受信し、表示能力に応じて、基本レイヤの各ピクチャの画像データのみ、または基本レイヤの各ピクチャの画像データおよび拡張レイヤの各ピクチャの画像データの双方を用いて表示用画像データを得るものである。そのため、例えば、基本となるフレーム周波数のレイヤにおいて、所定のウインドウ範囲でストロービング劣化を回避でき、その他の範囲で本来鮮明に表示すべきものが二重表示されることを回避できる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 <2.変形例>
 上述実施の形態においては、送信装置100とテレビ受信機200からなる送受信システム10の例を示したが、本技術を適用し得る送受信システムの構成は、これに限定されるものではない。例えば、図20に示すように、テレビ受信機200の部分が、HDMI(High-Definition Multimedia Interface)などのデジタルインタフェースで接続されたセットトップボックス200-1およびディスプレイ200-2とされる送受信システム10Aも考えられる。なお、「HDMI」は登録商標である。
 図21は、その場合における送信装置100、セットトップボックス200-1およびディスプレイ200-2の処理の概要を示している。詳細説明は省略するが、図3に示す送信装置100およびテレビ受信機200(200A,200B)の構成と同様に動作する。なお、セットトップボックス200A-1からディスプレイ200A-2には、画像データR(N),R(N+1)と共に、基本レイヤ(60Hz階層)の各ピクチャの画像データR(N)に逆混合処理(混合解除処理)を施すための情報として、混合パラメータ(各ウインドウの位置、混合比の情報、さらに混合対象画像の情報などの混合処理の情報を含む)が送られる。なお、ポストプロセッサ205Aの機能を、デコーダ204Aに持たせることも考えられる。
 セットトップボックス200A-1は、各ピクチャに対応した混合パラメータを、例えば、それぞれのピクチャの画像データにおけるブランキング期間に挿入して送信する。ここでは、新規定義するHDMI・ブレンディング・ウインドウ・インフォフレーム(HDMI blending_window InfoFrame)を使用するが、これに限定されるものではない。
 図22は、HDMI・ブレンディング・ウインドウ・インフォフレームの構造例(Syntax)を示し、上述の図12のブレンディング・インフォメーション・SEIメッセージの構造例(Syntax)に対応したものであり、個々の情報の詳細については、その説明を省略する。このインフォフレームの最初の3バイトはヘッダ部分であり、インフォフレームタイプ、バージョンナンバー、データバイトのバイト長の情報が配置されている。
 データバイト0(N+0)に「number_of_blending_windows」の8ビット情報が配置されている。データバイト1(N+1)の第7ビットに「current_picture_position」の1ビット情報が配置されている。また、このデータバイト1(N+1)の第6ビットに「blend_flag」の1ビット情報が配置されている。
 また、データバイト2(N+2)とデータバイト3(N+3)に「window_start_position_horizontal」の16ビット情報が配置されている。また、データバイト4(N+4)とデータバイト5(N+5)に「window_start_position_vertical」の16ビット情報が配置されている。また、データバイト6(N+6)とデータバイト7(N+7)に「window_end_position_horizontal」の16ビット情報が配置されている。また、データバイト8(N+8)とデータバイト9(N+9)に「window_end_position_vertical」の16ビット情報が配置されている。
 また、データバイト10(N+10)に「blend_coefficient_A」の8ビット情報が配置されている。また、データバイト11(N+11)に「blend_coefficient_B」の8ビット情報が配置されている。そして、「number_of_blending_windows」の値だけ、データバイト2からデータバイト11の要素がデータバイト12(N+12)以後の空間で繰り返される。
 また、上述実施の形態においては、120Hzのフレーム周波数の画像データが処理された基本レイヤ(60Hz階層)の各ピクチャの画像データP(N)と拡張レイヤ(120Hz階層)の各ピクチャの画像データP(N+1)を送信側から受信側に送信する例を示した。しかし、送信側から受信側に120Hzのフレーム周波数の画像データをそのまま送信し、受信側において、この120Hzのフレーム周波数の画像データを処理して、基本レイヤ(60Hz階層)の各ピクチャの画像データP(N)に相当する60Hzのフレーム周波数の画像データを得て利用することも考えられる。
 図23は、その場合における送受信システム10Bの構成例を示している。この送受信システム10Bは、送信装置100Bと、インタフェース・ボックス(IFB:Interface box)300-1と、画像表示機器300-2を有する構成となっている。画像表示機器300-2は、例えばテレビ受信機やディスプレイなどである。インタフェース・ボックス300-1と画像表示機器300-2は例えばHDMIなどのデジタルインタフェースで接続されている。
 送信装置100Bは、コンテナとしてのトランスポートストリームTSを放送波に載せて送信する。このトランスポートストリームTSは、多重化ストリームとしてのコンテナを構成している。このトランスポートストリームTSには、120Hzのフレーム周波数の画像データを符号化して得られた基本ストリームが含まれている。
 インタフェース・ボックス300-1は、送信装置100Bから放送波に載せて送られてくる上述のトランスポートストリームTSを受信する。インタフェース・ボックス300-1は、トランスポートストリームTSに含まれる基本ストリームに復号化処理を施して、120Hzのフレーム周波数の画像データを得る。この120Hzのフレーム周波数の画像データは、それを取り扱う画像表示機器300-2に送られる。
 また、インタフェース・ボックス300-1は、上述のように得られた120Hzのフレーム周波数の画像データを処理して、図1の送信装置100のプロプロセッサ102で得られた基本レイヤ(60Hz階層)の各ピクチャの画像データP(N)に相当する、60Hzのフレーム周波数の画像データを得る。この60Hzのフレーム周波数の画像データは、それを取り扱う画像表示機器300-2に送られる。なお、基本レイヤの各ピクチャの画像データR(N)は、上述したように、閾値以上の動き部分を含む画像範囲であるウインドウ範囲内で、ピクチャペアを構成する拡張レイヤのピクチャの画像データR(N+1)が用いられて、混合処理が施されたものである。
 図24は、送信装置100B、インタフェース・ボックス300-1および画像表示機器300-2(300A-2,300B-2)の処理の概要を示している。なお、送信装置100Bに入力される120Hzのフレーム周波数の画像データPと、インタフェース・ボックス300-1のデコーダ311から出力される120Hzのフレーム周波数の画像データPとは、時系列的には同じものであるが、コーデックを通しているので両者の画質が異なる場合も含む。
 送信装置100では、エンコーダ103Bにおいて、120Hzのフレーム周波数の画像データPが符号化されて基本ストリームSTbが得られる。この基本ストリームSTbは、トランスポートストリームTSに含められて送信される。
 インタフェース・ボックス300-1では、デコーダ311において、トランスポートストリームTSに含めて送信されてくる基本ストリームSTbに復号化処理が施されて、120Hzのフレーム周波数の画像データPが得られる。また、インタフェース・ボックス300-1では、プロセッサ312において、画像データPが処理されて、図1の送信装置100のプロプロセッサ102で得られた基本レイヤ(60Hz階層)の各ピクチャの画像データP(N)に相当する、60Hzのフレーム周波数の画像データが得られる。
 図25は、プロセッサ312の構成例を示している。この図25において、図4のプリプロセッサ102と対応する部分には、同一符号を付してしめしている。詳細説明は省略するが、プロセッサ312は、時間軸分割部121と、ウインドウ処理部122と、混合処理部123を有し、図4のプリプロセッサ102と同様の処理がなされて、60Hzのフレーム周波数の画像データとして、基本レイヤ(60Hz階層)の各ピクチャの画像データP(N)を出力する。
 図24に戻って、インタフェース・ボックス300-1のデコーダ311で得られた120Hzのフレーム周波数の画像データPは、HDMIなどのデジタルインタフェースで、画像表示機器300A-2に送られる。この画像表示器300A-2では、この画像データPが、そのまま、あるいはMCFI(Motion Compensated Frame Insertion)部321Aでフレーム補間がされてフレームレートが高められて、表示用画像データとなる。
 また、インタフェース・ボックス300-1のプロセッサ312で得られた60Hzのフレーム周波数の画像データR(N)は、HDMIなどのデジタルインタフェースで、画像表示機器300B-2に送られる。この画像表示器300B-2では、この画像データR(N)が、そのまま、あるいはMCFI(Motion Compensated Frame Insertion)部321Bでフレーム補間がされてフレームレートが高められて、表示用画像データとなる。
 このように、図23に示す送受信システム10Bにおいて、インタフェース・ボックス300-1では、閾値以上の動き部分を含む画像範囲である所定のウインドウ範囲内だけ混合処理がされている基本レイヤの各ピクチャの画像データが得られるものである。そのため、基本となるフレーム周波数のレイヤにおいて、所定のウインドウ範囲でストロービング劣化を回避でき、その他の範囲で本来鮮明に表示すべきものが二重表示されることを回避できる。
 また、上述実施の形態においては、120Hzのフレーム周波数の画像データが処理された基本レイヤ(60Hz階層)の各ピクチャの画像データP(N)と、拡張レイヤ(120Hz階層)の各ピクチャの画像データP(N+1)を取り扱う例を示したが、これに限定されるものではない。例えば、240Hzのフレーム周波数の画像データが処理された基本レイヤ(120Hz階層)の各ピクチャの画像データP(N)と、拡張レイヤ(240Hz階層)の各ピクチャの画像データP(N+1)を取り扱う例も、同様に考えることができる。
 また、上述実施の形態においては、コンテナがトランスポートストリーム(MPEG-2 TS)である例を示した。しかし、本技術は、インターネット等のネットワークを利用して受信端末に配信される構成のシステムにも同様に適用できる。インターネットの配信では、MP4やそれ以外のフォーマットのコンテナで配信されることが多い。つまり、コンテナとしては、デジタル放送規格で採用されているトランスポートストリーム(MPEG-2 TS)あるいはMMT(MPEG Media Transport)、インターネット配信で使用されているISOBMFF(MP4)などの種々のフォーマットのコンテナが該当する。
 また、本技術は、以下のような構成を取ることもできる。
 (1)基本レイヤの各ピクチャの画像データおよび拡張レイヤの各ピクチャの画像データを受信する受信部を備え、
 上記基本レイヤの各ピクチャの画像データは、所定のウインドウ範囲内では、所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものであり、
 上記拡張レイヤの各ピクチャの画像データは、上記時間的に連続する2個のピクチャ単位で他方のピクチャの画像データを取り出して得られたものであり、
 表示能力に応じて、上記基本レイヤの各ピクチャの画像データのみ、または上記基本レイヤの各ピクチャの画像データおよび上記拡張レイヤの各ピクチャの画像データの双方を用いて表示用画像データを得る処理部をさらに備える
 受信装置。
 (2)上記処理部は、上記基本レイヤの各ピクチャの画像データおよび上記拡張レイヤの各ピクチャの画像データの双方を用いて表示用画像データを得る場合、上記基本レイヤの各ピクチャの画像データに上記所定のウインドウ範囲内で逆混合処理をする
 前記(1)に記載の受信装置。
 (3)少なくとも上記基本レイヤの各ピクチャの画像データに混合処理の情報が含まれており、
 上記処理部は、上記混合処理の情報に基づいて、上記基本レイヤの各ピクチャの画像データに上記所定のウインドウ範囲内で逆混合処理をする
 前記(2)に記載の受信装置。
 (4)上記混合処理の情報は、上記所定ウインドウの位置情報を含む
 前記(3)に記載の受信装置。
 (5)上記混合処理の情報は、上記所定ウインドウにおける混合比の情報を含む
 前記(4)に記載の受信装置。
 (6)上記所定のウインドウ範囲は、上記所定フレームレートの画像データのうち上記基本レイヤの各ピクチャの画像データに対応した各ピクチャの画像データに基づいて抽出された閾値以上の動き部分を含む画像範囲である
 前記(1)から(5)のいずれかに記載の受信装置。
 (7)上記所定フレームレートは120Hzである
 前記(1)から(6)のいずれかに記載の受信装置。
 (8)基本レイヤの各ピクチャの画像データおよび拡張レイヤの各ピクチャの画像データを受信する手順を有し、
 上記基本レイヤの各ピクチャの画像データは、所定のウインドウ範囲内では、所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものであり、
 上記拡張レイヤの各ピクチャの画像データは、上記時間的に連続する2個のピクチャ単位で他方のピクチャの画像データを取り出して得られたものであり、
 表示能力に応じて、上記基本レイヤの各ピクチャの画像データのみ、または上記基本レイヤの各ピクチャの画像データおよび上記拡張レイヤの各ピクチャの画像データの双方を用いて表示用画像データを得る手順をさらに有する
 受信方法。
 (9)上記表示用画像データを得る手順では、上記基本レイヤの各ピクチャの画像データおよび上記拡張レイヤの各ピクチャの画像データの双方を用いて表示用画像データを得る場合、上記基本レイヤの各ピクチャの画像データに上記所定のウインドウ範囲内で逆混合処理をする
 前記(8)に記載の受信方法。
 (10)少なくとも上記基本レイヤの各ピクチャの画像データに上記混合処理の情報が含まれており、
 上記表示用画像データを得る手順では、混合処理の情報に基づいて、上記基本レイヤの各ピクチャの画像データに上記所定のウインドウ範囲内で逆混合処理をする
 請求項9に記載の受信方法。
 (11)上記混合処理の情報は、上記所定のウインドウの位置情報を含む
 前記(10)に記載の受信方法。
 (12)上記混合処理の情報は、上記所定のウインドウにおける混合比の情報を含む
 前記(11)に記載の受信方法。
 (13)上記所定のウインドウ範囲は、上記所定フレームレートの画像データのうち上記基本レイヤの各ピクチャの画像データに対応した各ピクチャの画像データに基づいて抽出された閾値以上の動き部分を含む画像範囲である
 前記(8)から(12)のいずれかに記載の受信方法。
 (14)上記所定フレームレートは120Hzである
 前記(8)から(13)のいずれかに記載の受信方法。
 (15)所定フレームレートの画像データを処理して基本レイヤの各ピクチャの画像データを得ると共に拡張レイヤの各ピクチャの画像データを得る処理部とを備え、
 上記基本レイヤの各ピクチャの画像データは、閾値以上の動き部分を含む画像範囲である所定のウインドウ範囲内では、上記所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものであり、
 上記拡張レイヤの各ピクチャの画像データは、上記時間的に連続する2個のピクチャ単位で他方のピクチャの画像データを取り出して得られたものであり、
 上記基本レイヤの各ピクチャの画像データおよび上記拡張レイヤの各ピクチャの画像データを送信する送信部をさらに備える
 送信装置。
 (16)所定フレームレートの画像データを処理して基本レイヤの各ピクチャの画像データを得ると共に拡張レイヤの各ピクチャの画像データを得る手順を有し、
 上記基本レイヤの各ピクチャの画像データは、閾値以上の動き部分を含む画像範囲である所定のウインドウ範囲内では、上記所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものであり、
 上記拡張レイヤの各ピクチャの画像データは、上記時間的に連続する2個のピクチャ単位で他方のピクチャの画像データを取り出して得られたものであり、
 上記基本レイヤの各ピクチャの画像データおよび上記拡張レイヤの各ピクチャの画像データを送信する手順をさらに有する
 送信方法。
 (17)所定フレームレートの画像データを受信する受信部と、
 上記所定フレームレートの画像データを処理して、基本レイヤの各ピクチャの画像データを得る処理部を備え、
 上記基本レイヤの各ピクチャの画像データは、閾値以上の動き部分を含む画像範囲である所定のウインドウ範囲内では、上記所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものである
 受信装置。
 (18)上記基本レイヤの各ピクチャの画像データを外部機器に送信する送信部をさらに備える
 前記(17)に記載の受信装置。
 (19)所定フレームレートの画像データを受信する手順と、
 上記所定フレームレートの画像データを処理して、基本レイヤの各ピクチャの画像データを得る手順を有し、
 上記基本レイヤの各ピクチャの画像データは、閾値以上の動き部分を含む画像範囲である所定のウインドウ範囲内では、上記所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものである
 受信方法。
 (20)上記基本レイヤの各ピクチャの画像データを外部機器に送信する手順をさらに有する
 前記(19)に記載の受信方法。
 本技術の主な特徴は、所定のウインドウ範囲内だけ混合処理がされている基本レイヤの各ピクチャの画像データと、拡張レイヤの各ピクチャの画像データを受信し、表示能力に応じて、基本レイヤの各ピクチャの画像データのみ、または基本レイヤの各ピクチャの画像データおよび拡張レイヤの各ピクチャの画像データの双方を用いて表示用画像データを得ることで、基本となるフレーム周波数のレイヤにおいて、所定のウインドウ範囲でストロービング劣化を回避でき、その他の範囲で本来鮮明に表示すべきものが二重表示されることを回避できるようにしたことである(図3、図4、図7参照)。
 10,10A,10B・・・送受信システム
 100,100B・・・送信装置
 101・・・制御部
 102・・・プリプロセッサ
 103,103B・・・エンコーダ
 104・・・マルチプレクサ
 105・・・送信部
 121・・・時間軸分割部
 122・・・ウインドウ処理部
 123・・・混合処理部
 131・・・双方向動き予測部
 132・・・速度判定部
 133・・・ウインドウ生成部
 134・・・混合比設定部
 200,200A,200B・・・テレビ受信機
 200-1,200A-1,200B-1・・・・セットトップボックス
 200-2,200A-2,200B-2・・・ディスプレイ
 201A,201B・・・制御部
 202A,202B・・・受信部
 203A,203B・・・デマルチプレクサ
 204A,204B・・・デコーダ
 205A・・・ポストプロセッサ
 206A,206B・・・MCFI部
 207A,207B・・・パネル表示部
 251・・・逆混合処理部
 252・・・時間軸合成部
 300-1・・・インタフェース・ボックス
 300-2,300A-2,300B-2・・・画像表示機器
 311・・・デコーダ
 312・・・プロセッサ

Claims (20)

  1.  基本レイヤの各ピクチャの画像データおよび拡張レイヤの各ピクチャの画像データを受信する受信部を備え、
     上記基本レイヤの各ピクチャの画像データは、所定のウインドウ範囲内では、所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものであり、
     上記拡張レイヤの各ピクチャの画像データは、上記時間的に連続する2個のピクチャ単位で他方のピクチャの画像データを取り出して得られたものであり、
     表示能力に応じて、上記基本レイヤの各ピクチャの画像データのみ、または上記基本レイヤの各ピクチャの画像データおよび上記拡張レイヤの各ピクチャの画像データの双方を用いて表示用画像データを得る処理部をさらに備える
     受信装置。
  2.  上記処理部は、上記基本レイヤの各ピクチャの画像データおよび上記拡張レイヤの各ピクチャの画像データの双方を用いて表示用画像データを得る場合、上記基本レイヤの各ピクチャの画像データに上記所定のウインドウ範囲内で逆混合処理をする
     請求項1に記載の受信装置。
  3.  少なくとも上記基本レイヤの各ピクチャの画像データに混合処理の情報が含まれており、
     上記処理部は、上記混合処理の情報に基づいて、上記基本レイヤの各ピクチャの画像データに上記所定のウインドウ範囲内で逆混合処理をする
     請求項2に記載の受信装置。
  4.  上記混合処理の情報は、上記所定ウインドウの位置情報を含む
     請求項3に記載の受信装置。
  5.  上記混合処理の情報は、上記所定ウインドウにおける混合比の情報を含む
     請求項4に記載の受信装置。
  6.  上記所定のウインドウ範囲は、上記所定フレームレートの画像データのうち上記基本レイヤの各ピクチャの画像データに対応した各ピクチャの画像データに基づいて抽出された閾値以上の動き部分を含む画像範囲である
     請求項1に記載の受信装置。
  7.  上記所定フレームレートは120Hzである
     請求項1に記載の受信装置。
  8.  基本レイヤの各ピクチャの画像データおよび拡張レイヤの各ピクチャの画像データを受信する手順を有し、
     上記基本レイヤの各ピクチャの画像データは、所定のウインドウ範囲内では、所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものであり、
     上記拡張レイヤの各ピクチャの画像データは、上記時間的に連続する2個のピクチャ単位で他方のピクチャの画像データを取り出して得られたものであり、
     表示能力に応じて、上記基本レイヤの各ピクチャの画像データのみ、または上記基本レイヤの各ピクチャの画像データおよび上記拡張レイヤの各ピクチャの画像データの双方を用いて表示用画像データを得る手順をさらに有する
     受信方法。
  9.  上記表示用画像データを得る手順では、上記基本レイヤの各ピクチャの画像データおよび上記拡張レイヤの各ピクチャの画像データの双方を用いて表示用画像データを得る場合、上記基本レイヤの各ピクチャの画像データに上記所定のウインドウ範囲内で逆混合処理をする
     請求項8に記載の受信方法。
  10.  少なくとも上記基本レイヤの各ピクチャの画像データに混合処理の情報が含まれており、
     上記表示用画像データを得る手順では、上記混合処理の情報に基づいて、上記基本レイヤの各ピクチャの画像データに上記所定のウインドウ範囲内で逆混合処理をする
     請求項9に記載の受信方法。
  11.  上記混合処理の情報は、上記所定のウインドウの位置情報を含む
     請求項10に記載の受信方法。
  12.  上記混合処理の情報は、上記所定のウインドウにおける混合比の情報を含む
     請求項11に記載の受信方法。
  13.  上記所定のウインドウ範囲は、上記所定フレームレートの画像データのうち上記基本レイヤの各ピクチャの画像データに対応した各ピクチャの画像データに基づいて抽出された閾値以上の動き部分を含む画像範囲である
     請求項8に記載の受信方法。
  14.  上記所定フレームレートは120Hzである
     請求項8に記載の受信方法。
  15.  所定フレームレートの画像データを処理して基本レイヤの各ピクチャの画像データを得ると共に拡張レイヤの各ピクチャの画像データを得る処理部とを備え、
     上記基本レイヤの各ピクチャの画像データは、閾値以上の動き部分を含む画像範囲である所定のウインドウ範囲内では、上記所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものであり、
     上記拡張レイヤの各ピクチャの画像データは、上記時間的に連続する2個のピクチャ単位で他方のピクチャの画像データを取り出して得られたものであり、
     上記基本レイヤの各ピクチャの画像データおよび上記拡張レイヤの各ピクチャの画像データを送信する送信部をさらに備える
     送信装置。
  16.  所定フレームレートの画像データを処理して基本レイヤの各ピクチャの画像データを得ると共に拡張レイヤの各ピクチャの画像データを得る手順を有し、
     上記基本レイヤの各ピクチャの画像データは、閾値以上の動き部分を含む画像範囲である所定のウインドウ範囲内では、上記所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものであり、
     上記拡張レイヤの各ピクチャの画像データは、上記時間的に連続する2個のピクチャ単位で他方のピクチャの画像データを取り出して得られたものであり、
     上記基本レイヤの各ピクチャの画像データおよび上記拡張レイヤの各ピクチャの画像データを送信する手順をさらに有する
     送信方法。
  17.  所定フレームレートの画像データを受信する受信部と、
     上記所定フレームレートの画像データを処理して、基本レイヤの各ピクチャの画像データを得る処理部を備え、
     上記基本レイヤの各ピクチャの画像データは、閾値以上の動き部分を含む画像範囲である所定のウインドウ範囲内では、上記所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものである
     受信装置。
  18.  上記基本レイヤの各ピクチャの画像データを外部機器に送信する送信部をさらに備える
     請求項17に記載の受信装置。
  19.  所定フレームレートの画像データを受信する手順と、
     上記所定フレームレートの画像データを処理して、基本レイヤの各ピクチャの画像データを得る手順を有し、
     上記基本レイヤの各ピクチャの画像データは、閾値以上の動き部分を含む画像範囲である所定のウインドウ範囲内では、上記所定フレームレートの画像データにおいて時間的に連続する2個のピクチャ単位で一方のピクチャの画像データに他方のピクチャの画像データを混合して得られたものであり、上記所定のウインドウ範囲外では、上記時間的に連続する2個のピクチャ単位で上記一方のピクチャの画像データを取り出して得られたものである
     受信方法。
  20.  上記基本レイヤの各ピクチャの画像データを外部機器に送信する手順をさらに有する
     請求項19に記載の受信方法。
PCT/JP2019/031540 2018-08-21 2019-08-09 受信装置、受信方法、送信装置および送信方法 WO2020039973A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP19851658.5A EP3843417A4 (en) 2018-08-21 2019-08-09 RECEIVING APPARATUS, RECEPTION PROCESS, TRANSMISSION APPARATUS, AND TRANSMISSION PROCESS

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018155026 2018-08-21
JP2018-155026 2018-08-21

Publications (1)

Publication Number Publication Date
WO2020039973A1 true WO2020039973A1 (ja) 2020-02-27

Family

ID=69593205

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/031540 WO2020039973A1 (ja) 2018-08-21 2019-08-09 受信装置、受信方法、送信装置および送信方法

Country Status (2)

Country Link
EP (1) EP3843417A4 (ja)
WO (1) WO2020039973A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015076277A1 (ja) 2013-11-22 2015-05-28 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2017065128A1 (ja) * 2015-10-13 2017-04-20 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012166512A2 (en) * 2011-05-31 2012-12-06 Dolby Laboratories Licensing Corporation Video compression implementing resolution tradeoffs and optimization
EP2731337B1 (en) * 2012-10-17 2017-07-12 Dolby Laboratories Licensing Corporation Systems and methods for transmitting video frames
KR20180044902A (ko) * 2015-09-01 2018-05-03 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
CA2997523A1 (en) * 2015-09-10 2017-03-16 Sony Corporation Transmission device, transmission method, reception device, and reception method
KR20180063063A (ko) * 2015-09-30 2018-06-11 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015076277A1 (ja) 2013-11-22 2015-05-28 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2017065128A1 (ja) * 2015-10-13 2017-04-20 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS, ATSC STANDARD: VIDEO - HEVC (A/341, 19 May 2017 (2017-05-19), pages 23 - 25, XP055614561, Retrieved from the Internet <URL:https://www.atsc.org/wp-content/uploads/2017/05/A341-2017-Video-HEVC-1.pdf> [retrieved on 20181101] *

Also Published As

Publication number Publication date
EP3843417A4 (en) 2021-09-01
EP3843417A1 (en) 2021-06-30

Similar Documents

Publication Publication Date Title
JP6567747B2 (ja) 受信装置および受信方法
US11722636B2 (en) Transmission device, transmission method, reception device, and reception method
KR102561506B1 (ko) 송신 장치, 송신 방법, 수신 장치 및 수신 방법
KR20200077517A (ko) 송신 장치, 송신 방법, 수신 장치 및 수신 방법
JP6982990B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP7397938B2 (ja) 送信装置、送信方法、受信装置および受信方法
WO2020039973A1 (ja) 受信装置、受信方法、送信装置および送信方法
JP6969572B2 (ja) 送信装置、送信方法、受信装置および受信方法
US20230112314A1 (en) Reception device, reception method, transmission device, and transmission method
CN112534827B (zh) 接收装置、接收方法、发送装置和发送方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19851658

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019851658

Country of ref document: EP

Effective date: 20210322

NENP Non-entry into the national phase

Ref country code: JP