WO2012060459A1 - 動画像配信システム、動画像配信方法および動画像配信用プログラム - Google Patents

動画像配信システム、動画像配信方法および動画像配信用プログラム Download PDF

Info

Publication number
WO2012060459A1
WO2012060459A1 PCT/JP2011/075525 JP2011075525W WO2012060459A1 WO 2012060459 A1 WO2012060459 A1 WO 2012060459A1 JP 2011075525 W JP2011075525 W JP 2011075525W WO 2012060459 A1 WO2012060459 A1 WO 2012060459A1
Authority
WO
WIPO (PCT)
Prior art keywords
tile
moving image
tiles
frame
image distribution
Prior art date
Application number
PCT/JP2011/075525
Other languages
English (en)
French (fr)
Inventor
達治 森吉
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US13/882,378 priority Critical patent/US9414065B2/en
Priority to JP2012541917A priority patent/JP5811097B2/ja
Publication of WO2012060459A1 publication Critical patent/WO2012060459A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • the present invention relates to a moving image distribution system, a moving image distribution method, and a moving image distribution program, and in particular, a moving image distribution system, a moving image distribution method, and a moving image distribution that can arbitrarily set a viewing area and interactively change the viewing area.
  • a moving image distribution system a moving image distribution method, and a moving image distribution that can arbitrarily set a viewing area and interactively change the viewing area.
  • This H. H.264 is known to have improved compression efficiency and improved image quality compared to related video coding techniques.
  • an inter-frame predictive encoding technique that uses temporal correlation of each frame is widely used.
  • interframe predictive coding an image signal of the current frame is predicted from an image signal of an already encoded frame, and a prediction error signal between the predicted signal and the current signal is encoded.
  • this technique is effective in improving compression efficiency.
  • an I picture that does not use inter-frame predictive coding (an intra-frame coded picture), or a P picture that uses inter-frame predictive coding from one already coded frame (one piece A motion picture is encoded using a combination of a directional prediction encoded image) and a B picture (bidirectional predictive encoded image) using inter-frame predictive encoding from two already encoded frames.
  • an I picture can be decoded by one frame alone.
  • P picture and B picture require image data used for prediction in inter-frame prediction for decoding in advance, one frame alone cannot be decoded.
  • MPEG-2 H.
  • Video compression technology such as H.264 is used in many applications such as digital broadcasting, video distribution using optical disk media, and video distribution via the Internet. While these moving image compression technologies make it easy to store and transmit moving images, interactive processing such as cutting out and viewing only a part of the video area or dynamically changing the viewing area is not possible. Unlike uncompressed video, it cannot be easily realized.
  • HD High Definition
  • a high-definition video of 8K ⁇ 4K (8192 ⁇ 4096 pixels) on a small screen (for example, 640 ⁇ 480 pixels) of a mobile phone terminal if the entire video content is displayed as it is according to the screen size, The subject to be viewed may be displayed much smaller than the background image and may be difficult to view. In such a case, instead of displaying the entire video content, only a partial area in which the user is interested is cut out and displayed, so that viewing is comfortable. Furthermore, if the display area can be interactively changed according to the user's request, the convenience for the user is further improved.
  • the video of the entire stadium is recorded in high definition with 8192 x 4096 pixels, and when viewed on a mobile phone terminal, some areas such as the area around the goal and the area around the player with the ball
  • a viewing style is conceivable in which only the area is cut out and viewed, and the viewing area is appropriately changed following the movement of the player.
  • an uncompressed video signal it is possible to cut out a partial area of the video as described above with a simple process.
  • a compression-encoded video signal since this video signal is encoded using the spatial and temporal correlation of moving images, only a part of it is cut out and decoded and displayed. Is not easy.
  • processing according to the following method is required.
  • A The entire moving image of 8192 ⁇ 4096 pixels is transmitted, received and decoded, and a part of the uncompressed image of the decoding result is cut out and displayed.
  • B The entire moving image of 8192 ⁇ 4096 pixels is decoded, the image of the area to be viewed is cut out from the uncompressed image of the decoding result, the data subjected to the encoding process is transmitted to the area image, and this is received. indicate.
  • Patent Document 1 discloses a technique for combining a plurality of MPEG encoded video streams related to an interactive video communication medium such as an interactive television.
  • Patent Document 2 discloses a technique related to an encoding system for scrolling an encoded MPEG still picture. In this technique, the compressed picture is subdivided into slices so that the image can be smoothly scrolled, and only the data of the slice corresponding to the area to be viewed is decoded and displayed.
  • the display data of the previous picture is referenced to generate a motion vector reflecting the movement corresponding to the scroll, and the new display area slice data is read for the undisplayed area of the previous picture, and the MPEG P Techniques for generating pictures are also disclosed.
  • Patent Document 1 has a problem that when a display position of a video stream is selected, the position cannot be changed for each frame. This is because, in the process of cutting out and synthesizing a video stream in units of slices, encoded images that are referred to in inter-frame prediction encoding need to exist at the same position in the frame. Also, since I pictures have lower compression efficiency than other P and B pictures, I pictures are used only with a frequency of about one frame every ten or several tens of frames in a normal moving picture. For this reason, if the display position of the video stream is changed at the timing of an I picture that does not use inter-frame predictive coding, there is a problem that the degree of freedom in changing the display position is reduced.
  • Patent Document 2 In the technique disclosed in Patent Document 2, only an MPEG I picture is used and only a still image can be processed. This corresponds to the purpose of the technology of Patent Document 2 in which a large still picture is scrolled and viewed, and there is a problem in application to viewing of a normal moving image. Although it is possible to handle a moving image as a sequence of still images, generally in a moving image compression technique, an I picture has a lower compression efficiency than other P and B pictures. Thus, the compression efficiency is greatly reduced, and the effect of the moving image compression technique cannot be expected.
  • the technique disclosed in Patent Document 3 is also a technique suitable for scrolling and displaying a still image larger than the display size, but cannot be applied to a normal moving image.
  • Patent Document 3 also uses a P picture, which is used to express the displacement of the display position of a previously displayed picture and can be easily applied to motion vector generation corresponding to the scroll amount. It cannot be applied to a general video image signal obtained by encoding a vector and an inter-frame prediction error signal. For this reason, the technique of Patent Document 3 also has a problem that it cannot cope with normal moving image scroll viewing. As described above, with the techniques disclosed in Patent Documents 1 to 3, it is impossible to efficiently realize viewing area cutout and scroll viewing in a normal moving image encoded using I, P, and B pictures. .
  • An object of the present invention is to provide a moving image distribution system, a moving image distribution method, and a moving image distribution program capable of arbitrarily setting a viewing area for a compression-coded moving image and interactively changing the viewing area. There is.
  • the moving image distribution system of the present invention is a moving image distribution system that manages a compression-coded moving image as a set of tiles including one or more macroblocks, and includes a transmission device and a reception device.
  • the transmission apparatus outputs a tile storage unit that stores a set of tiles constituting a moving image, one or more stream correction units that read out the tiles from the tile storage unit, perform a correction process, and output them, and the stream correction unit.
  • the receiving device includes a decoder unit that receives and decodes a moving image bit stream, a display unit that displays a moving image decoded by the decoder unit, and a display position control unit that inputs a user operation and transmits the user's operation. Operation input means for sending out.
  • the moving image distribution method of the present invention is a moving image distribution method for managing a compressed and encoded moving image as a set of tiles including one or more macroblocks and distributing the moving image from the transmitting side to the receiving side.
  • the moving image distribution program of the present invention is a moving image distribution program for managing a compressed and encoded moving image as a set of tiles including one or more macroblocks and distributing the moving image from the transmission side to the reception side.
  • a process for storing a set of tiles constituting a moving image a process for reading and storing the stored tiles, outputting the synthesized tiles, and synthesizing and transmitting a moving image bit stream of one frame from the output tiles.
  • Processing processing for managing the display area in the moving image, processing for receiving and decoding the moving image bit stream, processing for displaying the decoded moving image, and user operation on the receiving side. It is characterized by causing a computer to perform processing to be transmitted to the transmission side.
  • a moving image distribution system that interactively changes a viewing area such as designation of a viewing area and scrolling using a compressed and encoded moving image signal is provided at a low cost and with a low calculation amount.
  • a compression-coded moving image signal is managed as a set of tiles made up of one or more macroblocks, and a moving image bit stream of one frame from tiles necessary to cover a desired viewing area.
  • a (composite frame) is formed and transmitted.
  • the bit stream of the synthesized frame can be decoded by a normal decoder, a dedicated specification decoder is unnecessary, and an increase in cost can be suppressed.
  • the correction of tile information for composing a composite frame is a process of rewriting a part of a bit stream such as a tile position and a motion vector, so that the amount of calculation is small.
  • FIG. 1 shows an example of the configuration of a moving image distribution system according to the first embodiment of the present invention.
  • FIG. 2 illustrates an example of a method for managing image information according to the first embodiment of the present invention.
  • each frame of a compression-coded moving image is divided into a plurality of partial areas and managed. In this specification, this partial area is called a tile.
  • an image of one frame is divided into blocks each having a size of 16 ⁇ 16 pixels and encoding processing is performed.
  • This 16 ⁇ 16 pixel block is a unit of encoding processing called a macroblock (hereinafter abbreviated as MB).
  • MB macroblock
  • a tile is composed of a set of one or more MBs, and one or more tiles gather to form one frame image.
  • FIG. 2 shows an example in which one tile is composed of 4 MBs that are continuous in the horizontal direction, and one frame is composed of 5 horizontal ⁇ 8 vertical tiles.
  • the size of one tile is 64 ⁇ 16 pixels
  • the size of one frame is 320 ⁇ 128 pixels.
  • MBs included in one tile are encoded so that they can be decoded without referring to encoding information of other MBs not included in the tile.
  • the encoding information includes a pixel value of a decoding result, a pixel value at a corresponding position in a frame of a past decoding result, an MB encoding mode, a motion vector, an intra prediction mode, and the like.
  • the encoding information of other MBs included in the same tile may be referred to. Thereby, each tile can be decoded independently of the other tiles.
  • MB is encoded so that pixel values of tiles other than tiles at the same position in other images are not used in motion compensation.
  • each tile is encoded as a separate slice, and the process of limiting the value of the motion vector so as not to refer to the pixel value outside the tile in the motion compensation process corresponds to such encoding.
  • encoding limitation causes a reduction in compression efficiency.
  • decoding processing can be performed independently for each MB, compression processing using temporal and spatial correlation between neighboring MBs cannot be performed, and compression efficiency is greatly reduced.
  • one or more MBs are collectively managed as a tile.
  • compression using temporal and spatial correlation between neighboring MBs functions effectively in the tile.
  • only one piece of management information such as a slice header is required for one tile. For this reason, overhead is small and a decrease in compression efficiency is suppressed.
  • the magnitude of the decrease in compression efficiency can be controlled by increasing or decreasing the number of MBs stored in the tile.
  • one of two types of modes of I tile and P tile is used for encoding each tile.
  • the I tile is data obtained by encoding all MBs included in the tile as intra MBs as in the case of an I picture of normal moving image encoding.
  • the P tile is data that is encoded to allow a mixture of intra MBs and inter MBs as in the case of P pictures.
  • the I tile can be decoded independently without referring to past decoding results, but the encoding efficiency is not high.
  • the P tile needs to be decoded with reference to the past decoding result image, but the encoding efficiency is higher than the efficiency for the I tile.
  • the moving image distribution system includes a transmission device 100 and a reception device 101.
  • the transmission apparatus 100 includes a tile storage unit 110, one or more stream correction units 111, a synthesis unit 112, and a display position control unit 113.
  • the receiving apparatus 101 includes a decoder unit 114, a display unit 115, and an operation input unit 116.
  • the tile storage unit 110 stores a bit stream of each tile that has been compression-encoded.
  • a bit stream composed of tile groups stored in the tile storage unit 110 is referred to as an original stream, and an image frame included in the original stream is referred to as an original frame.
  • the stream correction unit 111 Based on the control from the display position control unit 113, the stream correction unit 111 inputs a bit stream of a desired tile from the tile storage unit 110, corrects a part of the bit stream as necessary, and combines the combination unit 112.
  • the combining unit 112 combines the input bit streams of one or more tiles to generate a one-frame bit stream (hereinafter referred to as a combined frame), and based on display position information from the display position control unit 113.
  • the display position information is recorded in the bit stream of the composite frame, and the bit stream is transmitted.
  • the display position control unit 113 manages the display area based on the operation information input from the receiving apparatus 101, supplies necessary tile information to the stream correction unit based on the display area, and supplies the information to the combining unit 112. Supply display position information.
  • the decoder unit 114 receives the moving image bitstream transmitted from the transmission apparatus 100, performs a decoding process, and outputs a decoding result image to the display unit 115.
  • the display unit 115 displays the decoding result image on a screen or the like.
  • the operation input unit 116 receives user operations such as display area setting and display area change, and sends input by the user operation to the transmission device 100.
  • a moving image distribution method according to the first embodiment of the present invention will be described with reference to the flowchart of FIG.
  • the display position control unit 113 determines a desired display area based on the operation information from the receiving apparatus 101 and the past display position information (step S301).
  • the operation input unit 116 of the receiving apparatus 101 receives an input operation from the user instructing to move the display area to the left or right or up and down, for example, and sends the operation information to the transmitting apparatus 100.
  • the display position control unit 113 moves the position of the display area of the image frame to be transmitted to the receiving apparatus next to the left or right or up and down.
  • FIG. 4 shows an example of processing for cutting out and reproducing a 180 ⁇ 80 pixel region at the center of the frame.
  • FIG. 5 shows processing in the transmission device 100.
  • the display position control unit 113 determines the minimum tile group necessary for covering the display area information shown in FIG. 4 (step S302 in FIG. 3). As shown in FIG. 5, when the tiles are numbered according to the raster scan order (hereinafter referred to as tile numbers), the tiles necessary to cover the display area are 6, 7, 8, 11, 12, 13 respectively. 16, 16, 17, 18, 21, 22, 23, 26, 27, 28, 31, 32, 33.
  • the display position control unit 113 instructs the stream correction unit 111 to extract these 18 tiles. Further, when a composite frame is configured by the 18 tiles, the position of the tile in the composite frame is different from the position in the original frame. For example, tile No. 6 was located at the position of one tile on the right and one tile below on the basis of the upper left corner point in the original frame, but in the composite frame composed of 18 tiles, it is the upper left corner position. . Therefore, the display position control unit 113 instructs the stream correction unit 111 to correct the position of the tile in the frame (step S302). Corresponding to this processing, In H.264, each tile is encoded as one slice, and the position of the tile is specified by the value of first_mb_in_slice in the slice header.
  • the stream correction unit 111 reads a necessary tile bit stream from the tile storage unit 110 based on an instruction from the display position control unit 113 (step S303), and the display position control unit 113.
  • the stream correction process instructed by the user is performed (step S304), and the result is output to the synthesis unit 112.
  • the first embodiment of the present invention only I tiles that do not use past image information are read.
  • the synthesizing unit 112 forms a one-frame bit stream from the input tile bit stream (step S305). Further, as can be seen from the example of FIG. 5, the composite frame composed of tile groups (18 tiles in the example of FIG. 5) necessary to cover the display area may be larger than the desired display area. Therefore, the display position control unit 113 determines information on the display position in the combined frame (step S302) and supplies the information to the combining unit 112. In the example of FIG. 5, if a central 160 ⁇ 80 pixel region of the 192 ⁇ 96 pixel composite frame configured by the combining unit 112 is displayed, a desired display is obtained.
  • the combining unit 112 records the display position information in the bit stream of the combined frame based on the display position information supplied from the display position control unit 113 (step S306).
  • H. In the case of H.264, seq_parameter_set_rbsp () is set to frame_cropping_flag, frame_crop_left_offset, frame_crop_right_offset, _ to be a rectangle, _
  • desired display position information is recorded.
  • only a minimum tile group necessary for covering a desired display area is extracted from tiles constituting a compression-encoded original frame, and a bit stream of one frame is obtained. Are sent to the receiver.
  • the decoder unit 114 and the display unit 115 of the receiving device are a decoding unit and a display unit widely used in normal moving image distribution and the like. The same device may be used, and viewing of the designated area can be realized without greatly changing the receiving device.
  • the transmitting apparatus only needs to read a bit stream of a necessary tile, correct position information in the frame, and combine it into one frame. For this reason, the moving image distribution method according to the present embodiment can be realized with a small amount of processing.
  • FIG. 6 shows an area of 160 ⁇ 80 pixels at the center of the frame in the first composite frame 0, and moves (scrolls) the display area to the upper left based on an operation from the receiving apparatus in the next composite frame 1.
  • FIG. 7 shows processing in the transmission apparatus 100.
  • the process of determining the minimum necessary tile group that covers the display area is the same as in the first embodiment.
  • the composite frame 0 and the composite frame 1 are respectively 6, 7, 8, 11, 12, 13, 16, 17, 18 tiles numbered 18, 21, 22, 23, 26, 27, 28, 31, 32, 33 are used.
  • FIG. 7 displays the encoding mode along with the tile number.
  • I12 represents the I tile at the 12th position in the original frame
  • P28 represents the P tile at the 28th position in the original frame.
  • composite frame 0 since there is no decoded image data before that, inter-frame prediction is not performed, and the frame is composed of all I tiles.
  • the frame can be composed of P tiles that perform inter-frame prediction.
  • the MB included in a tile as described above is encoded so that it can be decoded with reference to only the information of the MB included in the tile at the same position, for example, the tile P6 includes only the tile I6. Reference with inter-frame prediction.
  • the display position information set in step S306 in FIG. 3 is different between the composite frame 0 and the composite frame 1 in order to correspond to the display area moving between the composite frame 0 and the composite frame 1.
  • the display position information is set so as to display a rectangular area having coordinates (16, 8) ⁇ (175, 87) as diagonal lines, whereas in the composite frame 1, the coordinates (0, 0) ⁇
  • the display position information is set so as to display a rectangular area having (159, 79) as a diagonal line.
  • FIG. 8 shows an area of 160 ⁇ 80 pixels at the center of the frame in the first synthesized frame 0, and the display area in the next synthesized frame 1 is further left upper than in the example of FIG. 6 based on an operation from the receiving device.
  • An example of the process of moving (scrolling) is shown.
  • FIG. 9 shows processing in the transmission apparatus 100.
  • the scroll of the display area changes the configuration of the tile group covering the display area. That is, in the composite frame 1 after scrolling, 0, 1, 2, 3, 5, 6, 7, 8, 10, 11, 12, 13, 15, 16, 17, 18, 20, 21, 22, 23, 24 tiles with numbers 25, 26, 27 and 28 are used.
  • FIG. 10 shows an example of vector correction in the tile of tile number 6. It is assumed that the tile P6 of the composite frame 1 includes 4 MBs, each having a motion vector 1001 as shown in FIG.
  • This motion vector is a motion vector that refers to the tile at the same position in the immediately preceding frame, that is, the tile I0 of the composite frame 0.
  • normal motion compensation interframe prediction can be performed by applying this motion vector as it is. .
  • FIG. 11 is a flowchart illustrating an example of a tile reading and stream correction process performed in cooperation by the display position control unit 113 and the stream correction unit 111 according to the first to third embodiments of the present invention.
  • the flowchart in FIG. 11 shows the detailed processing of steps S303 and S304 in FIG. First, it is determined whether a tile having the same number as the tile to be read is present in a previous composite frame that is referred to by inter-frame reference (step S1101).
  • the inter-frame prediction cannot be used, so the I tile is read (step S1102). If it exists, the P tile is read to use inter-frame prediction (step S1103). If the P tile is used, it is further determined whether or not the position of the tile on the composite frame changes (step S1104). If the position changes, the motion vector of each MB included in the tile is corrected (step S1105). The motion vector correction process is as described in the third embodiment with reference to FIG. Then, tile position correction processing is performed in order to arrange the tiles at appropriate positions in the composite frame (step S1106). The tile position correction is as described in the first embodiment.
  • the third embodiment of the present invention even when the amount of movement (scrolling) of the display area is large, it is possible to cope with the change of the tile group used for the composition frame composition, and the tiles existing in the previous composition frame as well. Can use P tiles that use inter-frame prediction. For this reason, it is possible to achieve viewing area movement of moving images while maintaining high compression efficiency. In addition, even if the tile position on the composite frame changes, motion vector correction can be used, so that heavy processing such as MB re-encoding is not required, and moving image viewing area can be moved with a small amount of processing. is there. (Fourth embodiment) Next, a fourth embodiment of the present invention will be described with reference to FIG.
  • the system configuration and operation flow are the same as those of the third embodiment of the present invention.
  • the third embodiment an example of processing when there is a display area movement shown in FIG. 8 is shown.
  • the configuration and operation flow are the same as those in the third embodiment.
  • the fourth embodiment differs in the tile group determination (step S302) processing used for the composition frame composition.
  • the third embodiment only the minimum necessary tile group covering the display area is used, but in the fourth embodiment, not only the minimum necessary tile but also some of its surroundings are used. These tiles are also used.
  • the composite frame 0 in FIG. 12 includes the tiles I9, I14, I19, I24, I29, and I34 that are not included in the display area.
  • CEIL (X) is a function that returns the smallest integer greater than or equal to X, that is, rounds X up to the smallest integer greater than or equal to X.
  • FIG. 13 illustrates a method for managing image information according to the fifth embodiment of the present invention.
  • FIG. 2 shows an example of a method for managing image information in which one tile is composed of four MBs continuous in the horizontal direction.
  • FIG. 13 shows an example of a management method of image information in which each of the vertical and horizontal sides is 4, that is, a total of 16 MBs constitute one tile.
  • the size of one frame is 320 ⁇ 128 pixels as in FIG. 2, but the size of one tile is 64 ⁇ 64 pixels, and one frame is composed of 5 horizontal ⁇ 2 vertical tiles.
  • the H.264. H.264 encodes each tile as a slice in order to decode each tile independently of the other tiles, and restricts the value of the motion vector so as not to refer to pixel values outside the tile in the motion compensation process.
  • each tile is similarly decoded independently of the other tiles in a tile extending over a plurality of MB rows. For this reason, for example, H.C.
  • processing is performed using slice groups. This will be described with reference to FIG. FIG.
  • a tile can be sized to span a plurality of MB rows. Thereby, the restriction on the motion vector value for enabling each tile to be decoded independently of the other tiles is relaxed, and the compression efficiency of each tile is improved. In addition, the degree of freedom in setting the tile shape is expanded.
  • FIG. 15 shows an example of processing for correcting a motion vector in the stream correction unit 111.
  • the motion vectors before vector correction of two MBs are indicated by 1501 and 1502, respectively.
  • a moving image encoding method such as H.264, when encoding a motion vector of a certain MB (referred to as a current MB), information on the motion vector is not directly encoded.
  • the motion vector of the current MB is predicted from the information on the motion vectors of the neighboring MBs of the MB, and the vector information of the difference between the prediction vector and the motion vector of the current MB is encoded. These processes improve the compression efficiency.
  • the prediction vector the motion vector of the left MB of the current MB or the median value of the motion vectors of the three neighboring MBs is used.
  • the motion vector 1502 is not encoded as it is, but the difference vector 1504 from the prediction vector 1503 obtained from the motion vector 1501 is encoded.
  • the motion vectors 1501 and 1502 are corrected using the tile position displacement vector 1520, respectively, and the corrected motion vectors 1511 and 1512 are corrected. become. Then, the corrected motion vector 1512 is not encoded as it is, but the difference vector 1514 with the prediction vector 1513 obtained from the corrected motion vector 1511 is encoded. At this time, since the difference between the motion vectors 1501 and 1502 and the corrected motion vectors 1511 and 1512 is the same, the difference vectors 1504 and 1514 before and after correction are exactly the same vector. For this reason, since the difference vector does not change even if the motion vector 1502 is corrected, it is not necessary to correct the bit stream.
  • FIG. 16 shows an example of the configuration of tile information stored in the tile storage unit 110 according to the sixth embodiment of the present invention.
  • Each tile information includes a corresponding frame number, tile number, tile encoding type (I tile or P tile), and tile bitstream information.
  • Tile information 1601 and tile information 1602 are examples of tile information of an I tile.
  • the tile information 1603 of the P tile includes information on a bitstream that needs to be corrected in the motion vector correction process.
  • a necessary number of positions and sizes in a bit stream in which motion vector information requiring bit stream correction is recorded are recorded.
  • the bit stream information of the vector that needs to be corrected is read out from the tile information of each tile, and a predetermined correction process is performed.
  • the embodiment of the present invention has been described above. In the above embodiment, the H.
  • the present invention is not limited to the application using the H.264 system, but can be applied to other moving image encoding systems such as MPEG-2.
  • inter-frame prediction the P tile that performs motion compensation from one frame has been described.
  • the inter-frame prediction method is not limited to this, and motion compensation from two frames is performed.
  • the present invention can be easily applied to various inter-frame predictions such as multi-frame motion compensation using a B tile, a plurality of frames, weighted motion compensation using weighted addition of pixel values, and global motion compensation.
  • a moving image distribution system that transmits a moving image between a transmission device and a reception device has been described.
  • the configuration is not limited to this, and a moving image that combines these into one
  • a configuration of an image reproducing device or the like is also conceivable.
  • the case where the shape of the tile is rectangular and the size of all the tiles is uniform has been described as an example.
  • the shape and size of the tile are not limited to this.
  • it can be applied to various tiles such as a hexagonal tile shape as shown in FIG. 17, a rectangular tile shape that is not uniform in size, and a boundary position of the rectangular tile that is shifted.
  • the stream correction and the correction of the motion vector have been specifically described for the stream correction.
  • tile information storage format has been described only for the example of FIG. 16, but is not limited to this format.
  • tile position information that needs to be corrected in order to reduce the load of tile position correction processing;
  • the position and size of first_mb_in_slice in H.264 may be stored in advance.
  • the method described above may be realized by a computer reading and executing a program from a recording medium or a communication line. This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2010-245175 for which it applied on November 1, 2010, and takes in those the indications of all here.
  • the present invention can be applied to a moving image distribution system that uses a compressed and encoded moving image signal to interactively change a viewing area such as designation of a viewing area and scrolling.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】圧縮符号化された動画像に対して視聴領域を任意に設定し、また視聴領域をインタラクティブに変更できる動画像配信システム、動画像配信方法および動画像配信用プログラムを提供する。 【解決手段】圧縮符号化された動画像を1以上のマクロブロックを含むタイルの集合として管理する動画像配信システムであって、動画像中の表示領域を管理し、表示領域に基づいて、格納されたタイルの集合からタイルを読み出して補正処理を行い、処理されたタイルから1フレームの動画像ビットストリームを合成して送出する送信装置と、動画像ビットストリームを受信して、復号化し、復号化した動画像を表示し、ユーザの操作を入力し送信装置に送出する受信装置とを備える。

Description

動画像配信システム、動画像配信方法および動画像配信用プログラム
 本発明は動画像配信システム、動画像配信方法および動画像配信用プログラムに関し、特に視聴領域を任意に設定し、また視聴領域をインタラクティブに変更できる動画像配信システム、動画像配信方法および動画像配信用プログラムに関する。
 近年、動画像データのデジタル化が進展し、動画像信号を圧縮符号化して扱うことが一般的になっている。動画像信号を低ビットレート、高圧縮率かつ高画質で符号化して符号化データを生成する、或は、符号化された動画像を復号化する技術として、ITU(International Telecommunication Union)が標準化したH.261、H.263、ISO(International Organization for Standardization)のMPEG−1(Moving Picture Experts Group−1)、MPEG−2、MPEG−4、SMPTE(Society of Motion Picture and Television Engineers)のVC−1などが挙げられる。これらの技術は国際標準規格として広く用いられている。さらに、近年ITUとISOが共同で規格化を行なったH.264/MPEG−4 AVCがある(非特許文献1)。このH.264は、関連する動画像符号化技術に比べ、圧縮効率が向上し、また、画質が向上することが知られている。
 これらの動画像符号化技術では、動画像信号を効率よく圧縮するために、各フレームの時間的な相関を利用するフレーム間予測符号化技術が広く用いられている。フレーム間予測符号化では、すでに符号化したフレームの画像信号から現在のフレームの画像信号を予測し、予測した信号と現在の信号との間の予測誤差信号を符号化する。一般的な動画像では時間的に近接するフレームの画像信号の間には高い相関が存在するため、この技術は圧縮効率向上に効果的である。前記のMPEG−1、MPEG−2、MPEG−4、H.264などの動画像符号化技術では、フレーム間予測符号化を利用しないIピクチャ(フレーム内符号化画像)、すでに符号化した1枚のフレームからのフレーム間予測符号化を利用するPピクチャ(片方向予測符号化画像)、すでに符号化した2枚のフレームからのフレーム間予測符号化を利用するBピクチャ(双方向予測符号化画像)が組み合わせて用いられて、動画像が符号化される。復号化の際には、Iピクチャは1フレーム単独で復号できる。しかし、Pピクチャ及びBピクチャは、復号にフレーム間予測で予測に用いる画像データがあらかじめ必要であるため、1フレーム単独の復号はできない。
 上記のMPEG−2、H.264等の動画像圧縮技術は、デジタル放送、光学ディスク媒体による映像頒布、インターネット等による映像配信など多くの用途で利用されている。
 これらの動画像圧縮技術により、動画像の蓄積、伝送等が容易になった一方で、映像の一部の領域のみを切り出して視聴する、視聴領域を動的に変更するなどのインタラクティブな処理は、非圧縮映像とは異なり、容易には実現できない。
 近年は、映像の大画面化、高精細化への要求が高まっており、放送や光ディスクによる映像コンテンツ販売、映像配信などで利用される映像ではHD(High Definition)と呼ばれる関連する技術よりも高い解像度(1920×1080画素、1280×720画素など)が主流になりつつある。また、さらに高精細な4K×2K(4096×2048画素)、8K×4K(8192×4096画素)などの映像への取り組みも進んでいる。その一方で、映像コンテンツを視聴する場面は増えており、家庭のリビングの大画面テレビジョン(TV)で視聴する以外に、小型TVでの視聴、PC(パーソナルコンピュータ)での視聴、携帯電話端末での視聴、携帯映像プレーヤでの視聴など、多様な画面サイズ、画面との距離、周辺環境で映像を視聴する要求が高まっている。
 ここで、例えば、8K×4K(8192×4096画素)の高精細映像を携帯電話端末の小型画面(例えば640×480画素)で視聴する場合、映像コンテンツ全体を画面サイズに合わせてそのまま表示すると、見たい被写体が背景画像に比べて非常に小さく表示され、視認が困難な場合がある。このような場合には映像コンテンツ全体を表示するのではなく、利用者が関心を持つ一部領域のみを切り出して表示すれば視聴が快適になる。さらに、利用者の要求に応じて表示領域をインタラクティブに変更することができれば、さらに利用者の利便性向上につながる。
 一例として、サッカーの試合の映像の場合、スタジアム全体の映像を8192×4096画素で高精細に記録しておき、携帯電話端末で視聴する際にはゴール周辺やボールを持つプレーヤ周辺など一部の領域のみを切り出して視聴し、またプレーヤの動きに追随して視聴領域を適宜変更するような視聴スタイルが考えられる。
 非圧縮の映像信号であれば、上記のように映像の一部領域を切り出すのは簡単な処理で実現できる。しかし、圧縮符号化された映像信号の場合は、この映像信号が動画像の空間的及び時間的な相関性を利用して符号化されているため、一部だけ切り出して復号して表示することは容易ではない。例えば、8192×4096画素の映像信号から640×480画素の領域を切り出す映像配信を行なうには、以下のような方法に従った処理が必要である。
(A)8192×4096画素の動画像全体を送信して受信、復号し、復号結果の非圧縮画像の一部を切り出して表示する。或は、
(B)8192×4096画素の動画像全体を復号し、復号結果の非圧縮画像から視聴したい領域の画像を切り出し、その領域の画像に符号化処理を施したデータを送信し、これを受信、表示する。
 しかし、方法(A)では受信装置に表示サイズよりも大きい動画像の復号処理が可能な高性能な復号化装置が必要になり、また伝送路帯域を不必要に消費するという問題がある。また、方法(B)では送信装置側で、復号化−切り出し−符号化の処理を行うので、能力の高い復号化装置および符号化装置が必要になる。また、これらは同時に接続する受信装置の最大数に対応する台数の符号化装置を備える必要があるという問題がある。
 このような問題に対し、特許文献1では対話型テレビ等の対話型ビデオ通信媒体に関わる、複数のMPEG符号化ビデオストリームの結合技術が開示される。この技術では、複数のMPEG符号化ビデオストリームを受信し、ビデオストリーム毎の各スライスの表示位置に対応する表示位置コードを必要に応じて修正し、変更されたビデオストリームを含む前記MPEG符号化ビデオストリーム毎の各スライスを単一の合成ビデオストリームにインターリーブすることにより、ユーザがTVセット上で複数のビデオストリームを選択して表示し、また各々の表示位置の選択を可能にする。
 また、特許文献2では、符号化MPEGスチール写真をスクロールするための符号化システムに関する技術が開示される。この技術では、イメージを滑らかにスクロールできるように圧縮ピクチャをスライスに細分し、視聴したい領域に対応するスライスのデータのみを復号化して、表示する。また、スクロール動作では、視聴したい領域のうち、前に視聴されたイメージ中には含まれないスライスのデータを追加し、前に視聴されたイメージのうち現在視聴したい領域には含まれないスライスのデータを破棄する。
 また、特許文献3では、静止画像を縦方向にスクロールするような映像をMPEG符号化する際に、静止画像をMPEGのIピクチャとして符号化し、ヘッダを削除したスライスデータとして記憶し、表示領域に対応したスライスデータにヘッダを付加してMPEGのIピクチャを生成する技術が開示される。また、後続のピクチャでは、前ピクチャの表示データを参照しスクロールに相当する移動を反映した動きベクトルを生成し、前ピクチャの未表示領域に対しては新表示領域スライスデータを読み込んでMPEGのPピクチャを生成する技術も開示される。
特許第4188599号公報 特表2001−522175号公報 特開2002−27461号公報
ITU−T Recommendation H.264「Advanced video coding for generic audiovisual services」、2005年3月
 特許文献1に開示の技術には、ビデオストリームの表示位置を選択すると、その位置をフレーム毎に変更できないという問題がある。これは、ビデオストリームをスライス単位で切り出して合成する処理では、フレーム間予測符号化で参照する符号化済み画像はフレーム内で同一の位置に存在する必要があるためである。また、Iピクチャは他のP、Bピクチャと比較して圧縮効率が低いため、通常の動画像ではIピクチャは十数フレーム乃至数十フレーム毎に1フレーム程度の頻度でしか用いられない。このため、フレーム間予測符号化を利用しないIピクチャのタイミングでビデオストリームの表示位置を変更しようとすると、表示位置変更の自由度が低くなってしまうという問題がある。
 また、特許文献2に開示の技術では、MPEG Iピクチャのみを利用し、静止画のみが処理できる。これは、大きなスチール写真をスクロール視聴するという特許文献2の技術の目的に対応したもので、通常の動画像の視聴への適用には問題がある。動画像を静止画の連続として扱うことも可能ではあるが、動画像圧縮技術では一般にIピクチャは他のP、Bピクチャと比較して圧縮効率が低いため、Iピクチャのみを利用する技術では全体的な圧縮効率が非常に低下してしまい、動画像圧縮技術の効果が期待できない。
 また、特許文献3に開示の技術も、表示サイズよりも大きな静止画像をスクロール表示するのに適した技術ではあるが、通常の動画像に対して適用できない。特許文献3の技術ではPピクチャも利用するが、これは前に表示したピクチャの表示位置の変位を表現するためのもので、スクロール量に対応した動きベクトル生成には容易に適用できるが、動きベクトルとフレーム間予測誤差信号を符号化した一般的な動画像の映像信号に適用できない。このため、特許文献3の技術も、通常の動画像のスクロール視聴などには対応できないという問題がある。
 このように、特許文献1乃至3に開示される技術では、I、P、Bピクチャを用いて符号化した通常の動画像での視聴領域切り出しやスクロール視聴等の効率よい実現は不可能である。
 本発明の目的は、圧縮符号化された動画像に対して視聴領域を任意に設定し、また視聴領域をインタラクティブに変更できる動画像配信システム、動画像配信方法および動画像配信用プログラムを提供することにある。
 本発明の動画像配信システムは、圧縮符号化された動画像を1以上のマクロブロックを含むタイルの集合として管理する動画像配信システムであって、送信装置と受信装置を備える。送信装置は、動画像を構成するタイルの集合を記憶するタイル記憶手段と、タイル記憶手段からタイルを読み出し補正処理を行って出力する1つ以上のストリーム補正手段と、ストリーム補正手段から出力されるタイルから1フレームの動画像ビットストリームを合成して送出する合成手段と、動画像中の表示領域を管理し表示領域に基づいてストリーム補正手段及び合成手段を制御する表示位置制御手段とを備える。受信装置は、動画像ビットストリームを受信して復号化するデコーダ手段と、デコーダ手段が復号化した動画像を表示する表示手段と、ユーザの操作を入力し送信装置の表示位置制御手段に対して送出する操作入力手段とを備える。
 本発明の動画像配信方法は、圧縮符号化された動画像を1以上のマクロブロックを含むタイルの集合として管理して送信側から受信側に配信する動画像配信方法であって、送信側において、動画像を構成するタイルの集合を記憶するステップと、記憶されたタイルを読み出し補正処理を行って出力するステップと、出力されるタイルから1フレームの動画像ビットストリームを合成して送出するステップと、動画像中の表示領域を管理するステップとを含み、受信側において、動画像ビットストリームを受信して復号化するステップと、復号化した動画像を表示するステップと、ユーザの操作を入力し送信側に送出するステップとを含むことを特徴とする。
 本発明の動画配信用プログラムは、圧縮符号化された動画像を1以上のマクロブロックを含むタイルの集合として管理して送信側から受信側に配信する動画像配信用プログラムであって、送信側において、動画像を構成するタイルの集合を記憶する処理と、記憶されたタイルを読み出し補正処理を行って出力する処理と、出力されるタイルから1フレームの動画像ビットストリームを合成して送出する処理と、動画像中の表示領域を管理する処理と、受信側において、動画像ビットストリームを受信して復号化する処理と、復号化した動画像を表示する処理と、ユーザの操作を入力し送信側に送出する処理とをコンピュータに行わせることを特徴とする。
 本発明によれば、圧縮符号化された動画像信号を利用し、視聴領域の指定、スクロール等の視聴領域変更をインタラクティブに行う動画像配信システムが低コスト、低演算量で提供される。
 その理由は以下の通りである。本発明においては、圧縮符号化された動画像信号を1以上のマクロブロックで構成されるタイルの集合として管理し、所望の視聴領域をカバーするために必要なタイルから1フレームの動画像ビットストリーム(合成フレーム)を構成して伝送する。また、合成フレームのビットストリームは通常のデコーダで復号化できるため、専用の仕様のデコーダは不要であり、コスト上昇を抑えられる。また、合成フレームを構成するためのタイル情報の補正は、タイル位置、動きベクトルなどビットストリームの一部を書き換える処理であるため、演算量が小さい。
本発明の第1の実施の形態に係る動画像配信システムの構成を示すブロック図である。 本発明の第1の実施の形態における画像管理を説明する図である。 本発明の第1の実施の形態に係る動画像配信方法を示すフローチャートである。 本発明の第1の実施の形態に係る動画像配信方法における処理の一例を説明する図である。 本発明の第1の実施の形態に係る動画像配信方法における処理の一例を説明する図である。 本発明の第2の実施の形態に係る動画像配信方法における処理の一例を説明する図である。 本発明の第2の実施の形態に係る動画像配信方法における処理の一例を説明する図である。 本発明の第3の実施の形態に係る動画像配信方法における処理の一例を説明する図である。 本発明の第3の実施の形態に係る動画像配信方法における処理の一例を説明する図である。 本発明の第3の実施の形態に係る動画像配信方法における動きベクトル補正処理の一例を説明する図である。 本発明の第3の実施の形態に係る動画像配信方法におけるタイル読み出し及び補正の処理の一例を示すフローチャートである。 本発明の第4の実施の形態に係る動画像配信方法における処理の一例を説明する図である。 本発明の第5の実施の形態における画像管理を説明する図である。 本発明の第5の実施の形態における画像管理を説明する図である。 本発明の第6の実施の形態に係る動画像配信方法における動きベクトル補正処理の一例を説明する図である。 本発明の第6の実施の形態に係る動画像配信方法におけるタイル情報記録形式の例を説明する図である。 本発明の画像管理の別の例を説明する図である。
 次に、発明を実施するための最良の形態について図面を参照して詳細に説明する。以降の説明では、動画像符号化技術の具体的な内容に関する部分については、特に断らない限り、H.264に則った処理の例を挙げて説明する。
(第1の実施の形態)
 本発明の第1の実施の形態について、図1乃至図5を参照して説明する。図1は本発明の第1の実施の形態に係る動画像配信システムの構成の一例を示す。図2は本発明の第1の実施の形態における画像情報の管理方法の一例を説明する。
 図2を参照して、本発明の第1の実施の形態では、圧縮符号化された動画像の各フレームを複数の部分領域に分割して管理する。本明細書では、この部分領域をタイルと呼ぶ。動画像の圧縮符号化では、1フレームの画像を16×16画素のサイズのブロックに分割して符号化処理を行なう。この16×16画素のブロックはマクロブロック(以下ではMBと略記する)と呼ばれる符号化処理の単位である。図2に示すように、タイルは1個以上のMBの集合で構成され、1個以上のタイルが集まって1フレームの画像が構成される。図2は、横方向に連続する4個のMBで1つのタイルを構成し、横5個×縦8個のタイルで1フレームが構成される場合の例を示す。この場合、1タイルのサイズは64×16画素、1フレームのサイズは320×128画素である。
 ここで、1つのタイルに含まれるMBは、このタイルに含まれない他のMBの符号化情報を参照せずに復号化できるように符号化されている。ここで符号化情報とは、デコード結果の画素値、過去のデコード結果のフレームの該当位置の画素値、MB符号化モード、動きベクトル、イントラ予測モードなどである。MBの復号化においては、同じタイルに含まれる他のMBの符号化情報を参照してよい。これにより、各タイルは他のタイルとは独立に復号処理が可能である。またMBは、動き補償に際して、他の画像において同じ位置にあるタイル以外のタイルの画素値を用いないよう符号化される。これにより、フレーム間予測を含めて同位置のタイルのみで復号処理が可能である。H.264においては、各タイルを別々のスライスとして符号化するとともに、動き補償処理でタイルの外側の画素値を参照しないように動きベクトルの値を制限する処理が、このような符号化に対応する。しかしながら、このような符号化の制限は、圧縮効率の低下を招く。特に、MB単位で独立に復号処理可能にすると、近傍のMBの間での時間的及び空間的相関を利用した圧縮処理ができず、圧縮効率が大きく低下する。また、H.264の場合は、MB毎にスライスヘッダのような管理情報を付加する必要があり、そのオーバーヘッドによる圧縮効率低下が大きい。本発明では、1つ以上のMBをまとめてタイルとして管理する。これにより、タイル内では近傍MB間の時間的及び空間的相関を利用した圧縮が有効に機能する。また、スライスヘッダのような管理情報も1つのタイルに対し1つでよい。このため、オーバーヘッドが小さく、圧縮効率の低下が抑えられる。圧縮効率低下の大きさはタイルに格納するMBの数を増減することにより制御可能である。
 また、各タイルの符号化にはIタイルとPタイルの2種類のモードのいずれかを用いる。ここで、Iタイルとは、通常の動画像符号化のIピクチャと同様に、タイルに含まれる全てのMBをイントラMBとして符号化されたデータである。また、Pタイルとは、Pピクチャと同様に、イントラMBとインターMBの混在を許して符号化されたデータである。通常の動画像符号化の場合と同様、Iタイルは過去の復号化結果を参照せず単独で復号化可能であるが、符号化効率は高くない。一方、Pタイルは過去の復号化結果の画像を参照しながら復号化される必要があるが、符号化効率はIタイルについての効率より高い。
 図1を参照して、本発明の第1の実施の形態に係る動画像配信システム1の構成を説明する。本発明の第1の実施の形態において、動画像配信システムは、送信装置100と受信装置101を含む。送信装置100は、タイル記憶部110、1個以上のストリーム補正部111、合成部112、表示位置制御部113を含む。受信装置101は、デコーダ部114、表示部115、操作入力部116を含む。タイル記憶部110は、圧縮符号化された個々のタイルのビットストリームを記憶する。以下では、タイル記憶部110に記憶されるタイル群で構成されるビットストリームを元ストリームと呼び、元ストリームに含まれる画像フレームを元フレームと呼ぶ。ストリーム補正部111は、表示位置制御部113からの制御に基づき、タイル記憶部110から所望のタイルのビットストリームを入力し、必要に応じてビットストリームの一部に補正処理を施し、合成部112に出力する。合成部112は入力された1つ以上のタイルのビットストリームを合成して1フレームのビットストリーム(以下では、合成フレームと呼ぶ)を生成し、また表示位置制御部113からの表示位置情報に基づいて合成フレームのビットストリームに表示位置情報を記録し、ビットストリームを送出する。表示位置制御部113は、受信装置101から入力される操作情報に基づいて表示領域を管理し、表示領域に基づいてストリーム補正部に対して必要なタイルの情報を供給するとともに、合成部112に表示位置情報を供給する。デコーダ部114は、送信装置100から送信される動画像ビットストリームを受信して復号化処理を行い、復号結果の画像を表示部115に出力する。表示部115は復号結果の画像を画面等に表示する。操作入力部116は表示領域設定、表示領域変更などのユーザ操作を受け付け、ユーザ操作による入力を送信装置100に送る。
 次に、図3のフローチャートを参照し、本発明の第1の実施の形態に係る動画像配信方法を説明する。表示位置制御部113は、受信装置101からの操作情報および、過去の表示位置情報に基づいて所望の表示領域を決定する(ステップS301)。受信装置101の操作入力部116はユーザからの、例えば表示領域の左右或は上下への移動を指示する入力操作を受け付け、その操作情報を送信装置100に送る。表示位置制御部113はこの操作情報に応じて、次に受信装置に送信する画像フレームの表示領域の位置を左右あるいは上下に移動させる。図4は、フレーム中央の180×80画素の領域を切り出して再生する処理の一例を示す。図5は、送信装置100における処理を示す。表示位置制御部113は、図4に示す表示領域情報に対し、その領域をカバーするのに必要な最小限のタイル群を決定する(図3のステップS302)。図5のようにラスタースキャン順に従って各タイルに番号(以下ではタイル番号と呼ぶ)を付けた場合、表示領域をカバーするのに必要なタイルはそれぞれ、6、7、8、11、12、13、16、17、18、21、22、23、26、27、28、31、32、33の番号を付した18個のタイルである。そこで、表示位置制御部113はストリーム補正部111に対し、この18個のタイルを抜き出すよう指示する。また、この18個のタイルで合成フレームを構成する場合、合成フレーム内でのタイルの位置は元フレーム内での位置と異なる。例えば、タイル6番は元フレームでは左上隅の点を基準にして右に1タイル、下に1タイルの位置であったが、18個のタイルで構成する合成フレーム内では左上隅の位置となる。そこで、表示位置制御部113はストリーム補正部111に対し、フレーム内でのタイルの位置を補正するよう指示する(ステップS302)。この処理に対応して、H.264では、各タイルを1つのスライスとして符号化し、タイルの位置はスライスヘッダにあるfirst_mb_in_sliceの値により特定される。この値はスライスの先頭に格納されているMBのフレーム内での座標に対応する値である。そのため、例えばタイル6番に対しては先頭MBの座標が(0,0)に、タイル7番に対しては先頭MBの座標が(4,0)になるように、first_mb_in_sliceの値が補正される。本発明の第1の実施形態では、ストリーム補正部111は、表示位置制御部113からの指示に基づいて必要なタイルのビットストリームをタイル記憶部110から読み出し(ステップS303)、表示位置制御部113から指示されたストリーム補正処理を行い(ステップS304)、結果を合成部112に出力する。なお、本発明の第1の実施の形態では、過去の画像情報を用いないIタイルのみを読み出すものとする。合成部112は入力されたタイルのビットストリームから1フレームのビットストリームを構成する(ステップS305)。また、図5の例からわかるように、表示領域をカバーするのに必要なタイル群(図5の例では18タイル)から構成した合成フレームは、所望の表示領域より大きくなることがある。そこで、表示位置制御部113は合成フレーム内での表示位置の情報を決定し(ステップS302)合成部112に供給する。図5の例では、合成部112で構成した192×96画素の合成フレームのうち、中心の160×80画素の領域を表示すれば所望の表示となる。合成部112は表示位置制御部113から供給される表示位置情報に基づいて合成フレームのビットストリームに表示位置情報を記録する(ステップS306)。H.264の場合は、seq_parameter_set_rbsp()中のframe_cropping_flag、frame_crop_left_offset、frame_crop_right_offset、frame_crop_top_offset、frame_crop_bottom_offsetに、座標(16,8)−(175,87)を対角線とする矩形領域を表示するよう適切な値を設定することにより所望の表示位置情報が記録される。
 本発明の第1の実施の形態によれば、圧縮符号化された元フレームを構成するタイルのうち、所望の表示領域のカバーに必要な最小限のタイル群のみを抜き出して1フレームのビットストリームを合成して受信装置に送る。このため、伝送路帯域を不必要に消費することなく、設定した指定領域の動画像の視聴を実現できる。また、合成フレームのビットストリームは通常の圧縮符号化されたビットストリームであるため、受信装置のデコーダ部114、表示部115は通常の動画像配信等で広く用いられているデコード部、表示部と同一のものでよく、受信装置を大きく変更することなく指定領域の視聴を実現できる。さらに、送信装置においては、必要なタイルのビットストリームを読み出し、フレーム内の位置情報を補正して1フレームに合成する処理のみが必要である。このため、本実施形態に係る動画像配信方法は、少ない処理量で実現可能である。特に、元の動画像全体を復号し、復号結果の非圧縮画像から視聴したい領域の画像を切り出し、その領域の画像に符号化処理を施すという方法に比較すれば、はるかに小さい負荷で実現できる。
(第2の実施の形態)
 次に、本発明の第2の実施の形態について、図6及び図7を参照して説明する。システムの構成及び動作フローはそれぞれ本発明の第1の実施の形態と同様である。
 ここでは、図6は、先頭の合成フレーム0ではフレーム中央の160×80画素の領域を表示し、次の合成フレーム1では受信装置からの操作に基づいて表示領域を左上に移動(スクロール)する処理の一例を示す。図7は、送信装置100における処理を示す。表示領域をカバーする必要最小限のタイル群を決定する処理は第1の実施の形態と同様である。この例では、表示領域がスクロールしてもそれをカバーするタイル群の構成は変化しないため、合成フレーム0、合成フレーム1ともそれぞれ、6、7、8、11、12、13、16、17、18、21、22、23、26、27、28、31、32、33の番号を付した18個のタイルを利用する。図7は、タイルの番号とともに、その符号化モードを表示する。例えばI12は元フレームで12番の位置にあるIタイル、P28は元フレームで28番の位置にあるPタイルを表す。合成フレーム0ではそれより前に復号化済みの画像データが無いためフレーム間予測は行なわず、すべてIタイルでフレームが構成される。これに対し、合成フレーム1では直前の合成フレーム0の復号化結果の画像を利用できるため、フレーム間予測を行なうPタイルでフレームを構成することが出来る。ここで、前記のようにあるタイルに含まれるMBは、同じ位置のタイルに含まれるMBの情報のみを参照して復号化できるように符号化されているため、例えばタイルP6はタイルI6のみをフレーム間予測で参照する。合成フレーム0と合成フレーム1で表示領域が移動するのに対応するため、合成フレーム0と合成フレーム1では図3のステップS306で設定する表示位置情報が異なる。すなわち、合成フレーム0では座標(16,8)−(175,87)を対角線とする矩形領域を表示するように表示位置情報を設定するのに対し、合成フレーム1では座標(0,0)−(159,79)を対角線とする矩形領域を表示するように表示位置情報が設定される。
 本発明の第2の実施の形態によれば、Iタイルに加えてフレーム間予測を行なうPタイルも用いるため、圧縮効率が向上する。また、表示領域の移動(スクロール)は表示位置設定情報の変更で対応できるため、少ない処理量で実現可能である。
(第3の実施の形態)
 次に、本発明の第3の実施の形態について、図8乃至図11を参照して説明する。システムの構成及び動作フローはそれぞれ本発明の第1の実施の形態と同様である。
 図8は、先頭の合成フレーム0ではフレーム中央の160×80画素の領域を表示し、次の合成フレーム1では受信装置からの操作に基づいて表示領域を図6の例の場合よりもさらに左上に移動(スクロール)する処理の一例を示す。図9は、送信装置100における処理を示す。この例では、表示領域がスクロールすることにより、表示領域をカバーするタイル群の構成が変化する。すなわちスクロール後の合成フレーム1ではそれぞれ、0、1、2、3、5、6、7、8、10、11、12、13、15、16、17、18、20、21、22、23、25、26、27、28の番号を付した24個のタイルを利用する。また、タイル番号6、7、8、11、12、13、16、17、18、21、22、23、26、27、28のタイルについては、合成フレーム0に同じ番号、すなわち同じ位置のタイルが存在するため、その復号化結果の画像を利用したフレーム間予測を利用することが可能であり、Pタイルが用いられる。一方、上記以外のタイル0、1、2、3、5、10、15、20、25については合成フレーム0に該当位置のタイルが存在せずフレーム間予測は利用できないためIタイルが用いられる。また、Pタイルについてはストリーム補正部111でのストリーム補正時に、第2の実施の形態で説明したタイルの位置を補正に加え、フレーム間予測に用いる動きベクトルの補正が行われる。
 この動きベクトル補正に関して図10を参照して説明する。図10はタイル番号6のタイルでのベクトル補正の一例を示す。合成フレーム1のタイルP6には4個のMBが含まれ、それぞれ図10に示すような動きベクトル1001を持つものとする。この動きベクトルは直前のフレームの同位置のタイル、すなわち合成フレーム0のタイルI0を参照する動きベクトルである。第2の実施の形態で示した例のように、合成フレーム上でのタイルの位置に変化が無い場合にはこの動きベクトルをそのまま適用することにより正常な動き補償フレーム間予測を行なうことができる。しかし、図10で示すように合成フレーム0と合成フレーム1でタイルの位置に変化がある場合、動きベクトル1001をそのままフレーム間予測に用いると本来の参照位置とは異なる位置の画素データを参照してしまい、正しいフレーム間予測処理を行なうことができない。そこで、合成フレーム上でのタイルの位置変化を打ち消すような動きベクトル補正を行なう。図10の例では、タイル6の位置変位ベクトル1002の成分は、右方向に64画素、下方向に16画素である。そこで、元の動きベクトル1001のそれぞれから、このタイル位置変位ベクトル1002を減算して補正動きベクトル1003を求める。この補正動きベクトルは、元の動きベクトルで表現されていた画像の被写体の動きと、タイルに含まれる各MBの画像フレーム上での動きを合成した結果になっており、動き補償ではこの補正動きベクトルを用いることにより、正しいフレーム間予測を行なうことができる。
 図11は、本発明の第1乃至第3の実施の形態で、表示位置制御部113とストリーム補正部111が協調して行なうタイル読み出しおよびストリーム補正処理の流れの一例を示すフローチャートである。図11のフローチャートは、図3におけるステップS303およびS304での処理の詳細な処理を示す。まず、読み出すタイルと同番号のタイルがフレーム間参照で参照する以前の合成フレームに存在するかを判定する(ステップS1101)。存在しない場合はフレーム間予測を利用できないのでIタイルを読み出す(ステップS1102)。存在する場合はフレーム間予測を利用するためにPタイルを読み出す(ステップS1103)。Pタイルを用いる場合はさらに、合成フレーム上でのタイルの位置が変化するか否かを判定する(ステップS1104)。位置が変化する場合はタイルに含まれる各MBの動きベクトルを補正する(ステップS1105)。動きベクトル補正処理は図10を参照して第3の実施の形態で説明した通りである。そして、合成フレーム内でタイルを適切な位置に配置するためにタイル位置補正処理を行なう(ステップS1106)。タイル位置補正は第1の実施の形態で説明した通りである。
 本発明の第3の実施の形態によれば、表示領域の移動(スクロール)量が大きい場合でも合成フレームの構成に用いるタイル群の変更で対応でき、また以前の合成フレームにも存在するタイルについてはフレーム間予測を利用するPタイルを用いることが出来る。このため、高い圧縮効率を維持して、動画像の視聴領域移動を実現できる。また、合成フレーム上でのタイル位置が変化しても動きベクトル補正で対応できるため、MBの再エンコードなどの負荷の大きい処理が不要であり、少ない処理量で動画像の視聴領域移動が可能である。
(第4の実施の形態)
 次に、本発明の第4の実施の形態について、図12を参照して説明する。システムの構成及び動作フローはそれぞれ本発明の第3の実施の形態と同様である。
 ここでは、第3の実施の形態と同様に、図8に示す表示領域移動があった場合の処理の一例を示す。構成及び動作フローはそれぞれ第3の実施の形態と同じである。しかし、第4の実施の形態では合成フレームの構成に用いるタイル群の決定(ステップS302)処理が異なる。第3の実施の形態では、表示領域をカバーする必要最小限のタイル群だけが利用されていたが、第4の実施形態では、必要最小限のタイルばかりではなくではなく、その周辺のいくつかのタイルも合わせて用いられる。図9の合成フレーム0と比較すると、図12の合成フレーム0では表示領域には含まれていないタイルI9、I14、I19、I24、I29、I34も含めて合成フレームを構成する。第4の実施の形態では、表示領域の横、縦の画素数をそれぞれDW、DHとし、1つのタイル横、縦のサイズをそれぞれTW、THとすると、
 横方向:CEIL(DW/TW)+1個
 縦方向:CEIL(DH/TH)+1個
のタイルが用いられる。ここで、CEIL(X)はX以上で最小の整数を返す関数である、すなわち、XをX以上の最小の整数へ切り上げる。図8の例では表示領域はDW=160、DH=80、タイルサイズはTW=64、TH=16であるので、合成フレームの構成に利用するタイル数は
 横方向:CEIL(160/64)+1=4個
 縦方向:CEIL( 80/16)+1=6個
の合計24個となる。これは、表示領域を領域の移動範囲まで含めてカバーするタイルの個数の最大値である。図12では、これに基づいて、合成フレーム0、合成フレーム1のそれぞれにおいて表示領域を含む24個のタイルが用いられる。
 本発明の第4の実施の形態によれば、合成フレームの構成に用いるタイル数を表示領域のサイズとタイルのサイズから決定するため、元フレーム上での表示領域の位置によって合成フレームのサイズが変化することは無い。このため、受信装置のデコーダ部あるいは表示部が、動画像ビットストリームの途中でフレームサイズが変化する場合に正常に処理を行なえない場合でも、動画像の視聴領域移動が可能である。
(第5の実施の形態)
 次に、本発明の第5の実施の形態について、図13及び図14を参照して説明する。システムの構成及び動作フローはそれぞれ本発明の第4の実施の形態と同様である。
 図13は、本発明の第5の実施の形態における画像情報の管理の方法を説明する。図2は、横方向に連続する4個のMBで1つのタイルを構成する画像情報の管理方法の一例を示した。これに対し、図13は、縦及び横がそれぞれ4個、即ち合計16個のMBが1つのタイルを構成する画像情報の管理方法の一例を示す。この場合、1フレームのサイズは図2と同じく320×128画素であるが、1タイルのサイズは64×64画素で、1フレームは横5個×縦2個のタイルで構成される。第1の実施の形態において、H.264は、各タイルを他のタイルとは独立に復号処理するために、各タイルをスライスとして符号化し、動き補償処理でタイルの外側の画素値を参照しないように動きベクトルの値を制限する。これに対し本実施の形態では、図13のように複数のMB行にまたがるタイルで同様に各タイルをそれぞれ他のタイルとは独立に復号処理する。このため、例えば、H.264での処理に則って、スライスグループを用いて処理が行われる。これに関して、図14を参照して説明する。
 図14は、図13のタイル構成を実現するための各MBのslice_group_id割り当ての例を示す。図13に示すように、本実施の形態においては、同じMB行、MB列で異なるタイルに属するMBには異なるslice_group_idが割り当てられ。さらに、同じslice_group_idを割り当てたMBは属するタイル毎に異なるスライスとすることにより、各タイルを他のタイルとは独立に復号処理が行われる。
 本発明の第5の実施の形態によれば、タイルを複数のMB行にまたがるサイズとすることができる。これにより、各タイルをそれぞれ他のタイルとは独立に復号処理可能にするための動きベクトル値の制限が緩和され、各タイルの圧縮効率が向上する。また、タイルの形状の設定の自由度が拡大する。
(第6の実施の形態)
 次に、本発明の第6の実施の形態について、図15及び図16を参照して説明する。システムの構成、動作フローのそれぞれは本発明の第5の実施の形態と同様である。
 図15は、ストリーム補正部111での動きベクトルを補正する処理の一例を示す。2つのMBのベクトル補正前の動きベクトルをそれぞれ1501及び1502により示す。
 MPEG−2、H.264等の動画像符号化方式では、あるMB(カレントMBと呼ぶ)の動きベクトルを符号化する際には、動きベクトルの情報を直接に符号化しない。直接符号化する代わりに、そのMBの周辺MBの動きベクトルの情報からカレントMBの動きベクトルを予測し、予測ベクトルとカレントMBの動きベクトルの差分のベクトル情報を符号化する。これらの処理により、圧縮効率が向上する。予測ベクトルとしては、カレントMBの左側MBの動きベクトル、或は、周辺の3個のMBの動きベクトルのメディアン値が用いられる。
 本実施の形態において、図15では、動きベクトル1502はそのまま符号化されるのではなく、動きベクトル1501から求めた予測ベクトル1503との差分ベクトル1504が符号化される。ここで、第3の実施の形態で図10を用いて説明した動きベクトルの補正を行なうと、動きベクトル1501、1502はそれぞれタイル位置変位ベクトル1520を用いて補正され、それぞれ補正動きベクトル1511、1512になる。そして、補正動きベクトル1512はそのまま符号化されるのではなく、補正動きベクトル1511から求めた予測ベクトル1513との差分ベクトル1514が符号化される。このとき、動きベクトル1501、1502と補正動きベクトル1511、1512の差分はそれぞれ同じであるため、補正前後での差分ベクトル1504と1514は全く同じベクトルとなる。このため、動きベクトル1502に関して、補正を行なっても差分ベクトルは変化しないので、ビットストリームの補正は必要ない。このように、あるタイルに対して動きベクトル補正処理を行なう際には、全ての動きベクトルに対応するビットストリームを補正すれば、その他の動きベクトルはビットストリームを補正しなくても動きベクトル予測の仕組みによって補正した効果が得られる。
 図16は、本発明の第6の実施の形態でタイル記憶部110に記憶するタイル情報の構成の例を示す。各タイル情報は、対応するフレーム番号、タイル番号、タイルの符号化タイプ(IタイルまたはPタイル)、タイルのビットストリーム情報を含んでいる。タイル情報1601及びタイル情報1602は、Iタイルのタイル情報の例である。また、Pタイルのタイル情報1603はこれに加えて、動きベクトル補正処理の際に補正が必要なビットストリームに関する情報も含む。例えば、ビットストリーム補正が必要な動きベクトル情報が記録されているビットストリーム中の位置及びサイズを必要数だけ記録する。なお、上記のように必ずしもタイルに含まれる全ての動きベクトルについてこの情報を記録する必要はない。ストリーム補正部111での動きベクトル補正処理では、各タイルのタイル情報のうち、前記の補正が必要なベクトルのビットストリームの情報を読み出して所定の補正処理を行なう。
 本発明の第6の実施の形態によれば、タイルに含まれる動きベクトルの全てに対してではなく、補正が必要なベクトルに対してのみ動きベクトル補正処理を適用すればよいので、動きベクトル補正処理の負荷をさらに軽減して少ない処理量で動画像の視聴領域移動が可能である。
 以上、本発明の実施の形態について説明した。上記の実施の形態では主にH.264に則った実施の例について述べたが、本発明はH.264方式での応用のみに限定されるものではなく、MPEG−2等の他の動画像符号化方式にも適用できる。
 また、フレーム間予測を利用する場合の例は1フレームからの動き補償を行うPタイルについて説明したが、フレーム間予測の方法はこれに限定されるものではなく、2フレームからの動き補償を行うBタイル、また複数フレームを用いたマルチフレーム動き補償、画素値の重み付け加算を併用した重み付き動き補償、グローバル動き補償等、種々のフレーム間予測に対しても容易に適用可能である。
 また、本実施の形態において、送信装置と受信装置間で動画像を伝送する動画像配信システムの例について説明したが、構成はこれに限定されるものではなく、これらを1つにまとめた動画像再生装置などの構成も当然考えられる。
 また、本実施の形態においては、タイルの形状は矩形とし、すべてのタイルの大きさが均一である場合を例に挙げて説明したが、タイルの形状、サイズはこれに限定されるものではなく、例えば図17に示すような六角形状のタイル形状や、矩形のタイル形状であってもサイズが均一でないもの、また矩形タイルの境界位置をずらして配置するなど、種々のタイルに対して適用できる。また、ストリーム補正に関してはタイル位置と動きベクトルの補正に関して具体的に説明したが、動画像方式の規格によってはこれら以外の情報の補正が必要となる可能性もあるが、少なくとも合成フレームの構成に必要な補正が行われる。また、タイル情報の記憶形式は図16の例についてのみ説明したが、この形式に限定されない。例えば、タイル位置の補正処理の負荷を軽減するために、補正が必要なタイル位置情報、H.264におけるfirst_mb_in_sliceの位置、サイズがあらかじめ記憶されてもよい。また、以上説明した方法は、コンピュータがプログラムを記録媒体或は通信回線から読み込んで実行することによって実現してもよい。
 この出願は、2010年11月1日に出願された日本出願特願2010−245175を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明によれば、圧縮符号化された動画像信号を利用し、視聴領域の指定、スクロール等の視聴領域変更をインタラクティブに行う動画像配信システムに適用できる。
 1 動画像配信システム
 100 送信装置
 101 受信装置
 110 タイル記憶部
 111 ストリーム補正部
 112 合成部
 113 表示位置制御部
 114 デコーダ部
 115 表示部
 116 操作入力部
 1001 動きベクトル
 1002 タイル位置変位ベクトル
 1003 補正動きベクトル
 1501  動きベクトル
 1502 動きベクトル
 1503 予測ベクトル
 1504 差分ベクトル
 1511 補正動きベクトル
 1512 補正動きベクトル
 1513 予測ベクトル
 1514 差分ベクトル
 1520 タイル位置変位ベクトル
 1601 タイル情報
 1602 タイル情報
 1603 タイル情報

Claims (10)

  1.  圧縮符号化された動画像を1以上のマクロブロックを含むタイルの集合として管理する動画像配信システムであって、
     動画像を構成するタイルの集合を記憶する、タイル記憶手段と、
     前記タイル記憶手段からタイルを読み出し、補正処理を行って、出力する、1つ以上のストリーム補正手段と、
     前記ストリーム補正手段から出力される前記タイルから1フレームの動画像ビットストリームを合成して、送出する、合成手段と、
     前記動画像中の表示領域を管理し、前記表示領域に基づいて前記ストリーム補正手段及び前記合成手段を制御する、表示位置制御手段と、
     を備える送信装置と、
     前記動画像ビットストリームを受信して、復号化する、デコーダ手段と、
     前記デコーダ手段が復号化した動画像を表示する、表示手段と、
     ユーザの操作を入力し、前記送信装置の前記表示位置制御手段に対して送出する、操作入力手段と、
     を備える受信装置と、
     を備えたことを特徴とする動画像配信システム。
  2.  前記ストリーム補正手段は、前記表示領域を含む画像領域に対応するタイル群を読み出し、
     前記ストリーム補正手段は、前記読み出されたタイルに対し、前記タイル群で構成されるフレーム内でのタイルの位置を補正する、位置情報補正処理を行い、
     前記合成手段は、前記タイル群で構成される前記フレーム内での前記表示領域の範囲を示す情報を前記動画像ビットストリームに記録する、
     ことを特徴とする請求項1に記載の動画像配信システム。
  3.  前記タイルは、画像内で異なる位置にあるタイルの情報を利用せずに復号化可能に符号化され、
     前記タイルは、他の画像の情報を参照せずに復号化可能なIタイルの符号化と、他の画像の同じ位置のタイルの復号化結果の画像を用いたフレーム間予測を行なって復号化するPタイルの符号化との、少なくとも一つの符号化により符号化され、
     前記ストリーム補正手段は、前記タイル群に含まれるタイルの位置ごとに、IタイルまたはPタイルのいずれか一方のタイルを読み出す、
     ことを特徴とする請求項2に記載の動画像配信システム。
  4.  前記ストリーム補正手段は、前記タイル群に含まれるタイルごとに、フレーム間予測で利用する画像が復号化済みの場合はPタイルを、該画像が復号化済みでない場合はIタイルを読み出す、
     ことを特徴とする請求項3記載の動画像配信システム。
  5.  前記ストリーム補正手段は、Pタイルを読み出した場合に、前記Pタイルがフレーム間予測で利用する画像内でのタイル位置と、前記タイル群で構成されるフレーム内での前記Pタイルの位置が異なる場合、該位置の違いが解消されるように前記Pタイルに含まれるマクロブロックの動きベクトル情報を補正する、
     ことを特徴とする請求項4に記載の動画像配信システム。
  6.  前記表示領域は、表示位置が設定され、
     前記ストリーム補正手段は、前記表示領域を包含するために必要なタイル数のうち、設定された前記表示位置の前記表示領域がとりうる範囲を包含するために必要なタイル数のタイルを読み出す、
     ことを特徴とする請求項3、4または5に記載の動画像配信システム。
  7.  前記タイル記憶手段は、前記Pタイルのビットストリーム中で、補正が必要な可能性のある、動きベクトルのビットストリームを識別する情報を記憶し、
     前記ストリーム補正手段は、前記動きベクトルのビットストリームを識別する情報の存在する動きベクトルのみを、前記動きベクトルのビットストリームを識別する情報を用いて、補正する、
     ことを特徴とする請求項3から6のいずれか一項に記載の動画像配信システム。
  8.  前記タイルは、2以上のマクロブロック行を含み、H.264/MPEG−4 AVCの動画像符号化方式のスライスグループ中のスライスとして符号化される、
     ことを特徴とする請求項3から7のいずれか一項に記載の動画像配信システム。
  9.  圧縮符号化された動画像を1以上のマクロブロックを含むタイルの集合として管理して、送信側から受信側に配信する、動画像配信方法であって、
     送信側において、
     動画像を構成するタイルの集合を記憶するステップと、
     前記記憶されたタイルを読み出し、補正処理を行って、出力するステップと、
     前記出力される前記タイルから1フレームの動画像ビットストリームを合成して、送出するステップと、
     前記動画像中の表示領域を管理するステップと、
    を含み、
     受信側において、
     前記動画像ビットストリームを受信して、復号化するステップと、
     復号化した動画像を表示するステップと、
     ユーザの操作を入力し、前記送信側に送出するステップと、
    を含むことを特徴とする、動画像配信方法。
  10.  圧縮符号化された動画像を1以上のマクロブロックを含むタイルの集合として管理して、送信側から受信側に配信する、動画像配信用プログラムであって、
     送信側において、
     動画像を構成するタイルの集合を記憶する処理と、
     前記記憶されたタイルを読み出し、補正処理を行って、出力する処理と、
     前記出力される前記タイルから1フレームの動画像ビットストリームを合成して、送出する処理と、
     前記動画像中の表示領域を管理する処理と、
     受信側において、
     前記動画像ビットストリームを受信して、復号化する処理と、
     復号化した動画像を表示する処理と、
     ユーザの操作を入力し、前記送信側に送出する処理と、
    をコンピュータに行わせることを特徴とする、動画配信用プログラム。
PCT/JP2011/075525 2010-11-01 2011-10-31 動画像配信システム、動画像配信方法および動画像配信用プログラム WO2012060459A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/882,378 US9414065B2 (en) 2010-11-01 2011-10-31 Dynamic image distribution system, dynamic image distribution method and dynamic image distribution program
JP2012541917A JP5811097B2 (ja) 2010-11-01 2011-10-31 動画像配信システム、動画像配信方法および動画像配信用プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-245175 2010-11-01
JP2010245175 2010-11-01

Publications (1)

Publication Number Publication Date
WO2012060459A1 true WO2012060459A1 (ja) 2012-05-10

Family

ID=46024571

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/075525 WO2012060459A1 (ja) 2010-11-01 2011-10-31 動画像配信システム、動画像配信方法および動画像配信用プログラム

Country Status (3)

Country Link
US (1) US9414065B2 (ja)
JP (1) JP5811097B2 (ja)
WO (1) WO2012060459A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039219A (ja) * 2012-08-20 2014-02-27 Nippon Telegr & Teleph Corp <Ntt> 映像復号装置、映像送受信システム、映像復号方法及び映像送受信方法
WO2015034061A1 (ja) 2013-09-06 2015-03-12 三菱電機株式会社 動画像符号化装置、動画像トランスコード装置、動画像符号化方法、動画像トランスコード方法及び動画像ストリーム伝送システム
JP2016539550A (ja) * 2013-10-25 2016-12-15 メディアテック インコーポレイテッド 送信同期イベントに従って圧縮されたピクチャの送信を制御する方法及び装置
JP2017225096A (ja) * 2016-06-17 2017-12-21 株式会社アクセル 画像データ処理方法
JP2018046332A (ja) * 2016-09-12 2018-03-22 ルネサスエレクトロニクス株式会社 半導体装置、動画像処理システム、半導体装置の制御方法
WO2018105515A1 (ja) 2016-12-09 2018-06-14 株式会社アクセル 画像データ処理方法
JP2018098784A (ja) * 2016-12-09 2018-06-21 株式会社アクセル 画像データ処理方法
WO2019004283A1 (ja) * 2017-06-28 2019-01-03 シャープ株式会社 動画像符号化装置及び動画像復号装置
JP2019515578A (ja) * 2016-05-11 2019-06-06 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッドAdvanced Micro Devices Incorporated ビデオストリームを動的にステッチングするシステム及び方法
JPWO2018123608A1 (ja) * 2016-12-27 2019-10-31 ソニー株式会社 画像処理装置および方法
JP2020053977A (ja) * 2012-07-02 2020-04-02 キヤノン株式会社 再生装置、再生方法、プログラム、及び記憶媒体
JP2021530900A (ja) * 2018-07-02 2021-11-11 ノキア テクノロジーズ オーユー ビデオコーディングでのタイル関連アドレス指定のための方法および装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9754560B2 (en) * 2012-08-20 2017-09-05 Open Invention Network, Llc Pooling and tiling data images from memory to draw windows on a display device
JP6692087B2 (ja) * 2013-12-27 2020-05-13 サン パテント トラスト 配信方法、およびシステム
US9872028B2 (en) * 2015-06-26 2018-01-16 Intel Corporation Wireless display adaptations and optimizations based on unfiltered and regional feedback
US10509588B2 (en) * 2015-09-18 2019-12-17 Qualcomm Incorporated System and method for controlling memory frequency using feed-forward compression statistics

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11205786A (ja) * 1997-12-25 1999-07-30 Hewlett Packard Co <Hp> 動画データの格納形式、動画データ転送システム、動画表示方法および記憶媒体
JP2003224846A (ja) * 2002-01-29 2003-08-08 Matsushita Electric Ind Co Ltd 画像処理装置、復号化装置、符号化装置、画像処理システム、画像処理方法、及び、符号化方法
JP2003333595A (ja) * 2002-05-15 2003-11-21 Media Glue Corp 符号化信号変換装置、符号化信号変換方法および符号化信号変換プログラム
JP2003339003A (ja) * 2002-05-20 2003-11-28 Hitachi Ltd 画像撮影配信装置および画像撮影配信方法
JP2005341093A (ja) * 2004-05-26 2005-12-08 Mitsubishi Electric Corp コンテンツ適応化装置、コンテンツ適応化システム、コンテンツ適応化方法
JP2007189357A (ja) * 2006-01-11 2007-07-26 Matsushita Electric Ind Co Ltd 自由視点映像配信装置及び自由視点映像配信方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5867208A (en) 1997-10-28 1999-02-02 Sun Microsystems, Inc. Encoding system and method for scrolling encoded MPEG stills in an interactive television application
BRPI0107875B1 (pt) 2000-01-28 2015-09-08 Opentv Inc método, decodificador, interativo e sistemas destinados a combinarem múltiplas correntes de vídeo codificadas em mpeg
US6931660B1 (en) 2000-01-28 2005-08-16 Opentv, Inc. Interactive television system and method for simultaneous transmission and rendering of multiple MPEG-encoded video streams
US6539545B1 (en) 2000-01-28 2003-03-25 Opentv Corp. Interactive television system and method for simultaneous transmission and rendering of multiple encoded video streams
JP2002027461A (ja) 2000-07-06 2002-01-25 Nec Corp 映像符号化方法および映像配信方法および映像符号化装置および映像配信装置
US9061206B2 (en) * 2005-07-08 2015-06-23 Activevideo Networks, Inc. Video game system using pre-generated motion vectors
US8284842B2 (en) * 2005-07-08 2012-10-09 Activevideo Networks, Inc. Video game system using pre-encoded macro-blocks and a reference grid

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11205786A (ja) * 1997-12-25 1999-07-30 Hewlett Packard Co <Hp> 動画データの格納形式、動画データ転送システム、動画表示方法および記憶媒体
JP2003224846A (ja) * 2002-01-29 2003-08-08 Matsushita Electric Ind Co Ltd 画像処理装置、復号化装置、符号化装置、画像処理システム、画像処理方法、及び、符号化方法
JP2003333595A (ja) * 2002-05-15 2003-11-21 Media Glue Corp 符号化信号変換装置、符号化信号変換方法および符号化信号変換プログラム
JP2003339003A (ja) * 2002-05-20 2003-11-28 Hitachi Ltd 画像撮影配信装置および画像撮影配信方法
JP2005341093A (ja) * 2004-05-26 2005-12-08 Mitsubishi Electric Corp コンテンツ適応化装置、コンテンツ適応化システム、コンテンツ適応化方法
JP2007189357A (ja) * 2006-01-11 2007-07-26 Matsushita Electric Ind Co Ltd 自由視点映像配信装置及び自由視点映像配信方法

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020053977A (ja) * 2012-07-02 2020-04-02 キヤノン株式会社 再生装置、再生方法、プログラム、及び記憶媒体
JP2014039219A (ja) * 2012-08-20 2014-02-27 Nippon Telegr & Teleph Corp <Ntt> 映像復号装置、映像送受信システム、映像復号方法及び映像送受信方法
WO2015034061A1 (ja) 2013-09-06 2015-03-12 三菱電機株式会社 動画像符号化装置、動画像トランスコード装置、動画像符号化方法、動画像トランスコード方法及び動画像ストリーム伝送システム
US10038904B2 (en) 2013-10-25 2018-07-31 Mediatek Inc. Method and apparatus for controlling transmission of compressed picture according to transmission synchronization events
JP2016539550A (ja) * 2013-10-25 2016-12-15 メディアテック インコーポレイテッド 送信同期イベントに従って圧縮されたピクチャの送信を制御する方法及び装置
JP2019515578A (ja) * 2016-05-11 2019-06-06 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッドAdvanced Micro Devices Incorporated ビデオストリームを動的にステッチングするシステム及び方法
JP2017225096A (ja) * 2016-06-17 2017-12-21 株式会社アクセル 画像データ処理方法
JP2018046332A (ja) * 2016-09-12 2018-03-22 ルネサスエレクトロニクス株式会社 半導体装置、動画像処理システム、半導体装置の制御方法
JP2018098784A (ja) * 2016-12-09 2018-06-21 株式会社アクセル 画像データ処理方法
US11336911B2 (en) 2016-12-09 2022-05-17 Axell Corporation Image data processing method
WO2018105515A1 (ja) 2016-12-09 2018-06-14 株式会社アクセル 画像データ処理方法
EP3790274A1 (en) 2016-12-09 2021-03-10 Axell Corporation Image data processing device
US10944980B2 (en) 2016-12-09 2021-03-09 Axell Corporation Image data processing method
JPWO2018123608A1 (ja) * 2016-12-27 2019-10-31 ソニー株式会社 画像処理装置および方法
JP7052732B2 (ja) 2016-12-27 2022-04-12 ソニーグループ株式会社 画像処理装置および方法
US11336909B2 (en) 2016-12-27 2022-05-17 Sony Corporation Image processing apparatus and method
US11184636B2 (en) 2017-06-28 2021-11-23 Sharp Kabushiki Kaisha Video encoding device and video decoding device
WO2019004283A1 (ja) * 2017-06-28 2019-01-03 シャープ株式会社 動画像符号化装置及び動画像復号装置
JP2021530900A (ja) * 2018-07-02 2021-11-11 ノキア テクノロジーズ オーユー ビデオコーディングでのタイル関連アドレス指定のための方法および装置
US11290728B2 (en) * 2018-07-02 2022-03-29 Nokia Technologies Oy Method and apparatus for tile-relative addressing in video coding
US20220159275A1 (en) * 2018-07-02 2022-05-19 Nokia Technologies Oy Method and Apparatus for Tile-Relative Addressing in Video Coding
US11838521B2 (en) * 2018-07-02 2023-12-05 Nokia Technologies Oy Method and apparatus for tile-relative addressing in video coding
JP7437374B2 (ja) 2018-07-02 2024-02-22 ノキア テクノロジーズ オーユー ビデオコーディングでのタイル関連アドレス指定のための方法および装置

Also Published As

Publication number Publication date
US20130215016A1 (en) 2013-08-22
US9414065B2 (en) 2016-08-09
JP5811097B2 (ja) 2015-11-11
JPWO2012060459A1 (ja) 2014-05-12

Similar Documents

Publication Publication Date Title
JP5811097B2 (ja) 動画像配信システム、動画像配信方法および動画像配信用プログラム
US8155202B2 (en) System and method for encoding scrolling raster images
JP5041626B2 (ja) 復号装置、復号方法、およびプログラム
JP4649615B2 (ja) 映像符号化、復号化装置および映像符号化、復号化方法、並びにそれらのプログラム
JP2004194328A (ja) 複数のmpegビデオ・ストリームの結合画像表示のための合成
US20160065993A1 (en) Video compression apparatus and video playback apparatus
US8111932B2 (en) Digital image decoder with integrated concurrent image prescaler
JP2016092837A (ja) 映像圧縮装置、映像再生装置および映像配信システム
JP2001285876A (ja) 画像符号化装置とその方法、ビデオカメラ、画像記録装置、画像伝送装置
JPH10234043A (ja) 動画像符号化/復号化装置
CN105163117B (zh) 一种图像编码方法及装置
CN102598673A (zh) 用于帧连续立体视频编码的动态参考帧重排序
US7369612B2 (en) Video decoder and method for using the same
US20120195381A1 (en) Image processing apparatus and method for processing image
JP5812028B2 (ja) 映像処理装置および映像処理方法
JP2007266748A (ja) 符号化方法
KR100995032B1 (ko) 화면 정지 기능을 갖는 비디오 디코딩 장치 및 방법
WO2009093557A1 (ja) マルチ画面表示装置
US20110216830A1 (en) Moving image encoder and moving image decoder
US20140092954A1 (en) Method and Apparatus for Encoding Video to Play at Multiple Speeds
JP2007158778A (ja) トリック再生用コンテンツ作成方法および装置、トリック再生用圧縮動画データ送出方法および装置、およびトリック再生用コンテンツ作成用プログラム
KR100780844B1 (ko) 다시점 화상 복호화기, 다시점 화상 데이터 처리 시스템,다시점 화상 데이터 처리 방법 및 이를 수행하는프로그램을 기록한 기록매체
JP4789127B2 (ja) 画像配信方法、画像記録方法、およびそれらのプログラム
WO2011152170A1 (ja) 映像処理装置
WO2013073422A1 (ja) 動画像符号化装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11838109

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2012541917

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13882378

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11838109

Country of ref document: EP

Kind code of ref document: A1