WO2011105137A1 - 画像符号化装置及び画像伝送システム - Google Patents

画像符号化装置及び画像伝送システム Download PDF

Info

Publication number
WO2011105137A1
WO2011105137A1 PCT/JP2011/050970 JP2011050970W WO2011105137A1 WO 2011105137 A1 WO2011105137 A1 WO 2011105137A1 JP 2011050970 W JP2011050970 W JP 2011050970W WO 2011105137 A1 WO2011105137 A1 WO 2011105137A1
Authority
WO
WIPO (PCT)
Prior art keywords
encoding
macroblock
image data
group
unit
Prior art date
Application number
PCT/JP2011/050970
Other languages
English (en)
French (fr)
Inventor
長谷川 弘
敏充 達可
武明 小室
Original Assignee
株式会社メガチップス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社メガチップス filed Critical 株式会社メガチップス
Publication of WO2011105137A1 publication Critical patent/WO2011105137A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder

Definitions

  • the present invention relates to an image encoding device that encodes a plurality of image data and outputs one compressed image data, and an image transmission system using the image encoding device.
  • a plurality of cameras may be installed. By monitoring from different angles using a plurality of cameras, it is possible to prevent the generation of blind spots.
  • the video signal generated by each camera is encoded and transmitted because the bandwidth of the transmission path is limited. Since it is necessary to simultaneously display and monitor the video of each camera, it is necessary to multiplex and transmit a plurality of video signals corresponding to each camera.
  • Patent Document 1 discloses a video signal encoding apparatus that converts a plurality of frame videos input from each camera into a single system of compressed data.
  • the video signal encoding apparatus deletes a frame video that is not encoded from a frame video input from each camera, and extracts a frame video to be encoded.
  • the extracted frame images are arranged for each camera.
  • the arranged frame images are encoded in GOP (Group of Pictures) units. Thereby, a plurality of frame images input from each camera are converted into one system of compressed data.
  • GOP Group of Pictures
  • Patent Document 1 aims to record the video of each camera on a recording medium for a long time, and does not assume that the video of each camera is transmitted in real time.
  • the video signal encoding apparatus extracts a frame video to be encoded.
  • the video signal encoding device cannot generate compressed data until the number of encoding target frame videos that can generate a GOP is extracted.
  • the time (delay) from when the frame video is input to the video signal encoding device to when it is output as compressed data becomes long, it is difficult to transmit the video of each camera in real time.
  • the image encoding device of the present invention compresses the first image data and the first image data.
  • the image encoding device generates a first encoding group by classifying the first macroblock of the first image data based on the set segmentation unit, and classifies the second macroblock of the second image data.
  • the encoding order for encoding the first macroblock and the second macroblock is changed so that the group generation unit for generating the second encoding group and the first encoding group and the second encoding group are alternately repeated.
  • the first image data and the second image data Encoding can be started. Accordingly, it is possible to shorten the delay associated with the encoding of the first image data and the second image data.
  • the image transmission system of the present invention includes an image encoding device that compresses first image data and second image data, and an image decoding device.
  • the image encoding device generates a first encoding group by classifying the first macroblock of the first image data based on the set segmentation unit, and classifies the second macroblock of the second image data.
  • the encoding order for encoding the first macroblock and the second macroblock is changed so that the group generation unit for generating the second encoding group and the first encoding group and the second encoding group are alternately repeated.
  • the image decoding apparatus includes: a receiving unit that receives the multiplexed compressed data; a demultiplexing unit that extracts the encoded first macroblock in order from the head of the received multiplexed compressed data; The decoding unit that decodes one macroblock in the extracted order, the decoded image data of the first macroblock, and the decoded image data of the second macroblock can be displayed at the timing when the first macroblock can be displayed.
  • An output control unit that outputs the decoded image data to the first display device.
  • the image decoding apparatus since the image decoding apparatus starts decoding without receiving all the encoded first macroblocks of the first encoding group, the delay associated with decoding is shortened. be able to.
  • the image decoding device outputs the decoded image data of the first macroblock to the display device when the decoded image data of both the first macroblock and the second macroblock can be displayed. Thereby, the first image data and the second image data can be displayed synchronously.
  • an object of the present invention is to provide a technique capable of reducing a delay that occurs when compressed data is generated from a plurality of image data.
  • FIG. 1 It is a figure which shows the structure of the image transmission system which concerns on the 1st Embodiment of this invention. It is a block diagram which shows the functional structure of the image coding apparatus shown in FIG. It is a figure which shows the structure of the macroblock of the uncompressed image data input into an image coding apparatus. It is a figure which shows the encoding order of a macroblock group. It is a figure which shows the encoding order of a macroblock group. It is a figure which shows the encoding order of a macroblock group. It is a figure which shows typically the structure of multiplexed compression data. It is a block diagram which shows the functional structure of a monitoring apparatus.
  • FIG. 1 is a diagram showing a configuration of an image transmission system according to an embodiment of the present invention.
  • An image transmission system 100 shown in FIG. 1 includes cameras 1a and 1b, an image encoding device 2, and monitoring devices 4a and 4b.
  • the image transmission system 100 is a system that monitors an ATM corner provided in a financial institution store in real time.
  • Cameras 1a and 1b are attached so that ATM corners can be photographed from different angles.
  • the cameras 1a and 1b take pictures of ATM corners and generate uncompressed image data 31a and 31b.
  • the image encoding device 2 is installed at the ATM corner together with the cameras 1a and 1b.
  • the frame of uncompressed image data 31a and 31b is input to the image encoding device 2 in synchronization.
  • the image encoding device 2 encodes and multiplexes the uncompressed image data 31a and 31b to generate multiplexed compressed data 33.
  • the multiplexed compressed data 33 is transmitted to a monitor room that monitors an ATM corner via a wireless communication network or the like.
  • the monitoring devices 4a and 4b are installed in the monitor room and receive the multiplexed compressed data 33.
  • the monitoring devices 4a and 4b perform demultiplexing and decoding processing on the multiplexed compressed data 33, and display images corresponding to the cameras 1a and 1b.
  • the cameras 1a and 1b photograph the same place (ATM corner) from different angles. For this reason, the monitoring devices 4a and 4b display the images of the cameras 1a and 1b in synchronization so that the timing for displaying the images of the cameras 1a and 1b is not shifted.
  • the monitor resident in the monitor room monitors the ATM corner by monitoring the images displayed on the monitoring devices 4a and 4b.
  • the image encoding device 2 classifies the macroblocks of the uncompressed image data 31a based on the set segmentation unit, and calls a macroblock group (hereinafter referred to as “MB group”) composed of one or more macroblocks. .) Is generated.
  • the image encoding device 2 partitions the macroblock of the uncompressed image data 31b based on the partition unit, and generates an MB group.
  • the image encoding device 2 determines an encoding order for encoding the MB group of the uncompressed image data 31a and 31b.
  • the image encoding device 2 encodes the macro blocks of the uncompressed image data 31a and 31b for each MB group in accordance with the encoding order.
  • Multiplexed compressed data 33 is generated by arranging the encoded macroblocks for each MB group.
  • the image encoding device 2 can start encoding of the uncompressed image data 31a and 31b when an image corresponding to the MB group is input from the uncompressed image data 31a and 31b. Since the time until the encoding of the uncompressed image data 31a and 31b is started is shortened, the delay until the images of the cameras 1a and 1b are displayed on the monitoring devices 4a and 4b can be shortened.
  • FIG. 2 is a block diagram illustrating a functional configuration of the image encoding device 2.
  • the image encoding device 2 includes an encoding control unit 21, an encoding unit 22, a multiplexing unit 23, and a communication unit 24.
  • the encoding control unit 21 determines the order of encoding the macroblocks of the uncompressed image data 31a and 31b.
  • the encoding control unit 21 includes a group generation unit 211 and an encoding order determination unit 212.
  • the group generation unit 211 classifies the macroblocks of the uncompressed image data 31a and 31b based on the set division unit, and generates an MB group.
  • the encoding order determination unit 212 determines an encoding order for encoding each macroblock of the uncompressed image data 31a and 31b for each MB group. At this time, the encoding order is determined so that the MB group (first MB group) of the uncompressed image data 31a and the MB group (second MB group) of the uncompressed image data 31b are alternately repeated.
  • the encoding unit 22 encodes the uncompressed image data 31a and 31b for each MB group based on the determined encoding order.
  • H.264 is used for encoding the uncompressed image data 31a and 31b.
  • An encoding method such as H.264 or MPEG2 is used.
  • the multiplexing unit 23 generates multiplexed compressed data 33 by arranging the macroblocks of the encoded uncompressed image data 31a and 31b in the encoded order.
  • the communication unit 24 adds an error correction signal to the multiplexed compressed data 33 and performs digital modulation.
  • the communication unit 24 transmits the digitally modulated multiplexed compressed data 33 to the monitoring devices 4a and 4b using wireless communication.
  • FIG. 3 is a diagram illustrating a configuration of macroblocks of uncompressed image data 31a and 31b. As shown in FIG. 3, the uncompressed image data 31a and 31b are composed of 24 macroblocks. It is assumed that the uncompressed image data 31a and 31b have the same frame rate.
  • the uncompressed image data 31a and 31b are composed of 6 macro blocks by 4 macro blocks.
  • the macro blocks of the uncompressed image data 31a are assigned numbers Ma0 to Ma23 from the upper left to the lower right.
  • Macro blocks of the uncompressed image data 31b are assigned numbers Mb0 to Mb23 from the upper left to the lower right.
  • a division unit used to classify the macroblocks of the uncompressed image data 31a and 31b is set.
  • MB groups are generated by dividing the macroblocks of the uncompressed image data 31a and 31b based on the division unit.
  • a frame, a macro block line, or a macro block can be set as a division unit.
  • the macro block line (hereinafter referred to as “MB line”) is composed of a plurality of macro blocks arranged in a line in the horizontal direction of the uncompressed image data 31a and 31b.
  • the partition unit is not limited to a frame, an MB line, and a macroblock.
  • the macro blocks Ma0 to Ma23 of the uncompressed image data 31a are classified as the first MB group.
  • Macroblocks Mb0 to Mb23 of the uncompressed image data 31b are classified as the second MB group.
  • the macro blocks Ma0 to Ma23 are divided into any of the MB lines La1, La2, La3, and La4 as the first MB group.
  • the macro blocks Mb0 to Mb23 are divided into any of MB lines Lb1, Lb2, Lb3, and Lb4 as the second MB group.
  • each of the macro blocks Ma0 to Ma23 is classified as a first MB group.
  • Each of the macro blocks Mb0 to Mb23 is divided as the second MB group.
  • the partition unit may be set so that the MB group is composed of one or more macroblocks. For example, when four macroblocks are set as the division unit, the macroblocks Ma0 to Ma3, Ma4 to Ma7, etc. of the uncompressed image data 31a are classified as the first MB group.
  • encoding order determination unit 212 determines the encoding order of macroblocks.
  • the frames of the uncompressed image data 31a and 31b are input to the image encoding device 2 in a synchronized state.
  • the frames of the uncompressed image data 31a and 31b input in synchronization are encoded for each MB group according to the determined encoding order.
  • FIG. 4 is a diagram showing an encoding order when MB groups are generated in units of frames.
  • the macroblocks Ma0 to Ma23 of the uncompressed image data 31a are classified as the first MB group.
  • the macro blocks Mb0 to Mb23 of the uncompressed image data 31b are classified as the second MB group.
  • the encoding order determination unit 212 first determines the encoding order so as to encode the macroblocks Mb0 to Mb23 (second MB group) after first encoding the macroblocks Ma0 to Ma23 (first MB group). That is, the frame Fa of the uncompressed image data 31a and the frame Fb of the uncompressed image data 31b input in synchronization are encoded alternately.
  • FIG. 5 is a diagram showing an encoding order when MB groups are generated in units of MB lines.
  • the encoding order determination unit 212 determines the encoding order so that the MB lines La1, Lb1, La2, Lb2,..., La4, Lb4 are encoded in this order. That is, the encoding order is determined so that the MB line of the uncompressed image data 31a and the MB line of the uncompressed image data 31b are encoded alternately.
  • FIG. 6 is a diagram showing an encoding order when MB groups are generated in units of macroblocks.
  • the encoding order determination unit 212 determines the encoding order so that the macro blocks Ma0, Mb0, Ma1, Mb1, Ma2, Mb2,..., Mb22, Ma23, and Mb23 are encoded in this order. That is, the encoding order is determined so that the macroblock of the uncompressed image data 31a and the macroblock of the uncompressed image data 31b are encoded alternately.
  • the encoding order determination unit 212 determines the encoding order of the MB groups so that the first MB group and the second MB group are alternately encoded.
  • the encoding control unit 21 outputs the MB group information 51 and the order information 52 to the encoding unit 22.
  • the MB group information 51 is information for specifying the macroblocks constituting the first MB group and the second MB group.
  • the order information 52 is information indicating the encoding order of the first MB group and the second MB group.
  • the encoding unit 22 identifies the MB line La1 to be encoded first based on the order information 52.
  • the encoding unit 22 specifies and encodes the macroblocks Ma0 to Ma5 constituting the MB line La1 based on the MB group information 51.
  • the encoded macro blocks Ma0 to Ma5 are output to the multiplexing unit 23 as encoded data 32a of the uncompressed image data 31a.
  • the encoding unit 22 specifies the MB line Lb1 to be encoded next to the MB line La1 based on the order information 52.
  • the encoding unit 22 specifies and encodes the macroblocks Mb0 to Mb5 constituting the MB line Lb1 based on the MB group information 51.
  • the encoded macro blocks Mb0 to Mb5 are output to the multiplexing unit 23 as encoded data 32b of the uncompressed image data 31b.
  • the macroblocks constituting the MB lines La2, Lb2, Lb3... Are encoded according to the order shown in FIG.
  • the multiplexing unit 23 inputs the MB group information 51.
  • the encoded data 32a corresponding to the MB line La1 is first input to the multiplexing unit 23.
  • the encoded data 32 b corresponding to the MB line Lb 1 is input to the multiplexing unit 23.
  • the multiplexing unit 23 arranges the encoded data 32 a and 32 b in the input order, and generates multiplexed compressed data 33.
  • FIG. 7 is a schematic diagram showing the configuration of the multiplexed compressed data 33.
  • the multiplexed compressed data 33 includes a stream header 34 and stream data Sa1, Sb1, Sa2,.
  • the stream header 34 includes control information used when reproducing the multiplexed compressed data 33.
  • the encoded data 32a is data obtained by encoding the macro blocks Ma0 to Ma5 of the MB line La1.
  • the group header 35 of the stream data Sa1 is generated based on the MB group information 51, and includes identification information of the uncompressed image data 31a and information for specifying the MB line La1.
  • the encoded data 32b is data obtained by encoding the macro blocks Mb0 to Mb5 of the MB line Lb1.
  • the group header 35 includes identification information of the uncompressed image data 31b and information for specifying the MB line Lb1.
  • the multiplexed compressed data 33 is generated by arranging the macroblocks encoded in units of MB groups in the encoding order.
  • the multiplexing unit 23 generates stream data each time the encoded data 32a and 32b are input.
  • the generated stream data is sequentially transmitted to the monitoring devices 4a and 4b as multiplexed compressed data 33.
  • the image encoding device 2 can start encoding of the uncompressed image data 31a and 31b if data corresponding to the MB group is input from the uncompressed image data 31a and 31b. Therefore, it is possible to reduce the delay that occurs with the encoding of the uncompressed image data 31a and 31b.
  • the encoding unit 22 and the multiplexing unit 23 process the encoded data 32a and 32b generated in units of frames or macroblocks. This is the same as the above except for the above points.
  • the monitoring devices 4a and 4b receive the multiplexed compressed data 33.
  • the monitoring devices 4a and 4b perform demultiplexing and decoding of the received multiplexed compressed data 33 to generate decoded data corresponding to the cameras 1a and 1b. Thereby, the images of the cameras 1a and 1b are displayed on the monitoring device 4a.
  • the monitoring device 4a controls the display timing of the decoded data corresponding to the cameras 1a and 1b so that the images of the cameras 1a and 1b are displayed in synchronization.
  • the details of the monitoring device 4a will be described by taking as an example a case where the monitoring device 4a displays the images taken by the cameras 1a and 1b in synchronization. Since the configuration and operation of the monitoring device 4b are the same as those of the monitoring device 4a, detailed description thereof is omitted.
  • FIG. 8 is a block diagram showing a functional configuration of the monitoring device 4a.
  • the monitoring device 4a includes a communication unit 41, a demultiplexing unit 42, a decoding unit 43, a display control unit 44, and a display unit 45.
  • the communication unit 41 receives the multiplexed compressed data 33 using wireless communication.
  • the demultiplexing unit 42 demultiplexes the multiplexed compressed data 33. That is, the demultiplexing unit 42 extracts the encoded data 32 a and 32 b corresponding to the cameras 1 a and 1 b and the group header 35 from the multiplexed compressed data 33.
  • the decoding unit 43 decodes the encoded data 32a and 32b to generate decoded data 36a and 36b.
  • the decoded data 36a corresponds to the decoded image of the macro block that forms the first MB group of the uncompressed image data 31a.
  • the decoded data 36b corresponds to the decoded image of the macro block that forms the second MB group of the uncompressed image data 31b.
  • the display control unit 44 controls the timing for displaying the decoded data 36 a and 36 b on the display unit 45 based on the group header 35 included in the multiplexed compressed data 33.
  • the communication unit 41 continuously receives the multiplexed compressed data 33.
  • the monitoring device 4a receives stream data Sa1, Sb1,... (See FIG. 7)
  • the monitoring device 4a extracts and decodes the encoded data 32a and 32b.
  • the encoded data 32a and 32b are alternately arranged in the order of generation. Therefore, the encoded data 32a and 32b are decoded in the order encoded by the image encoding device 2.
  • the frames of the uncompressed image data 31a and 31b generated by the cameras 1a and 1b are input to the image encoding device 2 in synchronization.
  • the monitoring devices 4a and 4b display the images of the cameras 1a and 1b in real time, it is necessary to display the decoded data 36a and 36b on the display unit 45 in synchronization.
  • the decoding unit 43 since the decoding unit 43 generates the decoded data 36a and 36b by alternately decoding the encoded data 32a and 32b, the timing at which the decoded data 36a can be displayed on the display unit 45 and the decoded data 36b are displayed. The timing that can be displayed on the unit 45 is different. Therefore, the display control unit 44 controls the timing of outputting the decoded data 36a and 36b from the decoding unit 43 so that the decoded data 36a and 36b are displayed on the display unit 45 in synchronization.
  • FIG. 9 is a diagram showing a period in which the encoded data 32a and 32b are decoded for each partition unit that generates the MB group.
  • MB groups in units of frames, units of MB lines, and units of one macroblock are shown in order from the top.
  • a thick solid line indicates a period during which the encoded data 32a and 32b are decoded.
  • some of the macroblock codes are omitted.
  • MB decoding time the time required for decoding the encoded data 32a and 32b. It is assumed that the MB decoding time is shorter than the time necessary for displaying the decoded image of one macroblock on the display unit 45 (MB display time).
  • Decoding of the encoded data 32b corresponding to the frame Fb is started from time T7.
  • the display control unit 44 instructs the decoding unit 43 to output the decoded data 36a and 36b. This is because, since the MB decoding time is shorter than the MB display time, the decoding of the encoded data 32b and the display of the decoded images of the macroblocks Mb1 to Mb23 are performed in parallel after the decoding of the macroblock Mb0 is completed. This is because it becomes possible to do this.
  • the synchronous display of the images of the cameras 1a and 1b starts from time T8.
  • the delay time generated when the multiplexed compressed data 33 is decoded is T8-T0 (milliseconds).
  • the MB lines La1 to La4 of the uncompressed image data 31a and the MB lines Lb1 to Lb4 of the uncompressed image data 31b are encoded in the order of the MB lines La1, Lb1, La2, Lb2,. (See FIG. 5). For this reason, the encoded data 32a corresponding to the MB line La1 is first decoded. Next, the encoded data 32b corresponding to the MB line Lb1 is decoded.
  • the encoded data 32a corresponding to the MB line La1 is decoded during the period from time T0 to T3. Since the MB lines La1 and Lb1 are displayed synchronously, the display control unit 44 does not instruct the decoding unit 43 to output the decoded data 36a corresponding to the MB line La1 at time T3.
  • Decoding of the encoded data 32b corresponding to the MB line Lb1 is started from time T3.
  • the display control unit 44 outputs the output of the decoded data 36a and 36b corresponding to the MB lines La1 and Lb1 to the decoding unit 43. Instruct.
  • the reason for this is the same as the reason for starting the display of the frames Fa and Fb at time T8.
  • Synchronous display of the images of the cameras 1a and 1b is started at time T4. Thereafter, synchronous display of other MB lines is executed in the same manner.
  • the delay time generated along with the decoding of the multiplexed compressed data 33 is T4-T0 (milliseconds).
  • the macroblocks Ma0, Ma1,... Of the uncompressed image data 31a and the macroblocks Mb0, Mb1,... Of the uncompressed image data 31b are encoded alternately (see FIG. 6). .
  • the encoded data 32a corresponding to the macroblock Ma0 is first decoded.
  • the encoded data 32b corresponding to the macroblock Mb0 is decoded.
  • the encoded data 32a corresponding to the macroblock Ma1 is decoded during the period of time T0 to T1. Since the macroblocks Ma0 and Mb0 are displayed synchronously, the display control unit 44 does not instruct the encoding unit 43 to output the decoded data 36a (macroblock Ma0) at the time T1.
  • Decoding of the encoded data 32b corresponding to the macroblock Mb0 starts from time T1.
  • the display control unit 44 instructs the decoding unit 43 to output the decoded data 36a and 36b corresponding to the macroblocks Ma0 and Mb0 at time T2 when the decoding of the macroblock Mb0 ends. Therefore, the synchronous display of the images of the cameras 1a and 1b is started at time T2. Thereafter, synchronous display of other macroblocks is executed in the same manner.
  • the delay time that accompanies the decoding of the multiplexed compressed data 33 is T2-T0 (milliseconds).
  • the time until the synchronous display starts becomes shorter. That is, by making the division unit fine, the delay time until the images of the cameras 1a and 1b are displayed on the display unit 45 can be shortened.
  • the division unit is set finely, the number of times of extracting the encoded data 32a and 32b from the multiplexed compressed data 33 increases.
  • the division unit is set finely, the overhead increases due to the demultiplexing process or the like, so the load on the monitoring device 4a increases.
  • the image encoding device 2 sets the division unit according to the characteristics of the uncompressed image data 31a and 31b.
  • the group generation unit 211 may detect the magnitude of motion of the uncompressed image data 31a and 31b, and change the division unit based on the detected magnitude of motion. If the uncompressed image data 31a and 31b are images with a large motion, the image encoding device 2 sets a macroblock as a unit of division with emphasis on real-time characteristics. If the uncompressed image data 31a and 31b are images with little movement, a frame is set as a segment unit in order to reduce the load on the monitoring device 4a.
  • an MB line may be set as a division unit.
  • the cameras 1a and 1b may output information specifying the division unit to the image encoding device 2 together with the uncompressed image data 31a and 31b.
  • the example in which the monitoring device 4a displays the images of both the cameras 1a and 1b has been described.
  • the monitoring devices 4a and 4b can display the images of the cameras 1a and 1b synchronously.
  • the monitoring device 4a starts displaying the MB line La1 from time T4.
  • the monitoring device 4b starts displaying the MB line Lb1 from time T4.
  • the monitoring devices 4a and 4b can decode the encoded data 32a and 32b to control the display timing of the decoded data. Therefore, it is not necessary to perform communication or the like between the monitoring devices 4a and 4b for synchronous display.
  • the monitoring device 4a may only decode the encoded data 32a corresponding to the camera 1a.
  • the monitoring device 4a may display the decoded data on the display unit 45 after the time when the decoding of the encoded data 32a ends and the time when the decoding of one macroblock ends.
  • FIG. 10 is a diagram showing a configuration of macroblocks of uncompressed image data 31a and 31b according to the present embodiment.
  • the configuration of the macroblock of the uncompressed image data 31a is the same as that in FIG.
  • the uncompressed image data 31b is composed of twelve macroblocks Mb0 to Mb12 of 4 horizontal x 3 vertical. That is, the number of macroblocks of the uncompressed image data 31a is twice (integer multiple) the number of macroblocks of the uncompressed image data 31b.
  • the MB group When an MB group is generated in units of MB lines, the MB group is generated according to the MB line of the uncompressed image data 31b having a small image size.
  • the number of macroblocks is four.
  • the solid line indicates a state in which the macro blocks of the uncompressed image data 31a and 31b are divided in units of MB lines. It can be seen that the MB group (first MB group) of the uncompressed image data 31a and the MB group (second MB group) of the uncompressed image data 31b are composed of four macroblocks.
  • the encoding order is determined so that the frames Fa and Fb are encoded alternately as in the above embodiment.
  • the encoding order determination unit 212 determines the encoding order based on the ratio of the number of macro blocks in the uncompressed image data 31a and 31b.
  • the encoding order will be described by taking as an example a case where MB groups are generated in units of macroblocks.
  • FIG. 11 is a diagram showing an encoding order when the MB groups of the uncompressed image data 31a and 31b shown in FIG. 10 are generated in units of macroblocks.
  • the encoding order determination unit 212 determines the encoding order such that the macro blocks Ma0, Ma1, Mb0, Ma2, Ma3, Mb1,. That is, after the two first MB groups are encoded, one second MB group is encoded.
  • the ratio of macroblocks between uncompressed image data 31a and uncompressed image data 31b is 2: 1 (see FIG. 10). For this reason, the encoding order determination unit 212 determines the encoding order so that the first MB group and the second MB group are encoded at a ratio of 2: 1. However, it is a condition that the second MB group of the uncompressed image data 31b having a small number of macroblocks is not continuously encoded.
  • the encoded data 32a corresponding to the macroblocks Ma0 and Ma1 is first decoded.
  • the encoded data 32b corresponding to the macroblock Mb0 is decoded.
  • the decoded macro blocks Ma0, Ma1, Mb0 are displayed on the display unit 45.
  • the ratio of macroblocks is not an integer multiple ⁇
  • the number of macroblocks of the uncompressed image data 31a may not be an integral multiple of the number of macroblocks of the uncompressed image data 31b.
  • FIG. 12 is a diagram showing the configuration of the macroblocks of the uncompressed image data 31a and 31b.
  • the configuration of the macroblock of the uncompressed image data 31a is the same as that shown in FIG.
  • the uncompressed image data 31b is composed of 15 macroblocks Mb0 to Mb14 having 5 horizontal rows and 3 vertical columns.
  • the number of macroblocks in the uncompressed image data 31a is not an integral multiple of the number of macroblocks in the uncompressed image data 31b.
  • FIG. 13 is a diagram showing an encoding order when the MB group of the uncompressed image data 31a and 31b shown in FIG. 12 is generated in units of macroblocks.
  • the encoding order is macroblocks Ma0, Ma1, Mb0, Ma2, Mb1, Ma3,. That is, the encoding order is determined so that MB groups of uncompressed image data 31b with a small number of macroblocks are not continuously encoded.
  • FIG. 14 is a diagram illustrating the timing at which the frames of the uncompressed image data 31a and 31b are input to the image encoding device 2.
  • the frame rate of the uncompressed image data 31a is 60 fps
  • the frame rate of the uncompressed image data 31b is 30 fps.
  • the frame Fa of the uncompressed image data 31a and the frame Fb of the uncompressed image data 31b are input to the image encoding device 2 in synchronization. Only the frame Fa is input to the image encoding device 2 at time 0.5Tf, 1.5Tf, and 2.5Tf.
  • the frame Fa synchronized with the frame Fb is referred to as a frame Fa0.
  • a frame Fa that is not synchronized with the frame Fb is referred to as a frame Fa1.
  • FIG. 15 is a diagram illustrating an example of an encoding order when the frame rates of the uncompressed image data 31a and 31b are different.
  • FIG. 15 shows an encoding order when MB groups are generated in units of MB lines.
  • the encoding order determination unit 212 determines the encoding order of MB lines so that the frames Fa0 and Fb input in synchronization are alternately encoded for each MB line. Specifically, the MB line La1 corresponding to the frame Fa0 is first encoded. Next, the MB line Lb1 corresponding to the frame Fb is encoded. Hereinafter, the MB lines of the frames Fa0 and Fb are encoded alternately.
  • the MB lines La1 to La4 of the frame Fa1 are encoded.
  • the frames Fa0 and Fb input to the image encoding device 2 in synchronization can be displayed in synchronization on the monitoring devices 4a and 4b.
  • the image transmission system 100 uses a monitor management device 6 instead of the monitoring devices 4a and 4b.
  • FIG. 16 is a block diagram showing a functional configuration of the monitor management device 6.
  • the monitor management device 6 and the monitors 61a and 61b are installed in a monitor room for remotely monitoring the ATM corner where the cameras 1a and 1b are installed.
  • the monitor management device 6 and the monitors 61a and 61b are connected by a video transmission cable.
  • the monitor management device 6 includes a communication unit 41, a demultiplexing unit 42, a decoding unit 43, and an output control unit 62.
  • the monitor management device 6 receives the multiplexed compressed data 33 and performs demultiplexing and decoding of the multiplexed compressed data 31. Demultiplexing and decoding of the multiplexed compressed data 33 are performed in the same manner as in the above embodiment.
  • the output control unit 62 outputs the decoded data 36a corresponding to the camera 1a to the monitor 61a, and outputs the decoded data 36b corresponding to the camera 1b to the monitor 61b.
  • the output control unit 42 controls the timing of outputting the decoded data 36a and 36b so that the images displayed on the cameras 1a and 1b are synchronized. In this way, by using the monitor management device 6, the images of the cameras 1a and 1b can be displayed in synchronization with a plurality of monitors.
  • the number of uncompressed image data input to the image encoding device 2 may be three or more.
  • an MB group is generated for each input uncompressed image data.
  • the image encoding device determines the encoding order so that the MB groups of the respective uncompressed image data are encoded in order.
  • uncompressed image data 31a and 31b with synchronized frames is input from the cameras 1a and 1b to the image encoding device 2 .
  • the image encoding device 2 may generate uncompressed image data 31a and 31b in which frames are synchronized inside the device itself.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 画像符号化装置(2)には、カメラ(1a,1b)が生成した非圧縮画像データ(31a,31b)が同期して入力される。画像符号化装置(2)は、非圧縮画像データ(31a)のマクロブロックを区分単位に基づいてMBグループに区分する。同様に、非圧縮画像データ(31b)のマクロブロックが区分単位に基づいてMBグループに区分される。非圧縮画像データ(31a,31b)のMBグループが交互に繰り返されるように、非圧縮画像データ(31a,31b)のマクロブロックの符号化順序が決定される。画像符号化装置(2)は、非圧縮画像データ(31a,31b)のマクロブロックを、符号化順序に基づいてMBグループごとに符号化する。符号化マクロブロックが符号化された順に配列されることにより、多重化圧縮データ(33)が生成される。

Description

画像符号化装置及び画像伝送システム
 本発明は、複数の画像データを符号化して一つの圧縮画像データを出力する画像符号化装置、及びこの画像符号化装置を用いた画像伝送システムに関する。
 金融機関の店舗に設けられるATM(automated teller machine)コーナーなどを監視する際に、複数のカメラが設置されることがある。複数のカメラを用いて異なる角度から監視することにより、死角の発生を防ぐことができる。
 各カメラが生成した映像信号は、伝送路の帯域などが制限されているため、符号化された上で伝送される。各カメラの映像を同時に表示させて監視する必要があるため、各カメラに対応する複数の映像信号を多重化して伝送する必要がある。
 下記特許文献1には、各カメラから入力される複数のフレーム映像を1系統の圧縮データに変換する映像信号符号化装置が開示されている。
 特許文献1に係る映像信号符号化装置は、各カメラから入力されるフレーム映像から符号化しないフレーム映像を削除し、符号化対象のフレーム映像を抽出する。抽出されたフレーム映像は、カメラごとに配列される。配列されたフレーム映像は、GOP(Group of Pictures)単位で符号化される。これにより、各カメラから入力される複数のフレーム映像が、1系統の圧縮データに変換される。
特開2005-184419号公報
 上記特許文献1では、各カメラの映像を記録媒体に長時間記録することを目的としており、各カメラの映像をリアルタイムに伝送することを想定していない。
 上述したように、上記特許文献1に係る映像信号符号化装置は、符号化対象のフレーム映像を抽出する。映像信号符号化装置は、GOPを生成できる数の符号化対象のフレーム映像を抽出するまで、圧縮データを生成することができない。この結果、フレーム映像が映像信号符号化装置に入力されてから圧縮データとして出力されるまでの時間(遅延)が長くなるため、各カメラの映像をリアルタイムに伝送することが困難である。
 本発明の画像符号化装置は、第1画像データと第画像データとを圧縮する。画像符号化装置は、設定された区分単位に基づいて、第1画像データの第1マクロブロックを区分して第1符号化グループを生成し、第2画像データの第2マクロブロックを区分して第2符号化グループを生成するグループ生成部と、第1符号化グループと第2符号化グループとが交互に繰り返されるように、第1マクロブロック及び第2マクロブロックを符号化する符号化順序を決定する符号化順序決定部と、符号化順序に基づいて、第1符号化グループごとに第1マクロブロックを符号化し、第2符号化グループごとに第2マクロブロックを符号化する符号化部と、符号化された第1マクロブロック及び第2マクロブロックを、符号化された順に配列して多重化圧縮データを生成する多重化部と、を備える。
 第1画像データのうち第1符号化グループに対応するデータと、第2画像データのうち第2符号化グループに対応するデータとが入力されていれば、第1画像データ及び第2画像データの符号化を開始できる。したがって、第1画像データ及び第2画像データの符号化に伴う遅延を短くすることができる。
 本発明の画像伝送システムは、第1画像データと第2画像データとを圧縮する画像符号化装置と、画像復号化装置と、を備える。画像符号化装置は、設定された区分単位に基づいて、第1画像データの第1マクロブロックを区分して第1符号化グループを生成し、第2画像データの第2マクロブロックを区分して第2符号化グループを生成するグループ生成部と、第1符号化グループと第2符号化グループとが交互に繰り返されるように、第1マクロブロック及び第2マクロブロックを符号化する符号化順序を決定する符号化順序決定部と、符号化順序に基づいて、第1符号化グループごとに第1マクロブロックを符号化し、第2符号化グループごとに第2マクロブロックを符号化する符号化部と、符号化された第1マクロブロック及び第2マクロブロックを、符号化された順に配列して多重化圧縮データを生成する多重化部と、多重化圧縮データを画像復号化装置に送信する送信部と、を備える。画像復号化装置は、多重化圧縮データを受信する受信部と、符号化された第1マクロブロックを、受信した多重化圧縮データの先頭から順に抽出する逆多重化部と、符号化された第1マクロブロックを抽出された順に復号化する復号化部と、第1マクロブロックの復号化画像データと、第2マクロブロックの復号化画像データとを表示可能となったタイミングに、第1マクロブロックの復号化画像データを第1表示装置に出力する出力制御部と、を備える。
 本発明に係る画像伝送システムにおいて、画像復号化装置は、第1符号化グループの符号化された第1マクロブロックを全て受信することなく復号化を開始するため、復号化に伴う遅延を短縮することができる。画像復号化装置は、第1マクロブロック及び第2マクロブロックの両方の復号化画像データを表示可能となったときに、第1マクロブロックの復号画像データを表示装置に出力する。これにより、第1画像データ及び第2画像データを同期表示することが可能となる。
 それゆえにこの発明の目的は、上記問題点に鑑み、複数の画像データから圧縮データを生成する際に生じる遅延を小さくすることができる技術を提供することである。
 この発明の目的、特徴、局面、および利点は、以下の詳細な説明と添付図面によって明白となる。
本発明の第1の実施の形態に係る画像伝送システムの構成を示す図である。 図1に示す画像符号化装置の機能的構成を示すブロック図である。 画像符号化装置に入力される非圧縮画像データのマクロブロックの構成を示す図である。 マクロブロックグループの符号化順序を示す図である。 マクロブロックグループの符号化順序を示す図である。 マクロブロックグループの符号化順序を示す図である。 多重化圧縮データの構成を模式的に示す図である。 監視装置の機能的構成を示すブロック図である。 符号化データの復号化に要する時間をマクロブロックの区分単位ごとに示す図である。 本発明の第2の実施の形態に係る非圧縮画像データのマクロブロックの構成を示す図である。 マクロブロックグループの符号化順序を示す図である。 本発明の第2の実施の形態における非圧縮画像データのマクロブロックの構成の変形例を示す図である。 マクロブロックグループの符号化順序を示す図である。 本発明の第3の実施の形態において非圧縮画像データが画像符号化装置に入力されるタイミングを示す図である。 マクロブロックグループの符号化順序を示す図である。 本発明の第4の実施の形態に係るモニタ管理装置の機能的構成を示すブロック図である。
 以下、図面を参照しつつ本発明の実施の形態について説明する。
[第1の実施の形態]
{1.画像伝送システムの全体構成}
 図1は、本発明の実施の形態に係る画像伝送システムの構成を示す図である。図1に示す画像伝送システム100は、カメラ1a,1bと、画像符号化装置2と、監視装置4a,4bとを備える。画像伝送システム100は、金融機関の店舗に設けられたATMコーナーをリアルタイムに監視するシステムである。
 カメラ1a,1bは、ATMコーナーを異なる角度から撮影できるように取り付けられる。カメラ1a,1bは、ATMコーナーの様子を撮影して、非圧縮画像データ31a,31bを生成する。画像符号化装置2は、カメラ1a,1bとともに、ATMコーナーに設置される。画像符号化装置2には、非圧縮画像データ31a,31bのフレームが同期して入力される。画像符号化装置2は、非圧縮画像データ31a,31bの符号化及び多重化を行って、多重化圧縮データ33を生成する。多重化圧縮データ33は、無線通信網などを介して、ATMコーナーを監視するモニタ室へ送信される。
 監視装置4a,4bは、モニタ室に設置され、多重化圧縮データ33を受信する。監視装置4a,4bは、多重化圧縮データ33に対して逆多重化及び復号化処理を行って、カメラ1a,1bに対応する映像を表示する。カメラ1a,1bは、同じ場所(ATMコーナー)を異なる角度から撮影している。このため、カメラ1a,1bの映像を表示するタイミングがずれないように、監視装置4a,4bは、カメラ1a,1bの映像を同期して表示させる。モニタ室に常駐する監視員は、監視装置4a,4bに表示される映像をモニタして、ATMコーナーを監視する。
 本実施の形態では、カメラ1a,1bの両者の映像を監視装置4aのモニタに表示させる例を中心に説明する。カメラ1aの映像を監視装置4aに表示させ、カメラ1bの映像を監視装置4bに表示させる例については、後述する。
 画像符号化装置2は、非圧縮画像データ31aのマクロブロックを設定された区分単位に基づいて区分して、一つ以上のマクロブロックで構成されるマクロブロックグループ(以下、「MBグループ」と呼ぶ。)を生成する。画像符号化装置2は、区分単位に基づいて非圧縮画像データ31bのマクロブロックを区分して、MBグループを生成する。画像符号化装置2は、非圧縮画像データ31a,31bのMBグループを符号化する符号化順序を決定する。画像符号化装置2は、符号化順序に従って、非圧縮画像データ31a,31bのマクロブロックをMBグループごとに符号化する。符号化されたマクロブロックがMBグループごとに配列されることにより、多重化圧縮データ33が生成される。
 画像符号化装置2は、非圧縮画像データ31a,31bのうち、MBグループに対応する画像が入力されれば、非圧縮画像データ31a,31bの符号化を開始することができる。非圧縮画像データ31a,31bの符号化が開始されるまでの時間が短縮されるため、監視装置4a、4bにカメラ1a,1bの映像が表示されるまでの遅延を短縮することができる。
{2.画像符号化装置2の詳細}
 以下、画像符号化装置2の構成及び動作について詳しく説明する。
{2.1.画像符号化装置2の構成}
 図2は、画像符号化装置2の機能的構成を示すブロック図である。図2に示すように、画像符号化装置2は、符号化制御部21と、符号化部22と、多重化部23と、通信部24とを備える。
 符号化制御部21は、非圧縮画像データ31a,31bのマクロブロックを符号化する順序を決定する。符号化制御部21は、グループ生成部211と、符号化順序決定部212とを備える。
 グループ生成部211は、非圧縮画像データ31a,31bのマクロブロックを、設定された区分単位に基づいて区分して、MBグループを生成する。
 符号化順序決定部212は、非圧縮画像データ31a,31bの各マクロブロックを符号化する符号化順序を、MBグループごとに決定する。このとき、非圧縮画像データ31aのMBグループ(第1MBグループ)と、非圧縮画像データ31bのMBグループ(第2MBグループ)とが、交互に繰り返されるように符号化順序が決定される。
 符号化部22は、非圧縮画像データ31a,31bを、決定された符号化順序に基づいてMBグループごとに符号化する。非圧縮画像データ31a,31bの符号化には、例えば、H.264あるいはMPEG2などの符号化方式が用いられる。
 多重化部23は、符号化された非圧縮画像データ31a,31bのマクロブロックを符号化された順に配列することにより、多重化圧縮データ33を生成する。
 通信部24は、多重化圧縮データ33に対して誤り訂正信号の付加、及びデジタル変調などを行う。通信部24は、デジタル変調された多重化圧縮データ33を、無線通信を利用して監視装置4a,4bに送信する。
{2.2.グループ生成部211の処理}
 グループ生成部211の処理について説明する。図3は、非圧縮画像データ31a,31bのマクロブロックの構成を示す図である。図3に示すように、非圧縮画像データ31a,31bが、24個のマクロブロックで構成されている。非圧縮画像データ31a,31bのフレームレートは、同一であるとする。
 非圧縮画像データ31a,31bは、横6個×縦4個のマクロブロックで構成されている。非圧縮画像データ31aのマクロブロックには、左上から右下に向かってMa0~Ma23の番号が付与されている。非圧縮画像データ31bのマクロブロックには、左上から右下に向かってMb0~Mb23の番号が付与されている。
 グループ生成部211には、非圧縮画像データ31a,31bのマクロブロックの区分に用いられる区分単位が設定されている。非圧縮画像データ31a,31bのマクロブロックが区分単位に基づいて区分されることにより、MBグループが生成される。
 区分単位として、フレーム、マクロブロックライン、及びマクロブロックのいずれかを設定することができる。マクロブロックライン(以下、「MBライン」と呼ぶ。)は、非圧縮画像データ31a,31bの横方向に一列に並ぶ複数のマクロブロックにより構成される。後述するように、区分単位は、フレーム、MBライン、及びマクロブロックに限定されない。
 区分単位としてフレームが設定されていた場合、非圧縮画像データ31aのマクロブロックMa0~Ma23が、第1MBグループとして区分される。非圧縮画像データ31bのマクロブロックMb0~Mb23が、第2MBグループとして区分される。
 区分単位としてMBラインが設定されていた場合、マクロブロックMa0~Ma23は、第1MBグループとしてMBラインLa1,La2,La3,La4のいずれかに区分される。マクロブロックMb0~Mb23は、第2MBグループとしてMBラインLb1,Lb2,Lb3,Lb4のいずれかに区分される。
 区分単位としてマクロブロックが設定されていた場合、マクロブロックMa0~Ma23のそれぞれが第1MBグループとして区分される。マクロブロックMb0~Mb23のそれぞれが第2MBグループとして区分される。
 区分単位は、一つ以上のマクロブロックによりMBグループが構成されるように設定されていればよい。たとえば、区分単位として4個のマクロブロックが設定されている場合、非圧縮画像データ31aのマクロブロックMa0~Ma3,Ma4~Ma7などが、第1MBグループとして区分される。
{2.3.符号化順序決定部212の処理}
 符号化順序決定部212の処理について説明する。上述したように、符号化順序決定部212は、マクロブロックの符号化順序を決定する。
 非圧縮画像データ31a,31bのフレームは、同期がとれた状態で画像符号化装置2に入力される。同期して入力された非圧縮画像データ31a,31bのフレームが、決定された符号化順序に従ってMBグループごとに符号化される。
 以下、第1MBグループ及び第2MBグループが、フレーム単位、MBライン単位及びマクロブロック単位で生成された場合における、MBグループの符号化順序について説明する。
 図4は、フレーム単位でMBグループが生成された場合における符号化順序を示す図である。この場合、非圧縮画像データ31aのマクロブロックMa0~Ma23が第1MBグループとして区分される。非圧縮画像データ31bのマクロブロックMb0~Mb23が第2MBグループとして区分される。
 符号化順序決定部212は、マクロブロックMa0~Ma23(第1MBグループ)を最初に符号化した後に、マクロブロックMb0~Mb23(第2MBグループ)を符号化するように符号化順序を決定する。つまり、同期して入力された非圧縮画像データ31aのフレームFaと、非圧縮画像データ31bのフレームFbとが交互に符号化される。
 図5は、MBライン単位でMBグループが生成された場合における符号化順序を示す図である。この場合、符号化順序決定部212は、MBラインLa1,Lb1,La2,Lb2,・・・,La4,Lb4の順に符号化されるように、符号化順序を決定する。つまり、非圧縮画像データ31aのMBラインと非圧縮画像データ31bのMBラインとが交互に符号化されるように、符号化順序が決定される。
 図6は、マクロブロック単位でMBグループが生成された場合における符号化順序を示す図である。この場合、符号化順序決定部212は、マクロブロックMa0,Mb0,Ma1,Mb1,Ma2,Mb2,・・・,Mb22,Ma23,Mb23の順に符号化されるように、符号化順序を決定する。つまり、非圧縮画像データ31aのマクロブロックと非圧縮画像データ31bのマクロブロックとが交互に符号化されるように、符号化順序が決定される。
 このように、符号化順序決定部212は、第1MBグループ及び第2MBグループが交互に符号化されるように、MBグループの符号化順序を決定する。
{2.4.符号化部22及び多重化部23の処理}
 符号化部22及び多重化部23の処理について詳しく説明する。以下、MBライン単位でMBグループが生成された場合を例にして、図5を参照しながら説明する。
 符号化制御部21は、MBグループ情報51及び順序情報52を符号化部22に出力する。MBグループ情報51は、第1MBグループ及び第2MBグループを構成するマクロブロックを特定する情報である。順序情報52は、第1MBグループ及び第2MBグループの符号化順序を示す情報である。
 符号化部22は、順序情報52に基づいて、最初に符号化するMBラインLa1を特定する。符号化部22は、MBラインLa1を構成するマクロブロックMa0~Ma5をMBグループ情報51に基づいて特定して符号化する。符号化されたマクロブロックMa0~Ma5は、非圧縮画像データ31aの符号化データ32aとして多重化部23へ出力される。
 符号化部22は、順序情報52に基づいて、MBラインLa1の次に符号化するMBラインLb1を特定する。符号化部22は、MBラインLb1を構成するマクロブロックMb0~Mb5をMBグループ情報51に基づいて特定して符号化する。符号化されたマクロブロックMb0~Mb5は、非圧縮画像データ31bの符号化データ32bとして多重化部23へ出力される。以下、図5に示す順序に従って、MBラインLa2,Lb2,Lb3・・・を構成するマクロブロックが符号化される。
 多重化部23は、MBグループ情報51を入力する。MBラインLa1に対応する符号化データ32aが、多重化部23に最初に入力される。次に、MBラインLb1に対応する符号化データ32bが、多重化部23に入力される。多重化部23は、入力された順に符号化データ32a,32bを配列して、多重化圧縮データ33を生成する。
 図7は、多重化圧縮データ33の構成を示す模式図である。多重化圧縮データ33は、ストリームヘッダ34と、ストリームデータSa1,Sb1,Sa2,・・・とを備える。ストリームヘッダ34は、多重化圧縮データ33の再生時に使用する制御情報などを含む。
 ストリームデータSa1,Sb1,Sa2,・・・は、MBラインLa1,Lb1,La2,・・・に対応する。ストリームデータSa1において、符号化データ32aは、MBラインLa1のマクロブロックMa0~Ma5が符号化されたデータである。ストリームデータSa1のグループヘッダ35は、MBグループ情報51に基づいて生成され、非圧縮画像データ31aの識別情報と、MBラインLa1を特定する情報とを含む。
 ストリームデータSb1において、符号化データ32bは、MBラインLb1のマクロブロックMb0~Mb5が符号化されたデータである。グループヘッダ35は、非圧縮画像データ31bの識別情報と、MBラインLb1を特定する情報とを含む。
 このように、MBグループ単位で符号化されたマクロブロックが符号化順に配列されることにより、多重化圧縮データ33が生成される。多重化部23は、符号化データ32a,32bが入力されるたびにストリームデータを生成する。生成されたストリームデータは、多重化圧縮データ33として監視装置4a,4bへ順次送信される。画像符号化装置2は、非圧縮画像データ31a,31bのうちMBグループに対応するデータが入力されていれば、非圧縮画像データ31a,31bの符号化を開始することができる。したがって、非圧縮画像データ31a,31bの符号化に伴って発生する遅延を短縮することができる。
 MBグループがフレーム単位で構成された場合、及びマクロブロック単位で構成された場合における符号化部22及び多重化部23の処理は、符号化データ32a,32bがフレーム単位またはマクロブロック単位で生成される点を除いて上記と同様である。
{3.監視装置4aの詳細}
 監視装置4a,4bは、多重化圧縮データ33を受信する。監視装置4a,4bは、受信した多重化圧縮データ33の逆多重化及び復号化を行って、カメラ1a,1bに対応する復号化データを生成する。これにより、カメラ1a,1bの映像が、監視装置4aに表示される。監視装置4aは、カメラ1a,1bの映像が同期して表示されるように、カメラ1a,1bに対応する復号化データの表示タイミングを制御する。
 上述したように、監視装置4aがカメラ1a,1bが撮影した映像を同期して表示するケースを例として、監視装置4aの詳細を説明する。監視装置4bの構成及び動作は、監視装置4aと同様であるため、その詳細な説明を省略する。
{3.1.監視装置4aの構成}
 図8は、監視装置4aの機能的構成を示すブロック図である。監視装置4aは、通信部41と、逆多重化部42と、復号化部43と、表示制御部44と、表示部45とを備える。
 通信部41は、無線通信を利用して、多重化圧縮データ33を受信する。逆多重化部42は、多重化圧縮データ33を逆多重化する。すなわち、逆多重化部42は、多重化圧縮データ33から、カメラ1a,1bに対応する符号化データ32a,32bと、グループヘッダ35とを抽出する。
 復号化部43は、符号化データ32a,32bを復号化して復号化データ36a,36bを生成する。復号化データ36aは、非圧縮画像データ31aの第1MBグループを構成するマクロブロックの復号画像に対応する。復号化データ36bは、非圧縮画像データ31bの第2MBグループを構成するマクロブロックの復号画像に対応する。
 表示制御部44は、多重化圧縮データ33に含まれるグループヘッダ35に基づいて、復号化データ36a、36bを表示部45に表示するタイミングを制御する。
{3.2.表示タイミングの制御}
 監視装置4aにおいて、復号化部43の数は一つであるため、符号化データ32a,32bは、同時に復号化されない。復号化部43は、符号化データ32a、32bを交互に符号化する。
 具体的には、通信部41は、多重化圧縮データ33を継続的に受信している。監視装置4aは、ストリームデータSa1,Sb1,・・・(図7参照)を受信するたびに、符号化データ32a,32bを抽出して復号化する。図7に示すように、多重化圧縮データ33において、符号化データ32a,32bは、生成された順に交互に配列されている。したがって、符号化データ32a,32bは、画像符号化装置2により符号化された順に復号化される。
 上述したように、カメラ1a,1bが生成した非圧縮画像データ31a,31bのフレームは、同期して画像符号化装置2に入力される。監視装置4a,4bでカメラ1a,1bの映像をリアルタイムに表示する場合、復号化データ36a,36bを同期して表示部45に表示する必要がある。
 しかし、復号化部43が符号化データ32a,32bを交互に復号化して復号化データ36a,36bを生成するため、復号化データ36aを表示部45に表示できるタイミングと、復号化データ36bを表示部45に表示できるタイミングとが異なる。このため、表示制御部44は、復号化データ36a,36bが同期して表示部45に表示されるように、復号化データ36a,36bを復号化部43から出力するタイミングを制御する。
 以下、復号化データ36a,36bの表示タイミングを、図9を用いて、MBグループの区分単位ごとに詳しく説明する。
 図9は、符号化データ32a,32bが復号化される期間を、MBグループを生成した区分単位ごとに示した図である。図9において、上から順に、フレーム単位、MBライン単位、及び一つのマクロブロック単位のMBグループを示している。太い実線は、符号化データ32a,32bが復号化される期間を示す。図9において、マクロブロックの符号の表示を一部省略している。
 符号化データ32a,32bの復号化に要する時間(MB復号化時間)は、全てのマクロブロックで同じであると仮定する。MB復号化時間は、1マクロブロックの復号画像を表示部45に表示するために必要な時間(MB表示時間)よりも短いと仮定する。
(フレーム単位でMBグループが生成された場合)
 フレーム単位でMBグループが生成された場合、非圧縮画像データ31aのフレームFa、非圧縮画像データ31bのフレームFbの順に符号化される(図4参照)。このため、フレームFaに対応する符号化データ32aは、時刻T0~T7の期間に最初に復号化される。符号化データ32aの復号化が終了した時刻T7の時点で、表示制御部44は、フレームFaに対応する復号化データ36aの出力を復号化部43に指示しない。これは、フレームFa,Fbを同期して監視装置4aの表示部45に表示させるためである。
 フレームFbに対応する符号化データ32bの復号化は、時刻T7から開始される。フレームFbの先頭マクロブロック(マクロブロックMb0)の復号化が終了する時刻T8において、表示制御部44は、復号化データ36a,36bの出力を復号化部43に指示する。この理由は、MB復号化時間がMB表示時間よりも短いため、マクロブロックMb0の復号化が終了した後に、符号化データ32bの復号化と、マクロブロックMb1~Mb23の復号画像の表示とを並行して行うことが可能となるためである。
 したがって、カメラ1a,1bの映像の同期表示は、時刻T8から開始される。フレーム単位でMBグループが生成された場合、多重化圧縮データ33の復号化に伴って発生する遅延時間は、T8-T0(ミリ秒)となる。
(MBライン単位でMBグループが生成された場合)
 上述したように、非圧縮画像データ31aのMBラインLa1~La4と、非圧縮画像データ31bのMBラインLb1~Lb4は、MBラインLa1,Lb1,La2,Lb2,・・・の順に符号化される(図5参照)。このため、MBラインLa1に対応する符号化データ32aが最初に復号化される。次に、MBラインLb1に対応する符号化データ32bが復号化される。
 図9に示すように、MBラインLa1に対応する符号化データ32aは、時刻T0~T3の期間に復号化される。MBラインLa1,Lb1を同期表示するため、表示制御部44は、時刻T3の時点で、MBラインLa1に対応する復号化データ36aの出力を復号化部43に指示しない。
 MBラインLb1に対応する符号化データ32bの復号化は、時刻T3から開始される。MBラインLb1の先頭マクロブロック(マクロブロックMb0)の復号化が終了する時刻T4に、表示制御部44は、MBラインLa1,Lb1に対応する復号化データ36a,36bの出力を復号化部43に指示する。この理由は、時刻T8にフレームFa,Fbの表示を開始する理由と同じである。カメラ1a,1bの映像の同期表示は、時刻T4に開始される。以下、他のMBラインの同期表示が、同様に実行される。MBライン単位でMBグループが生成された場合、多重化圧縮データ33の復号化に伴って発生する遅延時間は、T4-T0(ミリ秒)となる。
(マクロブロック単位でMBグループが構成された場合)
 上述したように、非圧縮画像データ31aのマクロブロックMa0,Ma1,・・・と、非圧縮画像データ31bのマクロブロックMb0,Mb1,・・・とが交互に符号化される(図6参照)。このため、マクロブロックMa0に対応する符号化データ32aが最初に復号化される。次に、マクロブロックMb0に対応する符号化データ32bが復号化される。
 図9に示すように、マクロブロックMa1に対応する符号化データ32aは、時刻T0~T1の期間に復号化される。マクロブロックMa0,Mb0を同期表示するため、表示制御部44は、時刻T1の時点で、復号化データ36a(マクロブロックMa0)の出力を符号化部43に指示しない。
 マクロブロックMb0に対応する符号化データ32bの復号化は、時刻T1から開始される。表示制御部44は、マクロブロックMb0の復号化が終了する時刻T2に、マクロブロックMa0,Mb0に対応する復号化データ36a,36bの出力を復号化部43に指示する。したがって、カメラ1a,1bの映像の同期表示は、時刻T2に開始される。以下、他のマクロブロックの同期表示が、同様に実行される。この結果、多重化圧縮データ33の復号化に伴って発生する遅延時間は、T2-T0(ミリ秒)となる。
 図9に示すように、MBグループの区分単位が細かくなるにつれて、同期表示が開始されるまでの時間が短くなる。つまり、区分単位を細かくすることにより、カメラ1a,1bの映像が表示部45に表示されるまでの遅延時間を短くすることができる。区分単位を細かく設定した場合、多重化圧縮データ33から符号化データ32a,32bを抽出する回数が増加する。このように、区分単位を細かく設定した場合、逆多重化処理などでオーバーヘッドが増加するため、監視装置4aの負荷が増加する。
 このため、画像符号化装置2は、非圧縮画像データ31a,31bの特性に応じて区分単位を設定することが望ましい。グループ生成部211が、非圧縮画像データ31a,31bの動きの大きさを検出し、検出した動きの大きさに基づいて区分単位を変更してもよい。非圧縮画像データ31a,31bが動きの大きい画像であれば、画像符号化装置2は、リアルタイム性を重視して、区分単位としてマクロブロックを設定する。非圧縮画像データ31a,31bが動きの少ない画像であれば、監視装置4aの負荷を小さくするために、区分単位としてフレームを設定する。非圧縮画像データ31a,31bの動きが中間程度であれば、区分単位としてMBラインを設定すればよい。また、カメラ1a,1bが非圧縮画像データ31a,31bとともに、区分単位を指定する情報を画像符号化装置2に出力してもよい。
 本実施の形態では、監視装置4aがカメラ1a,1bの両者の映像を表示する例を説明した。しかし、監視装置4aにカメラ1aの映像のみを表示させ、監視装置4bにカメラ1bの映像のみを表示させることも可能である。この場合であっても、上述の表示タイミングの制御が実行されることにより、監視装置4a,4bにおいて、カメラ1a,カメラ1bの映像を同期表示することが可能となる。
 たとえば、MBライン単位で非圧縮画像データ31a,31bが符号化されていた場合、監視装置4aは、時刻T4からMBラインLa1の表示を開始する。監視装置4bは、時刻T4からMBラインLb1の表示を開始する。監視装置4a,4bが、符号化データ32a,32bの復号化をそれぞれ行うことにより、復号化データの表示タイミングを制御することができる。したがって、同期表示のために監視装置4a,4bの間で通信等を行わなくてもよい。
 監視装置4aは、カメラ1aの映像のみを表示する場合、カメラ1aに対応する符号化データ32aの復号化のみを行ってもよい。監視装置4aは、符号化データ32aの復号化が終了し、かつ1個のマクロブロックの復号化が終了した時間が経過した後に、復号化データを表示部45に表示させればよい。
[第2の実施の形態]
 以下、本発明の第2の実施の形態について説明する。上記第1の実施の形態では、非圧縮画像データ31a,31bのマクロブロック数が同じであるときの処理を説明した。本実施の形態では、非圧縮画像データ31a,31bのフレームレートが同じであるが、マクロブロック数が異なる場合を説明する。以下、上記実施の形態と共通の点についてはその説明を省略する。
 図10は、本実施の形態に係る非圧縮画像データ31a,31bのマクロブロックの構成を示す図である。非圧縮画像データ31aのマクロブロックの構成は、図3と同様である。非圧縮画像データ31bは、横4個×縦3個の12個のマクロブロックMb0~Mb12で構成されている。つまり、非圧縮画像データ31aのマクロブロック数が、非圧縮画像データ31bのマクロブロック数の2倍(整数倍)となっている。
{MBグループの構成}
 フレーム単位及びマクロブロック単位でMBグループが生成される場合、MBグループの生成処理は、上記第1の実施の形態と同様である。
 MBライン単位でMBグループが生成される場合、MBグループは、画像サイズが小さい非圧縮画像データ31bのMBラインに合わせて生成される。非圧縮画像データ31bのMBラインにおいて、マクロブロックの数は4個である。図10において、実線は、非圧縮画像データ31a,31bのマクロブロックがMBライン単位で区分された状態を示す。非圧縮画像データ31aのMBグループ(第1MBグループ)と、非圧縮画像データ31bのMBグループ(第2MBグループ)とは、4個のマクロブロックにより構成されていることがわかる。
{MBグループの符号化順序の決定}
 図10に示す非圧縮画像データ31a,31bのMBグループの符号化順序について、区分単位ごとに説明する。
 MBグループがフレーム単位で生成された場合、上記実施の形態と同様に、フレームFa,Fbが交互に符号化されるように符号化順序が決定される。
 MBグループがマクロブロック単位またはMBライン単位で生成された場合、符号化順序決定部212は、非圧縮画像データ31a,31bのマクロブロック数の比率に基づいて、符号化順序を決定する。以下、MBグループがマクロブロック単位で生成されたケースを例にして符号化順序について説明する。
 図11は、図10に示す非圧縮画像データ31a,31bのMBグループをマクロブロック単位で生成した場合における符号化順序を示す図である。図11に示すように、符号化順序決定部212は、マクロブロックMa0,Ma1,Mb0,Ma2,Ma3,Mb1,・・・の順に符号化されるように、符号化順序を決定する。つまり、2個の第1MBグループが符号化された後に、1個の第2MBグループが符号化される。
 非圧縮画像データ31aと非圧縮画像データ31bとのマクロブロックの比率が2:1である(図10参照)。このため、符号化順序決定部212は、第1MBグループと第2MBグループとが2:1の比率で符号化されるように、符号化順序を決定する。ただし、マクロブロック数の少ない非圧縮画像データ31bの第2MBグループは、連続して符号化されないことが条件となる。
 監視装置4aでは、マクロブロックMa0,Ma1に対応する符号化データ32aが最初に復号化される。次に、マクロブロックMb0に対応する符号化データ32bが復号化される。マクロブロックMb0(第2MBグループの先頭マクロブロック)の復号化が終了したときに、復号化されたマクロブロックMa0,Ma1,Mb0が表示部45に表示される。これにより、監視装置4aでカメラ1a,1bの映像を同期表示させる場合に、カメラ1a,1bの映像フレームの表示が開始される時間と、映像フレームの表示が完了する時間とを揃えることができる。
{マクロブロックの比率が整数倍でない場合}
 本実施の形態では、非圧縮画像データ31aのマクロブロック数が、非圧縮画像データ31bのマクロブロック数の整数倍である場合を説明した。しかし、非圧縮画像データ31aのマクロブロック数が、非圧縮画像データ31bのマクロブロック数の整数倍でなくてもよい。
 図12は、非圧縮画像データ31a,31bのマクロブロックの構成を示す図である。非圧縮画像データ31aのマクロブロックの構成は、図3と同様である。非圧縮画像データ31bは、横5個×縦3個の15個のマクロブロックMb0~Mb14で構成されている。非圧縮画像データ31aのマクロブロックの数は、非圧縮画像データ31bのマクロブロック数の整数倍となっていない。
 図13は、図12に示す非圧縮画像データ31a,31bのMBグループをマクロブロック単位で生成した場合における、符号化順序を示す図である。図13に示すように、符号化順序は、マクロブロックMa0,Ma1,Mb0,Ma2,Mb1,Ma3,・・・の順となっている。つまり、マクロブロック数の少ない非圧縮画像データ31bのMBグループが連続して符号化されることのないように、符号化順序が決定される。
[第3の実施の形態]
 以下、本発明の第3の実施の形態について説明する。上記第1の実施の形態では、非圧縮画像データ31a,31bのフレームレートが同じであるケースを説明した。本実施の形態では、非圧縮画像データ31a,31bのフレームレートが異なる場合における、MBグループの符号化順序の決定について説明する。符号化順序の決定以外の処理については、上記実施の形態と同様である。
 図14は、非圧縮画像データ31a,31bの各フレームが画像符号化装置2に入力されるタイミングを示す図である。非圧縮画像データ31aのフレームレートを60fps、非圧縮画像データ31bのフレームレートを30fpsとする。
 図14に示すように、時刻T0,Tf,2Tfにおいて、非圧縮画像データ31aのフレームFaと、非圧縮画像データ31bのフレームFbとが同期して画像符号化装置2に入力される。時刻0.5Tf,1.5Tf,2.5Tfに、フレームFaのみが画像符号化装置2に入力される。ここで、フレームFbに同期しているフレームFaを、フレームFa0とする。フレームFbと同期しないフレームFaを、フレームFa1とする。
 図15は、非圧縮画像データ31a,31bのフレームレートが異なる場合における、符号化順序の一例を示す図である。図15は、MBライン単位でMBグループが生成された場合における符号化順序を示している。
 まず、符号化順序決定部212は、同期して入力されたフレームFa0,FbがMBラインごとに交互に符号化されるように、MBラインの符号化順序を決定する。具体的には、フレームFa0に対応するMBラインLa1が最初に符号化される。次に、フレームFbに対応するMBラインLb1が符号化される。以下、フレームFa0,FbのMBラインが交互に符号化される。
 フレームFbのMBラインMb4の符号化が終了した後に、フレームFa1のMBラインLa1~La4が符号化される。この結果、同期して画像符号化装置2に入力されたフレームFa0,Fbを、監視装置4a,4bで同期して表示させることができる。
[第4の実施の形態]
 以下、本発明の第4の実施の形態について説明する。本実施の形態において、画像伝送システム100は、監視装置4a,4bに代えて、モニタ管理装置6を用いる。
 図16は、モニタ管理装置6の機能的構成を示すブロック図である。モニタ管理装置6及びモニタ61a,61bは、カメラ1a,1bが設置されたATMコーナーを遠隔監視するモニタ室に設置される。モニタ管理装置6と、モニタ61a,61bとは、映像伝送用のケーブルで接続されている。
 モニタ管理装置6は、通信部41と、逆多重化部42と、復号化部43と、出力制御部62とを備える。モニタ管理装置6は、多重化圧縮データ33を受信し、多重化圧縮データ31の逆多重化及び復号化を行う。多重化圧縮データ33の逆多重化及び復号化は、上記実施の形態と同様に行われる。
 出力制御部62は、カメラ1aに対応する復号化データ36aをモニタ61aに出力し、カメラ1bに対応する復号化データ36bをモニタ61bに出力する。このとき、出力制御部42は、監視装置4a,4bと同様に、カメラ1a,1bに表示される映像が同期するように、復号化データ36a,36bを出力するタイミングを制御する。このように、モニタ管理装置6を用いることによって、カメラ1a,1bの映像を複数のモニタに同期して表示させることができる。
 上記実施の形態では、二つの画像データ(非圧縮画像データ31a,31b)が画像符号化装置2に入力される例を説明した。しかし、画像符号化装置2に入力される非圧縮画像データの数は、三つ以上でもよい。この場合、入力された非圧縮画像データごとにMBグループが生成される。画像符号化装置は、各非圧縮画像データのMBグループが順番に符号化されるように符号化順序を決定する。
 上記実施の形態では、フレームが同期した非圧縮画像データ31a,31bがカメラ1a,1bから画像符号化装置2に入力される例を説明した。しかし、画像符号化装置2が、自装置の内部で、フレームが同期した非圧縮画像データ31a,31bを生成してもよい。
 この発明を添付図面に示す実施態様について説明したが、この発明は、その詳細な発明の記載をもって制約されるものではなく、請求の範囲に記載する範囲において広く構成される。
 

Claims (12)

  1.  第1画像データと第2画像データとを圧縮する画像符号化装置(2)であって、
     設定された区分単位に基づいて、前記第1画像データの第1マクロブロックを区分して第1符号化グループを生成し、前記第2画像データの第2マクロブロックを区分して第2符号化グループを生成するグループ生成部(211)と、
     第1符号化グループと第2符号化グループとが交互に繰り返されるように、前記第1マクロブロック及び前記第2マクロブロックを符号化する符号化順序を決定する符号化順序決定部(212)と、
     前記符号化順序に基づいて、第1符号化グループごとに前記第1マクロブロックを符号化し、前記第2符号化グループごとに前記第2マクロブロックを符号化する符号化部(22)と、
     符号化された前記第1マクロブロック及び前記第2マクロブロックを、符号化された順に配列して多重化圧縮データを生成する多重化部(23)と、
    を備える。
  2.  請求項1に記載の画像符号化装置(2)であって、
     前記符号化順序決定部(211)は、前記第1マクロブロックの数が前記第2マクロブロックの数よりも多い場合、前記第1符号化グループが連続するように符号化順序を決定することを許可する。
  3.  請求項2に記載の画像符号化装置(2)であって、
     前記符号化順序決定部(211)は、前記第1マクロブロックの数と前記第2マクロブロックの数との比率に基づいて、前記符号化順序を決定する画像符号化装置。
  4.  請求項1に記載の画像符号化装置(2)であって、
     前記第1画像データと前記第2画像データとは、フレームレートが互いに異なり、
     前記符号化順序決定部は、前記第1画像データの第1フレームと前記第2画像データの第2フレームとが同期して入力された場合、前記第1フレームに対応する第1符号化グループと前記第2フレームに対応する第2符号化グループとが交互に繰り返されるように、前記符号化順序を決定する。
  5.  請求項1に記載の画像符号化装置(2)であって、
     前記グループ生成部は、前記第1画像データの特性及び前記第2画像データの特性に応じて、前記区分単位を変更する。
  6.  請求項1に記載の画像符号化装置(2)であって、
     前記区分単位が、フレーム単位で前記グループ生成部に設定されている。
  7.  請求項1に記載の画像符号化装置(2)において、
     前記区分単位が、水平方向に一列に配列されたマクロブロックのライン単位で前記グループ生成部に設定されている。
  8.  請求項1に記載の画像符号化装置(2)であって、
     前記区分単位が、マクロブロック単位で前記グループ生成部に設定されている。
  9.  画像伝送システムであって、
     第1画像データと第2画像データとを圧縮する画像符号化装置(2)と、
     画像復号化装置(4a,4b,6)と、
    を備え、
     前記画像符号化装置(2)は、
     設定された区分単位に基づいて、前記第1画像データの第1マクロブロックを区分して第1符号化グループを生成し、前記第2画像データの第2マクロブロックを区分して第2符号化グループを生成するグループ生成部(211)と、
     第1符号化グループと第2符号化グループとが交互に繰り返されるように、前記第1マクロブロック及び前記第2マクロブロックを符号化する符号化順序を決定する符号化順序決定部(212)と、
     前記符号化順序に基づいて、第1符号化グループごとに前記第1マクロブロックを符号化し、前記第2符号化グループごとに前記第2マクロブロックを符号化する符号化部(22)と、
     符号化された前記第1マクロブロック及び前記第2マクロブロックを、符号化された順に配列して多重化圧縮データを生成する多重化部(23)と、
     前記多重化圧縮データを前記画像復号化装置に送信する送信部(24)と、
    を備え、
     前記画像復号化装置(4a,4b,6)は、
     前記多重化圧縮データを受信する受信部(41)と、
     符号化された前記第1マクロブロックを、受信した前記多重化圧縮データの先頭から順に抽出する逆多重化部(42)と、
     符号化された前記第1マクロブロックを抽出された順に復号化する復号化部(43)と、
     前記第1マクロブロックの復号化画像データと、前記第2マクロブロックの復号化画像データとを表示可能となったタイミングに、前記第1マクロブロックの復号化画像データを第1表示装置に出力する出力制御部(44,62)と、
    を備える。
  10.  請求項9に記載の画像伝送システムであって、
     前記逆多重化部(42)は、符号化された前記第1マクロブロック及び前記第2マクロブロックを、前記多重化圧縮データの先頭から順に抽出し、
     前記復号化部(43)は、符号化された前記第1マクロブロック及び前記第2マクロブロックを抽出された順に復号化する。
  11.  請求項10に記載の画像伝送システムであって、
     前記出力制御部(44,62)は、前記第1マクロブロックの復号化画像データを前記第1表示装置へ出力し、前記第2マクロブロックの復号化画像データを第2表示装置へ出力する。
  12.  第1~第N画像データを圧縮する画像符号化装置(2)であって、
     kを1からNまでの自然数とした場合において、設定された区分単位に基づいて第k画像データの第kマクロブロックを区分して、第k符号化グループを生成するグループ生成部(211)と、
     第1符号化グループから第n符号化グループまでが交互に繰り返されるように、第1マクロブロックから第nマクロブロックを符号化する符号化順序を決定する符号化順序決定部(212)と、
     前記符号化順序に基づいて、前記第k符号化グループごとに前記第kマクロブロックを符号化する符号化部(22)と、
     符号化された前記第kマクロブロックを、符号化された順に配列して多重化圧縮データを生成する多重化部(23)と、
    を備える。
     
PCT/JP2011/050970 2010-02-25 2011-01-20 画像符号化装置及び画像伝送システム WO2011105137A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-040314 2010-02-25
JP2010040314A JP5444040B2 (ja) 2010-02-25 2010-02-25 画像符号化装置及び画像伝送システム

Publications (1)

Publication Number Publication Date
WO2011105137A1 true WO2011105137A1 (ja) 2011-09-01

Family

ID=44506559

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/050970 WO2011105137A1 (ja) 2010-02-25 2011-01-20 画像符号化装置及び画像伝送システム

Country Status (2)

Country Link
JP (1) JP5444040B2 (ja)
WO (1) WO2011105137A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107613301A (zh) * 2017-10-17 2018-01-19 郑州云海信息技术有限公司 一种图像处理方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11346370A (ja) * 1998-06-02 1999-12-14 Matsushita Electric Ind Co Ltd 符号化方法、符合化装置、復号方法、復号装置、及び記録媒体
JP2002034047A (ja) * 2000-07-18 2002-01-31 Pioneer Electronic Corp 画像符号化装置及び画像符号化方法、情報符号化装置及び情報符号化方法、情報記録装置並びに情報記録媒体
JP2005184419A (ja) * 2003-12-19 2005-07-07 Hitachi Ltd 映像信号符号化装置および映像信号記録装置
JP2005223413A (ja) * 2004-02-03 2005-08-18 Sony Corp 送受信システム、送信装置、受信装置、情報処理方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259315A (ja) * 2002-02-28 2003-09-12 Matsushita Electric Ind Co Ltd 画像伝送装置および画像伝送方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11346370A (ja) * 1998-06-02 1999-12-14 Matsushita Electric Ind Co Ltd 符号化方法、符合化装置、復号方法、復号装置、及び記録媒体
JP2002034047A (ja) * 2000-07-18 2002-01-31 Pioneer Electronic Corp 画像符号化装置及び画像符号化方法、情報符号化装置及び情報符号化方法、情報記録装置並びに情報記録媒体
JP2005184419A (ja) * 2003-12-19 2005-07-07 Hitachi Ltd 映像信号符号化装置および映像信号記録装置
JP2005223413A (ja) * 2004-02-03 2005-08-18 Sony Corp 送受信システム、送信装置、受信装置、情報処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107613301A (zh) * 2017-10-17 2018-01-19 郑州云海信息技术有限公司 一种图像处理方法及装置
CN107613301B (zh) * 2017-10-17 2020-05-26 苏州浪潮智能科技有限公司 一种图像处理方法及装置

Also Published As

Publication number Publication date
JP5444040B2 (ja) 2014-03-19
JP2011176709A (ja) 2011-09-08

Similar Documents

Publication Publication Date Title
US8254458B2 (en) Moving picture encoding apparatus and method, moving picture decoding apparatus and method
US11044437B2 (en) Method and system for combining multiple area-of-interest video codestreams into a combined video codestream
JP2000013769A (ja) 多点画像会議システム及びその具現方法
CN107113447A (zh) 高帧速率‑低帧速率传输技术
CN102780881A (zh) 编解码器、编解码系统及方法、传送适配器和成像装置
JP2014207498A (ja) 符号化装置、復号化装置、符号化方法、復号化方法およびプログラム
US10382800B2 (en) Video surveillance system and video surveillance method
JP5172874B2 (ja) 映像同期装置、映像表示装置、映像同期方法及びプログラム
JP5444040B2 (ja) 画像符号化装置及び画像伝送システム
US8937999B2 (en) Moving image compression encoding apparatus, method, and control program
JP5688443B2 (ja) 画像符号化装置及び画像伝送システム
JP2009182372A (ja) 画像圧縮配信装置、及び画像圧縮配信方法
JP2005110113A (ja) 多視点画像伝送システムと方法、多視点画像圧縮装置と方法、多視点画像伸長装置と方法およびプログラム
JP4258063B2 (ja) データ送信装置
WO2011122285A1 (ja) 画像符号化装置
JP5635673B2 (ja) 画像符号化装置
JPH1013825A (ja) 多画面表示システム
WO2009098763A1 (ja) 映像処理装置、映像処理方法及び映像処理プログラム
JPH1066062A (ja) 多画面表示システム
JPH0993586A (ja) 画像信号多重化符号化復号化装置
JP2006050491A (ja) マルチチャネル画像コーデック装置
JP4464719B2 (ja) 画像データ送信システム
KR101170438B1 (ko) 메모리 셔플링을 이용한 카메라 영상 전송용 통신 네트워크 어댑터
JP5442688B2 (ja) 動画像符号化装置および方法、並びに動画像復号化装置および方法
JP6463907B2 (ja) 符号化装置、復号装置及びこれらのプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11747101

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11747101

Country of ref document: EP

Kind code of ref document: A1