WO2016158401A1 - 画像符号化装置および方法 - Google Patents

画像符号化装置および方法 Download PDF

Info

Publication number
WO2016158401A1
WO2016158401A1 PCT/JP2016/058266 JP2016058266W WO2016158401A1 WO 2016158401 A1 WO2016158401 A1 WO 2016158401A1 JP 2016058266 W JP2016058266 W JP 2016058266W WO 2016158401 A1 WO2016158401 A1 WO 2016158401A1
Authority
WO
WIPO (PCT)
Prior art keywords
encoding
image
budget
unit
control unit
Prior art date
Application number
PCT/JP2016/058266
Other languages
English (en)
French (fr)
Inventor
小川 一哉
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2017509528A priority Critical patent/JPWO2016158401A1/ja
Priority to US15/560,248 priority patent/US20180054617A1/en
Publication of WO2016158401A1 publication Critical patent/WO2016158401A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/156Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/57Motion estimation characterised by a search window with variable size or shape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Definitions

  • the present disclosure relates to an image encoding apparatus and method, and more particularly, to an image encoding apparatus and method capable of stably transferring image data for a long time.
  • a camera system in the IoT (Internet Things) era that can be installed anywhere and can acquire video data
  • a camera system that has a power generation device and a wireless communication unit and does not require a power path or a wired communication path is proposed Has been.
  • Patent Document 1 there is an apparatus capable of continuing shooting over a long period of time by changing the shooting range, shooting frequency, and compression rate of an image according to the average power generation amount in an imaging apparatus having a wireless communication function with a power generation apparatus. Proposed.
  • the present disclosure has been made in view of such a situation, and can transfer image data stably for a long time.
  • An image encoding device performs an encoding process of image data, generates an encoded data, and an encoding control that controls the encoding process according to power information regarding power And a transmission unit for transmitting the encoded data generated by the encoding unit.
  • the power information may include at least one piece of information indicating the amount of power being generated and information on the remaining amount of the stored battery.
  • the encoding control unit can switch the encoding method used for the encoding process.
  • the encoding control unit can switch between intra prediction and inter prediction of the encoding method used for the encoding process.
  • the encoding control unit can switch encoding control parameters used for the encoding process.
  • the encoding control unit can switch between the unidirectional prediction mode and the bidirectional prediction mode as the encoding control parameter.
  • the encoding control unit can switch the number of reference planes as the encoding control parameter.
  • the encoding control unit can switch the size of the search range for motion prediction as the encoding control parameter.
  • the encoding control unit can switch whether to apply a deblocking filter as the encoding control parameter.
  • the encoding control unit can switch whether to apply at least one of a deblocking filter and an adaptive offset filter as the encoding control parameter.
  • the coding control unit can switch the variable length coding process between CABAC (Context-Adaptive Binary Arithmetic Coding) and CAVLC (Context-Adaptive Variable Length Coding) as the coding control parameter.
  • CABAC Context-Adaptive Binary Arithmetic Coding
  • CAVLC Context-Adaptive Variable Length Coding
  • the encoding control unit can switch the lower limit of the prediction block size as the encoding control parameter.
  • the transmission unit wirelessly transmits the encoded data generated by the encoding unit, and the encoding control unit controls the encoding process according to information indicating a communicable band by the transmission unit. be able to.
  • an image encoding device performs an encoding process of image data, generates encoded data, and controls the encoding process according to power information regarding power.
  • the generated encoded data is transmitted.
  • encoding processing of image data is performed to generate encoded data, and the encoding processing is controlled according to power information regarding power. Then, the generated encoded data is transmitted.
  • image encoding device may be an independent image processing device or may be an internal block constituting one image encoding device.
  • an image can be encoded.
  • image data can be transferred stably for a long time.
  • FIG. 1 is a block diagram illustrating a configuration example of a camera system to which the present technology is applied.
  • the camera system 100 is configured to include a power generation device 101, a power storage device 102, an imaging device 103, an image processing device 104, an image compression device 105, a wireless transmission device 106, and a budget determination / coding control unit 107.
  • the power generation device 101 is a device that generates electric power from natural energy such as fuel, vibration, and light.
  • the power generation device 101 may be a solar panel, a device that generates power from vibrations, a device that generates power from pressure, a device that generates power from heat, a device that generates power from electromagnetic waves, or the like. Good.
  • the power from the power generation device 101 is transmitted to the power storage device 102. Further, the power generation apparatus 101 supplies power generation amount information, which is information related to the power generation amount, to the budget determination / encoding control unit 107.
  • the power storage device 102 stores the electric power generated by the power generation device 101.
  • the power storage device 102 supplies the remaining battery level information, which is information indicating the remaining battery level, to the budget determination / encoding control unit 107.
  • the imaging device 103 includes, for example, a CMOS (Complementary Metal Oxide Semiconductor) solid-state imaging device, a CCD (Charge Coupled Device) solid-state imaging device, an A / D converter, and the like, and acquires image data by imaging a subject. .
  • the imaging device 103 outputs the acquired image data to the image processing device 104.
  • the image processing apparatus 104 performs image processing other than image compression, such as pixel correction, color correction, and distortion correction, on the image data from the imaging apparatus 103, and the image data after the image processing is processed into the image compression apparatus. To 105.
  • image processing other than image compression such as pixel correction, color correction, and distortion correction
  • the image compression apparatus 105 uses the compression control information from the budget determination / encoding control unit 107 to encode the image data from the image processing apparatus 104 based on an image encoding algorithm (compression process). I do.
  • an image encoding algorithm for example, JPEG, MPEG, H.246 / AVC (hereinafter referred to as H.264), H.265 / HEVC (High Efficiency Video Coding) (hereinafter referred to as H.265), etc. Can be mentioned.
  • the image compression apparatus 105 outputs data whose data amount has been reduced by encoding to the wireless transmission apparatus 106.
  • the wireless transmission device 106 receives the encoded data from the image compression device 105 and transmits it wirelessly via the antenna 108. In addition, the wireless transmission device 106 supplies the communicable band information in which the communicable band is described to the budget determination / encoding control unit 107.
  • the budget determination / encoding control unit 107 receives the power generation amount information of the power generation apparatus 101, the remaining battery level information of the power storage apparatus 102, and the communicable band information of the wireless transmission apparatus 106 as input, and controls encoding processing of the image compression apparatus 105. Generate information for The budget determination / coding control unit 107 may be, for example, a CPU or a program that runs on the CPU.
  • the budget determination / encoding control unit 107 includes a budget determination unit 111 and an encoding control unit 112, as shown in FIG.
  • the budget determination unit 111 receives power information related to power including at least one of power generation amount information and battery remaining amount information, and communicable band information as input, and generates power / band budget information that is the basis of encoding processing control. Then, the generated power / band budget information is supplied to the encoding control unit 112.
  • the encoding control unit 112 generates an image encoding method and an encoding parameter / mode from the power / bandwidth budget information from the budget determination unit 111, and generates compression control information including the image encoding method and the encoding parameter / mode. And supplied to the image compression apparatus 105. That is, the encoding control unit 112 controls the image compression apparatus 105 according to the power / bandwidth budget information from the budget determination unit 111 to switch the image encoding method and encoding parameter / mode.
  • FIG. 3 is a block diagram illustrating a configuration example of the image compression apparatus.
  • the example in case an image coding system is H.265 is shown as an example.
  • the encoding process is executed in units of processing called macroblocks.
  • the macro block is a block having a uniform size of 16 ⁇ 16 pixels.
  • the encoding process is executed in a processing unit called a coding unit (CU: Coding Unit).
  • CU Coding Unit
  • a CU is a block having a variable size formed by recursively dividing a maximum coding unit (LCU: Large Coding Unit).
  • LCU Large Coding Unit
  • the maximum selectable CU size is 64 ⁇ 64 pixels.
  • the minimum selectable CU size is 8 ⁇ 8 pixels.
  • the smallest CU is called (SCU: Smallest Coding Unit).
  • Prediction processing for predictive coding is executed in a processing unit called a prediction unit (PU).
  • the PU is formed by dividing the CU by one of several division patterns.
  • the orthogonal transformation process is executed in a processing unit called a transform unit (TU).
  • a TU is formed by dividing a CU or PU to a certain depth.
  • CTB Coding Tree Block
  • CTU Coding Tree Unit
  • PU is a processing unit of prediction processing including intra prediction and inter prediction.
  • the PU is formed by dividing the CU by one of several division patterns.
  • TU is a processing unit of orthogonal transform processing.
  • a TU is formed by dividing a CU (for an intra CU, each PU in the CU) to a certain depth.
  • what kind of block division is performed in order to set blocks such as CU, PU, and TU as described above to an image is determined based on a cost comparison that affects coding efficiency.
  • the size or the like of this PU is set and controlled as an encoding control parameter by the encoding control unit 112.
  • the image compression apparatus 105 includes a screen rearranging buffer 132, a calculation unit 133, an orthogonal transformation unit 134, a quantization unit 135, a lossless encoding unit 136, a storage buffer 137, an inverse quantization unit 138, an inverse unit An orthogonal transformation unit 139 and an addition unit 140 are included. Further, the image compression apparatus 105 includes a filter 141, a frame memory 144, a switch 145, an intra prediction unit 146, a motion prediction / compensation unit 147, a predicted image selection unit 148, and a rate control unit 149.
  • the image data from the image processing device 104 is output to the screen rearrangement buffer 132 and stored therein.
  • the screen rearrangement buffer 132 rearranges the stored frame-by-frame images in the order for encoding according to the GOP structure.
  • the screen rearrangement buffer 132 outputs the rearranged image to the calculation unit 133, the intra prediction unit 146, and the motion prediction / compensation unit 147.
  • the calculation unit 133 performs encoding by subtracting the predicted image supplied from the predicted image selection unit 148 from the image supplied from the screen rearrangement buffer 132.
  • the computing unit 133 outputs the image obtained as a result to the orthogonal transform unit 134 as residual information (difference).
  • the calculation unit 133 outputs the image read from the screen rearrangement buffer 132 to the orthogonal transform unit 134 as residual information as it is.
  • the orthogonal transform unit 134 performs orthogonal transform processing on the residual information from the calculation unit 133 in units of TUs.
  • the orthogonal transformation unit 134 supplies the orthogonal transformation processing result after the orthogonal transformation processing to the quantization unit 135.
  • the quantization unit 135 quantizes the orthogonal transform processing result supplied from the orthogonal transform unit 134.
  • the quantization unit 135 supplies the quantized value obtained as a result of the quantization to the lossless encoding unit 136.
  • the lossless encoding unit 136 acquires information indicating the optimal intra prediction mode (hereinafter referred to as intra prediction mode information) from the intra prediction unit 146. Further, the lossless encoding unit 136 acquires information indicating the optimal inter prediction mode (hereinafter referred to as inter prediction mode information), a motion vector, information specifying a reference image, and the like from the motion prediction / compensation unit 147. Further, the lossless encoding unit 136 acquires offset filter information regarding the offset filter from the filter 141.
  • the lossless encoding unit 136 performs lossless encoding such as variable length encoding or arithmetic encoding on the quantization value supplied from the quantization unit 135.
  • the lossless encoding unit 136 performs lossless encoding of intra prediction mode information, inter prediction mode information, information specifying a motion vector, a reference image, offset filter information, and the like as encoding information related to encoding. .
  • the lossless encoding unit 136 supplies the encoded information and the quantized value, which have been losslessly encoded, to the accumulation buffer 137 as encoded data and accumulates them.
  • the losslessly encoded information may be header information (for example, a slice header) of a losslessly encoded quantization value.
  • the accumulation buffer 137 temporarily stores the encoded data supplied from the lossless encoding unit 136. Further, the accumulation buffer 137 supplies the stored encoded data to the wireless transmission device 106 as an encoded stream.
  • the quantized value output from the quantizing unit 135 is also input to the inverse quantizing unit 138.
  • the inverse quantization unit 138 performs inverse quantization on the quantized value.
  • the inverse quantization unit 138 supplies the orthogonal transform processing result obtained as a result of the dequantization to the inverse orthogonal transform unit 139.
  • the inverse orthogonal transform unit 139 performs an inverse orthogonal transform process on the orthogonal transform process result supplied from the inverse quantization unit 138 in units of TUs.
  • inverse orthogonal transform for example, there are IDCT (Inverse Discrete Cosine Transform) and IDST (Inverse Discrete Sine Transform).
  • IDCT Inverse Discrete Cosine Transform
  • IDST Inverse Discrete Sine Transform
  • the addition unit 140 adds the residual information supplied from the inverse orthogonal transform unit 139 and the prediction image supplied from the prediction image selection unit 148, and performs decoding.
  • the adder 140 supplies the decoded image to the filter 141 and the frame memory 144.
  • the filter 141 performs a filtering process on the decoded image supplied from the adding unit 140. Specifically, the filter 141 sequentially performs a deblocking filter process and an adaptive offset filter (SAO (Sample-adaptive-offset)) process. The filter 141 supplies the encoded picture after the filter process to the frame memory 144. Also, the filter 141 supplies information indicating the type and offset of the adaptive offset filter processing performed to the lossless encoding unit 136 as offset filter information. The presence / absence of these filters is set and controlled as a coding control parameter by the coding control unit 112.
  • SAO Sample-adaptive-offset
  • the frame memory 144 stores the image supplied from the filter 141 and the image supplied from the adder 140.
  • An image adjacent to a PU (Prediction Unit) among the images not subjected to the filter processing accumulated in the frame memory 144 is supplied to the intra prediction unit 146 via the switch 145 as a peripheral image.
  • the filtered image stored in the frame memory 144 is output to the motion prediction / compensation unit 147 via the switch 145 as a reference image.
  • the intra prediction unit 146 performs intra prediction processing for all candidate intra prediction modes using peripheral images read from the frame memory 144 via the switch 145 in units of PUs.
  • the intra prediction unit 146 can be used as indicated by information supplied from the mode table setting unit 50 based on the image read from the screen rearrangement buffer 132 and the prediction image generated as a result of the intra prediction process. A cost function value (details will be described later) is calculated for a certain intra prediction mode. Then, the intra prediction unit 146 determines the intra prediction mode that minimizes the cost function value as the optimal intra prediction mode.
  • JM Job Model
  • JM JM
  • High Complexity Mode Low Complexity Mode.
  • a cost function value for each prediction mode Mode is calculated, and a prediction mode that minimizes the cost function value is selected as the optimum mode for the block or macroblock.
  • is the entire set of candidate modes for encoding the block or macroblock
  • D is the difference energy between the decoded image and the input image when encoded in the prediction mode.
  • is a Lagrange undetermined multiplier given as a function of the quantization parameter.
  • R is the total code amount when encoding is performed in this mode, including orthogonal transform coefficients.
  • D is the difference energy between the predicted image and the input image, unlike the case of High Complexity Mode.
  • Qp2Quant QP
  • HeaderBit is a code amount related to information belonging to Header, such as a motion vector and mode, which does not include an orthogonal transform coefficient.
  • the intra prediction unit 146 supplies the predicted image generated in the optimal intra prediction mode and the corresponding cost function value to the predicted image selection unit 148.
  • the intra prediction unit 146 supplies the intra prediction mode information to the lossless encoding unit 136 when the prediction image selection unit 148 is notified of the selection of the prediction image generated in the optimal intra prediction mode.
  • the intra prediction mode is a mode representing the PU size, prediction direction, and the like.
  • the motion prediction / compensation unit 147 performs motion prediction / compensation processing in the inter prediction mode. Specifically, the motion prediction / compensation unit 147 calculates the motion vector in the inter prediction mode based on the image supplied from the screen rearrangement buffer 132 and the reference image read from the frame memory 144 via the switch 145. Detect by unit. Then, the motion prediction / compensation unit 147 performs compensation processing on the reference image in units of PUs based on the motion vector, and generates a predicted image. For example, the search range of the motion vector, the accuracy of the motion vector, the number of reference planes, and the like are set and controlled by the encoding control unit 112 as encoding control parameters.
  • the motion prediction / compensation unit 147 calculates cost function values for all inter prediction modes based on the image and the prediction image supplied from the screen rearrangement buffer 132, and the cost function value is minimum.
  • the inter prediction mode is determined as the optimal inter prediction mode.
  • the motion prediction / compensation unit 147 supplies the cost function value of the optimal inter prediction mode and the corresponding prediction image to the prediction image selection unit 148.
  • the motion prediction / compensation unit 147 specifies inter prediction mode information, a corresponding motion vector, and information for specifying a reference image. Are output to the lossless encoding unit 136.
  • the inter prediction mode is a mode that represents the size of the PU and the like.
  • the predicted image selection unit 148 Based on the cost function values supplied from the intra prediction unit 146 and the motion prediction / compensation unit 147, the predicted image selection unit 148 has a smaller corresponding cost function value among the optimal intra prediction mode and the optimal inter prediction mode. Are determined as the optimum prediction mode. Then, the predicted image selection unit 148 supplies the predicted image in the optimal prediction mode to the calculation unit 133 and the addition unit 140. Further, the predicted image selection unit 148 notifies the intra prediction unit 146 or the motion prediction / compensation unit 147 of selection of the predicted image in the optimal prediction mode.
  • the rate control unit 149 controls the rate of the quantization operation of the quantization unit 135 based on the encoded data stored in the storage buffer 137 so that overflow or underflow does not occur.
  • step S ⁇ b> 101 the power generation device 101 generates power and outputs power to the power storage device 102.
  • the power generation apparatus 101 supplies power generation amount information, which is information related to the power generation amount, to the budget determination / coding control unit 107.
  • step S102 the power storage device 102 stores the power generated by the power generation device 101.
  • the power storage device 102 supplies the remaining battery level information, which is information indicating the remaining battery level, to the budget determination / encoding control unit 107.
  • step S ⁇ b> 103 the imaging device 103 images a subject and outputs image data obtained by the imaging to the image processing device 104.
  • the image processing apparatus 104 performs image processing other than image compression, such as pixel correction, color correction, and distortion correction, on the image data from the imaging apparatus 103, and the image data after image processing is processed. And output to the image compression apparatus 105.
  • step S105 the budget determination unit 111 performs a budget determination process.
  • the budget determination process will be described later with reference to FIG. 5, but the current power situation and wireless communication situation are classified by the process of step S105. Then, the classified power band budget information is supplied to the encoding control unit 112.
  • step S106 the encoding control unit 112 performs encoding control processing based on the power / bandwidth budget information from the budget determination unit 111.
  • This encoding control process will be described later with reference to FIG. 6, but the image encoding method and encoding parameter / mode are generated by the process of step S106, and the image encoding method and encoding parameter / mode are included.
  • the compression control information is supplied to the image compression apparatus 105.
  • step S107 the image compression apparatus 105 performs an encoding process (image compression process). Although this encoding process will be described later with reference to FIG. 7, the encoding process is performed based on the compression control information by the process of step S ⁇ b> 107, and the image data after the image process is output to the wireless transmission device 106. Is done.
  • step S108 the wireless transmission device 106 receives the encoded data from the image compression device 105, and performs wireless transmission via the antenna 108.
  • step S111 the budget determination unit 111 performs a power generation amount classification process based on the power generation amount information from the power generation apparatus 101. That is, the budget determination unit 111 classifies whether the power generation amount is large or small from the power generation amount information from the power generation device 101 using a threshold value.
  • step S ⁇ b> 112 the budget determination unit 111 performs a storage amount classification process based on the battery remaining amount information of the power storage device 102. That is, the budget determination unit 111 classifies whether the remaining amount of the storage battery is high or low using the threshold value from the battery remaining amount information of the power storage device 102.
  • step S113 the budget determination unit 111 performs power budget determination, and classifies the power budget information into, for example, High / Middle / Low as shown in FIG.
  • FIG. 6 shows an example of power budget information.
  • the power budget is High.
  • the power budget is Middle. It is shown that.
  • the power budget is shown as Middle.
  • the power budget is low. Has been.
  • step S114 the budget determination unit 111 performs a communicable band classification determination process based on the communicable band information from the wireless transmission device 106. That is, the budget determination unit 111 classifies the communicable band information from the wireless transmission device 106 as having a large band or a small band by using a threshold or the like.
  • step S115 the budget determination unit 111 performs communication power budget determination, and classifies the power band budget information into, for example, six types shown in FIG.
  • FIG. 7 shows power band budget information.
  • the power band budget is indicated as H_H.
  • the power band budget is L_H.
  • the power band budget is H_M.
  • the power band budget is It is shown that it is L_M.
  • the power band budget is H_L. If the communicable band is small and the power budget is small, the power band budget is L_L. It is shown that there is.
  • the budget determination unit 111 supplies power / bandwidth budget information indicating this classification to the encoding control unit 112, and ends the budget determination process.
  • step S106 in FIG. 4 will be described with reference to the flowchart in FIG.
  • step S121 the encoding control unit 112 determines whether or not the band budget is large based on the power / band budget information from the budget determination unit 111.
  • step S151 when it is determined that the band budget is large (for example, in the case of six types and H_ *), the process proceeds to step S122.
  • step S122 the encoding control unit 112 sets the encoding method to be used to the JPEG method that is an intra encoding method. Note that other than JPEG such as Motion JPEG may be used as long as it is an intra coding system.
  • step S121 when it is determined that the band budget is small (for example, in the case of L_ * with six types of classification), the process proceeds to step S123.
  • step S123 the encoding control unit 112 sets the encoding method to be used to the H.264 method, which is an inter-predictable encoding method with a higher compression rate than intra.
  • the MPEG2, MPEG4, VP8, VP9, and H.265 formats may be used as long as they are inter-predictable encoding schemes.
  • step S124 the encoding control unit 112 determines whether or not the power budget is high in order to determine the number of reference planes used for inter prediction based on the power / bandwidth budget information from the budget determination unit 111. . If it is determined in step S124 that the power budget is high, the process proceeds to step S125. In step S125, the encoding control unit 112 sets two reference planes that can be used in inter prediction so that bidirectional prediction can be used.
  • step S124 If it is determined in step S124 that the power budget is not high, the process proceeds to step S126.
  • step S126 based on the power / bandwidth budget information from the budget determination unit 111, it is determined whether or not the power budget is Middle in order to determine the number of reference planes used for inter prediction.
  • step S126 If it is determined in step S126 that the power budget is Middle, the process proceeds to step S127.
  • step S127 the encoding control unit 112 sets one reference plane that can be used in inter prediction so that bidirectional prediction can be used.
  • step S126 If it is determined in step S126 that the power budget is not middle, that is, low, the process proceeds to step S128.
  • step S129 the encoding control unit 112 sets the target bit rate with a value less than or equal to the communicable band.
  • the image encoding method and encoding parameter mode calculated in this way are supplied to the image compression apparatus 105 as compression control information.
  • the image compression apparatus 105 performs an encoding process according to the compression control information.
  • variable-length encoding processing is performed using CABAC (Context-Adaptive Arithmetic Coding) and CAVLC (Context-Adaptive Variable Length Coding). You may make it switch between.
  • CABAC Context-Adaptive Arithmetic Coding
  • CAVLC Context-Adaptive Variable Length Coding
  • Image data from the image processing apparatus 104 is output to the screen rearrangement buffer 132 and stored.
  • step S131 of FIG. 9 the screen rearrangement buffer 132 (FIG. 3) of the image compression apparatus 105 rearranges the stored frame images in the display order in the order for encoding according to the GOP structure.
  • the screen rearrangement buffer 132 supplies the rearranged frame-unit images to the calculation unit 133, the intra prediction unit 146, and the motion prediction / compensation unit 147.
  • the intra prediction unit 146 performs intra prediction processing in the intra prediction mode in units of PUs. That is, the intra prediction unit 146 calculates cost function values for all intra prediction modes based on the image read from the screen rearrangement buffer 132 and the predicted image generated as a result of the intra prediction process. . Then, the intra prediction unit 146 determines the intra prediction mode that minimizes the cost function value as the optimal intra prediction mode. The intra prediction unit 146 supplies the predicted image generated in the optimal intra prediction mode and the corresponding cost function value to the predicted image selection unit 148.
  • the motion prediction / compensation unit 147 performs motion prediction / compensation processing in the inter prediction mode in units of PUs in step S133. Also, the motion prediction / compensation unit 147 calculates cost function values for all inter prediction modes based on the images and predicted images supplied from the screen rearrangement buffer 132, and the cost function values are minimized. The inter prediction mode is determined as the optimal inter prediction mode. Then, the motion prediction / compensation unit 147 supplies the cost function value of the optimal inter prediction mode and the corresponding prediction image to the prediction image selection unit 148. Note that if only the intra is H.265, the process of step S133 is omitted. That is, since unnecessary processing is not performed, there is an effect of reducing power consumption.
  • the search range of the motion vector, the accuracy of the motion vector, the number of reference planes, and the like are set and controlled as encoding control parameters by the encoding control unit 112, the control is performed according to the control. A prediction is made.
  • step S ⁇ b> 134 the predicted image selection unit 148 has a minimum cost function value of the optimal intra prediction mode and the optimal inter prediction mode based on the cost function values supplied from the intra prediction unit 146 and the motion prediction / compensation unit 147. Is determined as the optimum prediction mode. Then, the predicted image selection unit 148 supplies the predicted image in the optimal prediction mode to the calculation unit 133 and the addition unit 140.
  • step S135 the predicted image selection unit 148 determines whether or not the optimal prediction mode is the optimal inter prediction mode. When it is determined in step S135 that the optimal prediction mode is the optimal inter prediction mode, the predicted image selection unit 148 notifies the motion prediction / compensation unit 147 of selection of the predicted image generated in the optimal inter prediction mode.
  • step S136 the motion prediction / compensation unit 147 supplies the inter prediction mode information, the motion vector, and information specifying the reference image to the lossless encoding unit 136, and the process proceeds to step S138.
  • step S136 when it is determined in step S136 that the optimal prediction mode is not the optimal inter prediction mode, that is, when the optimal prediction mode is the optimal intra prediction mode, the predicted image selection unit 148 performs prediction generated in the optimal intra prediction mode.
  • the intra prediction unit 146 is notified of the image selection.
  • step S137 the intra prediction unit 146 supplies the intra prediction mode information to the lossless encoding unit 136, and the process proceeds to step S138.
  • step S138 the calculation unit 133 performs encoding by subtracting the predicted image supplied from the predicted image selection unit 148 from the image supplied from the screen rearrangement buffer 132.
  • the computing unit 133 outputs the image obtained as a result to the orthogonal transform unit 134 as residual information.
  • step S139 the orthogonal transform unit 134 performs orthogonal transform processing on the residual information in units of TUs.
  • the orthogonal transformation unit 134 supplies the orthogonal transformation processing result after the orthogonal transformation processing to the quantization unit 135.
  • step S140 the quantization unit 135 quantizes the orthogonal transformation processing result supplied from the orthogonal transformation unit 134.
  • the quantization unit 135 supplies the quantization value obtained as a result of the quantization to the lossless encoding unit 136 and the inverse quantization unit 138.
  • step S141 the inverse quantization unit 138 performs inverse quantization on the quantized value from the quantization unit 135.
  • the inverse quantization unit 138 supplies the orthogonal transform processing result obtained as a result of the dequantization to the inverse orthogonal transform unit 139.
  • step S142 the inverse orthogonal transform unit 139 performs an inverse orthogonal transform process on the orthogonal transform process result supplied from the inverse quantization unit 138 in units of TUs.
  • the inverse orthogonal transform unit 139 supplies residual information obtained as a result of the inverse orthogonal transform process to the addition unit 140.
  • step S143 the addition unit 140 adds the residual information supplied from the inverse orthogonal transform unit 139 and the prediction image supplied from the prediction image selection unit 148, and performs decoding.
  • the adder 140 supplies the decoded image to the filter 141 and the frame memory 144.
  • step S144 the filter 141 performs deblocking filter processing on the decoded image supplied from the addition unit 140.
  • step S145 the filter 141 performs an adaptive offset filter process on the image after the deblocking filter.
  • the filter 141 supplies the resulting image to the frame memory 144. Further, the filter 141 supplies the offset filter information to the lossless encoding unit 136 for each LCU.
  • the presence / absence of these filters is set and controlled as a coding control parameter by the coding control unit 112. Therefore, when the deblocking filter is not applied, the process of step S144 is omitted, and when the applied offset filter is not applied, the process of step S145 is omitted. Thereby, the power consumption concerning an encoding process is suppressed.
  • step S146 the frame memory 144 stores the image supplied from the filter 141 and the image supplied from the adding unit 140.
  • the image adjacent to the PU among the images not subjected to the filter processing accumulated in the frame memory 144 is supplied to the intra prediction unit 146 via the switch 145 as a peripheral image.
  • the filtered image stored in the frame memory 144 is output to the motion prediction / compensation unit 147 via the switch 145 as a reference image.
  • step S147 the lossless encoding unit 136 losslessly encodes intra prediction mode information, inter prediction mode information, information specifying a motion vector and a reference image, offset filter information, and the like as encoded information.
  • step S148 the lossless encoding unit 136 performs lossless encoding of the quantization value supplied from the quantization unit 135. Then, the lossless encoding unit 136 generates encoded data from the encoded information that has been losslessly encoded in the process of step S147 and the quantized value that has been losslessly encoded, and supplies the encoded data to the accumulation buffer 137.
  • step S149 the accumulation buffer 137 temporarily accumulates the encoded data supplied from the lossless encoding unit 136.
  • step S150 the rate control unit 149 controls the quantization operation rate of the quantization unit 135 based on the encoded data stored in the storage buffer 137 so that overflow or underflow does not occur. Then, the encoding process is terminated.
  • step S106 in FIG. 4 Next, another example of the encoding control process in step S106 in FIG. 4 will be described with reference to the flowchart in FIG.
  • step S161 the encoding control unit 112 determines whether or not the band budget is large based on the power / band budget information from the budget determination unit 111. If it is determined in step S161 that the band budget is large, the process proceeds to step S162. In step S162, the encoding control unit 112 sets the encoding method to be used only for H.264 intra pictures. In addition to the H.264 format, an intra-picture of an MPEG2, MPEG4, VP8, VP9, or H.265 format may be used as long as the intra-prediction encoding intra-picture is possible.
  • step S161 If it is determined in step S161 that the band budget is small, the process proceeds to step S163.
  • the encoding control unit 112 sets the encoding method to be used to the H.264 method that is an inter-predictable encoding method with a higher compression rate than the intra.
  • the MPEG2, MPEG4, VP8, VP9, and H.265 formats may be used as long as they are inter-predictable encoding schemes.
  • step S164 the encoding control unit 112 determines whether or not the power budget is high in order to determine the search range for motion prediction in inter prediction based on the power / bandwidth budget information from the budget determination unit 111. When it is determined in step S164 that the power budget is high, the process proceeds to step S165.
  • the encoding control unit 112 sets a large motion prediction search range in inter prediction in step S165, and uses a deblocking filter in step S166.
  • step S164 If it is determined in step S164 that the power budget is not high, the process proceeds to step S167.
  • step S167 based on the power / bandwidth budget information from the budget determination unit 111, it is determined whether or not the power budget is Middle in order to determine a motion prediction search range in inter prediction.
  • Step S167 when it is determined that the power budget is Middle, the process proceeds to Step S168.
  • step S168 the encoding control unit 112 sets the motion prediction search range in the inter prediction to a medium level, and uses the deblocking filter in step S169.
  • Step S167 when it is determined that the power budget is not Middle, that is, it is Low, the process proceeds to Step S170.
  • step S170 the encoding control unit 112 sets a search range for motion prediction in inter prediction to be small, and in step S171, does not use the deblocking filter. By doing in this way, the electric power used for an encoding process is suppressed.
  • step S172 the encoding control unit 112 sets the target bit rate with a value less than or equal to the communicable band.
  • the image encoding method and encoding parameter mode calculated in this way are supplied to the image compression apparatus 105 as compression control information.
  • the image compression apparatus 105 performs an encoding process according to the compression control information.
  • step S181 the encoding control unit 112 determines whether the band budget is large based on the power / band budget information from the budget determination unit 111. If it is determined in step S181 that the band budget is large, the process proceeds to step S182. In step S182, the encoding control unit 112 sets the encoding scheme to be used only for H.265 intra pictures.
  • step S183 the encoding control unit 112 determines whether or not the power budget is High based on the power / bandwidth budget information from the budget determination unit 111. When it is determined in step S183 that the power budget is high, the process proceeds to step S184.
  • the encoding control unit 112 uses a deblocking filter in step S184 and uses an adaptive offset filter in step S185.
  • step S183 If it is determined in step S183 that the power budget is not high, the process proceeds to step S186.
  • step S186 based on the power / bandwidth budget information from the budget determination unit 111, it is determined whether the power budget is Middle.
  • step S186 If it is determined in step S186 that the power budget is Middle, the process proceeds to step S187.
  • the encoding control unit 112 uses the deblocking filter in step S187, and makes the adaptive offset filter unused in step S188.
  • step S186 If it is determined in step S186 that the power budget is not middle, that is, low, the process proceeds to step S189.
  • the encoding control unit 112 disables the deblocking filter in step S189 and disables the deblocking filter in step S190. Thereby, the power consumption concerning an encoding process can be suppressed.
  • step S181 If it is determined in step S181 that the bandwidth budget is small, the process proceeds to step S191.
  • the encoding control unit 112 sets the encoding method to be used to the H.265 method, which is an inter-predictable encoding method with a higher compression rate than intra.
  • step S192 the encoding control unit 112 determines whether or not the power budget is High in order to determine a search range for motion prediction in inter prediction based on the power / bandwidth budget information from the budget determination unit 111.
  • the process proceeds to step S193.
  • step S193 the encoding control unit 112 sets a large motion prediction search range in inter prediction, uses a deblocking filter in step S194, and uses an adaptive offset filter in step S195. .
  • step S192 If it is determined in step S192 that the power budget is not high, the process proceeds to step S196.
  • step S196 based on the power / bandwidth budget information from the budget determination unit 111, it is determined whether or not the power budget is Middle in order to determine a search range for motion prediction in inter prediction.
  • step S196 If it is determined in step S196 that the power budget is Middle, the process proceeds to step S197.
  • step S197 the encoding control unit 112 sets the motion prediction search range in inter prediction to a medium level, uses a deblocking filter in step S198, and uses an adaptive offset filter in step S199 as unused. To do. As a result, the power consumption for the encoding process can be suppressed as compared with the case of high.
  • Step S196 when it is determined that the power budget is not Middle, that is, it is Low, the process proceeds to Step S200.
  • the encoding control unit 112 sets a search range for motion prediction in inter prediction to be small, disables the deblocking filter in step S201, and disables the adaptive offset filter in step S202. Thereby, the power consumption concerning an encoding process can be suppressed from the case of Middle.
  • step S185 After step S185, step S188, step S190, step S195, step S199, and S202, the process proceeds to step S203.
  • step S203 the encoding control unit 112 sets the target bit rate with a value equal to or less than the communicable band.
  • the image encoding method and encoding parameter mode calculated in this way are supplied to the image compression apparatus 105 as compression control information.
  • the image compression apparatus 105 performs an encoding process according to the compression control information.
  • the power budget is determined based only on the remaining amount information of the storage amount.
  • the power budget is determined only by the remaining amount of the storage battery or the primary battery.
  • step S105 of FIG. 4 As an example of such a budget determination process, another example of the budget determination process in step S105 of FIG. 4 will be described next with reference to the flowchart of FIG.
  • step S211 the budget determination unit 111 performs a storage amount classification process based on the remaining battery level information of the power storage device 102. That is, the budget determination unit 111 classifies whether the remaining amount of the storage battery is high or low using the threshold value from the battery remaining amount information of the power storage device 102.
  • step S212 the budget determination unit 111 performs power budget determination, and classifies the power budget information as, for example, High / Low.
  • FIG. 14 shows an example of power budget information.
  • the power budget when the remaining battery level is large, the power budget is indicated as high, and when the remaining battery level is low, the power budget is indicated as low. .
  • step S213 the budget determination unit 111 performs a communicable band classification determination process based on the communicable band information from the wireless transmission device 106. That is, the budget determination unit 111 classifies the communicable band information from the wireless transmission device 106 as having a large band or a small band by using a threshold or the like.
  • step S214 the budget determination unit 111 performs communication power budget determination, and classifies the power band budget information into, for example, four types as shown in FIG.
  • FIG. 15 shows an example of power band budget information.
  • the power band budget is indicated as H_H.
  • the power band budget is L_H.
  • the power band budget determination table if the communicable band is large and the power budget is low, the power band budget is indicated as H_L. If the communicable band is small and the power budget is small, It is indicated that the power band budget is L_L.
  • the budget determination unit 111 supplies power / bandwidth budget information indicating this classification to the encoding control unit 112, and ends the budget determination process.
  • step S106 in FIG. 4 when the budget determination process in FIG. 13 is performed will be described with reference to the flowchart in FIG.
  • step S241 the encoding control unit 112 determines whether or not the band budget is large based on the power / band budget information from the budget determination unit 111. If it is determined in step S241 that the band budget is large, the process proceeds to step S242. In step S242, the encoding control unit 112 sets the encoding method to be used only for H.265 intra pictures.
  • step S241 If it is determined in step S241 that the band budget is small, the process proceeds to step S243.
  • step S243 the encoding control unit 112 sets the encoding method to be used to the H.265 method, which is an inter-predictable encoding method with a higher compression rate than intra.
  • step S244 the encoding control unit 112 determines whether or not the power budget is High based on the power / bandwidth budget information from the budget determination unit 111. If it is determined in step S244 that the power budget is high, the process proceeds to step S245. In step S245, the encoding control unit 112 sets no PU size restriction.
  • step S244 If it is determined in step S244 that the power budget is not high, the process proceeds to step S246.
  • step S246 the encoding control unit 112 limits the PU size so that the PU size is 16 ⁇ 16 or more. As a result, it is possible to prevent the PU size from becoming finer, so that the power consumption of the encoding process can be reduced than in the case of High.
  • step S245, and S246, the process proceeds to step S247.
  • step S247 the encoding control unit 112 sets the target bit rate with a value less than or equal to the communicable band.
  • the image encoding method and encoding parameter mode calculated in this way are supplied to the image compression apparatus 105 as compression control information.
  • the image compression apparatus 105 performs an encoding process according to the compression control information.
  • the budget is determined by only the power budget or only the band budget.
  • the power is supplied from a wired power network as in the camera system 300 described later, but the data transmission is based on a wireless system or the power source is generated by a natural energy generator as in the camera system 400. Data transmission can be applied to a wired system or the like.
  • step S251 the budget determination unit 111 performs a power generation amount classification process based on the power generation amount information from the power generation apparatus 101. That is, the budget determination unit 111 classifies whether the power generation amount is large or small from the power generation amount information from the power generation device 101 using a threshold value.
  • step S ⁇ b> 252 the budget determination unit 111 performs a storage amount classification process based on the remaining battery information of the power storage device 102. That is, the budget determination unit 111 classifies whether the remaining amount of the storage battery is high or low using the threshold value from the battery remaining amount information of the power storage device 102.
  • step S253 the budget determination unit 111 performs power budget determination, and classifies the power budget information into, for example, High / Middle / Low. Then, the budget determination unit 111 supplies power budget information indicating this classification to the encoding control unit 112, and ends the budget determination process.
  • step S106 in FIG. 4 when the budget determination process in FIG. 17 is performed will be described with reference to the flowchart in FIG.
  • step S261 the encoding control unit 112 determines whether the power budget is High based on the power budget information from the budget determination unit 111. When it is determined in step S261 that the power budget is high, the process proceeds to step S262. In step S262, the encoding control unit 112 sets the encoding method to be used to H.265.
  • step S263 the encoding control unit 112 sets two reference planes that can be used in inter prediction so that bidirectional prediction can be used.
  • step S264 the encoding control unit 112 sets the range of motion search for inter prediction large, and in step S265, sets the precision of the motion vector searched for motion prediction to decimal precision (1/2 or 1/4). Then, the decimal precision vector can be used.
  • step S244 If it is determined in step S244 that the power budget is not high, the process proceeds to step S266.
  • step S266 based on the power budget information from the budget determination unit 111, it is determined whether the power budget is Middle.
  • step S267 the encoding control unit 112 sets the encoding method to be used to H.265, and in step S268, sets the reference plane that can be used for inter prediction to one so that bi-directional prediction can be used. To do.
  • step S269 the encoding control unit 112 sets the motion prediction search range in the inter prediction to be small, and in step S270, sets the precision of the motion vector to be searched for motion prediction to integer precision, and uses only the integer precision vector. Make it possible. Thereby, it is possible to suppress the power consumption for the encoding process compared to the case of high.
  • step S266 If it is determined in step S266 that the power budget is not middle, that is, low, the process proceeds to step S271.
  • step S271 the encoding control unit 112 sets the encoding method to JPEG. Thereby, it is possible to suppress the power consumption for the encoding process compared to the case of Middle.
  • step S272 the encoding control unit 112 sets the target bit rate with a value less than or equal to the communicable band.
  • the image encoding method and encoding parameter mode calculated in this way are supplied to the image compression apparatus 105 as compression control information.
  • the image compression apparatus 105 performs an encoding process according to the compression control information.
  • step S281 the budget determination unit 111 performs a communicable band classification budget determination process based on the communicable band information from the wireless transmission device 106. That is, the budget determination unit 111 classifies the communicable bandwidth information from the wireless transmission device 106 into High / Low as shown in FIG.
  • FIG. 20 shows an example of band budget information.
  • the bandwidth budget when the available bandwidth is large, it is indicated that the bandwidth budget is High, and when the available bandwidth is small, it is indicated that the bandwidth budget is Low.
  • the budget determination unit 111 supplies band budget information indicating this classification to the encoding control unit 112, and ends the budget determination process.
  • step S106 in FIG. 4 when the budget determination process in FIG. 19 is performed will be described with reference to the flowchart in FIG.
  • the encoding control unit 112 determines whether or not the band budget is large based on the band budget information from the budget determination unit 111. If it is determined in step S301 that the band budget is large, the process proceeds to step S302. In step S302, the encoding control unit 112 sets the encoding method to be used to the JPEG method that is an intra encoding method. Note that other than JPEG such as Motion JPEG may be used as long as it is an intra coding system.
  • step S301 if it is determined in step S301 that the bandwidth budget is small, the process proceeds to step S303.
  • the encoding control unit 112 sets the encoding method to be used to the H.265 method, which is an inter-predictable encoding method with a higher compression rate than intra.
  • the MPEG2, MPEG4, VP8, VP9, and H.264 systems may be used as long as they are inter-predictable encoding systems.
  • step S304 the encoding control unit 112 sets the target bit rate with a value less than or equal to the communicable band.
  • the encoding method and the encoding control parameter are changed (switched), and the compression rate is changed.
  • the encoded data can be reduced, and the power consumption can be reduced.
  • high-quality image data can be transferred stably for a long time.
  • high-quality image data can be transferred stably for a long time without lowering the resolution and update frequency of the image.
  • FIG. 22 is a block diagram illustrating another configuration example of the camera system to which the present technology is applied.
  • the camera system 200 is common to the camera system 100 of FIG. 1 in that it includes an imaging device 103, an image processing device 104, an image compression device 105, a wireless transmission device 106, and a budget determination / coding control unit 107.
  • the camera system 200 is different from the camera system 100 of FIG. 1 in that the power generation device 101 is removed and the power storage device 102 is replaced with a power storage device (primary battery) 201.
  • the power storage device (primary battery) 201 is configured by a storage battery or a primary battery, and supplies battery remaining amount information, which is information indicating the remaining battery amount, to the budget determination / encoding control unit 107.
  • the budget determination / encoding control unit 107 does not include a power generator using natural energy, and as described above with reference to FIG. 13, only the remaining battery power information from the power storage device (primary battery) 201 is used as the power. Determine your budget. Further, the encoding control process is performed as described above with reference to FIG.
  • FIG. 23 is a block diagram illustrating another configuration example of the camera system to which the present technology is applied.
  • the camera system 200 is common to the camera system 100 of FIG. 1 in that it includes an imaging device 103, an image processing device 104, an image compression device 105, a wireless transmission device 106, and a budget determination / coding control unit 107.
  • the camera system 200 is different from the camera system 100 of FIG. 1 in that the power generation device 101 is removed and the power storage device 102 is replaced with a power supply circuit 301.
  • the power supply circuit 301 inputs wired power and supplies power to the camera system 200.
  • the power supply circuit 301 does not supply the remaining battery level information, which is information indicating the remaining battery level, to the budget determination / encoding control unit 107.
  • the budget determination / encoding control unit 107 performs budget determination that is determined only by the communication budget. Also, as described above with reference to FIG. 20, the encoding control process is performed.
  • FIG. 24 is a block diagram illustrating another configuration example of the camera system to which the present technology is applied.
  • the camera system 300 includes the power generation device 101, the power storage device 102, the imaging device 103, the image processing device 104, the image compression device 105, and the budget determination / coding control unit 107 in common with the camera system 100 of FIG. ing.
  • the camera system 200 is different from the camera system 100 of FIG. 1 in that the wireless transmission device 106 is replaced with the transmission device 401.
  • the transmission device 401 receives the encoded data from the image compression device 105 and transmits it by wire via the antenna 108.
  • the transmission apparatus 401 does not supply the communicable band information to the budget determination / encoding control unit 107.
  • the budget determination / encoding control unit 107 performs the budget determination that is determined only by the power budget, as described above with reference to FIG. Also, as described above with reference to FIG. 22, the encoding control process is performed.
  • a camera system including at least one of the power generation device 101, the power storage device 102, and the wireless transmission device 106 has been described.
  • the present technology is not limited to an imaging device such as a camera system.
  • the present invention is also applied to an image processing apparatus or an information processing apparatus that includes at least one of an apparatus and a wireless transmission apparatus and performs an encoding process.
  • the present technology receives information from a power generation device, a power storage device, and a device including a wireless transmission device, performs only the above-described budget determination and encoding control processing, and transmits the encoding control information via the Internet. It can also be applied to servers such as cloud systems that transfer data.
  • the series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
  • FIG. 25 is a block diagram illustrating an example of a hardware configuration of a computer that executes the above-described series of processes using a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 605 is further connected to the bus 604.
  • An input unit 606, an output unit 607, a storage unit 608, a communication unit 609, and a drive 610 are connected to the input / output interface 605.
  • the input unit 606 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 607 includes a display, a speaker, and the like.
  • the storage unit 608 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 609 includes a network interface or the like.
  • the drive 610 drives a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 601 loads the program stored in the storage unit 608 to the RAM 603 via the input / output interface 605 and the bus 604 and executes the program, for example. Is performed.
  • the program executed by the computer (CPU 601) can be provided by being recorded on a removable medium 611 as a package medium, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 608 via the input / output interface 605 by attaching the removable medium 611 to the drive 610. Further, the program can be received by the communication unit 609 via a wired or wireless transmission medium and installed in the storage unit 608. In addition, the program can be installed in the ROM 602 or the storage unit 608 in advance.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
  • the present disclosure can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • this technique can also take the following structures.
  • An encoding unit that performs encoding processing of image data and generates encoded data;
  • An encoding control unit that controls the encoding process according to power information related to power;
  • An image encoding device comprising: a transmission unit that transmits encoded data generated by the encoding unit.
  • the power information includes at least one information of information indicating a generated power amount and remaining amount information of a stored battery.
  • the encoding control unit switches an encoding method used for the encoding process.
  • the encoding control unit switches the size of a motion prediction search range as the encoding control parameter.
  • Image encoding device When the inter prediction is applied, the encoding control unit switches the accuracy of a motion vector searched for motion prediction as the encoding control parameter. Any one of (5) to (8) The image encoding device described.
  • (11) The image encoding unit according to any one of (5) to (10), wherein the encoding control unit switches whether to apply at least one of a deblocking filter and an adaptive offset filter as the encoding control parameter. apparatus.
  • the encoding control unit switches the variable length encoding process between CABAC (Context-Adaptive Binary Arithmetic Coding) and CAVLC (Context-Adaptive Variable Length Coding) as the encoding control parameter.
  • the image encoding device according to any one of (11).
  • the image encoding device according to any one of (5) to (12), wherein the encoding control unit switches a lower limit of a prediction block size as the encoding control parameter.
  • the transmission unit transmits the encoded data generated by the encoding unit wirelessly,
  • An image encoding device is Encode image data, generate encoded data, Control the encoding process according to power information, An image encoding method for transmitting generated encoded data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 本開示は、画像データの転送を長時間安定して行うことができるようにする画像符号化装置および方法に関する。 バジェット判定部は、発電量情報、電池残量情報、および通信可能帯域情報を入力として、符号化処理制御のもととなる電力・帯域バジェット情報を生成し、生成した電力・帯域バジェット情報を符号化制御部に供給する。符号化制御部は、バジェット判定部からの電力・帯域バジェット情報から画像符号化方式や符号化パラメータ・モードを生成し、画像符号化方式や符号化パラメータ・モードが含まれる圧縮制御情報を、画像圧縮装置に供給する。本開示は、例えば、符号化を行うカメラシステムに適用することができる。

Description

画像符号化装置および方法
 本開示は画像符号化装置および方法に関し、特に、画像データの転送を長時間安定して行うことができるようにした画像符号化装置および方法に関する。
 どんな場所にでも設置できて、映像データを取得可能なIoT(Internet of Things)時代のカメラシステムとして、発電装置と無線通信部を備え、電力経路や有線の通信経路を必要としないカメラシステムが提案されている。
 例えば、特許文献1においては、発電装置と無線通信機能を備える撮像装置において平均発電量に応じて画像の撮影範囲、撮影頻度、圧縮率を変化させることで長期間にわたって撮影を継続可能な装置が提案されている。
特開2011-228884号公報
 しかしながら、この提案においては、撮影の継続と引き換えに、画像の範囲や撮影頻度、画質が低下してしまっていた。
 本開示は、このような状況に鑑みてなされたものであり、画像データの転送を長時間安定して行うことができるものである。
 本開示の一側面の画像符号化装置は、画像データの符号化処理を行い、符号化データを生成する符号化部と、電力に関する電力情報に応じて、前記符号化処理を制御する符号化制御部と、前記符号化部により生成された符号化データを伝送する伝送部とを備える。
 前記電力情報は、発電されている発電量を示す情報および蓄電されている電池の残量情報の少なくとも1つの情報を含むことができる。
 前記符号化制御部は、前記符号化処理に用いられる符号化方式を切り替えることができる。
 前記符号化制御部は、前記符号化処理に用いられる符号化方式のイントラ予測とインター予測を切り替えることができる。
 前記符号化制御部は、前記符号化処理に用いられる符号化制御パラメータを切り替えることができる。
 前記符号化制御部は、インター予測を適用している場合、前記符号化制御パラメータとして、片方向予測モードと両方向予測モードとを切り替えることができる。
 前記符号化制御部は、インター予測を適用している場合、前記符号化制御パラメータとして、参照面の数を切り替えることができる。
 前記符号化制御部は、インター予測を適用している場合、前記符号化制御パラメータとして、動き予測の探索範囲の大きさを切り替えることができる。
 前記符号化制御部は、前記符号化制御パラメータとして、デブロックフィルタの適用の有無を切り替えることができる。
 前記符号化制御部は、前記符号化制御パラメータとして、デブロックフィルタおよび適応オフセットフィルタの少なくとも1つの適用の有無を切り替えることができる。
 前記符号化制御部は、前記符号化制御パラメータとして、可変長符号化処理を、CABAC(Context-Adaptive Binary Arithmetic Coding)とCAVLC(Context-Adaptive Variable Length Coding)との間で切り替えることができる。
 前記符号化制御部は、前記符号化制御パラメータとして、予測ブロックサイズの下限を切り替えることができる。
 前記伝送部は、無線により前記符号化部により生成された符号化データを伝送し、前記符号化制御部は、前記伝送部による通信可能帯域を示す情報に応じて、前記符号化処理を制御することができる。
 本開示の一側面の画像符号化方法は、画像符号化装置が、画像データの符号化処理を行い、符号化データを生成し、電力に関する電力情報に応じて、前記符号化処理を制御し、生成された符号化データを伝送する。
  本開示の一側面においては、画像データの符号化処理が行われて、符号化データが生成され、電力に関する電力情報に応じて、前記符号化処理が制御される。そして、生成された符号化データが伝送される。
 なお、上述の画像符号化装置は、独立した画像処理装置であっても良いし、1つの画像符号化装置を構成している内部ブロックであってもよい。
 本開示の一側面によれば、画像を符号化することができる。特に、画像データの転送を長時間安定して行うことができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用するカメラシステムの構成例を示すブロック図である。 バジェット判定・符号化制御部の構成例を示すブロック図である。 画像圧縮装置の構成例を示すブロック図である。 カメラシステムの処理について説明するフローチャートである。 バジェット判定処理について説明するフローチャートである。 電力バジェット情報の例を示す図である。 電力帯域バジェット情報の例を示す図である。 符号化制御部の符号化制御処理について説明するフローチャートである。 画像圧縮装置の符号化処理を説明するフローチャートである。 画像圧縮装置の符号化処理を説明するフローチャートである。 符号化制御処理の他の例を説明するフローチャートである。 符号化制御処理のさらに他の例を説明するフローチャートである。 バジェット判定処理の他の例を説明するフローチャートである。 電力バジェット情報の例を示す図である。 電力帯域バジェット情報の例を示す図である。 図13のバジェット判定処理を行った場合の符号化制御処理について説明するフローチャートである。 バジェット判定処理のさらに他の例について説明するフローチャートである。 図17のバジェット判定処理を行った場合の符号化制御処理について説明するフローチャートである。 バジェット判定処理のさらに他の例について説明するフローチャートである。 帯域バジェット情報の例を示す図である。 図19のバジェット判定処理を行った場合の符号化制御処理について説明するフローチャートである。 本技術を適用するカメラシステムの他の構成例を示すブロック図である。 本技術を適用するカメラシステムの他の構成例を示すブロック図である。 本技術を適用するカメラシステムの他の構成例を示すブロック図である。 コンピュータのハードウエアの構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.第1の実施の形態(カメラシステム)
 2.第2の実施の形態(カメラシステム)
 3.第3の実施の形態(カメラシステム)
 4.第4の実施の形態(カメラシステム)
 5.第5の実施の形態(コンピュータ)
<1.第1の実施の形態>
(カメラシステムの構成例)
 図1は、本技術を適用するカメラシステムの構成例を示すブロック図である。
 カメラシステム100は、発電装置101、蓄電装置102、撮像装置103、画像処理装置104、画像圧縮装置105、無線伝送装置106、およびバジェット判定・符号化制御部107を含むように構成されている。
 発電装置101は、燃料や振動、光などの自然エネルギーから電力を生成する装置である。例えば、発電装置101は、太陽パネルや、振動から電力を生成する装置や、圧力から電力を生成する装置や、熱から電力を生成する装置や、電磁波から電力を発生する装置などであってもよい。
 発電装置101からの電力は、蓄電装置102に送信される。また、発電装置101は、発電量に関する情報である発電量情報を、バジェット判定・符号化制御部107に供給する。
 蓄電装置102は、発電装置101により発電された電力を蓄える。蓄電装置102は、電池残量を示す情報である電池残量情報を、バジェット判定・符号化制御部107に供給する。
 撮像装置103は、例えば、CMOS(Complementary Metal Oxide Semiconductor)固体撮像装置や、CCD(Charge Coupled Device)固体撮像装置、A/D変換装置などからなり、被写体を撮像することにより、画像データを取得する。撮像装置103は、取得した画像データを、画像処理装置104に出力する。
 画像処理装置104は、撮像装置103からの画像データに対して、画素の補正や色の補正、歪みの補正など、画像圧縮以外の画像処理を行い、画像処理後の画像データを、画像圧縮装置105に出力する。
 画像圧縮装置105は、バジェット判定・符号化制御部107からの圧縮制御情報を用いて、画像処理装置104からの画像データに対して、画像符号化アルゴリズムに基づいて、符号化処理(圧縮処理)を行う。画像符号化アルゴリズムとしては、例えば、JPEG、MPEG、H.246/AVC(以下、H.264と称する)、H.265/HEVC(High Efficiency Video Coding)(以下、H.265と称する)などが挙げられる。画像圧縮装置105は、符号化によりデータ量が削減されたデータを、無線伝送装置106に出力する。
 無線伝送装置106は、画像圧縮装置105からの符号化データを受け取り、アンテナ108を介して、無線で伝送を行う。また、無線伝送装置106は、通信可能帯域が記された通信可能帯域情報を、バジェット判定・符号化制御部107に供給する。
 バジェット判定・符号化制御部107は、発電装置101の発電量情報、蓄電装置102の電池残量情報、および無線伝送装置106の通信可能帯域情報を入力として、画像圧縮装置105の符号化処理制御のための情報を生成する。バジェット判定・符号化制御部107は、例えば、CPUやCPU上で動作するプログラムであってもよい。
 バジェット判定・符号化制御部107は、図2に示されるように、バジェット判定部111および符号化制御部112により構成される。バジェット判定部111は、発電量情報および電池残量情報を少なくとも1つ含む電力に関する電力情報、並びに通信可能帯域情報を入力として、符号化処理制御のもととなる電力・帯域バジェット情報を生成し、生成した電力・帯域バジェット情報を符号化制御部112に供給する。符号化制御部112は、バジェット判定部111からの電力・帯域バジェット情報から画像符号化方式や符号化パラメータ・モードを生成し、画像符号化方式や符号化パラメータ・モードが含まれる圧縮制御情報を、画像圧縮装置105に供給する。すなわち、符号化制御部112は、バジェット判定部111からの電力・帯域バジェット情報に応じて、画像圧縮装置105を制御し、画像符号化方式や符号化パラメータ・モードを切り替えさせる。
 (画像圧縮装置の構成例)
 図3は、画像圧縮装置の構成例を示すブロック図である。なお、図3の例においては、一例として、画像符号化方式がH.265である場合の例が示されている。
 MPEG2又はH.264などの旧来の画像符号化方式では、符号化処理は、マクロブロックと呼ばれる処理単位で実行される。マクロブロックは、16×16画素の均一なサイズを有するブロックである。これに対し、H.265では、符号化処理は、符号化単位(CU:Coding Unit)と呼ばれる処理単位で実行される。CUは、最大符号化単位(LCU:Largest Coding Unit)を再帰的に分割することにより形成される、可変的なサイズを有するブロックである。選択可能なCUの最大サイズは、64×64画素である。選択可能なCUの最小サイズは、8×8画素である。最小サイズのCUは、(SCU:Smallest Coding Unit)と呼ばれる。
 このように、可変的なサイズを有するCUが採用される結果、H.265では、画像の内容に応じて画質及び符号化効率を適応的に調整することが可能である。予測符号化のための予測処理は、予測単位(PU:Prediction Unit)と呼ばれる処理単位で実行される。PUは、CUをいくつかの分割パターンのうちの1つで分割することにより形成される。さらに、直交変換処理は、変換単位(TU:Transform Unit)と呼ばれる処理単位で実行される。TUは、CU又はPUをある深さまで分割することにより形成される。
 CUのブロック分割は、1つのブロックの4(=2×2)個のサブブロックへの分割を再帰的に繰り返すことにより行われ、結果として四分木(Quad-Tree)状のツリー構造が形成される。1つの四分木の全体をCTB(Coding Tree Block)といい、CTBに対応する論理的な単位をCTU(Coding Tree Unit)という。
 PUは、イントラ予測及びインター予測を含む予測処理の処理単位である。PUは、CUをいくつかの分割パターンのうちの1つで分割することにより形成される。TUは、直交変換処理の処理単位である。TUは、CU(イントラCUについては、CU内の各PU)をある深さまで分割することにより形成される。上述したCU、PU及びTUといったブロックを画像に設定するためにどのようなブロック分割を行うかは、典型的には、符号化効率を左右するコストの比較に基づいて決定される。このPUのサイズなどが符号化制御部112により符号化制御パラメータとして設定されて制御される。
 図3の例においては、画像圧縮装置105は、画面並べ替えバッファ132、演算部133、直交変換部134、量子化部135、可逆符号化部136、蓄積バッファ137、逆量子化部138、逆直交変換部139、および加算部140を有する。また、画像圧縮装置105は、フィルタ141、フレームメモリ144、スイッチ145、イントラ予測部146、動き予測・補償部147、予測画像選択部148、およびレート制御部149を有する。
 図3の画像圧縮装置105において、画像処理装置104からの画像データは、画面並べ替えバッファ132に出力されて記憶される。
 画面並べ替えバッファ132は、記憶した表示の順番のフレーム単位の画像を、GOP構造に応じて、符号化のための順番に並べ替える。画面並べ替えバッファ132は、並べ替え後の画像を、演算部133、イントラ予測部146、および動き予測・補償部147に出力する。
 演算部133は、画面並べ替えバッファ132から供給される画像から、予測画像選択部148から供給される予測画像を減算することにより符号化を行う。演算部133は、その結果得られる画像を、残差情報(差分)として直交変換部134に出力する。なお、予測画像選択部148から予測画像が供給されない場合、演算部133は、画面並べ替えバッファ132から読み出された画像をそのまま残差情報として直交変換部134に出力する。
 直交変換部134は、TU単位で、演算部133からの残差情報に対して直交変換処理を行う。直交変換部134は、直交変換処理後の直交変換処理結果を量子化部135に供給する。
 量子化部135は、直交変換部134から供給される直交変換処理結果を量子化する。量子化部135は、量子化の結果得られる量子化値を可逆符号化部136に供給する。
 可逆符号化部136は、最適イントラ予測モードを示す情報(以下、イントラ予測モード情報という)をイントラ予測部146から取得する。また、可逆符号化部136は、最適インター予測モードを示す情報(以下、インター予測モード情報という)、動きベクトル、参照画像を特定する情報などを動き予測・補償部147から取得する。また、可逆符号化部136は、フィルタ141からオフセットフィルタに関するオフセットフィルタ情報を取得する。
 可逆符号化部136は、量子化部135から供給される量子化値に対して、可変長符号化や算術符号化などの可逆符号化を行う。
 また、可逆符号化部136は、イントラ予測モード情報、または、インター予測モード情報、動きベクトル、および参照画像を特定する情報、並びにオフセットフィルタ情報などを、符号化に関する符号化情報として可逆符号化する。可逆符号化部136は、可逆符号化された符号化情報と量子化値を、符号化データとして蓄積バッファ137に供給し、蓄積させる。
 なお、可逆符号化された符号化情報は、可逆符号化された量子化値のヘッダ情報(例えばスライスヘッダ)とされてもよい。
 蓄積バッファ137は、可逆符号化部136から供給される符号化データを、一時的に記憶する。また、蓄積バッファ137は、記憶している符号化データを、符号化ストリームとして、無線伝送装置106に供給する。
 また、量子化部135より出力された量子化値は、逆量子化部138にも入力される。逆量子化部138は、量子化値を逆量子化する。逆量子化部138は、逆量化の結果得られる直交変換処理結果を逆直交変換部139に供給する。
 逆直交変換部139は、TU単位で、逆量子化部138から供給される直交変換処理結果に対して逆直交変換処理を行う。逆直交変換の方式としては、例えば、IDCT(逆離散コサイン変換)とIDST(逆離散サイン変換)がある。逆直交変換部139は、逆直交変換処理の結果得られる残差情報を加算部140に供給する。
 加算部140は、逆直交変換部139から供給される残差情報と、予測画像選択部148から供給される予測画像を加算し、復号を行う。加算部140は、復号された画像をフィルタ141とフレームメモリ144に供給する。
 フィルタ141は、加算部140から供給される復号された画像に対して、フィルタ処理を行う。具体的には、フィルタ141は、デブロックフィルタ処理と適応オフセットフィルタ(SAO(Sample adaptive offset))処理を順に行う。フィルタ141は、フィルタ処理後の符号化済みのピクチャをフレームメモリ144に供給する。また、フィルタ141は、行われた適応オフセットフィルタ処理の種類とオフセットを示す情報を、オフセットフィルタ情報として可逆符号化部136に供給する。これらのフィルタの有無などが符号化制御部112により符号化制御パラメータとして設定されて制御される。
 フレームメモリ144は、フィルタ141から供給される画像と、加算部140から供給される画像を蓄積する。フレームメモリ144に蓄積されたフィルタ処理が行われていない画像のうちのPU(Prediction Unit)に隣接する画像は、周辺画像としてスイッチ145を介してイントラ予測部146に供給される。一方、フレームメモリ144に蓄積されたフィルタ処理が行われた画像は、参照画像としてスイッチ145を介して動き予測・補償部147に出力される。
 イントラ予測部146は、PU単位で、フレームメモリ144からスイッチ145を介して読み出された周辺画像を用いて、候補となる全てのイントラ予測モードのイントラ予測処理を行う。
 また、イントラ予測部146は、画面並べ替えバッファ132から読み出された画像と、イントラ予測処理の結果生成される予測画像とに基づき、モードテーブル設定部50から供給される情報が示す使用可能であるイントラ予測モードに対してコスト関数値(詳細は後述する)を算出する。そして、イントラ予測部146は、コスト関数値が最小となるイントラ予測モードを、最適イントラ予測モードに決定する。
 ところで、H.264そしてH.265において、より高い符号化効率を達成するには、適切な予測モードの選択が重要である。
 かかる選択方式の例として、JM (Joint Model) と呼ばれるAVCの参照ソフトウエア (http://iphome.hhi.de/suehring/tml/index.htm において公開されている) に実装されている方法を挙げることが出来る。
 JMにおいては、以下に述べる、High Complexity Modeと、Low Complexity Modeの2通りのモード判定方法を選択することが可能である。どちらも、それぞれの予測モードModeに関するコスト関数値を算出し、これを最小にする予測モードを当該ブロック乃至マクロブロックに対する最適モードとして選択する。
 High Complexity Modeにおけるコスト関数は、以下の式(1)のように示される。
Figure JPOXMLDOC01-appb-I000001
 ここで、Ωは、当該ブロック乃至マクロブロックを符号化するための候補モードの全体集合、Dは、当該予測モードで符号化した場合の、復号画像と入力画像の差分エネルギーである。λは、量子化パラメータの関数として与えられるLagrange未定乗数である。Rは、直交変換係数を含んだ、当該モードで符号化した場合の総符号量である。
 つまり、High Complexity Modeでの符号化を行うには、上記パラメータD及びRを算出するため、全ての候補モードにより、一度、仮エンコード処理を行う必要があり、より高い演算量を要する。
 Low Complexity Modeにおけるコスト関数は、以下の式(2)のように示される。
Figure JPOXMLDOC01-appb-I000002
 ここで、Dは、High Complexity Modeの場合と異なり、予測画像と入力画像の差分エネルギーとなる。Qp2Quant(QP)は、量子化パラメータQpの関数として与えられ、HeaderBitは、直交変換係数を含まない、動きベクトルや、モードといった、Headerに属する情報に関する符号量である。
 すなわち、Low Complexity Modeにおいては、それぞれの候補モードに関して、予測処理を行う必要があるが、復号画像までは必要ないため、符号化処理まで行う必要はない。このため、High Complexity Modeより低い演算量での実現が可能である。
 イントラ予測部146は、最適イントラ予測モードで生成された予測画像、および、対応するコスト関数値を、予測画像選択部148に供給する。イントラ予測部146は、予測画像選択部148から最適イントラ予測モードで生成された予測画像の選択が通知された場合、イントラ予測モード情報を可逆符号化部136に供給する。なお、イントラ予測モードとはPUのサイズ、予測方向などを表すモードである。
 動き予測・補償部147は、インター予測モードの動き予測・補償処理を行う。具体的には、動き予測・補償部147は、画面並べ替えバッファ132から供給される画像と、フレームメモリ144からスイッチ145を介して読み出される参照画像に基づいて、インター予測モードの動きベクトルをPU単位で検出する。そして、動き予測・補償部147は、その動きベクトルに基づいてPU単位で参照画像に補償処理を施し、予測画像を生成する。例えば、この動きベクトルの探索範囲や、動きベクトルの精度、参照面の枚数などが符号化制御部112により符号化制御パラメータとして設定されて制御される。
 このとき、動き予測・補償部147は、画面並べ替えバッファ132から供給される画像と予測画像とに基づいて、すべてのインター予測モードに対してコスト関数値を算出し、コスト関数値が最小となるインター予測モードを最適インター予測モードに決定する。そして、動き予測・補償部147は、最適インター予測モードのコスト関数値と、対応する予測画像を予測画像選択部148に供給する。また、動き予測・補償部147は、予測画像選択部148から最適インター予測モードで生成された予測画像の選択が通知された場合、インター予測モード情報、対応する動きベクトル、参照画像を特定する情報などを可逆符号化部136に出力する。なお、インター予測モードとは、PUのサイズなどを表すモードである。
 予測画像選択部148は、イントラ予測部146および動き予測・補償部147から供給されるコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちの、対応するコスト関数値が小さい方を、最適予測モードに決定する。そして、予測画像選択部148は、最適予測モードの予測画像を、演算部133および加算部140に供給する。また、予測画像選択部148は、最適予測モードの予測画像の選択をイントラ予測部146または動き予測・補償部147に通知する。
 レート制御部149は、蓄積バッファ137に蓄積された符号化データに基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部135の量子化動作のレートを制御する。
 次に、図4のフローチャートを参照して、カメラシステム100の処理について説明する。
 ステップS101において、発電装置101は、発電し、電力を蓄電装置102に出力する。このとき、発電装置101は、発電量に関する情報である発電量情報を、バジェット判定・符号化制御部107に供給する。
 ステップS102において、蓄電装置102は、発電装置101により発電された電力を蓄える。蓄電装置102は、電池残量を示す情報である電池残量情報を、バジェット判定・符号化制御部107に供給する。
 ステップS103において、撮像装置103は、被写体を撮像し、撮像により得られた画像データを、画像処理装置104に出力する。ステップS104において、画像処理装置104は、撮像装置103からの画像データに対して、画素の補正や色の補正、歪みの補正など、画像圧縮以外の画像処理を行い、画像処理後の画像データを、画像圧縮装置105に出力する。
 ステップS105において、バジェット判定部111は、バジェット判定処理を行う。このバジェット判定処理は、図5を参照して後述されるが、ステップS105の処理により、いまの電力の状況と無線通信の状況が分類される。そして、分類された電力帯域バジェット情報が符号化制御部112に供給される。
 ステップS106において、符号化制御部112は、バジェット判定部111からの電力・帯域バジェット情報をもとに、符号化制御処理を行う。この符号化制御処理は、図6を参照して後述されるが、ステップS106の処理により、画像符号化方式や符号化パラメータ・モードが生成され、画像符号化方式や符号化パラメータ・モードが含まれる圧縮制御情報が、画像圧縮装置105に供給される。
 ステップS107において、画像圧縮装置105は、符号化処理(画像圧縮処理)を行う。この符号化処理は、図7を参照して後述されるが、ステップS107の処理により、圧縮制御情報に基づいて符号化処理が行われ、画像処理後の画像データが、無線伝送装置106に出力される。
 ステップS108において、無線伝送装置106は、画像圧縮装置105からの符号化データを受け取り、アンテナ108を介して、無線で伝送を行う。
 次に、図5を参照して、図4のステップS105のバジェット判定処理について説明する。
 ステップS111において、バジェット判定部111は、発電装置101からの発電量情報に基づいて、発電量分類処理を行う。すなわち、バジェット判定部111は、発電装置101からの発電量情報から、閾値を使って、発電量が多いか少ないかに分類する。
 ステップS112において、バジェット判定部111は、蓄電装置102の電池残量情報に基づいて、蓄電量分類処理を行う。すなわち、バジェット判定部111は、蓄電装置102の電池残量情報から、閾値を使って、蓄電池の残量が多いか少ないかに分類する。
 ステップS113において、バジェット判定部111は、電力バジェット判定を行い、電力バジェット情報を、図6に示されるように、例えば、High/Middle/Lowに分類する。
 図6は、電力バジェット情報の例を示している。図6の例においては、電池残量が大きくて、発電量が大きいと、電力バジェットが、Highであることが示され、電池残量が大きくて、発電量が小さいと、電力バジェットが、Middleであることが示されている。また、電池残量が小さくて、発電量が大きいと、電力バジェットが、Middleであることが示され、電池残量が小さくて、発電量が小さいと、電力バジェットが、Lowであることが示されている。
 ステップS114において、バジェット判定部111は、無線伝送装置106からの通信可能帯域情報に基づいて、通信可能帯域分類判定処理を行う。すなわち、バジェット判定部111は、無線伝送装置106からの通信可能帯域情報を、閾値などを利用して、帯域が多いか少ないかに分類する。
 ステップS115において、バジェット判定部111は、通信電力バジェット判定を行い、電力帯域バジェット情報を、例えば、図7に示される6種類に分類する。
 図7は、電力帯域バジェット情報を示している。図7の例においては、通信可能帯域が大きくて、電力バジェットがHighであると、電力帯域バジェットが、H_Hであることが示され、通信可能帯域が小さくて、電力バジェットがLowであると、電力帯域バジェットが、L_Hであることが示されている。また、通信可能帯域が大きくて、電力バジェットがMiddleであると、電力帯域バジェットが、H_Mであることが示され、通信可能帯域が小さくて、電力バジェットがMiddleであると、電力帯域バジェットが、L_Mであることが示されている。さらに、通信可能帯域が大きくて、電力バジェットがLowであると、電力帯域バジェットが、H_Lであることが示され、通信可能帯域が小さくて、電力バジェットが小さいと、電力帯域バジェットが、L_Lであることが示されている。
 そして、バジェット判定部111は、この分類を示す電力・帯域バジェット情報を符号化制御部112に供給し、バジェット判定処理を終了する。
 次に、図8のフローチャートを参照して、図4のステップS106の符号化制御処理について説明する。
 ステップS121において、符号化制御部112は、バジェット判定部111からの電力・帯域バジェット情報に基づいて、帯域バジェットが大きいか否かを判定する。ステップS151において、帯域バジェットが大きいと判定された場合(例えば、6種類の分類で、H_*の場合)、処理は、ステップS122に進む。ステップS122において、符号化制御部112は、使用する符号化方式を、イントラ符号化方式であるJPEG方式に設定する。なお、イントラ符号化方式であれば、MotionJPEGなどのJPEG以外でもよい。
 ステップS121において、帯域バジェットが小さいと判定された場合(例えば、6種類の分類で、L_*の場合)、処理は、ステップS123に進む。ステップS123において、符号化制御部112は、使用する符号化方式を、イントラより圧縮率の高いインター予測可能な符号化方式であるH.264方式に設定する。なお、インター予測可能な符号化方式であれば、H.264方式以外にも、MPEG2,MPEG4,VP8,VP9,H.265方式としてもよい。
 ステップS124において、符号化制御部112は、バジェット判定部111からの電力・帯域バジェット情報に基づいて、インター予測に使用する参照面の枚数を決定するため、電力バジェットがHighか否かを判定する。ステップS124において、電力バジェットがHighであると判定された場合、処理は、ステップS125に進む。ステップS125において、符号化制御部112は、インター予測で利用できる参照面を2枚に設定し、双方向予測を使用できるようにする。
 ステップS124において、電力バジェットがHighではないと判定された場合、処理は、ステップS126に進む。ステップS126において、バジェット判定部111からの電力・帯域バジェット情報に基づいて、インター予測に使用する参照面の枚数を決定するため、電力バジェットがMiddleか否かを判定する。
 ステップS126において、電力バジェットがMiddleであると判定された場合、処理は、ステップS127に進む。ステップS127において、符号化制御部112は、インター予測で利用できる参照面を1枚に設定し、双方向予測を使用できるようにする。
 ステップS126において、電力バジェットがMiddleではない、すなわち、Lowであると判定された場合、処理は、ステップS128に進む。ステップS128において、符号化制御部112は、インター予測で利用できる参照面を1枚に設定し、双方向予測は使用できないが、片方向予測を使用できるようにする。これにより、符号化処理における消費電力が抑えられる。
 ステップS122、ステップS125、S127、およびS128の後、処理は、ステップS129に進む。ステップS129において、符号化制御部112は、目標ビットレートを、通信可能帯域以下の値で設定する。
 このように算出された画像符号化方式や符号化パラメータ・モードは、圧縮制御情報として、画像圧縮装置105に供給される。そして、画像圧縮装置105においては、この圧縮制御情報に従った符号化処理が行われる。
 なお、H.264方式の場合、上述した切り替え処理に代えて(または、加えて)、可変長符号化処理を、CABAC(Context-Adaptive Binary Arithmetic Coding)とCAVLC(Context-Adaptive Variable Length Coding)との間で切り替えるようにしてもよい。CABACは、1bitずつ確率テーブルを更新しながら符号化・復号する必要があるため、並列化に向きにくい演算構造となっている。すなわちスループット(単位時間あたりの処理性能)を上げるためには高速で回路を動作させる必要がある。演算自体も複雑であり、電力もかかる。その代わり、符号化効率は、CAVLCよりも高い。
 一方、CAVLCは、テーブルルックアップ型の演算構造のため、並列化させやすく処理内容も比較的単純であり、低電力の処理になる。その代わり、符号化効率はCABACより劣る。以上のことから、電力バジェットがHigh(電力がたくさん使える=クロック周波数をあげてもよい)場合は、CABACを使って、そうではない場合は、CAVLCを使うように切り替えられる。
 (画像圧縮装置の処理の説明)
 図9および図10は、図1の画像圧縮装置105の符号化処理を説明するフローチャートである。なお、この符号化処理は、符号化制御部112からの圧縮制御情報に基づいて行われる。また、図9および図10においては、一例として、H.265符号化方式が行われる例について説明する。
 画像処理装置104からの画像データは、画面並べ替えバッファ132に出力されて記憶される。
 図9のステップS131において、画像圧縮装置105の画面並べ替えバッファ132(図3)は、記憶した表示の順番のフレームの画像を、GOP構造に応じて、符号化のための順番に並べ替える。画面並べ替えバッファ132は、並べ替え後のフレーム単位の画像を、演算部133、イントラ予測部146、および動き予測・補償部147に供給する。
 ステップS132において、イントラ予測部146は、PU単位で、イントラ予測モードのイントラ予測処理を行う。すなわち、イントラ予測部146は、画面並べ替えバッファ132から読み出された画像と、イントラ予測処理の結果生成される予測画像とに基づいて、すべてのイントラ予測モードに対してコスト関数値を算出する。そして、イントラ予測部146は、コスト関数値が最小となるイントラ予測モードを、最適イントラ予測モードに決定する。イントラ予測部146は、最適イントラ予測モードで生成された予測画像、および、対応するコスト関数値を、予測画像選択部148に供給する。
 また、動き予測・補償部147は、ステップS133においてPU単位で、インター予測モードの動き予測・補償処理を行う。また、動き予測・補償部147は、画面並べ替えバッファ132から供給される画像と予測画像とに基づいて、すべてのインター予測モードに対してコスト関数値を算出し、コスト関数値が最小となるインター予測モードを最適インター予測モードに決定する。そして、動き予測・補償部147は、最適インター予測モードのコスト関数値と、対応する予測画像を予測画像選択部148に供給する。なお、H.265でイントラのみとされている場合には、ステップS133の処理は省略される。すなわち、不必要な処理がなされないので、消費電力が抑えられる効果がある。また、ここで、この動きベクトルの探索範囲や、動きベクトルの精度、参照面の枚数などが符号化制御部112により符号化制御パラメータとして設定されて制御されている場合には、その制御に従ってインター予測が行われる。
 ステップS134において、予測画像選択部148は、イントラ予測部146および動き予測・補償部147から供給されるコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちのコスト関数値が最小となる方を、最適予測モードに決定する。そして、予測画像選択部148は、最適予測モードの予測画像を、演算部133および加算部140に供給する。
 ステップS135において、予測画像選択部148は、最適予測モードが最適インター予測モードであるかどうかを判定する。ステップS135で最適予測モードが最適インター予測モードであると判定された場合、予測画像選択部148は、最適インター予測モードで生成された予測画像の選択を動き予測・補償部147に通知する。
 そして、ステップS136において、動き予測・補償部147は、インター予測モード情報、動きベクトル、および参照画像を特定する情報を可逆符号化部136に供給し、処理をステップS138に進める。
 一方、ステップS136で最適予測モードが最適インター予測モードではないと判定された場合、即ち最適予測モードが最適イントラ予測モードである場合、予測画像選択部148は、最適イントラ予測モードで生成された予測画像の選択をイントラ予測部146に通知する。そして、ステップS137において、イントラ予測部146は、イントラ予測モード情報を可逆符号化部136に供給し、処理をステップS138に進める。
 ステップS138において、演算部133は、画面並べ替えバッファ132から供給される画像から、予測画像選択部148から供給される予測画像を減算することにより符号化を行う。演算部133は、その結果得られる画像を、残差情報として直交変換部134に出力する。
 ステップS139において、直交変換部134は、TU単位で、残差情報に対して直交変換処理を行う。直交変換部134は、直交変換処理後の直交変換処理結果を量子化部135に供給する。
 ステップS140において、量子化部135は、直交変換部134から供給される直交変換処理結果を量子化する。量子化部135は、量子化の結果得られる量子化値を可逆符号化部136と逆量子化部138に供給する。
 ステップS141において、逆量子化部138は、量子化部135からの量子化値に対して逆量子化を行う。逆量子化部138は、逆量化の結果得られる直交変換処理結果を逆直交変換部139に供給する。
 ステップS142において、逆直交変換部139は、TU単位で、逆量子化部138から供給される直交変換処理結果に対して逆直交変換処理を行う。逆直交変換部139は、逆直交変換処理の結果得られる残差情報を加算部140に供給する。
 ステップS143において、加算部140は、逆直交変換部139から供給される残差情報と、予測画像選択部148から供給される予測画像を加算し、復号を行う。加算部140は、復号された画像をフィルタ141とフレームメモリ144に供給する。
 ステップS144において、フィルタ141は、加算部140から供給される復号された画像に対して、デブロックフィルタ処理を行う。
 ステップS145において、フィルタ141は、デブロックフィルタ後の画像に対して、適応オフセットフィルタ処理を行う。フィルタ141は、その結果得られる画像をフレームメモリ144に供給する。また、フィルタ141は、LCUごとに、オフセットフィルタ情報を可逆符号化部136に供給する。これらのフィルタの有無などが符号化制御部112により符号化制御パラメータとして設定されて制御される。したがって、デブロックフィルタが適用されない場合、ステップS144の処理は省略され、適用オフセットフィルタが適用されない場合、ステップS145の処理が省略される。これにより、符号化処理にかかる消費電力が抑えられる。
 ステップS146において、フレームメモリ144は、フィルタ141から供給される画像と加算部140から供給される画像を蓄積する。フレームメモリ144に蓄積されたフィルタ処理が行われていない画像のうちのPUに隣接する画像は、周辺画像としてスイッチ145を介してイントラ予測部146に供給される。一方、フレームメモリ144に蓄積されたフィルタ処理が行われた画像は、参照画像としてスイッチ145を介して動き予測・補償部147に出力される。
 ステップS147において、可逆符号化部136は、イントラ予測モード情報、または、インター予測モード情報、動きベクトル、および参照画像を特定する情報、並びにオフセットフィルタ情報などを、符号化情報として可逆符号化する。
 ステップS148において、可逆符号化部136は、量子化部135から供給される量子化値を可逆符号化する。そして、可逆符号化部136は、ステップS147の処理で可逆符号化された符号化情報と可逆符号化された量子化値から、符号化データを生成し、蓄積バッファ137に供給する。
 ステップS149において、蓄積バッファ137は、可逆符号化部136から供給される符号化データを、一時的に蓄積する。
 ステップS150において、レート制御部149は、蓄積バッファ137に蓄積された符号化データに基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部135の量子化動作のレートを制御する。そして、符号化処理は終了される。
 なお、符号化制御処理については、様々なバリエーションが考えられる。
 次に、図11のフローチャートを参照して、図4のステップS106の符号化制御処理の他の例を説明する。
 ステップS161において、符号化制御部112は、バジェット判定部111からの電力・帯域バジェット情報に基づいて、帯域バジェットが大きいか否かを判定する。ステップS161において、帯域バジェットが大きいと判定された場合、処理は、ステップS162に進む。ステップS162において、符号化制御部112は、使用する符号化方式を、H.264のイントラピクチャのみに設定する。なお、インター予測可能な符号化方式のイントラピクチャであれば、H.264方式以外にも、MPEG2,MPEG4,VP8,VP9,H.265方式のイントラピクチャとしてもよい。
 ステップS161において、帯域バジェットが小さいと判定された場合、処理は、ステップS163に進む。ステップS163において、符号化制御部112は、使用する符号化方式を、イントラより圧縮率の高いインター予測可能な符号化方式であるH.264方式に設定する。なお、インター予測可能な符号化方式であれば、H.264方式以外にも、MPEG2,MPEG4,VP8,VP9,H.265方式としてもよい。
 ステップS164において、符号化制御部112は、バジェット判定部111からの電力・帯域バジェット情報に基づいて、インター予測における動き予測の探索範囲を決定するため、電力バジェットがHighか否かを判定する。ステップS164において、電力バジェットがHighであると判定された場合、処理は、ステップS165に進む。符号化制御部112は、ステップS165において、インター予測における動き予測の探索範囲を大きく設定し、ステップS166において、デブロックフィルタを使用するようにする。
 ステップS164において、電力バジェットがHighではないと判定された場合、処理は、ステップS167に進む。ステップS167において、バジェット判定部111からの電力・帯域バジェット情報に基づいて、インター予測における動き予測の探索範囲を決定するため、電力バジェットがMiddleか否かを判定する。
 ステップS167において、電力バジェットがMiddleであると判定された場合、処理は、ステップS168に進む。符号化制御部112は、ステップS168において、インター予測における動き予測の探索範囲を中程度に設定し、ステップS169において、デブロックフィルタを使用するようにする。
 ステップS167において、電力バジェットがMiddleではない、すなわち、Lowであると判定された場合、処理は、ステップS170に進む。符号化制御部112は、ステップS170において、インター予測における動き予測の探索範囲を小さく設定し、ステップS171において、デブロックフィルタを非使用とする。このようにすることで、符号化処理にかかる使用電力が抑えられる。
 ステップS162、ステップS166、ステップS169、およびS171の後、処理は、ステップS172に進む。ステップS172において、符号化制御部112は、目標ビットレートを、通信可能帯域以下の値で設定する。
 このように算出された画像符号化方式や符号化パラメータ・モードは、圧縮制御情報として、画像圧縮装置105に供給される。そして、画像圧縮装置105においては、この圧縮制御情報に従った符号化処理が行われる。
 次に、図12のフローチャートを参照して、図4のステップS106の符号化制御処理のさらに他の例を説明する。
 ステップS181において、符号化制御部112は、バジェット判定部111からの電力・帯域バジェット情報に基づいて、帯域バジェットが大きいか否かを判定する。ステップS181において、帯域バジェットが大きいと判定された場合、処理は、ステップS182に進む。ステップS182において、符号化制御部112は、使用する符号化方式を、H.265のイントラピクチャのみに設定する。
 ステップS183において、符号化制御部112は、バジェット判定部111からの電力・帯域バジェット情報に基づいて、電力バジェットがHighか否かを判定する。ステップS183において、電力バジェットがHighであると判定された場合、処理は、ステップS184に進む。符号化制御部112は、ステップS184において、デブロックフィルタを使用し、ステップS185において、適応オフセットフィルタを使用するようにする。
 ステップS183において、電力バジェットがHighではないと判定された場合、処理は、ステップS186に進む。ステップS186において、バジェット判定部111からの電力・帯域バジェット情報に基づいて、電力バジェットがMiddleか否かを判定する。
 ステップS186において、電力バジェットがMiddleであると判定された場合、処理は、ステップS187に進む。符号化制御部112は、ステップS187において、デブロックフィルタを使用し、ステップS188において、適応オフセットフィルタを未使用とするようにする。
 ステップS186において、電力バジェットがMiddleではない、すなわち、Lowであると判定された場合、処理は、ステップS189に進む。符号化制御部112は、ステップS189において、デブロックフィルタを未使用とし、ステップS190において、デブロックフィルタを非使用とする。これにより、符号化処理にかかる消費電力を抑えることができる。
 ステップS181において、帯域バジェットが小さいと判定された場合、処理は、ステップS191に進む。ステップS191において、符号化制御部112は、使用する符号化方式を、イントラより圧縮率の高いインター予測可能な符号化方式であるH.265方式に設定する。
 ステップS192において、符号化制御部112は、バジェット判定部111からの電力・帯域バジェット情報に基づいて、インター予測における動き予測の探索範囲を決定するため、電力バジェットがHighか否かを判定する。ステップS192において、電力バジェットがHighであると判定された場合、処理は、ステップS193に進む。符号化制御部112は、ステップS193において、インター予測における動き予測の探索範囲を大きく設定し、ステップS194において、デブロックフィルタを使用するようにし、ステップS195において、適応オフセットフィルタを使用するようにする。
 ステップS192において、電力バジェットがHighではないと判定された場合、処理は、ステップS196に進む。ステップS196において、バジェット判定部111からの電力・帯域バジェット情報に基づいて、インター予測における動き予測の探索範囲を決定するため、電力バジェットがMiddleか否かを判定する。
 ステップS196において、電力バジェットがMiddleであると判定された場合、処理は、ステップS197に進む。符号化制御部112は、ステップS197において、インター予測における動き予測の探索範囲を中程度に設定し、ステップS198において、デブロックフィルタを使用するようにし、ステップS199において、適応オフセットフィルタを未使用とする。これにより、highの場合より、符号化処理にかかる消費電力を抑えることができる。
 ステップS196において、電力バジェットがMiddleではない、すなわち、Lowであると判定された場合、処理は、ステップS200に進む。符号化制御部112は、ステップS200において、インター予測における動き予測の探索範囲を小さく設定し、ステップS201において、デブロックフィルタを非使用とし、ステップS202において、適応オフセットフィルタを非使用とする。これにより、Middleの場合より、符号化処理にかかる消費電力を抑えることができる。
 ステップS185、ステップS188、ステップS190、ステップS195、ステップS199、およびS202の後、処理は、ステップS203に進む。ステップS203において、符号化制御部112は、目標ビットレートを、通信可能帯域以下の値で設定する。
 このように算出された画像符号化方式や符号化パラメータ・モードは、圧縮制御情報として、画像圧縮装置105に供給される。そして、画像圧縮装置105においては、この圧縮制御情報に従った符号化処理が行われる。
 ここで、バジェット判定における他の判定例としては、電力バジェットを蓄電量の残量情報のみで判定する例も考えられる。例えば、後述するカメラシステム200のように、自然エネルギーによる発電装置を備えていなシステムにおいては、蓄電池もしくは一次電池の残量のみで電力バジェットを判定する。
 このようなバジェット判定処理の例として、次に、図13のフローチャートを参照して、図4のステップS105におけるバジェット判定処理の他の例について説明する。
 ステップS211において、バジェット判定部111は、蓄電装置102の電池残量情報に基づいて、蓄電量分類処理を行う。すなわち、バジェット判定部111は、蓄電装置102の電池残量情報から、閾値を使って、蓄電池の残量が多いか少ないかに分類する。
 ステップS212において、バジェット判定部111は、電力バジェット判定を行い、電力バジェット情報を、例えば、High /Lowに分類する。
 図14は、電力バジェット情報の例を示している。図14の例においては、電池残量が大きくいと、電力バジェットが、Highであることが示され、電池残量が小さいと、電力バジェットが、電力バジェットが、Lowであることが示されている。
 ステップS213において、バジェット判定部111は、無線伝送装置106からの通信可能帯域情報に基づいて、通信可能帯域分類判定処理を行う。すなわち、バジェット判定部111は、無線伝送装置106からの通信可能帯域情報を、閾値などを利用して、帯域が多いか少ないかに分類する。
 ステップS214において、バジェット判定部111は、通信電力バジェット判定を行い、電力帯域バジェット情報を、例えば、図15に示されるように4種類に分類する。
 図15は、電力帯域バジェット情報の例を示している。図15の例においては、通信可能帯域が大きくて、電力バジェットがHighであると、電力帯域バジェットが、H_Hであることが示され、通信可能帯域が小さくて、電力バジェットがLowであると、電力帯域バジェットが、L_Hであることが示されている。また、電力バジェット判定テーブルにおいては、通信可能帯域が大きくて、電力バジェットがLowであると、電力帯域バジェットが、H_Lであることが示され、通信可能帯域が小さくて、電力バジェットが小さいと、電力帯域バジェットが、L_Lであることが示されている。
 そして、バジェット判定部111は、この分類を示す電力・帯域バジェット情報を符号化制御部112に供給し、バジェット判定処理を終了する。
 次に、図16のフローチャートを参照して、図13のバジェット判定処理を行った場合の図4のステップS106の符号化制御処理について説明する。
 ステップS241において、符号化制御部112は、バジェット判定部111からの電力・帯域バジェット情報に基づいて、帯域バジェットが大きいか否かを判定する。ステップS241において、帯域バジェットが大きいと判定された場合、処理は、ステップS242に進む。ステップS242において、符号化制御部112は、使用する符号化方式を、H.265のイントラピクチャのみに設定する。
 ステップS241において、帯域バジェットが小さいと判定された場合、処理は、ステップS243に進む。ステップS243において、符号化制御部112は、使用する符号化方式を、イントラより圧縮率の高いインター予測可能な符号化方式であるH.265方式に設定する。
 ステップS244において、符号化制御部112は、バジェット判定部111からの電力・帯域バジェット情報に基づいて、電力バジェットがHighか否かを判定する。ステップS244において、電力バジェットがHighであると判定された場合、処理は、ステップS245に進む。符号化制御部112は、ステップS245において、PUサイズの制限をなしに設定する。
 ステップS244において、電力バジェットがHighではないと判定された場合、処理は、ステップS246に進む。符号化制御部112は、ステップS246において、PUサイズは16×16以上とするように、PUサイズの制限を加える。これにより、PUサイズが細かくなってしまうことを防ぐことができるので、Highの場合より符号化処理の消費電力が抑えられる。
 ステップS242、ステップS245、およびS246の後、処理は、ステップS247に進む。ステップS247において、符号化制御部112は、目標ビットレートを、通信可能帯域以下の値で設定する。
 このように算出された画像符号化方式や符号化パラメータ・モードは、圧縮制御情報として、画像圧縮装置105に供給される。そして、画像圧縮装置105においては、この圧縮制御情報に従った符号化処理が行われる。
 また、ここで、バジェット判定におけるさらに他の判定例としては、バジェットを、電力バジェットのみ、もしくは、帯域バジェットのみで判定する例も考えられる。例えば、後述するカメラシステム300のように、電源は、有線の電力網から供給されるが、データ伝送は無線のシステム、あるいは、カメラシステム400のように、電源は、自然エネルギーによる発電装置によるが、データ伝送は、有線のシステムなどに適用することができる。
 電力バジェットのみで判定するバジェット判定処理の例として、次に、図17のフローチャートを参照して、図4のステップS105におけるバジェット判定処理のさらに他の例について説明する。
 ステップS251において、バジェット判定部111は、発電装置101からの発電量情報に基づいて、発電量分類処理を行う。すなわち、バジェット判定部111は、発電装置101からの発電量情報から、閾値を使って、発電量が多いか少ないかに分類する。
 ステップS252において、バジェット判定部111は、蓄電装置102の電池残量情報に基づいて、蓄電量分類処理を行う。すなわち、バジェット判定部111は、蓄電装置102の電池残量情報から、閾値を使って、蓄電池の残量が多いか少ないかに分類する。
 ステップS253において、バジェット判定部111は、電力バジェット判定を行い、電力バジェット情報を、例えば、High/Middle/Lowに分類する。そして、バジェット判定部111は、この分類を示す電力バジェット情報を符号化制御部112に供給し、バジェット判定処理を終了する。
 次に、図18のフローチャートを参照して、図17のバジェット判定処理を行った場合の図4のステップS106の符号化制御処理について説明する。
 ステップS261において、符号化制御部112は、バジェット判定部111からの電力バジェット情報に基づいて、電力バジェットがHighであるか否かを判定する。ステップS261において、電力バジェットがHighであると判定された場合、処理は、ステップS262に進む。ステップS262において、符号化制御部112は、使用する符号化方式を、H.265に設定する。
 ステップS263において、符号化制御部112は、インター予測で利用できる参照面を2枚に設定し、双方向予測を使用できるようにする。
 符号化制御部112は、ステップS264において、インター予測の動き探索の範囲を大きく設定し、ステップS265において、動き予測で探索する動きベクトルの精度を小数精度(1/2もしくは1/4)に設定し、小数精度ベクトルを利用可能とする。
 ステップS244において、電力バジェットがHighではないと判定された場合、処理は、ステップS266に進む。ステップS266において、バジェット判定部111からの電力バジェット情報に基づいて、電力バジェットがMiddleか否かを判定する。
 ステップS266において、電力バジェットがMiddleであると判定された場合、処理は、ステップS267に進む。符号化制御部112は、ステップS267において、使用する符号化方式をH.265に設定し、ステップS268において、インター予測で利用できる参照面を1枚に設定し、双方向予測を使用できるようにする。符号化制御部112は、ステップS269において、インター予測における動き予測の探索範囲を小さく設定し、ステップS270において、動き予測で探索する動きベクトルの精度を整数精度に設定し、整数精度ベクトルのみを利用可能とする。これにより、highの場合より符号化処理にかかる消費電力を抑えることができる。
 ステップS266において、電力バジェットがMiddleではない、すなわち、Lowであると判定された場合、処理は、ステップS271に進む。符号化制御部112は、ステップS271において、符号化方式を、JPEGに設定する。これにより、Middleの場合より符号化処理にかかる消費電力を抑えることができる。
 ステップS265、ステップS270、およびS271の後、処理は、ステップS272に進む。ステップS272において、符号化制御部112は、目標ビットレートを、通信可能帯域以下の値で設定する。
 このように算出された画像符号化方式や符号化パラメータ・モードは、圧縮制御情報として、画像圧縮装置105に供給される。そして、画像圧縮装置105においては、この圧縮制御情報に従った符号化処理が行われる。
 通信バジェットのみで判定するバジェット判定処理の例として、次に、図19のフローチャートを参照して、図4のステップS105におけるバジェット判定処理のさらに他の例について説明する。
 ステップS281において、バジェット判定部111は、無線伝送装置106からの通信可能帯域情報に基づいて、通信可能帯域分類バジェット判定処理を行う。すなわち、バジェット判定部111は、無線伝送装置106からの通信可能帯域情報を、閾値などを利用して、図20に示されるように、High/Lowに分類する。
 図20は、帯域バジェット情報の例を示している。図20の例においては、使用可能帯域が大きい場合、帯域バジェットがHighであることが示され、使用可能帯域が小さい場合、帯域バジェットがLowであることが示されている。
 そして、バジェット判定部111は、この分類を示す帯域バジェット情報を符号化制御部112に供給し、バジェット判定処理を終了する。
 次に、図21のフローチャートを参照して、図19のバジェット判定処理を行った場合の図4のステップS106の符号化制御処理について説明する。
 符号化制御部112は、バジェット判定部111からの帯域バジェット情報に基づいて、帯域バジェットが大きいか否かを判定する。ステップS301において、帯域バジェットが大きいと判定された場合、処理は、ステップS302に進む。ステップS302において、符号化制御部112は、使用する符号化方式を、イントラ符号化方式であるJPEG方式に設定する。なお、イントラ符号化方式であれば、MotionJPEGなどのJPEG以外でもよい。
 一方、ステップS301において、帯域バジェットが小さいと判定された場合、処理は、ステップS303に進む。ステップS303において、符号化制御部112は、使用する符号化方式を、イントラより圧縮率の高いインター予測可能な符号化方式であるH.265方式に設定する。なお、インター予測可能な符号化方式であれば、H.265方式以外にも、MPEG2,MPEG4,VP8,VP9,H.264方式としてもよい。
 ステップS302、およびステップS303の後、処理は、ステップS304に進む。ステップS304において、符号化制御部112は、目標ビットレートを、通信可能帯域以下の値で設定する。
 以上のように、本技術によれば、使用可能な電力および通信可能帯域の少なくとも一方が変化するカメラシステムにおいて、符号化方式や符号化制御パラメータを変更して(切り替えて)、圧縮率を変更したり、符号化データを小さくしたり、消費電力を抑えることができる。これにより、長時間安定して高品位な画像データを転送することができる。また、画像の解像度や更新頻度を下げずに長時間安定して高品位な画像データを転送することができる。
<2.第2の実施の形態>
(カメラシステムの構成例)
 図22は、本技術を適用するカメラシステムの他の構成例を示すブロック図である。
 カメラシステム200は、撮像装置103、画像処理装置104、画像圧縮装置105、無線伝送装置106、およびバジェット判定・符号化制御部107を備える点は、図1のカメラシステム100と共通している。カメラシステム200は、発電装置101が除かれた点と、蓄電装置102が蓄電装置(一次電池)201と入れ替わった点が、図1のカメラシステム100と異なっている。
 すなわち、蓄電装置(一次電池)201は、蓄電池または一次電池で構成されており、電池残量を示す情報である電池残量情報を、バジェット判定・符号化制御部107に供給する。
 したがって、バジェット判定・符号化制御部107は、自然エネルギーによる発電装置を備えておらず、図13を参照して上述したように、蓄電装置(一次電池)201からの電池残量情報のみで電力バジェットを判定する。また、図16を参照して上述したように、符号化制御処理を行う。
 なお、それ以外の処理は、上述したカメラシステム100と同様の処理を行うので、その詳細な説明は省略される。
<3.第3の実施の形態>
(カメラシステムの構成例)
 図23は、本技術を適用するカメラシステムの他の構成例を示すブロック図である。
 カメラシステム200は、撮像装置103、画像処理装置104、画像圧縮装置105、無線伝送装置106、およびバジェット判定・符号化制御部107を備える点は、図1のカメラシステム100と共通している。カメラシステム200は、発電装置101が除かれた点と、蓄電装置102が電源回路301と入れ替わった点が、図1のカメラシステム100と異なっている。
 すなわち、電源回路301は、有線電力を入力し、電力をカメラシステム200に供給する。なお、電源回路301は、電池残量を示す情報である電池残量情報を、バジェット判定・符号化制御部107に供給しない。
 したがって、バジェット判定・符号化制御部107は、図19を参照して上述したように、通信バジェットのみで判定するバジェット判定を行う。また、図20を参照して上述したように、符号化制御処理を行う。
 なお、それ以外の処理は、上述したカメラシステム100と同様の処理を行うので、その詳細な説明は省略される。
<4.第4の実施の形態>
(カメラシステムの構成例)
 図24は、本技術を適用するカメラシステムの他の構成例を示すブロック図である。
 カメラシステム300は、発電装置101、蓄電装置102、撮像装置103、画像処理装置104、画像圧縮装置105、およびバジェット判定・符号化制御部107を備える点は、図1のカメラシステム100と共通している。カメラシステム200は、無線伝送装置106が伝送装置401と入れ替わった点が、図1のカメラシステム100と異なっている。
 すなわち、伝送装置401は、画像圧縮装置105からの符号化データを受け取り、アンテナ108を介して、有線で伝送を行う。なお、伝送装置401は、通信可能帯域情報を、バジェット判定・符号化制御部107に供給しない。
 したがって、バジェット判定・符号化制御部107は、図21を参照して上述したように、電力バジェットのみで判定するバジェット判定を行う。また、図22を参照して上述したように、符号化制御処理を行う。
 なお、それ以外の処理は、上述したカメラシステム100と同様の処理を行うので、その詳細な説明は省略される。
 上記説明においては、発電装置101、蓄電装置102、および無線伝送装置106を少なくとも1つ備えるカメラシステムの例を説明したが、本技術は、カメラシステムなどの撮像装置に限らず、発電装置や蓄電装置、および無線伝送装置の少なくとも1つを備え、符号化処理を行う画像処理装置や情報処理装置にも適用される。
 また、本技術は、発電装置や蓄電装置、および無線伝送装置を備えた装置から情報を受けて、上述したバジェット判定、符号化制御処理のみをまとめて行い、符号化制御情報を、インターネットを介して転送するようなクラウドシステムなどのサーバなどにも適用することができる。
<5.第5の実施の形態>
 (本開示を適用したコンピュータの説明)
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図25は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)601,ROM(Read Only Memory)602,RAM(Random Access Memory)603は、バス604により相互に接続されている。
 バス604には、さらに、入出力インタフェース605が接続されている。入出力インタフェース605には、入力部606、出力部607、記憶部608、通信部609、及びドライブ610が接続されている。
 入力部606は、キーボード、マウス、マイクロホンなどよりなる。出力部607は、ディスプレイ、スピーカなどよりなる。記憶部608は、ハードディスクや不揮発性のメモリなどよりなる。通信部609は、ネットワークインタフェースなどよりなる。ドライブ610は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
 以上のように構成されるコンピュータでは、CPU601が、例えば、記憶部608に記憶されているプログラムを、入出力インタフェース605及びバス604を介して、RAM603にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU601)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア611に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア611をドライブ610に装着することにより、入出力インタフェース605を介して、記憶部608にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部609で受信し、記憶部608にインストールすることができる。その他、プログラムは、ROM602や記憶部608に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本開示は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
  以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 なお、本技術は以下のような構成も取ることができる。
 (1) 画像データの符号化処理を行い、符号化データを生成する符号化部と、
 電力に関する電力情報に応じて、前記符号化処理を制御する符号化制御部と、
 前記符号化部により生成された符号化データを伝送する伝送部と
 を備える画像符号化装置。
 (2)  前記電力情報は、発電されている発電量を示す情報および蓄電されている電池の残量情報の少なくとも1つの情報を含む
 前記(1)に記載の画像符号化装置。
 (3) 前記符号化制御部は、前記符号化処理に用いられる符号化方式を切り替える
 前記(1)または(2)に記載の画像符号化装置。
 (4) 前記符号化制御部は、前記符号化処理に用いられる符号化方式のイントラ予測とインター予測を切り替える
 前記(1)乃至(3)のいずれかに記載の画像符号化装置。
 (5) 前記符号化制御部は、前記符号化処理に用いられる符号化制御パラメータを切り替える
 前記(1)乃至(4)のいずれかに記載の画像符号化装置。
 (6) 前記符号化制御部は、インター予測を適用している場合、前記符号化制御パラメータとして、片方向予測モードと両方向予測モードとを切り替える
 前記(5)に記載の画像符号化装置。
 (7) 前記符号化制御部は、インター予測を適用している場合、前記符号化制御パラメータとして、参照面の数を切り替える
 前記(5)または(6)に記載の画像符号化装置。
 (8) 前記符号化制御部は、インター予測を適用している場合、前記符号化制御パラメータとして、動き予測の探索範囲の大きさを切り替える
 前記(5)乃至(7)のいずれかに記載の画像符号化装置。
 (9) 前記符号化制御部は、インター予測を適用している場合、前記符号化制御パラメータとして、動き予測で探索される動きベクトルの精度を切り替える
 前記(5)乃至(8)のいずれかに記載の画像符号化装置。
(10) 前記符号化制御部は、前記符号化制御パラメータとして、デブロックフィルタの適用の有無を切り替える
 前記(5)乃至(9)のいずれかに記載の画像符号化装置。
 (11) 前記符号化制御部は、前記符号化制御パラメータとして、デブロックフィルタおよび適応オフセットフィルタの少なくとも1つの適用の有無を切り替える
 前記(5)乃至(10)のいずれかに記載の画像符号化装置。
 (12) 前記符号化制御部は、前記符号化制御パラメータとして、可変長符号化処理を、CABAC(Context-Adaptive Binary Arithmetic Coding)とCAVLC(Context-Adaptive Variable Length Coding)との間で切り替える
 前記(5)乃至(11)のいずれかに記載の画像符号化装置。
 (13) 前記符号化制御部は、前記符号化制御パラメータとして、予測ブロックサイズの下限を切り替える
 前記(5)乃至(12)のいずれかに記載の画像符号化装置。
 (14) 前記伝送部は、無線により前記符号化部により生成された符号化データを伝送し、
 前記符号化制御部は、前記伝送部による通信可能帯域を示す情報に応じて、前記符号化処理を制御する
 前記(1)乃至(13)のいずれかに記載の画像符号化装置。
 (15) 画像符号化装置が、
 画像データの符号化処理を行い、符号化データを生成し、
 電力情報に応じて、前記符号化処理を制御し、
 生成された符号化データを伝送する
 画像符号化方法。
 100 カメラシステム, 101 発電装置, 102 蓄電装置, 103 撮像装置, 104 画像処理装置, 105 画像圧縮装置, 106 無線伝送装置, 107 バジェット判定・符号化制御部, 111 バジェット判定部, 112 符号化制御部, 200 カメラシステム, 201 蓄電装置(一次蓄電), 300 カメラシステム, 301 電源回路, 400 カメラシステム, 401 伝送装置

Claims (15)

  1.  画像データの符号化処理を行い、符号化データを生成する符号化部と、
     電力に関する電力情報に応じて、前記符号化処理を制御する符号化制御部と、
     前記符号化部により生成された符号化データを伝送する伝送部と
     を備える画像符号化装置。
  2.  前記電力情報は、発電されている発電量を示す情報および蓄電されている電池の残量情報の少なくとも1つの情報を含む
     請求項1に記載の画像符号化装置。
  3.  前記符号化制御部は、前記符号化処理に用いられる符号化方式を切り替える
     請求項1に記載の画像符号化装置。
  4.  前記符号化制御部は、前記符号化処理に用いられる符号化方式のイントラ予測とインター予測を切り替える
     請求項3に記載の画像符号化装置。
  5.  前記符号化制御部は、前記符号化処理に用いられる符号化制御パラメータを切り替える
     請求項1に記載の画像符号化装置。
  6.  前記符号化制御部は、インター予測を適用している場合、前記符号化制御パラメータとして、片方向予測モードと両方向予測モードとを切り替える
     請求項5に記載の画像符号化装置。
  7.  前記符号化制御部は、インター予測を適用している場合、前記符号化制御パラメータとして、参照面の数を切り替える
     請求項5に記載の画像符号化装置。
  8.  前記符号化制御部は、インター予測を適用している場合、前記符号化制御パラメータとして、動き予測の探索範囲の大きさを切り替える
     請求項5に記載の画像符号化装置。
  9.  前記符号化制御部は、インター予測を適用している場合、前記符号化制御パラメータとして、動き予測で探索される動きベクトルの精度を切り替える
     請求項5に記載の画像符号化装置。
  10.  前記符号化制御部は、前記符号化制御パラメータとして、デブロックフィルタの適用の有無を切り替える
     請求項5に記載の画像符号化装置。
  11.  前記符号化制御部は、前記符号化制御パラメータとして、デブロックフィルタおよび適応オフセットフィルタの少なくとも1つの適用の有無を切り替える
     請求項5に記載の画像符号化装置。
  12.  前記符号化制御部は、前記符号化制御パラメータとして、可変長符号化処理を、CABAC(Context-Adaptive Binary Arithmetic Coding)とCAVLC(Context-Adaptive Variable Length Coding)との間で切り替える
     請求項5に記載の画像符号化装置。
  13.  前記符号化制御部は、前記符号化制御パラメータとして、予測ブロックサイズの下限を切り替える
     請求項5に記載の画像符号化装置。
  14.  前記伝送部は、無線により前記符号化部により生成された符号化データを伝送し、
     前記符号化制御部は、前記伝送部による通信可能帯域を示す情報に応じて、前記符号化処理を制御する
     請求項1に記載の画像符号化装置。
  15.  画像符号化装置が、
     画像データの符号化処理を行い、符号化データを生成し、
     電力情報に応じて、前記符号化処理を制御し、
     生成された符号化データを伝送する
     画像符号化方法。
PCT/JP2016/058266 2015-03-30 2016-03-16 画像符号化装置および方法 WO2016158401A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017509528A JPWO2016158401A1 (ja) 2015-03-30 2016-03-16 画像符号化装置および方法
US15/560,248 US20180054617A1 (en) 2015-03-30 2016-03-16 Image coding device and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-068152 2015-03-30
JP2015068152 2015-03-30

Publications (1)

Publication Number Publication Date
WO2016158401A1 true WO2016158401A1 (ja) 2016-10-06

Family

ID=57004492

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/058266 WO2016158401A1 (ja) 2015-03-30 2016-03-16 画像符号化装置および方法

Country Status (3)

Country Link
US (1) US20180054617A1 (ja)
JP (1) JPWO2016158401A1 (ja)
WO (1) WO2016158401A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018148465A (ja) * 2017-03-07 2018-09-20 株式会社リコー 情報処理装置、情報処理装置の制御方法、及びプログラム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996027987A1 (en) * 1995-03-08 1996-09-12 Hitachi, Ltd. Portable terminal for multimedia communication
JP2003199002A (ja) * 2001-12-27 2003-07-11 Sharp Corp 情報記録装置
WO2005076629A1 (ja) * 2004-02-09 2005-08-18 Sanyo Electric Co., Ltd 画像符号化装置及び方法、画像復号化装置及び方法、及び撮像装置
JP2006203724A (ja) * 2005-01-24 2006-08-03 Toshiba Corp 画像圧縮装置及び画像圧縮方法
JP2006270751A (ja) * 2005-03-25 2006-10-05 Casio Comput Co Ltd 動画記録装置および動画記録処理プログラム
JP2008078969A (ja) * 2006-09-21 2008-04-03 Victor Co Of Japan Ltd 動画像符号化記録装置
JP2008160402A (ja) * 2006-12-22 2008-07-10 Canon Inc 符号化装置及び方法並びに画像符号化装置
JP2009055560A (ja) * 2007-08-29 2009-03-12 Sony Ericsson Mobilecommunications Japan Inc 携帯機器および撮像画像データの記録方法
JP2014082639A (ja) * 2012-10-16 2014-05-08 Canon Inc 画像符号化装置およびその方法
JP2014116681A (ja) * 2012-12-06 2014-06-26 Nippon Hoso Kyokai <Nhk> データ伝送装置
JP2014236264A (ja) * 2013-05-31 2014-12-15 ソニー株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7804435B2 (en) * 2006-08-31 2010-09-28 Ati Technologies Ulc Video decoder with reduced power consumption and method thereof
US9001899B2 (en) * 2006-09-15 2015-04-07 Freescale Semiconductor, Inc. Video information processing system with selective chroma deblock filtering
KR101683291B1 (ko) * 2010-05-14 2016-12-06 엘지전자 주식회사 디스플레이 장치 및 그의 제어 방법
US20120195356A1 (en) * 2011-01-31 2012-08-02 Apple Inc. Resource usage control for real time video encoding
US20150181208A1 (en) * 2013-12-20 2015-06-25 Qualcomm Incorporated Thermal and power management with video coding

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996027987A1 (en) * 1995-03-08 1996-09-12 Hitachi, Ltd. Portable terminal for multimedia communication
JP2003199002A (ja) * 2001-12-27 2003-07-11 Sharp Corp 情報記録装置
WO2005076629A1 (ja) * 2004-02-09 2005-08-18 Sanyo Electric Co., Ltd 画像符号化装置及び方法、画像復号化装置及び方法、及び撮像装置
JP2006203724A (ja) * 2005-01-24 2006-08-03 Toshiba Corp 画像圧縮装置及び画像圧縮方法
JP2006270751A (ja) * 2005-03-25 2006-10-05 Casio Comput Co Ltd 動画記録装置および動画記録処理プログラム
JP2008078969A (ja) * 2006-09-21 2008-04-03 Victor Co Of Japan Ltd 動画像符号化記録装置
JP2008160402A (ja) * 2006-12-22 2008-07-10 Canon Inc 符号化装置及び方法並びに画像符号化装置
JP2009055560A (ja) * 2007-08-29 2009-03-12 Sony Ericsson Mobilecommunications Japan Inc 携帯機器および撮像画像データの記録方法
JP2014082639A (ja) * 2012-10-16 2014-05-08 Canon Inc 画像符号化装置およびその方法
JP2014116681A (ja) * 2012-12-06 2014-06-26 Nippon Hoso Kyokai <Nhk> データ伝送装置
JP2014236264A (ja) * 2013-05-31 2014-12-15 ソニー株式会社 画像処理装置、画像処理方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018148465A (ja) * 2017-03-07 2018-09-20 株式会社リコー 情報処理装置、情報処理装置の制御方法、及びプログラム

Also Published As

Publication number Publication date
US20180054617A1 (en) 2018-02-22
JPWO2016158401A1 (ja) 2018-01-25

Similar Documents

Publication Publication Date Title
CN109379512B (zh) 图像拾取元件、成像装置及成像方法
JP4937741B2 (ja) 映像符号化方法及び装置、映像復号方法及び装置、それらのプログラムおよびそれらプログラムを記録した記録媒体
US8331449B2 (en) Fast encoding method and system using adaptive intra prediction
KR20220008265A (ko) 비디오 코딩을 위한 제로-아웃 패턴들에 기초한 저 주파수 비 분리가능 변환 시그널링
AU2020235622B2 (en) Coefficient domain block differential pulse-code modulation in video coding
CN112913250B (zh) 编码器、解码器及对任意ctu尺寸使用ibc搜索范围优化的对应方法
US9571849B2 (en) Coding of residual data in predictive compression
WO2017165509A1 (en) Constrained block-level optimization and signaling for video coding tools
WO2011007719A1 (ja) 画像処理装置および方法
CN111355951B (zh) 视频解码方法、装置及解码设备
EP2777258A1 (en) Binarization of prediction residuals for lossless video coding
EP2661886A1 (en) Coding of residual data in predictive compression
WO2014087861A1 (ja) 画像処理装置、画像処理方法、およびプログラム
CN111385572B (zh) 预测模式确定方法、装置及编码设备和解码设备
CN109565596B (zh) 用于上下文自适应二进制算术编码的方法和装置
JP2023517467A (ja) ビデオ圧縮のための低複雑度適応量子化
KR101646072B1 (ko) 동영상 데이터 암호화 장치 및 방법
KR20140007097A (ko) 적응적 필터링을 이용하는 인트라 예측 방법 및 장치
JP6708211B2 (ja) 動画像符号化装置、動画像符号化方法および動画像符号化プログラムを記憶する記録媒体
WO2016158401A1 (ja) 画像符号化装置および方法
KR20140098893A (ko) 변환 계수의 분포에 기반한 예측 방법 및 장치
CN111901593B (zh) 一种图像划分方法、装置及设备
US20200280725A1 (en) Video data encoding
KR20210126940A (ko) 3차원 영상 생성을 위한 2차원 영상의 부호화 및 복호화 장치
RU2821012C2 (ru) Кодер, декодер и соответствующие способы для интра-предсказания

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16772284

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017509528

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15560248

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16772284

Country of ref document: EP

Kind code of ref document: A1