WO2011148573A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2011148573A1
WO2011148573A1 PCT/JP2011/002527 JP2011002527W WO2011148573A1 WO 2011148573 A1 WO2011148573 A1 WO 2011148573A1 JP 2011002527 W JP2011002527 W JP 2011002527W WO 2011148573 A1 WO2011148573 A1 WO 2011148573A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
pixel
unit
image
value
Prior art date
Application number
PCT/JP2011/002527
Other languages
English (en)
French (fr)
Inventor
憲太郎 高倉
中村 研史
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN201180012830.0A priority Critical patent/CN102812698B/zh
Priority to JP2012517110A priority patent/JP5793716B2/ja
Publication of WO2011148573A1 publication Critical patent/WO2011148573A1/ja
Priority to US13/612,102 priority patent/US8823832B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/212Motion video recording combined with still video recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/63Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Definitions

  • the present invention relates to an imaging device, and more particularly to an imaging device that performs fixed-length encoding of image data.
  • an imaging apparatus such as a digital still camera and a digital video camera
  • compression processing is performed when data that has undergone all image processing in an integrated circuit is recorded in an external recording device such as an SD card.
  • an encoding method such as JPEG (Joint Photographic Experts Group) or MPEG (Moving Picture Experts Group) is used.
  • Patent Document 1 discloses that image data compression processing is also applied to pixel signals (RAW data) input from an image sensor. Thereby, even when the number of pixels of the image sensor increases and the load of signal processing increases, this technology reduces the bus bandwidth necessary for writing to and reading from the memory and enables high-speed operation.
  • a fixed-length encoding method is employed to guarantee the bus bandwidth and reduce the amount of compression processing.
  • the maximum value and the minimum value are calculated from the pixel data of an arbitrary image region, the local dynamic range in the region is obtained, and the value obtained by subtracting the minimum value from all the pixels in the region is Quantization is performed with a quantization width corresponding to the dynamic range. Thereby, fixed-length encoding is performed.
  • the pixel data (RAW data) input from the image sensor is subdivided into unit blocks of a small area by fixed-length encoding means, and the average of the image data in the unit block is subdivided.
  • the value level is obtained and fixed-length encoded, and the exposure control means calculates the luminance level of the entire image data in the unit block based on the average value level, and takes an image so that the image data becomes a predetermined luminance level. Control the exposure of the device.
  • an average value per unit block of an image is separately calculated in addition to fixed-length encoded data obtained by compressing image data, and the exposure amount is controlled based on the average value.
  • the image pickup apparatus described in Patent Document 2 reads out the fixed-length encoded data from the memory and displays the image data after performing decompression processing in the same manner as in Patent Document 1, the image pickup apparatus described in Patent Document 1 Similarly, there is a problem that display responsiveness is lacking.
  • an object of the present invention is to provide an imaging device capable of improving display responsiveness.
  • an imaging device includes an imaging device that generates first image data in response to incident light, and first encoding the first image data by fixed-length encoding.
  • a compression unit that generates compressed data, a storage unit that stores the first compressed data, and a decompression that generates first partial decompressed data by decompressing only the first designated data that is part of the first compressed data
  • a signal processing unit that generates first partial correction image data by correcting the image quality of the first partial expansion data, and a display unit that displays the first partial correction image data.
  • the imaging apparatus decompresses only a part of the compressed data and displays the decompressed data. Accordingly, the imaging device according to one embodiment of the present invention can improve display responsiveness.
  • the decompressing unit generates the first partial decompressed data, and then decompresses all of the first compressed data stored in the storage unit to generate first overall decompressed data, and the signal processing The unit may generate first overall corrected image data by correcting the image quality of the first overall decompressed data.
  • the imaging apparatus can achieve both high-speed display and large-capacity data processing.
  • the compression unit compresses a plurality of pixel data included in the pixel data group to a fixed length for each pixel data group that is a part of the plurality of pixel data included in the first image data.
  • Compressed data is generated, and the first designation data may be a part of data included in each of the unit compressed data.
  • the imaging apparatus can display an image with reduced resolution at high speed with respect to the captured image data.
  • the compression unit calculates bit change information indicating a difference between a predicted value and pixel data of a pixel to be encoded, and calculates a fixed-length quantization value by quantizing the calculated bit change information.
  • the unit compressed data includes a reference pixel value that is pixel data used as the predicted value, the quantization value corresponding to the pixel data included in the pixel data group, and quantization information indicating the quantization condition
  • the first designation data may include the reference pixel value.
  • the reference pixel value is one pixel data included in the pixel data group
  • the unit compressed data is a pixel other than the reference pixel value and the one pixel data included in the pixel data group.
  • the quantization value corresponding to data and the quantization information may be included.
  • the imaging apparatus can display an image obtained by thinning out pixels from captured image data.
  • the compression unit may calculate an average value of a plurality of pixel data included in the pixel data group, and the reference pixel value may be the average value.
  • the imaging apparatus can display an image with reduced aliasing noise by using information from all the pixels in the pixel data group.
  • the pixel data group includes pixel data of a plurality of pixels arranged in succession, and the first designation data is the quantized value corresponding to pixels arranged at equal intervals from the reference pixel value. And may be included.
  • the imaging apparatus can display an image with reduced noise.
  • Each of the plurality of pixel data is one of pixel data of a plurality of colors
  • the unit compressed data includes the reference pixel value for each color
  • the first designation data is for each color
  • the compression unit calculates the bit change information using a reference pixel value of the same color as the encoding target pixel as the predicted value, and quantizes the calculated bit change information.
  • a fixed-length quantization value may be calculated.
  • the imaging apparatus can improve display responsiveness to a color image.
  • the first imaging element further generates second image data according to incident light
  • the compression unit further generates second compressed data by performing fixed length encoding on the second image data
  • the storage unit further stores the second compressed data
  • the decompression unit further decompresses the second partial decompressed data by decompressing only the second designated data that is a part of the second compressed data.
  • the signal processing unit further generates second partial correction image data by correcting the image quality of the second partial decompression data
  • the display unit further displays the second partial correction image data.
  • the decompression unit generates the first partial decompression data and the second partial decompression data, and then creates the first overall decompression data, and all the second compressed data stored in the storage unit. Stretch A second to generate an entire expanded data by the signal processing section further second may be generated across corrected image data by the image quality correcting the second overall decompressed data.
  • the imaging apparatus can improve display responsiveness during continuous shooting.
  • the imaging apparatus further calculates a luminance level of the first image data using the first partial decompression data, and an exposure amount of the imaging element so that the first image data becomes a predetermined luminance level. You may provide the exposure control part which controls.
  • the imaging apparatus can realize high-speed exposure control.
  • the imaging apparatus may further include a focus control unit that calculates a frequency characteristic of pixel data included in the first partial decompression data and performs focus control using the frequency characteristic.
  • the imaging apparatus can realize high-speed focus control.
  • the first image data may include light-shielded pixel data that is pixel data of a light-shielded pixel, and the compression unit may include a plurality of pixel data included in the pixel data group.
  • the first compressed data may be generated by calculating an average value of the plurality of shaded image data for each predetermined number of pixels and encoding the plurality of calculated average values in a fixed length.
  • the imaging apparatus can reduce the amount of compressed data while suppressing deterioration in image quality.
  • the first image data may include light-shielded pixel data that is pixel data of a light-shielded pixel, and the compression unit may include a plurality of pixel data included in the pixel data group. Calculating the maximum value or the minimum value of the plurality of light-shielded image data for each predetermined number of pixels, and generating the first compressed data by performing a fixed-length encoding of the plurality of calculated minimum values or maximum values. May be.
  • the imaging apparatus can reduce the amount of compressed data while suppressing deterioration in image quality.
  • the imaging apparatus further includes an AD conversion unit that converts the first image data generated by the imaging element into a digital signal, and the compression unit is converted into a digital signal by the AD conversion unit.
  • the first compressed data may be generated by compressing the first image data into a fixed-length code.
  • the present invention can be realized not only as such an image pickup apparatus but also as an image processing method using characteristic means included in the image pickup apparatus as steps, or causing a computer to execute such characteristic steps. It can also be realized as a program. Needless to say, such a program can be distributed via a recording medium such as a CD-ROM and a transmission medium such as the Internet.
  • the present invention can be realized as a semiconductor integrated circuit (LSI) that realizes part or all of the functions of such an imaging device, or can be realized as an imaging system including such an imaging device.
  • LSI semiconductor integrated circuit
  • the present invention can provide an imaging apparatus capable of improving display response.
  • FIG. 1 is a block diagram of an imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram illustrating an example of compression processing and each calculation result according to Embodiment 1 of the present invention.
  • FIG. 3 is a flowchart of the compression process according to Embodiment 1 of the present invention.
  • FIG. 4 is a diagram showing the number of effective bit digits, the quantization width, and the quantization information of the bit change information according to Embodiment 1 of the present invention.
  • FIG. 5A is a diagram showing an example of uncompressed data according to Embodiment 1 of the present invention.
  • FIG. 5B is a diagram showing an example of compressed packing data according to Embodiment 1 of the present invention.
  • FIG. 6A is a diagram showing an example of uncompressed data according to Embodiment 1 of the present invention.
  • FIG. 6B is a diagram showing an example of compressed packing data according to Embodiment 1 of the present invention.
  • FIG. 7 is a block diagram of the camera signal processing unit according to Embodiment 1 of the present invention.
  • FIG. 8 is a diagram illustrating processing timing by the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 9A is a diagram showing an example of uncompressed data according to Embodiment 1 of the present invention.
  • FIG. 9B is a diagram showing an example of compressed packing data according to Embodiment 1 of the present invention.
  • FIG. 10 is a diagram showing an example of compressed packing data according to Embodiment 1 of the present invention.
  • FIG. 10 is a diagram showing an example of compressed packing data according to Embodiment 1 of the present invention.
  • FIG. 11 is a diagram illustrating another example of the timing of processing performed by the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 12 is a block diagram of a modification of the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 13 is a block diagram of a camera signal processing unit according to Embodiment 2 of the present invention.
  • FIG. 14 is a flowchart of exposure control processing according to Embodiment 2 of the present invention.
  • FIG. 15 is a block diagram of a modification of the camera signal processing unit according to Embodiment 2 of the present invention.
  • FIG. 16 is a diagram showing an example of the integration region according to the second embodiment of the present invention.
  • FIG. 17 is a block diagram of a camera signal processing unit according to Embodiment 3 of the present invention.
  • FIG. 18 is a flowchart of focus control processing according to Embodiment 3 of the present invention.
  • FIG. 19 is a flowchart of compression processing according to Embodiment 4 of the present invention.
  • FIG. 20 is a diagram showing an example of a light shielding region according to Embodiment 4 of the present invention.
  • FIG. 21 is a diagram showing an example of compressed packing data according to Embodiment 4 of the present invention.
  • FIG. 22 is a block diagram of an imaging system according to Embodiment 5 of the present invention.
  • Embodiment 1 The imaging apparatus according to Embodiment 1 of the present invention decompresses only a part of the compressed data and displays the decompressed data. Accordingly, the imaging device according to one embodiment of the present invention can improve display responsiveness.
  • FIG. 1 is a block diagram showing a configuration of an imaging apparatus 50 according to Embodiment 1 of the present invention.
  • imaging processing function of the imaging apparatus is realized by hardware such as LSI (Large Scale Integration) or a program executed by a CPU (Central Processing Unit) or the like. The same applies to the following embodiments.
  • LSI Large Scale Integration
  • CPU Central Processing Unit
  • 1 includes an imaging unit 100, an image signal processing unit 101, a storage unit 102, and a recording storage unit 103.
  • the imaging unit 100 includes an imaging device 1, an AFE (Analog Front End) circuit 2, and a compression unit 3.
  • the image signal processing unit 101 includes an expansion unit 4, a camera signal processing unit 5, a resolution conversion unit 6, an image encoding unit 7, a video encoder 8, and a memory controller 9. Further, the expansion unit 4, the camera signal processing unit 5, the resolution conversion unit 6, the image encoding unit 7, the video encoder 8, and the memory controller 9 are connected to each other by an internal bus 10.
  • the image sensor 1 generates image data 21 according to the incident light.
  • the image sensor 1 is a solid-state image sensor such as a CCD (Charge Coupled Devices) or a CMOS (Complementary Metal Oxide Semiconductor) type image sensor.
  • the image sensor 1 generates image data 21 that is an analog signal by converting light incident from a subject through an unillustrated lens block into an electrical signal.
  • the AFE 2 generates image data 22 by performing signal processing such as noise removal, signal amplification, and A / D conversion on the image data 21 output from the image sensor 1.
  • the compression unit 3 generates compressed data 23 by performing fixed-length encoding on the image data 22 output from the AFE 2.
  • FIG. 2 is a diagram for explaining the processing of the compression unit 3 according to Embodiment 1 of the present invention.
  • FIG. 3 is a flowchart of the processing of the compression unit 3 according to Embodiment 1 of the present invention.
  • the image data 22 includes a plurality of pixel data 22A having a fixed bit width (N bits) corresponding to one pixel.
  • the compression unit 3 sequentially receives the pixel data 22A having the fixed bit width.
  • the bit width M of the quantized value 29 is 8 bits.
  • the compression unit 3 compresses a plurality of pieces of pixel data 22A (pixel data group) into compressed data 23 (hereinafter, compressed packing data 23A (unit compressed data)) obtained by packing the data into a fixed length of S bits.
  • the data is output to the processing unit 101.
  • the fixed bit S to be set is 64 bits. Note that the fixed bit width N, the bit width M of the quantized value, and the fixed bit S may be determined in advance, and are not limited to the examples shown here.
  • the code conversion performed in this embodiment is gray code conversion.
  • the reason why the pixel data is gray coded is that the bit change when expressing the approximate data can be suppressed and the compression rate can be increased.
  • an exclusive OR is performed on a bit string in which a decimal number is represented by a binary code with a bit adjacent to the upper bit in order from the lower bit. The method is taken.
  • FIG. 2 shows, as an example, seven pieces of pixel data 22A compressed into one compressed packing data 23A. Further, it is assumed that pixel data 22A corresponding to each pixel is input in the order of the pixels P1, P2,..., P7. The numerical values shown in the pixels P1 to P7 are signal levels indicated by the corresponding pixel data 22A. Note that the pixel data 22A corresponding to the pixel P1 has an initial pixel value 22B. Here, the initial pixel value 22B is the pixel data 22A that is input first among the pixel data 22A that is packed into one compressed packing data 23A of S bits.
  • the prediction value of the encoding target pixel is calculated using the pixel data 22A of the pixel adjacent to the left of the encoding target pixel as an example. That is, it is predicted that the pixel data 22A of the encoding target pixel is likely to be the same pixel data 22A (level) as the pixel input immediately before.
  • step S101 the compression unit 3 determines whether or not the input pixel data 22A is the initial pixel value 22B.
  • the compression unit 3 stores the received initial pixel value 22B in the internal buffer and transmits the initial pixel value 22B to the packing buffer. To do. And a process transfers to step S110 mentioned later.
  • step S102 if the input pixel data 22A is not the initial pixel value 22B (NO in S101), the process proceeds to step S102.
  • the compression unit 3 receives the pixel data 22A corresponding to the pixel P1, which has the initial pixel value 22B.
  • the compression unit 3 stores the initial pixel value 22B in an internal buffer and transmits the initial pixel value 22B to the packing buffer.
  • the compression unit 3 overwrites and stores the received pixel data 22A in the internal buffer.
  • the compression unit 3 receives pixel data 22A (encoding target pixel data) corresponding to the pixel P2. Further, it is assumed that the pixel data 22A to be encoded is “220”. In this case, since the received pixel data 22A is not the initial pixel value 22B (NO in S101), the compression unit 3 sets the pixel data 22A of the pixel P2 as a code conversion target.
  • the compression unit 3 uses the pixel data 22A one pixel before stored in the internal buffer as a predicted value (S102).
  • the predicted value is the value “300” of the pixel data 22A of the pixel P1.
  • step S103 the compression unit 3 generates a code 24 by performing gray code conversion processing on the encoding target pixel data and the predicted value.
  • the encoded pixel code “N” (“12”)-long gray code 24 is obtained by code conversion. “000010110010” and the predicted value code “000110111010” are calculated.
  • step S104 the compression unit 3 calculates bit change information 25 indicating a difference (change) between the encoded pixel code and the prediction value code. Specifically, the compression unit 3 calculates the bit change information 25 by calculating an exclusive OR of the encoded pixel code and the prediction value code. Here, the received encoded pixel code is “000010110010” and the predicted value code is “000110111010”. Therefore, the compression unit 3 calculates the bit change information 25 “000100001000” by calculating the exclusive OR of the encoded pixel code (“000010110010”) and the predicted value code (“000110111010”).
  • step S105 the compression unit 3 performs quantization width determination processing.
  • the compression unit 3 obtains the number of effective bit digits 26 of the bit change information 25, that is, a bit length necessary for expressing the bit change information 25.
  • the effective bit digit number 26 is the number of digits of the lower bits from the relevant bit including the bit first set to “1” when viewed from the upper bit side.
  • the bit change information 25 is “000100001000”.
  • the effective bit digit number 26 is 9 bits.
  • the compression unit 3 sets the quantization width 27 by subtracting the bit width M of the quantization value from the effective bit digit number 26.
  • the bit width M of the quantized value is “8”
  • the compression unit 3 increases the compression efficiency by determining the quantization width 27 for each group.
  • the group includes pixel data 22A having a predetermined number of pixels Pix_G.
  • the same group No. 30 is assigned to the pixel data 22A belonging to the same group.
  • step S106 If all the quantization widths 27 in the group have not been determined (NO in S106), the compression unit 3 proceeds to step S102, and executes the processing from step S102 to step S105 on the next received pixel data 22A. To do.
  • step S107 the compression unit 3 calculates the largest maximum quantization width 28 among the quantization widths 27 corresponding to the pixels having the number of pixels Pix_G in the group.
  • the quantization width 27 of the group No. 30 is “1” is “1”, “1”, “0”, the maximum quantization width 28 is “1”.
  • the maximum quantization width 28 calculated here is commonly used for all the pixels in the group.
  • the compression unit 3 generates quantization information 31 indicating the quantization condition. Specifically, the compression unit 3 generates Q-bit length quantization information 31 by encoding the maximum quantization width 28.
  • the bit length Q of the quantization information 31 is “2”.
  • FIG. 4 is a diagram illustrating a correspondence relationship between the number of effective bit digits 26 of the bit change information 25, the quantization width 27 (maximum quantization width 28), and the Q-bit quantization information 31.
  • the maximum quantization width 28 is “1”.
  • the quantization information 31 is “01” from FIG. Since the maximum quantization width 28 is zero or a positive number, when the effective bit digit number 26 is smaller than M (“8”), the quantization width 27 is set to “0”.
  • step S108 the compression unit 3 generates a quantized value 29 by performing a quantization process on the bit change information 25.
  • the compression unit 3 quantizes the bit change information 25 by bit-shifting the bit change information 25 downward by the number of the maximum quantization width 28.
  • the maximum quantization width 28 is “1”
  • the bit change information 25 is “000100001000”.
  • “00010000100” is calculated by bit-shifting “000100001000” downward by the number of the maximum quantization width 28 (“1”).
  • the compression unit 3 uses the quantized bit change information “10000100” from the least significant bit to the 8th bit as the quantized value 29 to the packing buffer. Send.
  • step S109 the compression unit 3 determines whether or not the quantization process has been completed for all the pixels having the number of pixels Pix_G in the group.
  • step S109 If all the quantization processes have not been completed (NO in S109), the compression unit 3 proceeds to step S108, and executes the process of step S108 on the next encoding target pixel data in the same group.
  • step S109 when all the quantization processing is completed (YES in step S109), the compression unit 3 proceeds to step S110.
  • step S110 the compression unit 3 performs processing for packing the generated data into predetermined S bits.
  • the compression unit 3 stores the initial pixel value 22B (P1) in the S-bit length packing buffer, and then sequentially stores the Q-bit length quantization information 31 and the quantization of the encoding target pixels P2 to P4.
  • the value 29 is stored in the packing buffer.
  • the compression unit 3 proceeds to step S111.
  • step S111 the compression unit 3 determines whether or not the compression process has been completed for the pixels having the number of pixels Pix packed into S bits.
  • the number of pixels Pix is calculated in advance by the following equation (1).
  • step S101 If the compression process has not been completed for the pixels with the number of pixels Pix (NO in S111), the compression unit 3 proceeds to step S101, and then executes the processes after step S101 on the pixel data 22A. In this case, the compression unit 3 performs the processing from step S101 on the pixels P5 to P7 and sequentially stores the generated data in the buffer memory.
  • the compression unit 3 outputs the compressed data 23 held in the buffer memory as the compressed packing data 23A in S bit units (S112). Then, the process proceeds to step S113.
  • step S113 the compression unit 3 determines whether the compression processing for one image (one screen) has been completed with the output compressed packing data 23A. When all the compression processes for one image are completed (YES in S113), the compression unit 3 ends the compression process. When all the compression processes for one image are not completed (NO in S113), the compression unit 3 Shifting to step S101, the process after step S101 is performed.
  • the code 24 of the encoding target pixels P2 to P6 the bit change information 25, the number of effective bit digits 26, the quantization width 27, and the 8-bit quantization value to be packed are calculated. 29 is shown in FIG.
  • FIG. 5A is a diagram showing an example of packed 64-bit data when the above compression processing is not performed.
  • FIG. 5B is a diagram showing an example of packed 64-bit compressed packing data 23A when the above compression processing is performed.
  • 64-bit data is composed of data for five pixels.
  • 7-pixel data can be included in the 64-bit compressed packing data 23A by performing compression processing as shown in FIG. 5B.
  • the encoded data corresponding to the pixel at a specific location in the image is easily specified. be able to. As a result, there is an advantage that random accessibility to encoded data can be maintained.
  • a predicted value may be generated from adjacent pixels having the same color component.
  • the pixel array of the encoding target pixel is Bayer array RAW data.
  • the RAW data can be divided into an R (red) component, a G (green) component, and a B (blue) component. Therefore, the compressing unit 3 may use the pixel adjacent to the left of the same color instead of the pixel adjacent to the encoding target pixel as the predicted value.
  • the quantization accuracy can be increased.
  • FIG. 6A is a diagram illustrating a relationship between pixels used as predicted values in RAW data with a Bayer array.
  • the pixel R2 uses the pixel data 22A of the pixel R1 of the same color immediately before (left adjacent) as the predicted value.
  • FIG. 6A is a diagram showing an example of data when the above compression processing is not performed on RAW data with a Bayer array.
  • FIG. 6B is a diagram illustrating a data example of the compressed packing data 23A when the above-described compression processing is performed on the Bayer array RAW data. 6A and 6B show the data amount for 14 pixels.
  • the compressed data 23 from the compression unit 3 is stored in the storage unit 102 via the internal bus 10 and the memory controller 9 and simultaneously sent to the expansion unit 4, and the expansion unit 4 performs the expansion process of the compressed data 23.
  • the decompressing unit 4 creates decompressed data 32 by decompressing the compressed data 23.
  • the camera signal processing unit 5 generates corrected image data 33 by performing predetermined image processing (image quality correction processing or the like) on the input decompressed data 32 (RAW data), and the generated corrected image data 33 is stored in the internal bus. 10 to the storage unit 102.
  • predetermined image processing image quality correction processing or the like
  • FIG. 7 is a block diagram showing the configuration of the camera signal processing unit 5.
  • the camera signal processing unit 5 includes a white balance processing circuit 721 (abbreviated as WB in the drawing), a luminance signal generation circuit 722, a color separation circuit 723, and an aperture correction process.
  • a circuit 724 (abbreviated as AP in the drawing) and a matrix processing circuit 725 are provided.
  • the white balance processing circuit 721 generates a correction signal 731 by correcting the color component by the color filter of the image sensor 1 at a correct ratio so that a white subject is photographed white under any light source.
  • the luminance signal generation circuit 722 generates a luminance signal 732 (Y signal) from the RAW data (correction signal 731).
  • the color separation circuit 723 generates a color difference signal 733 (Cr / Cb signal) from the RAW data (correction signal 731).
  • the aperture correction processing circuit 724 performs processing for adding a high frequency component to the luminance signal 732 generated by the luminance signal generation circuit 722 to make the resolution appear high.
  • the matrix processing circuit 725 performs adjustment of the spectral characteristics of the image sensor 1 and the hue balance that has been corrupted by image processing, with respect to the color difference signal 733 generated by the color separation circuit 723.
  • the resolution conversion unit 6 performs image enlargement and reduction processing.
  • the image encoding unit 7 generates image data by compressing and converting data stored in the storage unit 102 according to a predetermined standard such as JPEG, and outputs the generated image data to the recording storage unit 103.
  • the image signal processing unit 101 temporarily stores pixel data to be processed in a memory (storage unit 102) such as SDRAM, and performs predetermined image processing, YC signal generation, zoom processing, and the like on the temporarily stored data.
  • a memory such as SDRAM
  • the processed data is temporarily stored in the SDRAM again. Therefore, each processing unit is connected through the internal bus 10.
  • the video encoder 8 is a display unit that displays an enlarged or reduced image from the resolution conversion unit 6 on an LCD or a monitor.
  • FIG. 8 is a diagram showing the timing of each process in the present embodiment.
  • the imaging unit 100 performs the capturing process of the image data 22 of the screen A at the rising timing of the reference timing 60, and then generates the compressed data 23 by performing the compressing process on the captured image data 22. Furthermore, the imaging unit 100 stores the generated compressed data 23 in the storage unit 102 (S91).
  • the imaging unit 100 sends the compressed data 23 to the decompression unit 4.
  • the decompressing unit 4 decompresses only the designated data 40 that is a part of the compressed data 23 to generate partial decompressed data 32A.
  • the camera signal processing unit 5 performs camera signal processing (image quality correction processing) on the generated partial decompression data 32A to generate partial correction image data 33A, and the generated partial correction image data 33A is stored in the storage unit 102.
  • the designation data 40 is a part of data included in each of the compression packing data 23A. More specifically, for example, the designation data 40 is an initial pixel value 22B.
  • the resolution conversion unit 6 reads the partial correction image data 33A stored in the storage unit 102, generates the partial conversion image data 34A by performing zoom processing on the partial correction image data 33A, and generates the generated partial conversion.
  • the image data 34A is stored in the storage unit 102 (S93).
  • the video encoder 8 displays the partial conversion image data 34A stored in the storage unit 102 (S94).
  • the decompression unit 4 reads the compressed data 23 of the screen A from the storage unit 102 (S95), and performs the decompression process on all of the read compressed data 23 to perform the entire decompression. Data 32B is generated.
  • the camera signal processing unit 5 performs camera signal processing on the generated overall decompressed data 32B to generate overall corrected image data 33B, and sends the generated overall corrected image data 33B to the storage unit 102 (S96). .
  • the resolution conversion unit 6 reads the entire corrected image data 33B from the storage unit 102 after the zoom processing of the partial expansion data 32A is completed (S93). Then, the resolution conversion unit 6 performs resolution conversion processing on the read entire corrected image data 33B to generate the entire converted image data 34B, and stores the generated entire converted image data 34B in the storage unit 102 (S97).
  • the image encoding unit 7 generates encoded image data by encoding the entire converted image data 34B stored in the storage unit 102, and records the generated encoded image data in the recording storage unit 103. (S98).
  • the image size handled has increased.
  • NTSC National Television Broadcast Standardization Committee
  • the imaging apparatus 50 can display an image faster than the entire signal processing.
  • the part of the data included in the compressed packing data 23A may be specified data 40 related to an arbitrary number of predetermined specified pixels.
  • the plurality of pixel data 22A compressed into one compression packing data 23A is the pixel data 22A of a plurality of pixels arranged continuously, the designated pixels are arranged at equal intervals (for example, every other pixel). It may be a pixel.
  • the compression unit 3 may compress the pixel data 22A in the order shown in FIGS. 9A and 9B. That is, the compression unit 3 continuously compresses only the designated pixels first.
  • the decompression unit 4 only needs to decompress the designated data 40 corresponding to the first four pixels (R1, R3, R5, R7, G1, G3, G5, G7) of each color included in one compression packing data 23A. .
  • the number of pixels to be partially expanded increases, the amount of information to be expanded can be suppressed to information about 4/7 of the total expansion. This also makes it possible to obtain an image with further reduced noise.
  • the compression unit 3 calculates the average value 22C of the pixel data 22A included in the compressed packing data 23A, and uses the average value 22C instead of the initial pixel value 22B as a reference pixel value as a reference. May be used.
  • the decompression unit 4 may partially decompress the average value 22C that is the reference pixel value.
  • FIG. 11 shows an example in which the timing of each process in this embodiment is different.
  • the imaging unit 100 performs the capturing process of the image data 22 of the screen A at the rising timing of the reference timing 60, and then performs the compression process on the captured image data 22.
  • the compressed data 23 is generated.
  • the imaging unit 100 stores the generated compressed data 23 in the storage unit 102 (S91A).
  • Subsequent steps up to step S94A are the same as steps S91 to S94 shown in FIG.
  • similar processing S91B to S94B
  • S91C to S94C similar processing
  • the entire compressed data 23 is accumulated in the storage unit 102 until the above steps S91A to S94C are completed.
  • the processes from the entire expansion (S95) to the entire encoding (S98) are repeated for the recorded images. That is, the overall expansion (S95A) to overall encoding (S98A) for screen A, the overall expansion (S95B) to overall encoding (S98B) for screen B, and the overall expansion (S95C) to overall encoding (S98C) for screen C. It is done sequentially.
  • the imaging apparatus 50 according to Embodiment 1 of the present invention can display an image faster than the entire signal processing. Further, since data is stored in a compressed state in the storage unit 102 such as an SDRAM, the amount of data recorded in the storage unit 102 can be further reduced. In addition, a large amount of information can be stored in the storage unit 102.
  • FIG. 12 shows a different form of the first embodiment.
  • the compression unit 3 is included in the image signal processing unit 101A, not the imaging unit 100A.
  • a part of the image data 22 from the AFE circuit 2 is directly input to the camera signal processing unit 5.
  • the display data when the display data is generated, it can be directly processed without going through the decompression unit 4, so that it can be displayed more quickly.
  • FIG. 13 is a block diagram illustrating a configuration of the camera signal processing unit 5A according to the second embodiment.
  • the camera signal processing unit 5A shown in FIG. 13 newly includes an exposure control unit 741 in addition to the configuration of the camera signal processing unit 5 shown in FIG.
  • the exposure control unit 741 calculates the luminance level of the image data 22 using the partial extension data 32A, and controls the exposure amount (exposure amount) of the image sensor 1 so that the image data 22 has a predetermined luminance level.
  • FIG. 14 is a flowchart showing a procedure of exposure control processing by the imaging apparatus 50 according to the second embodiment.
  • step S201 the decompression unit 4 receives the compression packing data 23A from the compression unit 3.
  • step S202 the decompressing unit 4 determines whether each data included in the compressed packing data 23A is the initial pixel value 22B (designated data 40). If the initial pixel value is 22B (Yes in S202), the decompressing unit 4 proceeds to Step S203. If it is not the initial pixel value 22B (No in S202), the process returns to the next compression packing data acquisition step (S201) to acquire the next initial pixel value 22B.
  • step S203 the decompressing unit 4 decompresses only the initial pixel value 22B.
  • step S204 the expansion unit 4 transfers the expanded initial pixel value 22B to the camera signal processing unit 5A.
  • the exposure control unit 741 integrates the acquired initial pixel values 22B (S205).
  • step S201 to S204 are repeated until the exposure control unit 741 accumulates the initial pixel value 22B for one screen (S206).
  • the exposure control unit 741 determines whether or not the integrated value is higher than the upper limit luminance level (S207). Further, the exposure control unit 741 determines whether or not the integrated value is lower than the lower limit luminance level (S208). That is, the exposure control unit 741 determines whether or not the integrated value is within a predetermined luminance level range.
  • the exposure control unit 741 controls the exposure by controlling the image sensor 1 (S209).
  • the imaging apparatus 50 ends the exposure control process.
  • the imaging device 50 according to Embodiment 2 of the present invention can control the exposure amount at the same time as generating the display image.
  • the imaging device 50 may include an area selection unit 742 that selects an integration area 750 used for exposure control.
  • the region selection unit 742 selects the integration region 750 at the center of the screen shown in FIG.
  • the exposure control unit 741 integrates only the luminance value of the initial pixel value 22B included in the integration region 750 selected by the region selection unit 742, and performs the above-described exposure control according to the integrated value.
  • the imaging device 50 can adjust the exposure amount according to the brightness of only the integration region 750 at an arbitrary position in the image.
  • the reference pixel value may be an average value 22C of the pixel data 22A included in the compressed packing data 23A.
  • the imaging device 50 can control the exposure amount based on the average value 22C of the entire packing data.
  • the designated data 40 may include a plurality of designated pixels.
  • the compressed packing data 23A includes a plurality of designated pixel values as shown in FIG. 9B.
  • FIG. 17 is a block diagram illustrating a configuration of the camera signal processing unit 5C according to the third embodiment.
  • the camera signal processing unit 5C illustrated in FIG. 17 newly includes a focus control unit 743 in addition to the configuration of the camera signal processing unit 5 illustrated in FIG.
  • the focus control unit 743 calculates the frequency characteristics of the pixel data 22A included in the partial expansion data 32A, and performs focus control using the frequency characteristics.
  • FIG. 18 is a flowchart illustrating a procedure of focus control processing by the imaging apparatus 50 according to the third embodiment.
  • step S301 the decompression unit 4 receives the compression packing data 23A from the compression unit 3.
  • step S302 the decompressing unit 4 determines whether each data included in the compressed packing data 23A is a designated pixel value.
  • the decompression unit 4 performs decompression processing on the designated pixel value in step S303.
  • the process returns to the next compression packing data obtaining step (S301) to obtain the next designated pixel value.
  • step S304 the decompressing unit 4 determines whether or not an arbitrary number of designated pixel values have been acquired in the compressed packing data 23A. When an arbitrary number of designated pixel values have been acquired (Yes in S304), the decompression unit 4 proceeds to S305. If an arbitrary number of designated pixel values have not been acquired (No in S304), the decompressing unit 4 returns to Step S302 and decompresses the designated pixel value at the next position.
  • step S305 the decompression unit 4 transfers the decompressed pixel data to the camera signal processing unit 5C.
  • the camera signal processing unit 5C converts the acquired pixel data into frequency components using, for example, orthogonal transformation (S306). Further, the processes in steps S301 to S306 are repeated until the frequency components for one screen are integrated (S307).
  • the focus control unit 743 determines whether or not the integrated value is lower than a predetermined level (S308). When the level is lower than the predetermined frequency component level, the focus control unit 743 controls the focus by controlling the lens position of the image sensor 1 (S309).
  • the imaging device 50 ends the focus control process.
  • the imaging apparatus 50 can control the focus at the same time as generating the display image.
  • the camera signal processing unit 5C may include an area selection unit 742 for selecting an integration area to be used, similarly to the camera signal processing unit 5A shown in FIG. In this case, luminance values based on designated pixel values at arbitrary positions in the image shown in FIG. 16 are integrated, and for example, focus adjustment only at the center of the screen becomes possible.
  • the data expanded by the expansion unit 4 may be the initial pixel value 22B or the average value 22C.
  • FIG. 19 shows a processing procedure of the imaging apparatus 50 according to the fourth embodiment.
  • the compression unit 3 determines whether the encoding target pixel is a pixel in a light-shielded area.
  • a general imaging apparatus in order to determine the black level of an image, as shown in FIG.
  • the imaging device 50 calculates the average value of the light-shielded pixel data 22D, which is the pixel data 22A of the pixels included in the light-shielded region 751, as a black level, and subtracts the black level from the pixel data 22A of the actual imaged region.
  • the level of each pixel is adjusted. Therefore, the necessary data for the light-shielding region 751 may be an average value instead of each pixel level.
  • the compression unit 3 When the encoding target pixel data is not the light-shielded pixel data 22D (NO in S401), the compression unit 3 performs the same processing as that of the first embodiment shown in FIG. 3 (S415).
  • step S402 the compression unit 3 calculates an average value of the light-shielded pixel data 22D of N pixels. In the example illustrated in FIG. 21, the compression unit 3 calculates the average value of the light-shielded pixel data 22D of four pixels.
  • the compression unit 3 generates the compressed data 23 by performing a fixed-length encoding on a plurality of calculated average values.
  • steps S403 to S414 is the same as the processing in the case where the encoding target is replaced with the average value of N pixels from the pixel data 22A with respect to steps S102 to S113 shown in FIG. Description of is omitted.
  • the initial average value 22E shown in FIG. 21 is the average value of the pixels P1 to P4.
  • the decompression unit 4 creates the partial decompression data 32A by decompressing only the initial average value 22E.
  • the quantized average value 29A is, for example, an average quantized value of four pixels P5 to P8.
  • the imaging device 50 according to Embodiment 4 of the present invention calculates an average value for the pixel data 22A of the light shielding region 751, and then compresses the average value. As a result, the imaging apparatus 50 according to Embodiment 4 of the present invention can reduce the amount of data for the light shielding region 751.
  • the compression unit 3 compresses the average value for the light shielding region 751, but the compression unit 3 calculates at least one of the maximum value and the minimum value of the pixel data 22A for each N pixel. Then, the compressed data 23 may be generated by performing fixed length encoding on at least one of the plurality of calculated minimum and maximum values.
  • FIG. 22 is a block diagram showing a configuration of an imaging system 500 (for example, a digital still camera (DSC)) according to Embodiment 5 of the present invention.
  • an imaging system 500 for example, a digital still camera (DSC)
  • An imaging system 500 illustrated in FIG. 22 includes an optical system 501, an image sensor 502, an analog / digital converter (ADC) 503, an image processing circuit 504, a recording / transferring circuit 506, a system control circuit 507, and timing control.
  • a circuit 508 and a reproduction circuit 509 are provided.
  • the image sensor 502 corresponds to the image sensor 1 shown in FIG. 1
  • the ADC 503 corresponds to the AFE circuit 2
  • the image processing circuit 504 corresponds to the image signal processing unit 101
  • the recording / transfer circuit 506 corresponds to the recording / storing unit. 103.
  • the entire imaging system 500 is controlled by a system control circuit 507.
  • the subject image incident through the optical system 501 is formed on the image sensor 502.
  • the image sensor 502 is driven by the timing control circuit 508 to accumulate optical data of the formed subject image and photoelectrically convert it into an electrical signal.
  • the electrical signal read from the image sensor 502 is converted into a digital signal by the analog / digital converter 503 and then input to the image processing circuit 504.
  • the image processing circuit 504 performs image processing such as expansion processing, camera signal processing, Y / C processing, edge processing, image enlargement / reduction, and image compression / expansion processing using the present invention.
  • the image-processed signal is recorded on a medium or transferred to a network in a recording / transfer circuit 506.
  • the recorded or transferred signal is reproduced by the reproduction circuit 509.
  • image processing in the image processing circuit 504 according to the embodiment of the present invention is not necessarily applied only to a signal based on a subject image formed on the image sensor 502 via the optical system 501, for example, an external device
  • the present invention can also be applied to processing of an image signal input as an electrical signal from.
  • each processing unit included in the imaging apparatus and imaging system according to Embodiments 1 to 5 is typically realized as an LSI that is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
  • circuits are not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
  • An FPGA Field Programmable Gate Array
  • reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • the functions of the imaging apparatus and the imaging system according to Embodiments 1 to 5 of the present invention may be realized by a processor such as a CPU executing a program.
  • the present invention may be the above program or a recording medium on which the above program is recorded.
  • the program can be distributed via a transmission medium such as the Internet.
  • the present invention can be applied to an imaging apparatus, and can be applied to an apparatus that handles images, such as a digital still camera or a network camera.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

 本発明に係る撮像装置(50)は、入射光に応じて画像データ(21)を生成する撮像素子(1)と、画像データ(22)を固定長符号に圧縮することにより圧縮データ(23)を生成する圧縮部(3)と、圧縮データ(23)の一部である指定データ(40)のみを伸張することにより部分伸張データ(32A)を生成する伸張部(4)と、部分伸張データ(32A)を画質補正することにより部分補正画像データ(33A)を生成するカメラ信号処理部(5)と、部分補正画像データ(33A)を表示するビデオエンコーダ(8)とを備える。

Description

撮像装置
 本発明は、撮像装置に関し、特に、画像データを固定長符号化する撮像装置に関するものである。
 近年、デジタルスチルカメラ及びデジタルビデオカメラなどの撮像装置に用いられる撮像素子の高画素化に伴い、撮像装置に搭載される集積回路が処理する画像データ量が増大している。多くの画像データを扱うには、集積回路内のデータ転送のバス幅を確保するために、動作周波数の高速化、及びメモリの大容量化等を行うことが考えられる。しかし、これらは撮像装置のコストアップに直接繋がってしまう。
 また、一般的にデジタルスチルカメラ及びデジタルビデオカメラなどの撮像装置では、集積回路内での全ての画像処理を終えたデータを、SDカード等の外部記録装置に記録する際に圧縮処理を行う。これにより、非圧縮に比べてより大きな画像サイズ、又は多くの枚数の画像データを同じ容量の外部記録装置に格納できる。この圧縮処理には、JPEG(Joint Photographic Experts Group)又はMPEG(Moving Picture Experts Group)といった符号化方式が用いられている。
 特許文献1には、画像データの圧縮処理を撮像素子から入力される画素信号(RAWデータ)に対しても展開することが開示されている。これにより、当該技術は、撮像素子の多画素化が進み信号処理の負荷が増大する場合でも、メモリへの書き込み及び読み出しの際に必要なバス帯域を削減し、高速操作を可能にする。また、当該技術では、バス帯域の保証と圧縮処理量の削減とのため固定長符号化方式を採用している。その実装方法については、任意の画像領域の画素データから最大値と最小値とを算出し、領域内の局所的なダイナミックレンジを求め、領域内の全ての画素から最小値を減算した値を、ダイナミックレンジに応じた量子化幅で量子化する。これにより、固定長符号化を行っている。
 しかし、特許文献1に記載の撮像装置では、同一領域内における画素と最小値との差分値を量子化しており、領域内のダイナミックレンジが大きいほど量子化幅も大きくなる。これは、領域内のダイナミックレンジが広い場合は、画像として大きく変化している可能性が高く、細かいレベル変化を視覚的に感知しにくいという視覚特性を利用している。しかし、領域内の最小値及び最大値を求めるには、領域内の全画素が揃わなければ圧縮処理を開始できないという問題がある。そのため、バス帯域の削減は可能となるが、領域内の画素が揃うまでの処理遅延が発生することになる。よって、実装面においても、領域内の画素を格納しておくメモリが必要となるため、回路規模が増大するという問題がある。
 また、特許文献2では撮像素子から入力される画素信号(RAWデータ)に対して、固定長符号化手段で、画像データを小領域の単位ブロックに細分し、単位ブロック内の前記画像データの平均値レベルを求めて固定長符号化し、露出制御手段で、前記平均値レベルに基づいて前記単位ブロック内の前記画像データ全体の輝度レベルを算出し、画像データが所定の輝度レベルとなるように撮像装置の露出量を制御する。
特開2007-228515号公報 特開2000-013806号公報
 しかしながら、特許文献1に記載の撮像装置では、圧縮された固定長符号化データをSDRAM(Synchronous Dynamic Random Access Memory)等のメモリへ供給し、次にメモリから固定長符号化データを読み出し、伸張処理を行い、以降の画像処理を実施している。これは、近年のデータ量増大に伴い、各処理に対する後段処理が遅い場合に破綻する可能性があるためであり、このように間にメモリを介すことで処理速度を限定しない構成を実現するためである。
 しかしながら、この構成では、メモリに対する書き込み及び読み出しに加えて、圧縮データの伸張処理が加わることで、実際に撮像してから表示するまでに時間がかかる。これにより、当該構成は、表示応答性に欠けるという課題がある。
 また、特許文献2に記載の撮像装置では、画像データを圧縮した固定長符号化データに加えて画像の単位ブロックあたりの平均値を別途算出し、その平均値から露出量を制御する。しかし、特許文献2に記載の撮像装置は、画像データについては特許文献1と同様にメモリから固定長符号化データを読み出し、伸張処理を行って表示するため、特許文献1に記載の撮像装置と同様に、表示応答性に欠けるという課題がある。
 そこで本発明は、表示応答性を向上できる撮像装置を提供することを目的とする。
 上記目的を達成するために、本発明の一形態に係る撮像装置は、入射光に応じて第1画像データを生成する撮像素子と、前記第1画像データを固定長符号化することにより第1圧縮データを生成する圧縮部と、前記第1圧縮データを記憶する記憶部と、前記第1圧縮データの一部である第1指定データのみを伸張することにより第1部分伸張データを生成する伸張部と、前記第1部分伸張データを画質補正することにより第1部分補正画像データを生成する信号処理部と、前記第1部分補正画像データを表示する表示部とを備える。
 この構成によれば、本発明の一形態に係る撮像装置は、圧縮データの一部のみを伸張し、伸張したデータを表示する。これにより、本発明の一形態に係る撮像装置は、表示応答性を向上できる。
 また、前記伸張部は、前記第1部分伸張データを生成した後、前記記憶部に記憶されている前記第1圧縮データの全てを伸張することにより第1全体伸張データを生成し、前記信号処理部は、前記第1全体伸張データを画質補正することにより第1全体補正画像データを生成してもよい。
 この構成によれば、本発明の一形態に係る撮像装置は、表示の高速化と、大容量のデータ処理とを両立できる。
 また、前記圧縮部は、前記第1画像データに含まれる複数の画素データの一部である画素データ群ごとに、当該画素データ群に含まれる複数の画素データを固定長に圧縮することにより単位圧縮データを生成し、前記第1指定データは、前記単位圧縮データの各々に含まれる一部のデータであってもよい。
 この構成によれば、本発明の一形態に係る撮像装置は、撮影された画像データに対して、解像度を下げた画像を高速に表示できる。
 また、前記圧縮部は、予測値と符号化対象画素の画素データとの差を示すビット変化情報を算出し、算出した前記ビット変化情報を量子化することにより固定長の量子化値を算出し、前記単位圧縮データは、前記予測値として用いられる画素データである基準画素値と、前記画素データ群に含まれる画素データに対応する前記量子化値と、前記量子化の条件を示す量子化情報とを含み、前記第1指定データは、前記基準画素値を含んでもよい。
 また、前記基準画素値は、前記画素データ群に含まれる一の画素データであり、前記単位圧縮データは、前記基準画素値と、前記画素データ群に含まれる、前記一の画素データ以外の画素データに対応する前記量子化値と、前記量子化情報とを含んでもよい。
 この構成によれば、本発明の一形態に係る撮像装置は、撮影された画像データに対して画素を間引いた画像を表示できる。
 また、前記圧縮部は、前記画素データ群に含まれる複数の画素データの平均値を算出し、前記基準画素値は、前記平均値であってもよい。
 この構成によれば、本発明の一形態に係る撮像装置は、画素データ群内の全ての画素からの情報を用いることで折り返しノイズを抑えた画像を表示できる。
 また、前記画素データ群は、連続して配置された複数の画素の画素データを含み、前記第1指定データは、前記基準画素値と、等間隔に配置される画素に対応する前記量子化値とを含んでもよい。
 この構成によれば、本発明の一形態に係る撮像装置は、ノイズを抑えた画像を表示できる。
 また、前記複数の画素データの各々は、複数の色の画素データのうちいずれかであり、前記単位圧縮データは、色ごとの前記基準画素値を含み、前記第1指定データは、前記色ごとの基準画素値を含み、前記圧縮部は、符号化対象画素と同色の基準画素値を前記予測値として用いて、前記ビット変化情報を算出し、算出した前記ビット変化情報を量子化することにより固定長の量子化値を算出してもよい。
 この構成によれば、本発明の一形態に係る撮像装置は、カラー画像に対して表示応答性を向上できる。
 また、前期撮像素子は、さらに、入射光に応じて第2画像データを生成し、前記圧縮部は、さらに、前記第2画像データを固定長符号化することにより第2圧縮データを生成し、前記記憶部は、さらに、前記第2圧縮データを記憶し、前記伸張部は、さらに、前記第2の圧縮データの一部である第2指定データのみを伸張することにより第2部分伸張データを生成し、前記信号処理部は、さらに、前記第2部分伸張データを画質補正することにより第2部分補正画像データを生成し、前記表示部は、さらに、前記第2部分補正画像データを表示し、前記伸張部は、前記第1部分伸張データ及び前記第2部分伸張データを共に生成した後、前記第1全体伸張データを生成し、前記記憶部に記憶されている前記第2圧縮データの全てを伸張することにより第2全体伸張データを生成し、前記信号処理部は、さらに、前記第2全体伸張データを画質補正することにより第2全体補正画像データを生成してもよい。
 この構成によれば、本発明の一形態に係る撮像装置は、連続撮影時において表示応答性を向上できる。
 また、前記撮像装置は、さらに、前記第1部分伸張データを用いて前記第1画像データの輝度レベルを算出し、前記第1画像データが所定の輝度レベルとなるように前記撮像素子の露出量を制御する露出制御部を備えてもよい。
 この構成によれば、本発明の一形態に係る撮像装置は、高速な露出制御を実現できる。
 また、前記撮像装置は、さらに、前記第1部分伸張データに含まれる画素データの周波数特性を算出し、当該周波数特性を用いてフォーカス制御を行うフォーカス制御部を備えてもよい。
 この構成によれば、本発明の一形態に係る撮像装置は、高速なフォーカス制御を実現できる。
 また、前記第1画像データは、遮光された画素の画素データである遮光画素データを含み、前記圧縮部は、前記画素データ群に含まれる複数の画素データが複数の前記遮光画素データである場合、予め定められた画素数ごとに前記複数の遮光画像データの平均値を算出し、複数の算出した平均値を固定長符号化することにより前記第1圧縮データを生成してもよい。
 この構成によれば、本発明の一形態に係る撮像装置は、画質の劣化を抑制しつつ、圧縮データのデータ量を削減できる。
 また、前記第1画像データは、遮光された画素の画素データである遮光画素データを含み、前記圧縮部は、前記画素データ群に含まれる複数の画素データが複数の前記遮光画素データである場合、予め定められた画素数ごとに前記複数の遮光画像データの最大値又は最小値を算出し、複数の算出した最小値又は最大値を固定長符号化することにより前記第1圧縮データを生成してもよい。
 この構成によれば、本発明の一形態に係る撮像装置は、画質の劣化を抑制しつつ、圧縮データのデータ量を削減できる。
 また、前記撮像装置は、さらに、前記撮像素子により生成された前記第1画像データをデジタル信号に変換するAD変換部を備え、前記圧縮部は、前記AD変換部によりデジタル信号に変換された前記第1画像データを固定長符号に圧縮することにより前記第1圧縮データを生成してもよい。
 なお、本発明は、このような撮像装置として実現できるだけでなく、撮像装置に含まれる特徴的な手段をステップとする画像処理方法として実現したり、そのような特徴的なステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD-ROM等の記録媒体及びインターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
 さらに、本発明は、このような撮像装置の機能の一部又は全てを実現する半導体集積回路(LSI)として実現したり、このような撮像装置を備える撮像システムとして実現したりできる。
 以上より、本発明は、表示応答性を向上できる撮像装置を提供できる。
図1は、本発明の実施の形態1に係る撮像装置のブロック図である。 図2は、本発明の実施の形態1に係る圧縮処理例と各演算結果を示す図である。 図3は、本発明の実施の形態1に係る圧縮処理のフローチャートである。 図4は、本発明の実施の形態1に係るビット変化情報の有効ビット桁数、量子化幅及び量子化情報を示す図である。 図5Aは、本発明の実施の形態1に係る未圧縮のデータの一例を示す図である。 図5Bは、本発明の実施の形態1に係る圧縮パッキングデータの一例を示す図である。 図6Aは、本発明の実施の形態1に係る未圧縮のデータの一例を示す図である。 図6Bは、本発明の実施の形態1に係る圧縮パッキングデータの一例を示す図である。 図7は、本発明の実施の形態1に係るカメラ信号処理部のブロック図である。 図8は、本発明の実施の形態1に係る撮像装置による処理のタイミングを示す図である。 図9Aは、本発明の実施の形態1に係る未圧縮のデータの一例を示す図である。 図9Bは、本発明の実施の形態1に係る圧縮パッキングデータの一例を示す図である。 図10は、本発明の実施の形態1に係る圧縮パッキングデータの一例を示す図である。 図11は、本発明の実施の形態1に係る撮像装置による処理のタイミングの別の例を示す図である。 図12は、本発明の実施の形態1に係る撮像装置の変形例のブロック図である。 図13は、本発明の実施の形態2に係るカメラ信号処理部のブロック図である。 図14は、本発明の実施の形態2に係る露出制御処理のフローチャートである。 図15は、本発明の実施の形態2に係るカメラ信号処理部の変形例のブロック図である。 図16は、本発明の実施の形態2に係る積算領域の一例を示す図である。 図17は、本発明の実施の形態3に係るカメラ信号処理部のブロック図である。 図18は、本発明の実施の形態3に係るフォーカス制御処理のフローチャートである。 図19は、本発明の実施の形態4に係る圧縮処理のフローチャートである。 図20は、本発明の実施の形態4に係る遮光領域の一例を示す図である。 図21は、本発明の実施の形態4に係る圧縮パッキングデータの一例を示す図である。 図22は、本発明の実施の形態5に係る撮像システムのブロックである。
 以下、本発明の実施形態について図面を参照しながら説明する。なお、以下の各実施の形態や各変形例の説明において、一度説明した構成要素と同様の機能を有する構成要素については、同一の符号を付して説明を省略する。
 (実施の形態1)
 本発明の実施の形態1に係る撮像装置は、圧縮データの一部のみを伸張し、伸張したデータを表示する。これにより、本発明の一形態に係る撮像装置は、表示応答性を向上できる。
 図1は本発明の実施の形態1に係る撮像装置50の構成を示すブロック図である。
 なお、本実施の形態における撮像装置による撮像処理機能の全て又は一部は、LSI(Large Scale Integration)などのハードウェア、又はCPU(Central Processing Unit)等により実行されるプログラムによって実現され、これは以下の実施の形態でも同様である。
 図1に示す撮像装置50は、撮像部100と、画像信号処理部101と、記憶部102と、記録保存部103を備える。
 また、撮像部100は、撮像素子1と、AFE(Analog Front End)回路2と、圧縮部3とを備える。画像信号処理部101は、伸張部4と、カメラ信号処理部5と、解像度変換部6と、画像符号化部7と、ビデオエンコーダ8と、メモリコントローラ9とを備える。また、伸張部4、カメラ信号処理部5、解像度変換部6、画像符号化部7、ビデオエンコーダ8、メモリコントローラ9は、内部バス10により相互に接続されている。
 撮像素子1は、入射光に応じて画像データ21を生成する。この撮像素子1は、例えばCCD(Charge Coupled Devices)、又はCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサなどの固体撮像素子である。この撮像素子1は、図示しないレンズブロックを通じて被写体から入射された光を電気信号に変換することによりアナログ信号である画像データ21を生成する。
 AFE2は、撮像素子1が出力した画像データ21に対してノイズ除去、信号増幅、及びA/D変換などの信号処理を行なうことにより画像データ22を生成する。
 圧縮部3は、AFE2から出力された画像データ22に対して固定長符号化を行うことにより圧縮データ23を生成する。
 以下、圧縮部3の処理を詳細に説明する。
 図2は、本発明の実施の形態1における圧縮部3の処理を説明するための図である。また、図3は、本発明の実施の形態1における圧縮部3の処理のフローチャートである。
 画像データ22は、1画素に対応する固定ビット幅(Nビット)の画素データ22Aを複数含む。圧縮部3は、この固定ビット幅の画素データ22Aを順次、受信する。ここでは、画素データ22Aのデータ量は12ビット(N=12)であるとする。すなわち、画素データ22Aのダイナミックレンジは12ビットである。また、量子化値29のビット幅Mは8ビットであるとする。また、圧縮部3は、複数の画素データ22A(画素データ群)を圧縮したデータを、Sビットの固定長にパッキングした圧縮データ23(以下、圧縮パッキングデータ23A(単位圧縮データ))を画像信号処理部101に出力する。ここでは設定する固定ビットSは、64ビットとする。なお、固定ビット幅N、量子化値のビット幅M及び固定ビットSは、予め決められているものであればよく、ここに示す例に限るものではない。
 また、本実施の形態において行うコード変換は、グレイコード変換であるとする。画素データをグレイコード化する理由は、近似なものを表現する際のビット変化を抑え、圧縮率を高めることができるからである。
 なお、一般に10進数の値をグレイコードへ変換する方法として、10進数をバイナリコードで表したビット列に対して、下位ビットから順に上位ビット側に隣り合うビットとの排他的論理和をとっていく方法がとられている。
 なお、グレイコードではなくても、近似なものを表現する際のビット変化が、バイナリコードで表したビット列よりも小さくなるようなコード変換であれば、本発明に適用可能であることはいうまでもない。
 図2には、一例として、1つの圧縮パッキングデータ23Aに圧縮される7個の画素データ22Aを示す。また、画素P1、P2、・・・、P7の順で、各画素に対応する画素データ22Aが入力されるとする。また、画素P1~P7内に示される数値は、対応する画素データ22Aが示す信号レベルである。なお、画素P1に対応する画素データ22Aは、初期画素値22Bであるとする。ここで初期画素値22Bとは、Sビットの1つの圧縮パッキングデータ23Aにパッキングされる画素データ22Aのうち最初に入力される画素データ22Aである。
 本実施の形態では、符号化対象画素の予測値は、一例として、符号化対象画素の左隣の画素の画素データ22Aを用いて算出されるものとする。すなわち、符号化対象画素の画素データ22Aは、一つ前に入力された画素と同一の画素データ22A(レベル)になる可能性が高いと予測していることになる。
 図3に示す圧縮処理では、まず、ステップS101で圧縮部3は、入力された画素データ22Aが初期画素値22Bであるか否かを判定する。
 入力された画素データ22Aが初期画素値22Bである場合(S101でYES)、圧縮部3は、受信した初期画素値22Bを内部のバッファに記憶させるとともに、当該初期画素値22Bをパッキングバッファに送信する。そして、処理は後述するステップS110に移行する。
 一方、入力された画素データ22Aが初期画素値22Bでない場合(S101でNO)、ステップS102に移行する。
 ここで、圧縮部3は、初期画素値22Bである、画素P1に対応する画素データ22Aを受信したとする。この場合、圧縮部3は、当該初期画素値22Bを内部のバッファに記憶させるとともに、当該初期画素値22Bをパッキングバッファに送信する。なお、内部バッファに画素データ22Aが既に記憶されている場合、圧縮部3は、受信した画素データ22Aを内部のバッファに上書き記憶させる。
 次に、画素P2が符号化対象画素であるとする。この場合、圧縮部3は、画素P2に対応する画素データ22A(符号化対象画素データ)を受信する。また、符号化対象の画素データ22Aは“220”であるとする。この場合、受信した画素データ22Aは初期画素値22Bではないので(S101でNO)、圧縮部3は、画素P2の画素データ22Aをコード変換対象とする。
 また、ステップS101でNOと判定された場合、圧縮部3は、内部のバッファに記憶されている1画素前の画素データ22Aを予測値とする(S102)。ここでは、予測値は、画素P1の画素データ22Aの値“300”である。
 次に、圧縮部3は、ステップS103で、符号化対象画素データと予測値とにグレイコード変換処理を施すことによりコード24を生成する。ここでは、受信した符号化対象画素データは、“220”、予測値は“300”であるため、コード変換により、それぞれN(“12”)ビット長のグレイコード24である符号化画素コード“000010110010”と予測値コード“000110111010”とが算出される。
 次に、ステップS104では、圧縮部3は、符号化画素コードと、予測値コードとの差(変化)を示すビット変化情報25を算出する。具体的には、圧縮部3は、符号化画素コードと予測値コードとの排他的論理和を演算することにより、ビット変化情報25を算出する。ここでは、受信した符号化画素コードが“000010110010”であり、予測値コードが“000110111010”である。よって、圧縮部3は、符号化画素コード(“000010110010”)と、予測値コード(“000110111010”)との排他的論理和を演算することにより、ビット変化情報25“000100001000”を算出する。
 次に、ステップS105では、圧縮部3は、量子化幅決定処理を行う。量子化幅決定処理では、圧縮部3は、ビット変化情報25の有効ビット桁数26、つまり、ビット変化情報25を表現するために必要なビット長を求める。具体的には、有効ビット桁数26は、上位ビット側からみて最初に“1”となるビットを含む当該ビットから下位のビットの桁数である。ここでは、ビット変化情報25は、“000100001000”である。この場合、有効ビット桁数26は9ビットである。そして、圧縮部3は、有効ビット桁数26から量子化値のビット幅Mを減算することにより量子化幅27を設定する。ここでは、量子化値のビット幅Mが“8”であるとすると、量子化幅27は、“9-8=1”に設定される。
 また、圧縮部3は、量子化幅27をグループ単位で決定することにより圧縮効率を上げる。ここでグループは、予め決められた所定の画素数Pix_Gの画素データ22Aで構成される。また、同一のグループに属する画素データ22Aには同一のグループNo30が付与される。
 ステップS106では、圧縮部3は、例えばグループ内の画素数Pix_G=3の画素について、量子化幅27が全て決定されたか否かの判定を行う。
 グループ内の量子化幅27が全て決定されていない場合(S106でNO)、圧縮部3はステップS102に移行し、次に受信した画素データ22Aに対してステップS102からステップS105までの処理を実行する。
 一方、グループ内の量子化幅27が全て決定された場合(S106でYES)、圧縮部3はステップS107に移行する。
 ステップS107では、圧縮部3は、グループ内の画素数Pix_Gの画素に対応する量子化幅27の中から最も大きい最大量子化幅28を算出する。図2においてグループNo30が“1”の量子化幅27は“1”、“1”、“0”であるため、最大量子化幅28は“1”となる。ここで算出された最大量子化幅28は、グループ内の全画素に対して共通に用いられる。
 また、圧縮部3は、量子化の条件を示す量子化情報31を生成する。具体的には、圧縮部3は、最大量子化幅28を符号化することによりQビット長の量子化情報31を生成する。ここでは、量子化情報31のビット長Qが“2”であるとする。図4は、ビット変化情報25の有効ビット桁数26と、量子化幅27(最大量子化幅28)と、Qビットの量子化情報31との対応関係を示す図である。例えば、最大量子化幅28が“1”であるとする。この場合、図4より量子化情報31は“01”となる。なお、最大量子化幅28はゼロ又は正数であるため、有効ビット桁数26がM(“8”)よりも小さい値をとる場合は、量子化幅27は“0”とする。
 次に、ステップS108では、圧縮部3は、ビット変化情報25に量子化処理を行うことにより量子化値29を生成する。量子化処理では、圧縮部3は、ビット変化情報25を最大量子化幅28の数だけ下位にビットシフトすることにより当該ビット変化情報25を量子化する。ここでは、最大量子化幅28が“1”であり、かつ、ビット変化情報25が“000100001000”である。この場合、“000100001000”を、最大量子化幅28(”1“)の数だけ下位にビットシフトすることにより、“00010000100”を算出する。ここで、量子化値のビット幅Mは8ビットであるため、圧縮部3は、最下位ビットから8ビット目までの量子化されたビット変化情報“10000100”を量子化値29としてパッキングバッファへ送信する。
 次に、ステップS109では、圧縮部3は、グループ内の画素数Pix_Gの画素について、量子化処理が全て終了したか否かの判定を行う。
 量子化処理が全て終了していない場合(S109でNO)、圧縮部3はステップS108に移行し、同一グループ内における次の符号化対象画素データに対してステップS108の処理を実行する。
 一方、量子化処理が全て終了した場合(ステップS109でYES)、圧縮部3はステップS110に移行する。
 ステップS110では、圧縮部3は、生成したデータを予め決められたSビットにパッキングする処理を行う。パッキング処理では、圧縮部3は、初期画素値22B(P1)をSビット長のパッキングバッファに格納し、その後は順次、Qビット長の量子化情報31、符号化対象画素P2~P4の量子化値29を、パッキングバッファに格納していく。ここで、固定ビットSが“64”、量子化情報31のビット長Qが“2”であるとする。符号化対象画素の量子化値29は8ビットであるため、画素数Pix_Gの画素データ22Aを処理した時点で、64ビット長のパッキングバッファの先頭から38ビット分の圧縮データ(画素P1の画素データ22A(12ビット)+量子化情報31(2ビット)+画素P2~P4の量子化値29(8×3=24ビット))が格納されたことになる。符号化対象画素のパッキング処理が終了すると圧縮部3はステップS111に移行する。
 ステップS111では、圧縮部3は、Sビットにパッキングする画素数Pixの画素について圧縮処理が終了したか否かを判定する。ここで、画素数Pixは、以下の式(1)にて予め算出されているものとする。
 Pix = (S-(2×Q))/M ・・・(1)
 ここで、固定ビットSが“64”、量子化情報31のビット長Qが“2”、量子化値29のビット幅Mは8ビットであるため、画素数Pixは式(1)により7画素となる。
 画素数Pixの画素について圧縮処理が終了していない場合(S111でNO)、圧縮部3はステップS101に移行し、次に画素データ22Aに対してステップS101以降の処理を実行する。この場合、圧縮部3は、画素P5から画素P7に対して、ステップS101以降の処理を行い、順次、生成したデータをバッファメモリに格納していく。
 一方、画素数Pixの画素について圧縮処理が終了した場合(S111でYES)、圧縮部3は、バッファメモリ内に保持される圧縮データ23をSビット単位の圧縮パッキングデータ23Aとして出力し(S112)、次にステップS113に移行する。
 ステップS113では、圧縮部3は、出力した圧縮パッキングデータ23Aで、1画像(1画面)についての圧縮処理が全て終了したかを判別する。1画像についての圧縮処理が全て終了した場合(S113でYES)、圧縮部3は圧縮処理を終了し、1画像についての圧縮処理が全て終了していない場合(S113でNO)、圧縮部3はステップS101へ移行して、ステップS101以降の処理を実行する。
 以上の処理及び演算を実行した結果、算出される符号化対象画素P2~P6のコード24、ビット変化情報25、有効ビット桁数26、量子化幅27、そしてパッキングされる8ビットの量子化値29を図2に示している。
 また、図5Aは、上記圧縮処理を行わない場合のパッキングされた64ビットのデータ例を示す図である。また、図5Bは、上記圧縮処理を行った場合のパッキングされた64ビットの圧縮パッキングデータ23Aの例を示す図である。
 図5Aに示すように圧縮処理を行わない場合、64ビットのデータは5画素分のデータで構成される。一方、図5Bに示すように圧縮処理を行うことにより64ビットの圧縮パッキングデータ23Aに7画素分のデータを含ませることができる。
 また、固定長符号化は、生成された複数の固定長の符号化データを、例えばメモリ等に記憶させた場合、画像内の特定の箇所の画素に対応した符号化データを、容易に特定することができる。その結果、符号化データに対するランダムアクセス性を維持することができるメリットがある。
 また、RAWデータを圧縮する本実施の形態では、色成分が同色である近接画素から予測値を生成してもよい。具体的には、符号化対象画素の画素配列がベイヤー配列のRAWデータであるとする。この場合、RAWデータを、R(赤)成分と、G(緑)成分と、B(青)成分とに分けることができる。よって、圧縮部3は、予測値として符号化対象画素の隣接画素ではなく、同色の左隣の画素を利用してもよい。これにより、色成分が異なる隣接画素が使用するよりも、画素データとして相関が高いため、量子化精度を上げることができる。
 図6Aは、ベイヤー配列のRAWデータにおける予測値として用いる画素の関係を示す図である。例えば、図6Aに示すように画素R2は、直前(左隣)の同色の画素R1の画素データ22Aを予測値として用いる。
 また、図6Aは、ベイヤー配列のRAWデータに対して、上記圧縮処理を行わない場合のデータ例を示す図である。また、図6Bは、ベイヤー配列のRAWデータに対して、上記圧縮処理を行った場合の圧縮パッキングデータ23Aのデータ例を示す図である。また、図6A及び図6Bは、14画素に対するデータ量を示している。
 図6Aに示すように圧縮処理を行わない場合、14画素に対して168ビットのデータが必要になる。一方、図6Bに示すように圧縮処理を行うことにより14画素分のデータを124ビットに圧縮できる。
 次に、画像信号処理部101について説明する。
 圧縮部3からの圧縮データ23は内部バス10、メモリコントローラ9を介して記憶部102に記憶されるのと同時に、伸張部4に送られ、伸張部4において圧縮データ23の伸張処理が実施される。
 伸張部4は、圧縮データ23を伸張することにより伸張データ32を生成する。
 カメラ信号処理部5は、入力された伸張データ32(RAWデータ)に所定の画像処理(画質補正処理等)を施すことにより補正画像データ33を生成し、生成した補正画像データ33を、内部バス10を介して記憶部102に出力する。
 図7は、カメラ信号処理部5の構成を示すブロック図である。
 一般的には、図7に示すように、カメラ信号処理部5は、ホワイトバランス処理回路721(図中ではWBと略記)と、輝度信号生成回路722と、色分離回路723と、アパーチャ補正処理回路724(図中ではAPと略記)と、マトリクス処理回路725とを備えている。
 ホワイトバランス処理回路721は、白い被写体がどのような光源下でも白く撮影されるように、撮像素子1のカラーフィルタによる色成分を正しい割合で補正することにより補正信号731を生成する。
 輝度信号生成回路722は、RAWデータ(補正信号731)から輝度信号732(Y信号)を生成する。
 色分離回路723は、RAWデータ(補正信号731)から色差信号733(Cr/Cb信号)を生成する。
 アパーチャ補正処理回路724は、輝度信号生成回路722が生成した輝度信号732に高周波数成分を足し合わせて解像度を高く見せる処理を行う。
 マトリクス処理回路725は、撮像素子1の分光特性や画像処理で崩れた色相バランスの調整を、色分離回路723が生成した色差信号733に対して行う。
 解像度変換部6は、画像の拡大及び縮小処理を行う。
 画像符号化部7は、記憶部102に記憶されるデータをJPEG等の所定の規格で圧縮変換することにより画像データを生成し、生成した画像データを記録保存部103に出力する。
 一般的に画像信号処理部101は処理対象の画素データをSDRAM等のメモリ(記憶部102)に一時記憶させ、一時記憶されたデータに対して所定の画像処理、YC信号生成、及びズーム処理等を行い、処理後のデータを再度SDRAMに一時記憶することが多い。そのため、それぞれの処理部は内部バス10を通じて接続されている。
 同時にビデオエンコーダ8は、解像度変換部6からの拡大又は縮小された画像をLCD又はモニタなどに表示する表示部である。
 次に、撮像装置50における各処理の流れを説明する。図8は、本実施の形態における各処理のタイミングを示す図である。
 まず、撮像部100は、基準タイミング60の立ち上がりタイミングで画面Aの画像データ22の取り込み処理を行い、その後、取り込んだ画像データ22に対して圧縮処理を実施することにより圧縮データ23を生成する。さらに、撮像部100は、生成した圧縮データ23を記憶部102へ記憶する(S91)。
 同時に、撮像部100は、伸張部4へ圧縮データ23を送る。伸張部4は圧縮データ23の一部である指定データ40のみを伸張することにより部分伸張データ32Aを生成する。次に、カメラ信号処理部5は、生成された部分伸張データ32Aにカメラ信号処理(画質補正処理)を施すことにより部分補正画像データ33Aを生成し、生成した部分補正画像データ33Aを記憶部102へ送る(S92)。例えば、指定データ40は、圧縮パッキングデータ23Aの各々に含まれる一部のデータである。より具体的には、例えば、指定データ40は、初期画素値22Bである。
 次に、解像度変換部6は、記憶部102に記憶される部分補正画像データ33Aを読み出し、当該部分補正画像データ33Aにズーム処理を行うことにより部分変換画像データ34Aを生成し、生成した部分変換画像データ34Aを記憶部102へ記憶する(S93)。次に、ビデオエンコーダ8は、記憶部102に記憶された部分変換画像データ34Aを表示する(S94)。
 また、伸張部4は、ステップS92の部分伸張処理が終わった後、画面Aの圧縮データ23を記憶部102から読み出し(S95)、読み出した圧縮データ23の全てに伸張処理を行うことにより全体伸張データ32Bを生成する。次に、カメラ信号処理部5は、生成された全体伸張データ32Bにカメラ信号処理を施すことにより全体補正画像データ33Bを生成し、生成した全体補正画像データ33Bを記憶部102へ送る(S96)。
 同じく解像度変換部6は、部分伸張データ32Aのズーム処理が終わった後(S93)、記憶部102から全体補正画像データ33Bを読み出す。そして解像度変換部6は、読み出した全体補正画像データ33Bに解像度変換処理を行うことにより全体変換画像データ34Bを生成し、生成した全体変換画像データ34Bを記憶部102に記憶する(S97)。
 次に、画像符号化部7は、記憶部102に記憶されている全体変換画像データ34Bを符号化することにより符号化画像データを生成し、生成した符号化画像データを記録保存部103に記録する(S98)。
 ここで、近年、取り扱う画像サイズが増大している。例えば、15MPixel程度の解像度(水平:4480、垂直:3360)の情報量の場合、一時伸張する画素が初期画素値22Bのみであっても、図2に示す例では1/7の情報量となる。つまり、4480/7=640、3360/7=480とNTSC(全米テレビジョン放送方式標準化委員会)などの標準モニタの解像度VGA(640×480)を十分得ることができる。
 この結果、本発明に係る撮像装置50は、全体の信号処理をするよりも早く画像を表示することが可能である。
 なお、一部伸張するのは圧縮パッキングデータ23Aに含まれるデータのうち任意の数の予め定められた複数の指定画素に関する指定データ40でもよい。例えば、1つの圧縮パッキングデータ23Aに圧縮される複数の画素データ22Aが、連続して配置された複数の画素の画素データ22Aである場合、指定画素は、等間隔(例えば1つおき)に配置される画素であってもよい。
 これは初期画素値22Bのみでは単純に間引いた画素データを出力しているため折り返しノイズが発生する可能性があるためである。そのため圧縮部3は、図9A及び図9Bに示すような順に画素データ22Aを圧縮してもよい。つまり、圧縮部3は、指定画素のみを先に連続して圧縮する。
 この場合、伸張部4は、1つの圧縮パッキングデータ23Aに含まれる各色の前半4画素(R1、R3、R5、R7、G1、G3、G5、G7)に対応する指定データ40のみ伸張すればよい。これにより、一部伸張する画素数が増えるものの、伸張する情報量を全体伸張の4/7程度の情報に抑えることができる。また、これにより、よりノイズを抑えた画像を得ることができる。
 また、図10に示すように、圧縮部3は、圧縮パッキングデータ23Aに含まれる画素データ22Aの平均値22Cを算出し、基準となる基準画素値として、初期画素値22Bの代わりに平均値22Cを用いてもよい。この場合、伸張部4は、この基準画素値である平均値22Cを一部伸張すればよい。このように、基準画素値である平均値22Cを用いることで、平均値22C分だけ圧縮効率は劣化するが、圧縮パッキングデータ23A内の全ての画素からの情報を用いることで折り返しノイズを抑えた画像を得ることができる。
 また、本実施の形態における各処理のタイミングの異なる例を図11に示す。
 図11に示すように、まず、撮像部100は、基準タイミング60の立ち上がりタイミングで画面Aの画像データ22の取り込み処理を行い、その後、取り込んだ画像データ22に対して圧縮処理を実施することにより圧縮データ23を生成する。さらに、撮像部100は、生成した圧縮データ23を記憶部102へ記憶する(S91A)。以降ステップS94Aまでは図8に示すステップS91~S94と同じ処理である。次に、画面Bに対して同様の処理(S91B~S94B)が行われ、その後、画面Cに対して同様の処理(S91C~S94C)が行われる。すなわち連写記録が行われた場合、ステップS91~S94の処理が繰り返し行われる。
 上記ステップS91A~S94Cが完了するまで全体の圧縮データ23は記憶部102に蓄積される。そして連写記録が終わったところで、全体伸張(S95)~全体符号化(S98)までの処理が、記録された画像分繰り返し行われる。つまり、画面Aに対する全体伸張(S95A)~全体符号化(S98A)、画面Bに対する全体伸張(S95B)~全体符号化(S98B)、画面Cに対する全体伸張(S95C)~全体符号化(S98C)が順次行われる。
 この結果、本発明の実施の形態1に係る撮像装置50は、全体の信号処理をするよりも早く画像を表示することができる。また、SDRAM等の記憶部102へは圧縮された状態でデータが保存されているため記憶部102へ記録するデータ量をより少なくできる。また、記憶部102により多くの情報を蓄積しておくことが可能である。
 また、実施の形態1の異なる形態を図12に示す。
 図12に示す撮像装置50Aは、図1に示す撮像装置50に対して、撮像部100A及び画像信号処理部101Aの構成が異なる。具体的には、圧縮部3が、撮像部100Aではなく画像信号処理部101Aに含まれる。
 また、AFE回路2からの画像データ22の一部が直接カメラ信号処理部5へ入力される。この結果、表示データを生成する際、伸張部4を介さず直接処理できるため、さらに早く表示させることが可能である。
 (実施の形態2)
 実施の形態2では、実施の形態1で説明した、伸張部4及びカメラ信号処理部5の変形例を説明する。
 図13は実施の形態2に係るカメラ信号処理部5Aの構成を示すブロック図である。図13に示すカメラ信号処理部5Aは、図7に示すカメラ信号処理部5の構成に加え、新たに露出制御部741を備える。
 この露出制御部741は、部分伸張データ32Aを用いて画像データ22の輝度レベルを算出し、画像データ22が所定の輝度レベルとなるように撮像素子1の露出量(露光量)を制御する。
 図14は、実施の形態2に係る撮像装置50による露出制御処理の手順を示すフローチャートである。
 まず、ステップS201では、伸張部4は圧縮部3から圧縮パッキングデータ23Aを受け取る。
 次に、ステップS202では、伸張部4は圧縮パッキングデータ23Aに含まれる各データが初期画素値22B(指定データ40)かどうか判断する。初期画素値22Bであれば(S202でYes)、伸張部4はステップS203に移行する。初期画素値22Bでなければ(S202でNo)、次の初期画素値22Bを取得するため次の圧縮パッキングデータ取得ステップ(S201)に戻る。
 ステップS203では伸張部4は初期画素値22Bのみを伸張する。
 次にステップS204において伸張部4は、伸張した初期画素値22Bをカメラ信号処理部5Aへ転送する。次に、露出制御部741は取得した初期画素値22Bを積算する(S205)。
 これらステップS201~S204までの処理が、露出制御部741が1画面分の初期画素値22Bを積算するまで繰り返される(S206)。
 1画面分の初期画素値22Bの積算が終了すると(S206でYES)、露出制御部741は、当該積算値が上限輝度レベルより高いか否かを判断する(S207)。また、露出制御部741は、当該積算値が下限輝度レベルより低いか否かを判断する(S208)。つまり、露出制御部741は、積算値が所定の輝度レベルの範囲内であるか否かを判定する。
 積算値が所定の輝度レベルの範囲外である場合(S207でYES、又は、S208でYES)、露出制御部741が、撮像素子1を制御することで露出を制御する(S209)。
 一方、積算値が所定の輝度レベルの範囲内である場合(S207でNO、かつS208でNo)、撮像装置50は露出制御処理を終了する。
 以上により、本発明の実施の形態2に係る撮像装置50は、表示画像を生成するのと同時に、露出量を制御することができる。
 また、図15に示すカメラ信号処理部5Bのように、撮像装置50は、露出制御に使用する積算領域750を選択する領域選択部742を備えてもかまわない。この場合、例えば、領域選択部742は、図16に示す画面中央の積算領域750を選択する。また、露出制御部741は、領域選択部742により選択された積算領域750に含まれる初期画素値22Bの輝度値のみを積算し、積算した積算値に応じて、上述した露出制御を行なう。これにより、撮像装置50は、画像中の任意の位置の積算領域750のみの明るさに応じて露出量を調整できる。
 また、図10に示すように、基準画素値が圧縮パッキングデータ23Aに含まれる画素データ22Aの平均値22Cであってもかまわない。この場合、撮像装置50は、パッキングデータの全体の平均値22Cを元に露出量を制御することが可能である。
 また、図9Bに示すように、指定データ40が複数の指定画素を含んでもよい。
 (実施の形態3)
 実施の形態3では、実施の形態1で説明した、伸張部4及びカメラ信号処理部5の変形例を説明する。
 なお、実施の形態3では、圧縮パッキングデータ23Aは、図9Bに示すように複数の指定画素値を含むとする。
 図17は実施の形態3に係るカメラ信号処理部5Cの構成を示すブロック図である。図17に示すカメラ信号処理部5Cは、図7に示すカメラ信号処理部5の構成に加え、新たにフォーカス制御部743を備える。
 このフォーカス制御部743は、部分伸張データ32Aに含まれる画素データ22Aの周波数特性を算出し、当該周波数特性を用いてフォーカス制御を行う。
 図18は、実施の形態3に係る撮像装置50によるフォーカス制御処理の手順を示すフローチャートである。
 まず、ステップS301では、伸張部4は圧縮部3からの圧縮パッキングデータ23Aを受け取る。次に、ステップS302では、伸張部4は、圧縮パッキングデータ23Aに含まれる各データが指定画素値かどうか判断する。
 指定画素値の場合(S302でYes)、伸張部4はステップS303にて指定画素値に伸張処理を実施する。一方、指定画素値でない場合(S302でNo)、次の指定画素値を取得するため次の圧縮パッキングデータ取得ステップ(S301)に戻る。
 次にステップS304において、伸張部4は、圧縮パッキングデータ23A内において任意の数の指定画素値を取得したかどうか判断する。任意の数の指定画素値を取得した場合(S304でYes)、伸張部4はS305に移行する。また、任意の数の指定画素値を取得していない場合(S304でNo)、伸張部4はステップS302に戻って次の位置の指定画素値の伸張を行う。
 ステップS305では伸張部4は伸張した画素データをカメラ信号処理部5Cへ転送する。カメラ信号処理部5Cでは取得した画素データを、例えば直交変換などを用いて周波数成分に変換する(S306)。また、1画面分の周波数成分を積算するまでステップS301~S306の処理を繰り返す(S307)。
 1画面分の周波数成分の積算が終了すると(S307でYES)、フォーカス制御部743は、その積算値が所定のレベルより低いか否かを判断する(S308)。所定の周波数成分レベルより低い場合、フォーカス制御部743は、撮像素子1のレンズ位置を制御することでフォーカスを制御する(S309)。
 一方、積算値が所定の周波数成分レベルより高い場合(S308がNo)、撮像装置50は、フォーカス制御処理を終了する。
 以上により、本発明の実施の形態3に係る撮像装置50は、表示画像を生成するのと同時に、フォーカスを制御することができる。
 また、カメラ信号処理部5Cは、図15に示すカメラ信号処理部5Aと同様に、使用する積算領域を選択する領域選択部742を備えてもかまわない。この場合、図16に示す画像中の任意の位置の指定画素値による輝度値を積算し、例えば画面中央のみのフォーカス調整が可能になる。
 また、伸張部4が伸張するデータは、初期画素値22B又は平均値22Cであってもよい。
 (実施の形態4)
 実施の形態4では、実施の形態1で説明した、圧縮部3及び伸張部4の変形例を説明する。
 実施の形態4に係る撮像装置50の処理手順を図19に示す。
 まず、ステップS401において、圧縮部3は、符号化対象画素が遮光された領域の画素かどうか判断する。一般的な撮像装置において、画像の黒レベルを決定するため、図20に示すように撮像素子1の上下左右領域に遮光領域751(OB領域)を設けている。撮像装置50は、この遮光領域751に含まれる画素の画素データ22Aである遮光画素データ22Dの平均値を黒レベルとして算出し、実際の撮像された領域の画素データ22Aから黒レベルを引くことで各画素のレベルを調整している。そのため、遮光領域751の必要データは各々の画素レベルではなく平均値があればよい。
 符号化対象画素データが遮光画素データ22Dでない場合(S401でNO)、圧縮部3は、図3に示す実施の形態1と同様の処理を実施する(S415)。
 符号化対象画素データが遮光画素データ22Dである場合(S401でYES)、次に、ステップS402では、圧縮部3は、N画素の遮光画素データ22Dの平均値を算出する。図21に示す例では、圧縮部3は、4画素の遮光画素データ22Dの平均値を算出している。
 また、ステップS403以降の処理において、圧縮部3は複数の算出した平均値を固定長符号化することにより圧縮データ23を生成する。
 なお、ステップS403~ステップS414の処理は、図3に示すステップS102~ステップS113に対して、符号化対象を画素データ22AからN画素の平均値に置き換えた場合の処理と同様であるためここでの説明は省略する。なお、図21に示す初期平均値22Eは画素P1~P4の平均値である。また、例えば、伸張部4は、この初期平均値22Eのみを伸張することにより、部分伸張データ32Aを生成する。また、量子化平均値29Aは、例えば、画素P5~P8の4画素の平均値の量子化値である。
 以上により、本発明の実施の形態4に係る撮像装置50は、遮光領域751の画素データ22Aに対しては、平均値を算出したうえで当該平均値を圧縮する。これにより、本発明の実施の形態4に係る撮像装置50は、遮光領域751に対するデータ量を削減することができる。
 なお、上記説明では、圧縮部3は遮光領域751に対しては平均値を圧縮するとしたが、圧縮部3は、N画素ごとに、画素データ22Aの最大値及び最小値のうち少なくとも一方を算出し、複数の算出した最小値及び最大値のうちの少なくとも一方を固定長符号化することにより圧縮データ23を生成してもよい。
 (実施の形態5)
 本発明の実施の形態5では、上述した撮像装置50を含む撮像システム500について説明する。
 図22は、本発明の実施の形態5に係る撮像システム500(例えばデジタルスチルカメラ(DSC))の構成を示すブロック図である。
 図22に示す撮像システム500は、光学系501と、イメージセンサ502と、アナログ・デジタル変換器(ADC)503と、画像処理回路504と、記録転送回路506と、システム制御回路507と、タイミング制御回路508と、再生回路509とを備える。
 ここで、イメージセンサ502は、図1に示す撮像素子1に相当し、ADC503はAFE回路2に相当し、画像処理回路504は画像信号処理部101に相当し、記録転送回路506は記録保存部103に相当する。
 この撮像システム500の全体は、システム制御回路507によって制御されている。
 この撮像システム500においては、光学系501を通って入射した被写体像はイメージセンサ502上に結像される。イメージセンサ502はタイミング制御回路508によって駆動されることにより、結像された被写体像の光学データを蓄積し、電気信号へと光電変換する。イメージセンサ502から読み出された電気信号は、アナログ・デジタル変換器503によってデジタル信号へと変換された後、画像処理回路504に入力される。この画像処理回路504においては、本発明を用いた伸張処理、カメラ信号処理、Y/C処理、エッジ処理、画像の拡大縮小、画像圧縮伸張処理などの画像処理が行われる。画像処理された信号は、記録転送回路506においてメディアへの記録又はネットワークへの転送が行われる。記録又は転送された信号は、再生回路509により再生される。
 なお、本発明の実施の形態の画像処理回路504における画像処理は、必ずしも光学系501を介してイメージセンサ502に結像された被写体像に基づく信号のみに適用されるものではなく、例えば外部装置から電気信号として入力される画像信号を処理する際にも適用可能であることはいうまでもない。
 また、上記実施の形態1~5に係る撮像装置及び撮像システムに含まれる各処理部は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又はすべてを含むように1チップ化されてもよい。
 また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 また、本発明の実施の形態1~5に係る、撮像装置及び撮像システムの機能の一部又は全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。
 さらに、本発明は上記プログラムであってもよいし、上記プログラムが記録された記録媒体であってもよい。また、上記プログラムは、インターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
 また、上記実施の形態1~5に係る、撮像装置、撮像システム及びその変形例の機能のうち少なくとも一部を組み合わせてもよい。
 また、上記で用いた数字は、すべて本発明を具体的に説明するために例示するものであり、本発明は例示された数字に制限されない。
 更に、本発明の主旨を逸脱しない限り、本実施の形態に対して当業者が思いつく範囲内の変更を施した各種変形例も本発明に含まれる。
 本発明は撮像装置に適用でき、デジタルスチルカメラ又はネットワークカメラ等のような画像を扱う装置に適用できる。
 1 撮像素子
 2 AFE回路
 3 圧縮部
 4 伸張部
 5、5A、5B、5C カメラ信号処理部
 6 解像度変換部
 7 画像符号化部
 8 ビデオエンコーダ
 9 メモリコントローラ
 10 内部バス
 21、22 画像データ
 22A 画素データ
 22B 初期画素値
 22C 平均値
 22D 遮光画素データ
 22E 初期平均値
 23 圧縮データ
 23A 圧縮パッキングデータ
 24 コード
 25 ビット変化情報
 26 有効ビット桁数
 27 量子化幅
 28 最大量子化幅
 29 量子化値
 29A 量子化平均値
 30 グループNo
 31 量子化情報
 32 伸張データ
 32A 部分伸張データ
 32B 全体伸張データ
 33 補正画像データ
 33A 部分補正画像データ
 33B 全体補正画像データ
 34A 部分変換画像データ
 34B 全体変換画像データ
 40 指定データ
 50、50A 撮像装置
 60 基準タイミング
 100、100A 撮像部
 101、101A 画像信号処理部
 102 記憶部
 103 記録保存部
 500 撮像システム
 501 光学系
 502 センサ
 503 アナログ・デジタル変換器
 504 画像処理回路
 506 記録転送回路
 507 システム制御回路
 508 タイミング制御回路
 509 再生回路
 721 ホワイトバランス処理回路
 722 輝度信号生成回路
 723 色分離回路
 724 アパーチャ補正処理回路
 725 マトリクス処理回路
 731 補正信号
 732 輝度信号
 733 色差信号
 741 露出制御部
 742 領域選択部
 743 フォーカス制御部
 750 積算領域
 751 遮光領域

Claims (14)

  1.  入射光に応じて第1画像データを生成する撮像素子と、
     前記第1画像データを固定長符号化することにより第1圧縮データを生成する圧縮部と、
     前記第1圧縮データを記憶する記憶部と、
     前記第1圧縮データの一部である第1指定データのみを伸張することにより第1部分伸張データを生成する伸張部と、
     前記第1部分伸張データを画質補正することにより第1部分補正画像データを生成する信号処理部と、
     前記第1部分補正画像データを表示する表示部とを備える
     撮像装置。
  2.  前記伸張部は、前記第1部分伸張データを生成した後、前記記憶部に記憶されている前記第1圧縮データの全てを伸張することにより第1全体伸張データを生成し、
     前記信号処理部は、前記第1全体伸張データを画質補正することにより第1全体補正画像データを生成する
     請求項1記載の撮像装置。
  3.  前記圧縮部は、前記第1画像データに含まれる複数の画素データの一部である画素データ群ごとに、当該画素データ群に含まれる複数の画素データを固定長に圧縮することにより単位圧縮データを生成し、
     前記第1指定データは、前記単位圧縮データの各々に含まれる一部のデータである
     請求項1又は2記載の撮像装置。
  4.  前記圧縮部は、予測値と符号化対象画素の画素データとの差を示すビット変化情報を算出し、算出した前記ビット変化情報を量子化することにより固定長の量子化値を算出し、
     前記単位圧縮データは、前記予測値として用いられる画素データである基準画素値と、前記画素データ群に含まれる画素データに対応する前記量子化値と、前記量子化の条件を示す量子化情報とを含み、
     前記第1指定データは、前記基準画素値を含む
     請求項3記載の撮像装置。
  5.  前記基準画素値は、前記画素データ群に含まれる一の画素データであり、
     前記単位圧縮データは、前記基準画素値と、前記画素データ群に含まれる、前記一の画素データ以外の画素データに対応する前記量子化値と、前記量子化情報とを含む
     請求項4記載の撮像装置。
  6.  前記圧縮部は、前記画素データ群に含まれる複数の画素データの平均値を算出し、
     前記基準画素値は、前記平均値である
     請求項4記載の撮像装置。
  7.  前記画素データ群は、連続して配置された複数の画素の画素データを含み、
     前記第1指定データは、前記基準画素値と、等間隔に配置される画素に対応する前記量子化値とを含む
     請求項3記載の撮像装置。
  8.  前記複数の画素データの各々は、複数の色の画素データのうちいずれかであり、
     前記単位圧縮データは、色ごとの前記基準画素値を含み、
     前記第1指定データは、前記色ごとの基準画素値を含み、
     前記圧縮部は、符号化対象画素と同色の基準画素値を前記予測値として用いて、前記ビット変化情報を算出し、算出した前記ビット変化情報を量子化することにより固定長の量子化値を算出する
     請求項4~7のいずれか1項に記載の撮像装置。
  9.  前期撮像素子は、さらに、入射光に応じて第2画像データを生成し、
     前記圧縮部は、さらに、前記第2画像データを固定長符号化することにより第2圧縮データを生成し、
     前記記憶部は、さらに、前記第2圧縮データを記憶し、
     前記伸張部は、さらに、前記第2の圧縮データの一部である第2指定データのみを伸張することにより第2部分伸張データを生成し、
     前記信号処理部は、さらに、前記第2部分伸張データを画質補正することにより第2部分補正画像データを生成し、
     前記表示部は、さらに、前記第2部分補正画像データを表示し、
     前記伸張部は、前記第1部分伸張データ及び前記第2部分伸張データを共に生成した後、前記第1全体伸張データを生成し、前記記憶部に記憶されている前記第2圧縮データの全てを伸張することにより第2全体伸張データを生成し、
     前記信号処理部は、さらに、前記第2全体伸張データを画質補正することにより第2全体補正画像データを生成する
     請求項2記載の撮像装置。
  10.  前記撮像装置は、さらに、
     前記第1部分伸張データを用いて前記第1画像データの輝度レベルを算出し、前記第1画像データが所定の輝度レベルとなるように前記撮像素子の露出量を制御する露出制御部を備える
     請求項1~9のいずれか1項に記載の撮像装置。
  11.  前記撮像装置は、さらに、
     前記第1部分伸張データに含まれる画素データの周波数特性を算出し、当該周波数特性を用いてフォーカス制御を行うフォーカス制御部を備える
     請求項1~10のいずれか1項に記載の撮像装置。
  12.  前記第1画像データは、遮光された画素の画素データである遮光画素データを含み、
     前記圧縮部は、前記画素データ群に含まれる複数の画素データが複数の前記遮光画素データである場合、予め定められた画素数ごとに前記複数の遮光画像データの平均値を算出し、複数の算出した平均値を固定長符号化することにより前記第1圧縮データを生成する
     請求項3記載の撮像装置。
  13.  前記第1画像データは、遮光された画素の画素データである遮光画素データを含み、
     前記圧縮部は、前記画素データ群に含まれる複数の画素データが複数の前記遮光画素データである場合、予め定められた画素数ごとに前記複数の遮光画像データの最大値又は最小値を算出し、複数の算出した最小値又は最大値を固定長符号化することにより前記第1圧縮データを生成する
     請求項3記載の撮像装置。
  14.  前記撮像装置は、さらに、前記撮像素子により生成された前記第1画像データをデジタル信号に変換するAD変換部を備え、
     前記圧縮部は、前記AD変換部によりデジタル信号に変換された前記第1画像データを固定長符号に圧縮することにより前記第1圧縮データを生成する
     請求項1~13のいずれか1項に記載の撮像装置。
PCT/JP2011/002527 2010-05-28 2011-05-02 撮像装置 WO2011148573A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201180012830.0A CN102812698B (zh) 2010-05-28 2011-05-02 摄像装置
JP2012517110A JP5793716B2 (ja) 2010-05-28 2011-05-02 撮像装置
US13/612,102 US8823832B2 (en) 2010-05-28 2012-09-12 Imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010123555 2010-05-28
JP2010-123555 2010-05-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/612,102 Continuation US8823832B2 (en) 2010-05-28 2012-09-12 Imaging apparatus

Publications (1)

Publication Number Publication Date
WO2011148573A1 true WO2011148573A1 (ja) 2011-12-01

Family

ID=45003574

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/002527 WO2011148573A1 (ja) 2010-05-28 2011-05-02 撮像装置

Country Status (4)

Country Link
US (1) US8823832B2 (ja)
JP (1) JP5793716B2 (ja)
CN (1) CN102812698B (ja)
WO (1) WO2011148573A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059999A (ja) * 2015-09-16 2017-03-23 キヤノン株式会社 撮像装置および撮像装置における符号化方法
JP2017520941A (ja) * 2015-04-07 2017-07-27 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 画像処理方法及び画像処理装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013003238A (ja) * 2011-06-14 2013-01-07 Sony Corp 映像信号処理回路、映像信号処理方法、表示装置、及び、電子機器
WO2015068568A1 (ja) * 2013-11-08 2015-05-14 Necライティング株式会社 撮像装置、有機el素子、撮像方法、プログラムおよび記録媒体
JP6467190B2 (ja) * 2014-10-20 2019-02-06 キヤノン株式会社 露出制御装置及びその制御方法、撮像装置、プログラム、記憶媒体
KR102499187B1 (ko) 2018-02-12 2023-02-13 삼성전자주식회사 카메라를 이용하여 획득한 이미지를 압축 처리하는 전자 장치 및 그 동작 방법
US10680642B2 (en) * 2018-07-29 2020-06-09 Realtek Semiconductor Corp. Data processing system and image processing circuit
US10554975B1 (en) * 2018-09-30 2020-02-04 Tencent America LLC Method and apparatus for video coding

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05176294A (ja) * 1991-12-25 1993-07-13 Ricoh Co Ltd デジタル電子スチルカメラ及び画像再生方法
JP2007228515A (ja) * 2006-02-27 2007-09-06 Sony Corp 撮像装置、撮像回路、および撮像方法
JP2010074597A (ja) * 2008-09-19 2010-04-02 Sony Corp 画像処理装置、画像処理方法、プログラムおよび撮像装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1115054C (zh) * 1996-12-26 2003-07-16 索尼株式会社 图像信号编码、解码装置及方法
JP2000013806A (ja) 1998-06-23 2000-01-14 Mitsubishi Electric Corp 画像処理装置及び画像処理方法
JP2003125243A (ja) * 2001-10-16 2003-04-25 Fuji Photo Film Co Ltd 撮像装置
JP4822507B2 (ja) * 2005-10-27 2011-11-24 株式会社メガチップス 画像処理装置および画像処理装置に接続される装置
JP4680166B2 (ja) * 2006-10-30 2011-05-11 ソニー株式会社 撮像装置および撮像方法
US7969475B2 (en) * 2007-07-17 2011-06-28 Seiko Epson Corporation Low memory auto-focus and exposure system for large multi-frame image acquisition
JP2011049764A (ja) * 2009-08-26 2011-03-10 Toshiba Corp データ圧縮伸長装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05176294A (ja) * 1991-12-25 1993-07-13 Ricoh Co Ltd デジタル電子スチルカメラ及び画像再生方法
JP2007228515A (ja) * 2006-02-27 2007-09-06 Sony Corp 撮像装置、撮像回路、および撮像方法
JP2010074597A (ja) * 2008-09-19 2010-04-02 Sony Corp 画像処理装置、画像処理方法、プログラムおよび撮像装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017520941A (ja) * 2015-04-07 2017-07-27 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 画像処理方法及び画像処理装置
US9918061B2 (en) 2015-04-07 2018-03-13 SZ DJI Technology Co., Ltd. System and method for storing image data in parallel in a camera system
JP2017059999A (ja) * 2015-09-16 2017-03-23 キヤノン株式会社 撮像装置および撮像装置における符号化方法

Also Published As

Publication number Publication date
US20130002905A1 (en) 2013-01-03
JPWO2011148573A1 (ja) 2013-07-25
CN102812698B (zh) 2015-07-22
CN102812698A (zh) 2012-12-05
JP5793716B2 (ja) 2015-10-14
US8823832B2 (en) 2014-09-02

Similar Documents

Publication Publication Date Title
JP5793716B2 (ja) 撮像装置
JP4508132B2 (ja) 撮像装置、撮像回路、および撮像方法
JP4337911B2 (ja) 撮像装置、撮像回路、および撮像方法
JP4321496B2 (ja) 画像データ処理装置、画像データ処理方法およびプログラム
JP4769039B2 (ja) デジタル信号符号化および復号化装置ならびにその方法
KR101395433B1 (ko) 촬상 장치 및 촬상 방법
KR100347508B1 (ko) 촬상 장치
US20070110155A1 (en) Method and apparatus of high efficiency image and video compression and display
JP2008153836A (ja) 撮像装置、画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
CN101083773A (zh) 数字图像处理设备中的伽玛校正装置和方法
JP2009027488A (ja) 撮像回路および撮像装置
JP4504412B2 (ja) 画像処理装置及び画像処理方法
KR100843195B1 (ko) 디스플레이 처리와 데이터 압축을 동시에 수행하는 촬상신호 처리 장치 및 그 방법
US8994856B2 (en) Image processing apparatus, imaging apparatus, and image processing method for providing edge enhancement
US20200252652A1 (en) Encoding device, decoding device, encoding method, and decoding method
JP4302661B2 (ja) 画像処理システム
JP7289642B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
WO2023032484A1 (ja) 撮像システム、撮像端末及びサーバ
JP4522640B2 (ja) データ転送システムおよびデータ転送方法
JP4720494B2 (ja) 撮像装置、撮像方法およびプログラム、並びに記録媒体
JP4517548B2 (ja) 撮像装置及び撮像信号の雑音除去方法
JP5003787B2 (ja) 撮像装置及び撮像信号の雑音除去方法
JP2007228514A (ja) 撮像装置および方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180012830.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11786277

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012517110

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11786277

Country of ref document: EP

Kind code of ref document: A1