JP2013219682A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2013219682A
JP2013219682A JP2012090448A JP2012090448A JP2013219682A JP 2013219682 A JP2013219682 A JP 2013219682A JP 2012090448 A JP2012090448 A JP 2012090448A JP 2012090448 A JP2012090448 A JP 2012090448A JP 2013219682 A JP2013219682 A JP 2013219682A
Authority
JP
Japan
Prior art keywords
data
unit
compressed
image
still image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012090448A
Other languages
Japanese (ja)
Other versions
JP2013219682A5 (en
Inventor
Yohei Horikawa
洋平 堀川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012090448A priority Critical patent/JP2013219682A/en
Publication of JP2013219682A publication Critical patent/JP2013219682A/en
Publication of JP2013219682A5 publication Critical patent/JP2013219682A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To perform high definition still image photographing without stopping video recording in an imaging device performing still image photographing during video recording.SOLUTION: An imaging device includes: a reversible compression unit 110 that divides image data into a plurality of blocks in a predetermined size and performs reversible compression on the divided blocks of the image data; a storage unit 114 that temporarily stores the compressed data compressed by the reversible compression unit; reversible expansion unit 111 that reads the compressed data out of the storage unit, and expands the compressed data; and a signal processing unit 112 that converts the expanded image data expanded by the reversible expansion unit into a brightness signal and a color signal, and performs irreversible compression on the converted image data. The reversible compression unit performs reversible compression by taking a difference of data in an area of the blocks.

Description

本発明は、動画記録中に静止画撮影を行う装置において、動画記録を止めることなく静止画撮影を行う技術に関する。   The present invention relates to a technique for performing still image shooting without stopping moving image recording in an apparatus that performs still image shooting during moving image recording.

近年、動画撮影中に静止画撮影を行うことを目的としたデジタルスチルカメラやデジタルビデオカメラが提案されている。例えば、特許文献1には、動画記録中に静止画撮影の要求があった場合、静止画データを一時的にメモリに記憶しておき、動画記録終了後に記録媒体へ書き込みを行うことが可能なデジタルビデオカメラが記載されている。   In recent years, digital still cameras and digital video cameras have been proposed for the purpose of taking still images during moving image shooting. For example, in Patent Document 1, when there is a request for still image shooting during moving image recording, still image data can be temporarily stored in a memory and written to a recording medium after moving image recording is completed. A digital video camera is described.

しかし、特許文献1に記載の技術では、静止画の記録サイズは固体撮像素子から出力される画像サイズとは関係なく、動画記録の1フレームの画像を記録するため、高精細な静止画を記録することが出来ないという問題がある。   However, in the technique described in Patent Document 1, the recording size of the still image is independent of the image size output from the solid-state imaging device, and a high-definition still image is recorded in order to record one frame of moving image recording. There is a problem that it can not be done.

一方、特許文献2には動画記録中の静止画撮影を高精細に記録するための方法として、動画記録を一旦止めてから静止画撮影を行い、動画記録を再開するデジタルカメラが提案されている。このとき欠落したフレームには黒画像が挿入されることで、欠落フレームをスキップせずに動画を記録することが出来るという内容が記載されている。   On the other hand, as a method for recording still image shooting during moving image recording with high definition, Patent Document 2 proposes a digital camera that temporarily stops moving image recording and then performs still image shooting and resumes moving image recording. . It is described that a moving image can be recorded without skipping the missing frame by inserting a black image into the missing frame at this time.

しかし、特許文献2に記載の技術では、欠落フレームが存在するため、ユーザーは欠落フレームの間に起こった出来事を動画再生時に見ることが出来ないという問題がある。   However, the technique described in Patent Document 2 has a problem in that since a missing frame exists, the user cannot see an event that occurred between the missing frames during playback of a moving image.

動画記録中に動画撮影を止めることなく高精細な静止画を撮影することが出来ない原因として、次のようなことがあげられる。すなわち、動画記録がメモリの転送帯域を大きく占有してしまい、通常の静止画記録を行うときと同等のメモリの転送帯域を、静止画処理に使用することが出来ないことである。   The following are reasons why a high-definition still image cannot be shot without stopping moving image recording during moving image recording. That is, the moving image recording occupies a large transfer bandwidth of the memory, and the memory transfer bandwidth equivalent to that for normal still image recording cannot be used for still image processing.

そこで、特許文献3では、次のような提案がなされている。すなわち、固体撮像素子から読み出された画像データの圧縮を行って一旦メモリに置き、画像データの信号処理を行う際に、圧縮された画像データを読み出して、伸張しながら現像処理を行うことでメモリの転送帯域の占有率を下げるという方法である。この提案は1水平サイズの数分の一程度のディレイラインしか持たずに全画面を部分的に(例えば、縦方向の短冊状に)処理していく信号処理技術に関するものである。課題を解決するために量子化語長を固定値にして非可逆圧縮を行うことで、アドレス計算のみにより、指定画素の読み出しを行うことが出来る記載がある。   Therefore, in Patent Document 3, the following proposal is made. That is, the image data read from the solid-state image sensor is compressed and temporarily stored in a memory, and when image signal processing is performed, the compressed image data is read and developed while being decompressed. This is a method of reducing the occupancy rate of the memory transfer band. This proposal relates to a signal processing technique for processing a whole screen partially (for example, in the form of a strip in the vertical direction) having only a delay line that is about a fraction of a horizontal size. In order to solve the problem, there is a description that a designated pixel can be read out only by address calculation by performing lossy compression with a fixed quantization word length.

特開平9−233410号公報JP-A-9-233410 特開2006−310907号公報JP 2006-310907 A 特開2007−228515号公報JP 2007-228515 A

特許文献3に記載の技術では、指定画素の読み出しを行うために非可逆圧縮を使用するため圧縮歪みが発生してしまう。また読み出した画像に対して、現像回路の分割処理後に再度JPEG圧縮などの非可逆圧縮を行うため、高精細な画像を得ることが難しい。そのため、高精細な画像が特に求められる静止画撮影には向かないという問題があった。   In the technique described in Patent Document 3, compression loss occurs because irreversible compression is used to read a designated pixel. In addition, since the read image is subjected to irreversible compression such as JPEG compression after the development circuit division processing, it is difficult to obtain a high-definition image. For this reason, there is a problem that it is not suitable for still image shooting, in which a high-definition image is particularly required.

また可逆圧縮で量子化語長を固定値にするには、目標のサイズに圧縮が出来なかった場合、新たな符号化テーブルで圧縮をしなおすなどの処理が発生し、符号化の処理時間が多くかかってしまう。そのため量子化語長を固定値にする符号化を行う際には高速な処理が難しいとされ、動画記録と静止画記録を同時に行うことが出来ないという問題があった。   Also, in order to make the quantized word length a fixed value by lossless compression, if compression to the target size is not possible, processing such as re-compression with a new encoding table occurs, and the encoding processing time It takes a lot. For this reason, it is considered that high-speed processing is difficult when encoding with a fixed quantized word length, and there is a problem that moving image recording and still image recording cannot be performed simultaneously.

さらに、一般的に、量子化語長を可変値とするよりも固定値とした符号化方法のほうが、圧縮効率が低いという問題がある。そのため、量子化語長を固定値とした符号化では、メモリの転送帯域の占有率を下げることができないという問題があった。   Furthermore, in general, there is a problem that the compression efficiency is lower in the encoding method in which the quantized word length is a fixed value than in the variable value. For this reason, there is a problem that the occupancy rate of the transfer band of the memory cannot be reduced by encoding with the quantization word length as a fixed value.

本発明は上述した課題に鑑みてなされたものであり、その目的は、動画記録中に静止画撮影を行う撮像装置において、動画記録を止めることなく高精細な静止画撮影を行えるようにすることである。   The present invention has been made in view of the above-described problems, and an object thereof is to enable high-definition still image shooting without stopping moving image recording in an imaging device that performs still image shooting during moving image recording. It is.

本発明に係わる撮像装置は、画像データを所定のサイズで複数のブロックに分割し、可逆圧縮する可逆圧縮手段と、前記可逆圧縮手段で圧縮した圧縮データを一時的に記憶する記憶手段と、前記記憶手段から前記圧縮データを読み出して伸張する可逆伸張手段と、前記可逆伸張手段で伸張した伸張画像データを輝度信号と色信号へ変換し、非可逆圧縮する信号処理手段とを備え、前記可逆圧縮手段は、前記ブロックの領域内でデータの差分を取ることにより可逆圧縮を行うことを特徴とする。   An imaging apparatus according to the present invention includes a reversible compression unit that divides image data into a plurality of blocks of a predetermined size and performs lossless compression, a storage unit that temporarily stores compressed data compressed by the lossless compression unit, Reversible decompression means for reading the compressed data from the storage means and decompressing; and signal processing means for converting the decompressed image data decompressed by the reversible decompression means into a luminance signal and a color signal and irreversibly compressing the data, and the lossless compression The means is characterized in that lossless compression is performed by taking a data difference within the block area.

本発明によれば、動画記録中に静止画撮影を行う撮像装置において、動画記録を止めることなく高精細な静止画撮影を行うことが可能となる。   According to the present invention, it is possible to perform high-definition still image shooting without stopping moving image recording in an imaging apparatus that performs still image shooting during moving image recording.

本発明の第1の実施形態に係わる撮像装置の概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of an imaging apparatus according to a first embodiment of the present invention. 静止画可逆圧縮部の概略構成を示すブロック図。The block diagram which shows schematic structure of a still image reversible compression part. 分割ブロック毎の境界画素位置と分割左端画素位置を示す概略図。Schematic which shows the boundary pixel position for every division | segmentation block, and a division | segmentation left end pixel position. 境界画素保持部の概略構成を示すブロック図。The block diagram which shows schematic structure of a boundary pixel holding | maintenance part. 境界画素保持部の動作を示すタイミングチャート。6 is a timing chart showing the operation of the boundary pixel holding unit. 画素差分算出部の処理を示したブロック図。The block diagram which showed the process of the pixel difference calculation part. 記憶領域における分割圧縮データの領域の持ち方を示した図。The figure which showed how to hold the area | region of the division | segmentation compression data in a storage area. 静止画連写を行った際の可逆圧縮データのDRAMへの格納を示す概念図。The conceptual diagram which shows storing to DRAM of the lossless compression data at the time of performing still image continuous shooting.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態に係わる撮像装置の構成を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of an imaging apparatus according to the first embodiment of the present invention.

この撮像装置100は、撮像素子102から出力される二次元の画像データを動画で記録しながら静止画の記録を高精細に行うことが出来る撮像装置である。なお、以下の説明において本発明に直接関係のない部分は、図示およびその説明を省略する。   The imaging apparatus 100 is an imaging apparatus capable of recording a still image with high definition while recording the two-dimensional image data output from the imaging element 102 as a moving image. In the following description, illustration and description of portions not directly related to the present invention are omitted.

撮像装置100はアナログ信号処理部103、A/D変換器104、デジタル信号処理部105、DRAM114、記録メディア115を備える。デジタル信号処理部105はセンサー補正部106、リサイズ部107、動画像信号処理部108、動画像圧縮部109、静止画像信号処理部112、静止画JPEG圧縮部113を有する。さらに、このような構成に加え、本実施形態の特徴となる静止画可逆圧縮部110と静止画可逆伸張部111を備える。   The imaging apparatus 100 includes an analog signal processing unit 103, an A / D converter 104, a digital signal processing unit 105, a DRAM 114, and a recording medium 115. The digital signal processing unit 105 includes a sensor correction unit 106, a resizing unit 107, a moving image signal processing unit 108, a moving image compression unit 109, a still image signal processing unit 112, and a still image JPEG compression unit 113. Further, in addition to such a configuration, a still image lossless compression unit 110 and a still image lossless decompression unit 111 which are features of the present embodiment are provided.

撮像素子102は、例えばCCD、CMOS型のイメージセンサーなどの固体撮像素子であり、不図示の光学レンズから入射された光を電気信号に変換しアナログ信号処理部103に出力する。撮像素子102は複数の原色系フィルタを有しており、例えば赤色(R)を検出する画素と、緑色(G)を検出する画素と青色(B)を検出する画素が含まれる。本実施形態ではベイヤー配列を前提に説明する。   The imaging element 102 is a solid-state imaging element such as a CCD or CMOS type image sensor, for example, converts light incident from an optical lens (not shown) into an electrical signal and outputs the electrical signal to the analog signal processing unit 103. The image sensor 102 has a plurality of primary color filters, and includes, for example, a pixel that detects red (R), a pixel that detects green (G), and a pixel that detects blue (B). In the present embodiment, description will be made on the assumption of a Bayer array.

アナログ信号処理部103は撮像素子102に含まれる伝送路上のノイズなどを除去するCDS回路や非線形増幅回路などを備えており、入力されたアナログ電気信号に対してCDS回路や非線形増幅回路による処理を行った結果をA/D変換器104に出力する。 A/D変換器104では、撮像素子102から出力され、アナログ処理回路103で処理されたアナログ電気信号をデジタル電気信号(画素信号)に変換し、センサー補正部106に出力する。   The analog signal processing unit 103 includes a CDS circuit and a nonlinear amplifier circuit that remove noise on the transmission line included in the image sensor 102, and processes the input analog electric signal by the CDS circuit and the nonlinear amplifier circuit. The result is output to the A / D converter 104. The A / D converter 104 converts the analog electrical signal output from the image sensor 102 and processed by the analog processing circuit 103 into a digital electrical signal (pixel signal), and outputs the digital electrical signal to the sensor correction unit 106.

センサー補正部106はA/D変換器104から出力された画素信号に対して、センサーの製造上発生する欠陥画素の補正処理、レンズの周辺光量落ちを補正するシェーディング処理などを施し、リサイズ部107と静止画可逆圧縮部110に出力する。リサイズ部107はベイヤー配列で入力された画像に対して、所定の動画像サイズとなるように画像サイズの縮小を行って動画像信号処理部108に出力する。   The sensor correction unit 106 performs a correction process of defective pixels generated in the manufacture of the sensor, a shading process to correct a decrease in peripheral light amount of the lens, and the like on the pixel signal output from the A / D converter 104, and a resizing unit 107. And output to the still image lossless compression unit 110. The resizing unit 107 reduces the image size of the image input in the Bayer array so as to obtain a predetermined moving image size, and outputs the image to the moving image signal processing unit 108.

動画像信号処理部108はAF、AE、ホワイトバランス制御のための検波処理や、ホワイトバランス調整に代表される信号補正処理やセンサーから出力される二次元画像データに存在するノイズをリダクションするノイズリダクション処理などを行う。さらにベイヤー配列の画像データをYUV422など、所定のフォーマットのY(輝度信号)とUV(色差信号)に変換し、動画像圧縮部109に出力する。   The moving image signal processing unit 108 performs detection processing for AF, AE, white balance control, signal correction processing typified by white balance adjustment, and noise reduction for reducing noise existing in two-dimensional image data output from the sensor. Perform processing. Further, the Bayer array image data is converted into Y (luminance signal) and UV (color difference signal) of a predetermined format such as YUV422, and is output to the moving image compression unit 109.

動画像圧縮部109は、動画信号処理部108で処理された二次元の画像データをJPEG圧縮し、不図示のマイクから入力される音声とヘッダファイルを付加し、AVIデータ形式で動画ファイルを生成する。この動画ファイルは不図示のDRAMコントローラーによってDRAM114に出力される。   The moving image compressing unit 109 JPEG compresses the two-dimensional image data processed by the moving image signal processing unit 108, adds audio input from a microphone (not shown) and a header file, and generates a moving image file in the AVI data format. To do. This moving image file is output to the DRAM 114 by a DRAM controller (not shown).

このときの動画像圧縮部109における映像データ及び音声データの記録処理を詳細に説明する。例えば、動画ファイルをAVIファイルとすると、AVIファイルはファイル先頭のヘッダが映像データと音声データの配置を管理する。例えば、ヘッダに続き音声データを一秒間に約172kbyte置く。また映像データの1枚1枚のJPEGデータを30fpsなら1秒間に30フレーム置く。さらに音声データと30フレームの映像データを交互に1秒間置きに配置する。   The video data and audio data recording processing in the moving image compression unit 109 at this time will be described in detail. For example, if the moving image file is an AVI file, the header of the file head of the AVI file manages the arrangement of video data and audio data. For example, audio data is placed at about 172 kbytes per second following the header. In addition, if JPEG data for each piece of video data is 30 fps, 30 frames are placed per second. Furthermore, audio data and 30 frames of video data are alternately arranged every other second.

このとき、JPEGデータをバッファするための画像バッファ領域と音声データをバッファするための音声バッファ領域をDRAM114上に確保する。画像バッファ領域と音声バッファ領域は、それぞれの生成された画像データと音声データを一時的に記憶する。そして、1秒単位にAVIデータ形式の映像データと音声データとをまとめて、DRAM114上の動画バッファ領域に出力する。このとき、動画バッファ領域に溜め込んだデータは後述の記録メディア115に動画ファイルとして書き込まれる。   At this time, an image buffer area for buffering JPEG data and an audio buffer area for buffering audio data are secured on the DRAM 114. The image buffer area and the audio buffer area temporarily store the generated image data and audio data, respectively. The video data and audio data in the AVI data format are collected and output to the moving image buffer area on the DRAM 114 every second. At this time, the data stored in the moving image buffer area is written as a moving image file on a recording medium 115 described later.

静止画可逆圧縮部110はセンサー補正部106から出力されたベイヤー配列の画像データに対して、後述する圧縮手段によって画像データを分割して圧縮し可逆圧縮画像データとして、不図示のDRAMコントローラーによってDRAM114に出力する。ここで行う画像データの分割サイズは後述する静止画像信号処理部112で処理する分割単位で行う。また、上部の分割サイズは、後述するJPEG圧縮で処理するデータのサイズ以下のサイズである。このとき、静止画可逆圧縮部110から出力される二次元画像データの可逆圧縮データはDRAM114から記録メディア115に出力される。この二次元画像データの可逆圧縮データは、一般にRAWデータと呼ばれ、外部の専用現像処理ソフトをユーザーが使用することによって、圧縮歪みのない高精細な画像を得ることが出来る。   The still image reversible compression unit 110 divides and compresses the image data of the Bayer array output from the sensor correction unit 106 by compression means to be described later, and compresses the compressed data as reversible compressed image data by a DRAM controller (not shown). Output to. The division size of the image data performed here is performed in units of division processed by a still image signal processing unit 112 described later. Further, the upper division size is a size equal to or smaller than the size of data to be processed by JPEG compression described later. At this time, the lossless compressed data of the two-dimensional image data output from the still image lossless compression unit 110 is output from the DRAM 114 to the recording medium 115. The lossless compressed data of the two-dimensional image data is generally called RAW data, and a high-definition image without compression distortion can be obtained by the user using external dedicated development processing software.

静止画可逆伸張部111は可逆圧縮画像データを不図示のDRAMコントローラーを介してDRAM114から読み出し、ハフマン符号化に従って伸張を行って伸張画像データを生成し、静止画像信号処理部112に出力する。   The still image lossless decompression unit 111 reads the lossless compressed image data from the DRAM 114 via a DRAM controller (not shown), decompresses the image according to Huffman coding, generates decompressed image data, and outputs the decompressed image data to the still image signal processing unit 112.

静止画像信号処理部112は、ホワイトバランス調整に代表される信号処理やセンサーから出力される二次元画像データに存在するノイズをリダクションするノイズリダクション処理などを行う。さらにベイヤー配列の画像データをYUV422など、所定フォーマットのY(輝度信号)とUV(色差信号、色信号)に変換し、DRAM114に出力する。ここではDRAM114に置かれた二次元画像データはセンサーから出力される画像データを分割した画像データとなる。   The still image signal processing unit 112 performs signal processing typified by white balance adjustment, noise reduction processing for reducing noise present in the two-dimensional image data output from the sensor, and the like. Further, the image data of the Bayer array is converted into Y (luminance signal) and UV (color difference signal, color signal) of a predetermined format such as YUV422 and output to the DRAM 114. Here, the two-dimensional image data placed in the DRAM 114 is image data obtained by dividing the image data output from the sensor.

一般に安価なシステムで実現される静止画像信号処理部112では1水平サイズの数分の一程度のディレイラインしか持たずに、全画面の処理を分割して(例えば縦方向の短冊状に)処理していく前提の機能を持つことが多い。これは、次のような理由による。すなわち、動画像であれば、FullHD(1920×1080)やHD(1280×720)といった規格によって水平サイズが決まるため、ディレイラインの容量を決めることが容易である。しかし、静止画像の水平サイズは、撮像素子から取り込める画像サイズによって任意に決定される。そのため、任意の撮像素子から出力される水平画素サイズで複数ライン分のディレイラインをもてるようにするためには、想定される最大の水平画素のディレイライン分の容量を持つ必要があり、システムが高価になってしまうためである。   In general, the still image signal processing unit 112 realized by an inexpensive system has a delay line that is only a fraction of a horizontal size, and divides the processing of the entire screen (for example, in a vertical strip shape). In many cases, it has the function of the premise. This is due to the following reason. In other words, in the case of a moving image, the horizontal size is determined by standards such as Full HD (1920 × 1080) and HD (1280 × 720), so that it is easy to determine the capacity of the delay line. However, the horizontal size of the still image is arbitrarily determined depending on the image size that can be captured from the image sensor. Therefore, in order to have a delay line for a plurality of lines with a horizontal pixel size output from an arbitrary image pickup device, it is necessary to have a capacity for the delay line of the maximum possible horizontal pixel. This is because it becomes expensive.

DRAM114は不図示のDRAMコントローラーの読み出し制御により、分割された二次元画像データを、分割されていない一括の画像データとして読み出し、静止画JPEG圧縮部113に出力する。   The DRAM 114 reads the divided two-dimensional image data as undivided batch image data by the reading control of a DRAM controller (not shown), and outputs it to the still image JPEG compression unit 113.

静止画JPEG圧縮部113では、静止画像信号処理部112で処理された二次元画像データに対して、JPEG圧縮(非可逆圧縮)を行い、DRAM114に書き出す。このとき、DRAM114に書き出されたデータは後述の記録メディア115に静止画像データとして書き出される。なお、
DRAM114は、前述の動画圧縮部109、静止画可逆圧縮部110、静止画JPEG圧縮部113からの出力を一時的に記録する記録領域である。そして、不図示のDRAMコントローラーの制御により、記憶されたデータを静止画可逆伸張部111や記録メディア115に出力する。各処理との関係を明示的にするために、図1ではDRAM114の入出力は複数に分かれて記載しているが、各処理は一つのバスを介してDRAM114にアクセスして行われる。
The still image JPEG compression unit 113 performs JPEG compression (irreversible compression) on the two-dimensional image data processed by the still image signal processing unit 112 and writes it to the DRAM 114. At this time, the data written to the DRAM 114 is written as still image data to a recording medium 115 described later. In addition,
The DRAM 114 is a recording area for temporarily recording outputs from the moving image compression unit 109, the still image lossless compression unit 110, and the still image JPEG compression unit 113. Then, the stored data is output to the still image reversible decompression unit 111 and the recording medium 115 under the control of a DRAM controller (not shown). In order to clarify the relationship with each processing, the input / output of the DRAM 114 is shown in a plurality of parts in FIG. 1, but each processing is performed by accessing the DRAM 114 via one bus.

記録メディア115はSDカードやCFカードと呼ばれる半導体メモリ素子や磁気媒体、光記録媒体等であり、本体から着脱可能であり、DRAM114に記憶されているデータを記録することが出来る。   The recording medium 115 is a semiconductor memory element called SD card or CF card, a magnetic medium, an optical recording medium, or the like. The recording medium 115 is detachable from the main body and can record data stored in the DRAM 114.

次に、静止画可逆圧縮部110の具体的な構成について、図2を使用して詳細に説明する。この静止画可逆圧縮部110は、画素差分算出部200と境界画素保持部201とHカウンタ202とVカウンタ203と分割ブロック判定部204とリスタートマーカー生成部205とハフマン符号化部206を有する。   Next, a specific configuration of the still image reversible compression unit 110 will be described in detail with reference to FIG. The still image reversible compression unit 110 includes a pixel difference calculation unit 200, a boundary pixel holding unit 201, an H counter 202, a V counter 203, a divided block determination unit 204, a restart marker generation unit 205, and a Huffman encoding unit 206.

次に、静止画可逆圧縮部110の動作について説明する。ここでは便宜上分割して圧縮するブロック数を4ブロックとして説明する。   Next, the operation of the still image reversible compression unit 110 will be described. Here, the number of blocks to be divided and compressed for convenience will be described as four blocks.

センサー補正部106から出力された画像データは、画素差分算出部200と境界画素保持部201と各画素の位置を判別するHカウンタ202、Vカウンタ203に入力される。   The image data output from the sensor correction unit 106 is input to the pixel difference calculation unit 200, the boundary pixel holding unit 201, and the H counter 202 and V counter 203 that determine the position of each pixel.

Hカウンタ202はセンサー補正部106から出力された画像データの水平画素位置をHカウンタデータとして出力し、Vカウンタ203はセンサー補正部106から出力された画像データの垂直画素位置をHカウンタの値から算出しVカウンタデータとして出力する。   The H counter 202 outputs the horizontal pixel position of the image data output from the sensor correction unit 106 as H counter data, and the V counter 203 calculates the vertical pixel position of the image data output from the sensor correction unit 106 from the value of the H counter. Calculate and output as V counter data.

境界画素保持部201は、Hカウンタ202の出力から、入力された画像データがあらかじめ決められた分割を行うブロックの領域内の右端部であるかどうかを判定し、各ブロックの右端部であると判定した際には、その画素を保持する。境界画素保持部201は、Hカウンタ202の出力から、入力された画像データが各ブロック左端の画素であるかどうかを判定し、左端の画素であれば保持された画素を画素差分算出部200に出力する。   The boundary pixel holding unit 201 determines, based on the output of the H counter 202, whether or not the input image data is the right end in the block area to be divided in advance, and is the right end of each block. When the determination is made, the pixel is held. The boundary pixel holding unit 201 determines whether or not the input image data is the leftmost pixel of each block from the output of the H counter 202. Output.

具体的な動作を、図3を使って説明する。図3はセンサー補正部106から入力される画像データ300に対して、4ブロックに分割した際の画素保持部の動作について説明する図である。   A specific operation will be described with reference to FIG. FIG. 3 is a diagram for explaining the operation of the pixel holding unit when the image data 300 input from the sensor correction unit 106 is divided into four blocks.

撮像素子から入力される画像データ300が左上から順次入力された時に、各ブロックの右端部にあたる境界画素304を、少なくとも各ブロックの次ラインの左端部である分割左端部画素305が入力されるまで保持する。保持された境界画素304は分割左端画素305が入力された際に画素差分算出部200に出力される。ここで、保持される境界画素304は1画素ではなく2画素でも良い。またここでは、次ラインの左端部と記載しているが、2ライン後の左端部が入力された時に画素差分算出部200から出力されるように制御しても良い。これはベイヤー配列に基づいた入力だと、R−GもしくはG−Bのそれぞれの原色系で境界画素が発生するためである。   When the image data 300 input from the image sensor is sequentially input from the upper left, the boundary pixel 304 corresponding to the right end of each block is input until at least the divided left end pixel 305 that is the left end of the next line of each block is input. Hold. The held boundary pixel 304 is output to the pixel difference calculation unit 200 when the divided left end pixel 305 is input. Here, the boundary pixel 304 to be held may be two pixels instead of one pixel. Although the left end portion of the next line is described here, control may be performed so that the pixel difference calculation unit 200 outputs the left end portion after the second line. This is because a boundary pixel is generated in each primary color system of RG or GB when the input is based on the Bayer array.

具体的に図4を使って境界画素保持部201の構成を説明する。境界画素保持部201は、画素を保持する画素保持ブロック401と、各分割ブロックの境界画素であることを判定する境界画素判定部402と、複数の画素保持ブロック401で保持している保持データを選択して出力する出力選択部403を有する。ここで、画素保持ブロック401は少なくとも分割を行う数以上有する。   Specifically, the configuration of the boundary pixel holding unit 201 will be described with reference to FIG. The boundary pixel holding unit 201 includes a pixel holding block 401 that holds pixels, a boundary pixel determination unit 402 that determines that the pixel is a boundary pixel of each divided block, and holding data held by a plurality of pixel holding blocks 401. An output selection unit 403 for selecting and outputting is provided. Here, the pixel holding block 401 has at least the number of divisions.

画素保持ブロック401は保持を行う画素数の画素保持部400を有し、画素保持部400は境界画素判定部402の出力によって画素を保持するかどうかを選択する。境界画素判定部402は各分割されたブロックの右端部画素である境界画素304が入力されたということを、境界画素を保持する画素保持部400に境界パルスとして通知する。また各ブロックの分割左端画素305が入力された場合には、出力選択部403に左端パルス405として出力されると同時に、左端であることを示すパルスとして画素差分算出部200にも出力される。   The pixel holding block 401 has a pixel holding unit 400 of the number of pixels to be held, and the pixel holding unit 400 selects whether to hold a pixel according to the output of the boundary pixel determination unit 402. The boundary pixel determination unit 402 notifies the pixel holding unit 400 that holds the boundary pixel that the boundary pixel 304 that is the right end pixel of each divided block has been input as a boundary pulse. When the divided left end pixel 305 of each block is input, it is output to the output selection unit 403 as a left end pulse 405 and simultaneously to the pixel difference calculation unit 200 as a pulse indicating the left end.

境界画素判定部402の動作を図5のタイミングチャートを使って説明する。Hカウンタデータはセンサー補正部から出力される画像データの水平画素の位置を表し、Hカウンタ202から出力される。センサー補正データはセンサー補正部106から出力され、1ライン目のデータをA、2ライン目のデータをB、3ライン目のデータをCとする。   The operation of the boundary pixel determination unit 402 will be described using the timing chart of FIG. The H counter data represents the position of the horizontal pixel of the image data output from the sensor correction unit, and is output from the H counter 202. The sensor correction data is output from the sensor correction unit 106, and the first line data is A, the second line data is B, and the third line data is C.

各ブロックの分割データは、分割領域1に対しては1a,1b,1cとする。分割領域2に対しては2a,2bとする。分割領域3に対しては3a,3bとする。分割領域4に対しては4a,4bとする。   The divided data of each block is 1a, 1b, and 1c for the divided area 1. For the divided region 2, 2a and 2b are used. 3a and 3b are assigned to the divided area 3. 4a and 4b are assigned to the divided area 4.

境界画素判定部402はセンサー補正データの画素が各分割ブロックの所定の位置の画素に相当したときに、左端パルスと境界パルスを出力する。左端パルスは各分割ブロックの左端画素が入力されたことをHカウンタの値から算出し、出力される。これは、境界画素判定部に入力されるセンサー補正データの画素が、各分割領域の左端部になったときに出力されるパルス信号である。この図では左端パルスの分割領域1に対応するものを左端パルス1、分割領域2に対応するものを左端パルス2、分割領域3に対応するものを左端パルス3、分割領域4に対応するものを左端パルス4としている。   The boundary pixel determination unit 402 outputs a left end pulse and a boundary pulse when the pixel of the sensor correction data corresponds to a pixel at a predetermined position of each divided block. The left end pulse is output from the value of the H counter that the left end pixel of each divided block has been input. This is a pulse signal output when the pixel of the sensor correction data input to the boundary pixel determination unit is at the left end of each divided region. In this figure, the left end pulse corresponding to the divided region 1 of the left end pulse 1, the one corresponding to the divided region 2 corresponding to the left end pulse 2, the one corresponding to the divided region 3 corresponding to the left end pulse 3 and the divided region 4 are illustrated. The left end pulse 4 is set.

境界パルスは各分割ブロックの境界画素が入力されたことを、Hカウンタの値から算出し、出力される。これは、境界画素判定部402に入力されるセンサー補正データの画素が、各分割領域の右端部になったときに出力されるパルス信号である。この図では境界パルスの分割領域1に対応するものを境界パルス1、分割領域2に対応するものを境界パルス2、分割領域3に対応するものを境界パルス3、分割領域4に対応するものを境界パルス4としている。出力選択部403は各画素保持ブロック401の出力を境界画素判定部の左端パルスによって選択して保持画素データとして画素差分算出部200に出力する。 図6を使用して画素差分算出部200の処理について説明する。画素差分算出部200はセンサー補正部106から入力された画素信号と、センサー補正部106から入力される画素信号を2画素分遅延させる遅延回路及び境界画素保持部201から出力された画素保持データ404との差分を取るかの選択を行う選択部を有し、差分結果をハフマン符号化部206に出力する。ここでいう2画素遅延を行う理由はベイヤー配列のため各原色の隣接画素との比較を行うためである。上記の選択部は、境界画素判定部402から出力される左端パルス405によって画素保持データとの差分を取ることが選択される。   The boundary pulse is output from the value of the H counter that the boundary pixel of each divided block has been input. This is a pulse signal output when the pixel of the sensor correction data input to the boundary pixel determination unit 402 is the right end of each divided region. In this figure, the boundary pulse corresponding to the divided region 1 is the boundary pulse 1, the one corresponding to the divided region 2 is the boundary pulse 2, the one corresponding to the divided region 3 is the boundary pulse 3, and the one corresponding to the divided region 4 is shown. The boundary pulse 4 is used. The output selection unit 403 selects the output of each pixel holding block 401 by the left end pulse of the boundary pixel determination unit, and outputs it to the pixel difference calculation unit 200 as holding pixel data. The process of the pixel difference calculation unit 200 will be described with reference to FIG. The pixel difference calculation unit 200 delays the pixel signal input from the sensor correction unit 106 and the pixel signal input from the sensor correction unit 106 by two pixels, and the pixel holding data 404 output from the boundary pixel holding unit 201. And a selection unit for selecting whether or not to take the difference, and outputs the difference result to the Huffman encoding unit 206. The reason for performing the two-pixel delay here is to perform comparison with adjacent pixels of each primary color because of the Bayer arrangement. The selection unit is selected to take a difference from the pixel holding data by the left end pulse 405 output from the boundary pixel determination unit 402.

ハフマン符号化部206では、あらかじめ決められた符号化テーブルに従って画素差分算出部200から出力される差分のデータをハフマン符号化圧縮しDRAM114に出力する。   The Huffman coding unit 206 performs Huffman coding compression on the difference data output from the pixel difference calculation unit 200 according to a predetermined coding table and outputs the data to the DRAM 114.

一般的に、自然画の可逆圧縮の符号化効率は2:1といわれている。水平4000画素、垂直3000画素、1画素16bitの固体撮像素子から出力される画像を圧縮せずに一旦メモリ上に置くと、約23MB程度の容量と、転送を行う際にメモリの帯域を使用することとなる。しかし本実施形態のように可逆圧縮を行えば約12MB程度の容量とすることができ、メモリの帯域占有率を半分程度に抑えることが出来る。   In general, the encoding efficiency of lossless compression of natural images is said to be 2: 1. Once an image output from a solid-state image sensor with horizontal 4000 pixels, vertical 3000 pixels, and 1 pixel 16 bits is placed on the memory without being compressed, it uses a capacity of about 23 MB and a memory bandwidth when transferring. It will be. However, if lossless compression is performed as in the present embodiment, the capacity can be reduced to about 12 MB, and the memory bandwidth occupancy can be reduced to about half.

本実施形態の動画撮影中に静止画撮影を行う際のDRAM114へのアクセスは、動画像圧縮部109の出力、静止画可逆圧縮部110の出力、静止画可逆伸張部111の読み出し、静止画信号処理部の出力、静止画JPEG圧縮部の入出力である。下記にてそれぞれのDRAM114の転送量を説明する。   Access to the DRAM 114 when performing still image shooting during moving image shooting according to the present embodiment includes the output of the moving image compression unit 109, the output of the still image lossless compression unit 110, the reading of the still image lossless expansion unit 111, and the still image signal. The output of the processing unit and the input / output of the still image JPEG compression unit. The transfer amount of each DRAM 114 will be described below.

動画圧縮部109の出力におけるメモリの帯域としては、水平1920画素、垂直1080画素、1画素24bitの情報量を持った画像を1/10圧縮率のJPEGで30fpsのMotionJPEGを作成した場合約18MB/secとなる。   The memory bandwidth at the output of the moving picture compression unit 109 is about 18 MB / when a 30 Jps compression JPEG image with 30 1920 pixels in the horizontal direction, 1080 pixels in the vertical direction and 1 pixel in 24 bits of information is created. sec.

静止画可逆圧縮部110の出力及び静止画可逆伸張部111の読み出しは、上述の通り、本実施形態の方法を使用しない場合は約23MB、使用する場合は約12MBとなる。   As described above, the output of the still image lossless compression unit 110 and the reading of the still image lossless decompression unit 111 are about 23 MB when the method of the present embodiment is not used, and about 12 MB when the method is used.

静止画像信号処理部112の出力は、水平画素4000画素、垂直3000画素、1画素16bitのデータとして扱うと、約23MBとなる。   The output of the still image signal processing unit 112 is about 23 MB when handled as data of 4000 horizontal pixels, 3000 vertical pixels, and 16 bits per pixel.

静止画JPEGデータは、静止画像信号処理部112の出力である約23MBのデータを読み出すと共に、1画素24bitの情報量を持った画像として1/10圧縮率のJPEG出力した場合、約3MBの帯域を使用する。   As for still image JPEG data, when about 23 MB of data output from the still image signal processing unit 112 is read and JPEG output of 1/10 compression rate is performed as an image having an information amount of 1 pixel 24 bits, a bandwidth of about 3 MB is obtained. Is used.

上記より動画中に1fpsの静止画撮影を行う際に、本実施形態の方法を使用しない場合1秒あたりのDRAM114の転送量は116MBになる。本実施形態の方法を使用した場合、1秒あたりのDRAM114の転送量は91MBとなり、動画中に静止画撮影を行う際のDRAM114の帯域を削減することが出来る。   As described above, when a 1 fps still image is taken during a moving image, the transfer amount of the DRAM 114 per second is 116 MB when the method of this embodiment is not used. When the method of this embodiment is used, the transfer amount of the DRAM 114 per second is 91 MB, and the bandwidth of the DRAM 114 when taking a still image during a moving image can be reduced.

分割ブロック判定部204はHカウンタ202の出力に基づいて、ハフマン符号化部206からDRAM114に出力される符号化データが4分割されたブロックのどのブロックに属するのかを判定して不図示のDRAMコントローラー通知する。また、不図示のDRAMコントローラーは指定のアドレスに圧縮された各ブロックのデータを記憶する。   Based on the output of the H counter 202, the divided block determination unit 204 determines to which block of the four divided blocks the encoded data output from the Huffman encoding unit 206 belongs to the DRAM controller (not shown). Notice. A DRAM controller (not shown) stores data of each block compressed to a specified address.

上記の指定のアドレスについて、図7を使用して説明する。図7はDRAM114の記憶領域を示した図であり、静止画可逆圧縮データ領域600を含む。静止画可逆圧縮データ領域600は、分割ブロック分の分割圧縮領域を持つ。具体的には、4ブロックに分割される際には、601を分割圧縮データ領域1、602を分割圧縮データ領域2、603を分割圧縮データ領域3、604を分割圧縮データ領域4とした、4つの領域を持つ。   The specified address will be described with reference to FIG. FIG. 7 is a diagram showing a storage area of the DRAM 114, which includes a still image lossless compression data area 600. The still image reversible compression data area 600 has a divided compressed area corresponding to divided blocks. Specifically, when divided into four blocks, 601 is divided compressed data area 1, 602 is divided compressed data area 2, 603 is divided compressed data area 3, and 604 is divided compressed data area 4. With one area.

分割圧縮データ領域はそれぞれ、分割ブロックごとに圧縮された分割圧縮データを記憶する。ここでは、分割圧縮データ領域1に記憶されるデータ605を分割圧縮データ1、分割圧縮データ領域2に記憶されるデータ606を分割圧縮データ2、分割圧縮データ領域3に記憶されるデータ607を分割圧縮データ3、分割圧縮データ領域4に記憶されるデータ608を分割圧縮データ4とする。   Each divided compressed data area stores divided compressed data compressed for each divided block. Here, the data 605 stored in the divided compressed data area 1 is divided into the divided compressed data 1, the data 606 stored in the divided compressed data area 2 is divided, and the data 607 stored in the divided compressed data area 3 is divided. Data 608 stored in the compressed data 3 and the divided compressed data area 4 is referred to as divided compressed data 4.

一般に可変長による符号化の結果は、符号化を完了しないと圧縮後のサイズを知ることは困難である。そのため、符号化中に分割圧縮データ1の最後のデータが格納されるアドレスを予測して、分割圧縮データ1の最終データに続けて分割圧縮データ2の最初のデータを格納するようにDRAM114のアドレス制御を行うことは、困難である。しかし、上述のように記憶領域を分割ブロックごとに分けてもつことで、システムとして成立させることが出来る。   In general, it is difficult to know the size after compression of a variable length encoding result unless the encoding is completed. Therefore, the address of the DRAM 114 is predicted so that the last data of the divided compressed data 1 is stored during encoding, and the first data of the divided compressed data 2 is stored after the final data of the divided compressed data 1. It is difficult to control. However, as described above, the storage area can be divided into divided blocks so that the system can be established.

リスタートマーカー生成部205はHカウンタ202とVカウンタ203の出力から、符号化部から出力される各ブロックの符号化データが出力完了したかどうかを判定する。最後のデータがDRAM114に出力されたと判定した際には、DRAM114に書き出された符号化データの各ブロックにリスタートマーカーを付与する。ただし、各ブロックの最後に処理されるブロックにはリスタートマーカーを付与しない。   The restart marker generation unit 205 determines from the outputs of the H counter 202 and the V counter 203 whether the encoded data of each block output from the encoding unit has been output. When it is determined that the last data has been output to the DRAM 114, a restart marker is assigned to each block of the encoded data written to the DRAM 114. However, a restart marker is not assigned to the block processed at the end of each block.

具体的には、図7の分割圧縮データ領域1、分割圧縮データ領域2、分割圧縮データ領域3の各圧縮データの最後にリスタートマーカーを付与(挿入)するが、分割圧縮データ領域4にはリスタートマーカーを付与しない。   Specifically, a restart marker is added (inserted) to the end of each compressed data in the divided compressed data area 1, divided compressed data area 2, and divided compressed data area 3 in FIG. Does not give a restart marker.

このようにすることで、分割された可逆圧縮画像データを一つの可逆圧縮画像データとして扱うことが出来る。静止画可逆伸張部111は可逆圧縮画像データの分割ブロックを一つのデータとしてDRAMから読み出すことで、分割された可逆圧縮画像データを伸張する際のオーバーヘッドを軽減することが出来る。   In this way, the divided lossless compressed image data can be handled as one lossless compressed image data. The still image lossless decompression unit 111 reads the divided blocks of the lossless compressed image data as one data from the DRAM, thereby reducing the overhead when decompressing the divided lossless compressed image data.

以上により、本実施形態によれば、静止画可逆圧縮を行って一時的に静止画撮影のメモリ上にバッファを持つことで、メモリの帯域を削減出来、動画記録中に静止画記録を行う際に、静止画記録のみ行う際と同等の性能で静止画記録を行うことが出来る。   As described above, according to the present embodiment, by performing reversible still image compression and temporarily having a buffer on the memory for still image shooting, the bandwidth of the memory can be reduced, and when still image recording is performed during moving image recording. In addition, still image recording can be performed with the same performance as when only still image recording is performed.

なお、本実施形態では、AVIデータ形式(MotionJPEG形式)を例に説明しているが、AVIデータ形式に限定するものではなく、例えば前後フレームの相関から圧縮を行うMPEG4 H.264のような動画圧縮を行っても良い。   In this embodiment, the AVI data format (Motion JPEG format) is described as an example. However, the present invention is not limited to the AVI data format. H.264 video compression may be performed.

また、本実施形態では、動画中に静止画撮影を行った際について記載しているが、静止画撮影のみを行ったときに同様の処理を行っても良い。   In the present embodiment, the case where still image shooting is performed in a moving image is described. However, the same processing may be performed when only still image shooting is performed.

また、本実施形態では、静止画可逆圧縮の出力と静止画JPEG圧縮の出力を同サイズとしているが、静止画信号処理部で処理を行った後にリサイズを行って、静止画JPEG圧縮の出力を変更しても良い。   Also, in this embodiment, the output of the still image reversible compression and the output of the still image JPEG compression are the same size, but after the processing by the still image signal processing unit, resizing is performed to output the still image JPEG compression. It may be changed.

また、本実施形態では、動画サイズと静止画可逆圧縮部から出力される画像データを異なる画像サイズとしているが、静止画可逆圧縮部で取り扱う画像データはリサイズ部107から出力された動画像用の画像データを使用しても良い。   In this embodiment, the moving image size and the image data output from the still image lossless compression unit are different from each other. However, the image data handled by the still image lossless compression unit is for the moving image output from the resizing unit 107. Image data may be used.

また、本実施形態では固体撮像装置を例に説明を行ったが、同構成を取った装置であれば、固体撮像装置に限定されるものではない。   In the present embodiment, the solid-state imaging device has been described as an example. However, the device is not limited to the solid-state imaging device as long as the device has the same configuration.

(第2の実施形態)
以下、本発明の第2の実施形態について説明する。本実施形態に係る撮像装置の構成については第1の実施形態と同様であるため説明を省略する。本実施形態では、静止画連写を行った際の静止画可逆圧縮部110から出力されるデータの記憶領域に対するアドレスの持ち方を、第1の実施形態に加えて説明する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described. Since the configuration of the imaging apparatus according to the present embodiment is the same as that of the first embodiment, description thereof is omitted. In this embodiment, how to hold an address for a storage area of data output from the still image lossless compression unit 110 when still image continuous shooting is performed will be described in addition to the first embodiment.

図8は静止画連写を行った際の、静止画可逆圧縮部110から出力されるデータのDRAMへの格納を示す概念図である。撮像装置100が1枚目の撮影を行った時、静止画可逆圧縮部110から出力される1枚目のデータ800は静止画撮影データ1として、静止画可逆圧縮データ領域に格納される。このとき、静止画撮影データ1の各分割ブロックは、分割圧縮データ領域1、分割圧縮データ領域2、分割圧縮データ領域3、分割圧縮データ領域4にそれぞれ格納される。   FIG. 8 is a conceptual diagram illustrating storage of data output from the still image lossless compression unit 110 in the DRAM when still image continuous shooting is performed. When the imaging apparatus 100 has taken the first image, the first data 800 output from the still image lossless compression unit 110 is stored as still image shooting data 1 in the still image lossless compression data area. At this time, each divided block of the still image shooting data 1 is stored in a divided compressed data area 1, a divided compressed data area 2, a divided compressed data area 3, and a divided compressed data area 4, respectively.

符号化が完了したことを確認して、符号化された各分割圧縮データのサイズから不図示のDRAMコントローラーが各分割ブロックの最終データのアドレスから続けてDRAM114に、次に入力される各分割圧縮データを記憶するアドレスを設定する。   After confirming that the encoding has been completed, the DRAM controller (not shown) continues from the address of the final data of each divided block to the DRAM 114 to be next input to the DRAM 114 from the size of each encoded encoded data. Set the address to store data.

撮像装置100が2枚目の撮影を行った時、静止画可逆圧縮部110から出力される2枚目のデータ801は静止画撮影データ2として、静止画可逆圧縮データ領域に格納される。このとき、図8で示すように各分割圧縮データ領域は1枚目の分割圧縮データに続けてDRAM114に記憶される。   When the image capturing apparatus 100 captures the second image, the second data 801 output from the still image lossless compression unit 110 is stored as still image shooting data 2 in the still image lossless compression data area. At this time, as shown in FIG. 8, each divided compressed data area is stored in the DRAM 114 following the first divided compressed data.

このようにすることで、静止画連写撮影時に分割圧縮した画像データをDRAM114の領域に効率よく記録することが出来る。   By doing so, the image data divided and compressed at the time of still image continuous shooting can be efficiently recorded in the area of the DRAM 114.

また、複数枚連写を行う際に可逆圧縮してDRAM114に記憶するのと同時に、静止画可逆伸張部111を通して静止画信号処理部112が処理を行う。そのとき、静止画可逆伸張部111に読み出すことで空いたDRAM114の領域に可逆圧縮データを置くように不図示のDRAMコントローラーで制御することで、DRAM114の領域の不足を緩和することが出来る。   Further, when performing continuous shooting of a plurality of images, the still image signal processing unit 112 performs processing through the still image reversible decompression unit 111 at the same time as it is reversibly compressed and stored in the DRAM 114. At that time, the lack of the area of the DRAM 114 can be alleviated by controlling with a DRAM controller (not shown) so that the reversible compressed data is placed in the empty area of the DRAM 114 by reading to the still image reversible decompression unit 111.

Claims (6)

画像データを所定のサイズで複数のブロックに分割し、可逆圧縮する可逆圧縮手段と、
前記可逆圧縮手段で圧縮した圧縮データを一時的に記憶する記憶手段と、
前記記憶手段から前記圧縮データを読み出して伸張する可逆伸張手段と、
前記可逆伸張手段で伸張した伸張画像データを輝度信号と色信号へ変換し、非可逆圧縮する信号処理手段とを備え、
前記可逆圧縮手段は、前記ブロックの領域内でデータの差分を取ることにより可逆圧縮を行うことを特徴とする撮像装置。
Lossless compression means for dividing image data into a plurality of blocks of a predetermined size and performing lossless compression;
Storage means for temporarily storing the compressed data compressed by the lossless compression means;
Reversible decompression means for reading and decompressing the compressed data from the storage means;
Signal processing means for converting the decompressed image data decompressed by the reversible decompressing means into a luminance signal and a color signal and irreversibly compressing the data;
The reversible compression unit performs reversible compression by taking a data difference within the block area.
前記記憶手段に記憶される前記圧縮データは、前記ブロックごとに記憶領域を分けて一時的に記憶されることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the compressed data stored in the storage unit is temporarily stored with a storage area divided for each block. 前記画像データは、前記ブロックごとに、前記可逆圧縮手段と前記信号処理手段で処理されることを特徴とする請求項1又は2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the image data is processed by the lossless compression unit and the signal processing unit for each block. 前記ブロックごとに前記可逆圧縮手段によりデータを圧縮する際に、ブロックの左端と次のラインのブロックの右端の差分を符号化し、可逆圧縮することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   4. When compressing data by the lossless compression unit for each block, the difference between the left end of the block and the right end of the block of the next line is encoded and losslessly compressed. The imaging device according to item. 前記所定のサイズは、前記信号処理手段により非可逆圧縮するデータのサイズ以下のサイズであることを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。   5. The image pickup apparatus according to claim 1, wherein the predetermined size is a size equal to or smaller than a size of data to be irreversibly compressed by the signal processing unit. 前記可逆圧縮手段は、ブロックごとの前記圧縮データの最後にリスタートマーカーを挿入することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   The imaging device according to claim 1, wherein the lossless compression unit inserts a restart marker at the end of the compressed data for each block.
JP2012090448A 2012-04-11 2012-04-11 Imaging device Pending JP2013219682A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012090448A JP2013219682A (en) 2012-04-11 2012-04-11 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012090448A JP2013219682A (en) 2012-04-11 2012-04-11 Imaging device

Publications (2)

Publication Number Publication Date
JP2013219682A true JP2013219682A (en) 2013-10-24
JP2013219682A5 JP2013219682A5 (en) 2015-05-28

Family

ID=49591297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012090448A Pending JP2013219682A (en) 2012-04-11 2012-04-11 Imaging device

Country Status (1)

Country Link
JP (1) JP2013219682A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106231158A (en) * 2015-06-02 2016-12-14 佳能株式会社 The control method of imaging apparatus, picture pick-up device and imaging apparatus

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002111989A (en) * 2000-10-02 2002-04-12 Mega Chips Corp Image processing circuit
JP2003230148A (en) * 2002-02-01 2003-08-15 Mitsubishi Electric Corp Image data coding unit
JP2005217493A (en) * 2004-01-27 2005-08-11 Canon Inc Imaging apparatus
JP2009071689A (en) * 2007-09-14 2009-04-02 Sony Corp Image processing apparatus, image processing method, and imaging apparatus
JP2010124080A (en) * 2008-11-17 2010-06-03 Panasonic Corp Image transmitter and image receiver
JP2010147531A (en) * 2008-12-16 2010-07-01 Sony Corp Imaging apparatus and imaging method
JP2010187169A (en) * 2009-02-12 2010-08-26 Panasonic Corp Image processing apparatus, and image processing method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002111989A (en) * 2000-10-02 2002-04-12 Mega Chips Corp Image processing circuit
JP2003230148A (en) * 2002-02-01 2003-08-15 Mitsubishi Electric Corp Image data coding unit
JP2005217493A (en) * 2004-01-27 2005-08-11 Canon Inc Imaging apparatus
JP2009071689A (en) * 2007-09-14 2009-04-02 Sony Corp Image processing apparatus, image processing method, and imaging apparatus
JP2010124080A (en) * 2008-11-17 2010-06-03 Panasonic Corp Image transmitter and image receiver
JP2010147531A (en) * 2008-12-16 2010-07-01 Sony Corp Imaging apparatus and imaging method
JP2010187169A (en) * 2009-02-12 2010-08-26 Panasonic Corp Image processing apparatus, and image processing method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106231158A (en) * 2015-06-02 2016-12-14 佳能株式会社 The control method of imaging apparatus, picture pick-up device and imaging apparatus

Similar Documents

Publication Publication Date Title
US9554038B1 (en) Camera system transmission in bandwidth constrained environments
US9560256B2 (en) Image capture apparatus and image capture method in which an image is processed by a plurality of image processing devices
JP5056370B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGING DEVICE CONTROL PROGRAM, DATA PROCESSING DEVICE, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM
US9854247B2 (en) Moving image compression device, moving image decoding device, image compression device, image decoding device, imaging device, and non-transitory medium storing program
KR101046012B1 (en) Dynamic image processing device, dynamic image processing method, and computer-readable recording medium having recorded dynamic image processing program
US9894270B2 (en) Image processing apparatus and image processing method for handling a raw image, of a moving image or a still image
US9723169B2 (en) Imaging apparatus and imaging apparatus control method
US9396756B2 (en) Image processing apparatus and control method thereof
US20090153704A1 (en) Recording and reproduction apparatus and methods, and a storage medium having recorded thereon computer program to perform the methods
US8379093B2 (en) Recording and reproduction apparatus and methods, and a recording medium storing a computer program for executing the methods
US9179065B2 (en) Image processing apparatus, image processing method, and program product
JP4513487B2 (en) Video data compression device
US10397587B2 (en) Image processing apparatus and control method thereof
KR20090064278A (en) Recording apparatus, replaying apparatus, recording method, replaying method and program recording medium
JP2013219682A (en) Imaging device
JP5974691B2 (en) MOVING IMAGE COMPRESSION DEVICE, IMAGING DEVICE, AND PROGRAM
JP2009130561A (en) Imaging apparatus, control method of imaging apparatus and control program of imaging apparatus
JP2014116746A (en) Imaging device, distortion correction circuit and distortion correction method
JP2009130563A (en) Unit, method, and program for processing data, imaging apparatus, and method and program for controlling the same
JP4720494B2 (en) Imaging apparatus, imaging method and program, and recording medium
JP7289642B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD FOR IMAGE PROCESSING DEVICE, AND PROGRAM
JP2010147531A (en) Imaging apparatus and imaging method
JP5131954B2 (en) Video recorder and camera system
JP5824341B2 (en) Imaging apparatus, recording apparatus, video signal processing apparatus, imaging system, and video signal processing program
JP2012044714A (en) Digital camera and control method of the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150408

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161107