JP2013211715A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2013211715A
JP2013211715A JP2012081023A JP2012081023A JP2013211715A JP 2013211715 A JP2013211715 A JP 2013211715A JP 2012081023 A JP2012081023 A JP 2012081023A JP 2012081023 A JP2012081023 A JP 2012081023A JP 2013211715 A JP2013211715 A JP 2013211715A
Authority
JP
Japan
Prior art keywords
image
data
image processing
processing circuit
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012081023A
Other languages
Japanese (ja)
Inventor
Toshihisa Kuroiwa
壽久 黒岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012081023A priority Critical patent/JP2013211715A/en
Publication of JP2013211715A publication Critical patent/JP2013211715A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To more efficiently execute processing across a plurality of image processing circuits.SOLUTION: An imaging device comprises an imaging unit, a first image processing circuit and a second image processing circuit, a first memory connected to the first image processing circuit, a second memory connected to the second image processing circuit, and a bus connecting the first image processing circuit to the second image processing circuit. The first image processing circuit and the second image processing circuit have address spaces respectively, and the first memory and the second memory are mapped in any of the respective address spaces.

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

近年、デジタルカメラ等の撮像装置では、イメージセンサの高画素化に伴い、画像処理回路の処理能力が不足する傾向にある。そのため、複数の画像処理回路を用いて並列処理により高速な画像処理を実現する撮像装置も提案されている(例えば特許文献1参照)。   In recent years, in an imaging apparatus such as a digital camera, the processing capability of an image processing circuit tends to be insufficient as the number of pixels of an image sensor increases. For this reason, an imaging apparatus that realizes high-speed image processing by parallel processing using a plurality of image processing circuits has been proposed (see, for example, Patent Document 1).

特開2008−219319号公報JP 2008-219319 A

従来の撮像装置では、複数の画像処理回路に跨って画像データの処理を行う場合、画像処理回路間で画像データを受け渡すたびにメモリへの画像データの書き込みが発生する。   In the conventional imaging apparatus, when image data is processed across a plurality of image processing circuits, the image data is written to the memory every time the image data is transferred between the image processing circuits.

また、従来の撮像装置では、複数の画像処理回路に跨って画像データの処理を行う場合、転送元の画像処理回路のメモリに記録されている処理対象の画像データを、転送先の画像処理回路のメモリにコピー(または移動)させてから処理を実行していた。そのため、従来の撮像装置では、処理を開始するまでの時間が長くなってしまう(Latencyが大きくなる)。   Further, in the conventional imaging apparatus, when processing image data across a plurality of image processing circuits, the processing target image data recorded in the memory of the transfer source image processing circuit is transferred to the transfer destination image processing circuit. The process was executed after copying (or moving) to the memory. Therefore, in the conventional imaging device, the time until the process is started becomes long (latency becomes large).

一の態様の撮像装置は、被写体の像を撮像した画像のデータを出力する撮像部と、それぞれ画像のデータに画像処理を施す第1画像処理回路および第2画像処理回路と、第1画像処理回路に接続された第1メモリと、第2画像処理回路に接続された第2メモリと、第1画像処理回路および第2画像処理回路を接続するバスと、を備える。第1画像処理回路および第2画像処理回路はそれぞれアドレス空間を有し、各々のアドレス空間にはいずれも第1メモリおよび第2メモリがマップされている。   An imaging apparatus according to one aspect includes an imaging unit that outputs image data obtained by capturing an image of a subject, a first image processing circuit and a second image processing circuit that perform image processing on each image data, and first image processing A first memory connected to the circuit; a second memory connected to the second image processing circuit; and a bus connecting the first image processing circuit and the second image processing circuit. Each of the first image processing circuit and the second image processing circuit has an address space, and the first memory and the second memory are mapped to each address space.

上記の一の態様において、第1画像処理回路は、第1メモリに記憶された画像を表示装置に表示出力してもよい。   In the one aspect, the first image processing circuit may display and output the image stored in the first memory on the display device.

上記の一の態様において、撮像部は、動画像のデータを出力してもよい。また、第1画像処理回路は、動画像のデータを圧縮して得た動画像ファイルを不揮発性記録媒体に記録する記録処理を実行してもよい。また、第2メモリは、圧縮のときにフレーム間予測符号化で用いる参照フレームを記憶し、第2メモリから参照フレームの読み出しを実行してもよい。また、上記の第2画像処理回路は、圧縮における動画像の符号化処理を実行してもよい。   In the one aspect described above, the imaging unit may output moving image data. The first image processing circuit may execute a recording process for recording a moving image file obtained by compressing moving image data on a nonvolatile recording medium. In addition, the second memory may store a reference frame used for inter-frame predictive coding at the time of compression, and read the reference frame from the second memory. Further, the second image processing circuit may execute a moving image encoding process in compression.

また、圧縮の対象となるカレントフレームは、第2メモリに記憶されていてもよい。あるいは、圧縮の対象となるカレントフレームは、第1メモリに記憶されていてもよい。   In addition, the current frame to be compressed may be stored in the second memory. Alternatively, the current frame to be compressed may be stored in the first memory.

また、撮像装置は、動画像の撮像時に音声データを取得する音声信号処理部をさらに備えていてもよい。そして、第2画像処理回路は、動画像に音声データを対応付けてもよい。   The imaging apparatus may further include an audio signal processing unit that acquires audio data when capturing a moving image. The second image processing circuit may associate the audio data with the moving image.

各々の画像処理回路は、別の画像処理回路と接続されたメモリ上の画像のデータに直接アクセスすることができ、複数の画像処理回路に跨った処理を効率的に実行することができる。   Each image processing circuit can directly access image data on a memory connected to another image processing circuit, and can efficiently execute processing across a plurality of image processing circuits.

一の実施形態での撮像装置の構成例を示す図The figure which shows the structural example of the imaging device in one embodiment. 第1画像処理回路および第2画像処理回路の構成例を示すブロック図The block diagram which shows the structural example of a 1st image processing circuit and a 2nd image processing circuit メモリマップの一例を模式的に示す図A diagram schematically showing an example of a memory map 静止画撮影モードで連写撮影を行うときのフレームの分配例を示す図Diagram showing an example of frame distribution when continuous shooting is performed in still image shooting mode スレーブ側のJPEG画像ファイルを記録媒体に記録する場合の概要図Outline diagram when recording the JPEG image file on the slave side to the recording medium スレーブ側のフリーズ画を表示部に表示させる場合の概略図Schematic diagram when displaying the slave freeze image on the display 動画撮影モードにおける電子カメラの動作例1の概略図Schematic diagram of operation example 1 of the electronic camera in the moving image shooting mode 動画撮影モードにおける電子カメラの動作例2の概略図Schematic of operation example 2 of electronic camera in moving image shooting mode 動画撮影モードにおける電子カメラの動作例3の概略図Schematic diagram of operation example 3 of electronic camera in moving image shooting mode 動画撮影モードにおける電子カメラの動作例4の概略図Schematic diagram of operation example 4 of electronic camera in moving image shooting mode 動画撮影モードにおける電子カメラの動作例5の概略図Schematic diagram of operation example 5 of the electronic camera in the moving image shooting mode 動画撮影モードにおける電子カメラの動作例6の概略図Schematic of operation example 6 of electronic camera in moving image shooting mode

<撮像装置の構成例の説明>
図1は、一の実施形態での撮像装置の構成例を示す図である。本実施形態では撮像装置の一例として、静止画撮影モードおよび動画撮影モードを選択可能な電子カメラの例を説明する。
<Description of Configuration Example of Imaging Device>
FIG. 1 is a diagram illustrating a configuration example of an imaging apparatus according to an embodiment. In this embodiment, an example of an electronic camera capable of selecting a still image shooting mode and a moving image shooting mode will be described as an example of an imaging apparatus.

電子カメラは、撮影光学系11と、撮像部12と、データ分配器13と、第1画像処理回路14および第2画像処理回路15と、シリアルバス16と、第1メモリ17および第2メモリ18と、第1フラッシュメモリ19および第2フラッシュメモリ20と、表示部21と、外部I/Fコネクタ22と、メディアコネクタ23と、レリーズ釦24および操作釦25と、音声信号処理部27とを有している。なお、撮像部12と音声信号処理部27は、データ分配器13に接続されている。   The electronic camera includes a photographing optical system 11, an imaging unit 12, a data distributor 13, a first image processing circuit 14 and a second image processing circuit 15, a serial bus 16, a first memory 17 and a second memory 18. A first flash memory 19, a second flash memory 20, a display unit 21, an external I / F connector 22, a media connector 23, a release button 24, an operation button 25, and an audio signal processing unit 27. doing. The imaging unit 12 and the audio signal processing unit 27 are connected to the data distributor 13.

撮影光学系11は、例えばズームレンズやフォーカスレンズを含む複数のレンズで構成されている。簡単のため、図1では撮影光学系11を1枚のレンズで図示する。   The photographing optical system 11 is composed of a plurality of lenses including, for example, a zoom lens and a focus lens. For simplicity, FIG. 1 shows the photographing optical system 11 with a single lens.

撮像部12は、撮像素子31と、アナログフロントエンド(AFE)部32と、不図示のタイミングジェネレータ(TG)部とを有している。撮像素子31は、撮影光学系11を通過した光束による被写体の像を撮像するデバイスである。この撮像素子31の画像信号出力はAFE部32に接続されている。本実施形態の撮像素子31は、順次走査方式(またはインターレース方式)で画像信号を読み出す固体撮像素子(例えばCCD)であってもよく、XYアドレス方式で画像信号を読み出す固体撮像素子(例えばCMOS)であってもよい。   The imaging unit 12 includes an imaging device 31, an analog front end (AFE) unit 32, and a timing generator (TG) unit (not shown). The imaging element 31 is a device that captures an image of a subject by a light beam that has passed through the photographing optical system 11. The image signal output of the image sensor 31 is connected to the AFE unit 32. The image sensor 31 of the present embodiment may be a solid-state image sensor (for example, a CCD) that reads an image signal by a sequential scanning method (or an interlace method), and a solid-state image sensor (for example, a CMOS) that reads an image signal by an XY address method. It may be.

また、撮像素子31の受光面には、複数の受光素子がマトリクス状に配列されている。そして、撮像素子31の各受光素子にはカラーフィルタが配置されている。例えば、本実施形態では赤色(R)、緑色(G)、青色(B)のカラーフィルタが公知のBayer配列にしたがって各受光素子に配置される。そのため、撮像素子31の受光素子は、カラーフィルタでの色分解によって各色に対応する画像信号を出力する。これにより、撮像素子31は、撮影時にカラーの画像を取得できる。   A plurality of light receiving elements are arranged in a matrix on the light receiving surface of the image sensor 31. A color filter is disposed on each light receiving element of the image sensor 31. For example, in this embodiment, red (R), green (G), and blue (B) color filters are arranged in each light receiving element according to a known Bayer arrangement. For this reason, the light receiving element of the image pickup element 31 outputs an image signal corresponding to each color by color separation in the color filter. Thereby, the image pick-up element 31 can acquire a color image at the time of imaging | photography.

ここで、撮像素子31の基本動作は、各画素に電荷を蓄積する電荷蓄積動作と、蓄積した電荷を画素から移動させる電荷読み出し動作の2つに大別される。また、各画素に蓄積される電荷には、意図せぬ受光や暗電流により生成された不要電荷(ノイズ)と、被写体像の光束から生成された信号電荷との2種類がある。信号電荷に不要電荷を混入させないためには、撮像素子31による撮像時において、不要電荷を排出した後に被写体像の光束を受光する状態で撮像素子31を電荷蓄積動作に移行させればよい。これにより、各画素に信号電荷のみを蓄積していくことができる。このため、撮像素子31の撮像は、「不要電荷の排出→信号電荷の蓄積(露光動作とも称する)→信号電荷の読み出し(画像信号の出力)」というシーケンスで行われる。このうち、信号電荷の蓄積期間がいわゆる露光時間(シャッター秒時)となる。また、上述した撮像素子31の撮像は、不図示のTG部からの制御によって行われる。   Here, the basic operation of the image pickup device 31 is roughly divided into a charge accumulation operation for accumulating charges in each pixel and a charge readout operation for moving the accumulated charges from the pixels. In addition, there are two types of charges accumulated in each pixel: unwanted charges (noise) generated by unintentional light reception and dark current, and signal charges generated from the luminous flux of the subject image. In order to prevent the unnecessary charges from being mixed into the signal charges, the imaging element 31 may be shifted to the charge accumulation operation in a state where the luminous flux of the subject image is received after the unnecessary charges are discharged during imaging by the imaging element 31. As a result, only signal charges can be accumulated in each pixel. For this reason, imaging of the image sensor 31 is performed in a sequence of “discharge of unnecessary charges → accumulation of signal charges (also referred to as exposure operation) → reading of signal charges (output of image signals)”. Among these, the signal charge accumulation period is the so-called exposure time (shutter seconds). The above-described imaging of the imaging device 31 is performed by control from a TG unit (not shown).

また、撮像部12全体としての撮像動作には、撮像素子31が露光動作と信号電荷の読み出し動作の2つを単発で行う第1モード(one-shotモードとも称する)と、撮像素子31が上述した2つの動作を所定の時間周期(フレーム周期)で自動的に繰り返し行う第2モード(連続モードとも称する)とがある。この第1モードと第2モードの切り替えは、一般に不図示のSIO(シリアルI/O)を介してTG部のレジスタを書き換えることにより行われる。   In the imaging operation of the imaging unit 12 as a whole, the imaging device 31 performs the first mode (also referred to as a one-shot mode) in which the imaging device 31 performs the exposure operation and the signal charge readout operation in a single shot. There is a second mode (also referred to as a continuous mode) in which these two operations are automatically repeated at a predetermined time period (frame period). Switching between the first mode and the second mode is generally performed by rewriting a register in the TG unit via an unillustrated SIO (serial I / O).

上述の第1モードは、電子カメラで静止画の撮影を行う場合に利用される。第1モードの場合、露光動作と信号電荷の読み出し動作が一般に外部からTG部をそれぞれ操作することによって行われるため、それらの操作を行うタイミングによって露光時間を含む撮像動作のタイミングが決定される。このことは、静止画の撮影がユーザの操作によって非同期に起こることに対応している。なお、TG部に対する操作としては、上述したシリアル通信の他、後述するGPIO部49を利用した外部信号による操作も含まれる。また、第1モードで出力される画像信号は、一般に撮像素子31のフル解像度のものである。電子カメラによる静止画の撮影では、この画像信号から生成した画像を記録している。   The first mode described above is used when taking a still image with an electronic camera. In the first mode, since the exposure operation and the signal charge reading operation are generally performed by operating the TG unit from outside, the timing of the imaging operation including the exposure time is determined by the timing of performing these operations. This corresponds to the fact that shooting of a still image occurs asynchronously by a user operation. The operation on the TG unit includes an operation using an external signal using a GPIO unit 49 described later in addition to the serial communication described above. In addition, the image signal output in the first mode is generally of the full resolution of the image sensor 31. In taking a still image with an electronic camera, an image generated from this image signal is recorded.

一方、上述の第2モードでは、予めTG部のレジスタに設定されたパラメータによって撮像素子31の撮像が行われる。第2モードでは、露光時間を含めた露光のタイミングや画像信号の出力タイミングもその設定に応じて固定され、また露光時間は上述したフレーム周期以下に限定されるという制約がある。その代わりに、第2モードでは、一定の周期で連続かつ自動的に画像信号が出力されるため、電子カメラの動画撮影や静止画撮影前のライブビュー(LiveView)に適している。第2モードの場合、出力される画像信号の解像度とフレーム周期の組み合わせが一般に複数あって、かかる組み合わせの変更はTG部のレジスタを書き換えることで行われる。   On the other hand, in the above-described second mode, the image pickup device 31 is picked up by parameters set in advance in the register of the TG unit. In the second mode, the exposure timing including the exposure time and the output timing of the image signal are also fixed according to the setting, and the exposure time is limited to the above-described frame period or less. Instead, in the second mode, the image signal is output continuously and automatically at a constant cycle, which is suitable for live view (LiveView) before moving image shooting with an electronic camera or still image shooting. In the case of the second mode, there are generally a plurality of combinations of resolutions and frame periods of output image signals, and such combinations are changed by rewriting the register of the TG unit.

第2モードでの画像信号の解像度は、利用目的に応じて選択される。例えば、VGA(640×480画素)サイズのLCDパネルでライブビューを行う場合、VGAサイズよりも若干大きい解像度の画像信号が撮像部12から出力されるように設定する。この場合、必要以上に大きな画像信号を撮像部12から出力させないことで、電子カメラのライブビュー時の消費電力を抑制できる。一方、フルHD(1920×1080画素)サイズの動画を撮影する場合、フルHDサイズより若干大きい解像度の画像信号が撮像部12から出力されるように設定する。   The resolution of the image signal in the second mode is selected according to the purpose of use. For example, when live view is performed on a VGA (640 × 480 pixels) size LCD panel, an image signal having a resolution slightly larger than the VGA size is set to be output from the imaging unit 12. In this case, power consumption during live view of the electronic camera can be suppressed by not outputting an image signal larger than necessary from the imaging unit 12. On the other hand, when shooting a movie of full HD (1920 × 1080 pixels) size, the image pickup unit 12 is set to output an image signal having a resolution slightly larger than the full HD size.

また、第2モードでのフレーム周期も、利用目的に応じて選択される。例えば、60fpsの動画を撮影する場合、60fpsで撮像部12から画像信号が出力されるように設定する。30fpsの動画を撮影する場合、30fpsで撮像部12から画像信号が出力されるように設定する。例えば、AFによるピント合わせを高速に行おうとする場合、30fpsよりも60fpsで画像信号を出力する方が有利である。   The frame period in the second mode is also selected according to the purpose of use. For example, when shooting a moving image of 60 fps, the image signal is set to be output from the imaging unit 12 at 60 fps. When shooting a 30 fps moving image, setting is made so that an image signal is output from the imaging unit 12 at 30 fps. For example, when focusing at a high speed by AF, it is more advantageous to output an image signal at 60 fps than at 30 fps.

電子カメラの静止画撮影モードでは、電子カメラの動作が「ライブビュー→静止画撮影→ライブビュー」と変化する。これに対応して、撮像部12の撮像動作を「第2モード→第1モード→第2モード」のように切り替える必要がある。単写撮影の場合、撮像部12の撮像動作は、第1モードの撮像動作が1フレーム分だけ行われた後に、第2モードの撮像動作に戻る。連写撮影の場合、撮像部12の撮像動作は、第1モードの撮像動作が連写のフレーム数だけ続けて行われた後に、第2モードの撮像動作に戻る。   In the still image shooting mode of the electronic camera, the operation of the electronic camera changes from “live view → still image shooting → live view”. Correspondingly, it is necessary to switch the imaging operation of the imaging unit 12 as “second mode → first mode → second mode”. In the case of single shooting, the imaging operation of the imaging unit 12 returns to the imaging operation in the second mode after the imaging operation in the first mode is performed for one frame. In the case of continuous shooting, the imaging operation of the imaging unit 12 returns to the imaging operation in the second mode after the imaging operation in the first mode is continuously performed for the number of continuous shooting frames.

一方、電子カメラの動画撮影モードでは、上述したような撮像部12の撮像動作の切り替えはなく、撮像部12はその動画の仕様に合った解像度とフレーム周期の組み合わせで第2モードの撮像動作を継続する。   On the other hand, in the moving image shooting mode of the electronic camera, there is no switching of the image capturing operation of the image capturing unit 12 as described above, and the image capturing unit 12 performs the image capturing operation in the second mode with a combination of the resolution and the frame period suitable for the moving image specifications. continue.

図1に戻って、AFE部32は、撮像素子31から出力される画像信号にアナログ信号処理を施す回路である。このAFE部32は、相関二重サンプリングや、画像信号のゲインの調整や、画像信号のA/D変換を行う。AFE部32による信号処理後のデジタル画像データは、データ分配器13を介して第1画像処理回路14または第2画像処理回路15に送られる。なお、AFE部32から出力される画像データは、色補間前のBayer配列構造のRGB画像データ(以下、Bayerデータと称する)である。また、撮像素子31がCMOSであるときには、撮像素子31にAFE部32やTG部(不図示)が内蔵されていてもよい。   Returning to FIG. 1, the AFE unit 32 is a circuit that performs analog signal processing on an image signal output from the image sensor 31. The AFE unit 32 performs correlated double sampling, image signal gain adjustment, and A / D conversion of the image signal. The digital image data after the signal processing by the AFE unit 32 is sent to the first image processing circuit 14 or the second image processing circuit 15 via the data distributor 13. The image data output from the AFE unit 32 is RGB image data (hereinafter referred to as Bayer data) having a Bayer array structure before color interpolation. When the image sensor 31 is a CMOS, the image sensor 31 may include an AFE unit 32 or a TG unit (not shown).

データ分配器13は、1入力2出力のセレクタであって、その2つの出力は第1画像処理回路14と第2画像処理回路15にそれぞれ接続されている。データ分配器13は、AFE部32から出力される画像データを第1画像処理回路14と第2画像処理回路15に出力する。また、データ分配器13は、音声信号処理部27から出力される音声データを第1画像処理回路14と第2画像処理回路15に出力する。   The data distributor 13 is a selector with one input and two outputs, and the two outputs are connected to the first image processing circuit 14 and the second image processing circuit 15, respectively. The data distributor 13 outputs the image data output from the AFE unit 32 to the first image processing circuit 14 and the second image processing circuit 15. Further, the data distributor 13 outputs the audio data output from the audio signal processing unit 27 to the first image processing circuit 14 and the second image processing circuit 15.

第1画像処理回路14および第2画像処理回路15は、画像データに所定の画像処理を施すための画像処理用プロセッサであり、それぞれ1つのLSIで構成されることが多い。図2に示すように、本実施形態の第1画像処理回路14と第2画像処理回路15は同じ回路構成であって、データ分配器13に対して並列に接続されている。   The first image processing circuit 14 and the second image processing circuit 15 are image processing processors for performing predetermined image processing on image data, and are often configured by one LSI. As shown in FIG. 2, the first image processing circuit 14 and the second image processing circuit 15 of the present embodiment have the same circuit configuration and are connected in parallel to the data distributor 13.

また、第1画像処理回路14と第2画像処理回路15は、外部のシリアルバス16によって相互に接続されている。第1画像処理回路14には、第1メモリ17、第1フラッシュメモリ19、表示部21、外部I/Fコネクタ22、メディアコネクタ23、レリーズ釦24および操作釦25がそれぞれ接続されている。第2画像処理回路15には、第2メモリ18、第2フラッシュメモリ20がそれぞれ接続されている。なお、本実施形態のシリアルバス16は、第1画像処理回路14から第2画像処理回路15へデータを送信するバスと、第2画像処理回路15から第1画像処理回路14へデータを送信するバスとの2つからなる双方向性のバスである。   The first image processing circuit 14 and the second image processing circuit 15 are connected to each other by an external serial bus 16. A first memory 17, a first flash memory 19, a display unit 21, an external I / F connector 22, a media connector 23, a release button 24 and an operation button 25 are connected to the first image processing circuit 14. A second memory 18 and a second flash memory 20 are respectively connected to the second image processing circuit 15. The serial bus 16 of the present embodiment transmits data from the first image processing circuit 14 to the second image processing circuit 15 and transmits data from the second image processing circuit 15 to the first image processing circuit 14. This is a bidirectional bus consisting of two buses.

第1画像処理回路14はマスタの画像処理回路として動作し、撮影モードにおいて常時動作状態にある。一方、第2画像処理回路15はスレーブの画像処理回路として動作する。電子カメラの画像処理の負荷が比較的低いとき(例えば、静止画撮影モードで単写撮影を行う場合や、再生モードの場合)には、第2画像処理回路15は電源オフの状態または低消費電力の状態となって動作を停止している。そして、電子カメラの画像処理の負荷が比較的高いとき(例えば、静止画撮影モードで連写を行う場合や動画撮影モードの場合)には、第2画像処理回路15が動作状態となって、第1画像処理回路14と第2画像処理回路15によって並列に撮影の処理が行われる。なお、第2画像処理回路15のオン/オフの制御は、第1画像処理回路14によって行われる。   The first image processing circuit 14 operates as a master image processing circuit and is always in an operating state in the photographing mode. On the other hand, the second image processing circuit 15 operates as a slave image processing circuit. When the image processing load of the electronic camera is relatively low (for example, when performing single shooting in the still image shooting mode or in the playback mode), the second image processing circuit 15 is in a power-off state or low power consumption. The operation has stopped due to the power state. When the load of image processing of the electronic camera is relatively high (for example, when continuous shooting is performed in the still image shooting mode or in the moving image shooting mode), the second image processing circuit 15 is in an operating state, Photographing processing is performed in parallel by the first image processing circuit 14 and the second image processing circuit 15. Note that on / off control of the second image processing circuit 15 is performed by the first image processing circuit 14.

第1メモリ17および第2メモリ18は、大容量の揮発性メモリであって、通常はDRAMが使用される。これらのメモリは画像データ(一般に複数フレーム)を一時的に記憶する他、プログラム中で使用される変数を記憶したり、プログラムを実行する際のスタックとして使用される。第1フラッシュメモリ19および第2フラッシュメモリ20は、不揮発性のメモリであって、後述するリアルタイムオペレーティングシステム(RTOS)のカーネル、デバイスドライバ、ミドルウェア、アプリケーションなどのプログラム類、更には、ユーザによるカメラの設定情報等を記憶するために使用される。   The first memory 17 and the second memory 18 are large-capacity volatile memories, and usually DRAMs are used. These memories temporarily store image data (generally a plurality of frames), store variables used in the program, and are used as a stack when executing the program. The first flash memory 19 and the second flash memory 20 are non-volatile memories, and programs such as a real-time operating system (RTOS) kernel, device driver, middleware, application, etc., which will be described later. Used to store setting information and the like.

表示部21は、液晶パネルや有機ELパネル等の表示装置であって、例えば電子カメラの筐体背面に配置される。外部I/Fコネクタ22は、所定の通信規格のインターフェース(例えばUSB)を備えた外部機器(パーソナルコンピュータなど)を接続するために使用される。また、メディアコネクタ23は、不揮発性の記録媒体34を接続するために使用される。なお、メディアコネクタ23に接続される記録媒体34は、例えば、ハードディスクや、半導体メモリを内蔵したメモリカードである。   The display unit 21 is a display device such as a liquid crystal panel or an organic EL panel, and is disposed, for example, on the rear surface of the casing of the electronic camera. The external I / F connector 22 is used to connect an external device (such as a personal computer) having an interface (for example, USB) of a predetermined communication standard. The media connector 23 is used for connecting a non-volatile recording medium 34. Note that the recording medium 34 connected to the media connector 23 is, for example, a hard disk or a memory card incorporating a semiconductor memory.

レリーズ釦24は、静止画撮影モードと動画撮影モードで使用される釦であり、自動焦点調節(Automatic Focusing:AF)などの撮影準備動作の開始を指示するための半押し信号と、撮影の開始を指示するための全押し信号の2つを発生する。また、操作釦25は、ユーザによって操作される様々な釦をまとめて表したもので、例えば、撮影モードの切り替えを行うための釦などが含まれる。   The release button 24 is a button used in the still image shooting mode and the moving image shooting mode, and a half-press signal for instructing the start of a shooting preparation operation such as automatic focusing (AF) and the start of shooting. Two of the full-press signals for instructing are generated. The operation buttons 25 collectively represent various buttons operated by the user, and include, for example, buttons for switching the shooting mode.

音声信号処理部27は、電子カメラの外部音声を集音するマイクと、マイクで収集した音声信号を増幅するアンプと、音声信号のレベルを一定に保つオートレベル制御部と、A/D変換器と、デジタル化された音声データを出力するシリアルデータ出力部とを有している。   The audio signal processing unit 27 includes a microphone that collects external audio from the electronic camera, an amplifier that amplifies the audio signal collected by the microphone, an auto level control unit that maintains the level of the audio signal constant, and an A / D converter. And a serial data output unit for outputting digitized audio data.

続いて、図2を参照しつつ、第1画像処理回路14と第2画像処理回路15の構成例を詳述する。なお、以下の説明では、第1画像処理回路14の符号nの要素を指すときは「n_1」と表記し、第2画像処理回路15の符号nの要素を指すときは「n_2」と表記する。   Next, a configuration example of the first image processing circuit 14 and the second image processing circuit 15 will be described in detail with reference to FIG. In the following description, “n_1” is used to indicate the element of the symbol n of the first image processing circuit 14, and “n_2” is used to indicate the element of the symbol n of the second image processing circuit 15. .

まず、第1画像処理回路14の構成を説明する。第1画像処理回路14は、画像処理部41_1と、静止画圧縮部42_1と、動画圧縮部43_1と、DMAC(Direct Memory Access Controller)44_1と、CPU45_1と、割込コントローラ46_1と、内蔵メモリ47_1と、表示コントローラ48_1と、GPIO(General Purpose Input/Output)部49_1と、メモリコントローラ50_1と、フラッシュメモリコントローラ51_1と、外部I/Fコントローラ52_1と、メディアコントローラ53_1と、音声I/F54_1と、内部バス55_1と、バスブリッジ56_1とを有している。第1画像処理回路14の各部は、内部バス55_1に接続されている。なお、内部バス55_1は、通常パラレルバスであり、例えば公知のオンチップバス(AMBA AXIやOCP(Open Core Protocol)等)でよい。   First, the configuration of the first image processing circuit 14 will be described. The first image processing circuit 14 includes an image processing unit 41_1, a still image compression unit 42_1, a moving image compression unit 43_1, a DMAC (Direct Memory Access Controller) 44_1, a CPU 45_1, an interrupt controller 46_1, and a built-in memory 47_1. , Display controller 48_1, GPIO (General Purpose Input / Output) section 49_1, memory controller 50_1, flash memory controller 51_1, external I / F controller 52_1, media controller 53_1, audio I / F 54_1, internal bus 55_1 and a bus bridge 56_1. Each unit of the first image processing circuit 14 is connected to the internal bus 55_1. The internal bus 55_1 is normally a parallel bus, and may be, for example, a known on-chip bus (AMBA AXI, OCP (Open Core Protocol, etc.)).

画像処理部41_1は、独立した回路であるプリプロセス部とポストプロセス部(いずれも不図示)を内部に有しており、入力される画像データに画像処理(プリプロセス、ポストプロセス)を施す。ここで、プリプロセスとは、画像の補正を主体とする処理であって、入力される画像データに対して、欠陥画素補正、シェーディング補正、OBクランプ処理などの信号処理を施す。また、画像処理部41_1は、プリプロセスを実行する傍ら、その補正された画像データを用いて、オートホワイトバランス(AWB)評価値、AF評価値、自動露出(Auto Exposure:AE)評価値をそれぞれ生成する。   The image processing unit 41_1 includes a pre-processing unit and a post-processing unit (both not shown) that are independent circuits, and performs image processing (pre-processing and post-processing) on input image data. Here, the preprocess is a process that mainly performs image correction, and performs signal processing such as defective pixel correction, shading correction, and OB clamp processing on input image data. In addition to executing the preprocess, the image processing unit 41_1 uses the corrected image data to calculate an auto white balance (AWB) evaluation value, an AF evaluation value, and an automatic exposure (Auto Exposure: AE) evaluation value, respectively. Generate.

また、ポストプロセスでは、プリプロセス後の画像データに対して、カラー処理を主体とする現像処理(例えば、色補間処理、階調変換処理、ホワイトバランス調整処理、ノイズ除去処理、輪郭強調処理、色変換処理等)を施す。上述した画像処理部41_1での画像処理によって、RGBのBayerデータが、所望の色再現がなされたYCbCr形式の画像データ(以下、YCbCrデータと称する)に変換される。画像データに対して圧縮処理を施したり、また画像データを表示部21に表示したりする場合は、このYCbCrデータが用いられる。   In post-processing, image processing after pre-processing is performed mainly on color processing (for example, color interpolation processing, gradation conversion processing, white balance adjustment processing, noise removal processing, contour enhancement processing, color Conversion processing). The RGB Bayer data is converted into YCbCr format image data (hereinafter referred to as YCbCr data) in which desired color reproduction is performed by the image processing in the image processing unit 41_1 described above. The YCbCr data is used when the image data is subjected to compression processing or when the image data is displayed on the display unit 21.

ここで、静止画の撮影時において、画像処理部41_1は、撮影された静止画のデータから、主画像、フリーズ画およびサムネイルをそれぞれ生成する。これらはいずれもYCbCrデータの画像である。主画像は主たるデータとして記録される画像(通常は高解像度)のことである。フリーズ画は、撮影結果の確認のために撮影直後に表示部21に表示される画像である。サムネイルは、画像の検索性を高めるために主画像とともに画像ファイルに記録される縮小画像である。なお、スルー画およびフリーズ画は、例えば640×480画素のサイズであり、サムネイルは、例えば160×120画素のサイズである。画像処理部41_1は、内部にある不図示の解像度変換回路を利用してこれらの小解像度画像を生成する。   Here, at the time of shooting a still image, the image processing unit 41_1 generates a main image, a freeze image, and a thumbnail from the captured still image data. These are all images of YCbCr data. The main image is an image (usually high resolution) recorded as main data. The freeze image is an image displayed on the display unit 21 immediately after shooting for confirmation of the shooting result. The thumbnail is a reduced image recorded in an image file together with the main image in order to improve the searchability of the image. The through image and the freeze image have a size of 640 × 480 pixels, for example, and the thumbnail has a size of 160 × 120 pixels, for example. The image processing unit 41_1 generates these small resolution images using an internal resolution conversion circuit (not shown).

静止画圧縮部42_1は、静止画撮影モードにおいて、撮影された静止画のYCbCrデータに対して例えばJPEG形式の圧縮処理を施す。   In the still image shooting mode, the still image compression unit 42_1 performs, for example, JPEG compression processing on the YCbCr data of the captured still image.

動画圧縮部43_1は、動画撮影モードにおいて、記録用の動画像のYCbCrデータに対して、フレーム間予測を用いた圧縮処理を施す。例えば、動画圧縮部43_1は、H.264(MPEG−4 AVC(Part10))の動画圧縮規格を用いて動画像の圧縮処理を行う(なお、H.264での動画像の符号化については後述する)。   The moving image compression unit 43_1 performs compression processing using inter-frame prediction on YCbCr data of a moving image for recording in the moving image shooting mode. For example, the moving image compressing unit 43_1 may be H.264. H.264 (MPEG-4 AVC (Part 10)) moving image compression processing is performed (the encoding of moving images in H.264 will be described later).

DMAC44_1は、ハードウェア的にデータ転送を行う回路であり、CPU45_1のプログラムによってデータを転送する場合と比べて高速なデータ転送を実現する。DMAC44_1は、単位転送データ量ごとに、ソースアドレスおよびデスティネーションアドレスをシフトさせながらデータの転送を行う。なお、DMAC44_1は、上述した画像処理部41_1や静止画圧縮部42_1や動画圧縮部43_1、あるいは後述するいくつかの回路ブロックに内蔵されていてもよい。   The DMAC 44_1 is a circuit that performs data transfer in hardware, and realizes high-speed data transfer compared to the case where data is transferred by the program of the CPU 45_1. The DMAC 44_1 transfers data while shifting the source address and the destination address for each unit transfer data amount. Note that the DMAC 44_1 may be incorporated in the above-described image processing unit 41_1, still image compression unit 42_1, moving image compression unit 43_1, or some circuit blocks described later.

CPU45_1は、電子カメラの機能を実現するためのアプリケーションプログラムを実行し、また実行したアプリケーションプログラムに基づいて電子カメラ内各部の動作を制御する。例えば、CPU45_1は、AF評価値を用いて公知のコントラスト検出方式によるAFや、AE評価値を用いたAEを行う。また、CPU45_1は、表示部21への画像の表示処理や、記録媒体34への画像ファイルの記録処理などを実行する。AFやAEといったこれらの処理は、CPU45_1が実行する上述のアプリケーションプログラムとして実装される。アプリケーションプログラムは、それぞれの処理に対応したタスクと呼ばれる処理単位に分割可能であり、タスクは、RTOS(カーネル)の管理の下で複数並列に実行させることが可能である。複数のタスクの実行順序はその優先順位に依存しており、RTOSは実行可能状態にある複数のタスクの中で最も優先順位の高いタスクを実行させる。一例として、タスクAの実行中にそれよりも優先順位の高いタスクBが実行可能状態になった場合、実行中のタスクAが中断されてタスクBが実行される。その後、タスクBの処理が終了するか待ち状態になると、RTOSは一時中断していたタスクAの処理を再開させる。   The CPU 45_1 executes an application program for realizing the function of the electronic camera, and controls the operation of each part in the electronic camera based on the executed application program. For example, the CPU 45_1 performs AF using a known contrast detection method using the AF evaluation value and AE using the AE evaluation value. Further, the CPU 45_1 executes an image display process on the display unit 21, an image file recording process on the recording medium 34, and the like. These processes such as AF and AE are implemented as the above-described application programs executed by the CPU 45_1. The application program can be divided into processing units called tasks corresponding to the respective processes, and a plurality of tasks can be executed in parallel under the management of RTOS (kernel). The execution order of a plurality of tasks depends on the priority order, and the RTOS executes the task with the highest priority among the plurality of tasks in an executable state. As an example, when the task B having a higher priority is in an executable state during the execution of the task A, the task A being executed is interrupted and the task B is executed. Thereafter, when the processing of task B is completed or waits, the RTOS resumes the processing of task A that has been temporarily suspended.

割込コントローラ46_1は、各部からの割り込み処理要求を受信して、その優先度に応じてCPU45_1に割り込み信号を伝達するという交通整理の役割を果たす。割込コントローラ46_1の働きによって、CPU45_1は1つの割り込み入力端子で複数の割り込み要因に対応することができる。   The interrupt controller 46_1 receives an interrupt processing request from each unit, and plays a role of traffic control to transmit an interrupt signal to the CPU 45_1 according to the priority. By the operation of the interrupt controller 46_1, the CPU 45_1 can cope with a plurality of interrupt factors with one interrupt input terminal.

内蔵メモリ47_1は、CPU45_1がプログラムを実行するときにデータを格納するための高速メモリであって、例えばSRAMが使用される。内蔵メモリ47_1は主記憶である第1メモリ17よりも高速にアクセスすることができる。なお、CPU45_1は、アプリケーションプログラムの一部を内蔵メモリ47_1に常駐させ、それらの処理を高速に行ってもよい。   The built-in memory 47_1 is a high-speed memory for storing data when the CPU 45_1 executes a program. For example, an SRAM is used. The built-in memory 47_1 can be accessed at a higher speed than the first memory 17 which is the main memory. Note that the CPU 45_1 may make part of the application program resident in the built-in memory 47_1 and perform these processes at high speed.

表示コントローラ48_1には、表示部21が接続されている。表示コントローラ48_1は、上述したスルー画やフリーズ画のデータを取り込んで、それを表示部21に表示する。   The display unit 21 is connected to the display controller 48_1. The display controller 48_1 takes in the data of the above-described through image and freeze image and displays them on the display unit 21.

GPIO部49_1は、例えば、操作釦25やレリーズ釦24からの信号を入力するとともに、電子カメラ内の周辺デバイスへそれら入力信号に対する制御信号などを出力する。ここで、上記の周辺デバイスとは、例えば、撮影光学系11内のレンズやメカシャッタ、絞りを駆動するためのモータドライバICや、フラッシュ装置に含まれる充電ICおよび発光制御用IGBTや、電子カメラの状態を表示するためのLEDなどである(なお、周辺デバイスの図示はいずれも省略する)。   For example, the GPIO unit 49_1 inputs signals from the operation buttons 25 and the release button 24 and outputs control signals for the input signals to peripheral devices in the electronic camera. Here, the above-mentioned peripheral devices are, for example, a lens, a mechanical shutter in the photographing optical system 11, a motor driver IC for driving a diaphragm, a charging IC and a light emission control IGBT included in a flash device, and an electronic camera. These are LEDs for displaying the status (note that illustration of peripheral devices is omitted).

メモリコントローラ50_1には、第1メモリ17が接続されている。メモリコントローラ50_1は、第1メモリ17に対してデータの読み出しや書き込みを行う。   The first memory 17 is connected to the memory controller 50_1. The memory controller 50_1 reads and writes data from and to the first memory 17.

フラッシュメモリコントローラ51_1には、第1フラッシュメモリ19が接続されている。フラッシュメモリコントローラ51_1は、第1フラッシュメモリ19に対してデータの読み出しや書き込みを行う。   The first flash memory 19 is connected to the flash memory controller 51_1. The flash memory controller 51_1 reads and writes data from and to the first flash memory 19.

外部I/Fコントローラ52_1には、外部I/Fコネクタ22が接続されている。外部I/Fコントローラ52_1は、外部I/Fコネクタ22に接続された外部機器(パーソナルコンピュータなど)とのデータ通信を、所定の通信規格のインターフェース(例えばUSB)を用いて行う。   The external I / F connector 22 is connected to the external I / F controller 52_1. The external I / F controller 52_1 performs data communication with an external device (such as a personal computer) connected to the external I / F connector 22 using an interface (for example, USB) of a predetermined communication standard.

メディアコントローラ53_1には、メディアコネクタ23が接続されている。メディアコントローラ53_1は、メディアコネクタ23に接続された記録媒体34に対してデータの読み出しや書き込みを行う。   The media connector 23 is connected to the media controller 53_1. The media controller 53_1 reads and writes data from and to the recording medium 34 connected to the media connector 23.

音声I/F54_1は、データ分配器13から送られた音声データを受信する。なお、音声I/F54_1には、例えばISなどの標準インターフェースが用いられる。 The audio I / F 54_1 receives the audio data sent from the data distributor 13. Note that a standard interface such as I 2 S is used for the audio I / F 54_1.

バスブリッジ56_1は、内部バス55_1とシリアルバス16と接続されている。バスブリッジ56_1は、内部バス−外部シリアルバス間のプロトコル変換を行う。これにより、第1画像処理回路14の内部バス55_1からのアクセス(READ/WRITE)要求は、パケット(コマンド、アドレス、WRITEデータ)としてシリアルバス16に伝達される。逆に、シリアルバス16から送られたパケット(レスポンス、READデータ)が第1画像処理回路14の内部バス55_1に伝達される。したがって、第1画像処理回路14のCPU45_1は、バスブリッジ56_1の働きによって、第1画像処理回路14と第2画像処理回路15の各資源に対して全く同一のプロトコルでアクセスすることができる。第1画像処理回路14の資源に対するアクセスと第2画像処理回路15の資源に対するアクセスとではアクセスに必要な時間が異なり、第2画像処理回路15の資源に対するアクセスの方がより時間がかかる。また、第1画像処理回路14のDMAC44_1からのアクセスも上述した説明と同様である。なお、第2画像処理回路15のCPU45_2とDMAC44_2から上述した各資源に対するアクセスも同様であり、この場合には第1画像処理回路14の資源に対するアクセスの方がより時間がかかることになる。   The bus bridge 56_1 is connected to the internal bus 55_1 and the serial bus 16. The bus bridge 56_1 performs protocol conversion between the internal bus and the external serial bus. Accordingly, an access (READ / WRITE) request from the internal bus 55_1 of the first image processing circuit 14 is transmitted to the serial bus 16 as a packet (command, address, WRITE data). Conversely, a packet (response, READ data) sent from the serial bus 16 is transmitted to the internal bus 55_1 of the first image processing circuit 14. Therefore, the CPU 45_1 of the first image processing circuit 14 can access the resources of the first image processing circuit 14 and the second image processing circuit 15 with the same protocol by the operation of the bus bridge 56_1. Access to the resource of the first image processing circuit 14 and access to the resource of the second image processing circuit 15 are different in access time, and access to the resource of the second image processing circuit 15 takes more time. The access from the DMAC 44_1 of the first image processing circuit 14 is the same as described above. The access from the CPU 45_2 and the DMAC 44_2 of the second image processing circuit 15 to the above-mentioned resources is the same. In this case, the access to the resources of the first image processing circuit 14 takes longer.

次に、第2画像処理回路15の構成を説明する。第2画像処理回路15については第1画像処理回路14との相違点のみ説明し、重複する部分の説明はいずれも省略する。本実施形態の第2画像処理回路15では、メモリコントローラ50_2に第2メモリ18が接続され、フラッシュメモリコントローラ51_2に第2フラッシュメモリ20が接続される。また、表示コントローラ48_2、GIPO部49_2、外部I/Fコントローラ52_2、メディアコントローラ53_2は、接続される外部デバイスが無いために、いずれも低消費電力のまま動作しないように設定されている。   Next, the configuration of the second image processing circuit 15 will be described. The second image processing circuit 15 will be described only with respect to differences from the first image processing circuit 14, and the description of the overlapping parts will be omitted. In the second image processing circuit 15 of the present embodiment, the second memory 18 is connected to the memory controller 50_2, and the second flash memory 20 is connected to the flash memory controller 51_2. The display controller 48_2, the GIPO unit 49_2, the external I / F controller 52_2, and the media controller 53_2 are set so as not to operate with low power consumption because there is no external device to be connected.

ここで、第1画像処理回路14のアドレス空間には、第1画像処理回路14の資源と第2画像処理回路15の資源とがそれぞれマップされている。同様に、第2画像処理回路15のアドレス空間には、第1画像処理回路14の資源と第2画像処理回路15の資源とがそれぞれマップされている。これらの資源には、それぞれの画像処理回路の内部資源の他に、外部に接続された第1メモリ17および第2メモリ18の資源や、第1フラッシュメモリ19および第2フラッシュメモリ20の資源も含まれる。   Here, the resource of the first image processing circuit 14 and the resource of the second image processing circuit 15 are mapped in the address space of the first image processing circuit 14. Similarly, the resource of the first image processing circuit 14 and the resource of the second image processing circuit 15 are mapped to the address space of the second image processing circuit 15, respectively. In addition to the internal resources of each image processing circuit, these resources include the resources of the first memory 17 and the second memory 18 connected to the outside, and the resources of the first flash memory 19 and the second flash memory 20. included.

図3は、第1画像処理回路14と第2画像処理回路15のメモリマップの一例を模式的に示している。第1画像処理回路14の資源としては、第1メモリ17、第1フラッシュメモリ19、内蔵メモリ47_1、Peripheral_1などがある。また、第2画像処理回路15の資源としては、第2メモリ18、第2フラッシュメモリ20、内蔵メモリ47_2、Peripheral_2などがある。なお、上述した「Peripheral」とは、各画像処理回路において内蔵メモリ47を除く内部資源を総称したものである。例えば、「Peripheral」と記載されたアドレス領域には、画像処理部41、静止画圧縮部42等の各レジスタや、動画圧縮部43に内蔵されているバッファメモリや、表示コントローラ48、メディアコントローラ53の各FIFO等がマップされている。なお、図3の例では、第1画像処理回路14のアドレス空間の上位に第2画像処理回路15の資源がマップされており、第2画像処理回路15のアドレス空間の上位に第1画像処理回路14の資源がマップされている。   FIG. 3 schematically shows an example of a memory map of the first image processing circuit 14 and the second image processing circuit 15. The resources of the first image processing circuit 14 include the first memory 17, the first flash memory 19, the built-in memory 47_1, Peripheral_1, and the like. The resources of the second image processing circuit 15 include the second memory 18, the second flash memory 20, the built-in memory 47_2, Peripheral_2, and the like. The “Peripheral” described above is a general term for internal resources excluding the internal memory 47 in each image processing circuit. For example, in the address area described as “Peripheral”, the registers such as the image processing unit 41 and the still image compression unit 42, the buffer memory built in the moving image compression unit 43, the display controller 48, the media controller 53, and the like. Each FIFO is mapped. In the example of FIG. 3, the resources of the second image processing circuit 15 are mapped above the address space of the first image processing circuit 14, and the first image processing is positioned above the address space of the second image processing circuit 15. The resources of the circuit 14 are mapped.

第1画像処理回路14と第2画像処理回路15はそれぞれ、バスブリッジ56とシリアルバス16の機能を利用して、コマンド、アドレス、データ、レスポンス等のパケットを接続先の画像処理回路に伝達することができる。そして、各々の画像処理回路は、各々のメモリマップに従って、自己の資源のみならず接続先の画像処理回路の資源に直接アクセスすることができる。例えば、第1画像処理回路14は、第1画像処理回路14のメモリマップに従って、第2画像処理回路15に接続された第2メモリ18上の画像のデータに直接アクセスすることができる。逆に、第2画像処理回路15は、第2画像処理回路15のメモリマップに従って、第1画像処理回路14に接続された第1メモリ17上の画像のデータに直接アクセスすることができる。   The first image processing circuit 14 and the second image processing circuit 15 use the functions of the bus bridge 56 and the serial bus 16 to transmit packets such as commands, addresses, data, and responses to the connection destination image processing circuit, respectively. be able to. Each image processing circuit can directly access not only its own resources but also the resources of the connected image processing circuit according to each memory map. For example, the first image processing circuit 14 can directly access image data on the second memory 18 connected to the second image processing circuit 15 according to the memory map of the first image processing circuit 14. Conversely, the second image processing circuit 15 can directly access image data on the first memory 17 connected to the first image processing circuit 14 according to the memory map of the second image processing circuit 15.

すなわち、本実施形態では、転送元の画像処理回路に接続されたメモリ上に記憶されている画像データを、転送先の画像処理回路が直接読み出して処理するという動作を行うことができる。例えば、第1画像処理回路14のDMAC44_1は第2画像処理回路15に接続された第2メモリ18上に記憶されているフリーズ画のデータを直接読み出し、それを第1画像処理回路14内の表示コントローラ48_1に転送して表示させることができるし、同じく第2メモリ18上に記憶されているJPEG画像ファイル(後述)のデータを直接読み出し、それを第1画像処理回路14内のメディアコントローラ53_1に転送して記録媒体34に記録させることができる。すなわち、それらのデータを転送先である第1画像処理回路14に接続された第1メモリ17に一旦移動(あるいはコピー)するという、従来の電子カメラで行われていた動作が不要になる。そのため、本実施形態では、第1画像処理回路14と第2画像処理回路15の間で画像データの転送が行われる場合でも、転送先の画像処理回路に接続されたメモリへの余計な書き込みが発生しないという利点がある。
したがって、転送先の画像処理回路に接続されたメモリの帯域が余分に消費されることがないし、画像データのメモリ間移動(あるいはコピー)にかかっていた時間も発生しないので処理時間(あるいはLatency)が短縮される。
In other words, in the present embodiment, the image data stored in the memory connected to the transfer source image processing circuit can be directly read and processed by the transfer destination image processing circuit. For example, the DMAC 44_1 of the first image processing circuit 14 directly reads the freeze image data stored on the second memory 18 connected to the second image processing circuit 15 and displays it in the first image processing circuit 14. The data can be transferred to the controller 48_1 for display, and the data of a JPEG image file (described later) that is also stored in the second memory 18 is directly read out to the media controller 53_1 in the first image processing circuit 14. It can be transferred and recorded on the recording medium 34. That is, the operation that is performed in the conventional electronic camera, such as temporarily moving (or copying) the data to the first memory 17 connected to the first image processing circuit 14 that is the transfer destination, becomes unnecessary. For this reason, in the present embodiment, even when image data is transferred between the first image processing circuit 14 and the second image processing circuit 15, extra writing to the memory connected to the destination image processing circuit is performed. There is an advantage that it does not occur.
Accordingly, the bandwidth of the memory connected to the image processing circuit at the transfer destination is not consumed excessively, and the time required for moving (or copying) the image data between the memories does not occur, so that the processing time (or Latency) is not generated. Is shortened.

また、第1画像処理回路14と第2画像処理回路15が並列に処理を実行するため、互いに通信を行う場合、良く知られたシリアルポートを利用してデータを送受信することもできるが、上述したシリアルバスを利用して通信を行ってもよい。通信元から送信するデータは、通信先の画像処理回路のCPU45が高速に読み出せるように、通信先の画像処理回路にある内蔵メモリ47に書き込むとよい。また、データが送信されたことを通信先の画像処理回路に伝えるには、画像処理回路の外部端子に割り当てられているパラレルポートと割り込み信号を用いて割り込みを行うこともできるが、上述したシリアルバスを利用してもよい。この場合は、通信元の画像処理回路(CPU45)が、シリアルバスを通じて通信先の画像処理回路の内部にある割り込みコントローラ46のレジスタに直接書き込みを行って、通信先のCPU45に割り込みを発行する。   In addition, since the first image processing circuit 14 and the second image processing circuit 15 execute processing in parallel, when communicating with each other, data can be transmitted and received using a well-known serial port. Communication may be performed using the serial bus. The data transmitted from the communication source may be written in the built-in memory 47 in the communication destination image processing circuit so that the CPU 45 of the communication destination image processing circuit can read at high speed. In order to notify the image processing circuit of the communication destination that the data has been transmitted, an interrupt can be performed using an interrupt signal and a parallel port assigned to an external terminal of the image processing circuit. You may use the bus. In this case, the communication source image processing circuit (CPU 45) directly writes to the register of the interrupt controller 46 in the communication destination image processing circuit through the serial bus, and issues an interrupt to the communication destination CPU 45.

また、接続先の画像処理回路の資源を別の画像処理回路が不用意にアクセスしたことによって誤動作が起こらないよう、画像処理回路は、一部の資源については別の画像処理回路からアクセスができないようにするとよい。例えば、外部からアクセス可能なアドレスの範囲に制限を設け、アクセスが制限されている範囲のアドレスが別の画像処理回路からアクセスされたときは、アクセス元の画像処理回路にエラーのレスポンスを返すようにする。なお、上述したアドレス範囲の制限機能は、例えばバスブリッジ56に実装される。   In addition, the image processing circuit cannot access some resources from another image processing circuit so that a malfunction does not occur due to another image processing circuit inadvertently accessing the resource of the connection destination image processing circuit. It is good to do so. For example, an address range that can be accessed from the outside is restricted, and when an address in the restricted access range is accessed from another image processing circuit, an error response is returned to the accessing image processing circuit. To. The address range restriction function described above is implemented in the bus bridge 56, for example.

<撮像装置の動作例の説明>
続いて、本実施形態の電子カメラの動作を、静止画撮影モードにおける単写撮影と連写撮影、それに動画撮影モードにおける動画撮影という3つの場合を例に挙げ、それぞれ具体的に説明する。
<Description of Operation Example of Imaging Device>
Subsequently, the operation of the electronic camera according to the present embodiment will be specifically described with reference to three cases of single shooting and continuous shooting in the still image shooting mode and moving image shooting in the moving image shooting mode.

(静止画撮影モードにおける単写撮影の動作)
静止画撮影モードで単写撮影を行う場合、第1画像処理回路14が動作状態となって単写撮影の処理を行う一方で、第2画像処理回路15は電源オフの状態または低消費電力の状態となって停止している。そして、第1画像処理回路14のCPU45_1が、単写撮影全般の動作を制御する。なお、以下に述べる処理は全てCPU45_1が実行するプログラムの制御の下に行われるものである。
(Single-shot shooting operation in still image shooting mode)
When single shooting is performed in the still image shooting mode, the first image processing circuit 14 is in an operating state to perform single shooting processing, while the second image processing circuit 15 is in a power-off state or has low power consumption. It has stopped in a state. Then, the CPU 45_1 of the first image processing circuit 14 controls the overall operation of single shooting. Note that the processes described below are all performed under the control of a program executed by the CPU 45_1.

単写撮影に限らず電子カメラの撮影モードはライブビューの動作から始まる。ライブビューでは撮像部12にスルー画の撮像動作を行わせる。撮像部12は所定の周期(フレーム周期)でスルー画の撮像を繰り返し行い、その画像データを撮像部12の外部へ出力する。撮像部12から周期的に出力されるスルー画のデータは、データ分配器13を介して第1画像処理回路14に順次入力される。   The shooting mode of the electronic camera starts with the live view operation, not limited to single shooting. In the live view, the imaging unit 12 is caused to perform a through image imaging operation. The imaging unit 12 repeatedly captures a through image at a predetermined cycle (frame cycle), and outputs the image data to the outside of the imaging unit 12. The through image data periodically output from the imaging unit 12 is sequentially input to the first image processing circuit 14 via the data distributor 13.

画像処理部41_1は、入力されたデータに画像処理(プリプロセスとポストプロセス)を施してスルー画のYCbCrデータを生成する。生成されたスルー画のYCbCrデータは第1メモリ17上に設けられたデータ記憶領域に一時的に記憶される。CPU45_1はDMAC44_1のソースアドレスとしてYCbCrデータが記憶されているデータ記憶領域の先頭アドレス、デスティネーションアドレスとして表示コントローラ48_1(内部のFIFO)のアドレス、データ転送数としてYCbCrデータのバイト数を設定し、データの転送を開始させる。データの転送が開始されると、上述したからスルー画のYCbCrデータが読み出されて表示コントローラ48_1に入力され、次いで表示部21に送られて画面に表示される。これによって、表示部21の画面上で被写体の生映像を見ることができる(ライブビュー表示)。ユーザは、表示部21に表示されたスルー画を観察することによって、撮影の構図を決めたり、シャッターチャンス(レリーズ釦24の全押し操作による撮影指示のタイミング)の判断を行ったりする。   The image processing unit 41_1 performs image processing (pre-process and post-process) on the input data to generate YCbCr data of a through image. The generated through-image YCbCr data is temporarily stored in a data storage area provided on the first memory 17. The CPU 45_1 sets the start address of the data storage area where YCbCr data is stored as the source address of the DMAC 44_1, the address of the display controller 48_1 (internal FIFO) as the destination address, and the number of bytes of YCbCr data as the number of data transfers. Start the transfer. When the data transfer is started, the YCbCr data of the through image is read out and input to the display controller 48_1, and then sent to the display unit 21 and displayed on the screen. As a result, a live image of the subject can be viewed on the screen of the display unit 21 (live view display). The user determines the composition of shooting by observing the through image displayed on the display unit 21 and determines the shutter chance (timing of shooting instruction by full pressing operation of the release button 24).

また、ライブビューの動作中は画像処理部41_1が、プリプロセスの施されたスルー画のデータから、AF評価値、AE評価値、AWB評価値をそれぞれ生成する。CPU45_1は、生成したAE評価値を用いて測光を行い、測光結果に基づいてスルー画の露出制御を行う。これによってスルー画の明るさが適正レベルに調整される。またCPU45_1は上述したAWB評価値を用いてAWBアルゴリズムを実行し、その結果に基づいてスルー画のホワイトバランス調整を行う。これによってスルー画の色も適正な状態に調整される。また、CPU45_1は、レリーズ釦24の半押し操作が行われると、上述したAF評価値を用いて公知のコントラスト検出方式によるAFを行い、撮影光学系11のピントを目的の被写体に合わせる。なお、レリーズ釦24の半押し操作が行われた時は、静止画撮影時の露出制御パラメータ(ISO感度値、絞り値、シャッター秒時など)も併せて決定する。   Further, during the live view operation, the image processing unit 41_1 generates an AF evaluation value, an AE evaluation value, and an AWB evaluation value from the pre-processed through image data. The CPU 45_1 performs photometry using the generated AE evaluation value, and performs exposure control of the through image based on the photometry result. As a result, the brightness of the through image is adjusted to an appropriate level. The CPU 45_1 executes the AWB algorithm using the AWB evaluation value described above, and adjusts the white balance of the through image based on the result. As a result, the color of the through image is also adjusted to an appropriate state. Further, when the release button 24 is half-pressed, the CPU 45_1 performs AF by a known contrast detection method using the above-described AF evaluation value, and focuses the photographing optical system 11 on the target subject. When the release button 24 is pressed halfway, exposure control parameters (ISO sensitivity value, aperture value, shutter speed, etc.) at the time of still image shooting are also determined.

そして、CPU45_1は、レリーズ釦24の全押し操作が行われると、撮像部12をスルー画の撮像動作から静止画の撮像動作に切り換えて、被写体の静止画を撮影させる。このとき、CPU45_1は、半押し操作に応じて決定した静止画撮影用の露出制御パラメータにしたがって露光を行わせる。露光が終了すると、CPU45_1は撮像部12を静止画の読み出し動作に移行させて、撮影された静止画の画像データを出力させる。撮像部12から出力された静止画のデータはデータ分配器13を介して第1画像処理回路14に入力される。   Then, when the release button 24 is fully pressed, the CPU 45_1 switches the imaging unit 12 from the through-image imaging operation to the still-image imaging operation to capture a still image of the subject. At this time, the CPU 45_1 performs exposure according to the exposure control parameter for still image shooting determined according to the half-press operation. When the exposure ends, the CPU 45_1 shifts the imaging unit 12 to a still image reading operation and outputs image data of the captured still image. The still image data output from the imaging unit 12 is input to the first image processing circuit 14 via the data distributor 13.

第1画像処理回路14に入力された静止画のデータ(Bayerデータ)は、画像処理部41_1でまずプリプロセスだけが施され、次いで画像処理部41_1から出力されて第1メモリ17上に設けられたBayerデータ記憶領域に一時的に記憶される。続いて、CPU45_1はDMAC44_1のソースアドレスとしてBayerデータが記憶されているBayerデータ記憶領域の先頭アドレス、デスティネーションアドレスとして画像処理部41_1(内部のFIFO)のアドレス、データ転送数としてBayerデータのバイト数を設定し、データの転送を開始させる。データ転送が開始されると、上述したBayerデータ記憶領域からプリプロセスの施されたBayerデータが読み出されて画像処理部41_1に入り、画像処理部41_1でポストプロセスが施されて撮影された静止画の主画像(YCbCrデータ)が生成される。その際、画像処理部41_1は、内部の解像度変換回路(不図示)を利用して、上述したフリーズ画のYCbCrデータとサムネイルのYCbCrデータを併せて生成する。主画像、フリーズ画、サムネイルの各YCbCrデータは、第1メモリ17上に設けられたYCbCrデータ記憶領域(主画像用記憶領域、フリーズ画用記憶領域、サムネイル用記憶領域の3記憶領域を備える)に一時的に記憶される。CPU45_1は、DMAC44_1のソースアドレスとしてフリーズ画のYCbCrデータが記憶されているフリーズ画用記憶領域の先頭アドレス、デスティネーションアドレスとして表示コントローラ48_1(内部のFIFO)のアドレス、データ転送数としてフリーズ画YCbCrデータのバイト数を設定し、直ちにフリーズ画のYCbCrデータの転送を開始させる。データ転送が開始されると、上述したYCbCrデータ記憶領域からフリーズ画のYCbCrデータが読み出されて表示コントローラ48_1に入り、次いで表示部21に送られて画面に表示される。これにより、ユーザは、撮影直後に撮影画像の状態を確認することができる。   The still image data (Bayer data) input to the first image processing circuit 14 is first preprocessed only by the image processing unit 41_1, and then output from the image processing unit 41_1 and provided on the first memory 17. Temporarily stored in the Bayer data storage area. Subsequently, the CPU 45_1 uses the start address of the Bayer data storage area where the Bayer data is stored as the source address of the DMAC 44_1, the address of the image processing unit 41_1 (internal FIFO) as the destination address, and the number of bytes of Bayer data as the number of data transfers. To start data transfer. When the data transfer is started, the preprocessed Bayer data is read from the above-described Bayer data storage area and enters the image processing unit 41_1, and the image processing unit 41_1 performs the post process and takes a still image. A main image (YCbCr data) of the image is generated. At this time, the image processing unit 41_1 uses the internal resolution conversion circuit (not shown) to generate the freeze image YCbCr data and the thumbnail YCbCr data together. The YCbCr data of the main image, the freeze image, and the thumbnail are provided in the first memory 17 as a YCbCr data storage area (including three storage areas: a main image storage area, a freeze image storage area, and a thumbnail storage area). Temporarily stored. The CPU 45_1 uses the start address of the freeze image storage area in which the freeze image YCbCr data is stored as the source address of the DMAC 44_1, the address of the display controller 48_1 (internal FIFO) as the destination address, and the freeze image YCbCr data as the number of data transfers. Then, the transfer of the YCbCr data of the freeze image is started immediately. When the data transfer is started, the YCbCr data of the freeze image is read from the YCbCr data storage area described above, enters the display controller 48_1, and is then sent to the display unit 21 and displayed on the screen. Thereby, the user can confirm the state of the captured image immediately after shooting.

続いて、静止画圧縮部42_1を利用して、上述した主画像とフリーズ画とサムネイルの各YCbCrデータに順次JPEG圧縮処理を施す。それら3つの画像データを1つずつ静止画圧縮部42_1に転送するため、CPU45_1はその都度DMAC44_1のソースアドレス(各YCbCrデータのYCbCrデータ記憶領域における先頭アドレス)、デスティネーションアドレス(静止画圧縮部42_1(内部のFIFO)のアドレス)、データ転送数(各YCbCrデータのバイト数)をそれぞれ設定してデータ転送を合計3回行わせる。上述したYCbCrデータ記憶領域から3つのYCbCrデータが1つずつ読み出されて静止画圧縮部42_1に入り、静止画圧縮部42_1で個別にJPEG圧縮が施されて、それぞれのJPEG圧縮後の画像データ(以下、JPEGデータと称する)が、第1メモリ17上に設けられたJPEGデータ記憶領域に一時的に記憶される。CPU45_1は、所定のファイルフォーマットに従って主画像とフリーズ画とサムネイルの各JPEGデータを種々のメタデータと共にJPEGデータ記憶領域上で1つに結合し、1つのJPEG画像ファイル(そのファイルのメモリイメージ)を生成する。ファイルフォーマットとしてはExifフォーマットや、マルチピクチャフォーマット(MPF)などが利用される。なお、フリーズ画のJPEGデータは画像の再生時において高速表示のために利用されており、一方、サムネイルのJPEGデータはJPEG画像ファイルの検索において利用されている。最後に、CPU45_1は、JPEGデータ記憶領域に記憶されているJPEG画像ファイル(メモリイメージ)を記録媒体34に記録する。CPU45_1はDMAC44_1のソースアドレスとしてJPEG画像ファイルの先頭アドレス、デスティネーションアドレスとしてメディアコントローラ53_1(内部のFIFO)のアドレス、データ転送数としてJPEG画像ファイルのバイト数をそれぞれ設定し、データ転送を開始させる。データ転送が開始されると、上述したJPEGデータ記憶領域からJPEG画像ファイル(メモリイメージ)のデータが読み出されてメディアコントローラ53_1に入り、次いで記録媒体34に送られて記録媒体34内部の記録領域に記録される。   Subsequently, the above-described main image, freeze image, and thumbnail YCbCr data are sequentially subjected to JPEG compression using the still image compression unit 42_1. In order to transfer the three image data one by one to the still image compression unit 42_1, the CPU 45_1 each time the source address of the DMAC 44_1 (the start address of each YCbCr data in the YCbCr data storage area), the destination address (the still image compression unit 42_1). (Internal FIFO) address) and the number of data transfers (number of bytes of each YCbCr data) are set, and data transfer is performed three times in total. Three pieces of YCbCr data are read one by one from the YCbCr data storage area described above, enter the still image compression unit 42_1, and are subjected to JPEG compression individually by the still image compression unit 42_1. (Hereinafter referred to as JPEG data) is temporarily stored in a JPEG data storage area provided on the first memory 17. The CPU 45_1 combines the JPEG data of the main image, the freeze image, and the thumbnail together with various metadata on the JPEG data storage area according to a predetermined file format, and combines one JPEG image file (memory image of the file). Generate. As the file format, an Exif format, a multi-picture format (MPF), or the like is used. The JPEG data of the freeze image is used for high-speed display during image reproduction, while the JPEG data of the thumbnail is used for searching for JPEG image files. Finally, the CPU 45_1 records the JPEG image file (memory image) stored in the JPEG data storage area on the recording medium 34. The CPU 45_1 sets the start address of the JPEG image file as the source address of the DMAC 44_1, the address of the media controller 53_1 (internal FIFO) as the destination address, and the number of bytes of the JPEG image file as the data transfer number, and starts data transfer. When the data transfer is started, the data of the JPEG image file (memory image) is read from the above-described JPEG data storage area and enters the media controller 53_1, and then sent to the recording medium 34 to be recorded in the recording medium 34. To be recorded.

JPEG画像ファイルの記録媒体34への記録動作が終了すると単写撮影(1フレームの静止画の撮影)の処理は全て終了し、CPU45_1は電子カメラを再びライブビューの動作に戻して、次の単写撮影に備える。以上が静止画撮影モードにおける単写撮影の基本的な動作である。   When the recording operation of the JPEG image file to the recording medium 34 is completed, the single shooting (one frame still image shooting) processing is completed, and the CPU 45_1 returns the electronic camera to the live view operation again, and the next single shooting is completed. Prepare for photo shoots. The above is the basic operation of single shooting in the still image shooting mode.

(静止画撮影モードにおける連写撮影での動作例)
次に、静止画撮影モードにおいて連射撮影を行う場合について説明する。連写撮影の場合、第1画像処理回路14(マスタ側)と第2画像処理回路15(スレーブ側)との2つで並列に撮影の処理が行われる。第1画像処理回路14は、単写撮影の場合と同様にライブビューの動作を開始する一方、第2画像処理回路15は静止画撮影に必要となる各種の設定を済ませた上で、連写撮影が開始されるまで待機する。このとき、第2画像処理回路15は、必要となる回路ブロック以外の回路ブロックにはクロックの供給を停止して低消費電力の状態で待機することが好ましい。なお、第1画像処理回路14と第2画像処理回路15は、外部のシリアルバス16を通じて互いにデータの送受信が可能な状態にしておくことが必要となる。
(Operation example for continuous shooting in still image shooting mode)
Next, a case where continuous shooting is performed in the still image shooting mode will be described. In the case of continuous shooting, shooting processing is performed in parallel by the first image processing circuit 14 (master side) and the second image processing circuit 15 (slave side). The first image processing circuit 14 starts the live view operation as in the case of single shooting, while the second image processing circuit 15 completes various settings necessary for still image shooting and then performs continuous shooting. Wait until shooting starts. At this time, it is preferable that the second image processing circuit 15 stops supplying clocks to circuit blocks other than the necessary circuit blocks and stands by in a low power consumption state. The first image processing circuit 14 and the second image processing circuit 15 need to be in a state where data can be transmitted and received with each other through the external serial bus 16.

連写撮影での第1画像処理回路14によるライブビューの動作は、レリーズ釦24の半押し操作が行われた時の処理も含めて単写撮影の場合とほぼ同様であるので、重複する部分の説明は省略する。半押し操作に続いてレリーズ釦24の全押し操作が行われると、静止画の連写撮影が開始されるが、これ以降の処理は単写撮影の場合と相違する。   The live view operation by the first image processing circuit 14 in continuous shooting is almost the same as in the case of single shooting including the processing when the release button 24 is half-pressed. Description of is omitted. When the release button 24 is fully pressed subsequent to the half-press operation, the continuous shooting of the still image is started, but the subsequent processing is different from the case of the single shooting.

レリーズ釦24の全押し操作が続いている間(連写撮影中)は静止画の撮影が繰り返し行われる。この連写撮影中には、半押し操作時に決定された静止画撮影用の露出パラメータを用いて、フォーカスの状態を固定したままで静止画の撮影が続けられる。また、連写撮影中にはスルー画の表示は行われず、ライブビューの動作には移行しない。   While the release button 24 is fully pressed (during continuous shooting), still image shooting is repeated. During the continuous shooting, still image shooting is continued with the focus state fixed using the exposure parameter for still image shooting determined at the time of half-pressing operation. In addition, during continuous shooting, a live view is not displayed, and the live view operation is not performed.

連写撮影の場合、レリーズ釦24の全押し操作が行われると、CPU45_1は、第2画像処理回路15を低消費電力の状態から動作状態(使用する回路ブロックの全てにクロックが供給されている状態)に移行させる。また、CPU45_1は、撮像部12をスルー画の撮像動作から静止画の撮像動作に切り替えて、被写体の静止画を撮影させる。CPU45_1は上述した露出制御パラメータに従って露光を行わせる。露光が終了すると、CPU45_1は撮像部12を静止画の読み出し動作に移行させて、撮影された静止画の画像データを出力させる。なお、CPU45_1は、後述するようにメモリ上に設けられたBayerデータ記憶領域に空きがないときには画像データを出力できないため、空いているBayerデータ記憶領域を予め1つ獲得してから撮像部12に露光を開始させる。   In the case of continuous shooting, when the release button 24 is fully pressed, the CPU 45_1 supplies the clock to the operating state (all circuit blocks to be used) from the low power consumption state of the second image processing circuit 15. State). In addition, the CPU 45_1 switches the imaging unit 12 from the through image imaging operation to the still image imaging operation to capture a still image of the subject. The CPU 45_1 performs exposure according to the above-described exposure control parameter. When the exposure ends, the CPU 45_1 shifts the imaging unit 12 to a still image reading operation and outputs image data of the captured still image. Note that the CPU 45_1 cannot output image data when there is no available Bayer data storage area provided on the memory, as will be described later. Therefore, the CPU 45_1 obtains one available Bayer data storage area in advance and then stores it in the imaging unit 12. Start exposure.

連写撮影の場合、最初に撮影されたフレームを含めた奇数フレーム(1,3,5,7,…)の静止画データは第1画像処理回路14で処理され、偶数フレーム(2,4,6,8,…)の静止画データは第2画像処理回路15で処理される。そのため、データ分配器13は、奇数フレームの静止画データを第1画像処理回路14に出力し、偶数フレームの静止画データを第2画像処理回路15に出力する(図4参照)。   In the case of continuous shooting, the still image data of the odd frames (1, 3, 5, 7,...) Including the first captured frame is processed by the first image processing circuit 14 and the even frames (2, 4, 4, etc.) are processed. 6, 8,...) Are processed by the second image processing circuit 15. Therefore, the data distributor 13 outputs the odd frame still image data to the first image processing circuit 14 and outputs the even frame still image data to the second image processing circuit 15 (see FIG. 4).

上述した偶数フレームと奇数フレームの静止画は同じ撮像部12で撮影されたものであり、撮像部12の撮像動作はマスタ側(第1画像処理回路14)のCPU45_1で制御されている。そのため、CPU45_1は、連写によって撮影された各静止画の撮影順序を全て把握することができる。そこで、CPU45_1は、連写撮影中は各静止画に対して撮影順序を示すフレーム番号(通し番号)を付与する。そして、このフレーム番号によって静止画データの撮影順序が管理される。   The still frames of the even and odd frames described above are taken by the same imaging unit 12, and the imaging operation of the imaging unit 12 is controlled by the CPU 45_1 on the master side (first image processing circuit 14). Therefore, the CPU 45_1 can grasp all the shooting order of each still image shot by continuous shooting. Therefore, the CPU 45_1 assigns a frame number (serial number) indicating the shooting order to each still image during continuous shooting. Then, the shooting order of still image data is managed by this frame number.

ここで、連写撮影で行われる基本的な処理は、単写撮影の場合と同様に、撮像部12による「静止画の撮像動作」、画像処理部41による「プリプロセス」、画像処理部41による「ポストプロセス」、静止画圧縮部42による「JPEG圧縮処理」、メディアコントローラ53による「JPEG画像ファイルの記録」という5つの処理である。これらの5つの処理は単写撮影の場合と基本的に同様であるため重複する部分の説明は省略する。ただし、第2画像処理回路15での「JPEG画像ファイルの記録」については、単写撮影の場合と異なる部分があるため後述する。   Here, as in the case of single-shot shooting, the basic processing performed in continuous shooting is “still image shooting operation” by the imaging unit 12, “pre-processing” by the image processing unit 41, and the image processing unit 41. Are “post-process”, “JPEG compression processing” by the still image compression unit 42, and “JPEG image file recording” by the media controller 53. Since these five processes are basically the same as in the case of single shooting, the description of the overlapping parts is omitted. However, “recording of a JPEG image file” in the second image processing circuit 15 will be described later because there is a difference from the case of single shooting.

上述した単写撮影の場合、上述する5つの処理をシーケンシャルに実行してから、次のフレームの撮影が行われる。一方、連写撮影の場合には、上述する5つの処理が並列に実行され、或るフレームの静止画データに対して或る処理が実行されている間に、そのフレームとは異なる複数フレームの静止画のデータにそれぞれ別々の処理が実行される点で相違する。つまり、連写撮影の場合、1フレームの撮影における5つの処理が未だ終わらないうちに次のフレームの撮影を開始することができる。なお、連写撮影時に並列処理されている個々のフレームに注目すると、上述の5つの処理はシーケンシャルに実行される。   In the case of the above-described single shooting, the next frame is shot after the five processes described above are executed sequentially. On the other hand, in the case of continuous shooting, the above-described five processes are performed in parallel, and while a certain process is being performed on still image data of a certain frame, The difference is that separate processing is performed on the still image data. That is, in the case of continuous shooting, shooting of the next frame can be started before the five processes in shooting of one frame have not yet been completed. If attention is paid to individual frames that are processed in parallel during continuous shooting, the above-described five processes are executed sequentially.

上述するような並列処理が可能となる理由は、それぞれの処理で使用される画像処理回路(14、15)の内部資源(ハードウェア)が異なるからである。例えば、画像処理部41の内部にある不図示のプリプロセス部とホストプロセス部は独立した回路であるため、連続する2つのフレームの静止画データに対して、プリプロセスとポストプロセスとを並列に施すことができる。同様に、静止画圧縮部42とメディアコントローラ53もそれぞれ独立した回路であるため、これらの4つの回路を利用すると連続する4つのフレームの静止画データを並列に処理できる。なお、上述する5つの処理のうち、「静止画の撮像動作」に含まれる画像データの出力と「プリプロセス」とは、撮像部12とプリプロセス部とを連続的に動作させて、同一のフレームについて常に一体的に実行される。そのため、連写撮影での並列処理を考えるときには、上述した「静止画の撮像動作」と「プリプロセス」の処理はまとめて1つの処理として扱われる。   The reason why parallel processing as described above is possible is that the internal resources (hardware) of the image processing circuits (14, 15) used in each processing are different. For example, since the pre-process unit (not shown) and the host process unit in the image processing unit 41 are independent circuits, pre-process and post-process are performed in parallel for still image data of two consecutive frames. Can be applied. Similarly, since the still image compression unit 42 and the media controller 53 are also independent circuits, if these four circuits are used, still image data of four consecutive frames can be processed in parallel. Of the five processes described above, the output of image data included in the “still image capturing operation” and the “preprocess” are the same when the image capturing unit 12 and the preprocess unit are continuously operated. The frame is always executed integrally. Therefore, when considering parallel processing in continuous shooting, the above-described “still image capturing operation” and “preprocess” processing are collectively treated as one processing.

上述した並列処理での具体的な動作は以下のようになる。なお、以下の並列処理の説明では、同じ画像処理回路で処理される連続した4つのフレームを、第1フレーム〜第4フレームと称している。   Specific operations in the parallel processing described above are as follows. In the following description of the parallel processing, four consecutive frames processed by the same image processing circuit are referred to as a first frame to a fourth frame.

まず、連写撮影の第1フレームに対して「静止画の撮像動作」と「プリプロセス」の処理が単独で実行される。続いて、第1フレームは「ポストプロセス」の処理に移行し、それと並行して第2フレームに対して「静止画の撮像動作」と「プリプロセス」の処理が実行される。続いて、第1フレームは「JPEG圧縮処理」の処理に移行し、第2フレームは「ポストプロセス」の処理に移行し、それと並行して第3フレームに対して「静止画の撮像動作」と「プリプロセス」の処理が実行される。続いて、第1フレームは「JPEG画像ファイルの記録」の処理に移行し、第2フレームは「JPEG圧縮処理」の処理に移行し、第3フレームは上述した「ポストプロセス」の処理に移行し、それと並行して第4フレームに対して「静止画の撮像動作」と「プリプロセス」の処理が実行される。これ以降は第1フレームから順に撮影の処理が終了し、新たなフレームに対して撮影の処理が開始されてゆく。   First, “still image capturing operation” and “preprocess” processing are executed independently for the first frame of continuous shooting. Subsequently, the first frame shifts to a “post process” process, and in parallel with this, a “still image capturing operation” and a “pre process” process are executed for the second frame. Subsequently, the first frame shifts to “JPEG compression processing”, the second frame shifts to “post process” processing, and in parallel with this, “still image capturing operation” is performed on the third frame. A “preprocess” process is executed. Subsequently, the first frame proceeds to “JPEG image file recording” processing, the second frame proceeds to “JPEG compression processing” processing, and the third frame proceeds to the “post processing” processing described above. In parallel, the “still image capturing operation” and “preprocess” processes are executed for the fourth frame. Thereafter, the photographing process is completed in order from the first frame, and the photographing process is started for a new frame.

上述した連写撮影の動作が定常状態に達すると、撮影の間隔(フレーム間隔)は、連写撮影での並列処理のうち最も時間のかかる処理によって決定され、その処理時間に等しくなる。すなわち、上述する処理時間ごとに1フレームの静止画の撮影が完了することとなる(パイプライン処理)。   When the above-described continuous shooting operation reaches a steady state, the shooting interval (frame interval) is determined by the most time-consuming processing among the parallel processing in continuous shooting and becomes equal to the processing time. That is, shooting of one frame of a still image is completed for each processing time described above (pipeline processing).

また、上述した並列処理を行うときには、単写撮影のときに説明した各データ記憶領域(Bayerデータ記憶領域、YCbCrデータ記憶領域、JPEGデータ記憶領域)をそれぞれメモリ上に複数確保する必要がある。以下の説明では、第1フレームと第2フレームの場合を具体的に説明するが、これ以降のフレームについても事情は同様である。   Further, when performing the parallel processing described above, it is necessary to secure a plurality of data storage areas (Bayer data storage area, YCbCr data storage area, and JPEG data storage area) described in the single-shot shooting on the memory. In the following description, the case of the first frame and the second frame will be specifically described, but the situation is the same for the subsequent frames.

例えば、撮像部12から出力された第1フレームの静止画のデータ(Bayerデータ)は、画像処理部41でまずプリプロセスだけが施され、次いで画像処理部41から出力されてメモリ上のBayerデータ記憶領域に一時的に記憶される。そして、プリプロセス後の第1フレームのBayerデータには、画像処理部41でポストプロセスが施されて、第1フレームの主画像(YCbCrデータ)が生成される。その際、画像処理部41は、内部の解像度変換回路(不図示)を利用して、上述したフリーズ画のYCbCrデータとサムネイルのYCbCrデータを併せて生成する。そして、第1フレームのYCbCrデータは、メモリ上のYCbCrデータ記憶領域に一時的に記憶される。一方、第1フレームに対するポストプロセスの実行中に、第2フレームのBayerデータが撮像部12から出力され、画像処理部41でプリプロセスだけが施されてBayerデータ記憶領域に一時的に記憶されることとなる。このとき、Bayerデータ記憶領域が1つのみであると、第1フレームのBayerデータが第2フレームのBayerデータで上書きされてしまうため正常な処理が行えなくなってしまう。そのため、上述したデータの上書きを避けるために、少なくともBayerデータ記憶領域が2つ必要であることが分かる。   For example, the first frame still image data (Bayer data) output from the imaging unit 12 is first preprocessed by the image processing unit 41 and then output from the image processing unit 41 to store the Bayer data on the memory. It is temporarily stored in the storage area. The Bayer data of the first frame after the preprocessing is post-processed by the image processing unit 41 to generate the main image (YCbCr data) of the first frame. At that time, the image processing unit 41 uses the internal resolution conversion circuit (not shown) to generate the freeze image YCbCr data and the thumbnail YCbCr data together. The YCbCr data of the first frame is temporarily stored in the YCbCr data storage area on the memory. On the other hand, during the post process for the first frame, the Bayer data of the second frame is output from the imaging unit 12, and only the preprocessing is performed by the image processing unit 41 and temporarily stored in the Bayer data storage area. It will be. At this time, if there is only one Bayer data storage area, the Bayer data of the first frame is overwritten with the Bayer data of the second frame, and normal processing cannot be performed. Therefore, it can be seen that at least two Bayer data storage areas are required to avoid overwriting the data described above.

また、例えば、上述した第1フレームのYCbCrデータには、静止画圧縮部42でJPEG圧縮処理が施されて、第1フレームのJPEGデータが生成される。そして、第1フレームのJPEGデータは、メモリ上のJPEGデータ記憶領域に一時的に記憶される。一方、第1フレームに対するJPEG圧縮処理の実行中に、第2フレームのBayerデータに画像処理部41でポストプロセスが施されて、第2フレームのYCbCrデータが生成される。そして、第2フレームのYCbCrデータは、メモリ上のYCbCrデータ記憶領域に一時的に記憶される。このとき、YCbCrデータ記憶領域が1つのみであると、第1フレームのYCbCrデータが第2フレームのYCbCrデータで上書きされてしまうため正常な処理が行えなくなってしまう。そのため、上述したデータの上書きを避けるためには、少なくともYCbCrデータ記憶領域が2つ必要であることが分かる。   Further, for example, the above-described YCbCr data of the first frame is subjected to JPEG compression processing by the still image compression unit 42 to generate JPEG data of the first frame. The JPEG data of the first frame is temporarily stored in a JPEG data storage area on the memory. On the other hand, during the execution of the JPEG compression process for the first frame, the post-process is performed on the Bayer data of the second frame by the image processing unit 41, and the YCbCr data of the second frame is generated. The YCbCr data of the second frame is temporarily stored in the YCbCr data storage area on the memory. At this time, if there is only one YCbCr data storage area, the YCbCr data of the first frame is overwritten with the YCbCr data of the second frame, and normal processing cannot be performed. Therefore, it can be seen that at least two YCbCr data storage areas are necessary to avoid overwriting the data described above.

また、例えば、上述した第1フレームのJPEGデータは、CPU45により種々のメタデータが付加されるとともにJPEGデータ記憶領域上で1つに結合されて、1つのJPEG画像ファイルのメモリイメージが生成される。そして、第1フレームのJPEG画像ファイルのメモリイメージが読み出されてメディアコントローラ53_1に入り、次いで記録媒体34に送られて記録媒体34内部の記録領域に記録される。一方、第1フレームのJPEG画像ファイルの記録が行われている間に、第2フレームのYCbCrデータに静止画圧縮部42でJPEG圧縮処理が施されて、第2フレームのJPEGデータが生成される。そして、第2フレームのJPEGデータは、メモリ上のJPEGデータ記憶領域に一時的に記憶される。このとき、JPEGデータ記憶領域が1つのみであると、第1フレームのJPEGデータが第2フレームのJPEGデータで上書きされてしまうため正常な処理が行えなくなってしまう。そのため、上述したデータの上書きを避けるためには、少なくともJPEGデータ記憶領域が2つ必要であることが分かる。   Further, for example, the JPEG data of the first frame described above is added with various metadata by the CPU 45 and combined into one on the JPEG data storage area to generate a memory image of one JPEG image file. . Then, the memory image of the JPEG image file of the first frame is read and enters the media controller 53_1, and then sent to the recording medium 34 and recorded in the recording area inside the recording medium 34. On the other hand, while the JPEG image file of the first frame is being recorded, the JPEG compression processing is performed on the YCbCr data of the second frame by the still image compression unit 42, and the JPEG data of the second frame is generated. . The JPEG data of the second frame is temporarily stored in the JPEG data storage area on the memory. At this time, if there is only one JPEG data storage area, the JPEG data of the first frame is overwritten with the JPEG data of the second frame, and normal processing cannot be performed. Therefore, it can be seen that at least two JPEG data storage areas are required to avoid overwriting the data described above.

上述する理由から、画像処理回路のメモリ(17、18)には、Bayerデータ記憶領域、YCbCrデータ記憶領域、JPEGデータ記憶領域がそれぞれ2以上ずつ確保されている(図4参照)。Bayerデータ記憶領域は、プリプロセスとポストプロセスとによって共有されている。YCbCrデータ記憶領域は、ポストプロセスとJPEG圧縮処理とによって共有されている。JPEGデータ記憶領域は、JPEG圧縮処理とJPEG画像ファイルの記録処理とによって共有されている。各データ記憶領域でデータの上書きを避けるため、前者の処理では共有する2つのデータ記憶領域の一方にデータが書き込まれ、後者の処理では共有する2つのデータ記憶領域の他方からデータが読み出される。   For the reasons described above, two or more Bayer data storage areas, YCbCr data storage areas, and JPEG data storage areas are secured in the memories (17, 18) of the image processing circuit (see FIG. 4). The Bayer data storage area is shared by the preprocess and the postprocess. The YCbCr data storage area is shared by the post process and the JPEG compression process. The JPEG data storage area is shared by JPEG compression processing and JPEG image file recording processing. In order to avoid overwriting data in each data storage area, data is written to one of the two shared data storage areas in the former process, and data is read from the other of the two shared data storage areas in the latter process.

また、上述した並列処理を行うときには、「静止画の撮像動作」、「プリプロセス」、「ポストプロセス」、「JPEG圧縮処理」、「JPEG画像ファイルの記録」に対応するタスクがRTOSの管理の下で複数並列に実行される。各タスクは、タスク間で通信を行うことによりタスク間の同期をとるとともに、各データ記憶領域でのデータの書き込み・読み出しの排他制御を行う。   When performing the parallel processing described above, tasks corresponding to “still image capturing operation”, “pre-process”, “post-process”, “JPEG compression processing”, and “record JPEG image file” are managed by RTOS. Runs in parallel below. Each task synchronizes between tasks by communicating between tasks, and performs exclusive control of writing and reading of data in each data storage area.

例えば、レリーズ釦の全押し操作が行われると、「静止画の撮像動作」に対応する撮像処理タスクは「プリプロセス」のタスクにメッセージを送信し、フレーム番号の情報を伝えるとともに「プリプロセス」の処理の準備を要求する。上述のメッセージを受信すると、「プリプロセス」のタスクは空いているBayerデータ記憶領域を獲得(セマフォの獲得)し、Bayerデータ記憶領域の獲得後に撮像処理タスクに準備完了のレスポンスを返信する。上述のレスポンスを受信すると、撮像処理タスクは、撮像部12に静止画の撮像動作を開始させる。露光が終了して撮像部12から静止画のデータが出力されると、そのデータは所定の画像処理回路(14、15)に入力され、プリプロセス部でプリプロセスが施される。プリプロセス後のBayerデータの書き込みを行うDMAC44は、プリプロセス部(内部のFIFO)をソースアドレスとし、予め獲得したBayerデータ記憶領域の先頭アドレスをデスティネーションアドレスとして、DMA転送によりBayerデータ記憶領域にBayerデータを書き込む。1フレーム分のBayerデータの書き込みが終了すると、「プリプロセス」のタスクはそのBayerデータ記憶領域を返却する(セマフォの返却)。   For example, when the release button is fully pressed, the imaging processing task corresponding to the “still image imaging operation” transmits a message to the “preprocessing” task to convey information on the frame number and “preprocessing”. Request preparation for processing. When the above-described message is received, the “preprocess” task acquires an empty Bayer data storage area (acquires a semaphore), and returns a response indicating completion of preparation to the imaging processing task after acquisition of the Bayer data storage area. When the above-described response is received, the imaging processing task causes the imaging unit 12 to start a still image imaging operation. When exposure is completed and still image data is output from the imaging unit 12, the data is input to a predetermined image processing circuit (14, 15), and preprocessing is performed in the preprocessing unit. The DMAC 44 that writes the pre-processed Bayer data uses the pre-process unit (internal FIFO) as the source address, and uses the pre-acquired start address of the Bayer data storage area as the destination address, to the Bayer data storage area by DMA transfer. Write the Bayer data. When the writing of the Bayer data for one frame is completed, the “preprocess” task returns the Bayer data storage area (semaphore return).

続いて、「プリプロセス」のタスクは「ポストプロセス」のタスクにメッセージを送信し、上述のBayerデータにポストプロセスを施す旨を依頼する。このとき、「プリプロセス」のタスクは、「ポストプロセス」のタスクへのメッセージに、フレーム番号の情報と、上述のBayerデータ記憶領域の先頭アドレスとを含める。上述のメッセージを受信した「ポストプロセス」のタスクは、受信したアドレス値のBayerデータ記憶領域と、空いているYCbCrデータ記憶領域とを獲得する(セマフォの獲得)。YCbCrデータ記憶領域の獲得後に、「ポストプロセス」のタスクはポストプロセス部にポストプロセスを開始させる。Bayerデータ記憶領域からBayerデータを読み出すDMAC44は、予め獲得したBayerデータ記憶領域の先頭アドレスをソースアドレスとし、ポストプロセス部(内部のFIFO)をデスティネーションアドレスとして、DMA転送によりBayerデータをポストプロセス部に入力する。これにより、Bayerデータはポストプロセス部に入力されてポストプロセスが施される。また、ポストプロセス後のYCbCrデータの書き込みを行うDMAC44は、ポストプロセス部(内部のFIFO)をソースアドレスとし、予め獲得したYCbCrデータ記憶領域の先頭アドレスをデスティネーションアドレスとして、DMA転送によりYCbCrデータ記憶領域にYCbCrデータ(主画像、フリーズ画、サムネイル)を書き込む。なお、1フレーム分のBayerデータの読み出しが終了すると、「ポストプロセス」のタスクはそのBayerデータ記憶領域を返却する(セマフォの返却)。また、1フレーム分のYCbCrデータの書き込みが終了すると、「ポストプロセス」のタスクはそのYCbCrデータ記憶領域を返却する(セマフォの返却)。   Subsequently, the “pre-process” task sends a message to the “post-process” task, and requests that the above-described Bayer data be post-processed. At this time, the “preprocess” task includes the frame number information and the start address of the Bayer data storage area in the message to the “postprocess” task. The “post process” task that has received the above message acquires a Bayer data storage area of the received address value and a free YCbCr data storage area (acquisition of a semaphore). After acquiring the YCbCr data storage area, the “post process” task causes the post process section to start the post process. The DMAC 44 that reads out the Bayer data from the Bayer data storage area uses the previously acquired Bayer data storage area start address as the source address, the post process part (internal FIFO) as the destination address, and the DMA data transfer to transfer the Bayer data to the post process part. To enter. As a result, the Bayer data is input to the post-processing unit and subjected to post-processing. Further, the DMAC 44 that writes the post-process YCbCr data stores the YCbCr data by DMA transfer using the post-process unit (internal FIFO) as the source address and the head address of the YCbCr data storage area acquired in advance as the destination address. Write YCbCr data (main image, freeze image, thumbnail) in the area. When the reading of the Bayer data for one frame is completed, the “post process” task returns the Bayer data storage area (semaphore return). When the writing of YCbCr data for one frame is completed, the “post process” task returns the YCbCr data storage area (semaphore return).

続いて、「ポストプロセス」のタスクは「JPEG圧縮処理」のタスクにメッセージを送信し、上述のYCbCrデータにJPEG圧縮処理を施す旨を依頼する。このとき、「ポストプロセス」のタスクは、「JPEG圧縮処理」のタスクへのメッセージに、フレーム番号の情報と、上述のYCbCrデータ記憶領域の先頭アドレスとを含める。上述のメッセージを受信した「JPEG圧縮処理」のタスクは、受信したアドレス値のYCbCrデータ記憶領域と、空いているJPEGデータ記憶領域とを獲得する(セマフォの獲得)。JPEGデータ記憶領域の獲得後に、「JPEG圧縮処理」のタスクは静止画圧縮部42にJPEG圧縮処理を開始させる。YCbCrデータ記憶領域からYCbCrデータを読み出すDMAC44は、予め獲得したYCbCrデータ記憶領域の先頭アドレスをソースアドレスとし、静止画圧縮部42(内部のFIFO)をデスティネーションアドレスとして、DMA転送によりYCbCrデータを静止画圧縮部42に入力する。これにより、YCbCrデータは静止画圧縮部42に入力されてJPEG圧縮処理が施される。また、JPEG圧縮処理後のJPEGデータの書き込みを行うDMAC44は、静止画圧縮部42(内部のFIFO)をソースアドレスとし、予め獲得したJPEGデータ記憶領域の先頭アドレスをデスティネーションアドレスとして、DMA転送によりJPEGデータ記憶領域にJPEGデータを書き込む。また、「JPEG圧縮処理」のタスクは、これと並行して撮影情報などのメタデータを収集し、JPEGデータ記憶領域内の別のアドレスにメタデータを書き込む。そして、「JPEG圧縮処理」のタスクは、静止画圧縮部42から出力されたJPEGデータとメタデータとを1つに結合して、JPEGデータ記憶領域の先頭から始める1つのJPEG画像ファイル(メモリイメージ)を作成する。なお、1フレーム分のYCbCrデータの読み出しが終了すると、「JPEG圧縮処理」のタスクはそのYCbCrデータ記憶領域を返却する(セマフォの返却)。また、上述するJPEG画像ファイルを作成すると、「JPEG圧縮処理」のタスクはそのJPEGデータ記憶領域を返却する(セマフォの返却)。   Subsequently, the “post process” task sends a message to the “JPEG compression process” task and requests that the above-described YCbCr data be subjected to the JPEG compression process. At this time, the “post process” task includes the frame number information and the start address of the YCbCr data storage area in the message to the “JPEG compression process” task. The “JPEG compression process” task that has received the above-mentioned message acquires a YCbCr data storage area of the received address value and a free JPEG data storage area (acquisition of semaphore). After acquiring the JPEG data storage area, the task “JPEG compression processing” causes the still image compression unit 42 to start JPEG compression processing. The DMAC 44 that reads YCbCr data from the YCbCr data storage area uses the YCbCr data storage area acquired in advance as the source address, the still image compression unit 42 (internal FIFO) as the destination address, and the YCbCr data is statically transferred by DMA transfer. Input to the image compression unit 42. Thus, the YCbCr data is input to the still image compression unit 42 and subjected to JPEG compression processing. The DMAC 44 that writes JPEG data after JPEG compression processing uses DMA transfer with the still image compression unit 42 (internal FIFO) as the source address and the pre-acquired start address of the JPEG data storage area as the destination address. Write JPEG data in the JPEG data storage area. In parallel with this, the task of “JPEG compression processing” collects metadata such as shooting information and writes the metadata to another address in the JPEG data storage area. The “JPEG compression processing” task combines one JPEG data and metadata output from the still image compression unit 42 into one JPEG image file (memory image) starting from the top of the JPEG data storage area. ). When the reading of YCbCr data for one frame is completed, the “JPEG compression processing” task returns the YCbCr data storage area (semaphore return). When the above-described JPEG image file is created, the “JPEG compression process” task returns the JPEG data storage area (semaphore return).

続いて、「JPEG圧縮処理」のタスクは「JPEG画像ファイルの記録」のタスクにメッセージを送信し、上述のJPEG画像ファイルを記録媒体34に記録するように依頼する。このとき、「JPEG圧縮処理」のタスクは、「JPEG画像ファイルの記録」のタスクへのメッセージに、フレーム番号の情報と、上述のJPEGデータ記憶領域の先頭アドレスと、JPEG画像ファイルのサイズを含める。JPEG圧縮は可変長圧縮であるため、圧縮処理ごとにJPEGデータのサイズ(符号量)も変わるため、JPEG画像ファイルのサイズも変化する。そのため、上述の場合にはメッセージにJPEG画像ファイルのサイズを含めている。上述のメッセージを受信した「JPEG画像ファイルの記録」のタスクは、受信したアドレス値のJPEGデータ記憶領域を獲得する(セマフォの獲得)。そして、「JPEG画像ファイルの記録」のタスクは、メディアコントローラ53_1を動作状態(Active)にする。また、「JPEG画像ファイルの記録」のタスクは、メディアコントローラ53_1を介して記録媒体34にWRITEコマンドと書き込みアドレスとを発行して、JPEG画像ファイルの記録動作を開始する。JPEGデータ記憶領域からJPEG画像ファイルを読み出すDMAC44は、予め獲得したJPEGデータ記憶領域の先頭アドレスをソースアドレスとし、メディアコントローラ53_1(内部のFIFO)をデスティネーションアドレスとして、DMA転送によりJPEG画像ファイルのデータをメディアコントローラ53_1に入力する。メディアコントローラ53_1は、入力されたJPEG画像ファイルのデータを記録媒体34に送信し、上述する書き込みアドレスで指定された記録領域に記録する。なお、JPEG画像ファイルの記録が終了すると、「JPEG画像ファイルの記録」のタスクはそのJPEGデータ記憶領域を返却する(セマフォの返却)。   Subsequently, the “JPEG compression process” task sends a message to the “record JPEG image file” task and requests the above-mentioned JPEG image file to be recorded on the recording medium 34. At this time, the “JPEG compression processing” task includes the frame number information, the start address of the JPEG data storage area, and the size of the JPEG image file in the message to the “record JPEG image file” task. . Since JPEG compression is variable length compression, the size (code amount) of JPEG data also changes with each compression process, so the size of the JPEG image file also changes. For this reason, the size of the JPEG image file is included in the message in the above case. The “JPEG image file recording” task that has received the above message acquires the JPEG data storage area of the received address value (acquisition of a semaphore). Then, the task of “record JPEG image file” sets the media controller 53_1 to the operation state (Active). Also, the “record JPEG image file” task issues a WRITE command and a write address to the recording medium 34 via the media controller 53_1, and starts a JPEG image file recording operation. The DMAC 44 that reads a JPEG image file from the JPEG data storage area uses the JPEG data storage area acquired in advance as a source address and the media controller 53_1 (internal FIFO) as a destination address. Is input to the media controller 53_1. The media controller 53_1 transmits the data of the input JPEG image file to the recording medium 34, and records it in the recording area specified by the write address described above. When the recording of the JPEG image file is completed, the “record JPEG image file” task returns the JPEG data storage area (semaphore return).

以上のように、RTOSの機能(セマフォ)を利用することで、CPU45は各データ記憶領域でのデータの書き込み・読み出しの排他制御を確実に行うことができる。また、タスク間通信でフレーム番号の情報が伝達されるため、CPU45が実行するRTOSは、フレーム番号の情報を参照することで静止画データを撮影順に従って処理することができる。   As described above, by using the RTOS function (semaphore), the CPU 45 can reliably perform exclusive control of writing and reading of data in each data storage area. Further, since frame number information is transmitted by inter-task communication, the RTOS executed by the CPU 45 can process still image data according to the shooting order by referring to the frame number information.

また、本実施形態の電子カメラでは、奇数フレームの静止画データに対して第1画像処理回路14で上述した並列処理が実行され、偶数フレームの静止画データに対して第2画像処理回路15で上述した並列処理が実行される。2つの画像処理回路を用いると、同じ処理時間の間に2つのフレームを処理できるので、処理時間は相対的に1/2になることが分かる。すなわち、電子カメラ全体ではフレーム間隔が1/2になるため、1つの画像処理回路で処理する場合と比べて2倍高速な連写撮影を行うことができる。   In the electronic camera of the present embodiment, the parallel processing described above is executed by the first image processing circuit 14 for the still image data of odd frames, and the second image processing circuit 15 for the still image data of even frames. The parallel processing described above is executed. When two image processing circuits are used, two frames can be processed during the same processing time, so that the processing time is relatively halved. That is, since the frame interval of the entire electronic camera is halved, continuous shooting can be performed twice as fast as when processing is performed by one image processing circuit.

ところで、本実施形態では、第1画像処理回路14にのみメディアコネクタ23が接続されている。そのため、第1画像処理回路14で生成されたJPEG画像ファイルと、第2画像処理回路15で生成されたJPEG画像ファイルとは、マスタ側のCPU45_1の制御により記録媒体34にフレーム番号順で交互に記録されることになる。   By the way, in the present embodiment, the media connector 23 is connected only to the first image processing circuit 14. Therefore, the JPEG image file generated by the first image processing circuit 14 and the JPEG image file generated by the second image processing circuit 15 are alternately placed on the recording medium 34 in the order of frame numbers under the control of the CPU 45_1 on the master side. Will be recorded.

スレーブ側のJPEG画像ファイルの記録処理は、基本的にはマスタ側の場合と同様であるが、JPEG画像ファイルのデータが第2メモリ18のJPEGデータ記憶領域に記録される点と、そのデータがシリアルバス16を介して第1画像処理回路14のブロックに転送される点でマスタ側の場合と相違がある。しかし、第1画像処理回路14のCPU45_1やDMAC44_1は、バスブリッジ56の働きによって、第2メモリ18上のデータに対して第1メモリ17上のデータと同様にアクセスすることができる。そのため、第2画像処理回路15で生成されたJPEG画像ファイルを第1画像処理回路14のブロックに転送することは容易である。   The recording process of the JPEG image file on the slave side is basically the same as that on the master side, but the data of the JPEG image file is recorded in the JPEG data storage area of the second memory 18 and the data is This is different from the case of the master side in that it is transferred to the block of the first image processing circuit 14 via the serial bus 16. However, the CPU 45_1 and the DMAC 44_1 of the first image processing circuit 14 can access the data on the second memory 18 similarly to the data on the first memory 17 by the operation of the bus bridge 56. Therefore, it is easy to transfer the JPEG image file generated by the second image processing circuit 15 to the block of the first image processing circuit 14.

例えば、電子カメラはスレーブ側のJPEG画像ファイルを以下の手順で記録媒体34に記録すればよい。図5は、スレーブ側のJPEG画像ファイルを記録媒体34に記録する場合の概要図である。図5において、JPEG画像ファイルのデータの流れは一点鎖線の矢印で示す。   For example, the electronic camera may record the slave-side JPEG image file on the recording medium 34 according to the following procedure. FIG. 5 is a schematic diagram when a slave-side JPEG image file is recorded on the recording medium 34. In FIG. 5, the data flow of the JPEG image file is indicated by a dashed line arrow.

まず、スレーブ側のCPU45_2は、JPEG画像ファイルのデータが生成されるたびに、マスタ側のCPU45_1に対して、対象となるJPEG画像ファイルが記憶されているJPEGデータ記憶領域のアドレスと、そのJPEG画像ファイルのフレーム番号を伝える。CPU45_1は、第2メモリ18に記憶されているフレーム番号のJPEG画像ファイルを記録媒体34に記録するとき、上述の通信で取得したJPEGデータ記憶領域の先頭アドレスを用いて、対象のJPEG画像ファイルを記録媒体34へ転送すればよい。なお、JPEG画像ファイルの記録媒体34への記録に関する具体的な処理については、既に上述した説明と同様であるので重複する説明は省略する。   First, each time the JPEG image file data is generated, the slave CPU 45_2 sends the address of the JPEG data storage area in which the target JPEG image file is stored to the master CPU 45_1 and the JPEG image. Tell the file frame number. When the CPU 45_1 records the JPEG image file of the frame number stored in the second memory 18 on the recording medium 34, the CPU 45_1 uses the start address of the JPEG data storage area acquired by the above-described communication to select the target JPEG image file. What is necessary is just to transfer to the recording medium 34. Note that the specific processing relating to the recording of the JPEG image file on the recording medium 34 is the same as that already described above, and therefore, redundant description is omitted.

また、連写撮影のときにフリーズ画を表示する場合を考える。本実施形態では第1画像処理回路14にのみ表示部21が接続されている。奇数フレームのフリーズ画を表示部21に表示させる場合には、マスタ側では単写撮影の場合と同様の制御を行えばよい。偶数フレームのフリーズ画を表示部21に表示させる場合、基本的にはマスタ側の場合と同様であるが、フリーズ画のYCbCrデータが第2メモリ18のYCbCrデータ記憶領域に記録される点と、そのデータがシリアルバス16を介して第1画像処理回路14のブロックに転送される点でマスタ側の場合と相違がある。しかし、第1画像処理回路14のCPU45_1やDMAC44_1は、バスブリッジ56の働きによって、第2メモリ18上のデータに対して第1メモリ17上のデータと同様にアクセスすることができる。そのため、第2画像処理回路15で生成されたフリーズ画のデータを第1画像処理回路14のブロックに転送することは容易である。   Also, consider a case where a freeze image is displayed during continuous shooting. In the present embodiment, the display unit 21 is connected only to the first image processing circuit 14. In the case where an odd-numbered frame freeze image is displayed on the display unit 21, the master side may perform the same control as in the case of single shooting. When displaying the freeze image of the even number frame on the display unit 21, it is basically the same as the case of the master side, but the YCbCr data of the freeze image is recorded in the YCbCr data storage area of the second memory 18, This is different from the case of the master in that the data is transferred to the block of the first image processing circuit 14 via the serial bus 16. However, the CPU 45_1 and the DMAC 44_1 of the first image processing circuit 14 can access the data on the second memory 18 similarly to the data on the first memory 17 by the operation of the bus bridge 56. Therefore, it is easy to transfer the freeze image data generated by the second image processing circuit 15 to the block of the first image processing circuit 14.

例えば、電子カメラは、以下の手順でフリーズ画の表示を行えばよい。図6は、スレーブ側のフリーズ画を表示部21に表示させる場合の概略図である。図6において、フリーズ画のデータの流れは一点鎖線の矢印で示す。   For example, the electronic camera may display a freeze image according to the following procedure. FIG. 6 is a schematic diagram when a freeze image on the slave side is displayed on the display unit 21. In FIG. 6, the data flow of the freeze image is indicated by a one-dot chain line arrow.

連写撮影のときに、マスタ側のCPU45_1は、フリーズ画を表示するフレーム番号を求める。上記のフレーム番号が偶数であれば、表示すべきフリーズ画のデータは第2メモリ18のYCbCrデータ記憶領域に記憶されている。フリーズ画の表示を行う場合、CPU45_1は、フレーム番号とともにフリーズ画の表示を示す表示フラグを、そのフレームの撮影時に予めCPU45_2に送信しておく。   At the time of continuous shooting, the CPU 45_1 on the master side obtains a frame number for displaying a freeze image. If the frame number is an even number, the freeze image data to be displayed is stored in the YCbCr data storage area of the second memory 18. When displaying the freeze image, the CPU 45_1 transmits a display flag indicating the display of the freeze image together with the frame number to the CPU 45_2 in advance when shooting the frame.

ここで、偶数フレームのBayerデータが第2画像処理回路15に入力されると、CPU45_2は、Bayerデータが記憶された第2メモリ18のBayerデータ記憶領域のアドレスと、フレーム番号と、表示フラグとを画像処理部41_2に伝える。そして、画像処理部41_2は、上記のBayerデータにポストプロセスを施して、主画像、フリーズ画、サムネイルの各YCbCrデータを生成する。上述の表示フラグがセットされていた場合、画像処理部41_2は、フリーズ画のYCbCrデータが生成された時点で、表示すべきフリーズ画が記憶されているYCbCrデータ記憶領域の先頭アドレスと、そのフレーム番号とをマスタ側のCPU45_1に送信する。   Here, when the Bayer data of the even frame is input to the second image processing circuit 15, the CPU 45_2, the address of the Bayer data storage area of the second memory 18 in which the Bayer data is stored, the frame number, the display flag, Is transmitted to the image processing unit 41_2. Then, the image processing unit 41_2 performs post-processing on the above Bayer data to generate main image, freeze image, and thumbnail YCbCr data. When the display flag is set, the image processing unit 41_2, when the YCbCr data of the freeze image is generated, the start address of the YCbCr data storage area in which the freeze image to be displayed is stored and its frame The number is transmitted to the CPU 45_1 on the master side.

そして、マスタ側のCPU45_1は、第2メモリ18から表示コントローラ48_1にフリーズ画のデータをDMA転送する。このとき、CPU45_1は、表示すべきフリーズ画が記録されているYCbCrデータ記憶領域の先頭アドレスをDMAC44_1のソースアドレスとし、表示コントローラ48_1のFIFOのアドレスをDMAC44_1のデスティネーションアドレスとする。また、CPU45_1は、表示すべきフリーズ画のバイト数をDMAC44_1の転送カウントとすればよい。   Then, the master CPU 45_1 DMA-transfers the freeze image data from the second memory 18 to the display controller 48_1. At this time, the CPU 45_1 sets the start address of the YCbCr data storage area where the freeze image to be displayed is recorded as the source address of the DMAC 44_1, and sets the FIFO address of the display controller 48_1 as the destination address of the DMAC 44_1. The CPU 45_1 may set the number of bytes of the freeze image to be displayed as the transfer count of the DMAC 44_1.

その後、CPU45_1が表示ドライバを呼び出すと、フリーズ画のデータが表示コントローラ48_1に転送されて、フリーズ画が表示部21の画面に表示される。なお、同じフリーズ画を一定期間表示部21に表示し続ける場合、DMAC44_1が上述したフリーズ画のデータ転送を繰り返すように設定すればよい。このため、DMAC44_1には前回と同じアドレスでDMA転送を行うリロード機能を持たせてもよい。   Thereafter, when the CPU 45_1 calls the display driver, the freeze image data is transferred to the display controller 48_1, and the freeze image is displayed on the screen of the display unit 21. When the same freeze image is continuously displayed on the display unit 21 for a certain period, the DMAC 44_1 may be set to repeat the above-described freeze image data transfer. Therefore, the DMAC 44_1 may have a reload function for performing DMA transfer with the same address as the previous time.

以上が静止画撮影モードで連写撮影を行う場合の動作である。   The above is the operation when continuous shooting is performed in the still image shooting mode.

(動画撮影モードでの動作例1)
次に、動画撮影モードでの電子カメラの動作例を説明する。まず、H.264規格での動画像の符号化について簡単に説明する。
(Operation example 1 in movie shooting mode)
Next, an operation example of the electronic camera in the moving image shooting mode will be described. First, H. The encoding of moving images in the H.264 standard will be briefly described.

H.264による動画像の符号化では、1フレームの動画データをマクロブロックと称する多数のブロックに分割し、マクロブロック単位で符号化の処理が行われる。符号化のモードには、Iモード、Pモード、Bモードと称する3つのモードがある。   H. In the encoding of a moving image by H.264, one frame of moving image data is divided into a large number of blocks called macroblocks, and encoding processing is performed in units of macroblocks. There are three modes of encoding, called I mode, P mode, and B mode.

Iモードは、フレーム内予測符号化モードである。Iモードでは、符号化の対象となるカレントフレーム内の画素のみを利用して各マクロブロックを符号化するフレーム内予測が行われる。   The I mode is an intraframe predictive coding mode. In the I mode, intra-frame prediction is performed in which each macroblock is encoded using only pixels in the current frame to be encoded.

一方、Pモード、Bモードは、フレーム間予測符号化モードである。一般的にPモードは、時間的に過去の1フレームからカレントフレームを予測する。また、Bモードは、時間的に過去および未来のそれぞれ1フレームからカレントフレームを予測する。ここで、Pモード、Bモードのフレーム間予測でカレントフレームと対比されるフレームを参照フレームと称する。この参照フレームは、既に符号化されたフレームを再生(復号)したものが用いられる。なお、H.264の符号化器には、ローカル復号器が含まれている。符号化されたカレントフレームのマクロブロックはローカル復号器で直ちに復号化され、メモリ上の参照フレーム記憶領域に記憶される。   On the other hand, the P mode and the B mode are inter-frame prediction encoding modes. In general, in the P mode, a current frame is predicted from one temporally past frame. In the B mode, the current frame is predicted from one frame in the past and the future in terms of time. Here, a frame that is compared with the current frame in inter-frame prediction in the P mode and the B mode is referred to as a reference frame. As this reference frame, a frame that has been reproduced (decoded) from an already encoded frame is used. H. The H.264 encoder includes a local decoder. The encoded macroblock of the current frame is immediately decoded by the local decoder and stored in the reference frame storage area on the memory.

また、フレーム間予測では、被写体の動き検出による動き補償を行うことで予測誤差の値を小さくしている。すなわち、動き検出では、カレントフレームのマクロブロックの位置を基準として、マクロブロックよりも大きな探索領域を参照フレームから読み出す。そして、探索領域内で上述の予測誤差が最小となるブロックの位置とそのときの予測誤差(最小値)とを求める。上記の動き検出で求めたブロックの位置と基準位置との差(オフセット)を動きベクトルと称する。フレーム間予測では、予測誤差および動きベクトルを併せて符号化し、ヘッダ情報を含んだマクロブロックの圧縮データを生成する。フレーム間予測を行った場合、符号化の終了したカレントフレームのマクロブロックの圧縮データは直ちにローカル復号器で復号される、そして、復号された予測誤差および動きベクトルから新しい参照フレーム(カレントフレームを復号したもの)が生成される。   In inter-frame prediction, the value of the prediction error is reduced by performing motion compensation by detecting the motion of the subject. That is, in motion detection, a search area larger than the macroblock is read from the reference frame based on the position of the macroblock in the current frame. Then, the position of the block that minimizes the above-described prediction error in the search area and the prediction error (minimum value) at that time are obtained. A difference (offset) between the position of the block obtained by the motion detection and the reference position is referred to as a motion vector. In inter-frame prediction, a prediction error and a motion vector are encoded together to generate compressed macroblock data including header information. When interframe prediction is performed, the compressed data of the macroblock of the current frame that has been encoded is immediately decoded by the local decoder, and a new reference frame (decodes the current frame) from the decoded prediction error and motion vector. Is generated).

また、H.264規格では、スライス(Slice)と称するマクロブロックのグループで1フレームを分割し、スライス単位で符号化モードを変更できる。   H. In the H.264 standard, one frame is divided by a group of macroblocks called slices, and the coding mode can be changed in units of slices.

また、H.264規格では、従来のMPEG規格よりも多数の参照フレームを利用できる。Pマクロブロックの場合、1つの参照フレームグループの中から1フレームを選択してPモードの符号化を行う。また、Bマクロブロックの場合、2つの参照フレームグループの中からそれぞれ1フレーム、若しくは一方の参照フレームグループの中から2フレームを選択してBモードの符号化を行う。   H. The H.264 standard can use a larger number of reference frames than the conventional MPEG standard. In the case of a P macroblock, one frame is selected from one reference frame group and P mode encoding is performed. In the case of a B macroblock, one frame is selected from two reference frame groups, or two frames are selected from one reference frame group, and B-mode encoding is performed.

ところで、上記のフレームの選択を行うときには、複数の参照フレームを評価した上で、カレントフレームのマクロブロック(カレントマクロブロック)により近い値を持つフレームを選択する可能性が高い。また、スライスが変わる場合には参照フレームも変わるので、上述した参照フレームの評価がその都度行われることになる。そのため、H.264規格では、参照フレームのアクセス回数が従来のMPEGの場合より多くなり、メモリの帯域が大幅に使用されうる。   By the way, when selecting the above frame, it is highly possible to select a frame having a value closer to the macroblock (current macroblock) of the current frame after evaluating a plurality of reference frames. In addition, since the reference frame changes when the slice changes, the above-described evaluation of the reference frame is performed each time. Therefore, H.H. In the H.264 standard, the number of access times of the reference frame is larger than that in the conventional MPEG, and the memory bandwidth can be greatly used.

以上の説明をふまえて、本実施形態での動画撮影モードでの電子カメラの動作を説明する。   Based on the above description, the operation of the electronic camera in the moving image shooting mode in this embodiment will be described.

図7は、動画撮影モードにおける電子カメラの動作例1の概略図である。図7において、カレントフレーム(記録用の動画像データを指す)、参照フレーム、動画像ファイルのデータの流れは、それぞれ一点鎖線の矢印で示す。   FIG. 7 is a schematic diagram of an operation example 1 of the electronic camera in the moving image shooting mode. In FIG. 7, the data flow of the current frame (pointing to moving image data for recording), the reference frame, and the moving image file are indicated by alternate long and short dashed arrows.

図7に示す動作例1では、マスタ側の動画圧縮部43_1が動画像の符号化を行う。第1メモリ17には、カレントフレームのYCbCrデータと動画像ファイルとが記憶される。一方、第2メモリ18には、参照フレームのYCbCrデータが記憶される。また、動作例1では、スルー画および動画像のデータはデータ分配器13を介して第1画像処理回路14にのみ入力される。   In the operation example 1 illustrated in FIG. 7, the moving image compression unit 43_1 on the master side encodes a moving image. The first memory 17 stores YCbCr data of the current frame and a moving image file. On the other hand, the YCbCr data of the reference frame is stored in the second memory 18. In operation example 1, through image data and moving image data are input only to the first image processing circuit 14 via the data distributor 13.

動画撮影モードの起動指示を受け付けた段階では、第1画像処理回路14は、単写撮影の場合と同様にライブビューの動作を開始する一方、第2画像処理回路15は動画撮影に必要となる各種の設定を済ませた上で、動画撮影が開始されるまで待機する。このとき、第2画像処理回路15は、必要となる回路ブロック以外の回路ブロックにはクロックの供給を停止して低消費電力の状態で待機することが好ましい。なお、第1画像処理回路14と第2画像処理回路15は、外部のシリアルバス16を通じて互いにデータの送受信が可能な状態にしておくことが必要となる。   At the stage of accepting the activation instruction for the moving image shooting mode, the first image processing circuit 14 starts the live view operation as in the case of single shooting, while the second image processing circuit 15 is required for moving image shooting. After completing the various settings, wait until movie shooting starts. At this time, it is preferable that the second image processing circuit 15 stops supplying clocks to circuit blocks other than the necessary circuit blocks and stands by in a low power consumption state. The first image processing circuit 14 and the second image processing circuit 15 need to be in a state where data can be transmitted and received with each other through the external serial bus 16.

動画撮影での第1画像処理回路14によるライブビューの動作は、静止画の単写撮影の場合とほぼ同様であるので、重複する部分の説明は省略する。   Since the live view operation by the first image processing circuit 14 in moving image shooting is almost the same as that in the case of single-shot shooting of a still image, description of overlapping portions is omitted.

また、ライブビューの動作中は画像処理部41_1が、プリプロセスの施されたスルー画のデータから、AF評価値、AE評価値、AWB評価値をそれぞれ生成する。CPU45_1は、生成したAE評価値を用いて測光を行い、測光結果に基づいてスルー画の露出制御を行う。またCPU45_1は上述したAWB評価値を用いてAWBアルゴリズムを実行し、その結果に基づいてスルー画のホワイトバランス調整を行う。また、CPU45_1は、所定のタイミングでAF評価値を用いて公知のコントラスト検出方式によるAFを行い、撮影光学系11のピントを目的の被写体に合わせる。なお、CPU45_1は、動画撮影時においても、上述したライブビュー表示、露出制御、ホワイトバランス調整、AFを実行する(図7ではライブビュー表示に関するデータの流れの図示は省略する)。   Further, during the live view operation, the image processing unit 41_1 generates an AF evaluation value, an AE evaluation value, and an AWB evaluation value from the pre-processed through image data. The CPU 45_1 performs photometry using the generated AE evaluation value, and performs exposure control of the through image based on the photometry result. The CPU 45_1 executes the AWB algorithm using the AWB evaluation value described above, and adjusts the white balance of the through image based on the result. Further, the CPU 45_1 performs AF by a known contrast detection method using the AF evaluation value at a predetermined timing, and focuses the photographing optical system 11 on the target subject. Note that the CPU 45_1 performs the above-described live view display, exposure control, white balance adjustment, and AF even during moving image shooting (data flow related to live view display is not shown in FIG. 7).

そして、CPU45_1は、動画記録指示を受け付けると、動画像の記録を開始する。上述する動画記録指示が行われると、CPU45_1は、第2画像処理回路15を低消費電力の状態から動作状態(使用する回路ブロックの全てにクロックが供給されている状態)に移行させる。また、CPU45_1は、撮像部12に対して、動画の仕様に合った解像度とフレーム周期の組み合わせで動画像のデータを出力するように指示する。なお、動画撮影時には、CPU45_1は、プリプロセスの施された動画像のデータに解像度変換を施すことでスルー画のYCbCrデータを生成し、上述したライブビュー表示等を行えばよい。   And CPU45_1 will start the recording of a moving image, if a moving image recording instruction | indication is received. When the moving image recording instruction described above is performed, the CPU 45_1 shifts the second image processing circuit 15 from the low power consumption state to the operation state (a state where clocks are supplied to all circuit blocks to be used). In addition, the CPU 45_1 instructs the imaging unit 12 to output moving image data with a combination of resolution and frame period that matches the moving image specifications. At the time of moving image shooting, the CPU 45_1 may generate YCbCr data of a through image by performing resolution conversion on preprocessed moving image data and perform the above-described live view display or the like.

ここで、動画撮影で行われる基本的な処理は、撮像部12による「動画像の撮像動作」、画像処理部41_1による「プリプロセス」、画像処理部41_1による「ポストプロセス」、動画圧縮部43_1による「動画圧縮処理」、メディアコントローラ53_1による「動画像ファイルの記録」という5つの処理である。これらの処理は、上述した連写撮影の場合と同様に、第1画像処理回路14によって並列処理される。なお、動画像の撮像動作からポストプロセスの動作は、連写撮影の場合における静止画の撮像動作からポストプロセスの動作とほぼ同様であるので重複する説明を省略する。   Here, the basic processing performed in moving image shooting is “moving image imaging operation” by the imaging unit 12, “pre-processing” by the image processing unit 41_1, “post-processing” by the image processing unit 41_1, and the moving image compression unit 43_1. Are “moving image compression processing” and “recording of moving image file” by the media controller 53_1. These processes are processed in parallel by the first image processing circuit 14 as in the case of the continuous shooting described above. Note that the operation from the moving image capturing operation to the post process operation is substantially the same as the still image capturing operation from the still image capturing operation in the case of continuous shooting, and thus redundant description is omitted.

動画撮影時には、CPU45_1の制御により、ポストプロセス後のカレントフレームのYCbCrデータが、第1メモリ17のYCbCrデータ記憶領域に記録される。カレントフレームのYCbCrデータが生成されると、CPU45_1は動画圧縮部43_1に対して動画圧縮処理を開始する指示を行う。   At the time of moving image shooting, under the control of the CPU 45_1, the YCbCr data of the current frame after the post process is recorded in the YCbCr data storage area of the first memory 17. When the YCbCr data of the current frame is generated, the CPU 45_1 instructs the moving image compression unit 43_1 to start moving image compression processing.

上述の指示に応じて、動画圧縮部43_1はカレントマクロブロックのデータを要求する。DMAC44_1は、メモリコントローラ50_1を介して第1メモリ17のカレントフレーム(YCbCrデータ)からマクロブロックを部分的に読み出し、動画圧縮部43_1に転送する。このとき、CPU45_1は、DMAC44_1のソースアドレスとして第1メモリ17のYCbCrデータ記憶領域の先頭アドレス、デスティネーションアドレスとして動画圧縮部43_1(内部のFIFO)のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。   In response to the above instruction, the moving image compression unit 43_1 requests data of the current macroblock. The DMAC 44_1 partially reads the macroblock from the current frame (YCbCr data) in the first memory 17 via the memory controller 50_1, and transfers it to the moving image compression unit 43_1. At this time, the CPU 45_1 sets the start address of the YCbCr data storage area of the first memory 17 as the source address of the DMAC 44_1, the address of the moving picture compression unit 43_1 (internal FIFO), and the number of data transfers as the destination address, respectively. Just do.

一方、DMAC44_1は、別のチャネルを使って予測用のデータを動画圧縮部43_1に転送する。カレントマクロブロックがIマクロブロックであれば、動画圧縮部43_1は、同一スライス内で先に符号化されたデータからフレーム内予測を行えばよい。   On the other hand, the DMAC 44_1 transfers the prediction data to the moving picture compression unit 43_1 using another channel. If the current macroblock is an I macroblock, the moving picture compression unit 43_1 may perform intraframe prediction from data encoded earlier in the same slice.

ここで、カレントフレームが動画像の最初のフレームである場合、過去のフレームが無いので、動画圧縮部43_1は上述したIモードで符号化を行う。動画圧縮部43_1は、上述した符号化の過程でカレントマクロブロックの復号データを逐次生成する。CPU45_1は、カレントマクロブロックの復号データ(YCbCrデータ)を、DMAC44_1によって第2メモリ18に確保された参照フレーム記憶領域に直接書き込ませる。このとき、CPU45_1は、DMAC44_1のソースアドレスとして動画圧縮部43_1(内部のFIFO)のアドレス、デスティネーションアドレスとして第2メモリ18の参照フレーム記憶領域の先頭アドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。上述した参照フレーム記憶領域に記録された復号データは新たな参照フレームとなる。   Here, when the current frame is the first frame of the moving image, there is no past frame, so the moving image compression unit 43_1 performs encoding in the I mode described above. The moving image compression unit 43_1 sequentially generates decoded data of the current macroblock in the above-described encoding process. The CPU 45_1 directly writes the decoded data (YCbCr data) of the current macroblock into the reference frame storage area secured in the second memory 18 by the DMAC 44_1. At this time, the CPU 45_1 sets the address of the moving picture compression unit 43_1 (internal FIFO) as the source address of the DMAC 44_1, sets the start address of the reference frame storage area of the second memory 18 as the destination address, and the number of data transfers. Can be done. The decoded data recorded in the reference frame storage area described above becomes a new reference frame.

カレントフレームが2フレーム目以降である場合、動画圧縮部43_1は、第2メモリ18の参照フレーム記憶領域に記憶されている参照フレームが使えるので、PスライスやBスライスを含めることができる。上述するPマクロブロックやBマクロブロックの場合、動画圧縮部43_1は、第2メモリ18に記憶された参照フレームから予測用のデータ(参照フレームの探索領域のYCbCrデータ)を取得する。このとき、CPU45_1は、DMAC44_1のソースアドレスとして、第2メモリ18の参照フレーム記憶領域のアドレス、デスティネーションアドレスとして動画圧縮部43_1(内部のFIFO)のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。なお、PマクロブロックやBマクロブロックの圧縮では、動画圧縮部43_1は、複数の参照フレームから予測用のデータを読み出して、カレントマクロブロックとの予測誤差の大きさを評価してもよい。そして、動画圧縮部43_1は、上記の予測誤差がより小さい参照フレームを選択して、カレントマクロブロックの符号化に用いてもよい。   When the current frame is the second frame or later, the moving picture compression unit 43_1 can use the reference frame stored in the reference frame storage area of the second memory 18, and can include the P slice and the B slice. In the case of the P macro block and the B macro block described above, the moving image compression unit 43_1 acquires prediction data (YCbCr data in the search area of the reference frame) from the reference frame stored in the second memory 18. At this time, the CPU 45_1 sets the address of the reference frame storage area of the second memory 18 as the source address of the DMAC 44_1, the address of the moving picture compression unit 43_1 (internal FIFO) as the destination address, and the number of data transfers. Can be done. Note that in the compression of the P macroblock and the B macroblock, the moving picture compression unit 43_1 may read prediction data from a plurality of reference frames and evaluate the size of the prediction error with the current macroblock. Then, the moving picture compression unit 43_1 may select a reference frame having a smaller prediction error and use it for encoding the current macroblock.

ところで、動画像の圧縮時において、DMAC44のソースアドレスは参照フレームのデータを読み出すために頻繁に変更される。そのため、動画圧縮時のDMA転送を効率的に行う観点から、動画圧縮部43にDMACを内蔵してもよい。このとき、動画圧縮部43にマイコンを内蔵させることで、ソースアドレスおよびデスティネーションアドレスを変更する機能と、符号化を行うフレームを決定する機能とを動画圧縮部43に付与してもよい。かかる構成によれば、カレントフレームが生成される毎に、CPU45がカレントフレームのアドレスを動画圧縮部43に通信するだけで、動画圧縮部43が自律的に動画像の符号化を行うことが可能となる。   By the way, when compressing a moving image, the source address of the DMAC 44 is frequently changed in order to read the data of the reference frame. Therefore, the DMAC may be incorporated in the moving image compression unit 43 from the viewpoint of efficiently performing DMA transfer during moving image compression. At this time, the moving image compression unit 43 may be provided with a function of changing the source address and the destination address and a function of determining a frame to be encoded by incorporating a microcomputer in the moving image compression unit 43. According to such a configuration, each time a current frame is generated, the moving image compression unit 43 can autonomously encode a moving image simply by the CPU 45 communicating the address of the current frame to the moving image compression unit 43. It becomes.

動画圧縮部43_1は、フレーム内予測符号化(Iモード)またはフレーム間予測符号化(Pモード、Bモード)によって生成した符号化データ(動画像ファイル)を、ヘッダを含んだ標準フォーマットのパケットに分割して出力する。上述のパケットは、DMAC44_1によって、第1メモリ17の動画ファイル記憶領域に書き込まれる。このとき、CPU45_1は、DMAC44_1のソースアドレスとして、動画圧縮部43_1(内部のFIFO)のアドレス、デスティネーションアドレスとして第1メモリ17の動画ファイル記憶領域のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。なお、CPU45_1は、動画ファイル記憶領域に上述のパケットのデータが一定量蓄積されるごとに、別の動画ファイル記憶領域に記録先を切り替える。   The moving image compression unit 43_1 converts the encoded data (moving image file) generated by intra-frame predictive encoding (I mode) or inter-frame predictive encoding (P mode, B mode) into a standard format packet including a header. Divide and output. The above-described packet is written into the moving image file storage area of the first memory 17 by the DMAC 44_1. At this time, the CPU 45_1 sets the address of the moving picture compression unit 43_1 (internal FIFO) as the source address of the DMAC 44_1, the address of the moving picture file storage area of the first memory 17 as the destination address, and the number of data transfers. Can be done. Note that the CPU 45_1 switches the recording destination to another moving image file storage area each time a certain amount of the packet data is accumulated in the moving image file storage area.

また、動画像ファイルの記録処理のときには、動画像ファイルのデータの書き込みを終えた動画ファイル記憶領域から、動画像ファイルのデータが読み出されて記録媒体34へ書き込まれる。このとき、CPU45_1はDMAC44_1のソースアドレスとして動画ファイル記憶領域の先頭アドレス、デスティネーションアドレスとしてメディアコントローラ53_1(内部のFIFO)のアドレス、データ転送数として動画像ファイルのパケットのバイト数をそれぞれ設定し、データ転送を開始させる。データ転送が開始されると、上述した動画ファイル記憶領域から動画像ファイルのデータが読み出されてメディアコントローラ53_1に入り、次いで記録媒体34に送られて記録媒体34内部の記録領域に記録される。   Also, during the moving image file recording process, the moving image file data is read from the moving image file storage area in which the writing of the moving image file data has been completed and written to the recording medium 34. At this time, the CPU 45_1 sets the start address of the moving image file storage area as the source address of the DMAC 44_1, the address of the media controller 53_1 (internal FIFO) as the destination address, and the number of bytes of the moving image file packet as the data transfer number. Start data transfer. When data transfer is started, moving image file data is read from the above-described moving image file storage area, enters the media controller 53_1, and is then sent to the recording medium 34 to be recorded in the recording area inside the recording medium 34. .

なお、上述するように、パケットのデータが一定量蓄積されるごとに記録先の動画ファイル記憶領域を切り替えることで、或る動画ファイル記憶領域にパケットのデータを書き込みつつ、別の動画ファイル記憶領域からデータを読み出して記録媒体34にデータを書き込むことができる。そのため、動画撮影の場合にも、連写撮影の場合と同様に上述した5つの処理を並列処理できることが分かる。以上で、動作例1の説明を終了する。   As described above, each time a certain amount of packet data is accumulated, the recording destination moving image file storage area is switched to write another packet data storage area while writing packet data to a certain moving image file storage area. The data can be read out and written into the recording medium 34. Therefore, it can be understood that the above-described five processes can be performed in parallel in the case of moving image shooting as well as in the case of continuous shooting. Above, description of the operation example 1 is complete | finished.

なお、動画像ファイルの再生の場合、動き検出がないのでメモリの帯域が大幅に消費されることはない。そのため、動画像ファイルの再生の場合、第1画像処理回路14のみを動作状態とする。そして、第1画像処理回路14の動画圧縮部43が動画像ファイルの各フレームを復号すればよい。   In the case of playing a moving image file, since there is no motion detection, the memory bandwidth is not consumed significantly. Therefore, in the case of reproducing a moving image file, only the first image processing circuit 14 is set in an operating state. Then, the moving image compression unit 43 of the first image processing circuit 14 may decode each frame of the moving image file.

以下、図7に示す動画撮影モードの動作例1での作用効果を述べる。   Hereinafter, the operation and effect in the operation example 1 of the moving image shooting mode shown in FIG.

上述した動作例1では、第1メモリ17にカレントフレームを記憶し、第2メモリ18に参照フレームを記憶する。また、動画圧縮部43_1は、第2メモリ18の参照フレームに直接アクセスして、カレントフレームのフレーム間予測による符号化を行う。   In the operation example 1 described above, the current frame is stored in the first memory 17 and the reference frame is stored in the second memory 18. In addition, the moving image compression unit 43_1 directly accesses the reference frame of the second memory 18 and performs encoding by inter-frame prediction of the current frame.

そのため、上述した動作例1では、第1メモリ17の帯域は、カレントフレームのプリプロセス・ポストプロセスの処理と、スルー画の表示と、記録媒体34への動画像ファイルの記録とに使用される。そして、第2メモリ18の帯域は、比較的負荷の大きい参照フレームのデータの書き込み/読み込みで使用される。したがって、上述した動作例1では各メモリへのアクセスが分散されるので、2つの画像処理回路により効率的な処理が可能となる。   Therefore, in the operation example 1 described above, the bandwidth of the first memory 17 is used for pre-process / post-process processing of the current frame, display of a through image, and recording of a moving image file on the recording medium 34. . The bandwidth of the second memory 18 is used for writing / reading reference frame data with a relatively large load. Therefore, in the operation example 1 described above, access to each memory is distributed, so that efficient processing can be performed by the two image processing circuits.

また、上述した動作例1では、転送元の画像処理回路に接続されたメモリ上に記憶されている画像データを、転送先の画像処理回路が直接読み出して処理するという動作を行うことができる。そのため、転送先の画像処理回路に接続されたメモリにデータを一旦移動(あるいはコピー)するという動作は不要になる。また、転送先の画像処理回路に接続されたメモリの帯域が余分に消費されることがないし、画像データのメモリ間移動(あるいはコピー)にかかっていた時間も発生しないので処理時間(あるいはLatency)が短縮される。   In the operation example 1 described above, the image data stored in the memory connected to the transfer source image processing circuit can be directly read and processed by the transfer destination image processing circuit. Therefore, the operation of temporarily moving (or copying) the data to the memory connected to the transfer destination image processing circuit becomes unnecessary. Further, the bandwidth of the memory connected to the image processing circuit of the transfer destination is not consumed excessively, and the time required for moving (or copying) the image data between the memories does not occur, so the processing time (or Latency) is not generated. Is shortened.

なお、以下に説明する動画撮影での各動作例の説明では、上記の動作例1と共通する部分の重複する説明はいずれも省略する。   In the description of each operation example in the moving image shooting described below, any overlapping description of the parts common to the above operation example 1 is omitted.

(動画撮影モードでの動作例2)
図8は、動画撮影モードにおける電子カメラの動作例2の概略図である。この動作例2は、図7に示す動作例1の変形例であって、第2画像処理回路15の動画圧縮部43が動画像の符号化を行う点で動作例1と相違する。図8において、カレントフレーム、参照フレーム、動画像ファイルのデータの流れは、それぞれ一点鎖線の矢印で示す。
(Operation example 2 in movie shooting mode)
FIG. 8 is a schematic diagram of Operation Example 2 of the electronic camera in the moving image shooting mode. This operation example 2 is a modification of the operation example 1 shown in FIG. 7, and is different from the operation example 1 in that the moving image compression unit 43 of the second image processing circuit 15 encodes a moving image. In FIG. 8, the data flow of the current frame, the reference frame, and the moving image file are indicated by alternate long and short dashed arrows.

動作例2の動画撮影の場合においても、CPU45_1の制御により、ポストプロセス後のカレントフレームのYCbCrデータが、第1メモリ17のYCbCrデータ記憶領域に記録される。カレントフレームのYCbCrデータが生成されると、CPU45_1は動画圧縮部43_2に対して動画圧縮処理を開始する指示を行う。   Even in the case of moving image shooting in the operation example 2, the YCbCr data of the current frame after the post process is recorded in the YCbCr data storage area of the first memory 17 under the control of the CPU 45_1. When the YCbCr data of the current frame is generated, the CPU 45_1 instructs the moving image compression unit 43_2 to start moving image compression processing.

上述の指示に応じて、動画圧縮部43_2はカレントマクロブロックのデータを要求する。DMAC44_2は、メモリコントローラ50_1を介して第1メモリ17のカレントフレーム(YCbCrデータ)からマクロブロックを部分的に読み出し、動画圧縮部43_2に転送する。このとき、CPU45_2は、DMAC44_2のソースアドレスとして第1メモリ17のYCbCrデータ記憶領域の先頭アドレス、デスティネーションアドレスとして動画圧縮部43_2(内部のFIFO)のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。   In response to the above instruction, the moving picture compression unit 43_2 requests data of the current macroblock. The DMAC 44_2 partially reads the macroblock from the current frame (YCbCr data) in the first memory 17 via the memory controller 50_1, and transfers the macroblock to the moving image compression unit 43_2. At this time, the CPU 45_2 sets the start address of the YCbCr data storage area of the first memory 17 as the source address of the DMAC 44_2, the address of the moving picture compression unit 43_2 (internal FIFO) as the destination address, and the number of data transfers. Can be done.

一方、DMAC44_2は、別のチャネルを使って第2メモリ18に記憶されている予測用のデータ(参照フレーム記憶領域の参照フレームのデータ)を動画圧縮部43_2に転送する。そして、動画圧縮部43_2は、上述したIモード、Pモード、Bモードのいずれかで符号化を実行する。なお、上述の各モードでの動画圧縮部43_2の動作は、動作例1での動画圧縮部43_1の動作と同様であるので説明を省略する。   On the other hand, the DMAC 44_2 transfers the prediction data (reference frame data in the reference frame storage area) stored in the second memory 18 to the moving picture compression unit 43_2 using another channel. Then, the moving image compression unit 43_2 performs encoding in any of the above-described I mode, P mode, and B mode. Note that the operation of the moving image compression unit 43_2 in each of the above-described modes is the same as the operation of the moving image compression unit 43_1 in Operation Example 1, and thus description thereof is omitted.

動画圧縮部43_2は、フレーム内予測符号化(Iモード)またはフレーム間予測符号化(Pモード、Bモード)によって生成した符号化データ(動画像ファイル)を、ヘッダを含んだ標準フォーマットのパケットに分割して出力する。上述のパケットは、DMAC44_2によって、第1メモリ17の動画ファイル記憶領域に書き込まれる。このとき、CPU45_2は、DMAC44_2のソースアドレスとして、動画圧縮部43_2(内部のFIFO)のアドレス、デスティネーションアドレスとして第1メモリ17の動画ファイル記憶領域のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。なお、CPU45_2は、動画ファイル記憶領域に上述のパケットのデータが一定量蓄積されるごとに、別の動画ファイル記憶領域に記録先を切り替える。なお、動画像ファイルの記録処理は、CPU45_1の制御によって動作例1の場合と同様に実行される。以上で、動作例2の説明を終了する。   The moving image compression unit 43_2 converts the encoded data (moving image file) generated by intra-frame predictive encoding (I mode) or inter-frame predictive encoding (P mode, B mode) into a standard format packet including a header. Divide and output. The above-described packet is written into the moving image file storage area of the first memory 17 by the DMAC 44_2. At this time, the CPU 45_2 sets the address of the moving picture compression unit 43_2 (internal FIFO) as the source address of the DMAC 44_2, the address of the moving picture file storage area of the first memory 17 as the destination address, and the number of data transfers. Can be done. Note that the CPU 45_2 switches the recording destination to another moving image file storage area each time a certain amount of the packet data is accumulated in the moving image file storage area. The moving image file recording process is executed in the same manner as in the first operation example under the control of the CPU 45_1. Above, description of the operation example 2 is complete | finished.

以下、図8に示す動画撮影モードの動作例2での作用効果を述べる。   Hereinafter, the operation and effect in the operation example 2 of the moving image shooting mode shown in FIG.

図8に示す動作例2では、各メモリへのアクセスが分散される点、転送先の画像処理回路でメモリの帯域が余計に消費されない点で、上述した動作例1と同様の効果を得ることができる。   The operation example 2 shown in FIG. 8 obtains the same effect as the operation example 1 described above in that access to each memory is distributed and the bandwidth of the memory is not consumed in the transfer destination image processing circuit. Can do.

また、上述した動作例2では、第2画像処理回路15側の動画圧縮部43_2が、第2メモリ18に記憶された参照フレームを用いて符号化処理を行う。そのため、動作例2でシリアルバス16を通過するデータは、カレントフレームのYCbCrデータと、符号化されたデータとなる。シリアルバス16を通過するデータのうち、符号化されたデータは圧縮されているのでデータ量は少ない。また、動作例2では参照フレームのデータがシリアルバス16を通過しないので、シリアルバス16の帯域に余裕が生じる。   In the operation example 2 described above, the moving image compression unit 43_2 on the second image processing circuit 15 side performs the encoding process using the reference frame stored in the second memory 18. Therefore, the data passing through the serial bus 16 in the operation example 2 is YCbCr data of the current frame and encoded data. Of the data passing through the serial bus 16, the encoded data is compressed, so the amount of data is small. Further, in the operation example 2, since the reference frame data does not pass through the serial bus 16, there is a margin in the bandwidth of the serial bus 16.

また、動作例2では、動画圧縮部43_2が符号化処理を行うため、画像処理回路間で演算負荷の差が小さくなる。そのため、2つの画像処理回路における消費電力の偏りを小さくすることができる。   Moreover, in the operation example 2, since the moving image compression unit 43_2 performs the encoding process, a difference in calculation load between the image processing circuits is reduced. Therefore, it is possible to reduce the bias in power consumption in the two image processing circuits.

(動画撮影モードでの動作例3)
図9(a)、(b)は、動画撮影モードにおける電子カメラの動作例3の概略図である。動作例3において、動画記録指示を受け付けるまでの動作は上述する動作例1の場合と同様である。
(Operation example 3 in movie shooting mode)
FIGS. 9A and 9B are schematic views of Operation Example 3 of the electronic camera in the moving image shooting mode. In the operation example 3, the operation until the moving image recording instruction is received is the same as that in the operation example 1 described above.

動作例3で動画記録指示を受け付けると、CPU45_1は、第2画像処理回路15を低消費電力の状態から動作状態(使用する回路ブロックの全てにクロックが供給されている状態)に移行させる。また、CPU45_1は、撮像部12に対して、動画の仕様に合った解像度とフレーム周期の組み合わせで動画像のデータを出力するように指示する。また、CPU45_1は、データ分配器13の動作を切り替えて、第1画像処理回路14および第2画像処理回路15の両方に動画像の各フレームのBayerデータを入力させる。そして、動作例3では、第1画像処理回路14がライブビュー表示の処理を負担し、第2画像処理回路15が記録用の動画像へのプリプロセス、ポストプロセス、動画像圧縮処理を負担する。   When the moving image recording instruction is received in the operation example 3, the CPU 45_1 shifts the second image processing circuit 15 from the low power consumption state to the operation state (a state where clocks are supplied to all circuit blocks to be used). In addition, the CPU 45_1 instructs the imaging unit 12 to output moving image data with a combination of resolution and frame period that matches the moving image specifications. Further, the CPU 45_1 switches the operation of the data distributor 13, and causes both the first image processing circuit 14 and the second image processing circuit 15 to input Bayer data of each frame of the moving image. In the operation example 3, the first image processing circuit 14 bears live view display processing, and the second image processing circuit 15 bears pre-processing, post-processing, and moving image compression processing for recording moving images. .

図9(a)は、動作例3での動画記録時における第1画像処理回路14による処理の概要を示している。マスタ側の画像処理部41_1は、データ分配器13から入力されたBayerデータにプリプロセス、ポストプロセスを順次施す。このとき、画像処理部41_1は、不図示の解像度変換回路によって、プリプロセスの施された動画像のデータに解像度変換を施してスルー画のYCbCrデータを生成する。CPU45_1は、スルー画のYCbCrデータを第1メモリ17のYcbCrデータ記憶領域に記録する。そして、表示部21は、CPU45_1の制御により、スルー画をライブビュー表示する。なお、ライブビュー表示の動作の詳細は上述した動作例と同様であるため、重複する部分の説明は省略する。また、図9(a)において、ライブビュー表示に関するスルー画のデータの流れは一点鎖線の矢印で示す。   FIG. 9A shows an outline of processing by the first image processing circuit 14 at the time of moving image recording in the operation example 3. The image processing unit 41_1 on the master side sequentially performs preprocessing and postprocessing on the Bayer data input from the data distributor 13. At this time, the image processing unit 41_1 generates a through image YCbCr data by performing resolution conversion on the preprocessed moving image data using a resolution conversion circuit (not shown). The CPU 45_1 records the through image YCbCr data in the YcbCr data storage area of the first memory 17. Then, the display unit 21 performs live view display of the through image under the control of the CPU 45_1. The details of the live view display operation are the same as those in the above-described operation example, and thus the description of the overlapping parts is omitted. Further, in FIG. 9A, the flow of live view data relating to live view display is indicated by an alternate long and short dash line arrow.

一方、図9(b)は、動作例3での動画記録時における第2画像処理回路15による処理の概要を示している。スレーブ側の画像処理部41_2は、データ分配器13から入力されたBayerデータにプリプロセス、ポストプロセスを順次施して、カレントフレームのYCbCrデータを生成する。CPU45_2は、カレントフレームのYCbCrデータを第2メモリ18のYcbCrデータ記憶領域に記録する。カレントフレームのYCbCrデータが生成されると、CPU45_2は動画圧縮部43_2に対して動画圧縮処理を開始する指示を行う。   On the other hand, FIG. 9B shows an outline of processing by the second image processing circuit 15 at the time of moving image recording in the operation example 3. The image processing unit 41_2 on the slave side sequentially performs pre-processing and post-processing on the Bayer data input from the data distributor 13, and generates YCbCr data for the current frame. The CPU 45_2 records the YCbCr data of the current frame in the YcbCr data storage area of the second memory 18. When the YCbCr data of the current frame is generated, the CPU 45_2 instructs the moving image compression unit 43_2 to start moving image compression processing.

上述の指示に応じて、動画圧縮部43_2はカレントマクロブロックのデータを要求する。DMAC44_2は、メモリコントローラ50_2を介して第2メモリ18のカレントフレーム(YCbCrデータ)からマクロブロックを部分的に読み出し、動画圧縮部43_2に転送する。このとき、CPU45_2は、DMAC44_2のソースアドレスとして第2メモリ18のYCbCrデータ記憶領域の先頭アドレス、デスティネーションアドレスとして動画圧縮部43_2(内部のFIFO)のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。   In response to the above instruction, the moving picture compression unit 43_2 requests data of the current macroblock. The DMAC 44_2 partially reads the macroblock from the current frame (YCbCr data) in the second memory 18 via the memory controller 50_2, and transfers the macroblock to the moving image compression unit 43_2. At this time, the CPU 45_2 sets the start address of the YCbCr data storage area of the second memory 18 as the source address of the DMAC 44_2, the address of the moving picture compression unit 43_2 (internal FIFO), and the number of data transfers as the destination address, respectively. Can be done.

一方、DMAC44_2は、別のチャネルを使って第2メモリ18に記憶されている予測用のデータ(参照フレーム記憶領域の参照フレームのデータ)を動画圧縮部43_2に転送する。そして、動画圧縮部43_2は、上述したIモード、Pモード、Bモードのいずれかで符号化を実行する。なお、上述の各モードでの動画圧縮部43_2の動作は、動作例1での動画圧縮部43_1の動作と同様であるので説明を省略する。   On the other hand, the DMAC 44_2 transfers the prediction data (reference frame data in the reference frame storage area) stored in the second memory 18 to the moving picture compression unit 43_2 using another channel. Then, the moving image compression unit 43_2 performs encoding in any of the above-described I mode, P mode, and B mode. Note that the operation of the moving image compression unit 43_2 in each of the above-described modes is the same as the operation of the moving image compression unit 43_1 in Operation Example 1, and thus description thereof is omitted.

動画圧縮部43_2は、フレーム内予測符号化(Iモード)またはフレーム間予測符号化(Pモード、Bモード)によって生成した符号化データ(動画像ファイル)を、ヘッダを含んだ標準フォーマットのパケットに分割して出力する。上述のパケットは、DMAC44_2によって、第2メモリ18の動画ファイル記憶領域に書き込まれる。このとき、CPU45_2は、DMAC44_2のソースアドレスとして、動画圧縮部43_2(内部のFIFO)のアドレス、デスティネーションアドレスとして第2メモリ18の動画ファイル記憶領域のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。なお、CPU45_2は、動画ファイル記憶領域に上述のパケットのデータが一定量蓄積されるごとに、別の動画ファイル記憶領域に記録先を切り替える。そして、CPU45_2は、CPU45_1に対してカレントフレームの符号化完了を通知する。   The moving image compression unit 43_2 converts the encoded data (moving image file) generated by intra-frame predictive encoding (I mode) or inter-frame predictive encoding (P mode, B mode) into a standard format packet including a header. Divide and output. The above-described packet is written into the moving image file storage area of the second memory 18 by the DMAC 44_2. At this time, the CPU 45_2 sets the address of the moving image compression unit 43_2 (internal FIFO) as the source address of the DMAC 44_2, the address of the moving image file storage area of the second memory 18 as the destination address, and the number of data transfers. Can be done. Note that the CPU 45_2 switches the recording destination to another moving image file storage area each time a certain amount of the packet data is accumulated in the moving image file storage area. Then, the CPU 45_2 notifies the CPU 45_1 of completion of encoding of the current frame.

CPU45_1は、上述する符号化完了の通知を受信すると、記録媒体34への動画像ファイルの記録処理を実行する。このとき、CPU45_1はDMAC44_1のソースアドレスとして第2メモリ18の動画ファイル記憶領域の先頭アドレス、デスティネーションアドレスとしてメディアコントローラ53_1(内部のFIFO)のアドレス、データ転送数として動画像ファイルのパケットのバイト数をそれぞれ設定し、データ転送を開始させる。データ転送が開始されると、上述した動画ファイル記憶領域から動画像ファイルのデータが読み出されてメディアコントローラ53_1に入り、次いで記録媒体34に送られて記録媒体34内部の記録領域に記録される。なお、図9(b)において、カレントフレーム、参照フレーム、動画像ファイルのデータの流れは、それぞれ一点鎖線の矢印で示す。   When the CPU 45_1 receives the above-described encoding completion notification, the CPU 45_1 executes a moving image file recording process on the recording medium 34. At this time, the CPU 45_1 uses the DMAC 44_1 source address as the start address of the moving image file storage area of the second memory 18, the destination address as the media controller 53_1 (internal FIFO) address, and the number of data transfer packet bytes as the number of data transfers. Is set to start data transfer. When data transfer is started, moving image file data is read from the above-described moving image file storage area, enters the media controller 53_1, and is then sent to the recording medium 34 to be recorded in the recording area inside the recording medium 34. . In FIG. 9B, the data flow of the current frame, the reference frame, and the moving image file are indicated by alternate long and short dashed arrows.

図9に示す動作例3では、各メモリへのアクセスが分散される点、転送先の画像処理回路でメモリの帯域が余計に消費されない点で、上記の動作例1と同様の効果を得ることができる。   In the operation example 3 shown in FIG. 9, the same effect as the operation example 1 described above is obtained in that the access to each memory is distributed and the memory bandwidth is not consumed in the transfer destination image processing circuit. Can do.

また、上記の動作例3では、第2画像処理回路15で生成されたカレントフレームのYCbCrデータが第2メモリ18のYCbCrデータ記憶領域に記憶される。そして、上記の動作例3では、動画圧縮部43_2が、第2メモリ18に記憶された参照フレームを用いて符号化処理を行う。すなわち、動作例3においてシリアルバス16を通過するデータは符号化されたデータのみとなるので、2つの画像処理回路を接続するシリアルバス16の帯域が比較的小さくても、動画像のデータの並列処理を容易に行うことができる。   In the third operation example, the YCbCr data of the current frame generated by the second image processing circuit 15 is stored in the YCbCr data storage area of the second memory 18. In the operation example 3 described above, the moving image compression unit 43_2 performs the encoding process using the reference frame stored in the second memory 18. In other words, since only the encoded data passes through the serial bus 16 in the operation example 3, even if the bandwidth of the serial bus 16 connecting the two image processing circuits is relatively small, the moving image data is parallelized. Processing can be performed easily.

また、上記の動作例3では、動画像の圧縮処理をすべて第2画像処理回路15で行い、電子カメラの動画撮影時の全体的な制御を第1画像処理回路14が負担する。よって、動作例3では、動画像の画像処理がシステム全体に及ぼす影響を比較的小さくできる。   Further, in the above operation example 3, all of the moving image compression processing is performed by the second image processing circuit 15, and the first image processing circuit 14 bears overall control at the time of moving image shooting by the electronic camera. Therefore, in the operation example 3, the influence of the image processing of the moving image on the entire system can be made relatively small.

(動画撮影モードでの動作例4)
図10は、動画撮影モードにおける電子カメラの動作例4の概略図である。この動作例4は、図9に示す動作例3の変形例であって、DMAC44_2が、動画圧縮部43_2から出力された符号化データを第1メモリ17の動画ファイル記憶領域に書き込む点で動作例3と相違する。なお、図10では、動画像ファイルのデータの流れを一点鎖線の矢印で示す。
(Operation example 4 in movie shooting mode)
FIG. 10 is a schematic diagram of an operation example 4 of the electronic camera in the moving image shooting mode. This operation example 4 is a modification of the operation example 3 shown in FIG. 9, in which the DMAC 44_2 writes the encoded data output from the moving image compression unit 43_2 into the moving image file storage area of the first memory 17. 3 and different. In FIG. 10, the data flow of the moving image file is indicated by a dashed line arrow.

この動作例4によれば、動画像ファイルのデータを第1メモリ17に記憶させる分、第2メモリ18から第1メモリ17にアクセスが分散する。そのため、上記の動作例3の場合と比べて、第2メモリ18へのアクセス量を緩和できる。   According to this operation example 4, access is distributed from the second memory 18 to the first memory 17 by the amount of moving image file data stored in the first memory 17. Therefore, the access amount to the second memory 18 can be reduced as compared with the case of the above operation example 3.

(動画撮影モードでの動作例5)
図11は、動画撮影モードにおける電子カメラの動作例5の概略図である。この動作例5は、動画像に音声データを対応づけて動画像ファイルを生成する例である。動作例5において、動画記録指示を受け付けるまでの動作は上述する動作例1の場合と同様である。
(Operation example 5 in movie shooting mode)
FIG. 11 is a schematic diagram of an operation example 5 of the electronic camera in the moving image shooting mode. This operation example 5 is an example in which a moving image file is generated by associating audio data with a moving image. In the operation example 5, the operation until the moving image recording instruction is received is the same as that in the operation example 1 described above.

動作例5で動画記録指示を受け付けると、CPU45_1は、第2画像処理回路15を低消費電力の状態から動作状態(使用する回路ブロックの全てにクロックが供給されている状態)に移行させる。また、CPU45_1は、撮像部12に対して、動画の仕様に合った解像度とフレーム周期の組み合わせで動画像のデータを出力するように指示する。また、CPU45_1は、データ分配器13の動作を切り替えて、第1画像処理回路14および第2画像処理回路15の両方に動画像の各フレームのBayerデータを入力させる。そして、第1画像処理回路14は、上述の動作例3と同様の処理により、表示部21でライブビュー表示を行う。また、CPU45_1は、音声信号処理部27による録音処理を開始させる。   When the moving image recording instruction is received in the operation example 5, the CPU 45_1 shifts the second image processing circuit 15 from the low power consumption state to the operation state (a state where clocks are supplied to all circuit blocks to be used). In addition, the CPU 45_1 instructs the imaging unit 12 to output moving image data with a combination of resolution and frame period that matches the moving image specifications. Further, the CPU 45_1 switches the operation of the data distributor 13, and causes both the first image processing circuit 14 and the second image processing circuit 15 to input Bayer data of each frame of the moving image. Then, the first image processing circuit 14 performs live view display on the display unit 21 by the same processing as in the above-described operation example 3. Further, the CPU 45_1 starts the recording process by the audio signal processing unit 27.

スレーブ側の画像処理部41_2は、データ分配器13から入力されたBayerデータにプリプロセス、ポストプロセスを順次施して、カレントフレームのYCbCrデータを生成する。CPU45_2は、カレントフレームのYCbCrデータを第2メモリ18のYcbCrデータ記憶領域に記録する。カレントフレームのYCbCrデータが生成されると、CPU45_2は動画圧縮部43_2に対して動画圧縮処理を開始する指示を行う。なお、動画圧縮部43_2による動画圧縮処理の動作は、上述の動作例3とほぼ同様であるので、重複する部分の説明は省略する。   The image processing unit 41_2 on the slave side sequentially performs pre-processing and post-processing on the Bayer data input from the data distributor 13, and generates YCbCr data for the current frame. The CPU 45_2 records the YCbCr data of the current frame in the YcbCr data storage area of the second memory 18. When the YCbCr data of the current frame is generated, the CPU 45_2 instructs the moving image compression unit 43_2 to start moving image compression processing. Note that the operation of the moving image compression processing by the moving image compression unit 43_2 is substantially the same as that of the above-described operation example 3, and thus description of the overlapping portions is omitted.

一方、録音処理によって音声信号処理部27から出力される音声データは、データ分配器13を介して、第2画像処理回路15に入力される。上記の音声データは、非圧縮のデータ(リニアPCM)であってもよく、不図示の音声圧縮部で圧縮されたデータであってもよい。CPU45_2は、入力された音声データを第2メモリ18の音声データ記憶領域に一時的に記憶する。図11において、音声データの流れを一点鎖線の矢印で示す。   On the other hand, the audio data output from the audio signal processing unit 27 by the recording process is input to the second image processing circuit 15 via the data distributor 13. The audio data may be uncompressed data (linear PCM) or data compressed by an audio compression unit (not shown). The CPU 45_2 temporarily stores the input audio data in the audio data storage area of the second memory 18. In FIG. 11, the flow of audio data is indicated by a dashed line arrow.

そして、CPU45_2は、動画圧縮処理によって圧縮された画像データと、上述する音声データとを多重化して1つの圧縮AVデータ(AVコードストリーム)を生成する。このとき、CPU45_2は、上述する圧縮AVデータを第1メモリ17の動画ファイル記録領域に記憶する。上述の圧縮AVデータは、DMAC44_2によって、第1メモリ17の動画ファイル記憶領域に書き込まれる。このとき、CPU45_2は、DMAC44_2のソースアドレスとして、動画圧縮部43_2(内部のFIFO)のアドレス、デスティネーションアドレスとして第1メモリ17の動画ファイル記憶領域のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。なお、CPU45_2は、動画ファイル記憶領域に上述のパケットのデータが一定量蓄積されるごとに、別の動画ファイル記憶領域に記録先を切り替える。なお、動画像ファイルの記録処理は、CPU45_1の制御によって動作例1の場合と同様に実行される。以上で、動作例5の説明を終了する。   Then, the CPU 45_2 generates one compressed AV data (AV code stream) by multiplexing the image data compressed by the moving image compression process and the audio data described above. At this time, the CPU 45_2 stores the compressed AV data described above in the moving image file recording area of the first memory 17. The compressed AV data described above is written into the moving image file storage area of the first memory 17 by the DMAC 44_2. At this time, the CPU 45_2 sets the address of the moving picture compression unit 43_2 (internal FIFO) as the source address of the DMAC 44_2, the address of the moving picture file storage area of the first memory 17 as the destination address, and the number of data transfers. Can be done. Note that the CPU 45_2 switches the recording destination to another moving image file storage area each time a certain amount of the packet data is accumulated in the moving image file storage area. The moving image file recording process is executed in the same manner as in the first operation example under the control of the CPU 45_1. Above, description of the operation example 5 is complete | finished.

この動作例5によれば、上記の動作例4と同様の効果に加えて、音声データが付与された動画像を記録媒体34に記録することができる。   According to this operation example 5, in addition to the same effect as the operation example 4 described above, a moving image to which audio data is added can be recorded on the recording medium 34.

(動画撮影モードでの動作例6)
図12は、動画撮影モードにおける電子カメラの動作例6の概略図である。この動作例6は、上記の動作例5の変形例であって、第1画像処理回路14からシリアルバス16を介して第2画像処理回路15に音声データを入力する点で動作例5と相違する。図12において、音声データの流れを一点鎖線の矢印で示す。
(Operation example 6 in movie shooting mode)
FIG. 12 is a schematic diagram of an operation example 6 of the electronic camera in the moving image shooting mode. This operation example 6 is a modification of the above operation example 5 and is different from the operation example 5 in that audio data is input from the first image processing circuit 14 to the second image processing circuit 15 via the serial bus 16. To do. In FIG. 12, the flow of audio data is indicated by a dashed-dotted arrow.

この動作例6の構成では、音声信号処理部27を第1画像処理回路14とのみ接続すればよく、第2画像処理回路15に音声データを入力する構成が不要となる。そのため、動作例6の構成によれば、電子カメラのハードウェア構成をより簡素化できる。なお、シリアルバス16のデータ通信において、音声データのビットレートは画像データのビットレートよりも著しく低いので、音声データはシリアルバス16の帯域をさほど消費しない。よって、上記の動作例6において、音声データの送信が画像処理回路間の通信に悪影響を及ぼすおそれは極めて低いと考えられる。   In the configuration of this operation example 6, the audio signal processing unit 27 only needs to be connected to the first image processing circuit 14, and the configuration for inputting audio data to the second image processing circuit 15 becomes unnecessary. Therefore, according to the configuration of the operation example 6, the hardware configuration of the electronic camera can be further simplified. Note that in the data communication of the serial bus 16, the bit rate of the audio data is significantly lower than the bit rate of the image data, so that the audio data does not consume much bandwidth of the serial bus 16. Therefore, in the above operation example 6, it is considered that the possibility that transmission of audio data adversely affects communication between image processing circuits is extremely low.

<実施形態の補足事項>
(1) 上記実施形態では、記録用の画像を撮像する撮像素子31でAFおよびAEを行ういわゆるコンパクト型電子カメラの例を説明したが、本発明の撮像装置は一眼レフレックス型の電子カメラにも当然に適用できる。
<Supplementary items of the embodiment>
(1) In the above-described embodiment, an example of a so-called compact electronic camera in which AF and AE are performed by the image sensor 31 that captures an image for recording has been described. However, the imaging apparatus of the present invention is a single-lens reflex electronic camera. Is also applicable naturally.

(2) 上記実施形態では、静止画の連写撮影時および動画撮影時に2つの画像処理回路を用いて処理を行う例を説明した。しかし、静止画の連写速度が低い場合や静止画の解像度が低い場合には、連写撮影時でも第2画像処理回路15を電源オフまたは低消費電力の状態としてもよい。同様に、動画像のフレームレートが低い場合や解像度が低い場合には、動画撮影時でも第2画像処理回路15を電源オフまたは低消費電力の状態としてもよい。   (2) In the above embodiment, an example has been described in which processing is performed using two image processing circuits at the time of continuous shooting and still image shooting of still images. However, when the continuous shooting speed of the still images is low or the resolution of the still images is low, the second image processing circuit 15 may be turned off or in a low power consumption state even during continuous shooting. Similarly, when the frame rate of the moving image is low or the resolution is low, the second image processing circuit 15 may be turned off or in a low power consumption state even during moving image shooting.

(3) 上記実施形態において、動画圧縮部43は、H.264以外の動画圧縮規格(MPEG2など)で動画像の符号化を行ってもよい。   (3) In the above embodiment, the moving image compression unit 43 is the H.264 standard. The moving image may be encoded by a moving picture compression standard (such as MPEG2) other than H.264.

(4) 動画撮影モードの動作例5,6において、電子カメラは、圧縮AVデータを第2メモリ18の動画ファイル記憶領域に一時的に記憶してもよい。   (4) In the operation examples 5 and 6 in the moving image shooting mode, the electronic camera may temporarily store the compressed AV data in the moving image file storage area of the second memory 18.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.

11…撮影光学系、12…撮像部、13…データ分配器、14…第1画像処理回路、15…第2画像処理回路、16…シリアルバス、17…第1メモリ、18…第2メモリ、19…第1フラッシュメモリ、20…第2フラッシュメモリ、21…表示部、22…外部I/Fコネクタ、23…メディアコネクタ、24…レリーズ釦、25…操作釦、27…音声信号処理部、31…撮像素子、32…AFE部、34…記録媒体、41…画像処理部、42…静止画圧縮部、43…動画圧縮部、44…DMAC、45…CPU、46…割込コントローラ、47…内蔵メモリ、48…表示コントローラ、49…GPIO部、50…メモリコントローラ、51…フラッシュメモリコントローラ、52…外部I/Fコントローラ、53…メディアコントローラ、54…音声I/F、55…内部バス、56…バスブリッジ DESCRIPTION OF SYMBOLS 11 ... Imaging optical system, 12 ... Imaging part, 13 ... Data distributor, 14 ... 1st image processing circuit, 15 ... 2nd image processing circuit, 16 ... Serial bus, 17 ... 1st memory, 18 ... 2nd memory, DESCRIPTION OF SYMBOLS 19 ... 1st flash memory, 20 ... 2nd flash memory, 21 ... Display part, 22 ... External I / F connector, 23 ... Media connector, 24 ... Release button, 25 ... Operation button, 27 ... Audio | voice signal processing part, 31 Image sensor 32 ... AFE unit 34 ... Recording medium 41 ... Image processing unit 42 ... Still image compression unit 43 ... Movie compression unit 44 ... DMAC, 45 ... CPU 46 ... Interrupt controller 47 ... Built-in Memory 48... Display controller 49. GPIO section 50. Memory controller 51. Flash memory controller 52. External I / F controller 53 53 Media controller 54 ... audio I / F, 55 ... internal bus, 56 ... Bus bridge

Claims (7)

被写体の像を撮像した画像のデータを出力する撮像部と、
前記画像のデータに画像処理を施す第1画像処理回路と、
前記第1画像処理回路に接続された第1メモリと、
前記画像のデータに画像処理を施す第2画像処理回路と、
前記第2画像処理回路に接続された第2メモリと、
前記第1画像処理回路および前記第2画像処理回路を接続するバスと、を備え、
前記第1画像処理回路および前記第2画像処理回路はそれぞれアドレス空間を有し、各々の前記アドレス空間にはいずれも前記第1メモリおよび前記第2メモリがマップされている撮像装置。
An imaging unit that outputs image data obtained by capturing an image of a subject;
A first image processing circuit for performing image processing on the image data;
A first memory connected to the first image processing circuit;
A second image processing circuit for performing image processing on the image data;
A second memory connected to the second image processing circuit;
A bus connecting the first image processing circuit and the second image processing circuit,
The first image processing circuit and the second image processing circuit each have an address space, and the first memory and the second memory are mapped to each of the address spaces.
請求項1に記載の撮像装置において、
前記第1画像処理回路は、前記第1メモリに記憶された前記画像を表示装置に表示出力する撮像装置。
The imaging device according to claim 1,
The first image processing circuit is an imaging device that displays and outputs the image stored in the first memory on a display device.
請求項1または請求項2に記載の撮像装置において、
前記撮像部は、動画像のデータを出力し、
前記第1画像処理回路は、前記動画像のデータを圧縮して得た動画像ファイルを不揮発性記録媒体に記録する記録処理を実行し、
前記第2メモリは、前記圧縮のときにフレーム間予測符号化で用いる参照フレームを記憶し、前記第2メモリから前記参照フレームの読み出しを実行する撮像装置。
In the imaging device according to claim 1 or 2,
The imaging unit outputs moving image data,
The first image processing circuit executes a recording process for recording a moving image file obtained by compressing the moving image data on a nonvolatile recording medium;
The imaging device, wherein the second memory stores a reference frame used in inter-frame predictive encoding at the time of the compression, and reads out the reference frame from the second memory.
請求項3に記載の撮像装置において、
前記第2画像処理回路は、前記圧縮における動画像の符号化処理を実行する撮像装置。
The imaging device according to claim 3.
The second image processing circuit is an imaging apparatus that executes a moving image encoding process in the compression.
請求項3または請求項4に記載の撮像装置において、
前記圧縮の対象となるカレントフレームは、前記第2メモリに記憶される撮像装置。
In the imaging device according to claim 3 or 4,
An imaging device in which the current frame to be compressed is stored in the second memory.
請求項3または請求項4に記載の撮像装置において、
前記圧縮の対象となるカレントフレームは、前記第1メモリに記憶される撮像装置。
In the imaging device according to claim 3 or 4,
An imaging apparatus in which a current frame to be compressed is stored in the first memory.
請求項3から請求項6のいずれか1項に記載の撮像装置において、
前記動画像の撮像時に音声データを取得する音声信号処理部をさらに備え、
前記第2画像処理回路は、前記動画像に前記音声データを対応付ける撮像装置。
The imaging apparatus according to any one of claims 3 to 6,
An audio signal processing unit that acquires audio data when the moving image is captured;
The second image processing circuit is an imaging device that associates the audio data with the moving image.
JP2012081023A 2012-03-30 2012-03-30 Imaging device Pending JP2013211715A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012081023A JP2013211715A (en) 2012-03-30 2012-03-30 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012081023A JP2013211715A (en) 2012-03-30 2012-03-30 Imaging device

Publications (1)

Publication Number Publication Date
JP2013211715A true JP2013211715A (en) 2013-10-10

Family

ID=49529194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012081023A Pending JP2013211715A (en) 2012-03-30 2012-03-30 Imaging device

Country Status (1)

Country Link
JP (1) JP2013211715A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014049838A (en) * 2012-08-30 2014-03-17 Xacti Corp Electronic camera
WO2021070894A1 (en) * 2019-10-11 2021-04-15 ソニーセミコンダクタソリューションズ株式会社 Imaging device, electronic apparatus, and imaging method
CN112672004A (en) * 2019-10-16 2021-04-16 现代自动车株式会社 Vehicle and method of controlling vehicle
US11412138B2 (en) 2019-08-22 2022-08-09 Canon Kabushiki Kaisha Imaging apparatus and controlling method
CN112672004B (en) * 2019-10-16 2024-04-23 现代自动车株式会社 Vehicle and method of controlling vehicle

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014049838A (en) * 2012-08-30 2014-03-17 Xacti Corp Electronic camera
US11412138B2 (en) 2019-08-22 2022-08-09 Canon Kabushiki Kaisha Imaging apparatus and controlling method
WO2021070894A1 (en) * 2019-10-11 2021-04-15 ソニーセミコンダクタソリューションズ株式会社 Imaging device, electronic apparatus, and imaging method
US11962916B2 (en) 2019-10-11 2024-04-16 Sony Semiconductor Solutions Corporation Imaging device with two signal processing circuitry partly having a same type of signal processing, electronic apparatus including imaging device, and imaging method
CN112672004A (en) * 2019-10-16 2021-04-16 现代自动车株式会社 Vehicle and method of controlling vehicle
CN112672004B (en) * 2019-10-16 2024-04-23 现代自动车株式会社 Vehicle and method of controlling vehicle

Similar Documents

Publication Publication Date Title
US20200118598A1 (en) Digital image processing apparatus and method of controlling the same
US6963374B2 (en) Method for live view display and digital camera using same
JP5056370B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGING DEVICE CONTROL PROGRAM, DATA PROCESSING DEVICE, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM
US9473701B2 (en) Electronic camera
US20100225784A1 (en) Camera
US9609167B2 (en) Imaging device capable of temporarily storing a plurality of image data, and control method for an imaging device
US8054341B2 (en) Photographing apparatus for supporting overriding mode and method of controlling same
US7365777B2 (en) Digital camera
JP2001169167A (en) Electronic camera
JP6493454B2 (en) Electronic camera
US9363440B2 (en) Imaging device and imaging method that sets a phase difference between first and second synchronization signals
US20110193988A1 (en) Semiconductor device and semiconductor integrated circuit
JP2013211724A (en) Imaging apparatus
JP2009232003A (en) Imaging apparatus and control method of imaging apparatus, and signal processor and signal processing method
JP2013175824A (en) Electronic camera
JP2013211715A (en) Imaging device
JP4328906B2 (en) Bus control method and apparatus, and digital camera
JP2005006061A (en) Image processor
KR20100061311A (en) Photographing apparatus and controlling method thereof
JP2008301475A (en) Imaging apparatus and control method therefor
JP2004274285A (en) Electronic camera
JP4284458B2 (en) Digital camera
JP5906846B2 (en) Electronic camera
US8687075B2 (en) Imaging apparatus and information display method for imaging apparatus
JP2011211568A (en) Moving picture-recording device and control method thereof