JP2013211715A - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP2013211715A JP2013211715A JP2012081023A JP2012081023A JP2013211715A JP 2013211715 A JP2013211715 A JP 2013211715A JP 2012081023 A JP2012081023 A JP 2012081023A JP 2012081023 A JP2012081023 A JP 2012081023A JP 2013211715 A JP2013211715 A JP 2013211715A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- image processing
- processing circuit
- memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、撮像装置に関する。 The present invention relates to an imaging apparatus.
近年、デジタルカメラ等の撮像装置では、イメージセンサの高画素化に伴い、画像処理回路の処理能力が不足する傾向にある。そのため、複数の画像処理回路を用いて並列処理により高速な画像処理を実現する撮像装置も提案されている(例えば特許文献1参照)。 In recent years, in an imaging apparatus such as a digital camera, the processing capability of an image processing circuit tends to be insufficient as the number of pixels of an image sensor increases. For this reason, an imaging apparatus that realizes high-speed image processing by parallel processing using a plurality of image processing circuits has been proposed (see, for example, Patent Document 1).
従来の撮像装置では、複数の画像処理回路に跨って画像データの処理を行う場合、画像処理回路間で画像データを受け渡すたびにメモリへの画像データの書き込みが発生する。 In the conventional imaging apparatus, when image data is processed across a plurality of image processing circuits, the image data is written to the memory every time the image data is transferred between the image processing circuits.
また、従来の撮像装置では、複数の画像処理回路に跨って画像データの処理を行う場合、転送元の画像処理回路のメモリに記録されている処理対象の画像データを、転送先の画像処理回路のメモリにコピー(または移動)させてから処理を実行していた。そのため、従来の撮像装置では、処理を開始するまでの時間が長くなってしまう(Latencyが大きくなる)。 Further, in the conventional imaging apparatus, when processing image data across a plurality of image processing circuits, the processing target image data recorded in the memory of the transfer source image processing circuit is transferred to the transfer destination image processing circuit. The process was executed after copying (or moving) to the memory. Therefore, in the conventional imaging device, the time until the process is started becomes long (latency becomes large).
一の態様の撮像装置は、被写体の像を撮像した画像のデータを出力する撮像部と、それぞれ画像のデータに画像処理を施す第1画像処理回路および第2画像処理回路と、第1画像処理回路に接続された第1メモリと、第2画像処理回路に接続された第2メモリと、第1画像処理回路および第2画像処理回路を接続するバスと、を備える。第1画像処理回路および第2画像処理回路はそれぞれアドレス空間を有し、各々のアドレス空間にはいずれも第1メモリおよび第2メモリがマップされている。 An imaging apparatus according to one aspect includes an imaging unit that outputs image data obtained by capturing an image of a subject, a first image processing circuit and a second image processing circuit that perform image processing on each image data, and first image processing A first memory connected to the circuit; a second memory connected to the second image processing circuit; and a bus connecting the first image processing circuit and the second image processing circuit. Each of the first image processing circuit and the second image processing circuit has an address space, and the first memory and the second memory are mapped to each address space.
上記の一の態様において、第1画像処理回路は、第1メモリに記憶された画像を表示装置に表示出力してもよい。 In the one aspect, the first image processing circuit may display and output the image stored in the first memory on the display device.
上記の一の態様において、撮像部は、動画像のデータを出力してもよい。また、第1画像処理回路は、動画像のデータを圧縮して得た動画像ファイルを不揮発性記録媒体に記録する記録処理を実行してもよい。また、第2メモリは、圧縮のときにフレーム間予測符号化で用いる参照フレームを記憶し、第2メモリから参照フレームの読み出しを実行してもよい。また、上記の第2画像処理回路は、圧縮における動画像の符号化処理を実行してもよい。 In the one aspect described above, the imaging unit may output moving image data. The first image processing circuit may execute a recording process for recording a moving image file obtained by compressing moving image data on a nonvolatile recording medium. In addition, the second memory may store a reference frame used for inter-frame predictive coding at the time of compression, and read the reference frame from the second memory. Further, the second image processing circuit may execute a moving image encoding process in compression.
また、圧縮の対象となるカレントフレームは、第2メモリに記憶されていてもよい。あるいは、圧縮の対象となるカレントフレームは、第1メモリに記憶されていてもよい。 In addition, the current frame to be compressed may be stored in the second memory. Alternatively, the current frame to be compressed may be stored in the first memory.
また、撮像装置は、動画像の撮像時に音声データを取得する音声信号処理部をさらに備えていてもよい。そして、第2画像処理回路は、動画像に音声データを対応付けてもよい。 The imaging apparatus may further include an audio signal processing unit that acquires audio data when capturing a moving image. The second image processing circuit may associate the audio data with the moving image.
各々の画像処理回路は、別の画像処理回路と接続されたメモリ上の画像のデータに直接アクセスすることができ、複数の画像処理回路に跨った処理を効率的に実行することができる。 Each image processing circuit can directly access image data on a memory connected to another image processing circuit, and can efficiently execute processing across a plurality of image processing circuits.
<撮像装置の構成例の説明>
図1は、一の実施形態での撮像装置の構成例を示す図である。本実施形態では撮像装置の一例として、静止画撮影モードおよび動画撮影モードを選択可能な電子カメラの例を説明する。
<Description of Configuration Example of Imaging Device>
FIG. 1 is a diagram illustrating a configuration example of an imaging apparatus according to an embodiment. In this embodiment, an example of an electronic camera capable of selecting a still image shooting mode and a moving image shooting mode will be described as an example of an imaging apparatus.
電子カメラは、撮影光学系11と、撮像部12と、データ分配器13と、第1画像処理回路14および第2画像処理回路15と、シリアルバス16と、第1メモリ17および第2メモリ18と、第1フラッシュメモリ19および第2フラッシュメモリ20と、表示部21と、外部I/Fコネクタ22と、メディアコネクタ23と、レリーズ釦24および操作釦25と、音声信号処理部27とを有している。なお、撮像部12と音声信号処理部27は、データ分配器13に接続されている。
The electronic camera includes a photographing
撮影光学系11は、例えばズームレンズやフォーカスレンズを含む複数のレンズで構成されている。簡単のため、図1では撮影光学系11を1枚のレンズで図示する。
The photographing
撮像部12は、撮像素子31と、アナログフロントエンド(AFE)部32と、不図示のタイミングジェネレータ(TG)部とを有している。撮像素子31は、撮影光学系11を通過した光束による被写体の像を撮像するデバイスである。この撮像素子31の画像信号出力はAFE部32に接続されている。本実施形態の撮像素子31は、順次走査方式(またはインターレース方式)で画像信号を読み出す固体撮像素子(例えばCCD)であってもよく、XYアドレス方式で画像信号を読み出す固体撮像素子(例えばCMOS)であってもよい。
The
また、撮像素子31の受光面には、複数の受光素子がマトリクス状に配列されている。そして、撮像素子31の各受光素子にはカラーフィルタが配置されている。例えば、本実施形態では赤色(R)、緑色(G)、青色(B)のカラーフィルタが公知のBayer配列にしたがって各受光素子に配置される。そのため、撮像素子31の受光素子は、カラーフィルタでの色分解によって各色に対応する画像信号を出力する。これにより、撮像素子31は、撮影時にカラーの画像を取得できる。
A plurality of light receiving elements are arranged in a matrix on the light receiving surface of the
ここで、撮像素子31の基本動作は、各画素に電荷を蓄積する電荷蓄積動作と、蓄積した電荷を画素から移動させる電荷読み出し動作の2つに大別される。また、各画素に蓄積される電荷には、意図せぬ受光や暗電流により生成された不要電荷(ノイズ)と、被写体像の光束から生成された信号電荷との2種類がある。信号電荷に不要電荷を混入させないためには、撮像素子31による撮像時において、不要電荷を排出した後に被写体像の光束を受光する状態で撮像素子31を電荷蓄積動作に移行させればよい。これにより、各画素に信号電荷のみを蓄積していくことができる。このため、撮像素子31の撮像は、「不要電荷の排出→信号電荷の蓄積(露光動作とも称する)→信号電荷の読み出し(画像信号の出力)」というシーケンスで行われる。このうち、信号電荷の蓄積期間がいわゆる露光時間(シャッター秒時)となる。また、上述した撮像素子31の撮像は、不図示のTG部からの制御によって行われる。
Here, the basic operation of the
また、撮像部12全体としての撮像動作には、撮像素子31が露光動作と信号電荷の読み出し動作の2つを単発で行う第1モード(one-shotモードとも称する)と、撮像素子31が上述した2つの動作を所定の時間周期(フレーム周期)で自動的に繰り返し行う第2モード(連続モードとも称する)とがある。この第1モードと第2モードの切り替えは、一般に不図示のSIO(シリアルI/O)を介してTG部のレジスタを書き換えることにより行われる。
In the imaging operation of the
上述の第1モードは、電子カメラで静止画の撮影を行う場合に利用される。第1モードの場合、露光動作と信号電荷の読み出し動作が一般に外部からTG部をそれぞれ操作することによって行われるため、それらの操作を行うタイミングによって露光時間を含む撮像動作のタイミングが決定される。このことは、静止画の撮影がユーザの操作によって非同期に起こることに対応している。なお、TG部に対する操作としては、上述したシリアル通信の他、後述するGPIO部49を利用した外部信号による操作も含まれる。また、第1モードで出力される画像信号は、一般に撮像素子31のフル解像度のものである。電子カメラによる静止画の撮影では、この画像信号から生成した画像を記録している。
The first mode described above is used when taking a still image with an electronic camera. In the first mode, since the exposure operation and the signal charge reading operation are generally performed by operating the TG unit from outside, the timing of the imaging operation including the exposure time is determined by the timing of performing these operations. This corresponds to the fact that shooting of a still image occurs asynchronously by a user operation. The operation on the TG unit includes an operation using an external signal using a GPIO unit 49 described later in addition to the serial communication described above. In addition, the image signal output in the first mode is generally of the full resolution of the
一方、上述の第2モードでは、予めTG部のレジスタに設定されたパラメータによって撮像素子31の撮像が行われる。第2モードでは、露光時間を含めた露光のタイミングや画像信号の出力タイミングもその設定に応じて固定され、また露光時間は上述したフレーム周期以下に限定されるという制約がある。その代わりに、第2モードでは、一定の周期で連続かつ自動的に画像信号が出力されるため、電子カメラの動画撮影や静止画撮影前のライブビュー(LiveView)に適している。第2モードの場合、出力される画像信号の解像度とフレーム周期の組み合わせが一般に複数あって、かかる組み合わせの変更はTG部のレジスタを書き換えることで行われる。
On the other hand, in the above-described second mode, the
第2モードでの画像信号の解像度は、利用目的に応じて選択される。例えば、VGA(640×480画素)サイズのLCDパネルでライブビューを行う場合、VGAサイズよりも若干大きい解像度の画像信号が撮像部12から出力されるように設定する。この場合、必要以上に大きな画像信号を撮像部12から出力させないことで、電子カメラのライブビュー時の消費電力を抑制できる。一方、フルHD(1920×1080画素)サイズの動画を撮影する場合、フルHDサイズより若干大きい解像度の画像信号が撮像部12から出力されるように設定する。
The resolution of the image signal in the second mode is selected according to the purpose of use. For example, when live view is performed on a VGA (640 × 480 pixels) size LCD panel, an image signal having a resolution slightly larger than the VGA size is set to be output from the
また、第2モードでのフレーム周期も、利用目的に応じて選択される。例えば、60fpsの動画を撮影する場合、60fpsで撮像部12から画像信号が出力されるように設定する。30fpsの動画を撮影する場合、30fpsで撮像部12から画像信号が出力されるように設定する。例えば、AFによるピント合わせを高速に行おうとする場合、30fpsよりも60fpsで画像信号を出力する方が有利である。
The frame period in the second mode is also selected according to the purpose of use. For example, when shooting a moving image of 60 fps, the image signal is set to be output from the
電子カメラの静止画撮影モードでは、電子カメラの動作が「ライブビュー→静止画撮影→ライブビュー」と変化する。これに対応して、撮像部12の撮像動作を「第2モード→第1モード→第2モード」のように切り替える必要がある。単写撮影の場合、撮像部12の撮像動作は、第1モードの撮像動作が1フレーム分だけ行われた後に、第2モードの撮像動作に戻る。連写撮影の場合、撮像部12の撮像動作は、第1モードの撮像動作が連写のフレーム数だけ続けて行われた後に、第2モードの撮像動作に戻る。
In the still image shooting mode of the electronic camera, the operation of the electronic camera changes from “live view → still image shooting → live view”. Correspondingly, it is necessary to switch the imaging operation of the
一方、電子カメラの動画撮影モードでは、上述したような撮像部12の撮像動作の切り替えはなく、撮像部12はその動画の仕様に合った解像度とフレーム周期の組み合わせで第2モードの撮像動作を継続する。
On the other hand, in the moving image shooting mode of the electronic camera, there is no switching of the image capturing operation of the
図1に戻って、AFE部32は、撮像素子31から出力される画像信号にアナログ信号処理を施す回路である。このAFE部32は、相関二重サンプリングや、画像信号のゲインの調整や、画像信号のA/D変換を行う。AFE部32による信号処理後のデジタル画像データは、データ分配器13を介して第1画像処理回路14または第2画像処理回路15に送られる。なお、AFE部32から出力される画像データは、色補間前のBayer配列構造のRGB画像データ(以下、Bayerデータと称する)である。また、撮像素子31がCMOSであるときには、撮像素子31にAFE部32やTG部(不図示)が内蔵されていてもよい。
Returning to FIG. 1, the
データ分配器13は、1入力2出力のセレクタであって、その2つの出力は第1画像処理回路14と第2画像処理回路15にそれぞれ接続されている。データ分配器13は、AFE部32から出力される画像データを第1画像処理回路14と第2画像処理回路15に出力する。また、データ分配器13は、音声信号処理部27から出力される音声データを第1画像処理回路14と第2画像処理回路15に出力する。
The
第1画像処理回路14および第2画像処理回路15は、画像データに所定の画像処理を施すための画像処理用プロセッサであり、それぞれ1つのLSIで構成されることが多い。図2に示すように、本実施形態の第1画像処理回路14と第2画像処理回路15は同じ回路構成であって、データ分配器13に対して並列に接続されている。
The first
また、第1画像処理回路14と第2画像処理回路15は、外部のシリアルバス16によって相互に接続されている。第1画像処理回路14には、第1メモリ17、第1フラッシュメモリ19、表示部21、外部I/Fコネクタ22、メディアコネクタ23、レリーズ釦24および操作釦25がそれぞれ接続されている。第2画像処理回路15には、第2メモリ18、第2フラッシュメモリ20がそれぞれ接続されている。なお、本実施形態のシリアルバス16は、第1画像処理回路14から第2画像処理回路15へデータを送信するバスと、第2画像処理回路15から第1画像処理回路14へデータを送信するバスとの2つからなる双方向性のバスである。
The first
第1画像処理回路14はマスタの画像処理回路として動作し、撮影モードにおいて常時動作状態にある。一方、第2画像処理回路15はスレーブの画像処理回路として動作する。電子カメラの画像処理の負荷が比較的低いとき(例えば、静止画撮影モードで単写撮影を行う場合や、再生モードの場合)には、第2画像処理回路15は電源オフの状態または低消費電力の状態となって動作を停止している。そして、電子カメラの画像処理の負荷が比較的高いとき(例えば、静止画撮影モードで連写を行う場合や動画撮影モードの場合)には、第2画像処理回路15が動作状態となって、第1画像処理回路14と第2画像処理回路15によって並列に撮影の処理が行われる。なお、第2画像処理回路15のオン/オフの制御は、第1画像処理回路14によって行われる。
The first
第1メモリ17および第2メモリ18は、大容量の揮発性メモリであって、通常はDRAMが使用される。これらのメモリは画像データ(一般に複数フレーム)を一時的に記憶する他、プログラム中で使用される変数を記憶したり、プログラムを実行する際のスタックとして使用される。第1フラッシュメモリ19および第2フラッシュメモリ20は、不揮発性のメモリであって、後述するリアルタイムオペレーティングシステム(RTOS)のカーネル、デバイスドライバ、ミドルウェア、アプリケーションなどのプログラム類、更には、ユーザによるカメラの設定情報等を記憶するために使用される。
The
表示部21は、液晶パネルや有機ELパネル等の表示装置であって、例えば電子カメラの筐体背面に配置される。外部I/Fコネクタ22は、所定の通信規格のインターフェース(例えばUSB)を備えた外部機器(パーソナルコンピュータなど)を接続するために使用される。また、メディアコネクタ23は、不揮発性の記録媒体34を接続するために使用される。なお、メディアコネクタ23に接続される記録媒体34は、例えば、ハードディスクや、半導体メモリを内蔵したメモリカードである。
The
レリーズ釦24は、静止画撮影モードと動画撮影モードで使用される釦であり、自動焦点調節(Automatic Focusing:AF)などの撮影準備動作の開始を指示するための半押し信号と、撮影の開始を指示するための全押し信号の2つを発生する。また、操作釦25は、ユーザによって操作される様々な釦をまとめて表したもので、例えば、撮影モードの切り替えを行うための釦などが含まれる。
The
音声信号処理部27は、電子カメラの外部音声を集音するマイクと、マイクで収集した音声信号を増幅するアンプと、音声信号のレベルを一定に保つオートレベル制御部と、A/D変換器と、デジタル化された音声データを出力するシリアルデータ出力部とを有している。
The audio
続いて、図2を参照しつつ、第1画像処理回路14と第2画像処理回路15の構成例を詳述する。なお、以下の説明では、第1画像処理回路14の符号nの要素を指すときは「n_1」と表記し、第2画像処理回路15の符号nの要素を指すときは「n_2」と表記する。
Next, a configuration example of the first
まず、第1画像処理回路14の構成を説明する。第1画像処理回路14は、画像処理部41_1と、静止画圧縮部42_1と、動画圧縮部43_1と、DMAC(Direct Memory Access Controller)44_1と、CPU45_1と、割込コントローラ46_1と、内蔵メモリ47_1と、表示コントローラ48_1と、GPIO(General Purpose Input/Output)部49_1と、メモリコントローラ50_1と、フラッシュメモリコントローラ51_1と、外部I/Fコントローラ52_1と、メディアコントローラ53_1と、音声I/F54_1と、内部バス55_1と、バスブリッジ56_1とを有している。第1画像処理回路14の各部は、内部バス55_1に接続されている。なお、内部バス55_1は、通常パラレルバスであり、例えば公知のオンチップバス(AMBA AXIやOCP(Open Core Protocol)等)でよい。
First, the configuration of the first
画像処理部41_1は、独立した回路であるプリプロセス部とポストプロセス部(いずれも不図示)を内部に有しており、入力される画像データに画像処理(プリプロセス、ポストプロセス)を施す。ここで、プリプロセスとは、画像の補正を主体とする処理であって、入力される画像データに対して、欠陥画素補正、シェーディング補正、OBクランプ処理などの信号処理を施す。また、画像処理部41_1は、プリプロセスを実行する傍ら、その補正された画像データを用いて、オートホワイトバランス(AWB)評価値、AF評価値、自動露出(Auto Exposure:AE)評価値をそれぞれ生成する。 The image processing unit 41_1 includes a pre-processing unit and a post-processing unit (both not shown) that are independent circuits, and performs image processing (pre-processing and post-processing) on input image data. Here, the preprocess is a process that mainly performs image correction, and performs signal processing such as defective pixel correction, shading correction, and OB clamp processing on input image data. In addition to executing the preprocess, the image processing unit 41_1 uses the corrected image data to calculate an auto white balance (AWB) evaluation value, an AF evaluation value, and an automatic exposure (Auto Exposure: AE) evaluation value, respectively. Generate.
また、ポストプロセスでは、プリプロセス後の画像データに対して、カラー処理を主体とする現像処理(例えば、色補間処理、階調変換処理、ホワイトバランス調整処理、ノイズ除去処理、輪郭強調処理、色変換処理等)を施す。上述した画像処理部41_1での画像処理によって、RGBのBayerデータが、所望の色再現がなされたYCbCr形式の画像データ(以下、YCbCrデータと称する)に変換される。画像データに対して圧縮処理を施したり、また画像データを表示部21に表示したりする場合は、このYCbCrデータが用いられる。
In post-processing, image processing after pre-processing is performed mainly on color processing (for example, color interpolation processing, gradation conversion processing, white balance adjustment processing, noise removal processing, contour enhancement processing, color Conversion processing). The RGB Bayer data is converted into YCbCr format image data (hereinafter referred to as YCbCr data) in which desired color reproduction is performed by the image processing in the image processing unit 41_1 described above. The YCbCr data is used when the image data is subjected to compression processing or when the image data is displayed on the
ここで、静止画の撮影時において、画像処理部41_1は、撮影された静止画のデータから、主画像、フリーズ画およびサムネイルをそれぞれ生成する。これらはいずれもYCbCrデータの画像である。主画像は主たるデータとして記録される画像(通常は高解像度)のことである。フリーズ画は、撮影結果の確認のために撮影直後に表示部21に表示される画像である。サムネイルは、画像の検索性を高めるために主画像とともに画像ファイルに記録される縮小画像である。なお、スルー画およびフリーズ画は、例えば640×480画素のサイズであり、サムネイルは、例えば160×120画素のサイズである。画像処理部41_1は、内部にある不図示の解像度変換回路を利用してこれらの小解像度画像を生成する。
Here, at the time of shooting a still image, the image processing unit 41_1 generates a main image, a freeze image, and a thumbnail from the captured still image data. These are all images of YCbCr data. The main image is an image (usually high resolution) recorded as main data. The freeze image is an image displayed on the
静止画圧縮部42_1は、静止画撮影モードにおいて、撮影された静止画のYCbCrデータに対して例えばJPEG形式の圧縮処理を施す。 In the still image shooting mode, the still image compression unit 42_1 performs, for example, JPEG compression processing on the YCbCr data of the captured still image.
動画圧縮部43_1は、動画撮影モードにおいて、記録用の動画像のYCbCrデータに対して、フレーム間予測を用いた圧縮処理を施す。例えば、動画圧縮部43_1は、H.264(MPEG−4 AVC(Part10))の動画圧縮規格を用いて動画像の圧縮処理を行う(なお、H.264での動画像の符号化については後述する)。 The moving image compression unit 43_1 performs compression processing using inter-frame prediction on YCbCr data of a moving image for recording in the moving image shooting mode. For example, the moving image compressing unit 43_1 may be H.264. H.264 (MPEG-4 AVC (Part 10)) moving image compression processing is performed (the encoding of moving images in H.264 will be described later).
DMAC44_1は、ハードウェア的にデータ転送を行う回路であり、CPU45_1のプログラムによってデータを転送する場合と比べて高速なデータ転送を実現する。DMAC44_1は、単位転送データ量ごとに、ソースアドレスおよびデスティネーションアドレスをシフトさせながらデータの転送を行う。なお、DMAC44_1は、上述した画像処理部41_1や静止画圧縮部42_1や動画圧縮部43_1、あるいは後述するいくつかの回路ブロックに内蔵されていてもよい。 The DMAC 44_1 is a circuit that performs data transfer in hardware, and realizes high-speed data transfer compared to the case where data is transferred by the program of the CPU 45_1. The DMAC 44_1 transfers data while shifting the source address and the destination address for each unit transfer data amount. Note that the DMAC 44_1 may be incorporated in the above-described image processing unit 41_1, still image compression unit 42_1, moving image compression unit 43_1, or some circuit blocks described later.
CPU45_1は、電子カメラの機能を実現するためのアプリケーションプログラムを実行し、また実行したアプリケーションプログラムに基づいて電子カメラ内各部の動作を制御する。例えば、CPU45_1は、AF評価値を用いて公知のコントラスト検出方式によるAFや、AE評価値を用いたAEを行う。また、CPU45_1は、表示部21への画像の表示処理や、記録媒体34への画像ファイルの記録処理などを実行する。AFやAEといったこれらの処理は、CPU45_1が実行する上述のアプリケーションプログラムとして実装される。アプリケーションプログラムは、それぞれの処理に対応したタスクと呼ばれる処理単位に分割可能であり、タスクは、RTOS(カーネル)の管理の下で複数並列に実行させることが可能である。複数のタスクの実行順序はその優先順位に依存しており、RTOSは実行可能状態にある複数のタスクの中で最も優先順位の高いタスクを実行させる。一例として、タスクAの実行中にそれよりも優先順位の高いタスクBが実行可能状態になった場合、実行中のタスクAが中断されてタスクBが実行される。その後、タスクBの処理が終了するか待ち状態になると、RTOSは一時中断していたタスクAの処理を再開させる。
The CPU 45_1 executes an application program for realizing the function of the electronic camera, and controls the operation of each part in the electronic camera based on the executed application program. For example, the CPU 45_1 performs AF using a known contrast detection method using the AF evaluation value and AE using the AE evaluation value. Further, the CPU 45_1 executes an image display process on the
割込コントローラ46_1は、各部からの割り込み処理要求を受信して、その優先度に応じてCPU45_1に割り込み信号を伝達するという交通整理の役割を果たす。割込コントローラ46_1の働きによって、CPU45_1は1つの割り込み入力端子で複数の割り込み要因に対応することができる。 The interrupt controller 46_1 receives an interrupt processing request from each unit, and plays a role of traffic control to transmit an interrupt signal to the CPU 45_1 according to the priority. By the operation of the interrupt controller 46_1, the CPU 45_1 can cope with a plurality of interrupt factors with one interrupt input terminal.
内蔵メモリ47_1は、CPU45_1がプログラムを実行するときにデータを格納するための高速メモリであって、例えばSRAMが使用される。内蔵メモリ47_1は主記憶である第1メモリ17よりも高速にアクセスすることができる。なお、CPU45_1は、アプリケーションプログラムの一部を内蔵メモリ47_1に常駐させ、それらの処理を高速に行ってもよい。
The built-in memory 47_1 is a high-speed memory for storing data when the CPU 45_1 executes a program. For example, an SRAM is used. The built-in memory 47_1 can be accessed at a higher speed than the
表示コントローラ48_1には、表示部21が接続されている。表示コントローラ48_1は、上述したスルー画やフリーズ画のデータを取り込んで、それを表示部21に表示する。
The
GPIO部49_1は、例えば、操作釦25やレリーズ釦24からの信号を入力するとともに、電子カメラ内の周辺デバイスへそれら入力信号に対する制御信号などを出力する。ここで、上記の周辺デバイスとは、例えば、撮影光学系11内のレンズやメカシャッタ、絞りを駆動するためのモータドライバICや、フラッシュ装置に含まれる充電ICおよび発光制御用IGBTや、電子カメラの状態を表示するためのLEDなどである(なお、周辺デバイスの図示はいずれも省略する)。
For example, the GPIO unit 49_1 inputs signals from the
メモリコントローラ50_1には、第1メモリ17が接続されている。メモリコントローラ50_1は、第1メモリ17に対してデータの読み出しや書き込みを行う。
The
フラッシュメモリコントローラ51_1には、第1フラッシュメモリ19が接続されている。フラッシュメモリコントローラ51_1は、第1フラッシュメモリ19に対してデータの読み出しや書き込みを行う。
The
外部I/Fコントローラ52_1には、外部I/Fコネクタ22が接続されている。外部I/Fコントローラ52_1は、外部I/Fコネクタ22に接続された外部機器(パーソナルコンピュータなど)とのデータ通信を、所定の通信規格のインターフェース(例えばUSB)を用いて行う。
The external I /
メディアコントローラ53_1には、メディアコネクタ23が接続されている。メディアコントローラ53_1は、メディアコネクタ23に接続された記録媒体34に対してデータの読み出しや書き込みを行う。
The
音声I/F54_1は、データ分配器13から送られた音声データを受信する。なお、音声I/F54_1には、例えばI2Sなどの標準インターフェースが用いられる。
The audio I / F 54_1 receives the audio data sent from the
バスブリッジ56_1は、内部バス55_1とシリアルバス16と接続されている。バスブリッジ56_1は、内部バス−外部シリアルバス間のプロトコル変換を行う。これにより、第1画像処理回路14の内部バス55_1からのアクセス(READ/WRITE)要求は、パケット(コマンド、アドレス、WRITEデータ)としてシリアルバス16に伝達される。逆に、シリアルバス16から送られたパケット(レスポンス、READデータ)が第1画像処理回路14の内部バス55_1に伝達される。したがって、第1画像処理回路14のCPU45_1は、バスブリッジ56_1の働きによって、第1画像処理回路14と第2画像処理回路15の各資源に対して全く同一のプロトコルでアクセスすることができる。第1画像処理回路14の資源に対するアクセスと第2画像処理回路15の資源に対するアクセスとではアクセスに必要な時間が異なり、第2画像処理回路15の資源に対するアクセスの方がより時間がかかる。また、第1画像処理回路14のDMAC44_1からのアクセスも上述した説明と同様である。なお、第2画像処理回路15のCPU45_2とDMAC44_2から上述した各資源に対するアクセスも同様であり、この場合には第1画像処理回路14の資源に対するアクセスの方がより時間がかかることになる。
The bus bridge 56_1 is connected to the internal bus 55_1 and the
次に、第2画像処理回路15の構成を説明する。第2画像処理回路15については第1画像処理回路14との相違点のみ説明し、重複する部分の説明はいずれも省略する。本実施形態の第2画像処理回路15では、メモリコントローラ50_2に第2メモリ18が接続され、フラッシュメモリコントローラ51_2に第2フラッシュメモリ20が接続される。また、表示コントローラ48_2、GIPO部49_2、外部I/Fコントローラ52_2、メディアコントローラ53_2は、接続される外部デバイスが無いために、いずれも低消費電力のまま動作しないように設定されている。
Next, the configuration of the second
ここで、第1画像処理回路14のアドレス空間には、第1画像処理回路14の資源と第2画像処理回路15の資源とがそれぞれマップされている。同様に、第2画像処理回路15のアドレス空間には、第1画像処理回路14の資源と第2画像処理回路15の資源とがそれぞれマップされている。これらの資源には、それぞれの画像処理回路の内部資源の他に、外部に接続された第1メモリ17および第2メモリ18の資源や、第1フラッシュメモリ19および第2フラッシュメモリ20の資源も含まれる。
Here, the resource of the first
図3は、第1画像処理回路14と第2画像処理回路15のメモリマップの一例を模式的に示している。第1画像処理回路14の資源としては、第1メモリ17、第1フラッシュメモリ19、内蔵メモリ47_1、Peripheral_1などがある。また、第2画像処理回路15の資源としては、第2メモリ18、第2フラッシュメモリ20、内蔵メモリ47_2、Peripheral_2などがある。なお、上述した「Peripheral」とは、各画像処理回路において内蔵メモリ47を除く内部資源を総称したものである。例えば、「Peripheral」と記載されたアドレス領域には、画像処理部41、静止画圧縮部42等の各レジスタや、動画圧縮部43に内蔵されているバッファメモリや、表示コントローラ48、メディアコントローラ53の各FIFO等がマップされている。なお、図3の例では、第1画像処理回路14のアドレス空間の上位に第2画像処理回路15の資源がマップされており、第2画像処理回路15のアドレス空間の上位に第1画像処理回路14の資源がマップされている。
FIG. 3 schematically shows an example of a memory map of the first
第1画像処理回路14と第2画像処理回路15はそれぞれ、バスブリッジ56とシリアルバス16の機能を利用して、コマンド、アドレス、データ、レスポンス等のパケットを接続先の画像処理回路に伝達することができる。そして、各々の画像処理回路は、各々のメモリマップに従って、自己の資源のみならず接続先の画像処理回路の資源に直接アクセスすることができる。例えば、第1画像処理回路14は、第1画像処理回路14のメモリマップに従って、第2画像処理回路15に接続された第2メモリ18上の画像のデータに直接アクセスすることができる。逆に、第2画像処理回路15は、第2画像処理回路15のメモリマップに従って、第1画像処理回路14に接続された第1メモリ17上の画像のデータに直接アクセスすることができる。
The first
すなわち、本実施形態では、転送元の画像処理回路に接続されたメモリ上に記憶されている画像データを、転送先の画像処理回路が直接読み出して処理するという動作を行うことができる。例えば、第1画像処理回路14のDMAC44_1は第2画像処理回路15に接続された第2メモリ18上に記憶されているフリーズ画のデータを直接読み出し、それを第1画像処理回路14内の表示コントローラ48_1に転送して表示させることができるし、同じく第2メモリ18上に記憶されているJPEG画像ファイル(後述)のデータを直接読み出し、それを第1画像処理回路14内のメディアコントローラ53_1に転送して記録媒体34に記録させることができる。すなわち、それらのデータを転送先である第1画像処理回路14に接続された第1メモリ17に一旦移動(あるいはコピー)するという、従来の電子カメラで行われていた動作が不要になる。そのため、本実施形態では、第1画像処理回路14と第2画像処理回路15の間で画像データの転送が行われる場合でも、転送先の画像処理回路に接続されたメモリへの余計な書き込みが発生しないという利点がある。
したがって、転送先の画像処理回路に接続されたメモリの帯域が余分に消費されることがないし、画像データのメモリ間移動(あるいはコピー)にかかっていた時間も発生しないので処理時間(あるいはLatency)が短縮される。
In other words, in the present embodiment, the image data stored in the memory connected to the transfer source image processing circuit can be directly read and processed by the transfer destination image processing circuit. For example, the DMAC 44_1 of the first
Accordingly, the bandwidth of the memory connected to the image processing circuit at the transfer destination is not consumed excessively, and the time required for moving (or copying) the image data between the memories does not occur, so that the processing time (or Latency) is not generated. Is shortened.
また、第1画像処理回路14と第2画像処理回路15が並列に処理を実行するため、互いに通信を行う場合、良く知られたシリアルポートを利用してデータを送受信することもできるが、上述したシリアルバスを利用して通信を行ってもよい。通信元から送信するデータは、通信先の画像処理回路のCPU45が高速に読み出せるように、通信先の画像処理回路にある内蔵メモリ47に書き込むとよい。また、データが送信されたことを通信先の画像処理回路に伝えるには、画像処理回路の外部端子に割り当てられているパラレルポートと割り込み信号を用いて割り込みを行うこともできるが、上述したシリアルバスを利用してもよい。この場合は、通信元の画像処理回路(CPU45)が、シリアルバスを通じて通信先の画像処理回路の内部にある割り込みコントローラ46のレジスタに直接書き込みを行って、通信先のCPU45に割り込みを発行する。
In addition, since the first
また、接続先の画像処理回路の資源を別の画像処理回路が不用意にアクセスしたことによって誤動作が起こらないよう、画像処理回路は、一部の資源については別の画像処理回路からアクセスができないようにするとよい。例えば、外部からアクセス可能なアドレスの範囲に制限を設け、アクセスが制限されている範囲のアドレスが別の画像処理回路からアクセスされたときは、アクセス元の画像処理回路にエラーのレスポンスを返すようにする。なお、上述したアドレス範囲の制限機能は、例えばバスブリッジ56に実装される。
In addition, the image processing circuit cannot access some resources from another image processing circuit so that a malfunction does not occur due to another image processing circuit inadvertently accessing the resource of the connection destination image processing circuit. It is good to do so. For example, an address range that can be accessed from the outside is restricted, and when an address in the restricted access range is accessed from another image processing circuit, an error response is returned to the accessing image processing circuit. To. The address range restriction function described above is implemented in the
<撮像装置の動作例の説明>
続いて、本実施形態の電子カメラの動作を、静止画撮影モードにおける単写撮影と連写撮影、それに動画撮影モードにおける動画撮影という3つの場合を例に挙げ、それぞれ具体的に説明する。
<Description of Operation Example of Imaging Device>
Subsequently, the operation of the electronic camera according to the present embodiment will be specifically described with reference to three cases of single shooting and continuous shooting in the still image shooting mode and moving image shooting in the moving image shooting mode.
(静止画撮影モードにおける単写撮影の動作)
静止画撮影モードで単写撮影を行う場合、第1画像処理回路14が動作状態となって単写撮影の処理を行う一方で、第2画像処理回路15は電源オフの状態または低消費電力の状態となって停止している。そして、第1画像処理回路14のCPU45_1が、単写撮影全般の動作を制御する。なお、以下に述べる処理は全てCPU45_1が実行するプログラムの制御の下に行われるものである。
(Single-shot shooting operation in still image shooting mode)
When single shooting is performed in the still image shooting mode, the first
単写撮影に限らず電子カメラの撮影モードはライブビューの動作から始まる。ライブビューでは撮像部12にスルー画の撮像動作を行わせる。撮像部12は所定の周期(フレーム周期)でスルー画の撮像を繰り返し行い、その画像データを撮像部12の外部へ出力する。撮像部12から周期的に出力されるスルー画のデータは、データ分配器13を介して第1画像処理回路14に順次入力される。
The shooting mode of the electronic camera starts with the live view operation, not limited to single shooting. In the live view, the
画像処理部41_1は、入力されたデータに画像処理(プリプロセスとポストプロセス)を施してスルー画のYCbCrデータを生成する。生成されたスルー画のYCbCrデータは第1メモリ17上に設けられたデータ記憶領域に一時的に記憶される。CPU45_1はDMAC44_1のソースアドレスとしてYCbCrデータが記憶されているデータ記憶領域の先頭アドレス、デスティネーションアドレスとして表示コントローラ48_1(内部のFIFO)のアドレス、データ転送数としてYCbCrデータのバイト数を設定し、データの転送を開始させる。データの転送が開始されると、上述したからスルー画のYCbCrデータが読み出されて表示コントローラ48_1に入力され、次いで表示部21に送られて画面に表示される。これによって、表示部21の画面上で被写体の生映像を見ることができる(ライブビュー表示)。ユーザは、表示部21に表示されたスルー画を観察することによって、撮影の構図を決めたり、シャッターチャンス(レリーズ釦24の全押し操作による撮影指示のタイミング)の判断を行ったりする。
The image processing unit 41_1 performs image processing (pre-process and post-process) on the input data to generate YCbCr data of a through image. The generated through-image YCbCr data is temporarily stored in a data storage area provided on the
また、ライブビューの動作中は画像処理部41_1が、プリプロセスの施されたスルー画のデータから、AF評価値、AE評価値、AWB評価値をそれぞれ生成する。CPU45_1は、生成したAE評価値を用いて測光を行い、測光結果に基づいてスルー画の露出制御を行う。これによってスルー画の明るさが適正レベルに調整される。またCPU45_1は上述したAWB評価値を用いてAWBアルゴリズムを実行し、その結果に基づいてスルー画のホワイトバランス調整を行う。これによってスルー画の色も適正な状態に調整される。また、CPU45_1は、レリーズ釦24の半押し操作が行われると、上述したAF評価値を用いて公知のコントラスト検出方式によるAFを行い、撮影光学系11のピントを目的の被写体に合わせる。なお、レリーズ釦24の半押し操作が行われた時は、静止画撮影時の露出制御パラメータ(ISO感度値、絞り値、シャッター秒時など)も併せて決定する。
Further, during the live view operation, the image processing unit 41_1 generates an AF evaluation value, an AE evaluation value, and an AWB evaluation value from the pre-processed through image data. The CPU 45_1 performs photometry using the generated AE evaluation value, and performs exposure control of the through image based on the photometry result. As a result, the brightness of the through image is adjusted to an appropriate level. The CPU 45_1 executes the AWB algorithm using the AWB evaluation value described above, and adjusts the white balance of the through image based on the result. As a result, the color of the through image is also adjusted to an appropriate state. Further, when the
そして、CPU45_1は、レリーズ釦24の全押し操作が行われると、撮像部12をスルー画の撮像動作から静止画の撮像動作に切り換えて、被写体の静止画を撮影させる。このとき、CPU45_1は、半押し操作に応じて決定した静止画撮影用の露出制御パラメータにしたがって露光を行わせる。露光が終了すると、CPU45_1は撮像部12を静止画の読み出し動作に移行させて、撮影された静止画の画像データを出力させる。撮像部12から出力された静止画のデータはデータ分配器13を介して第1画像処理回路14に入力される。
Then, when the
第1画像処理回路14に入力された静止画のデータ(Bayerデータ)は、画像処理部41_1でまずプリプロセスだけが施され、次いで画像処理部41_1から出力されて第1メモリ17上に設けられたBayerデータ記憶領域に一時的に記憶される。続いて、CPU45_1はDMAC44_1のソースアドレスとしてBayerデータが記憶されているBayerデータ記憶領域の先頭アドレス、デスティネーションアドレスとして画像処理部41_1(内部のFIFO)のアドレス、データ転送数としてBayerデータのバイト数を設定し、データの転送を開始させる。データ転送が開始されると、上述したBayerデータ記憶領域からプリプロセスの施されたBayerデータが読み出されて画像処理部41_1に入り、画像処理部41_1でポストプロセスが施されて撮影された静止画の主画像(YCbCrデータ)が生成される。その際、画像処理部41_1は、内部の解像度変換回路(不図示)を利用して、上述したフリーズ画のYCbCrデータとサムネイルのYCbCrデータを併せて生成する。主画像、フリーズ画、サムネイルの各YCbCrデータは、第1メモリ17上に設けられたYCbCrデータ記憶領域(主画像用記憶領域、フリーズ画用記憶領域、サムネイル用記憶領域の3記憶領域を備える)に一時的に記憶される。CPU45_1は、DMAC44_1のソースアドレスとしてフリーズ画のYCbCrデータが記憶されているフリーズ画用記憶領域の先頭アドレス、デスティネーションアドレスとして表示コントローラ48_1(内部のFIFO)のアドレス、データ転送数としてフリーズ画YCbCrデータのバイト数を設定し、直ちにフリーズ画のYCbCrデータの転送を開始させる。データ転送が開始されると、上述したYCbCrデータ記憶領域からフリーズ画のYCbCrデータが読み出されて表示コントローラ48_1に入り、次いで表示部21に送られて画面に表示される。これにより、ユーザは、撮影直後に撮影画像の状態を確認することができる。
The still image data (Bayer data) input to the first
続いて、静止画圧縮部42_1を利用して、上述した主画像とフリーズ画とサムネイルの各YCbCrデータに順次JPEG圧縮処理を施す。それら3つの画像データを1つずつ静止画圧縮部42_1に転送するため、CPU45_1はその都度DMAC44_1のソースアドレス(各YCbCrデータのYCbCrデータ記憶領域における先頭アドレス)、デスティネーションアドレス(静止画圧縮部42_1(内部のFIFO)のアドレス)、データ転送数(各YCbCrデータのバイト数)をそれぞれ設定してデータ転送を合計3回行わせる。上述したYCbCrデータ記憶領域から3つのYCbCrデータが1つずつ読み出されて静止画圧縮部42_1に入り、静止画圧縮部42_1で個別にJPEG圧縮が施されて、それぞれのJPEG圧縮後の画像データ(以下、JPEGデータと称する)が、第1メモリ17上に設けられたJPEGデータ記憶領域に一時的に記憶される。CPU45_1は、所定のファイルフォーマットに従って主画像とフリーズ画とサムネイルの各JPEGデータを種々のメタデータと共にJPEGデータ記憶領域上で1つに結合し、1つのJPEG画像ファイル(そのファイルのメモリイメージ)を生成する。ファイルフォーマットとしてはExifフォーマットや、マルチピクチャフォーマット(MPF)などが利用される。なお、フリーズ画のJPEGデータは画像の再生時において高速表示のために利用されており、一方、サムネイルのJPEGデータはJPEG画像ファイルの検索において利用されている。最後に、CPU45_1は、JPEGデータ記憶領域に記憶されているJPEG画像ファイル(メモリイメージ)を記録媒体34に記録する。CPU45_1はDMAC44_1のソースアドレスとしてJPEG画像ファイルの先頭アドレス、デスティネーションアドレスとしてメディアコントローラ53_1(内部のFIFO)のアドレス、データ転送数としてJPEG画像ファイルのバイト数をそれぞれ設定し、データ転送を開始させる。データ転送が開始されると、上述したJPEGデータ記憶領域からJPEG画像ファイル(メモリイメージ)のデータが読み出されてメディアコントローラ53_1に入り、次いで記録媒体34に送られて記録媒体34内部の記録領域に記録される。
Subsequently, the above-described main image, freeze image, and thumbnail YCbCr data are sequentially subjected to JPEG compression using the still image compression unit 42_1. In order to transfer the three image data one by one to the still image compression unit 42_1, the CPU 45_1 each time the source address of the DMAC 44_1 (the start address of each YCbCr data in the YCbCr data storage area), the destination address (the still image compression unit 42_1). (Internal FIFO) address) and the number of data transfers (number of bytes of each YCbCr data) are set, and data transfer is performed three times in total. Three pieces of YCbCr data are read one by one from the YCbCr data storage area described above, enter the still image compression unit 42_1, and are subjected to JPEG compression individually by the still image compression unit 42_1. (Hereinafter referred to as JPEG data) is temporarily stored in a JPEG data storage area provided on the
JPEG画像ファイルの記録媒体34への記録動作が終了すると単写撮影(1フレームの静止画の撮影)の処理は全て終了し、CPU45_1は電子カメラを再びライブビューの動作に戻して、次の単写撮影に備える。以上が静止画撮影モードにおける単写撮影の基本的な動作である。
When the recording operation of the JPEG image file to the
(静止画撮影モードにおける連写撮影での動作例)
次に、静止画撮影モードにおいて連射撮影を行う場合について説明する。連写撮影の場合、第1画像処理回路14(マスタ側)と第2画像処理回路15(スレーブ側)との2つで並列に撮影の処理が行われる。第1画像処理回路14は、単写撮影の場合と同様にライブビューの動作を開始する一方、第2画像処理回路15は静止画撮影に必要となる各種の設定を済ませた上で、連写撮影が開始されるまで待機する。このとき、第2画像処理回路15は、必要となる回路ブロック以外の回路ブロックにはクロックの供給を停止して低消費電力の状態で待機することが好ましい。なお、第1画像処理回路14と第2画像処理回路15は、外部のシリアルバス16を通じて互いにデータの送受信が可能な状態にしておくことが必要となる。
(Operation example for continuous shooting in still image shooting mode)
Next, a case where continuous shooting is performed in the still image shooting mode will be described. In the case of continuous shooting, shooting processing is performed in parallel by the first image processing circuit 14 (master side) and the second image processing circuit 15 (slave side). The first
連写撮影での第1画像処理回路14によるライブビューの動作は、レリーズ釦24の半押し操作が行われた時の処理も含めて単写撮影の場合とほぼ同様であるので、重複する部分の説明は省略する。半押し操作に続いてレリーズ釦24の全押し操作が行われると、静止画の連写撮影が開始されるが、これ以降の処理は単写撮影の場合と相違する。
The live view operation by the first
レリーズ釦24の全押し操作が続いている間(連写撮影中)は静止画の撮影が繰り返し行われる。この連写撮影中には、半押し操作時に決定された静止画撮影用の露出パラメータを用いて、フォーカスの状態を固定したままで静止画の撮影が続けられる。また、連写撮影中にはスルー画の表示は行われず、ライブビューの動作には移行しない。
While the
連写撮影の場合、レリーズ釦24の全押し操作が行われると、CPU45_1は、第2画像処理回路15を低消費電力の状態から動作状態(使用する回路ブロックの全てにクロックが供給されている状態)に移行させる。また、CPU45_1は、撮像部12をスルー画の撮像動作から静止画の撮像動作に切り替えて、被写体の静止画を撮影させる。CPU45_1は上述した露出制御パラメータに従って露光を行わせる。露光が終了すると、CPU45_1は撮像部12を静止画の読み出し動作に移行させて、撮影された静止画の画像データを出力させる。なお、CPU45_1は、後述するようにメモリ上に設けられたBayerデータ記憶領域に空きがないときには画像データを出力できないため、空いているBayerデータ記憶領域を予め1つ獲得してから撮像部12に露光を開始させる。
In the case of continuous shooting, when the
連写撮影の場合、最初に撮影されたフレームを含めた奇数フレーム(1,3,5,7,…)の静止画データは第1画像処理回路14で処理され、偶数フレーム(2,4,6,8,…)の静止画データは第2画像処理回路15で処理される。そのため、データ分配器13は、奇数フレームの静止画データを第1画像処理回路14に出力し、偶数フレームの静止画データを第2画像処理回路15に出力する(図4参照)。
In the case of continuous shooting, the still image data of the odd frames (1, 3, 5, 7,...) Including the first captured frame is processed by the first
上述した偶数フレームと奇数フレームの静止画は同じ撮像部12で撮影されたものであり、撮像部12の撮像動作はマスタ側(第1画像処理回路14)のCPU45_1で制御されている。そのため、CPU45_1は、連写によって撮影された各静止画の撮影順序を全て把握することができる。そこで、CPU45_1は、連写撮影中は各静止画に対して撮影順序を示すフレーム番号(通し番号)を付与する。そして、このフレーム番号によって静止画データの撮影順序が管理される。
The still frames of the even and odd frames described above are taken by the
ここで、連写撮影で行われる基本的な処理は、単写撮影の場合と同様に、撮像部12による「静止画の撮像動作」、画像処理部41による「プリプロセス」、画像処理部41による「ポストプロセス」、静止画圧縮部42による「JPEG圧縮処理」、メディアコントローラ53による「JPEG画像ファイルの記録」という5つの処理である。これらの5つの処理は単写撮影の場合と基本的に同様であるため重複する部分の説明は省略する。ただし、第2画像処理回路15での「JPEG画像ファイルの記録」については、単写撮影の場合と異なる部分があるため後述する。
Here, as in the case of single-shot shooting, the basic processing performed in continuous shooting is “still image shooting operation” by the
上述した単写撮影の場合、上述する5つの処理をシーケンシャルに実行してから、次のフレームの撮影が行われる。一方、連写撮影の場合には、上述する5つの処理が並列に実行され、或るフレームの静止画データに対して或る処理が実行されている間に、そのフレームとは異なる複数フレームの静止画のデータにそれぞれ別々の処理が実行される点で相違する。つまり、連写撮影の場合、1フレームの撮影における5つの処理が未だ終わらないうちに次のフレームの撮影を開始することができる。なお、連写撮影時に並列処理されている個々のフレームに注目すると、上述の5つの処理はシーケンシャルに実行される。 In the case of the above-described single shooting, the next frame is shot after the five processes described above are executed sequentially. On the other hand, in the case of continuous shooting, the above-described five processes are performed in parallel, and while a certain process is being performed on still image data of a certain frame, The difference is that separate processing is performed on the still image data. That is, in the case of continuous shooting, shooting of the next frame can be started before the five processes in shooting of one frame have not yet been completed. If attention is paid to individual frames that are processed in parallel during continuous shooting, the above-described five processes are executed sequentially.
上述するような並列処理が可能となる理由は、それぞれの処理で使用される画像処理回路(14、15)の内部資源(ハードウェア)が異なるからである。例えば、画像処理部41の内部にある不図示のプリプロセス部とホストプロセス部は独立した回路であるため、連続する2つのフレームの静止画データに対して、プリプロセスとポストプロセスとを並列に施すことができる。同様に、静止画圧縮部42とメディアコントローラ53もそれぞれ独立した回路であるため、これらの4つの回路を利用すると連続する4つのフレームの静止画データを並列に処理できる。なお、上述する5つの処理のうち、「静止画の撮像動作」に含まれる画像データの出力と「プリプロセス」とは、撮像部12とプリプロセス部とを連続的に動作させて、同一のフレームについて常に一体的に実行される。そのため、連写撮影での並列処理を考えるときには、上述した「静止画の撮像動作」と「プリプロセス」の処理はまとめて1つの処理として扱われる。
The reason why parallel processing as described above is possible is that the internal resources (hardware) of the image processing circuits (14, 15) used in each processing are different. For example, since the pre-process unit (not shown) and the host process unit in the
上述した並列処理での具体的な動作は以下のようになる。なお、以下の並列処理の説明では、同じ画像処理回路で処理される連続した4つのフレームを、第1フレーム〜第4フレームと称している。 Specific operations in the parallel processing described above are as follows. In the following description of the parallel processing, four consecutive frames processed by the same image processing circuit are referred to as a first frame to a fourth frame.
まず、連写撮影の第1フレームに対して「静止画の撮像動作」と「プリプロセス」の処理が単独で実行される。続いて、第1フレームは「ポストプロセス」の処理に移行し、それと並行して第2フレームに対して「静止画の撮像動作」と「プリプロセス」の処理が実行される。続いて、第1フレームは「JPEG圧縮処理」の処理に移行し、第2フレームは「ポストプロセス」の処理に移行し、それと並行して第3フレームに対して「静止画の撮像動作」と「プリプロセス」の処理が実行される。続いて、第1フレームは「JPEG画像ファイルの記録」の処理に移行し、第2フレームは「JPEG圧縮処理」の処理に移行し、第3フレームは上述した「ポストプロセス」の処理に移行し、それと並行して第4フレームに対して「静止画の撮像動作」と「プリプロセス」の処理が実行される。これ以降は第1フレームから順に撮影の処理が終了し、新たなフレームに対して撮影の処理が開始されてゆく。 First, “still image capturing operation” and “preprocess” processing are executed independently for the first frame of continuous shooting. Subsequently, the first frame shifts to a “post process” process, and in parallel with this, a “still image capturing operation” and a “pre process” process are executed for the second frame. Subsequently, the first frame shifts to “JPEG compression processing”, the second frame shifts to “post process” processing, and in parallel with this, “still image capturing operation” is performed on the third frame. A “preprocess” process is executed. Subsequently, the first frame proceeds to “JPEG image file recording” processing, the second frame proceeds to “JPEG compression processing” processing, and the third frame proceeds to the “post processing” processing described above. In parallel, the “still image capturing operation” and “preprocess” processes are executed for the fourth frame. Thereafter, the photographing process is completed in order from the first frame, and the photographing process is started for a new frame.
上述した連写撮影の動作が定常状態に達すると、撮影の間隔(フレーム間隔)は、連写撮影での並列処理のうち最も時間のかかる処理によって決定され、その処理時間に等しくなる。すなわち、上述する処理時間ごとに1フレームの静止画の撮影が完了することとなる(パイプライン処理)。 When the above-described continuous shooting operation reaches a steady state, the shooting interval (frame interval) is determined by the most time-consuming processing among the parallel processing in continuous shooting and becomes equal to the processing time. That is, shooting of one frame of a still image is completed for each processing time described above (pipeline processing).
また、上述した並列処理を行うときには、単写撮影のときに説明した各データ記憶領域(Bayerデータ記憶領域、YCbCrデータ記憶領域、JPEGデータ記憶領域)をそれぞれメモリ上に複数確保する必要がある。以下の説明では、第1フレームと第2フレームの場合を具体的に説明するが、これ以降のフレームについても事情は同様である。 Further, when performing the parallel processing described above, it is necessary to secure a plurality of data storage areas (Bayer data storage area, YCbCr data storage area, and JPEG data storage area) described in the single-shot shooting on the memory. In the following description, the case of the first frame and the second frame will be specifically described, but the situation is the same for the subsequent frames.
例えば、撮像部12から出力された第1フレームの静止画のデータ(Bayerデータ)は、画像処理部41でまずプリプロセスだけが施され、次いで画像処理部41から出力されてメモリ上のBayerデータ記憶領域に一時的に記憶される。そして、プリプロセス後の第1フレームのBayerデータには、画像処理部41でポストプロセスが施されて、第1フレームの主画像(YCbCrデータ)が生成される。その際、画像処理部41は、内部の解像度変換回路(不図示)を利用して、上述したフリーズ画のYCbCrデータとサムネイルのYCbCrデータを併せて生成する。そして、第1フレームのYCbCrデータは、メモリ上のYCbCrデータ記憶領域に一時的に記憶される。一方、第1フレームに対するポストプロセスの実行中に、第2フレームのBayerデータが撮像部12から出力され、画像処理部41でプリプロセスだけが施されてBayerデータ記憶領域に一時的に記憶されることとなる。このとき、Bayerデータ記憶領域が1つのみであると、第1フレームのBayerデータが第2フレームのBayerデータで上書きされてしまうため正常な処理が行えなくなってしまう。そのため、上述したデータの上書きを避けるために、少なくともBayerデータ記憶領域が2つ必要であることが分かる。
For example, the first frame still image data (Bayer data) output from the
また、例えば、上述した第1フレームのYCbCrデータには、静止画圧縮部42でJPEG圧縮処理が施されて、第1フレームのJPEGデータが生成される。そして、第1フレームのJPEGデータは、メモリ上のJPEGデータ記憶領域に一時的に記憶される。一方、第1フレームに対するJPEG圧縮処理の実行中に、第2フレームのBayerデータに画像処理部41でポストプロセスが施されて、第2フレームのYCbCrデータが生成される。そして、第2フレームのYCbCrデータは、メモリ上のYCbCrデータ記憶領域に一時的に記憶される。このとき、YCbCrデータ記憶領域が1つのみであると、第1フレームのYCbCrデータが第2フレームのYCbCrデータで上書きされてしまうため正常な処理が行えなくなってしまう。そのため、上述したデータの上書きを避けるためには、少なくともYCbCrデータ記憶領域が2つ必要であることが分かる。
Further, for example, the above-described YCbCr data of the first frame is subjected to JPEG compression processing by the still image compression unit 42 to generate JPEG data of the first frame. The JPEG data of the first frame is temporarily stored in a JPEG data storage area on the memory. On the other hand, during the execution of the JPEG compression process for the first frame, the post-process is performed on the Bayer data of the second frame by the
また、例えば、上述した第1フレームのJPEGデータは、CPU45により種々のメタデータが付加されるとともにJPEGデータ記憶領域上で1つに結合されて、1つのJPEG画像ファイルのメモリイメージが生成される。そして、第1フレームのJPEG画像ファイルのメモリイメージが読み出されてメディアコントローラ53_1に入り、次いで記録媒体34に送られて記録媒体34内部の記録領域に記録される。一方、第1フレームのJPEG画像ファイルの記録が行われている間に、第2フレームのYCbCrデータに静止画圧縮部42でJPEG圧縮処理が施されて、第2フレームのJPEGデータが生成される。そして、第2フレームのJPEGデータは、メモリ上のJPEGデータ記憶領域に一時的に記憶される。このとき、JPEGデータ記憶領域が1つのみであると、第1フレームのJPEGデータが第2フレームのJPEGデータで上書きされてしまうため正常な処理が行えなくなってしまう。そのため、上述したデータの上書きを避けるためには、少なくともJPEGデータ記憶領域が2つ必要であることが分かる。
Further, for example, the JPEG data of the first frame described above is added with various metadata by the CPU 45 and combined into one on the JPEG data storage area to generate a memory image of one JPEG image file. . Then, the memory image of the JPEG image file of the first frame is read and enters the media controller 53_1, and then sent to the
上述する理由から、画像処理回路のメモリ(17、18)には、Bayerデータ記憶領域、YCbCrデータ記憶領域、JPEGデータ記憶領域がそれぞれ2以上ずつ確保されている(図4参照)。Bayerデータ記憶領域は、プリプロセスとポストプロセスとによって共有されている。YCbCrデータ記憶領域は、ポストプロセスとJPEG圧縮処理とによって共有されている。JPEGデータ記憶領域は、JPEG圧縮処理とJPEG画像ファイルの記録処理とによって共有されている。各データ記憶領域でデータの上書きを避けるため、前者の処理では共有する2つのデータ記憶領域の一方にデータが書き込まれ、後者の処理では共有する2つのデータ記憶領域の他方からデータが読み出される。 For the reasons described above, two or more Bayer data storage areas, YCbCr data storage areas, and JPEG data storage areas are secured in the memories (17, 18) of the image processing circuit (see FIG. 4). The Bayer data storage area is shared by the preprocess and the postprocess. The YCbCr data storage area is shared by the post process and the JPEG compression process. The JPEG data storage area is shared by JPEG compression processing and JPEG image file recording processing. In order to avoid overwriting data in each data storage area, data is written to one of the two shared data storage areas in the former process, and data is read from the other of the two shared data storage areas in the latter process.
また、上述した並列処理を行うときには、「静止画の撮像動作」、「プリプロセス」、「ポストプロセス」、「JPEG圧縮処理」、「JPEG画像ファイルの記録」に対応するタスクがRTOSの管理の下で複数並列に実行される。各タスクは、タスク間で通信を行うことによりタスク間の同期をとるとともに、各データ記憶領域でのデータの書き込み・読み出しの排他制御を行う。 When performing the parallel processing described above, tasks corresponding to “still image capturing operation”, “pre-process”, “post-process”, “JPEG compression processing”, and “record JPEG image file” are managed by RTOS. Runs in parallel below. Each task synchronizes between tasks by communicating between tasks, and performs exclusive control of writing and reading of data in each data storage area.
例えば、レリーズ釦の全押し操作が行われると、「静止画の撮像動作」に対応する撮像処理タスクは「プリプロセス」のタスクにメッセージを送信し、フレーム番号の情報を伝えるとともに「プリプロセス」の処理の準備を要求する。上述のメッセージを受信すると、「プリプロセス」のタスクは空いているBayerデータ記憶領域を獲得(セマフォの獲得)し、Bayerデータ記憶領域の獲得後に撮像処理タスクに準備完了のレスポンスを返信する。上述のレスポンスを受信すると、撮像処理タスクは、撮像部12に静止画の撮像動作を開始させる。露光が終了して撮像部12から静止画のデータが出力されると、そのデータは所定の画像処理回路(14、15)に入力され、プリプロセス部でプリプロセスが施される。プリプロセス後のBayerデータの書き込みを行うDMAC44は、プリプロセス部(内部のFIFO)をソースアドレスとし、予め獲得したBayerデータ記憶領域の先頭アドレスをデスティネーションアドレスとして、DMA転送によりBayerデータ記憶領域にBayerデータを書き込む。1フレーム分のBayerデータの書き込みが終了すると、「プリプロセス」のタスクはそのBayerデータ記憶領域を返却する(セマフォの返却)。
For example, when the release button is fully pressed, the imaging processing task corresponding to the “still image imaging operation” transmits a message to the “preprocessing” task to convey information on the frame number and “preprocessing”. Request preparation for processing. When the above-described message is received, the “preprocess” task acquires an empty Bayer data storage area (acquires a semaphore), and returns a response indicating completion of preparation to the imaging processing task after acquisition of the Bayer data storage area. When the above-described response is received, the imaging processing task causes the
続いて、「プリプロセス」のタスクは「ポストプロセス」のタスクにメッセージを送信し、上述のBayerデータにポストプロセスを施す旨を依頼する。このとき、「プリプロセス」のタスクは、「ポストプロセス」のタスクへのメッセージに、フレーム番号の情報と、上述のBayerデータ記憶領域の先頭アドレスとを含める。上述のメッセージを受信した「ポストプロセス」のタスクは、受信したアドレス値のBayerデータ記憶領域と、空いているYCbCrデータ記憶領域とを獲得する(セマフォの獲得)。YCbCrデータ記憶領域の獲得後に、「ポストプロセス」のタスクはポストプロセス部にポストプロセスを開始させる。Bayerデータ記憶領域からBayerデータを読み出すDMAC44は、予め獲得したBayerデータ記憶領域の先頭アドレスをソースアドレスとし、ポストプロセス部(内部のFIFO)をデスティネーションアドレスとして、DMA転送によりBayerデータをポストプロセス部に入力する。これにより、Bayerデータはポストプロセス部に入力されてポストプロセスが施される。また、ポストプロセス後のYCbCrデータの書き込みを行うDMAC44は、ポストプロセス部(内部のFIFO)をソースアドレスとし、予め獲得したYCbCrデータ記憶領域の先頭アドレスをデスティネーションアドレスとして、DMA転送によりYCbCrデータ記憶領域にYCbCrデータ(主画像、フリーズ画、サムネイル)を書き込む。なお、1フレーム分のBayerデータの読み出しが終了すると、「ポストプロセス」のタスクはそのBayerデータ記憶領域を返却する(セマフォの返却)。また、1フレーム分のYCbCrデータの書き込みが終了すると、「ポストプロセス」のタスクはそのYCbCrデータ記憶領域を返却する(セマフォの返却)。
Subsequently, the “pre-process” task sends a message to the “post-process” task, and requests that the above-described Bayer data be post-processed. At this time, the “preprocess” task includes the frame number information and the start address of the Bayer data storage area in the message to the “postprocess” task. The “post process” task that has received the above message acquires a Bayer data storage area of the received address value and a free YCbCr data storage area (acquisition of a semaphore). After acquiring the YCbCr data storage area, the “post process” task causes the post process section to start the post process. The
続いて、「ポストプロセス」のタスクは「JPEG圧縮処理」のタスクにメッセージを送信し、上述のYCbCrデータにJPEG圧縮処理を施す旨を依頼する。このとき、「ポストプロセス」のタスクは、「JPEG圧縮処理」のタスクへのメッセージに、フレーム番号の情報と、上述のYCbCrデータ記憶領域の先頭アドレスとを含める。上述のメッセージを受信した「JPEG圧縮処理」のタスクは、受信したアドレス値のYCbCrデータ記憶領域と、空いているJPEGデータ記憶領域とを獲得する(セマフォの獲得)。JPEGデータ記憶領域の獲得後に、「JPEG圧縮処理」のタスクは静止画圧縮部42にJPEG圧縮処理を開始させる。YCbCrデータ記憶領域からYCbCrデータを読み出すDMAC44は、予め獲得したYCbCrデータ記憶領域の先頭アドレスをソースアドレスとし、静止画圧縮部42(内部のFIFO)をデスティネーションアドレスとして、DMA転送によりYCbCrデータを静止画圧縮部42に入力する。これにより、YCbCrデータは静止画圧縮部42に入力されてJPEG圧縮処理が施される。また、JPEG圧縮処理後のJPEGデータの書き込みを行うDMAC44は、静止画圧縮部42(内部のFIFO)をソースアドレスとし、予め獲得したJPEGデータ記憶領域の先頭アドレスをデスティネーションアドレスとして、DMA転送によりJPEGデータ記憶領域にJPEGデータを書き込む。また、「JPEG圧縮処理」のタスクは、これと並行して撮影情報などのメタデータを収集し、JPEGデータ記憶領域内の別のアドレスにメタデータを書き込む。そして、「JPEG圧縮処理」のタスクは、静止画圧縮部42から出力されたJPEGデータとメタデータとを1つに結合して、JPEGデータ記憶領域の先頭から始める1つのJPEG画像ファイル(メモリイメージ)を作成する。なお、1フレーム分のYCbCrデータの読み出しが終了すると、「JPEG圧縮処理」のタスクはそのYCbCrデータ記憶領域を返却する(セマフォの返却)。また、上述するJPEG画像ファイルを作成すると、「JPEG圧縮処理」のタスクはそのJPEGデータ記憶領域を返却する(セマフォの返却)。
Subsequently, the “post process” task sends a message to the “JPEG compression process” task and requests that the above-described YCbCr data be subjected to the JPEG compression process. At this time, the “post process” task includes the frame number information and the start address of the YCbCr data storage area in the message to the “JPEG compression process” task. The “JPEG compression process” task that has received the above-mentioned message acquires a YCbCr data storage area of the received address value and a free JPEG data storage area (acquisition of semaphore). After acquiring the JPEG data storage area, the task “JPEG compression processing” causes the still image compression unit 42 to start JPEG compression processing. The
続いて、「JPEG圧縮処理」のタスクは「JPEG画像ファイルの記録」のタスクにメッセージを送信し、上述のJPEG画像ファイルを記録媒体34に記録するように依頼する。このとき、「JPEG圧縮処理」のタスクは、「JPEG画像ファイルの記録」のタスクへのメッセージに、フレーム番号の情報と、上述のJPEGデータ記憶領域の先頭アドレスと、JPEG画像ファイルのサイズを含める。JPEG圧縮は可変長圧縮であるため、圧縮処理ごとにJPEGデータのサイズ(符号量)も変わるため、JPEG画像ファイルのサイズも変化する。そのため、上述の場合にはメッセージにJPEG画像ファイルのサイズを含めている。上述のメッセージを受信した「JPEG画像ファイルの記録」のタスクは、受信したアドレス値のJPEGデータ記憶領域を獲得する(セマフォの獲得)。そして、「JPEG画像ファイルの記録」のタスクは、メディアコントローラ53_1を動作状態(Active)にする。また、「JPEG画像ファイルの記録」のタスクは、メディアコントローラ53_1を介して記録媒体34にWRITEコマンドと書き込みアドレスとを発行して、JPEG画像ファイルの記録動作を開始する。JPEGデータ記憶領域からJPEG画像ファイルを読み出すDMAC44は、予め獲得したJPEGデータ記憶領域の先頭アドレスをソースアドレスとし、メディアコントローラ53_1(内部のFIFO)をデスティネーションアドレスとして、DMA転送によりJPEG画像ファイルのデータをメディアコントローラ53_1に入力する。メディアコントローラ53_1は、入力されたJPEG画像ファイルのデータを記録媒体34に送信し、上述する書き込みアドレスで指定された記録領域に記録する。なお、JPEG画像ファイルの記録が終了すると、「JPEG画像ファイルの記録」のタスクはそのJPEGデータ記憶領域を返却する(セマフォの返却)。
Subsequently, the “JPEG compression process” task sends a message to the “record JPEG image file” task and requests the above-mentioned JPEG image file to be recorded on the
以上のように、RTOSの機能(セマフォ)を利用することで、CPU45は各データ記憶領域でのデータの書き込み・読み出しの排他制御を確実に行うことができる。また、タスク間通信でフレーム番号の情報が伝達されるため、CPU45が実行するRTOSは、フレーム番号の情報を参照することで静止画データを撮影順に従って処理することができる。 As described above, by using the RTOS function (semaphore), the CPU 45 can reliably perform exclusive control of writing and reading of data in each data storage area. Further, since frame number information is transmitted by inter-task communication, the RTOS executed by the CPU 45 can process still image data according to the shooting order by referring to the frame number information.
また、本実施形態の電子カメラでは、奇数フレームの静止画データに対して第1画像処理回路14で上述した並列処理が実行され、偶数フレームの静止画データに対して第2画像処理回路15で上述した並列処理が実行される。2つの画像処理回路を用いると、同じ処理時間の間に2つのフレームを処理できるので、処理時間は相対的に1/2になることが分かる。すなわち、電子カメラ全体ではフレーム間隔が1/2になるため、1つの画像処理回路で処理する場合と比べて2倍高速な連写撮影を行うことができる。
In the electronic camera of the present embodiment, the parallel processing described above is executed by the first
ところで、本実施形態では、第1画像処理回路14にのみメディアコネクタ23が接続されている。そのため、第1画像処理回路14で生成されたJPEG画像ファイルと、第2画像処理回路15で生成されたJPEG画像ファイルとは、マスタ側のCPU45_1の制御により記録媒体34にフレーム番号順で交互に記録されることになる。
By the way, in the present embodiment, the
スレーブ側のJPEG画像ファイルの記録処理は、基本的にはマスタ側の場合と同様であるが、JPEG画像ファイルのデータが第2メモリ18のJPEGデータ記憶領域に記録される点と、そのデータがシリアルバス16を介して第1画像処理回路14のブロックに転送される点でマスタ側の場合と相違がある。しかし、第1画像処理回路14のCPU45_1やDMAC44_1は、バスブリッジ56の働きによって、第2メモリ18上のデータに対して第1メモリ17上のデータと同様にアクセスすることができる。そのため、第2画像処理回路15で生成されたJPEG画像ファイルを第1画像処理回路14のブロックに転送することは容易である。
The recording process of the JPEG image file on the slave side is basically the same as that on the master side, but the data of the JPEG image file is recorded in the JPEG data storage area of the
例えば、電子カメラはスレーブ側のJPEG画像ファイルを以下の手順で記録媒体34に記録すればよい。図5は、スレーブ側のJPEG画像ファイルを記録媒体34に記録する場合の概要図である。図5において、JPEG画像ファイルのデータの流れは一点鎖線の矢印で示す。
For example, the electronic camera may record the slave-side JPEG image file on the
まず、スレーブ側のCPU45_2は、JPEG画像ファイルのデータが生成されるたびに、マスタ側のCPU45_1に対して、対象となるJPEG画像ファイルが記憶されているJPEGデータ記憶領域のアドレスと、そのJPEG画像ファイルのフレーム番号を伝える。CPU45_1は、第2メモリ18に記憶されているフレーム番号のJPEG画像ファイルを記録媒体34に記録するとき、上述の通信で取得したJPEGデータ記憶領域の先頭アドレスを用いて、対象のJPEG画像ファイルを記録媒体34へ転送すればよい。なお、JPEG画像ファイルの記録媒体34への記録に関する具体的な処理については、既に上述した説明と同様であるので重複する説明は省略する。
First, each time the JPEG image file data is generated, the slave CPU 45_2 sends the address of the JPEG data storage area in which the target JPEG image file is stored to the master CPU 45_1 and the JPEG image. Tell the file frame number. When the CPU 45_1 records the JPEG image file of the frame number stored in the
また、連写撮影のときにフリーズ画を表示する場合を考える。本実施形態では第1画像処理回路14にのみ表示部21が接続されている。奇数フレームのフリーズ画を表示部21に表示させる場合には、マスタ側では単写撮影の場合と同様の制御を行えばよい。偶数フレームのフリーズ画を表示部21に表示させる場合、基本的にはマスタ側の場合と同様であるが、フリーズ画のYCbCrデータが第2メモリ18のYCbCrデータ記憶領域に記録される点と、そのデータがシリアルバス16を介して第1画像処理回路14のブロックに転送される点でマスタ側の場合と相違がある。しかし、第1画像処理回路14のCPU45_1やDMAC44_1は、バスブリッジ56の働きによって、第2メモリ18上のデータに対して第1メモリ17上のデータと同様にアクセスすることができる。そのため、第2画像処理回路15で生成されたフリーズ画のデータを第1画像処理回路14のブロックに転送することは容易である。
Also, consider a case where a freeze image is displayed during continuous shooting. In the present embodiment, the
例えば、電子カメラは、以下の手順でフリーズ画の表示を行えばよい。図6は、スレーブ側のフリーズ画を表示部21に表示させる場合の概略図である。図6において、フリーズ画のデータの流れは一点鎖線の矢印で示す。
For example, the electronic camera may display a freeze image according to the following procedure. FIG. 6 is a schematic diagram when a freeze image on the slave side is displayed on the
連写撮影のときに、マスタ側のCPU45_1は、フリーズ画を表示するフレーム番号を求める。上記のフレーム番号が偶数であれば、表示すべきフリーズ画のデータは第2メモリ18のYCbCrデータ記憶領域に記憶されている。フリーズ画の表示を行う場合、CPU45_1は、フレーム番号とともにフリーズ画の表示を示す表示フラグを、そのフレームの撮影時に予めCPU45_2に送信しておく。
At the time of continuous shooting, the CPU 45_1 on the master side obtains a frame number for displaying a freeze image. If the frame number is an even number, the freeze image data to be displayed is stored in the YCbCr data storage area of the
ここで、偶数フレームのBayerデータが第2画像処理回路15に入力されると、CPU45_2は、Bayerデータが記憶された第2メモリ18のBayerデータ記憶領域のアドレスと、フレーム番号と、表示フラグとを画像処理部41_2に伝える。そして、画像処理部41_2は、上記のBayerデータにポストプロセスを施して、主画像、フリーズ画、サムネイルの各YCbCrデータを生成する。上述の表示フラグがセットされていた場合、画像処理部41_2は、フリーズ画のYCbCrデータが生成された時点で、表示すべきフリーズ画が記憶されているYCbCrデータ記憶領域の先頭アドレスと、そのフレーム番号とをマスタ側のCPU45_1に送信する。
Here, when the Bayer data of the even frame is input to the second
そして、マスタ側のCPU45_1は、第2メモリ18から表示コントローラ48_1にフリーズ画のデータをDMA転送する。このとき、CPU45_1は、表示すべきフリーズ画が記録されているYCbCrデータ記憶領域の先頭アドレスをDMAC44_1のソースアドレスとし、表示コントローラ48_1のFIFOのアドレスをDMAC44_1のデスティネーションアドレスとする。また、CPU45_1は、表示すべきフリーズ画のバイト数をDMAC44_1の転送カウントとすればよい。
Then, the master CPU 45_1 DMA-transfers the freeze image data from the
その後、CPU45_1が表示ドライバを呼び出すと、フリーズ画のデータが表示コントローラ48_1に転送されて、フリーズ画が表示部21の画面に表示される。なお、同じフリーズ画を一定期間表示部21に表示し続ける場合、DMAC44_1が上述したフリーズ画のデータ転送を繰り返すように設定すればよい。このため、DMAC44_1には前回と同じアドレスでDMA転送を行うリロード機能を持たせてもよい。
Thereafter, when the CPU 45_1 calls the display driver, the freeze image data is transferred to the display controller 48_1, and the freeze image is displayed on the screen of the
以上が静止画撮影モードで連写撮影を行う場合の動作である。 The above is the operation when continuous shooting is performed in the still image shooting mode.
(動画撮影モードでの動作例1)
次に、動画撮影モードでの電子カメラの動作例を説明する。まず、H.264規格での動画像の符号化について簡単に説明する。
(Operation example 1 in movie shooting mode)
Next, an operation example of the electronic camera in the moving image shooting mode will be described. First, H. The encoding of moving images in the H.264 standard will be briefly described.
H.264による動画像の符号化では、1フレームの動画データをマクロブロックと称する多数のブロックに分割し、マクロブロック単位で符号化の処理が行われる。符号化のモードには、Iモード、Pモード、Bモードと称する3つのモードがある。 H. In the encoding of a moving image by H.264, one frame of moving image data is divided into a large number of blocks called macroblocks, and encoding processing is performed in units of macroblocks. There are three modes of encoding, called I mode, P mode, and B mode.
Iモードは、フレーム内予測符号化モードである。Iモードでは、符号化の対象となるカレントフレーム内の画素のみを利用して各マクロブロックを符号化するフレーム内予測が行われる。 The I mode is an intraframe predictive coding mode. In the I mode, intra-frame prediction is performed in which each macroblock is encoded using only pixels in the current frame to be encoded.
一方、Pモード、Bモードは、フレーム間予測符号化モードである。一般的にPモードは、時間的に過去の1フレームからカレントフレームを予測する。また、Bモードは、時間的に過去および未来のそれぞれ1フレームからカレントフレームを予測する。ここで、Pモード、Bモードのフレーム間予測でカレントフレームと対比されるフレームを参照フレームと称する。この参照フレームは、既に符号化されたフレームを再生(復号)したものが用いられる。なお、H.264の符号化器には、ローカル復号器が含まれている。符号化されたカレントフレームのマクロブロックはローカル復号器で直ちに復号化され、メモリ上の参照フレーム記憶領域に記憶される。 On the other hand, the P mode and the B mode are inter-frame prediction encoding modes. In general, in the P mode, a current frame is predicted from one temporally past frame. In the B mode, the current frame is predicted from one frame in the past and the future in terms of time. Here, a frame that is compared with the current frame in inter-frame prediction in the P mode and the B mode is referred to as a reference frame. As this reference frame, a frame that has been reproduced (decoded) from an already encoded frame is used. H. The H.264 encoder includes a local decoder. The encoded macroblock of the current frame is immediately decoded by the local decoder and stored in the reference frame storage area on the memory.
また、フレーム間予測では、被写体の動き検出による動き補償を行うことで予測誤差の値を小さくしている。すなわち、動き検出では、カレントフレームのマクロブロックの位置を基準として、マクロブロックよりも大きな探索領域を参照フレームから読み出す。そして、探索領域内で上述の予測誤差が最小となるブロックの位置とそのときの予測誤差(最小値)とを求める。上記の動き検出で求めたブロックの位置と基準位置との差(オフセット)を動きベクトルと称する。フレーム間予測では、予測誤差および動きベクトルを併せて符号化し、ヘッダ情報を含んだマクロブロックの圧縮データを生成する。フレーム間予測を行った場合、符号化の終了したカレントフレームのマクロブロックの圧縮データは直ちにローカル復号器で復号される、そして、復号された予測誤差および動きベクトルから新しい参照フレーム(カレントフレームを復号したもの)が生成される。 In inter-frame prediction, the value of the prediction error is reduced by performing motion compensation by detecting the motion of the subject. That is, in motion detection, a search area larger than the macroblock is read from the reference frame based on the position of the macroblock in the current frame. Then, the position of the block that minimizes the above-described prediction error in the search area and the prediction error (minimum value) at that time are obtained. A difference (offset) between the position of the block obtained by the motion detection and the reference position is referred to as a motion vector. In inter-frame prediction, a prediction error and a motion vector are encoded together to generate compressed macroblock data including header information. When interframe prediction is performed, the compressed data of the macroblock of the current frame that has been encoded is immediately decoded by the local decoder, and a new reference frame (decodes the current frame) from the decoded prediction error and motion vector. Is generated).
また、H.264規格では、スライス(Slice)と称するマクロブロックのグループで1フレームを分割し、スライス単位で符号化モードを変更できる。 H. In the H.264 standard, one frame is divided by a group of macroblocks called slices, and the coding mode can be changed in units of slices.
また、H.264規格では、従来のMPEG規格よりも多数の参照フレームを利用できる。Pマクロブロックの場合、1つの参照フレームグループの中から1フレームを選択してPモードの符号化を行う。また、Bマクロブロックの場合、2つの参照フレームグループの中からそれぞれ1フレーム、若しくは一方の参照フレームグループの中から2フレームを選択してBモードの符号化を行う。 H. The H.264 standard can use a larger number of reference frames than the conventional MPEG standard. In the case of a P macroblock, one frame is selected from one reference frame group and P mode encoding is performed. In the case of a B macroblock, one frame is selected from two reference frame groups, or two frames are selected from one reference frame group, and B-mode encoding is performed.
ところで、上記のフレームの選択を行うときには、複数の参照フレームを評価した上で、カレントフレームのマクロブロック(カレントマクロブロック)により近い値を持つフレームを選択する可能性が高い。また、スライスが変わる場合には参照フレームも変わるので、上述した参照フレームの評価がその都度行われることになる。そのため、H.264規格では、参照フレームのアクセス回数が従来のMPEGの場合より多くなり、メモリの帯域が大幅に使用されうる。 By the way, when selecting the above frame, it is highly possible to select a frame having a value closer to the macroblock (current macroblock) of the current frame after evaluating a plurality of reference frames. In addition, since the reference frame changes when the slice changes, the above-described evaluation of the reference frame is performed each time. Therefore, H.H. In the H.264 standard, the number of access times of the reference frame is larger than that in the conventional MPEG, and the memory bandwidth can be greatly used.
以上の説明をふまえて、本実施形態での動画撮影モードでの電子カメラの動作を説明する。 Based on the above description, the operation of the electronic camera in the moving image shooting mode in this embodiment will be described.
図7は、動画撮影モードにおける電子カメラの動作例1の概略図である。図7において、カレントフレーム(記録用の動画像データを指す)、参照フレーム、動画像ファイルのデータの流れは、それぞれ一点鎖線の矢印で示す。 FIG. 7 is a schematic diagram of an operation example 1 of the electronic camera in the moving image shooting mode. In FIG. 7, the data flow of the current frame (pointing to moving image data for recording), the reference frame, and the moving image file are indicated by alternate long and short dashed arrows.
図7に示す動作例1では、マスタ側の動画圧縮部43_1が動画像の符号化を行う。第1メモリ17には、カレントフレームのYCbCrデータと動画像ファイルとが記憶される。一方、第2メモリ18には、参照フレームのYCbCrデータが記憶される。また、動作例1では、スルー画および動画像のデータはデータ分配器13を介して第1画像処理回路14にのみ入力される。
In the operation example 1 illustrated in FIG. 7, the moving image compression unit 43_1 on the master side encodes a moving image. The
動画撮影モードの起動指示を受け付けた段階では、第1画像処理回路14は、単写撮影の場合と同様にライブビューの動作を開始する一方、第2画像処理回路15は動画撮影に必要となる各種の設定を済ませた上で、動画撮影が開始されるまで待機する。このとき、第2画像処理回路15は、必要となる回路ブロック以外の回路ブロックにはクロックの供給を停止して低消費電力の状態で待機することが好ましい。なお、第1画像処理回路14と第2画像処理回路15は、外部のシリアルバス16を通じて互いにデータの送受信が可能な状態にしておくことが必要となる。
At the stage of accepting the activation instruction for the moving image shooting mode, the first
動画撮影での第1画像処理回路14によるライブビューの動作は、静止画の単写撮影の場合とほぼ同様であるので、重複する部分の説明は省略する。
Since the live view operation by the first
また、ライブビューの動作中は画像処理部41_1が、プリプロセスの施されたスルー画のデータから、AF評価値、AE評価値、AWB評価値をそれぞれ生成する。CPU45_1は、生成したAE評価値を用いて測光を行い、測光結果に基づいてスルー画の露出制御を行う。またCPU45_1は上述したAWB評価値を用いてAWBアルゴリズムを実行し、その結果に基づいてスルー画のホワイトバランス調整を行う。また、CPU45_1は、所定のタイミングでAF評価値を用いて公知のコントラスト検出方式によるAFを行い、撮影光学系11のピントを目的の被写体に合わせる。なお、CPU45_1は、動画撮影時においても、上述したライブビュー表示、露出制御、ホワイトバランス調整、AFを実行する(図7ではライブビュー表示に関するデータの流れの図示は省略する)。
Further, during the live view operation, the image processing unit 41_1 generates an AF evaluation value, an AE evaluation value, and an AWB evaluation value from the pre-processed through image data. The CPU 45_1 performs photometry using the generated AE evaluation value, and performs exposure control of the through image based on the photometry result. The CPU 45_1 executes the AWB algorithm using the AWB evaluation value described above, and adjusts the white balance of the through image based on the result. Further, the CPU 45_1 performs AF by a known contrast detection method using the AF evaluation value at a predetermined timing, and focuses the photographing
そして、CPU45_1は、動画記録指示を受け付けると、動画像の記録を開始する。上述する動画記録指示が行われると、CPU45_1は、第2画像処理回路15を低消費電力の状態から動作状態(使用する回路ブロックの全てにクロックが供給されている状態)に移行させる。また、CPU45_1は、撮像部12に対して、動画の仕様に合った解像度とフレーム周期の組み合わせで動画像のデータを出力するように指示する。なお、動画撮影時には、CPU45_1は、プリプロセスの施された動画像のデータに解像度変換を施すことでスルー画のYCbCrデータを生成し、上述したライブビュー表示等を行えばよい。
And CPU45_1 will start the recording of a moving image, if a moving image recording instruction | indication is received. When the moving image recording instruction described above is performed, the CPU 45_1 shifts the second
ここで、動画撮影で行われる基本的な処理は、撮像部12による「動画像の撮像動作」、画像処理部41_1による「プリプロセス」、画像処理部41_1による「ポストプロセス」、動画圧縮部43_1による「動画圧縮処理」、メディアコントローラ53_1による「動画像ファイルの記録」という5つの処理である。これらの処理は、上述した連写撮影の場合と同様に、第1画像処理回路14によって並列処理される。なお、動画像の撮像動作からポストプロセスの動作は、連写撮影の場合における静止画の撮像動作からポストプロセスの動作とほぼ同様であるので重複する説明を省略する。
Here, the basic processing performed in moving image shooting is “moving image imaging operation” by the
動画撮影時には、CPU45_1の制御により、ポストプロセス後のカレントフレームのYCbCrデータが、第1メモリ17のYCbCrデータ記憶領域に記録される。カレントフレームのYCbCrデータが生成されると、CPU45_1は動画圧縮部43_1に対して動画圧縮処理を開始する指示を行う。
At the time of moving image shooting, under the control of the CPU 45_1, the YCbCr data of the current frame after the post process is recorded in the YCbCr data storage area of the
上述の指示に応じて、動画圧縮部43_1はカレントマクロブロックのデータを要求する。DMAC44_1は、メモリコントローラ50_1を介して第1メモリ17のカレントフレーム(YCbCrデータ)からマクロブロックを部分的に読み出し、動画圧縮部43_1に転送する。このとき、CPU45_1は、DMAC44_1のソースアドレスとして第1メモリ17のYCbCrデータ記憶領域の先頭アドレス、デスティネーションアドレスとして動画圧縮部43_1(内部のFIFO)のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。
In response to the above instruction, the moving image compression unit 43_1 requests data of the current macroblock. The DMAC 44_1 partially reads the macroblock from the current frame (YCbCr data) in the
一方、DMAC44_1は、別のチャネルを使って予測用のデータを動画圧縮部43_1に転送する。カレントマクロブロックがIマクロブロックであれば、動画圧縮部43_1は、同一スライス内で先に符号化されたデータからフレーム内予測を行えばよい。 On the other hand, the DMAC 44_1 transfers the prediction data to the moving picture compression unit 43_1 using another channel. If the current macroblock is an I macroblock, the moving picture compression unit 43_1 may perform intraframe prediction from data encoded earlier in the same slice.
ここで、カレントフレームが動画像の最初のフレームである場合、過去のフレームが無いので、動画圧縮部43_1は上述したIモードで符号化を行う。動画圧縮部43_1は、上述した符号化の過程でカレントマクロブロックの復号データを逐次生成する。CPU45_1は、カレントマクロブロックの復号データ(YCbCrデータ)を、DMAC44_1によって第2メモリ18に確保された参照フレーム記憶領域に直接書き込ませる。このとき、CPU45_1は、DMAC44_1のソースアドレスとして動画圧縮部43_1(内部のFIFO)のアドレス、デスティネーションアドレスとして第2メモリ18の参照フレーム記憶領域の先頭アドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。上述した参照フレーム記憶領域に記録された復号データは新たな参照フレームとなる。
Here, when the current frame is the first frame of the moving image, there is no past frame, so the moving image compression unit 43_1 performs encoding in the I mode described above. The moving image compression unit 43_1 sequentially generates decoded data of the current macroblock in the above-described encoding process. The CPU 45_1 directly writes the decoded data (YCbCr data) of the current macroblock into the reference frame storage area secured in the
カレントフレームが2フレーム目以降である場合、動画圧縮部43_1は、第2メモリ18の参照フレーム記憶領域に記憶されている参照フレームが使えるので、PスライスやBスライスを含めることができる。上述するPマクロブロックやBマクロブロックの場合、動画圧縮部43_1は、第2メモリ18に記憶された参照フレームから予測用のデータ(参照フレームの探索領域のYCbCrデータ)を取得する。このとき、CPU45_1は、DMAC44_1のソースアドレスとして、第2メモリ18の参照フレーム記憶領域のアドレス、デスティネーションアドレスとして動画圧縮部43_1(内部のFIFO)のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。なお、PマクロブロックやBマクロブロックの圧縮では、動画圧縮部43_1は、複数の参照フレームから予測用のデータを読み出して、カレントマクロブロックとの予測誤差の大きさを評価してもよい。そして、動画圧縮部43_1は、上記の予測誤差がより小さい参照フレームを選択して、カレントマクロブロックの符号化に用いてもよい。
When the current frame is the second frame or later, the moving picture compression unit 43_1 can use the reference frame stored in the reference frame storage area of the
ところで、動画像の圧縮時において、DMAC44のソースアドレスは参照フレームのデータを読み出すために頻繁に変更される。そのため、動画圧縮時のDMA転送を効率的に行う観点から、動画圧縮部43にDMACを内蔵してもよい。このとき、動画圧縮部43にマイコンを内蔵させることで、ソースアドレスおよびデスティネーションアドレスを変更する機能と、符号化を行うフレームを決定する機能とを動画圧縮部43に付与してもよい。かかる構成によれば、カレントフレームが生成される毎に、CPU45がカレントフレームのアドレスを動画圧縮部43に通信するだけで、動画圧縮部43が自律的に動画像の符号化を行うことが可能となる。
By the way, when compressing a moving image, the source address of the
動画圧縮部43_1は、フレーム内予測符号化(Iモード)またはフレーム間予測符号化(Pモード、Bモード)によって生成した符号化データ(動画像ファイル)を、ヘッダを含んだ標準フォーマットのパケットに分割して出力する。上述のパケットは、DMAC44_1によって、第1メモリ17の動画ファイル記憶領域に書き込まれる。このとき、CPU45_1は、DMAC44_1のソースアドレスとして、動画圧縮部43_1(内部のFIFO)のアドレス、デスティネーションアドレスとして第1メモリ17の動画ファイル記憶領域のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。なお、CPU45_1は、動画ファイル記憶領域に上述のパケットのデータが一定量蓄積されるごとに、別の動画ファイル記憶領域に記録先を切り替える。
The moving image compression unit 43_1 converts the encoded data (moving image file) generated by intra-frame predictive encoding (I mode) or inter-frame predictive encoding (P mode, B mode) into a standard format packet including a header. Divide and output. The above-described packet is written into the moving image file storage area of the
また、動画像ファイルの記録処理のときには、動画像ファイルのデータの書き込みを終えた動画ファイル記憶領域から、動画像ファイルのデータが読み出されて記録媒体34へ書き込まれる。このとき、CPU45_1はDMAC44_1のソースアドレスとして動画ファイル記憶領域の先頭アドレス、デスティネーションアドレスとしてメディアコントローラ53_1(内部のFIFO)のアドレス、データ転送数として動画像ファイルのパケットのバイト数をそれぞれ設定し、データ転送を開始させる。データ転送が開始されると、上述した動画ファイル記憶領域から動画像ファイルのデータが読み出されてメディアコントローラ53_1に入り、次いで記録媒体34に送られて記録媒体34内部の記録領域に記録される。
Also, during the moving image file recording process, the moving image file data is read from the moving image file storage area in which the writing of the moving image file data has been completed and written to the
なお、上述するように、パケットのデータが一定量蓄積されるごとに記録先の動画ファイル記憶領域を切り替えることで、或る動画ファイル記憶領域にパケットのデータを書き込みつつ、別の動画ファイル記憶領域からデータを読み出して記録媒体34にデータを書き込むことができる。そのため、動画撮影の場合にも、連写撮影の場合と同様に上述した5つの処理を並列処理できることが分かる。以上で、動作例1の説明を終了する。
As described above, each time a certain amount of packet data is accumulated, the recording destination moving image file storage area is switched to write another packet data storage area while writing packet data to a certain moving image file storage area. The data can be read out and written into the
なお、動画像ファイルの再生の場合、動き検出がないのでメモリの帯域が大幅に消費されることはない。そのため、動画像ファイルの再生の場合、第1画像処理回路14のみを動作状態とする。そして、第1画像処理回路14の動画圧縮部43が動画像ファイルの各フレームを復号すればよい。
In the case of playing a moving image file, since there is no motion detection, the memory bandwidth is not consumed significantly. Therefore, in the case of reproducing a moving image file, only the first
以下、図7に示す動画撮影モードの動作例1での作用効果を述べる。 Hereinafter, the operation and effect in the operation example 1 of the moving image shooting mode shown in FIG.
上述した動作例1では、第1メモリ17にカレントフレームを記憶し、第2メモリ18に参照フレームを記憶する。また、動画圧縮部43_1は、第2メモリ18の参照フレームに直接アクセスして、カレントフレームのフレーム間予測による符号化を行う。
In the operation example 1 described above, the current frame is stored in the
そのため、上述した動作例1では、第1メモリ17の帯域は、カレントフレームのプリプロセス・ポストプロセスの処理と、スルー画の表示と、記録媒体34への動画像ファイルの記録とに使用される。そして、第2メモリ18の帯域は、比較的負荷の大きい参照フレームのデータの書き込み/読み込みで使用される。したがって、上述した動作例1では各メモリへのアクセスが分散されるので、2つの画像処理回路により効率的な処理が可能となる。
Therefore, in the operation example 1 described above, the bandwidth of the
また、上述した動作例1では、転送元の画像処理回路に接続されたメモリ上に記憶されている画像データを、転送先の画像処理回路が直接読み出して処理するという動作を行うことができる。そのため、転送先の画像処理回路に接続されたメモリにデータを一旦移動(あるいはコピー)するという動作は不要になる。また、転送先の画像処理回路に接続されたメモリの帯域が余分に消費されることがないし、画像データのメモリ間移動(あるいはコピー)にかかっていた時間も発生しないので処理時間(あるいはLatency)が短縮される。 In the operation example 1 described above, the image data stored in the memory connected to the transfer source image processing circuit can be directly read and processed by the transfer destination image processing circuit. Therefore, the operation of temporarily moving (or copying) the data to the memory connected to the transfer destination image processing circuit becomes unnecessary. Further, the bandwidth of the memory connected to the image processing circuit of the transfer destination is not consumed excessively, and the time required for moving (or copying) the image data between the memories does not occur, so the processing time (or Latency) is not generated. Is shortened.
なお、以下に説明する動画撮影での各動作例の説明では、上記の動作例1と共通する部分の重複する説明はいずれも省略する。 In the description of each operation example in the moving image shooting described below, any overlapping description of the parts common to the above operation example 1 is omitted.
(動画撮影モードでの動作例2)
図8は、動画撮影モードにおける電子カメラの動作例2の概略図である。この動作例2は、図7に示す動作例1の変形例であって、第2画像処理回路15の動画圧縮部43が動画像の符号化を行う点で動作例1と相違する。図8において、カレントフレーム、参照フレーム、動画像ファイルのデータの流れは、それぞれ一点鎖線の矢印で示す。
(Operation example 2 in movie shooting mode)
FIG. 8 is a schematic diagram of Operation Example 2 of the electronic camera in the moving image shooting mode. This operation example 2 is a modification of the operation example 1 shown in FIG. 7, and is different from the operation example 1 in that the moving
動作例2の動画撮影の場合においても、CPU45_1の制御により、ポストプロセス後のカレントフレームのYCbCrデータが、第1メモリ17のYCbCrデータ記憶領域に記録される。カレントフレームのYCbCrデータが生成されると、CPU45_1は動画圧縮部43_2に対して動画圧縮処理を開始する指示を行う。
Even in the case of moving image shooting in the operation example 2, the YCbCr data of the current frame after the post process is recorded in the YCbCr data storage area of the
上述の指示に応じて、動画圧縮部43_2はカレントマクロブロックのデータを要求する。DMAC44_2は、メモリコントローラ50_1を介して第1メモリ17のカレントフレーム(YCbCrデータ)からマクロブロックを部分的に読み出し、動画圧縮部43_2に転送する。このとき、CPU45_2は、DMAC44_2のソースアドレスとして第1メモリ17のYCbCrデータ記憶領域の先頭アドレス、デスティネーションアドレスとして動画圧縮部43_2(内部のFIFO)のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。
In response to the above instruction, the moving picture compression unit 43_2 requests data of the current macroblock. The DMAC 44_2 partially reads the macroblock from the current frame (YCbCr data) in the
一方、DMAC44_2は、別のチャネルを使って第2メモリ18に記憶されている予測用のデータ(参照フレーム記憶領域の参照フレームのデータ)を動画圧縮部43_2に転送する。そして、動画圧縮部43_2は、上述したIモード、Pモード、Bモードのいずれかで符号化を実行する。なお、上述の各モードでの動画圧縮部43_2の動作は、動作例1での動画圧縮部43_1の動作と同様であるので説明を省略する。
On the other hand, the DMAC 44_2 transfers the prediction data (reference frame data in the reference frame storage area) stored in the
動画圧縮部43_2は、フレーム内予測符号化(Iモード)またはフレーム間予測符号化(Pモード、Bモード)によって生成した符号化データ(動画像ファイル)を、ヘッダを含んだ標準フォーマットのパケットに分割して出力する。上述のパケットは、DMAC44_2によって、第1メモリ17の動画ファイル記憶領域に書き込まれる。このとき、CPU45_2は、DMAC44_2のソースアドレスとして、動画圧縮部43_2(内部のFIFO)のアドレス、デスティネーションアドレスとして第1メモリ17の動画ファイル記憶領域のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。なお、CPU45_2は、動画ファイル記憶領域に上述のパケットのデータが一定量蓄積されるごとに、別の動画ファイル記憶領域に記録先を切り替える。なお、動画像ファイルの記録処理は、CPU45_1の制御によって動作例1の場合と同様に実行される。以上で、動作例2の説明を終了する。
The moving image compression unit 43_2 converts the encoded data (moving image file) generated by intra-frame predictive encoding (I mode) or inter-frame predictive encoding (P mode, B mode) into a standard format packet including a header. Divide and output. The above-described packet is written into the moving image file storage area of the
以下、図8に示す動画撮影モードの動作例2での作用効果を述べる。 Hereinafter, the operation and effect in the operation example 2 of the moving image shooting mode shown in FIG.
図8に示す動作例2では、各メモリへのアクセスが分散される点、転送先の画像処理回路でメモリの帯域が余計に消費されない点で、上述した動作例1と同様の効果を得ることができる。 The operation example 2 shown in FIG. 8 obtains the same effect as the operation example 1 described above in that access to each memory is distributed and the bandwidth of the memory is not consumed in the transfer destination image processing circuit. Can do.
また、上述した動作例2では、第2画像処理回路15側の動画圧縮部43_2が、第2メモリ18に記憶された参照フレームを用いて符号化処理を行う。そのため、動作例2でシリアルバス16を通過するデータは、カレントフレームのYCbCrデータと、符号化されたデータとなる。シリアルバス16を通過するデータのうち、符号化されたデータは圧縮されているのでデータ量は少ない。また、動作例2では参照フレームのデータがシリアルバス16を通過しないので、シリアルバス16の帯域に余裕が生じる。
In the operation example 2 described above, the moving image compression unit 43_2 on the second
また、動作例2では、動画圧縮部43_2が符号化処理を行うため、画像処理回路間で演算負荷の差が小さくなる。そのため、2つの画像処理回路における消費電力の偏りを小さくすることができる。 Moreover, in the operation example 2, since the moving image compression unit 43_2 performs the encoding process, a difference in calculation load between the image processing circuits is reduced. Therefore, it is possible to reduce the bias in power consumption in the two image processing circuits.
(動画撮影モードでの動作例3)
図9(a)、(b)は、動画撮影モードにおける電子カメラの動作例3の概略図である。動作例3において、動画記録指示を受け付けるまでの動作は上述する動作例1の場合と同様である。
(Operation example 3 in movie shooting mode)
FIGS. 9A and 9B are schematic views of Operation Example 3 of the electronic camera in the moving image shooting mode. In the operation example 3, the operation until the moving image recording instruction is received is the same as that in the operation example 1 described above.
動作例3で動画記録指示を受け付けると、CPU45_1は、第2画像処理回路15を低消費電力の状態から動作状態(使用する回路ブロックの全てにクロックが供給されている状態)に移行させる。また、CPU45_1は、撮像部12に対して、動画の仕様に合った解像度とフレーム周期の組み合わせで動画像のデータを出力するように指示する。また、CPU45_1は、データ分配器13の動作を切り替えて、第1画像処理回路14および第2画像処理回路15の両方に動画像の各フレームのBayerデータを入力させる。そして、動作例3では、第1画像処理回路14がライブビュー表示の処理を負担し、第2画像処理回路15が記録用の動画像へのプリプロセス、ポストプロセス、動画像圧縮処理を負担する。
When the moving image recording instruction is received in the operation example 3, the CPU 45_1 shifts the second
図9(a)は、動作例3での動画記録時における第1画像処理回路14による処理の概要を示している。マスタ側の画像処理部41_1は、データ分配器13から入力されたBayerデータにプリプロセス、ポストプロセスを順次施す。このとき、画像処理部41_1は、不図示の解像度変換回路によって、プリプロセスの施された動画像のデータに解像度変換を施してスルー画のYCbCrデータを生成する。CPU45_1は、スルー画のYCbCrデータを第1メモリ17のYcbCrデータ記憶領域に記録する。そして、表示部21は、CPU45_1の制御により、スルー画をライブビュー表示する。なお、ライブビュー表示の動作の詳細は上述した動作例と同様であるため、重複する部分の説明は省略する。また、図9(a)において、ライブビュー表示に関するスルー画のデータの流れは一点鎖線の矢印で示す。
FIG. 9A shows an outline of processing by the first
一方、図9(b)は、動作例3での動画記録時における第2画像処理回路15による処理の概要を示している。スレーブ側の画像処理部41_2は、データ分配器13から入力されたBayerデータにプリプロセス、ポストプロセスを順次施して、カレントフレームのYCbCrデータを生成する。CPU45_2は、カレントフレームのYCbCrデータを第2メモリ18のYcbCrデータ記憶領域に記録する。カレントフレームのYCbCrデータが生成されると、CPU45_2は動画圧縮部43_2に対して動画圧縮処理を開始する指示を行う。
On the other hand, FIG. 9B shows an outline of processing by the second
上述の指示に応じて、動画圧縮部43_2はカレントマクロブロックのデータを要求する。DMAC44_2は、メモリコントローラ50_2を介して第2メモリ18のカレントフレーム(YCbCrデータ)からマクロブロックを部分的に読み出し、動画圧縮部43_2に転送する。このとき、CPU45_2は、DMAC44_2のソースアドレスとして第2メモリ18のYCbCrデータ記憶領域の先頭アドレス、デスティネーションアドレスとして動画圧縮部43_2(内部のFIFO)のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。
In response to the above instruction, the moving picture compression unit 43_2 requests data of the current macroblock. The DMAC 44_2 partially reads the macroblock from the current frame (YCbCr data) in the
一方、DMAC44_2は、別のチャネルを使って第2メモリ18に記憶されている予測用のデータ(参照フレーム記憶領域の参照フレームのデータ)を動画圧縮部43_2に転送する。そして、動画圧縮部43_2は、上述したIモード、Pモード、Bモードのいずれかで符号化を実行する。なお、上述の各モードでの動画圧縮部43_2の動作は、動作例1での動画圧縮部43_1の動作と同様であるので説明を省略する。
On the other hand, the DMAC 44_2 transfers the prediction data (reference frame data in the reference frame storage area) stored in the
動画圧縮部43_2は、フレーム内予測符号化(Iモード)またはフレーム間予測符号化(Pモード、Bモード)によって生成した符号化データ(動画像ファイル)を、ヘッダを含んだ標準フォーマットのパケットに分割して出力する。上述のパケットは、DMAC44_2によって、第2メモリ18の動画ファイル記憶領域に書き込まれる。このとき、CPU45_2は、DMAC44_2のソースアドレスとして、動画圧縮部43_2(内部のFIFO)のアドレス、デスティネーションアドレスとして第2メモリ18の動画ファイル記憶領域のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。なお、CPU45_2は、動画ファイル記憶領域に上述のパケットのデータが一定量蓄積されるごとに、別の動画ファイル記憶領域に記録先を切り替える。そして、CPU45_2は、CPU45_1に対してカレントフレームの符号化完了を通知する。
The moving image compression unit 43_2 converts the encoded data (moving image file) generated by intra-frame predictive encoding (I mode) or inter-frame predictive encoding (P mode, B mode) into a standard format packet including a header. Divide and output. The above-described packet is written into the moving image file storage area of the
CPU45_1は、上述する符号化完了の通知を受信すると、記録媒体34への動画像ファイルの記録処理を実行する。このとき、CPU45_1はDMAC44_1のソースアドレスとして第2メモリ18の動画ファイル記憶領域の先頭アドレス、デスティネーションアドレスとしてメディアコントローラ53_1(内部のFIFO)のアドレス、データ転送数として動画像ファイルのパケットのバイト数をそれぞれ設定し、データ転送を開始させる。データ転送が開始されると、上述した動画ファイル記憶領域から動画像ファイルのデータが読み出されてメディアコントローラ53_1に入り、次いで記録媒体34に送られて記録媒体34内部の記録領域に記録される。なお、図9(b)において、カレントフレーム、参照フレーム、動画像ファイルのデータの流れは、それぞれ一点鎖線の矢印で示す。
When the CPU 45_1 receives the above-described encoding completion notification, the CPU 45_1 executes a moving image file recording process on the
図9に示す動作例3では、各メモリへのアクセスが分散される点、転送先の画像処理回路でメモリの帯域が余計に消費されない点で、上記の動作例1と同様の効果を得ることができる。 In the operation example 3 shown in FIG. 9, the same effect as the operation example 1 described above is obtained in that the access to each memory is distributed and the memory bandwidth is not consumed in the transfer destination image processing circuit. Can do.
また、上記の動作例3では、第2画像処理回路15で生成されたカレントフレームのYCbCrデータが第2メモリ18のYCbCrデータ記憶領域に記憶される。そして、上記の動作例3では、動画圧縮部43_2が、第2メモリ18に記憶された参照フレームを用いて符号化処理を行う。すなわち、動作例3においてシリアルバス16を通過するデータは符号化されたデータのみとなるので、2つの画像処理回路を接続するシリアルバス16の帯域が比較的小さくても、動画像のデータの並列処理を容易に行うことができる。
In the third operation example, the YCbCr data of the current frame generated by the second
また、上記の動作例3では、動画像の圧縮処理をすべて第2画像処理回路15で行い、電子カメラの動画撮影時の全体的な制御を第1画像処理回路14が負担する。よって、動作例3では、動画像の画像処理がシステム全体に及ぼす影響を比較的小さくできる。
Further, in the above operation example 3, all of the moving image compression processing is performed by the second
(動画撮影モードでの動作例4)
図10は、動画撮影モードにおける電子カメラの動作例4の概略図である。この動作例4は、図9に示す動作例3の変形例であって、DMAC44_2が、動画圧縮部43_2から出力された符号化データを第1メモリ17の動画ファイル記憶領域に書き込む点で動作例3と相違する。なお、図10では、動画像ファイルのデータの流れを一点鎖線の矢印で示す。
(Operation example 4 in movie shooting mode)
FIG. 10 is a schematic diagram of an operation example 4 of the electronic camera in the moving image shooting mode. This operation example 4 is a modification of the operation example 3 shown in FIG. 9, in which the DMAC 44_2 writes the encoded data output from the moving image compression unit 43_2 into the moving image file storage area of the
この動作例4によれば、動画像ファイルのデータを第1メモリ17に記憶させる分、第2メモリ18から第1メモリ17にアクセスが分散する。そのため、上記の動作例3の場合と比べて、第2メモリ18へのアクセス量を緩和できる。
According to this operation example 4, access is distributed from the
(動画撮影モードでの動作例5)
図11は、動画撮影モードにおける電子カメラの動作例5の概略図である。この動作例5は、動画像に音声データを対応づけて動画像ファイルを生成する例である。動作例5において、動画記録指示を受け付けるまでの動作は上述する動作例1の場合と同様である。
(Operation example 5 in movie shooting mode)
FIG. 11 is a schematic diagram of an operation example 5 of the electronic camera in the moving image shooting mode. This operation example 5 is an example in which a moving image file is generated by associating audio data with a moving image. In the operation example 5, the operation until the moving image recording instruction is received is the same as that in the operation example 1 described above.
動作例5で動画記録指示を受け付けると、CPU45_1は、第2画像処理回路15を低消費電力の状態から動作状態(使用する回路ブロックの全てにクロックが供給されている状態)に移行させる。また、CPU45_1は、撮像部12に対して、動画の仕様に合った解像度とフレーム周期の組み合わせで動画像のデータを出力するように指示する。また、CPU45_1は、データ分配器13の動作を切り替えて、第1画像処理回路14および第2画像処理回路15の両方に動画像の各フレームのBayerデータを入力させる。そして、第1画像処理回路14は、上述の動作例3と同様の処理により、表示部21でライブビュー表示を行う。また、CPU45_1は、音声信号処理部27による録音処理を開始させる。
When the moving image recording instruction is received in the operation example 5, the CPU 45_1 shifts the second
スレーブ側の画像処理部41_2は、データ分配器13から入力されたBayerデータにプリプロセス、ポストプロセスを順次施して、カレントフレームのYCbCrデータを生成する。CPU45_2は、カレントフレームのYCbCrデータを第2メモリ18のYcbCrデータ記憶領域に記録する。カレントフレームのYCbCrデータが生成されると、CPU45_2は動画圧縮部43_2に対して動画圧縮処理を開始する指示を行う。なお、動画圧縮部43_2による動画圧縮処理の動作は、上述の動作例3とほぼ同様であるので、重複する部分の説明は省略する。
The image processing unit 41_2 on the slave side sequentially performs pre-processing and post-processing on the Bayer data input from the
一方、録音処理によって音声信号処理部27から出力される音声データは、データ分配器13を介して、第2画像処理回路15に入力される。上記の音声データは、非圧縮のデータ(リニアPCM)であってもよく、不図示の音声圧縮部で圧縮されたデータであってもよい。CPU45_2は、入力された音声データを第2メモリ18の音声データ記憶領域に一時的に記憶する。図11において、音声データの流れを一点鎖線の矢印で示す。
On the other hand, the audio data output from the audio
そして、CPU45_2は、動画圧縮処理によって圧縮された画像データと、上述する音声データとを多重化して1つの圧縮AVデータ(AVコードストリーム)を生成する。このとき、CPU45_2は、上述する圧縮AVデータを第1メモリ17の動画ファイル記録領域に記憶する。上述の圧縮AVデータは、DMAC44_2によって、第1メモリ17の動画ファイル記憶領域に書き込まれる。このとき、CPU45_2は、DMAC44_2のソースアドレスとして、動画圧縮部43_2(内部のFIFO)のアドレス、デスティネーションアドレスとして第1メモリ17の動画ファイル記憶領域のアドレス、データ転送数をそれぞれ設定し、データ転送を行えばよい。なお、CPU45_2は、動画ファイル記憶領域に上述のパケットのデータが一定量蓄積されるごとに、別の動画ファイル記憶領域に記録先を切り替える。なお、動画像ファイルの記録処理は、CPU45_1の制御によって動作例1の場合と同様に実行される。以上で、動作例5の説明を終了する。
Then, the CPU 45_2 generates one compressed AV data (AV code stream) by multiplexing the image data compressed by the moving image compression process and the audio data described above. At this time, the CPU 45_2 stores the compressed AV data described above in the moving image file recording area of the
この動作例5によれば、上記の動作例4と同様の効果に加えて、音声データが付与された動画像を記録媒体34に記録することができる。
According to this operation example 5, in addition to the same effect as the operation example 4 described above, a moving image to which audio data is added can be recorded on the
(動画撮影モードでの動作例6)
図12は、動画撮影モードにおける電子カメラの動作例6の概略図である。この動作例6は、上記の動作例5の変形例であって、第1画像処理回路14からシリアルバス16を介して第2画像処理回路15に音声データを入力する点で動作例5と相違する。図12において、音声データの流れを一点鎖線の矢印で示す。
(Operation example 6 in movie shooting mode)
FIG. 12 is a schematic diagram of an operation example 6 of the electronic camera in the moving image shooting mode. This operation example 6 is a modification of the above operation example 5 and is different from the operation example 5 in that audio data is input from the first
この動作例6の構成では、音声信号処理部27を第1画像処理回路14とのみ接続すればよく、第2画像処理回路15に音声データを入力する構成が不要となる。そのため、動作例6の構成によれば、電子カメラのハードウェア構成をより簡素化できる。なお、シリアルバス16のデータ通信において、音声データのビットレートは画像データのビットレートよりも著しく低いので、音声データはシリアルバス16の帯域をさほど消費しない。よって、上記の動作例6において、音声データの送信が画像処理回路間の通信に悪影響を及ぼすおそれは極めて低いと考えられる。
In the configuration of this operation example 6, the audio
<実施形態の補足事項>
(1) 上記実施形態では、記録用の画像を撮像する撮像素子31でAFおよびAEを行ういわゆるコンパクト型電子カメラの例を説明したが、本発明の撮像装置は一眼レフレックス型の電子カメラにも当然に適用できる。
<Supplementary items of the embodiment>
(1) In the above-described embodiment, an example of a so-called compact electronic camera in which AF and AE are performed by the
(2) 上記実施形態では、静止画の連写撮影時および動画撮影時に2つの画像処理回路を用いて処理を行う例を説明した。しかし、静止画の連写速度が低い場合や静止画の解像度が低い場合には、連写撮影時でも第2画像処理回路15を電源オフまたは低消費電力の状態としてもよい。同様に、動画像のフレームレートが低い場合や解像度が低い場合には、動画撮影時でも第2画像処理回路15を電源オフまたは低消費電力の状態としてもよい。
(2) In the above embodiment, an example has been described in which processing is performed using two image processing circuits at the time of continuous shooting and still image shooting of still images. However, when the continuous shooting speed of the still images is low or the resolution of the still images is low, the second
(3) 上記実施形態において、動画圧縮部43は、H.264以外の動画圧縮規格(MPEG2など)で動画像の符号化を行ってもよい。
(3) In the above embodiment, the moving
(4) 動画撮影モードの動作例5,6において、電子カメラは、圧縮AVデータを第2メモリ18の動画ファイル記憶領域に一時的に記憶してもよい。
(4) In the operation examples 5 and 6 in the moving image shooting mode, the electronic camera may temporarily store the compressed AV data in the moving image file storage area of the
以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。 From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.
11…撮影光学系、12…撮像部、13…データ分配器、14…第1画像処理回路、15…第2画像処理回路、16…シリアルバス、17…第1メモリ、18…第2メモリ、19…第1フラッシュメモリ、20…第2フラッシュメモリ、21…表示部、22…外部I/Fコネクタ、23…メディアコネクタ、24…レリーズ釦、25…操作釦、27…音声信号処理部、31…撮像素子、32…AFE部、34…記録媒体、41…画像処理部、42…静止画圧縮部、43…動画圧縮部、44…DMAC、45…CPU、46…割込コントローラ、47…内蔵メモリ、48…表示コントローラ、49…GPIO部、50…メモリコントローラ、51…フラッシュメモリコントローラ、52…外部I/Fコントローラ、53…メディアコントローラ、54…音声I/F、55…内部バス、56…バスブリッジ
DESCRIPTION OF
Claims (7)
前記画像のデータに画像処理を施す第1画像処理回路と、
前記第1画像処理回路に接続された第1メモリと、
前記画像のデータに画像処理を施す第2画像処理回路と、
前記第2画像処理回路に接続された第2メモリと、
前記第1画像処理回路および前記第2画像処理回路を接続するバスと、を備え、
前記第1画像処理回路および前記第2画像処理回路はそれぞれアドレス空間を有し、各々の前記アドレス空間にはいずれも前記第1メモリおよび前記第2メモリがマップされている撮像装置。 An imaging unit that outputs image data obtained by capturing an image of a subject;
A first image processing circuit for performing image processing on the image data;
A first memory connected to the first image processing circuit;
A second image processing circuit for performing image processing on the image data;
A second memory connected to the second image processing circuit;
A bus connecting the first image processing circuit and the second image processing circuit,
The first image processing circuit and the second image processing circuit each have an address space, and the first memory and the second memory are mapped to each of the address spaces.
前記第1画像処理回路は、前記第1メモリに記憶された前記画像を表示装置に表示出力する撮像装置。 The imaging device according to claim 1,
The first image processing circuit is an imaging device that displays and outputs the image stored in the first memory on a display device.
前記撮像部は、動画像のデータを出力し、
前記第1画像処理回路は、前記動画像のデータを圧縮して得た動画像ファイルを不揮発性記録媒体に記録する記録処理を実行し、
前記第2メモリは、前記圧縮のときにフレーム間予測符号化で用いる参照フレームを記憶し、前記第2メモリから前記参照フレームの読み出しを実行する撮像装置。 In the imaging device according to claim 1 or 2,
The imaging unit outputs moving image data,
The first image processing circuit executes a recording process for recording a moving image file obtained by compressing the moving image data on a nonvolatile recording medium;
The imaging device, wherein the second memory stores a reference frame used in inter-frame predictive encoding at the time of the compression, and reads out the reference frame from the second memory.
前記第2画像処理回路は、前記圧縮における動画像の符号化処理を実行する撮像装置。 The imaging device according to claim 3.
The second image processing circuit is an imaging apparatus that executes a moving image encoding process in the compression.
前記圧縮の対象となるカレントフレームは、前記第2メモリに記憶される撮像装置。 In the imaging device according to claim 3 or 4,
An imaging device in which the current frame to be compressed is stored in the second memory.
前記圧縮の対象となるカレントフレームは、前記第1メモリに記憶される撮像装置。 In the imaging device according to claim 3 or 4,
An imaging apparatus in which a current frame to be compressed is stored in the first memory.
前記動画像の撮像時に音声データを取得する音声信号処理部をさらに備え、
前記第2画像処理回路は、前記動画像に前記音声データを対応付ける撮像装置。
The imaging apparatus according to any one of claims 3 to 6,
An audio signal processing unit that acquires audio data when the moving image is captured;
The second image processing circuit is an imaging device that associates the audio data with the moving image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012081023A JP2013211715A (en) | 2012-03-30 | 2012-03-30 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012081023A JP2013211715A (en) | 2012-03-30 | 2012-03-30 | Imaging device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013211715A true JP2013211715A (en) | 2013-10-10 |
Family
ID=49529194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012081023A Pending JP2013211715A (en) | 2012-03-30 | 2012-03-30 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013211715A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014049838A (en) * | 2012-08-30 | 2014-03-17 | Xacti Corp | Electronic camera |
WO2021070894A1 (en) * | 2019-10-11 | 2021-04-15 | ソニーセミコンダクタソリューションズ株式会社 | Imaging device, electronic apparatus, and imaging method |
CN112672004A (en) * | 2019-10-16 | 2021-04-16 | 现代自动车株式会社 | Vehicle and method of controlling vehicle |
US11412138B2 (en) | 2019-08-22 | 2022-08-09 | Canon Kabushiki Kaisha | Imaging apparatus and controlling method |
CN112672004B (en) * | 2019-10-16 | 2024-04-23 | 现代自动车株式会社 | Vehicle and method of controlling vehicle |
-
2012
- 2012-03-30 JP JP2012081023A patent/JP2013211715A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014049838A (en) * | 2012-08-30 | 2014-03-17 | Xacti Corp | Electronic camera |
US11412138B2 (en) | 2019-08-22 | 2022-08-09 | Canon Kabushiki Kaisha | Imaging apparatus and controlling method |
WO2021070894A1 (en) * | 2019-10-11 | 2021-04-15 | ソニーセミコンダクタソリューションズ株式会社 | Imaging device, electronic apparatus, and imaging method |
US11962916B2 (en) | 2019-10-11 | 2024-04-16 | Sony Semiconductor Solutions Corporation | Imaging device with two signal processing circuitry partly having a same type of signal processing, electronic apparatus including imaging device, and imaging method |
CN112672004A (en) * | 2019-10-16 | 2021-04-16 | 现代自动车株式会社 | Vehicle and method of controlling vehicle |
CN112672004B (en) * | 2019-10-16 | 2024-04-23 | 现代自动车株式会社 | Vehicle and method of controlling vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200118598A1 (en) | Digital image processing apparatus and method of controlling the same | |
US6963374B2 (en) | Method for live view display and digital camera using same | |
JP5056370B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGING DEVICE CONTROL PROGRAM, DATA PROCESSING DEVICE, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM | |
US9473701B2 (en) | Electronic camera | |
US20100225784A1 (en) | Camera | |
US9609167B2 (en) | Imaging device capable of temporarily storing a plurality of image data, and control method for an imaging device | |
US8054341B2 (en) | Photographing apparatus for supporting overriding mode and method of controlling same | |
US7365777B2 (en) | Digital camera | |
JP2001169167A (en) | Electronic camera | |
JP6493454B2 (en) | Electronic camera | |
US9363440B2 (en) | Imaging device and imaging method that sets a phase difference between first and second synchronization signals | |
US20110193988A1 (en) | Semiconductor device and semiconductor integrated circuit | |
JP2013211724A (en) | Imaging apparatus | |
JP2009232003A (en) | Imaging apparatus and control method of imaging apparatus, and signal processor and signal processing method | |
JP2013175824A (en) | Electronic camera | |
JP2013211715A (en) | Imaging device | |
JP4328906B2 (en) | Bus control method and apparatus, and digital camera | |
JP2005006061A (en) | Image processor | |
KR20100061311A (en) | Photographing apparatus and controlling method thereof | |
JP2008301475A (en) | Imaging apparatus and control method therefor | |
JP2004274285A (en) | Electronic camera | |
JP4284458B2 (en) | Digital camera | |
JP5906846B2 (en) | Electronic camera | |
US8687075B2 (en) | Imaging apparatus and information display method for imaging apparatus | |
JP2011211568A (en) | Moving picture-recording device and control method thereof |