JP2004032713A - Imaging apparatus, imaging method, program, and storage medium - Google Patents

Imaging apparatus, imaging method, program, and storage medium Download PDF

Info

Publication number
JP2004032713A
JP2004032713A JP2003125316A JP2003125316A JP2004032713A JP 2004032713 A JP2004032713 A JP 2004032713A JP 2003125316 A JP2003125316 A JP 2003125316A JP 2003125316 A JP2003125316 A JP 2003125316A JP 2004032713 A JP2004032713 A JP 2004032713A
Authority
JP
Japan
Prior art keywords
image
imaging
reading
frame
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003125316A
Other languages
Japanese (ja)
Inventor
Hiroshi Kondo
近藤 浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003125316A priority Critical patent/JP2004032713A/en
Publication of JP2004032713A publication Critical patent/JP2004032713A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To rapidly complete processing using pixel data from a imaging element at photographing. <P>SOLUTION: The imaging apparatus comprises the imaging element 14, where a line in which first and second color filters are arranged to pixels and a line in which first and third color filters are arranged are arranged alternately; an image control section 18 for forming the frame of images by n fields (n: odd number) and reading pixel data in the picture element including all color components in one field interval; a white balance operation section 22 for performing white balance operation, based on image data read from the pixel by the image control section; and a control section 50 for executing the start of the white balance operation by a white balance operation section, before the reading operation of corresponding frame from the pixel is completed by the image control section. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、撮像装置に関し、特に、撮影後ホワイトバランス演算を行う撮像装置に関する。
【0002】
【従来の技術】
従来、固体メモリ素子を有するメモリカードを記録媒体として、CCD等の固体撮像素子で撮像した静止画像や動画像を記録及び再生するデジタルカメラが市販されている。これらのデジタルカメラでは、撮像素子からの出力データを一旦バッファメモリへ取り込む撮影処理を行い、取り込まれたデータに対して画像処理及び圧縮処理を施して再度バッファメモリへ格納する現像圧縮処理を行った後、取り外し可能な記録媒体へ書き込む処理が行われるのが一般的である。
【0003】
ここで、記録画のためのホワイトバランス(WB)制御に関しては、さまざまなアルゴリズムが提案されているが、実施の順序としては、撮影後、撮像素子から出力されメモリへ取り込まれただけの信号処理されていない生データ(以降RAWデータと呼ぶ)を読み出し、RAWデータのように画素データを用いた処理、例えば、ガンマ補正処理や撮像素子の色フィルタで決まる色ごとの係数を所定のアルゴリズムにより決定し(以降この処理をWB演算と呼ぶ)、演算の結果得られるWB係数を乗じることで白データの補正を行い、その後現像圧縮処理を行うという方法がとられている。
【0004】
ところで撮像素子には、全画素読み出しの際に線順次に読み出すプログレッシブスキャン型と、1ラインおきに2フィールドかけて読み出すインターレース読み出し型があるが、このほかに、最近では後者の2フィールドをさらに増やして3フィールド、あるいはそれ以上のフィールドで読み出すタイプのものが現れてきている。これら複数フィールド読み出し型の撮像素子では受光部を有効に利用でき、センササイズを小さく抑えながら画素数を増やせるというメリットがある。
【0005】
従来の複数フィールド読み出し方式においては、1画面分のRAWデータがメモリに書き込まれるのを待ってから、WB演算を開始していた(例えば、特許文献1参照。)。
【0006】
【特許文献1】
特開平08−265782(3頁 段落(0021))
【0007】
【発明が解決しようとする課題】
しかしながら、この方法では撮像素子からの読み出しとWB演算が常にシーケンシャルでしか動作できないため、シャッターボタンを押してから露光が開始されるまでのタイムラグにはならないが、撮影時、画像確認のための表示が出るまでに時間がかかってしまっていた。
【0008】
また、連写撮影時においては、WB係数は1枚目のものと同じ係数で構わないとしても、1枚目に関しては、撮影後1画面分のRAWデータがバッファメモリに格納されてからWB演算を行うため、2枚目以降の撮影間隔に対して、1枚目と2枚目の撮影間隔が間延びしてしまうという問題点が生じていた。
【0009】
従って、本発明は上述した課題に鑑みてなされたものであり、その目的は、撮影時、ホワイトバランス演算等の画素データを用いた処理を迅速に完了させることができるようにすることである。
【0010】
【課題を解決するための手段】
上述した課題を解決し、目的を達成するために、本発明に係わる撮像装置は、画素に対して第1,第2の色フィルターが配置されるラインと第1,第3の色フィルターが配置されるラインとが交互に配置された撮像素子と、nフィールド(nは奇数)で1フレームの画像を形成すると共に、1フィールド期間毎に全ての色成分を含むように前記撮像素子の画素データを読み出す撮像制御手段と、
該撮像制御手段により前記撮像素子から読み出された画像データに基づいてホワイトバランス演算を行なうホワイトバランス演算手段と、前記撮像制御手段によって撮像素子から1フレーム分の読み出し動作が完了する前に、前記ホワイトバランス演算手段によるホワイトバランス演算の開始を実行する制御手段とを具備することを特徴としている。
【0011】
また、この発明に係わる撮像装置において、前記撮像制御手段は、nラインごとの読み出しを各フィールドにおいて行い、1フレーム分の画像を形成するインターレース読み出しを行うことを特徴としている。
【0012】
また、この発明に係わる撮像装置において、前記ホワイトバランス演算手段は、1フレームを構成する複数フィールドの画像データのうちの一部のフィールドの画像データに基づいてホワイトバランス演算を行なうことを特徴としている。
【0013】
また、この発明に係わる撮像装置において、撮影画像を表示するための表示手段を更に具備し、前記制御手段は、前記撮像素子から1フレーム分の画像データ読み出しが完了する前に、既に読み出されたフィールドの画像データに基づいて前記表示手段に撮影画像の表示を開始させることを特徴としている。
【0014】
また、この発明に係わる撮像装置において、1フレーム分の画像データよりデータ量の少ない縮小画像を形成する縮小画像形成手段を更に具備し、前記制御手段は、前記撮像素子から1フレーム分の画像データの読み出しが完了する前に、前記縮小画像形成手段に縮小画像を形成させることを特徴としている。
【0015】
また、この発明に係わる撮像装置において、前記制御手段は、前記撮像制御手段によって撮像素子から1フィールド分の読み出し動作が完了する前に、前記ホワイトバランス演算手段によるホワイトバランス演算の開始を実行することを特徴としている。
【0016】
また、本発明に係わる撮像方法は、画素に対して第1,第2の色フィルターが配置されるラインと第1,第3の色フィルターが配置されるラインとが交互に配置された撮像素子を備える撮像装置を用いた撮像方法であって、nフィールド(nは奇数)で1フレームの画像を形成すると共に、1フィールド期間毎に全ての色成分を含むように前記撮像素子の画素データを読み出す撮像制御工程と、該撮像制御工程において前記撮像素子から読み出された画像データに基づいてホワイトバランス演算を行なうホワイトバランス演算工程とを具備し、前記撮像制御工程において前記撮像素子から1フレーム分の読み出し動作が完了する前に、前記ホワイトバランス演算の開始を実行することを特徴としている。
【0017】
また、この発明に係わる撮像方法において、前記撮像制御工程において、nラインごとの読み出しを各フィールドにおいて行い、1フレーム分の画像を形成するインターレース読み出しを行うことを特徴としている。
【0018】
また、この発明に係わる撮像方法において、前記ホワイトバランス演算工程では、1フレームを構成する複数フィールドの画像データのうちの一部のフィールドの画像データに基づいてホワイトバランス演算を行なうことを特徴としている。
【0019】
また、この発明に係わる撮像方法において、撮影画像を表示するための表示工程を更に具備し、前記撮像制御工程において前記撮像素子からの1フレーム分の画像データ読み出しが完了する前に、前記表示工程による画像の表示を開始することを特徴としている。
【0020】
また、この発明に係わる撮像方法において、1フレーム分の画像データよりデータ量の少ない縮小画像を形成する縮小画像形成工程を更に具備し、前記一時記憶工程において前記撮像素子からの1フレーム分の画像データの読み出しが完了する前に、前記縮小画像形成工程を行なうことを特徴としている。
【0021】
また、この発明に係わる撮像方法において、前記撮像制御工程において前記撮像素子から1フィールド分の読み出し動作が完了する前に、前記ホワイトバランス演算工程におけるホワイトバランス演算の開始を実行することを特徴としている。
【0022】
また、本発明に係わるプログラムは、上記の撮像方法をコンピュータに実行させることを特徴としている。
【0023】
また、本発明に係わる記憶媒体は、上記のプログラムをコンピュータ読み取り可能に記憶したことを特徴としている。
【0024】
【発明の実施の形態】
以下、本発明の好適な実施形態について、添付図面を参照して詳細に説明する。
【0025】
(第1の実施形態)
図1は、本発明の第1の実施形態に係わる、3フィールド読み出し方式の撮像素子を使用したデジタルカメラシステムの構成を示す図である。
【0026】
図1において、100はデジタルカメラ装置である。10は撮影レンズ、11は被写体像を確認する光学ファインダーであり、ズーム制御に応じて画角の変更が可能となっている。12は絞り機能を備える絞り兼用シャッター、14は光学像を電気信号に変換する撮像素子であり、CCD(Charge Coupled Device)を使用している。また、素子上に原色モザイクフィルタが配置されている。15は内部に撮像素子14の出力ノイズ除去のためのCDS(相関2重サンプリング)回路やAGC(自動利得制御)回路を含む前置処理回路である。16は前置処理回路15から出力されるアナログ信号をデジタル信号に変換するA/D変換器である。
【0027】
18は撮像素子14、A/D変換器16にクロック信号や制御信号を供給するタイミング発生回路(TG)であり、それらのタイミングは信号処理IC22により制御される。
【0028】
信号処理IC22はCPU50からの指示により、A/D変換器16からのデータ或いはDRAM30からのデータに対して所定の画素補間処理や色変換処理、拡大・縮小、画像データ形式変換を行う。また、DMAコントローラ、D/A変換器、画像データを圧縮伸長する圧縮・伸長回路を内蔵している。さらに信号処理IC22は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果をDRAM30に保存する。CPU50はこの演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理、AF(オートフォーカス)処理、AE(自動露出)処理、EF(ストロボプリ発光)処理を行っている。
【0029】
28はTFT LCD等から成る画像表示部であり、DRAM30に書き込まれた表示用の画像データは信号処理IC22内部のD/A変換器(不図示)を介して画像表示部28により表示される。画像表示部28は画像の他、各種情報・モード設定状況の表示にも使われる。
【0030】
画像表示部28を用いて撮像した画像データを逐次表示すれば、電子ファインダー機能を実現することが可能である。
【0031】
また、画像表示部28は、CPU50の指示により任意に表示をON/OFFすることが可能であり、表示をOFFにした場合にはデジタルカメラ装置100の電力消費を大幅に低減することが出来る。
【0032】
さらに、画像表示部28は、回転可能なヒンジ部によってカメラ本体と結合されており、自由な向き、角度を設定して電子ファインダー機能や再生表示機能、各種表示機能を使用することが可能である。
【0033】
また、画像表示部28の表示部分をカメラ本体側に向けることで表示部分を保護しつつ格納することが可能であり、この場合は検知SW98により、格納状態を検知して画像表示部28の表示動作を停止することが出来る。
【0034】
DRAM30は撮影した非圧縮データの一時格納、AF/AE/AWB/EF演算結果の保持、画像表示部28への表示用画像の保持、圧縮画像データの保持等に使用されるメモリであり、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備えている。
【0035】
46はコネクタであり、アクセサリーシューとも呼ばれ、外部ストロボ装置400との電気接点や機械的な固定手段も合わせて備えている。
【0036】
48は内蔵ストロボであり、TTL調光機能を有している。
【0037】
50はデジタルカメラ装置100全体を制御するCPUである。信号処理IC22によってDRAM30に格納されたAF/AE/AWB/EFの演算結果に基づき、AF/AE/AWB/EF制御を行う他、信号処理IC22に対するデータフロー制御、各種キースキャン動作、ズーム制御、周辺モジュールとの通信等を行っている。
【0038】
52はCPU50の動作用の変数等を記憶するメモリである。
【0039】
54はCPU50でのプログラムの実行に応じて、文字、画像、音声等を用いて動作状態やメッセージ等を表示する液晶表示装置、スピーカー等の表示部であり、デジタルカメラ装置100の操作部近辺の視認し易い位置に単数或いは複数個所設置され、例えばLCDやLED、発音素子等の組み合わせにより構成されている。
【0040】
表示部54の表示内容としては、シングルショット/連写撮影表示、セルフタイマー表示、圧縮率表示、記録画素数表示、記録枚数表示、残撮影可能枚数表示、シャッタースピード表示、絞り値表示、露出補正表示、ストロボ表示、赤目緩和表示、マクロ撮影表示、ブザー設定表示、時計用電池残量表示、電池残量表示、エラー表示、複数桁の数字による情報表示、記録媒体200の着脱状態表示、通信I/F動作表示、日付け・時刻表示、等がある。
【0041】
56は電気的に消去・記録可能なフラッシュメモリであり、CPU50を動作させるために必要なプログラムやカメラ固有の調整データ等があらかじめ書き込まれている。
【0042】
以下主な操作手段の具体的な説明を行う。
【0043】
60は2段構造となっているモードダイヤルスイッチで、下段には電源オフ(OFF)、撮影モード、再生モードの3状態をもっている。上段には撮影時、目的・シーンに合わせてユーザが設定する各種撮影モードが割り当てられており、全自動撮影モード(AUTO)、プログラム撮影モード、シャッター速度優先撮影モード、絞り優先撮影モード、マニュアル撮影モード、パンフォーカスモード、ポートレートモード、風景モード、夜景モード、色効果モード、スティッチアシストモード、動画撮影モードの各モードを切り替え設定することが出来る。
【0044】
64はシャッタースイッチで2段階のスイッチSW1,SW2で構成されている。シャッターボタンの半押しでSW1−ONとなり、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理等の動作開始を指示する。さらにシャッターボタンの全押しによりSW2−ONとなり、撮像素子12から読み出した信号をA/D変換器16、信号処理IC30を介してDRAM30に画像データとして書き込む。次に信号処理IC22はCPU50からの指示に従って、DRAM30から画像データを読み出し、色補正、画素補間、色変換等の画像処理を行った後、圧縮処理を行い、記録媒体200に書き込む。
【0045】
68はストロボ切替SWであり、撮影時のストロボの発光モードを強制発光・非発光・自動発光に切り替える。
【0046】
72、74、76はそれぞれ、メニューキー、セットキー、十字キーであり、これらのキーの組み合わせにより、撮影時もしくは再生時の各種設定の変更もしくはファンクションの実行を画像表示部28を見ながら行うことができる。このうち十字キーは上下左右の4つの方向キーから構成される複合キーである。
【0047】
メニューキー72を一回押すことで、画像表示部28にメニュー画面を表示するようになっており、このメニュー画面は、モードダイヤルスイッチ60が指す現在のモードによって異なっている。その後表示されているメニュー項目を十字キー76を使って選択、セットキー74を押すことで決定する仕組みになっている。
【0048】
例えば、撮影モードがプログラム撮影モードとなっている際のメニュー項目としては、例えば、記録画素サイズ、圧縮率、記録形式、感度、AFモード、撮影の確認の有無、画質チューニングパラメータ等がある。
【0049】
また再生時のメニュー項目としては、画像の消去(一枚もしくは全部)、画像の保護(プロテクト)、画像の回転設定等が挙げられる。
【0050】
また、十字キー76はメニュー設定時以外にも使用される。例えばモードダイヤルスイッチ60でシャッター速度優先モードに設定されている場合には、十字キーの左右方向キーを使って、シャッター速度の変更を行えるようになっている。また再生モードにおいては画像送りを行うために左右方向キーが使われている。
【0051】
78はボタンを押す度に、サイクリックに単写/連写/セルフタイマーの切り替えを行うドライブモード切替ボタンである。70は上記以外の操作部をまとめたもので、ズームレバー、測光モード切替ボタン、マクロボタン、AEロックボタン、マルチ画面再生改ページボタン、露出補正ボタン、調光補正ボタン、日付/時間設定ボタン、パノラマモード等の撮影及び再生を実行する際に各種機能の選択及び切り替えを設定する選択/切り替えボタン、画像表示部28のON/OFFを設定する画像表示ON/OFFスイッチ等があり、メニューに含まれている項目に対して、比較的使用頻度の高いものが、この操作部に割り当てられている。
【0052】
80は電源制御部で、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成されており、電池の装着の有無、電池の種類、電池残量の検出を行い、検出結果及びCPU50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体を含む各部へ供給し、必要に応じて表示部54、画像表示部28に電池残量表示を行う。
【0053】
82及び84はコネクタ、86はアルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる電源部である。
【0054】
92はメモリカードやハードディスク等の記録媒体と接続を行うコネクタである。
【0055】
なお、本実施形態では記録媒体を取り付けるインターフェース及びコネクタを1系統持つものとして説明している。もちろん、記録媒体を取り付けるインターフェース及びコネクタは、単数或いは複数、いずれの系統数を備える構成としても構わない。また、異なる規格のインターフェース及びコネクタを組み合わせて備える構成としても構わない。
【0056】
インターフェース及びコネクタとしては、PCMCIAカードやCF(コンパクトフラッシュ(R))カード等の規格に準拠したものを用いて構成して構わない。
【0057】
98は検知SWであり、この中には、画像表示部28の表示部分をデジタルカメラ装置100に向けて格納した格納状態にあるかどうかを検知することが出来る画像表示部開閉検知手段や電池蓋が開けられたことを検出する電池蓋開閉検出手段、外部ストロボ404の装着状態検出手段等が含まれる。
【0058】
200はメモリカードやハードディスク等の記録媒体である。
【0059】
記録媒体200は、半導体メモリや磁気ディスク等から構成される記録部202、デジタルカメラ装置100とのインターフェース204、デジタルカメラ装置100と接続を行うコネクタ206を備えている。
【0060】
400は外部ストロボ装置である。本実施形態では内蔵ストロボ48の他に外部ストロボを後から装着できる構成となっており、内蔵ストロボ同様、TTL調光撮影が可能となっている。402はデジタルカメラ装置100のアクセサリーシューと接続するためのコネクタである。404は外部ストロボであり、AF補助光の投光機能、ストロボ調光機能も有する。
【0061】
図2及び図3は本実施形態のデジタルカメラ装置100の主ルーチンのフローチャートを示す。
【0062】
図2及び図3を用いて、デジタルカメラ装置100の動作を説明する。
【0063】
電池交換等の電源投入により、CPU50はフラグや制御変数等を初期化し(S201)、画像表示部28の画像表示をOFF状態に初期設定する(S202)。
【0064】
CPU50は、モードダイアル60の設定位置を判断し、モードダイアル60が電源OFFに設定されていたならば(S203)、各表示部の表示を終了状態に変更し、絞り兼用シャッター12を閉じて撮像部を保護し、フラグや制御変数等を含む必要なパラメータや設定値、設定モードをメモリ52に記録し、電源制御部80により画像表示部28を含むデジタルカメラ装置100各部の不要な電源を遮断する等の所定の終了処理を行った後(S205)、S203に戻る。
【0065】
モードダイアル60が撮影モードに設定されていたならば(S203)、S206に進む。モードダイアル60がその他のモードに設定されていたならば(S203)、CPU50は選択されたモードに応じた処理を実行し(S204)、処理を終えたならばS203に戻る。
【0066】
CPU50は、電源制御部80により電池等により構成される電源86の残容量や動作状況がデジタルカメラ装置100の動作に問題があるか否かを判断し(S206)、問題があるならば画像表示部28あるいは表示部54を用いて画像や音声により所定の警告表示を行った後に(S208)、S203に戻る。
【0067】
電源86に問題が無いならば(S206)、CPU50は記録媒体200或いは210の動作状態がデジタルカメラ装置100の動作、特に記録媒体に対する画像データの記録再生動作に問題があるか否かを判断し(S207)、問題があるならば画像表示部28あるいは表示部54を用いて画像や音声により所定の警告表示を行った後に(S208)、S203に戻る。
【0068】
記録媒体200或いは210の動作状態に問題が無いならば(S207)、S208に進む。その後、ファインダの機能として画像表示部28にスルー画像を表示するための撮影準備の初期化を行い(S208)、準備が完了したらスルー画像を画像表示部28に表示開始する(S209)。なお、スルー画像とは、撮像素子14によって撮像されている被写体像を確認するための画像のことである。
【0069】
次にスルー画像表示状態における操作時のカメラ動作について図3を参照しながら説明する。
【0070】
もしモードダイアル60が変更されていたら(S301)、S203へ飛んでダイアル状態をチェックする。変更されていなければ、次に操作部および検出SWに変化がないかをチェックし(S304)、もし変更があれば変更された個所に応じた処理を行う(S305)。
【0071】
シャッタースイッチSW1が押されていないならば(S306)、スルー画表示を継続して行うための処理を行う。さらに信号処理IC22が撮像素子14から得られた信号に対して所定の測光演算を行いその演算結果をDRAM30に格納する。CPU50はこの演算結果を元にスルー画像に対するAE・AWB処理を行う(S307)。その後S301に戻る。
【0072】
S306においてシャッタースイッチSW1が押されたならば、CPU50は、信号処理IC22で演算されDRAM30に格納されたフォーカス情報および測光用情報を元に、測距演算を行い撮影レンズ10の焦点を被写体に合わせ、測光演算を行い撮影モード毎のプログラム線図に従って得られた絞り値に絞り兼用シャッター12を制御する(S308)。次にSW2の状態をチェックする(S309)。まだSW2が押されていなければ、その後再度シャッターSW1の状態を見て(S310)シャッタースイッチSW1が離されたらS307へ戻る。SW1が押されていた場合には再びSW2の状態を監視しつづける(S309)。
【0073】
S309において、SW2が押されていた場合は、現状の測光結果及び撮影モード毎のプログラム線図を参照して、撮影時のシャッター速度・撮像出力ゲイン・ストロボ発光等の設定を最終的に決定する(S311)。さらに画像表示部28に表示していたスルー画像表示を停止する(S312)。
【0074】
次に撮影シーケンスに移行する。まず一連の撮影動作を行う単写撮影処理を実行する(S313)。撮影処理後DRAM30には、撮像素子14からA/D変換器16を通して読み出された信号処理前のデータ(以降このデータをRAWデータと呼ぶこととする)が保存されている。信号処理IC22はCPU50からの指示に従い、このRAWデータをDRAM30から読み出し、まず撮影処理で得られた色補正情報をもとに色補正を行う(S314)。次に、最終的に記録する画像データに変換する、現像圧縮処理を行い、処理後の画像データをDRAM30内に保存する(S315)。次に処理後の画像データを表示用画像に変換しDRAM30に格納する。この表示用画像データを信号処理IC22が所定のレートで読み出し、内部でD/A変換後、画像表示部28に出力することにより、確認画像表示を行う(S316)。S315でDRAM30に保存された圧縮画像データを記録媒体200へ書き込み(S317)、S307へ戻る。
【0075】
図4は本実施形態における、撮像素子14の画素の色フィルタ配置と電極配置を水平2画素分、垂直12画素分だけ示したものである。水平方向、垂直方向は、この繰り返しとなる。21は色フィルタを貼付した画素で、赤(R)と緑(G)を繰り返す水平画素ラインと、緑(G)と青(B)を繰り返す水平画素ラインとが、垂直方向に交互に配列されている。22は、垂直CCDの転送電極を示していて、垂直CCDの2転送電極毎に1画素が対応している。
【0076】
同じ数字で表している転送電極V1、V2AおよびV2B、V3、V4AおよびV4B、V5、および、V6のそれぞれに、6相駆動パルスφV1、φV2AおよびφV2B、φV3、φV4AおよびφV4B、φV5、および、φV6を加えることで、6相で転送させることができる。6相駆動パルスのうち、φV2AおよびφV2B、φV4AおよびφV4Bは、垂直CCDの電荷転送に関わるパルスは、同じものを用いるものとする。
【0077】
また、第1フィールドの読み出しパルスは、読み出し電極を兼ねた転送電極V2AおよびV2Bに加えられ、第1水平画素ライン、第4水平画素ライン、第7水平画素ラインおよび第10水平画素ラインの電荷を垂直CCDに読み出すことができる。
【0078】
第2フィールドの読み出しパルスは、読み出し電極を兼ねた転送電極V4AおよびV4Bに加えられ、第2水平画素ライン、第5水平画素ライン、第8水平画素ラインおよび第11水平画素ラインの電荷を垂直CCDに読み出すことができる。
【0079】
第3フィールドの読み出しパルスは、読み出し電極を兼ねた転送電極V6に加えられ、第3水平画素ライン、第6水平画素ライン、第9水平画素ラインおよび第12水平画素ラインの電荷を垂直CCDに読み出すことができるように構成されている。
【0080】
さらに、転送電極V2Aは、第1水平画素ラインおよび第10水平画素ラインの電荷を垂直CCDに読み出し、転送電極V2Bは、第4水平画素ラインおよび第7水平画素ラインの電荷を垂直CCDに読み出し、転送電極V4Aは、第5水平画素ラインおよび第8水平画素ラインの電荷を垂直CCDに読み出し、転送電極V4Bは、第2水平画素ラインおよび第11水平画素ラインの電荷を垂直CCDに読み出すことができるように構成されている。
【0081】
図5のタイミングチャートおよび図6の画素配置を参照して、撮影時のCCD読み出しについて説明する。撮影モードは、全ての画素の電荷を3フィールドで読み出すモードとなっていて、垂直画素数を1440画素と仮定する。VDは、垂直同期信号、メカシャッタは、開閉することで露光を制御し、電子シャッタは、固体撮像素子の基板電位にパルスを加え、画素の電荷を基板方向に抜き取ることで、露光を制御する。電子シャッタパルスが終了した時間t11からメカシャッタが閉じた時間t12までが露光時間となる。
【0082】
駆動パルスφV2AR、φV2BR、φV4AR、φV4BRおよびφV6Rは、それぞれ、φV2A、φV2B、φV4A、φV4BおよびφV6に加えられる読み出しパルスのみを示している。また、CCD出力は、撮像素子14の出力を示している。t13の時点で、φV2ARおよびφV2BRに読み出しパルスが加わるので、第1水平画素ライン(R−Gライン)、第4水平画素ライン(G−Bライン)、第7水平画素ライン(R−Gライン)および第10水平画素ライン(G−Bライン)の電荷を垂直CCDに読み出す。これを図示したのが、図6(a)となり、この電荷を出力したのが、CCD出力の第1フィールドとなる。信号は、垂直画素数の1/3が出力される。次に、t14の時点で、φV4ARおよびφV4BRに読み出しパルスが加わるので、第2水平画素ライン(G−Bライン)、第5水平画素ライン(R−Gライン)、第8水平画素ライン(G−Bライン)および第11水平画素ライン(R−Gライン)の電荷を垂直CCDに読み出す。これを図示したのが、図6(b)となり、この電荷を出力したのがCCD出力の第2フィールドとなる。信号は、垂直画素数の1/3が出力される。さらに、t15の時点でφV6Rに読み出しパルスが加わるので、第3水平画素ライン(R−Gライン)、第6水平画素ライン(G−Bライン)、第9水平画素ライン(R−Gライン)および第12水平画素ライン(G−Bライン)の電荷を垂直CCDに読み出す。これを図示したのが図6(c)となり、この電荷を出力したのがCCD出力の第3フィールドとなる。信号は、垂直画素数の1/3が出力される。出力された3フィールドの信号は、画素の配列と同じようにDRAM30に一時保存された後、信号処理回路で画像処理され、再び、DRAM30に保存される。
【0083】
従来のインターレース読み出し型の原色CCDでは、1フィールドで得られる画素はR及びG,またはG及びBのいずれか一方であり、1フィールドだけでは全ての情報が得られず、輝度情報等ホワイトバランス演算を行うために必要な情報が不足していた。これに対し、3フィールド読み出し方式では上述したように、各フィールドで読み出される画素は、R及びGからなる水平画素ライン、G及びBからなる水平画素ラインの両方を含んでいるので、全フィールドの読み出しが完了しなくとも、1フィールドの読み出しを完了する前にR,G,Bの情報が揃うので、この撮影画像に対するホワイトバランスの補正を行うことが可能となる。
【0084】
図7は単写撮影処理の詳細を示すフローチャートで、露光、シャッター閉じ、センサ読み出し、ホワイトバランス演算といった一連の動作を行うものである。
【0085】
まずCPU50は、RAWデータをDRAM30に一時保存するためのDRAM書込み設定を行う(S701)。このときのDRAM30への書き込み設定はメモリ上で連続的に書き込むのではなく3フィールド読み出し方式に従い、2ラインおきに書き込まれるように信号処理IC22内のDMAコントローラに対して設定を行う。次に、タイミング発生回路18に対して電子シャッター停止指令を出して露光を開始させるとともに、絞り兼用シャッター12のシャッター閉じタイミングを、決定したシャッター秒時に従ってCPU内蔵タイマにセットする(S702)。このCPU内蔵タイマは指定された時間が経過したところで絞り兼用メカシャッタ12を全閉するパルスを出力するように設計されている。次にメカシャッタが閉じるのを待って(S703)、閉じたらS701で設定したDRAM領域のうち、まずS701で行った書き込み設定に応じて第1フィールドに対する書き込み開始命令を発行するとともに撮像素子14から第1フィールドの撮像データを読み出すようタイミング発生器18に対して指示を出す(S704)。次に、第1フィールドのXライン目(Xライン目とはR,G,Bの全ての色情報が揃う2ライン目以上を指す)がくるのを待ち(S705)、Xライン目がきたところで信号処理IC22はDRAM30に第1フィールドの途中まで書き込まれている画像データを順に読み出してWB(ホワイトバランス)演算をスタートさせる(S706)。このときWB演算の結果得られる色補正情報は同じDRAM30内の別領域に保存されるように制御する。次にDRAM30に対する第1フィールドのRAWデータ書き込み動作の完了を待つ(S707)。完了したら、続いてS701で行った書き込み設定に応じて第2フィールドに対する書き込み開始命令を発行するとともに撮像素子14から第2フィールドの撮像データを読み出すようタイミング発生器18に対して指示を出す(S708)。
【0086】
次にDRAM30に対する第2フィールドのRAWデータ書き込み動作の完了を待って(S709)、第3フィールドに対する書き込み開始命令を発行するとともに撮像素子14から第3フィールドの撮像データを読み出すようタイミング発生器18に対して指示を出す(S710)。次にDRAM30に対する第3フィールドのRAWデータ書き込み動作の完了を待つ(S711)。
【0087】
完了したら次の撮影が迅速に行えるようにメカシャッタの開成、電子シャッター動作の再開等を行う撮影後処理を行う(S712)。さらにS706で開始したWB演算の完了を待って(S713)、完了したら撮影処理を終了する。
【0088】
なお、S705におけるXライン目の決定方法については、第1フィールドへのDRAM書き込み完了がWB演算時のDRAM読み出し完了よりも先に終わることを保障する必要がある。
【0089】
図8はX=2とした場合の、DRAMに読み出される画素とWB演算開始及び各種画像作成の様子を示したタイミングチャートである。
【0090】
図中時刻t801のタイミングでタイミング発生器18から読み出しパルスφV2AR及びφV2BRが出力されると、撮像素子の受光部に蓄積された画像データのうち図6(a)に示した画素が2ラインおきに撮像素子14、前置処理回路15、A/D変換器16、信号処理IC22を通してDRAM30へ出力される。時刻t802は第1フィールドの2ライン目までのRAWデータが読み出された時点である。このタイミングでWB演算用のメモリ読み出しが開始され時刻t804でメモリからの読み出しは完了する。そして時刻t806でWB演算を完了する。
【0091】
一方撮像素子14からの第1フィールドの読み出しは時刻t803で完了し、全画素のうち1/3が完全にDRAM30に格納される。時刻t805でタイミング発生器18から第2フィールド読み出しパルスφV4AR及びφV4BRが出力されると、受光部にあった画像データのうち図6(b)に示した画素が2ラインおきに撮像素子14、前置処理回路15、A/D変換器16、信号処理IC22を通してDRAM30へ出力され、時刻t807で第2フィールドのRAWデータ読み出しを完了する。同様に、時刻t808でタイミング発生器18から第3フィールド読み出しパルスφV6Rが出力されると、受光部にあった画像データのうち図6(c)に示した画素が2ラインおきに撮像素子14、前置処理回路15、A/D変換器16、信号処理IC22を通してDRAM30へ出力され、時刻t809で第3フィールドのRAWデータ読み出しを完了する。
【0092】
本実施形態の3フィールド読み出し型撮像素子において、
(撮像素子の駆動レート)>(WB演算時のDRAM読み出しレート)
の関係が成り立っていれば、第1フィールド撮像データのDRAM30への転送動作を、WB演算のDRAM読み出しが追い越すことはないため、Xは余裕を見て数ライン程度に設定しておけばよいことになる。
【0093】
上式の関係が成り立っていない場合は、図8において、WB演算時のメモリ読み出しに要する時間をTrとした時、
t803−t802<Tr
が成立する範囲でWB演算開始時刻t802を決定する必要がある。なぜなら、上式が成立していない場合、CCDから読み出した1フィールド分のRAWデータがDRAM30に格納が完了するより先に、WB演算のためのDRAM読み出しが終わってしまい、格納前の不定データを読み出してしまうことになるからである。もちろん、図8から明らかなように、t802がt801に近ければ近いほどWB演算を早く終了させることができる。
【0094】
以上述べたように、本実施形態においては、第1フィールドの途中からWB演算動作を開始し、撮像信号の読み出し期間内でWB演算がすでに終了するようにしたので、1フレーム分の画像データの読み出し後に特別にWB演算に要する時間を設ける必要はほとんどなく、トータルでの撮影後画像処理時間の短縮に寄与している。
【0095】
上記実施形態においては単写撮影の例をあげたが、連写撮影時においてももちろん有効である。通常連写撮影時は、WB演算は1枚目だけ行い、2枚目以降のWB係数については1枚目のものと同じものを使って処理される仕組みとなっていることが多い。この場合、従来は2枚目以降の連写間隔に対して1枚目と2枚目の間の連写間隔が長く、タイミングがとりづらかったが、本実施形態によると、第1フィールドの撮像信号読み出しと並行してWB演算を行うことにより、全フィールド読み出し完了時にはWB演算も完了するので、本実施形態により1枚目からほぼ等間隔で連写撮影を行うことができる。また、1枚目だけでなく、連写撮影の2枚目以降の撮影毎にWB演算を行うケースでもWB演算の時間は撮像信号の読み出し時間に含めることができるため、連写速度を低下させることなく実施することが可能である。
【0096】
(第2の実施形態)
上述した実施形態では、第1フィールドから得られる撮像信号を用いてWB演算を開始させ、第2フィールドの途中でWB演算が終了している。残りの撮像信号読み出し期間を利用すれば、1フレーム分の画像データ量より少ない1フィールド目に読み出された画像データを用いて画像確認表示画像(レックレビュー画)の作成や簡易縮小画像(サムネイル画)の作成を行うことが可能である。これは第1フィールドの撮像信号及びWB演算で得られた結果を元に信号処理IC22で画像変換を行い、DRAM30内の別領域に保存することで実現できる。WB演算を含め、これらの画像作成は基本的に割り込み駆動での動作が可能なように設計されており、撮像信号読み出しと並列動作させることができる。
【0097】
図9は本実施形態における、DRAMに読み出される画素とWB演算開始及び各種画像作成の様子を示したタイミングチャートである。図中時刻t901のタイミングでタイミング発生器18から読み出しパルスφV2AR及びφV2BRが出力されると、撮像素子の受光部に蓄積された画像データのうち図6(a)に示した画素が2ラインおきに撮像素子14、前置処理回路15、A/D変換器16、信号処理IC22を通してDRAM30へ出力され、時刻t902の時点で第1フィールドの2ライン目までのRAWデータが読み出された時点で、WB演算用のメモリ読み出しが開始され時刻t904でメモリからの読み出しは完了する。そして時刻t906でWB演算を完了する。
【0098】
一方撮像素子14からの第1フィールドの読み出しは時刻t903で完了し、全画素のうち1/3が完全にDRAM30に格納される。時刻t905でタイミング発生器18から第2フィールド読み出しパルスφV4AR及びφV4BRが出力されると、受光部にあったRAWデータのうち図6(b)に示した画素が2ラインおきに撮像素子14、前置処理回路15、A/D変換器16、信号処理IC22を通してDRAM30へ出力され、時刻t908で第2フィールドのRAWデータ読み出しを完了する。同様に、時刻t911でタイミング発生器18から第3フィールド読み出しパルスφV6Rが出力されると、受光部にあった画像データのうち図6(c)に示した画素が2ラインおきに撮像素子14、前置処理回路15、A/D変換器16、信号処理IC22を通してDRAM30へ出力され、時刻t912で第3フィールドのRAWデータ読み出しを完了する。
【0099】
本実施形態においては、WB演算がt906の時点で完了することを利用して、残りの時間、すなわち撮像素子からDRAM30へ画像データを転送している間に、レックレビュー表示用画像及びサムネイル画像の作成を行っている。時刻t906でレックレビュー表示用画像作成を開始するための指示がCPUから信号処理IC22に対して発行されると、信号処理IC22はDRAM30から第1フィールドのRAWデータおよび当該RAWデータからWB演算の結果得られた色補正情報を読み出して、表示を行うのに適したデータへの変換および画像サイズ調整を行い、DRAM30へ保存する(時刻t907にて完了)。この表示用画像データを繰り返し読み出して、画像表示部28へ出力することによってレックレビュー表示が実現できる。
【0100】
また一覧表示を行うためのサムネイル画像(縮小画像)の作成についても、レックレビュー表示と同様、第1フィールドのRAWデータおよび当該RAWデータからWB演算の結果得られた色補正情報を用いることができる。時刻t907でサムネイル用画像作成を開始するための指示がCPUから信号処理IC22に対して発行されると、信号処理IC22はDRAM30から第1フィールドの画像を読み出してサムネイル画像に適したデータへの変換および画像サイズ調整を行い、DRAM30へ保存する(時刻t910にて完了)。
【0101】
時刻t910でDRAM30内に1フレームのRAWデータが全て保存されたので、このRAWデータおよび第1フィールドのRAWデータからWB演算の結果得られた色補正情報を読み出して記録用画像作成のための現像圧縮処理を行い、圧縮画像データをDRAM30に保存する。
【0102】
このように本実施形態においては、撮像素子からRAWデータを読み出し、DRAMに転送している間にWB演算のみならず、レックレビュー表示用画像やサムネイル画像の作成まで行うので、さらなる撮影後の画像処理の高速化が達成でき、撮影後のレックレビュー表示も迅速に実施することができるというメリットがある。
【0103】
(第3の実施形態)
第1、第2の実施形態においては、WB演算は第1フィールドのみで行い、演算の結果得られた色補正情報を記録画像作成にも利用していたので、画面全体を垂直に1/3に間引いた画像を使って、ホワイトバランス補正をしていたことになる。しかし、1フレームが3フィールドよりさらに多くの奇数フィールド(例えば5フィールド)で撮像データの読み出しを行う場合等は、一部のフィールドだけでは正確なホワイトバランス補正が行えないケースも考えられる。本実施形態においては、レックレビュー表示用画像やサムネイル画像の作成用途として第1フィールドの画像データを用いたWB演算結果で色補正を行い、サムネイル画像などの簡易画像よりデータ量の多い本画像(記録するための画像)作成時には全てのフィールド画像データを用いてWBの演算を行い、色補正を行うことを特徴としている。
【0104】
図10は本実施形態における、DRAMに読み出される画素とWB演算開始及び各種画像作成の様子を示したタイミングチャートである。撮像素子からのRAWデータの読み出しに関しては第1、第2の実施形態と同様であるので、ここでは一部省略する。
【0105】
t1001で第1フィールドの第1フィールドの読み出しパルスφV2AR、φ2V2BRを発生後、t1002から、途中までDRAMに保存されている第1フィールドのRAWデータを読み出しながらレックレビュー表示及びサムネイル用画像用のWB演算を開始する。そしてt1006でこのWB演算を終了する。その後、第2フィールド読み出しと並行して、t1006〜t1007でレックレビュー画像の作成を行い、t1007〜t1008でサムネイル画像の作成を行っている。次にt1010にて第3フィールドの読み出しパルスφV6Rを発生した後、t1011で記録画像(本画像)用のWB演算を行う。ここでは一部のフィールドのRAWデータではなく、フレームのRAWデータを読み出してWB演算を行っている。t1012で撮像素子から第3フィールドのRAWデータがDRAMに全て格納される。そしてt1014で記録画像用WB演算が終了し、この結果得られた色補正情報を用いて記録用画像作成を開始しt1015で終了する。
【0106】
本実施形態においては、レックレビュー表示画像やサムネイル画像作成用としては一部のフィールドからなるRAWデータを使用して撮影後ホワイトバランス演算を実行することで撮影後、次に撮影するまでの時間を短縮することができる。一方、記録用画像に対しては、フレームのRAWデータを使用して撮影後ホワイトバランス演算を行うため、より正確な色補正ができるというメリットがある。
【0107】
(第4の実施形態)
上記第1乃至第3の実施形態では、3フィールド読み出し方式の撮像素子を使用したが、さらに多い奇数フィールド数からなる撮像素子においても、本発明を適用可能である。
【0108】
また、一部のフィールドから得られるRAWデータとして、第1フィールドのRAWデータを使用してWB演算を行ったが、別のフィールド、あるいは加算されたフィールドのRAWデータを使用しても構わない。
【0109】
以上説明したように、上記の第1乃至第4の実施形態によれば、撮影後ホワイトバランス演算を、撮像素子からの撮像信号の読み出し動作と並行して実行し、さらに複数フィールドのうちの一部のフィールドのみを用いて撮影後ホワイトバランス演算を行うため、撮影後、次の撮影準備状態になるまでの時間を短縮することができる。
【0110】
また、レックレビュー表示画像の作成についても当該WB演算結果を用いることで、撮像信号の読み出し動作と並行して実施できるので、撮影後、レックレビュー画が表示されるまでの時間を短縮することができる。
【0111】
また、連写撮影時においては、WB係数は2枚目以降に関しては1枚目のWB演算から得られたWB係数を使う場合および撮影毎にWB演算を行う場合のいずれのケースについても従来WB演算に要していた時間をなくすことができるので、2枚目以降の撮影間隔に対して、1枚目と2枚目の間の撮影間隔が間延びしてしまうことがなくなり、ほぼ等間隔かつ従来に比べて高速な連写撮影を行うことができるという効果がある。
【0112】
(他の実施形態)
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
【0113】
また、複数フィールドのうちの一部のフィールドのみを用いて行う撮影のための演算処理(画像処理)としてWB演算について説明してきたが、他の画像処理を行っても良い。例えば、WB演算ではなく、サムネイル画像の作成、レックレビュ−画像の作成、撮像時のビューファインダのスルー画像表示、AE処理(輝度信号生成)、AF処理、ガンマ補正処理、領域抽出処理等を行っても良い。その際に、外部色温度センサを設けて得られる色温度情報や、撮影直前のビューファインダ表示からのWB係数を用いても良い。これにより、撮像時の画像処理時間が短縮される。
【0114】
また、一部のフィールドを読み出して予め圧縮処理を行い、その結果を1フレーム分読み出し後の圧縮時に反映させることによりファイルサイズをコントロールすることも可能である。
【0115】
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0116】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0117】
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
【0118】
【発明の効果】
以上説明したように、本発明によれば、撮影時の撮像素子からの画素データを用いた処理を迅速に完了させることが可能となる。
【図面の簡単な説明】
【図1】本発明の実施形態に係わるデジタルカメラシステムの構成を示す図である。
【図2】本発明の実施形態であるデジタルカメラシステムの動作を説明するフローチャートである。
【図3】本発明の実施形態であるデジタルカメラシステムの動作を説明するフローチャートである。
【図4】本発明の実施形態であるデジタルカメラシステムにおける撮像素子の画素の色フィルタ配置と電極配置を示した模式図である。
【図5】本発明の実施形態である3フィールド読み出し型撮像素子からの画像データ読み出し時のタイミングチャートである。
【図6】本発明の実施形態である3フィールド読み出し型撮像素子からの画像データ読み出しの模式図である。
【図7】本発明の実施形態であるデジタルカメラシステムにおける単写撮影処理のタイミングチャートである。
【図8】本発明の第1の実施形態の撮像装置における撮像素子からの画像データ読み出し時のタイミングチャートである。
【図9】本発明の第2の実施形態の撮像装置における撮像素子からの画像データ読み出し時のタイミングチャートである。
【図10】本発明の第3の実施形態の撮像装置における撮像素子からの画像データ読み出し時のタイミングチャートである。
【符号の説明】
10 撮影レンズ
11 光学ファインダー
12 絞り兼用シャッター
14 撮像素子
15 前置処理回路
16 A/D変換器
18 タイミング発生器
22 信号処理IC
28 画像表示部
30 DRAM
48 内蔵ストロボ
50 CPU
52 メモリ
54 表示部
56 フラッシュメモリ
60 モードダイヤル
64 シャッタースイッチ
68 ストロボ切替SW
70 操作部
72 メニューキー
74 セットキー
76 十字キー
78 ドライブモード切替ボタン
80 電源制御回路
82 コネクタ
84 コネクタ
86 電源
100 デジタルカメラ装置
200 記録媒体
202 記録部
204 インターフェース
206 コネクタ
400 外部ストロボ装置
402 コネクタ
404 外部ストロボ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device, and more particularly, to an imaging device that performs white balance calculation after shooting.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, digital cameras that record and reproduce a still image or a moving image captured by a solid-state imaging device such as a CCD using a memory card having a solid-state memory device as a recording medium are commercially available. In these digital cameras, a photographing process for temporarily capturing output data from the image sensor into a buffer memory was performed, and an image process and a compression process were performed on the captured data, and a development compression process for storing the captured data in the buffer memory again was performed. Thereafter, a process of writing to a removable recording medium is generally performed.
[0003]
Here, various algorithms have been proposed for white balance (WB) control for a recorded image. However, the order of execution is such that after photographing, the signal processing is performed only by outputting from the image pickup device and taking in the memory. Unprocessed raw data (hereinafter referred to as RAW data) is read out, and processing using pixel data like RAW data, for example, a coefficient for each color determined by a gamma correction processing or a color filter of an image sensor is determined by a predetermined algorithm. (Hereinafter, this processing is referred to as WB calculation), white data is corrected by multiplying by a WB coefficient obtained as a result of the calculation, and then development compression processing is performed.
[0004]
By the way, the image pickup device includes a progressive scan type in which all pixels are read out line-sequentially and an interlaced readout type in which two fields are read out every other line. In recent years, the latter two fields have been further increased. As a result, a type of reading out in three fields or more fields has appeared. These multi-field readout type imaging elements have the advantage that the light receiving section can be used effectively and the number of pixels can be increased while keeping the sensor size small.
[0005]
In the conventional multiple-field reading method, the WB calculation is started after waiting for one screen of RAW data to be written to the memory (for example, see Patent Document 1).
[0006]
[Patent Document 1]
JP-A-08-265782 (page 3, paragraph (0021))
[0007]
[Problems to be solved by the invention]
However, in this method, the reading from the image sensor and the WB operation can always be performed only sequentially, so there is no time lag from when the shutter button is pressed until the start of the exposure. It took some time to get out.
[0008]
In continuous shooting, even if the WB coefficient may be the same as that of the first image, the WB calculation is performed for the first image after RAW data for one screen is stored in the buffer memory after shooting. Therefore, there has been a problem that the photographing interval of the first and second images becomes longer than the photographing interval of the second and subsequent images.
[0009]
Therefore, the present invention has been made in view of the above-described problem, and an object of the present invention is to enable a process using pixel data, such as white balance calculation, to be completed quickly at the time of photographing.
[0010]
[Means for Solving the Problems]
In order to solve the above-described problem and achieve the object, an image pickup apparatus according to the present invention is configured such that a line on which first and second color filters are arranged and a first and third color filter are arranged for a pixel. And an image sensor in which n lines (n is an odd number) form an image of one frame, and pixel data of the image sensor so as to include all color components every one field period. Imaging control means for reading out
A white balance calculating means for performing a white balance calculation based on the image data read from the image pickup device by the image pickup control means; and Control means for starting the white balance calculation by the white balance calculation means.
[0011]
Also, in the imaging apparatus according to the present invention, the imaging control means performs interlaced reading for forming an image for one frame by performing reading for every n lines in each field.
[0012]
Further, in the imaging apparatus according to the present invention, the white balance calculation means performs white balance calculation based on image data of a part of image data of a plurality of fields constituting one frame. .
[0013]
The imaging apparatus according to the present invention may further include a display unit for displaying a captured image, wherein the control unit reads the image data for one frame from the image sensor before the image data is completely read out. The display means starts displaying a captured image based on the image data of the field.
[0014]
The imaging apparatus according to the present invention may further include a reduced image forming unit that forms a reduced image having a smaller data amount than the image data for one frame, wherein the control unit controls the image data for one frame from the imaging device. Before the reading of the image is completed, the reduced image forming means forms a reduced image.
[0015]
Further, in the imaging apparatus according to the present invention, the control means executes a start of white balance calculation by the white balance calculation means before the readout operation for one field from the imaging element is completed by the imaging control means. It is characterized by.
[0016]
Further, the imaging method according to the present invention is directed to an imaging device in which a line on which first and second color filters are arranged and a line on which first and third color filters are arranged are alternately arranged for a pixel. An image pickup method using an image pickup device comprising: an image forming apparatus, wherein an image of one frame is formed in n fields (n is an odd number), and pixel data of the image pickup element is included so as to include all color components every one field period. An imaging control step for reading, and a white balance operation step of performing a white balance operation based on the image data read from the imaging element in the imaging control step, wherein one frame from the imaging element is obtained from the imaging element in the imaging control step. The white balance calculation is started before the read operation is completed.
[0017]
Further, in the imaging method according to the present invention, in the imaging control step, reading for every n lines is performed in each field, and interlaced reading for forming an image for one frame is performed.
[0018]
Further, in the imaging method according to the present invention, in the white balance calculation step, white balance calculation is performed based on image data of a part of image data of a plurality of fields constituting one frame. .
[0019]
The imaging method according to the present invention may further include a display step for displaying a captured image, wherein the display step is performed before reading of one frame of image data from the imaging element is completed in the imaging control step. Is characterized by starting display of an image.
[0020]
Further, the imaging method according to the present invention further includes a reduced image forming step of forming a reduced image having a smaller data amount than image data of one frame, and in the temporary storage step, an image of one frame from the image sensor is received from the image sensor. Before the data reading is completed, the reduced image forming step is performed.
[0021]
Further, in the imaging method according to the present invention, the white balance calculation in the white balance calculation step is started before the read operation for one field from the image sensor is completed in the imaging control step. .
[0022]
Further, a program according to the present invention causes a computer to execute the above-described imaging method.
[0023]
Further, a storage medium according to the present invention is characterized in that the above-mentioned program is stored in a computer-readable manner.
[0024]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[0025]
(1st Embodiment)
FIG. 1 is a diagram showing a configuration of a digital camera system using an image sensor of a three-field readout system according to a first embodiment of the present invention.
[0026]
In FIG. 1, reference numeral 100 denotes a digital camera device. Reference numeral 10 denotes a photographing lens, and reference numeral 11 denotes an optical finder for confirming a subject image, and the angle of view can be changed according to zoom control. Reference numeral 12 denotes an aperture / shutter having an aperture function. Reference numeral 14 denotes an image pickup device that converts an optical image into an electric signal, and uses a CCD (Charge Coupled Device). Also, a primary color mosaic filter is arranged on the element. Reference numeral 15 denotes a pre-processing circuit including a CDS (correlated double sampling) circuit and an AGC (automatic gain control) circuit for removing output noise of the image sensor 14. Reference numeral 16 denotes an A / D converter for converting an analog signal output from the preprocessing circuit 15 into a digital signal.
[0027]
Reference numeral 18 denotes a timing generation circuit (TG) for supplying a clock signal and a control signal to the image sensor 14 and the A / D converter 16, and their timing is controlled by the signal processing IC 22.
[0028]
The signal processing IC 22 performs predetermined pixel interpolation processing, color conversion processing, enlargement / reduction, and image data format conversion on the data from the A / D converter 16 or the data from the DRAM 30 according to an instruction from the CPU 50. It also has a DMA controller, a D / A converter, and a compression / decompression circuit for compressing / decompressing image data. Further, the signal processing IC 22 performs a predetermined calculation process using the captured image data, and stores the obtained calculation result in the DRAM 30. The CPU 50 performs TTL AWB (auto white balance) processing, AF (auto focus) processing, AE (auto exposure) processing, and EF (strobe pre-flash) processing based on the calculation results.
[0029]
Reference numeral 28 denotes an image display unit composed of a TFT LCD or the like. Display image data written in the DRAM 30 is displayed by the image display unit 28 via a D / A converter (not shown) inside the signal processing IC 22. The image display unit 28 is used for displaying not only images but also various information / mode setting statuses.
[0030]
The electronic viewfinder function can be realized by sequentially displaying captured image data using the image display unit 28.
[0031]
In addition, the image display unit 28 can arbitrarily turn on / off the display in accordance with an instruction from the CPU 50. When the display is turned off, the power consumption of the digital camera device 100 can be significantly reduced.
[0032]
Furthermore, the image display unit 28 is connected to the camera body by a rotatable hinge unit, and can set an arbitrary direction and angle to use the electronic finder function, the reproduction display function, and various display functions. .
[0033]
In addition, the display portion can be stored while protecting the display portion by turning the display portion of the image display portion 28 toward the camera body. In this case, the storage state is detected by the detection SW 98 and the display of the image display portion 28 is performed. Operation can be stopped.
[0034]
The DRAM 30 is a memory used for temporarily storing photographed uncompressed data, holding AF / AE / AWB / EF calculation results, holding a display image on the image display unit 28, holding compressed image data, and the like. The storage capacity is sufficient to store the number of still images and the moving images for a predetermined time.
[0035]
Reference numeral 46 denotes a connector, which is also called an accessory shoe, and includes an electrical contact with the external strobe device 400 and mechanical fixing means.
[0036]
Reference numeral 48 denotes a built-in flash having a TTL light control function.
[0037]
A CPU 50 controls the entire digital camera device 100. In addition to performing AF / AE / AWB / EF control based on the AF / AE / AWB / EF calculation results stored in the DRAM 30 by the signal processing IC 22, data flow control for the signal processing IC 22, various key scan operations, zoom control, It communicates with peripheral modules.
[0038]
Reference numeral 52 denotes a memory for storing variables for operation of the CPU 50 and the like.
[0039]
Reference numeral 54 denotes a display unit such as a liquid crystal display device, a speaker, or the like that displays an operation state, a message, or the like using characters, images, sounds, or the like in accordance with the execution of the program by the CPU 50. One or a plurality of them are installed at easily visible positions, and are configured by a combination of, for example, LCDs, LEDs, sound-generating elements, and the like.
[0040]
The display contents of the display unit 54 include a single shot / continuous shooting display, a self-timer display, a compression ratio display, a recording pixel number display, a recording number display, a remaining image number display, a shutter speed display, an aperture value display, and an exposure correction. Display, strobe display, red-eye reduction display, macro shooting display, buzzer setting display, clock battery remaining amount display, battery remaining amount display, error display, multi-digit information display, recording medium 200 attachment / detachment display, communication I / F operation display, date / time display, and the like.
[0041]
Reference numeral 56 denotes an electrically erasable / recordable flash memory in which a program necessary for operating the CPU 50, camera-specific adjustment data, and the like are written in advance.
[0042]
Hereinafter, the main operation means will be specifically described.
[0043]
Reference numeral 60 denotes a mode dial switch having a two-stage structure, and the lower stage has three states of power-off (OFF), shooting mode, and reproduction mode. At the time of shooting, various shooting modes set by the user according to the purpose and scene at the time of shooting are assigned. Fully automatic shooting mode (AUTO), program shooting mode, shutter speed priority shooting mode, aperture priority shooting mode, manual shooting. Mode, pan focus mode, portrait mode, landscape mode, night view mode, color effect mode, stitch assist mode, and moving image shooting mode.
[0044]
Reference numeral 64 denotes a shutter switch, which is composed of two-stage switches SW1 and SW2. When the shutter button is half-pressed, SW1-ON is performed, and an operation such as an AF (auto focus) process, an AE (auto exposure) process, and an AWB (auto white balance) process is instructed. Further, when the shutter button is fully pressed, SW2-ON is performed, and the signal read from the image sensor 12 is written as image data to the DRAM 30 via the A / D converter 16 and the signal processing IC 30. Next, the signal processing IC 22 reads image data from the DRAM 30 according to an instruction from the CPU 50, performs image processing such as color correction, pixel interpolation, and color conversion, performs compression processing, and writes the data to the recording medium 200.
[0045]
Reference numeral 68 denotes a flash switching switch for switching the flash mode of the flash at the time of photographing to forced flash, non-flash, or automatic flash.
[0046]
Reference numerals 72, 74, and 76 denote a menu key, a set key, and a cross key, respectively, and a combination of these keys allows a user to change various settings or execute a function during shooting or playback while viewing the image display unit 28. Can be. Among them, the cross key is a composite key composed of four direction keys of up, down, left and right.
[0047]
By pressing the menu key 72 once, a menu screen is displayed on the image display unit 28. This menu screen differs depending on the current mode indicated by the mode dial switch 60. Thereafter, the displayed menu item is selected using the cross key 76, and is determined by pressing the set key 74.
[0048]
For example, the menu items when the shooting mode is the program shooting mode include, for example, a recording pixel size, a compression ratio, a recording format, a sensitivity, an AF mode, whether or not shooting is confirmed, and an image quality tuning parameter.
[0049]
Menu items at the time of reproduction include erasing an image (one or all), protecting (protecting) an image, and setting image rotation.
[0050]
The cross key 76 is also used for other than menu setting. For example, when the mode is set to the shutter speed priority mode by the mode dial switch 60, the shutter speed can be changed using the left and right keys of the cross key. Further, in the reproduction mode, left and right direction keys are used to perform image feed.
[0051]
Reference numeral 78 denotes a drive mode switching button for cyclically switching between single shooting, continuous shooting, and a self-timer each time the button is pressed. Reference numeral 70 denotes a group of operation units other than those described above. There are a selection / switch button for setting selection and switching of various functions when executing shooting and playback in a panorama mode or the like, an image display ON / OFF switch for setting ON / OFF of the image display unit 28, and the like. Items that are relatively frequently used are assigned to this operation unit.
[0052]
Reference numeral 80 denotes a power control unit, which includes a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like. And controls the DC-DC converter based on the instruction of the CPU 50 to supply a necessary voltage to each unit including the recording medium for a necessary period, and display the remaining battery level on the display unit 54 and the image display unit 28 as necessary. Do.
[0053]
Reference numerals 82 and 84 denote connectors, and reference numeral 86 denotes a power supply unit including a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, and an AC adapter.
[0054]
Reference numeral 92 denotes a connector for connecting to a recording medium such as a memory card or a hard disk.
[0055]
In this embodiment, the interface and the connector for attaching the recording medium are described as having one system. Of course, the interface and the connector for attaching the recording medium may have a single or plural number of systems. Further, a configuration may be adopted in which interfaces and connectors of different standards are provided in combination.
[0056]
The interface and the connector may be configured using a standard such as a PCMCIA card or a CF (Compact Flash (R)) card.
[0057]
Reference numeral 98 denotes a detection switch, which includes an image display unit opening / closing detecting means for detecting whether the display portion of the image display unit 28 is stored toward the digital camera device 100 and a battery cover. Battery cover opening / closing detecting means for detecting that the electronic flash has been opened, and a mounting state detecting means for the external strobe 404.
[0058]
Reference numeral 200 denotes a recording medium such as a memory card or a hard disk.
[0059]
The recording medium 200 includes a recording unit 202 including a semiconductor memory or a magnetic disk, an interface 204 with the digital camera device 100, and a connector 206 for connecting to the digital camera device 100.
[0060]
Reference numeral 400 denotes an external strobe device. In the present embodiment, an external strobe can be mounted later in addition to the built-in strobe 48, and TTL flash photography can be performed similarly to the built-in strobe. Reference numeral 402 denotes a connector for connecting to an accessory shoe of the digital camera device 100. Reference numeral 404 denotes an external strobe, which also has an AF auxiliary light projecting function and a strobe light control function.
[0061]
2 and 3 show a flowchart of a main routine of the digital camera device 100 according to the present embodiment.
[0062]
The operation of the digital camera device 100 will be described with reference to FIGS.
[0063]
Upon power-on such as battery replacement, the CPU 50 initializes flags, control variables, and the like (S201), and initializes the image display on the image display unit 28 to the OFF state (S202).
[0064]
The CPU 50 determines the setting position of the mode dial 60, and if the power of the mode dial 60 is set to OFF (S203), changes the display of each display unit to the end state, closes the aperture / shutter 12 and captures an image. Protecting the unit, recording necessary parameters, setting values including flags and control variables, and setting modes in the memory 52, and turning off unnecessary power of each unit of the digital camera device 100 including the image display unit 28 by the power control unit 80. After performing a predetermined end process such as performing (S205), the process returns to S203.
[0065]
If the mode dial 60 has been set to the shooting mode (S203), the process proceeds to S206. If the mode dial 60 has been set to another mode (S203), the CPU 50 executes a process according to the selected mode (S204), and returns to S203 when the process is completed.
[0066]
The CPU 50 uses the power control unit 80 to determine whether or not the remaining capacity and operation status of the power supply 86 composed of a battery or the like has a problem with the operation of the digital camera device 100 (S206). After a predetermined warning is displayed by image or sound using the unit 28 or the display unit 54 (S208), the process returns to S203.
[0067]
If there is no problem in the power supply 86 (S206), the CPU 50 determines whether or not the operation state of the recording medium 200 or 210 has a problem in the operation of the digital camera device 100, particularly in the operation of recording and reproducing image data on the recording medium. (S207) If there is a problem, a predetermined warning is displayed by image or sound using the image display unit 28 or the display unit 54 (S208), and the process returns to S203.
[0068]
If there is no problem in the operation state of the recording medium 200 or 210 (S207), the process proceeds to S208. Thereafter, as a function of a finder, initialization of photographing for displaying a through image on the image display unit 28 is initialized (S208), and when the preparation is completed, display of the through image on the image display unit 28 is started (S209). The through image is an image for confirming a subject image captured by the image sensor 14.
[0069]
Next, the camera operation at the time of operation in the live view image display state will be described with reference to FIG.
[0070]
If the mode dial 60 has been changed (S301), the process jumps to S203 to check the dial state. If it has not been changed, it is next checked whether there is any change in the operation unit and the detection SW (S304), and if there is a change, a process corresponding to the changed portion is performed (S305).
[0071]
If the shutter switch SW1 has not been pressed (S306), a process for continuously displaying a through image is performed. Further, the signal processing IC 22 performs a predetermined photometric calculation on the signal obtained from the image sensor 14 and stores the calculation result in the DRAM 30. The CPU 50 performs AE / AWB processing on the through image based on the calculation result (S307). Then, the process returns to S301.
[0072]
If the shutter switch SW1 is pressed in S306, the CPU 50 performs a distance measurement operation based on the focus information and the photometric information calculated by the signal processing IC 22 and stored in the DRAM 30, and focuses the photographing lens 10 on the subject. Then, the aperture / shutter 12 is controlled to an aperture value obtained in accordance with a program diagram for each shooting mode by performing photometric calculation (S308). Next, the state of SW2 is checked (S309). If SW2 has not been pressed yet, the state of the shutter SW1 is checked again (S310), and if the shutter switch SW1 is released, the flow returns to S307. If the switch SW1 has been pressed, the state of the switch SW2 is monitored again (S309).
[0073]
If the switch SW2 has been pressed in step S309, the settings such as the shutter speed, imaging output gain, and strobe light emission at the time of photographing are finally determined with reference to the current photometric result and the program diagram for each photographing mode. (S311). Further, the display of the through image displayed on the image display unit 28 is stopped (S312).
[0074]
Next, the process proceeds to a shooting sequence. First, a single photographing process for performing a series of photographing operations is performed (S313). In the post-imaging processing DRAM 30, data before signal processing read from the imaging device 14 through the A / D converter 16 (hereinafter, this data is referred to as RAW data) is stored. The signal processing IC 22 reads the RAW data from the DRAM 30 in accordance with an instruction from the CPU 50, and performs color correction based on the color correction information obtained by the photographing process (S314). Next, development / compression processing for converting the image data into image data to be finally recorded is performed, and the processed image data is stored in the DRAM 30 (S315). Next, the processed image data is converted into a display image and stored in the DRAM 30. The signal processing IC 22 reads out the display image data at a predetermined rate, performs D / A conversion internally, and outputs the data to the image display unit 28, thereby displaying a confirmation image (S316). In S315, the compressed image data stored in the DRAM 30 is written to the recording medium 200 (S317), and the process returns to S307.
[0075]
FIG. 4 shows the color filter arrangement and the electrode arrangement of the pixels of the image sensor 14 in this embodiment for two horizontal pixels and 12 vertical pixels. This is repeated in the horizontal and vertical directions. Reference numeral 21 denotes a pixel to which a color filter is attached. Horizontal pixel lines repeating red (R) and green (G) and horizontal pixel lines repeating green (G) and blue (B) are alternately arranged in the vertical direction. ing. Reference numeral 22 denotes a transfer electrode of the vertical CCD, and one pixel corresponds to every two transfer electrodes of the vertical CCD.
[0076]
The transfer electrodes V1, V2A and V2B, V3, V4A and V4B, V5 and V6, which are represented by the same numerals, have six-phase drive pulses φV1, φV2A and φV2B, φV3, φV4A and φV4B, φV5 and φV6, respectively. , The data can be transferred in six phases. Among the six-phase driving pulses, the same pulse φV2A and φV2B, φV4A and φV4B relating to the charge transfer of the vertical CCD are used.
[0077]
Further, the read pulse of the first field is applied to the transfer electrodes V2A and V2B also serving as the read electrodes, and charges the first horizontal pixel line, the fourth horizontal pixel line, the seventh horizontal pixel line, and the tenth horizontal pixel line. It can be read out to a vertical CCD.
[0078]
The read pulse of the second field is applied to the transfer electrodes V4A and V4B also serving as read electrodes, and the charges of the second horizontal pixel line, the fifth horizontal pixel line, the eighth horizontal pixel line, and the eleventh horizontal pixel line are transferred to the vertical CCD. Can be read out.
[0079]
The readout pulse of the third field is applied to the transfer electrode V6 also serving as a readout electrode, and reads out charges of the third horizontal pixel line, the sixth horizontal pixel line, the ninth horizontal pixel line, and the twelfth horizontal pixel line to the vertical CCD. It is configured to be able to.
[0080]
Further, the transfer electrode V2A reads out the charges of the first horizontal pixel line and the tenth horizontal pixel line to the vertical CCD, and the transfer electrode V2B reads out the charges of the fourth horizontal pixel line and the seventh horizontal pixel line to the vertical CCD. The transfer electrode V4A can read the charges of the fifth horizontal pixel line and the eighth horizontal pixel line to the vertical CCD, and the transfer electrode V4B can read the charges of the second horizontal pixel line and the eleventh horizontal pixel line to the vertical CCD. It is configured as follows.
[0081]
With reference to the timing chart of FIG. 5 and the pixel arrangement of FIG. 6, CCD reading at the time of shooting will be described. The imaging mode is a mode in which charges of all pixels are read out in three fields, and the number of vertical pixels is assumed to be 1440 pixels. VD is a vertical synchronizing signal, and a mechanical shutter controls exposure by opening and closing, and an electronic shutter controls exposure by applying a pulse to the substrate potential of the solid-state imaging device and extracting charges of pixels in the direction of the substrate. The exposure time is from time t11 when the electronic shutter pulse ends to time t12 when the mechanical shutter closes.
[0082]
The drive pulses φV2AR, φV2BR, φV4AR, φV4BR, and φV6R indicate only read pulses applied to φV2A, φV2B, φV4A, φV4B, and φV6, respectively. The CCD output indicates the output of the image sensor 14. At time t13, since the read pulse is applied to φV2AR and φV2BR, the first horizontal pixel line (RG line), the fourth horizontal pixel line (GB line), and the seventh horizontal pixel line (RG line) Then, the electric charges of the tenth horizontal pixel line (GB line) are read out to the vertical CCD. This is illustrated in FIG. 6A, and the output of this charge is the first field of the CCD output. As the signal, 1/3 of the number of vertical pixels is output. Next, at time t14, since a read pulse is applied to φV4AR and φV4BR, the second horizontal pixel line (GB line), the fifth horizontal pixel line (RG line), and the eighth horizontal pixel line (G- The charges on the B line) and the eleventh horizontal pixel line (RG line) are read out to the vertical CCD. This is illustrated in FIG. 6B, and the output of this charge is the second field of the CCD output. As the signal, 1/3 of the number of vertical pixels is output. Further, since a read pulse is applied to φV6R at time t15, the third horizontal pixel line (RG line), the sixth horizontal pixel line (GB line), the ninth horizontal pixel line (RG line) and The charge of the twelfth horizontal pixel line (GB line) is read out to the vertical CCD. This is illustrated in FIG. 6 (c), and the output of this charge is the third field of the CCD output. As the signal, 1/3 of the number of vertical pixels is output. The output signals of the three fields are temporarily stored in the DRAM 30 in the same manner as the pixel array, then subjected to image processing by the signal processing circuit, and stored again in the DRAM 30.
[0083]
In a conventional interlaced read-out type primary color CCD, pixels obtained in one field are either R and G or G and B, and all information cannot be obtained only in one field, and white balance calculation such as luminance information is performed. Information needed to do this was lacking. On the other hand, in the three-field readout method, as described above, the pixels read out in each field include both the horizontal pixel line composed of R and G and the horizontal pixel line composed of G and B. Even if the reading is not completed, the information of R, G, and B is prepared before the reading of one field is completed, so that the white balance can be corrected for the captured image.
[0084]
FIG. 7 is a flowchart showing details of the single-shot shooting process, which performs a series of operations such as exposure, shutter closing, sensor reading, and white balance calculation.
[0085]
First, the CPU 50 performs a DRAM write setting for temporarily storing RAW data in the DRAM 30 (S701). At this time, the setting for writing to the DRAM 30 is not performed continuously on the memory, but is performed on the DMA controller in the signal processing IC 22 so that the data is written every two lines in accordance with a three-field reading method. Next, an electronic shutter stop command is issued to the timing generation circuit 18 to start exposure, and the shutter closing timing of the aperture / shutter 12 is set in a CPU built-in timer according to the determined shutter time (S702). The CPU built-in timer is designed to output a pulse for fully closing the aperture / mechanical shutter 12 when a specified time has elapsed. Next, the control waits for the mechanical shutter to close (S703). When the mechanical shutter closes, a write start command for the first field is first issued in the DRAM area set in S701 in accordance with the write setting performed in S701, and the image sensor 14 outputs the first command. An instruction is issued to the timing generator 18 to read out the imaging data of one field (S704). Next, the process waits for the X-th line of the first field (the X-th line indicates a second or more line in which all the color information of R, G, and B are aligned) (S705). The signal processing IC 22 sequentially reads out the image data written in the DRAM 30 up to the middle of the first field and starts a WB (white balance) operation (S706). At this time, control is performed so that the color correction information obtained as a result of the WB operation is stored in another area in the same DRAM 30. Next, it waits for the completion of the RAW data write operation of the first field to the DRAM 30 (S707). Upon completion, a write start command for the second field is issued in accordance with the write setting made in S701, and an instruction is issued to the timing generator 18 to read out the image data of the second field from the image sensor 14 (S708). ).
[0086]
Next, after the completion of the RAW data write operation of the second field to the DRAM 30 (S709), a write start command for the third field is issued, and the timing generator 18 is caused to read the third field of image data from the image sensor 14. Then, an instruction is issued (S710). Next, the process waits for completion of the third field RAW data write operation to the DRAM 30 (S711).
[0087]
Upon completion, post-photographing processing for opening the mechanical shutter, restarting the electronic shutter operation, and the like is performed so that the next photographing can be performed promptly (S712). Further, the process waits for the completion of the WB operation started in S706 (S713), and when completed, ends the photographing process.
[0088]
As for the method of determining the X-th line in S705, it is necessary to guarantee that the completion of the DRAM writing to the first field ends before the completion of the DRAM reading in the WB operation.
[0089]
FIG. 8 is a timing chart showing pixels read to the DRAM, the start of WB calculation, and the creation of various images when X = 2.
[0090]
When the readout pulses φV2AR and φV2BR are output from the timing generator 18 at the timing of time t801 in the figure, the pixels shown in FIG. The data is output to the DRAM 30 through the image sensor 14, the pre-processing circuit 15, the A / D converter 16, and the signal processing IC 22. Time t802 is the time when the RAW data up to the second line of the first field is read. At this timing, the reading of the memory for the WB operation is started, and the reading from the memory is completed at time t804. Then, the WB calculation is completed at time t806.
[0091]
On the other hand, reading of the first field from the image sensor 14 is completed at time t803, and one third of all pixels are completely stored in the DRAM 30. When the second field readout pulses φV4AR and φV4BR are output from the timing generator 18 at time t805, the pixels shown in FIG. The data is output to the DRAM 30 through the data processing circuit 15, the A / D converter 16, and the signal processing IC 22, and at time t807, the reading of the RAW data in the second field is completed. Similarly, when the third field readout pulse φV6R is output from the timing generator 18 at time t808, the pixels shown in FIG. The data is output to the DRAM 30 through the preprocessing circuit 15, the A / D converter 16, and the signal processing IC 22, and the reading of the RAW data of the third field is completed at time t809.
[0092]
In the three-field readout type imaging device of the present embodiment,
(Driving rate of image sensor)> (DRAM read rate at WB operation)
Is satisfied, the transfer operation of the first field imaging data to the DRAM 30 is not overtaken by the DRAM read operation of the WB operation. Therefore, X should be set to about several lines with a margin. become.
[0093]
In the case where the relationship of the above equation does not hold, in FIG. 8, when Tr is the time required for memory reading at the time of WB calculation,
t803-t802 <Tr
It is necessary to determine the WB calculation start time t802 in a range where the condition is satisfied. If the above equation does not hold, the DRAM reading for the WB operation is completed before the RAW data for one field read from the CCD is completely stored in the DRAM 30, and the indefinite data before the storage is stored. This is because it will be read. Of course, as is clear from FIG. 8, the closer the time t802 is to the time t801, the sooner the WB calculation can be completed.
[0094]
As described above, in the present embodiment, the WB calculation operation is started from the middle of the first field, and the WB calculation is already completed within the image signal readout period. There is almost no need to provide a special time required for the WB operation after reading, which contributes to a reduction in the total post-imaging image processing time.
[0095]
In the above-described embodiment, an example of single-shot shooting has been described, but the present invention is of course effective in continuous shooting. Usually, during continuous shooting, the WB calculation is performed only for the first image, and the WB coefficients for the second and subsequent images are often processed using the same WB coefficients as those for the first image. In this case, conventionally, the continuous shooting interval between the first and second frames is longer than the continuous shooting interval after the second frame, making it difficult to take a timing. However, according to the present embodiment, imaging of the first field is performed. By performing the WB calculation in parallel with the signal readout, the WB calculation is completed when the readout of all fields is completed. Therefore, according to the present embodiment, continuous shooting can be performed at substantially equal intervals from the first image. In addition, in the case where the WB calculation is performed not only for the first image but also for each of the second and subsequent images in the continuous shooting, the time for the WB calculation can be included in the readout time of the image pickup signal, so that the continuous shooting speed is reduced. It is possible to implement without.
[0096]
(Second embodiment)
In the above-described embodiment, the WB calculation is started using the imaging signal obtained from the first field, and the WB calculation ends in the middle of the second field. If the remaining image signal reading period is used, an image confirmation display image (rec review image) is created using the image data read in the first field, which is smaller than the image data amount for one frame, and a simplified reduced image (thumbnail) is used. Image) can be created. This can be realized by performing image conversion by the signal processing IC 22 based on the imaging signal of the first field and the result obtained by the WB operation, and storing the converted image in another area in the DRAM 30. These images, including the WB operation, are designed so that they can basically be operated by interrupt driving, and can be operated in parallel with the reading of the imaging signal.
[0097]
FIG. 9 is a timing chart showing the state of the pixels read out to the DRAM, the start of the WB calculation, and the creation of various images in this embodiment. When the read pulses φV2AR and φV2BR are output from the timing generator 18 at the timing of time t901 in the figure, the pixels shown in FIG. When the RAW data is output to the DRAM 30 through the image sensor 14, the preprocessing circuit 15, the A / D converter 16, and the signal processing IC 22, and the RAW data up to the second line of the first field is read at the time t902, Reading of the memory for the WB operation is started, and the reading from the memory is completed at time t904. Then, the WB calculation is completed at time t906.
[0098]
On the other hand, reading of the first field from the image sensor 14 is completed at time t903, and one third of all pixels are completely stored in the DRAM 30. When the second field readout pulses φV4AR and φV4BR are output from the timing generator 18 at a time t905, the pixels shown in FIG. The data is output to the DRAM 30 through the placement processing circuit 15, the A / D converter 16, and the signal processing IC 22, and at time t908, the reading of the RAW data of the second field is completed. Similarly, when the third field readout pulse φV6R is output from the timing generator 18 at the time t911, the pixels shown in FIG. The data is output to the DRAM 30 through the preprocessing circuit 15, the A / D converter 16, and the signal processing IC 22, and the reading of the RAW data in the third field is completed at time t912.
[0099]
In the present embodiment, utilizing the fact that the WB calculation is completed at the time t906, the remaining time, that is, while the image data is being transferred from the image sensor to the DRAM 30, the rec review display image and the thumbnail image are displayed. We are making. At time t906, an instruction to start creation of a rec review display image is issued from the CPU to the signal processing IC 22, and the signal processing IC 22 outputs the RAW data of the first field from the DRAM 30 and the result of the WB operation from the RAW data. The obtained color correction information is read, converted into data suitable for display, adjusted in image size, and stored in the DRAM 30 (complete at time t907). By repeatedly reading out the display image data and outputting it to the image display unit 28, a rec review display can be realized.
[0100]
Also, for the creation of a thumbnail image (reduced image) for displaying a list, the RAW data of the first field and the color correction information obtained as a result of the WB operation from the RAW data can be used, as in the rec review display. . At time t907, when an instruction to start creating a thumbnail image is issued from the CPU to the signal processing IC 22, the signal processing IC 22 reads the image of the first field from the DRAM 30 and converts it into data suitable for the thumbnail image. Then, the image size is adjusted and stored in the DRAM 30 (complete at time t910).
[0101]
At time t910, all the RAW data of one frame is stored in the DRAM 30. Therefore, the color correction information obtained as a result of the WB operation is read out from the RAW data and the RAW data of the first field, and the development for creating a recording image is performed. The compression processing is performed, and the compressed image data is stored in the DRAM 30.
[0102]
As described above, in the present embodiment, not only WB calculation but also creation of a rec review display image and a thumbnail image are performed while RAW data is read from the image sensor and transferred to the DRAM. There is an advantage that a high-speed processing can be achieved, and a rec review display after shooting can be quickly performed.
[0103]
(Third embodiment)
In the first and second embodiments, the WB calculation is performed only in the first field, and the color correction information obtained as a result of the calculation is also used for creating a recorded image. This means that the white balance was corrected using the image that was thinned out. However, when one frame reads out image data in more odd fields (for example, five fields) than three fields, accurate white balance correction may not be performed with only some fields. In the present embodiment, for the purpose of creating a rec review display image or a thumbnail image, color correction is performed using the WB operation result using the image data of the first field, and the main image (which has a larger data amount than a simple image such as a thumbnail image) It is characterized in that at the time of creation of an image for recording), WB calculation is performed using all the field image data to perform color correction.
[0104]
FIG. 10 is a timing chart showing the state of the pixels read to the DRAM, the start of the WB calculation, and the creation of various images in the present embodiment. The reading of the RAW data from the image sensor is the same as in the first and second embodiments, and therefore, a part thereof is omitted here.
[0105]
After generating the readout pulses φV2AR and φ2V2BR of the first field of the first field at t1001, from t1002, while reading the raw data of the first field stored in the DRAM up to halfway, the WB calculation for the rec review display and thumbnail image is performed. To start. Then, the WB calculation ends at t1006. Thereafter, in parallel with the second field readout, a rec review image is created from t1006 to t1007, and a thumbnail image is created from t1007 to t1008. Next, after generating a readout pulse φV6R of the third field at t1010, the WB calculation for the recorded image (main image) is performed at t1011. Here, the WB operation is performed by reading the RAW data of the frame instead of the RAW data of some fields. At t1012, all the RAW data of the third field from the image sensor is stored in the DRAM. Then, the WB calculation for the recorded image is completed at t1014, the creation of the recorded image is started using the color correction information obtained as a result, and the process ends at t1015.
[0106]
In this embodiment, a white balance calculation is performed after shooting using RAW data including a part of fields for creating a rec review display image and a thumbnail image, so that the time between shooting and the next shooting is reduced. Can be shortened. On the other hand, for a recording image, since white balance calculation is performed after shooting using the RAW data of the frame, there is an advantage that more accurate color correction can be performed.
[0107]
(Fourth embodiment)
In the first to third embodiments, the image sensor of the three-field readout method is used. However, the present invention can be applied to an image sensor having an even larger number of odd fields.
[0108]
Further, the WB operation is performed using the RAW data of the first field as the RAW data obtained from some fields, but the RAW data of another field or the added field may be used.
[0109]
As described above, according to the above-described first to fourth embodiments, the post-imaging white balance calculation is performed in parallel with the operation of reading out the image pickup signal from the image pickup device, and furthermore, one of the plurality of fields is performed. Since the white balance calculation is performed after photographing using only the field of the section, the time from photographing to the next photographing preparation state can be reduced.
[0110]
In addition, the REC review display image can be created in parallel with the image signal reading operation by using the WB operation result, so that it is possible to reduce the time from photographing until the REC review image is displayed. it can.
[0111]
Further, in continuous shooting, the WB coefficient of the conventional WB coefficient is used for both the case where the WB coefficient obtained from the WB calculation of the first image is used and the case where the WB operation is performed for each photographing for the second and subsequent images. Since the time required for the calculation can be eliminated, the photographing interval between the first and second images does not become longer than the photographing interval for the second and subsequent images. There is an effect that continuous shooting can be performed at a higher speed than in the related art.
[0112]
(Other embodiments)
The present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), but can be applied to a device including one device (for example, a copier, a facsimile machine, etc.). May be applied.
[0113]
Further, although the WB calculation has been described as the calculation process (image processing) for photographing performed using only some of the plurality of fields, other image processing may be performed. For example, instead of performing the WB calculation, a thumbnail image is created, a rec-review image is created, a through image is displayed on a viewfinder at the time of imaging, AE processing (luminance signal generation), AF processing, gamma correction processing, area extraction processing, and the like are performed. May be. At this time, color temperature information obtained by providing an external color temperature sensor or a WB coefficient from a viewfinder display immediately before shooting may be used. Thereby, the image processing time at the time of imaging is reduced.
[0114]
It is also possible to control the file size by reading out some fields, performing compression processing in advance, and reflecting the result at the time of compression after reading out one frame.
[0115]
Further, an object of the present invention is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and a computer (or a CPU or a CPU) of the system or the apparatus. Needless to say, the present invention can also be achieved by an MPU) reading and executing a program code stored in a storage medium. In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.
[0116]
Further, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is executed based on the instruction of the program code. It goes without saying that the CPU included in the expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
[0117]
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.
[0118]
【The invention's effect】
As described above, according to the present invention, it is possible to quickly complete processing using pixel data from an image sensor at the time of shooting.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a digital camera system according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating an operation of the digital camera system according to the embodiment of the present invention.
FIG. 3 is a flowchart illustrating an operation of the digital camera system according to the embodiment of the present invention.
FIG. 4 is a schematic diagram showing a color filter arrangement and an electrode arrangement of pixels of an image sensor in a digital camera system according to an embodiment of the present invention.
FIG. 5 is a timing chart at the time of reading image data from a three-field readout type imaging device according to an embodiment of the present invention.
FIG. 6 is a schematic diagram of image data readout from a three-field readout type imaging device according to an embodiment of the present invention.
FIG. 7 is a timing chart of a single shooting process in the digital camera system according to the embodiment of the present invention.
FIG. 8 is a timing chart at the time of reading image data from an imaging element in the imaging device according to the first embodiment of the present invention.
FIG. 9 is a timing chart at the time of reading image data from an imaging element in an imaging device according to a second embodiment of the present invention.
FIG. 10 is a timing chart at the time of reading image data from an imaging device in an imaging device according to a third embodiment of the present invention.
[Explanation of symbols]
10 Shooting lens
11 Optical viewfinder
12 Aperture shutter
14 Image sensor
15 Preprocessing circuit
16 A / D converter
18 Timing generator
22 Signal Processing IC
28 Image display section
30 DRAM
48 Built-in flash
50 CPU
52 memory
54 Display
56 flash memory
60 Mode dial
64 shutter switch
68 Flash switch SW
70 Operation unit
72 Menu key
74 Set key
76 Four-way controller
78 Drive mode switching button
80 Power supply control circuit
82 Connector
84 Connector
86 power supply
100 Digital camera device
200 recording medium
202 Recorder
204 interface
206 Connector
400 External strobe device
402 Connector
404 External strobe

Claims (16)

画素に対して色フィルタの第1、第2、第3の色成分が1フィールドで出力される撮像素子と、
nフィールド(nは3以上の奇数)で1フレームの画像を形成すると共に、1フィールド期間毎に全ての色成分を含むように前記撮像素子の画素データを読み出す撮像制御手段と、
該撮像制御手段により前記撮像素子から読み出された画素データに基づいて処理を行う処理手段と、
前記処理手段は、前記撮像制御手段によって撮像素子から1フレーム分の読み出し動作が完了する前に、前記処理の開始を実行することを特徴とする撮像装置。
An image sensor that outputs first, second, and third color components of a color filter for one pixel in one field;
imaging control means for forming an image of one frame in n fields (n is an odd number of 3 or more) and reading out pixel data of the image sensor so as to include all color components every field period;
Processing means for performing processing based on pixel data read from the imaging element by the imaging control means;
An image pickup apparatus, wherein the processing means executes the start of the processing before the reading operation for one frame from the image sensor is completed by the image pickup control means.
前記処理手段は、
前記処理手段は、該撮像制御手段により前記撮像素子から読み出された画素データに基づいてホワイトバランス演算を行ない、
前記撮像制御手段によって撮像素子から1フレーム分の読み出し動作が完了する前に、ホワイトバランス演算の開始を実行することを特徴とする請求項1の撮像装置。
The processing means includes:
The processing means performs a white balance calculation based on the pixel data read from the imaging device by the imaging control means,
2. The image pickup apparatus according to claim 1, wherein a white balance calculation is started before a read operation for one frame from the image pickup device is completed by the image pickup control means.
前記撮像制御手段は、nラインごとの読み出しを各フィールドにおいて行い、1フレーム分の画像を形成するインターレース読み出しを行うことを特徴とする請求項1に記載の撮像装置。The imaging apparatus according to claim 1, wherein the imaging control unit performs interlace reading for forming an image for one frame by performing reading for every n lines in each field. 前記処理手段は、1フレームを構成する複数フィールドの画像データのうちの少なくとも1つのフィールドの画像データに基づいてホワイトバランス演算を行なうことを特徴とする請求項2に記載の撮像装置。3. The imaging apparatus according to claim 2, wherein the processing unit performs a white balance operation based on image data of at least one field among image data of a plurality of fields forming one frame. 撮影画像を表示するための表示手段を更に具備し、前記処理手段は、前記撮像素子から1フレーム分の画像データ読み出しが完了する前に、既に読み出されたフィールドの画像データに基づいて前記表示手段に撮影画像の表示を開始させることを特徴とする請求項1に記載の撮像装置。A display unit for displaying a captured image, wherein the processing unit performs the display based on the image data of the field that has been already read before reading of one frame of image data from the image sensor is completed. 2. The image pickup apparatus according to claim 1, wherein said means starts displaying a photographed image. 1フレーム分の画像データよりデータ量の少ない縮小画像を形成する縮小画像形成手段を更に具備し、前記処理手段は、前記撮像素子から1フレーム分の画像データの読み出しが完了する前に、前記縮小画像形成手段に縮小画像を形成させることを特徴とする請求項1に記載の撮像装置。The image processing apparatus further includes a reduced image forming unit that forms a reduced image having a smaller data amount than the image data for one frame, wherein the processing unit performs the reduction before the reading of the image data for one frame from the imaging device is completed. The imaging apparatus according to claim 1, wherein the image forming unit forms a reduced image. 前記処理手段は、前記撮像制御手段によって撮像素子から1フィールド分の読み出し動作が完了する前に、前記処理手段によるホワイトバランス演算の開始を実行することを特徴とする請求項2記載の撮像装置。3. The image pickup apparatus according to claim 2, wherein the processing unit executes a start of white balance calculation by the processing unit before the reading operation for one field from the image sensor is completed by the imaging control unit. 画素に対して色フィルタの第1、第2、第3の色成分が1フィールドで出力される撮像素子を備える撮像装置を用いた撮像方法であって、
nフィールド(nは3以上の奇数)で1フレームの画像を形成すると共に、1フィールド期間毎に全ての色成分を含むように前記撮像素子の画素データを読み出す撮像制御工程と、
該撮像制御工程において前記撮像素子から読み出された画素データに基づいて処理を行う処理工程とを具備し、
該撮像制御工程において前記撮像素子から1フレーム分の読み出し動作が完了する前に、前記処理の開始を実行することを特徴とする撮像方法。
An imaging method using an imaging device including an imaging element that outputs first, second, and third color components of a color filter to a pixel in one field,
an imaging control step of forming an image of one frame in n fields (n is an odd number of 3 or more) and reading pixel data of the imaging element so as to include all color components every field period;
A processing step of performing processing based on the pixel data read from the imaging element in the imaging control step,
In the imaging control step, the start of the processing is executed before the reading operation for one frame from the imaging element is completed.
該処理工程は、該撮像制御工程において前記撮像素子から読み出された画素データに基づいてホワイトバランス演算を行ない、
前記撮像制御工程において前記撮像素子から1フレーム分の読み出し動作が完了する前に、前記ホワイトバランス演算の開始することを特徴とする撮像方法。
The processing step performs a white balance calculation based on the pixel data read from the imaging device in the imaging control step,
An image pickup method, wherein the white balance calculation is started before a read operation for one frame from the image pickup device is completed in the image pickup control step.
前記撮像制御工程において、nラインごとの読み出しを各フィールドにおいて行い、1フレーム分の画像を形成するインターレース読み出しを行うことを特徴とする請求項8に記載の撮像方法。9. The image pickup method according to claim 8, wherein in the image pickup control step, reading for every n lines is performed in each field, and interlaced reading for forming an image for one frame is performed. 前記処理工程では、1フレームを構成する複数フィールドの画像データのうちの少なくとも1つのフィールドの画像データに基づいてホワイトバランス演算を行なうことを特徴とする請求項9に記載の撮像方法。The imaging method according to claim 9, wherein in the processing step, a white balance operation is performed based on image data of at least one field among image data of a plurality of fields forming one frame. 撮影画像を表示するための表示工程を更に具備し、前記撮像制御工程において前記撮像素子からの1フレーム分の画像データ読み出しが完了する前に、前記表示工程による画像の表示を開始することを特徴とする請求項8に記載の撮像方法。A display step for displaying a captured image, wherein display of an image by the display step is started before reading of one frame of image data from the image sensor is completed in the imaging control step. The imaging method according to claim 8, wherein 1フレーム分の画像データよりデータ量の少ない縮小画像を形成する縮小画像形成工程を更に具備し、前記一時記憶工程において前記撮像素子からの1フレーム分の画像データの読み出しが完了する前に、前記縮小画像形成工程を行なうことを特徴とする請求項8に記載の撮像方法。The method further includes a reduced image forming step of forming a reduced image having a smaller data amount than the image data of one frame, and before the reading of the image data of one frame from the imaging device is completed in the temporary storage step, 9. The imaging method according to claim 8, wherein a reduced image forming step is performed. 前記撮像制御工程において前記撮像素子から1フィールド分の読み出し動作が完了する前に、前記処理工程におけるホワイトバランス演算の開始を実行することを特徴とする請求項9記載の撮像方法。10. The imaging method according to claim 9, wherein the white balance calculation in the processing step is started before the reading operation for one field from the imaging element is completed in the imaging control step. 請求項8に記載の撮像方法をコンピュータに実行させることを特徴とするプログラム。A program for causing a computer to execute the imaging method according to claim 8. 請求項15に記載のプログラムをコンピュータ読み取り可能に記憶したことを特徴とする記憶媒体。A storage medium storing the program according to claim 15 in a computer-readable manner.
JP2003125316A 2002-05-01 2003-04-30 Imaging apparatus, imaging method, program, and storage medium Pending JP2004032713A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003125316A JP2004032713A (en) 2002-05-01 2003-04-30 Imaging apparatus, imaging method, program, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002129797 2002-05-01
JP2003125316A JP2004032713A (en) 2002-05-01 2003-04-30 Imaging apparatus, imaging method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2004032713A true JP2004032713A (en) 2004-01-29

Family

ID=31190038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003125316A Pending JP2004032713A (en) 2002-05-01 2003-04-30 Imaging apparatus, imaging method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2004032713A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009033408A (en) * 2007-07-26 2009-02-12 Fujifilm Corp Imaging apparatus and post view image generation method therefor
JP2009159056A (en) * 2007-12-25 2009-07-16 Nikon Corp Image capturing apparatus
KR101603976B1 (en) * 2014-10-22 2016-03-16 주식회사 솔박스 Method and apparatus for concatenating video files

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009033408A (en) * 2007-07-26 2009-02-12 Fujifilm Corp Imaging apparatus and post view image generation method therefor
JP2009159056A (en) * 2007-12-25 2009-07-16 Nikon Corp Image capturing apparatus
US8767086B2 (en) 2007-12-25 2014-07-01 Nikon Corporation Image capturing apparatus
KR101603976B1 (en) * 2014-10-22 2016-03-16 주식회사 솔박스 Method and apparatus for concatenating video files

Similar Documents

Publication Publication Date Title
JP4035543B2 (en) Imaging device
JP2010193007A (en) Imaging apparatus
JP5460180B2 (en) Imaging apparatus and control method thereof
JP3854833B2 (en) Imaging apparatus, signal processing method thereof, program, and storage medium
US7671896B2 (en) Image sensing apparatus
JP2005167697A (en) Electronic camera having red-eye correction function
US7433099B2 (en) Image sensing apparatus, image sensing method, program, and storage medium
US20040032490A1 (en) Image sensing apparatus, image sensing method, program, and storage medium
JP5094665B2 (en) Imaging apparatus, control method thereof, and program
JP2009065320A (en) Imaging device
JP3625371B2 (en) Image processing apparatus, control method for image processing apparatus, and storage medium
JP4574087B2 (en) Imaging apparatus, control method thereof, control program thereof, and storage medium
JP2005260879A (en) Digital camera
JP4948011B2 (en) Imaging apparatus, control method therefor, computer program, and storage medium
JP2004032713A (en) Imaging apparatus, imaging method, program, and storage medium
JP2004186866A (en) Image recording apparatus
JP2004096328A (en) Electronic camera
JP4986588B2 (en) Imaging apparatus and control method thereof
JP4838644B2 (en) Imaging apparatus, control method thereof, and program
JP2000156802A (en) Image pickup device, its signal processing method and storage medium
JP4818158B2 (en) Image processing apparatus, control method therefor, and computer program
JPH11112841A (en) Digital camera
JP4667251B2 (en) Imaging apparatus and white balance control method
JP2007166024A (en) Imaging apparatus and control method thereof
JP2005229538A (en) Digital camera system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070423

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070925