JP3843924B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP3843924B2 JP3843924B2 JP2002285807A JP2002285807A JP3843924B2 JP 3843924 B2 JP3843924 B2 JP 3843924B2 JP 2002285807 A JP2002285807 A JP 2002285807A JP 2002285807 A JP2002285807 A JP 2002285807A JP 3843924 B2 JP3843924 B2 JP 3843924B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- flash
- light emission
- image
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 title claims description 60
- 238000009825 accumulation Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 53
- 238000000034 method Methods 0.000 description 29
- 230000035945 sensitivity Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 14
- 238000012937 correction Methods 0.000 description 9
- 230000000875 corresponding effect Effects 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 7
- 230000006835 compression Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 239000003086 colorant Substances 0.000 description 5
- 230000006837 decompression Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005375 photometry Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 239000003990 capacitor Substances 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- GGCZERPQGJTIQP-UHFFFAOYSA-N sodium;9,10-dioxoanthracene-2-sulfonic acid Chemical compound [Na+].C1=CC=C2C(=O)C3=CC(S(=O)(=O)O)=CC=C3C(=O)C2=C1 GGCZERPQGJTIQP-UHFFFAOYSA-N 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Transforming Light Signals Into Electric Signals (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
- Stroboscope Apparatuses (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、受光部の全画素の画像信号を複数のフィールドに分けてフィールドごとに読み出す全画素読み出しタイプの撮像装置に関する。
【0002】
【従来の技術】
近年、デジタルカメラの受光部における画素数が飛躍的に高くなっている。その一方で、受光部全体のサイズは画素数に応じて増大させないために、受光部における画素密度の増大によって各単位受光素子(単位CCDセル)の受光面積が小さくなってしまい、その結果として撮像感度が低下することとなる。そこで、このような感度の低下を防ぐために、光電変換機能に寄与しない領域としての受光部の電荷転送路の面積を縮小させる技術が知られている。しかしながら、電荷転送路の面積を縮小させると受光部の全ラインの電荷信号を並列的に一度に読み出すことが困難になるといった問題が生じるため、この問題を解決するために、全画素の電荷信号を複数のフィールドに分けてフィールドごとに順次に読み出す方式が採用される。
【0003】
このように、デジタルカメラに代表されるデジタル撮像装置においては、複数のフィールドに分けて全画素の画像信号をフィールドごとに読み出す方式(以下、「フィールド順次の全画素読み出し方式」と称す)が採用され、現在のところ1フレームを2フィールドに分けて全画素を読み出すタイプが一般的である。しかし、1フレームを3フィールドや4フィールドに分けて全画素を読み出すタイプが発表されるなど、1フレームをより多くのフィールドに分けて全画素を読み出す方式が拡大していくと推測される。
【0004】
一般的な2フィールド読み出しタイプの撮像素子では、隣接する画素のラインを同一フィールドの画像信号として読み出すことができないため、ベイヤー配列等を採用するカラーフィルターにおいては、図11や図12に示すように、第1フィールド画像のみ、または第2フィールド画像のみで全色の色情報を取得するのは不可能である。したがって、通常撮影を行う際には、全色の色情報を取得するために、全フィールドの画像データの読み出しが終了した後に、その画像データから全色情報を取得する必要がある。
【0005】
ところで、このような撮像素子を用いた撮像装置では、フラッシュを発光させて撮影を行うフラッシュ撮影を行う際に、フラッシュの発光量を変化させて、複数の露光条件で複数回の撮影を連続で行うブラケット撮影(以下、「フラッシュブラケット撮影」と称する)が行われている(例えば、特許文献1、2)。
【0006】
また、フラッシュ撮影時には、主たる被写体(主被写体)の光学的な反射率は高いが、背景の光学的な反射率は低い等といった、適正露出を得難い撮影条件に遭遇することも多い。このような撮影条件で通常のフラッシュ撮影を行った場合は、主被写体の反射率を重要視して撮影を行うため、主被写体の露出は適正なものの、背景などが暗くなり、背景などの細部が黒く潰れてしまう、いわゆる”黒潰れ”の発生を招きがちである。さらに、主被写体以外に非常に明るい部分があると、その箇所が一様に白っぽくなる、いわゆる”白潰れ”の発生も招きがちである。そして、撮像素子の持つダイナミックレンジが銀塩フィルムよりも狭いことが多いため、デジタル撮像装置では上述した黒潰れや白潰れの発生頻度は顕著になる傾向にある。
【0007】
このような問題点を解決する方策としては、従来より、複数の露出条件の異なる画像を整合性良く合成することによって、白潰れおよび黒潰れが発生した部分の階調を整えた画像を生成することができる撮影装置が提案されている(例えば、特許文献3、4)。
【0008】
このような技術に関する先行技術文献としては、以下のようなものがある。
【0009】
【特許文献1】
特開平5−196985号公報
【特許文献2】
特開2000−75371号公報
【特許文献3】
特開2000−69355号公報
【特許文献4】
特開2002−84449号公報
【特許文献5】
特開平9−46582号公報
【0010】
【発明が解決しようとする課題】
しかしながら、上述したフラッシュブラケット撮影や、階調の整った画像を生成する撮影については、画素数の多い撮像素子を用いた場合は、露出条件の異なる複数の画像を取得するためには相当の時間を要するため、被写体の位置や周囲の環境等が刻々と変化する撮影条件に適用することが困難であった。
【0011】
特に、白潰れおよび黒潰れが発生した部分の階調を整えた画像を生成するための撮影については、複数の画像を合成するため、ほとんど静止しているような被写体を撮影する場合にも、撮影者の手ぶれなどの影響で、生成される画像がぼけた画像になりやすいといった問題点があった。
【0012】
また、フラッシュ撮影において露出条件を変化させるためには複数回にわたってフラッシュを発光させなければならず、エネルギー消費量が高くなるといった欠点も有していた。
【0013】
さらに、一般的なコンパクトカメラについては、カメラの大型化を招かずに、フラッシュ機能を付加させるために、フラッシュの発光量にはある程度の限界を生じる。よって、フラッシュ撮影時のフラッシュ光の到達距離は短く、被写体までの距離が長い場合は、十分な感度を有する撮影画像を得ることが困難であるといった問題点もあった。
【0014】
本発明は、上記課題に鑑みてなされたものであり、フラッシュ撮影時に被写体に応じた種々の撮影画像や適正な撮影画像を容易に取得可能な撮像装置を提供することを目的とする。
【0015】
【課題を解決するための手段】
上記の課題を解決するために、請求項1の発明は、発光部を有する撮像装置であって、(a)撮影の際に受光部に蓄積される電荷信号を、前記受光部の画素配列を複数のフィールドに分けて読み出し可能な撮像手段と、(b)前記発光部が第1の発光を行うとともに、前記第1の発光後、前記複数のフィールドのうちの第1のフィールドから電荷信号を読み出す際に、前記発光部が第2の発光を行うように制御する発光制御手段と、(c)前記第2の発光前において前記受光部に蓄積される電荷信号を前記第1のフィールドから読み出すことによって得られる第1の画像データと、前記第2の発光前後において前記受光部に蓄積される電荷信号を前記複数フィールドのうちの第2のフィールドから読み出すことによって得られる第2の画像データとに基づいて、所定の画像データを生成する画像生成手段とを備えることを特徴とする。
【0016】
また、請求項2の発明は、請求項1に記載の撮像装置であって、前記受光部の画素配列が、色フィルタ配列を有し、前記第1および第2のフィールドのそれぞれが、前記色フィルタ配列の全色成分を含むことを特徴とする。
【0017】
また、請求項3の発明は、請求項1または請求項2に記載の撮像装置であって、前記画像生成手段が、前記第1の画像データにおける画素値と、前記第2の画像データにおける画素値とを加算処理することによって、前記所定の画像データを生成することを特徴とする。
【0018】
また、請求項4の発明は、請求項1または請求項2に記載の撮像装置であって、前記画像生成手段が、前記第1の画像データにおける画素値と、前記第2の画像データにおける画素値とについて、階調特性を変換しつつ加算処理することによって、前記所定の画像データを生成することを特徴とする。
【0019】
また、請求項5の発明は、請求項1から請求項4のいずれかに記載の撮像装置であって、前記第1の発光における発光量と、前記第2の発光における発光量とが異なることを特徴とする。
【0020】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0021】
<(1)第1実施形態>
<(1-1)撮像装置の要部構成>
図1は、本発明の第1実施形態に係る撮像装置1Aを示す斜視図である。また、図2は、撮像装置1Aの背面図である。なお、図1および図2には方位関係を明確にするためにお互いに直交するX,Y,Zの三軸を示している。
【0022】
撮像装置1Aの前面側には、撮影レンズ11とファインダ窓13と発光する部位である内蔵フラッシュ7とが設けられている。撮影レンズ11の内側には撮影レンズ11を介して入射する被写体像を光電変換して画像信号を生成する撮像素子であるCCD(Charge Coupled Device)2が設けられている。
【0023】
撮影レンズ11には光軸方向に沿って駆動可能なレンズ系が含まれており、当該レンズ系を光軸方向に駆動することにより、CCD2に結像される被写体像の合焦状態を実現することができるように構成されている。
【0024】
撮像装置1Aの上面側には、シャッターボタン14と、モード切替ボタン15とが配置されている。シャッターボタン14は被写体の撮影を行うときにユーザが押下操作を行って撮像装置1Aに撮影指示を与えるボタンである。
【0025】
モード切替ボタン15は、被写体を撮影するための「撮影モード」、撮影画像などをLCD18に再生表示する「再生モード」などのモード切替えを行うためのボタンである。なお、電源ONの状態で撮影モードに切り替えられると、撮影可能な状態である撮影待機状態となる。
【0026】
撮像装置1Aの側面部には、ユーザによるシャッターボタン14の押下操作に伴う本撮影動作で得られる画像データを記憶するためのメモリカード9を着装する着装部16が形成されている。さらに、着装部16からメモリカード9を取り出す際に押下するカード取り出しボタン17が配置されており、着装部16からメモリカード9を取り出すことができる。
【0027】
撮像装置1Aの背面には、本撮影前に被写体を動画的態様で表示するライブビュー表示や、撮影した撮影画像等の表示を行うための液晶ディスプレイ(LCD)18と、シャッタースピードなど撮像装置1Aの各種設定状態を変更するための操作ボタン19と、ファインダ窓13とが設けられている。
【0028】
ここでは、ユーザーが操作ボタン19を種々操作することによって、撮影時における内蔵フラッシュ7の発光を制御するモード(以下、「フラッシュ制御モード」と称する)、および内蔵フラッシュ7を発光させて撮影するフラッシュ撮影において特殊な撮影を行うための「特殊撮影モード」等を設定することができる。
【0029】
フラッシュ制御モードには、撮影時に内蔵フラッシュ7を必ず発光させる「強制発光モード」と、撮影時に内蔵フラッシュ7を発光させない「発光禁止モード」と、内蔵フラッシュ7の発光を撮像装置1Aの判断に任せる「自動発光モード」とがある。内蔵フラッシュ7の発光制御についてはさらに後述する。
【0030】
また、特殊撮影モードには、フラッシュ撮影時に高感度の撮影画像を取得する「高感度モード」と、フラッシュ撮影時に短時間で露光条件の異なる複数の画像を取得する「フラッシュブラケットモード」と、被写体の輝度差が大きい場合に黒潰れや白潰れなどの発生を防止する「適正階調モード」とがある。なお、ここで挙げた特殊撮影モードにおけるフラッシュ撮影を行うためには、内蔵フラッシュ7を発光させることが必要であるため、特殊撮影モードにおける撮影動作を実施するためには、フラッシュ制御モードが強制発光モードまたは自動発行モードに設定される必要性がある。
【0031】
本発明の特徴部分である特殊撮影モードにおけるフラッシュ撮影に関しては、後程詳述する。
【0032】
図3は、撮像装置1Aの機能ブロックを示す図である。図4は、撮像装置1Aにおける画像信号等の流れを説明するための図である。
【0033】
撮像装置1Aは、CCD2にデータ伝送可能に接続するAFE(アナログフロントエンド)3と、AEF3と伝送可能に接続する画像処理ブロック4と、これら各部を統括制御するカメラマイコン5とを備えている。
【0034】
CCD2は、撮影レンズ11に対向する面に受光部2aが設けられており、この受光部2aには複数の画素が配列されている。受光部2aを構成する画素配列は、3つのフィールドに分けられており、CCD2は、本撮影の際に、各画素に蓄積される電荷信号(画像信号)を、フィールドごとに順次に読出し可能な構成となっている。また、CCD2は、本撮影前の撮影待機状態において、プレビュー用となるライブビュー画像を生成するための撮影(以下、「ライブビュー撮影」と称する)を行うべく、高速で信号を読み出すモード(以下、「高速読み出しモード」と称する)を有している。
【0035】
ここで、CCD2における電荷信号の読み出し方法を説明する。
【0036】
図5は、本撮影におけるCCD2の電荷信号の読み出し方法を説明するための図であり、図6は、CCD2の高速読み出しモードを説明するための図である。実際には数百万以上の画素が配列されているが、図示の便宜上、その一部のみが示されている。なお、図5および図6には、受光部2aにおいて、垂直方向および水平方向における画素位置を明確に表現するため、互いに直交するI、Jの2軸を付している。
【0037】
図5および図6に示すように、受光部2aには、画素配列に対応するカラー(色)フィルタ配列が設けられている。即ち、受光部2aがカラーフィルタ配列を有している。このカラーフィルタ配列は、周期的に分布する赤(R)、緑(Gr、Gb)および青(B)のカラーフィルタ、すなわち互いに色の異なる3種類のカラーフィルターで構成されている。
【0038】
CCD2の各セルに蓄積された電荷信号を読出す場合には、まず図5(a)に示すように、受光部2aにおいてJ方向に対して順に並ぶ1、4、7、・・の各ライン、すなわち3n+1ライン目(nは整数)を第1フィールド21として、第1フィールド21から電荷信号が読出されて、第1フィールド画像データ210が構成される。次に、図5(b)に示すように、受光部2aにおいてJ方向に対して順に並ぶ2、5、8、・・の各ライン、すなわち3n+2ライン目を第2フィールド22として、第2フィールド22から電荷信号が読出されて、第2フィールド画像データ220が構成される。最後に、図5(c)に示すように、受光部2aにおいてJ方向に順に並ぶ3、6、9、・・の各ライン、すなわち3nライン目を第3フィールド23として、第3フィールド23から電荷信号が読出されて、第3フィールド画像データ230が構成される。このような電荷読出し方法により、第1〜第3フィールド21〜23のそれぞれには、カラーフィルタ配列の全色成分、すなわちRGB全種類のカラーフィルタが設けられたRGB全色の画素が含まれることとなる。
【0039】
一方、高速読み出しモードにおいては、例えば、図6に示すように、受光部2aにおいて2、7、10、・・の各ラインの電荷信号が読出され、画像データ(高速読み出し画像データ)を取得する。すなわち、水平ラインが1/4間引きされた状態で読み出されるのである。そして、図6に示すように、高速読み出し画像データには、カラーフィルタ配列の全色成分、すなわちRGB全種類のカラーフィルタが設けられたRGB全色の画素についてのデータが含まれる。
【0040】
図3および図4に戻って説明を続ける。
【0041】
AFE3は、信号処理部31と、信号処理部31にタイミング信号を送るTG(タイミング発生器)32とを備えるLSI(大規模集積回路)として構成されている。このTG32は、CCD2にCCD駆動信号を送り、この駆動信号に同期してCCD2から電荷信号が出力されることとなる。
【0042】
信号処理部31は、CDS(相関2重サンプリング器)311、アンプ部として働くPGA(Programmable-Gain-Amplifier)312、およびADC(A/D変換器)313を有している。CCD2から出力された各フィールドの出力信号は、TG32からのサンプリング信号に基づきCDS311でサンプリングされ、PGA312で所望の増幅が行われる。このPGA312は、カメラマイコン5からのシリアル交信を介して数値データにて増幅率の変更が可能であるとともに、セレクタ46から送られるAE・WB制御値に基づき画像信号の補正が可能な構成となっている。そして、PGA312で増幅されたアナログ信号はADC313で、例えば、10ビットのデジタル信号に変換された後、画像処理ブロック4に送られる。
【0043】
画像処理ブロック4は、画像メモリ41と、画像メモリ41に伝送可能に接続するAE・WB演算器42および画像処理部43と、圧縮/伸張部45とを有している。
【0044】
画像メモリ41は、例えば半導体メモリで構成され、ADC313でデジタル変換された各フィールド画像データ210〜230を一時的に格納する部位である。そして、全てのフィールドの画像データが、画像メモリ41に格納された後、一枚の全画素画像を生成するために、画像処理部43に送られる。
【0045】
また、画像メモリ41は、ADC313でデジタル変換された高速読み出し画像データも一時的に格納し、ライブビュー画像を生成するために、画像処理部43に送る。さらに、画像メモリ41に格納された高速読み出し画像データは、AE・WB演算器42にも送られる。
【0046】
AE・WB演算器42は、画像メモリ41から送られてくる高速読み出し画像データに基づいて、自動露出補正(AE)およびホワイトバランス(WB)補正を行うための値(AE制御値およびWB制御値)を算出する。
【0047】
例えば、まず、高速読み出し画像データを、複数のブロックに分割し、各ブロックごとに測光データを算出する多分割測光を行い、被写体輝度を検出する。なお、被写体輝度検出の具体的処理としては、R,G,Bで与えられる画像データによって規定される各画素ごとの各色成分値(各色成分ごとの輝度値)を画像全体に対して平均して、0から1023までの整数値に対応させて被写体輝度値として算出する。そして、AEについては、算出した被写体輝度値に基づいて、適正露光となるように撮影レンズ11の絞り値とシャッタースピードを決定する。また、被写体輝度が低輝度時に適切な露光量が設定できない場合は、PGA312において画像信号のレベル調整を行うことにより露光不足による不適正露出が補正されるように、ゲインの値を求める。つまり、ここでは、絞り値やシャッタースピードやゲインの値等がAE制御値に相当する。WB補正については、算出された各色成分ごとの輝度値に基づいて、ホワイトバランスが適正となるようにWB制御値を決定する。
【0048】
また、AE・WB演算器42では、例えば、算出された被写体輝度が所定の閾値以下である場合は、内蔵フラッシュ7を発光させるように判断を行い、その旨をカメラマイコン5に送信する。なお、内蔵フラッシュ7を発光させて撮影を行うフラッシュ撮影の際には、予め設定されたフラッシュ撮影用のWB制御値等が採用される。また、フラッシュ撮影におけるAEについては、さらに後述する。
【0049】
AE・WB演算器42において算出されたAE・WB制御値は、セレクタ46に送られる。セレクタ46は、高速読み出し画像データ、またはCCD2のフィールドの読出し状況に応じて、AE・WB制御値を信号処理部31または画像処理部43に送る。
【0050】
画像処理部43は、特殊撮影モードの設定に基づいて、第1〜第3フィールド画像データ210〜230から種々のフレーム画像データを生成する手段である。例えば、特殊撮影モードとして「高感度モード」が設定されている場合は、第1〜第3フィールド画像データ210〜230に対してそれぞれ補間処理を施した後に、それぞれの画素値を加算処理して1フレーム分の画像データを生成する。「フラッシュブラケットモード」が設定されている場合は、第1〜第3フィールド画像データ210〜230に対してそれぞれ補間処理を施して、3つの画像データを生成する。「適正階調モード」が設定されている場合は、第1〜第3フィールド画像データ210〜230に対してそれぞれ補間処理を施した後に、それぞれの画素値について、階調特性を変換しつつ加算処理して1フレーム分の画像データを生成する。画像処理部43における特殊撮影モードの各モード設定にしたがった各種画像データの生成については、後程詳述する。なお、特殊撮影モードが設定されていない場合は、第1〜第3フィールド画像データ210〜230を単に合成して1フレーム分の画像データを生成する。
【0051】
また、画像処理部43は、特殊撮影モードの各モード設定にしたがって生成された各種画像データ、および画像メモリ41から送られる高速読み出し画像データを、CCD2のカラーフィルター特性に基づいた補間処理を行ってカラー化する。
【0052】
また、画像処理部43は、カラー化された画像データに対して、自然な階調を得るためのγ補正、輪郭強調や彩度調整を行うためのフィルター処理など各種の画像処理を行う。さらに、画像処理部43は、セレクタ46から送られるAE・WB制御値に基づき、画像の明るさや色バランスを調整するためのAE・WB補正を行う。
【0053】
表示部44は、LCD18を有しており、CCD2で取得された画像データに基づく画像表示が可能である。
【0054】
圧縮/伸張部45は、本撮影時に画像処理部43で画像処理された画像を、例えばJPEG方式で圧縮し、記憶媒体であるメモリカード9に保存する。また、圧縮/伸張部45は、表示部44に再生表示させるために、メモリカード9に保存される画像データの伸張を行う。
【0055】
また、撮像装置1Aは、カメラマイコン5に接続するレンズ駆動部61およびシャッター制御部62を備えるとともに、測光部63と操作部64と電源部65とを備えている。さらに、撮像装置1Aは、カメラマイコン5に接続するフラッシュ制御回路66および内蔵フラッシュ7を備えている。
【0056】
レンズ駆動部61は、撮影レンズ11の各レンズ位置を変更させるためのものであり、このレンズ駆動部61によってオートフォーカス(AF)やズームが行える。なお、AFはカメラマイコン5によって制御され、例えば、撮影待機状態において、最も手前にある被写体等に合焦するように撮影レンズ11の各レンズ位置を変更させたり、主被写体までの距離を算出することができる。
【0057】
シャッター制御部62は、メカニカルシャッター(以下では単に「シャッター」という)12を開閉させるための部位である。
【0058】
測光部63は、測光センサを有しており、被写体に関する測光を行う。
【0059】
フラッシュ制御回路66は、カメラマイコン5の制御の下で、内蔵フラッシュ7の発光を制御する手段である。なお、特殊撮影モードが設定されている場合は、内蔵フラッシュ7が、本撮影の露光中に行われる発光(以下、「本発光」と称する)を分割して行うように制御する。つまり、フラッシュ制御回路66は、本発光を分割した発光(以下、「分割本発光」と称する)を複数回行うように制御する。
【0060】
操作部64は、シャッターボタン14、モード切替ボタン15や操作ボタン19などの各種の操作部材で構成されている。
【0061】
電源部65は、バッテリーを有しており、撮像装置1Aの各部に給電する。
【0062】
カメラマイコン5は、CPUおよびメモリを有しており、撮像装置1Aの各部を統括制御する部位である。
【0063】
<(1-2)フラッシュ撮影におけるAEについて>
ここでは、フラッシュ制御モードとして自動制御モードが設定されている場合を例にとって説明する。
【0064】
シャッターボタン14が押下された際に、内蔵フラッシュ7を発光させるように判断を行った旨がAE・WB演算器42からカメラマイコン5に送信されている場合は、カメラマイコン5からフラッシュ制御回路66にフラッシュ発光信号が送られて、内蔵フラッシュ7が発光する。ここでは、露光時間や絞りなどの露出制御値、AE・WB演算器42において算出される被写体輝度、およびAF動作によって算出される主被写体までの距離などの種々の条件に基づいて、内蔵フラッシュ7の発光量を調整して、被写体が適正露光となるように制御する。なお、被写体からの反射光を測光部63において測光することで、適正な発光量を調整することもできる。
【0065】
ここで、カメラマイコン5などにおける内蔵フラッシュ7の適正発光量の決定方法の一例について以下簡単に説明する。
【0066】
上述したように、AE・WB演算器42では、例えば、被写体輝度が所定の閾値以下である場合は、内蔵フラッシュ7を発光させるように判断を行い、その旨をカメラマイコン5に送信する。そして、カメラマイコン5では、被写体輝度、主被写体までの距離、および撮影レンズ11の焦点距離などに基づいて、適正露光となるために必要なおおよその発光量(以下、「擬所要発光量」と称する)を算出する。その後、本撮影前に行う内蔵フラッシュ7を発光させるプリ発光における発光量(以下、「プリ発光量」と称する)を、擬所要発光量に基づいて算出する。
【0067】
通常の場合、プリ発光量が大きくなり過ぎると、内蔵フラッシュ7を発光させるためにコンデンサーに蓄えられている電荷が大量に消費され、本撮影時に内蔵フラッシュ7を発光させる本発光において、十分な発光量が得られない恐れが生じる。したがって、例えば、プリ発光量は、擬所要発光量の数分の1〜数十分の1程度となるように設定される。
【0068】
また、このとき、AE・WB演算器42は、プリ発光前の状態での被写体輝度(以下、「発光前輝度」と称する)をカメラマイコン5に送信する。なお、発光前輝度としては、例えば、プリ発光量を算出するために用いた被写体輝度などがある。
【0069】
カメラマイコン5においてプリ発光量が決定されると、カメラマイコン5からフラッシュ制御回路66にフラッシュ発光信号が送られて、決定されたプリ発光量となるように内蔵フラッシュ7がプリ発光を行う。このとき、プリ発光時にCCD2に蓄積される電荷信号を高速読み出しモードによって読み出し、画像メモリ41に高速読み出し画像データ(プリ発光画像データ)を格納する。そして、AE・WB演算器42は、プリ発光画像データに基づいて、プリ発光時の被写体輝度(以下、「プリ発光輝度」と称する)を算出し、カメラマイコン5に送信する。カメラマイコン5は、発光前輝度、プリ発光輝度、プリ発光量、および露出制御値(感度、絞り、シャッタ速度)から本撮影時の内蔵フラッシュ7の適正な発光量(以下、「適正本発光量」と称する)を決定する。なお、このとき、本撮影時に内蔵フラッシュ7が適正本発光量で発光した場合には、露出量EVがEV0となるものとする。
【0070】
なお、フラッシュ制御モードとして強制発光モードが設定されている場合も、同様にして適正本発光量を決定することができる。
【0071】
また、特殊撮影モードが設定されている場合は、カメラマイコン5は、適正本発光量に基づいて、分割本発光の各発光量を算出することができる。なお、分割本発光の各発光量は、ユーザーが操作ボタン19を種々操作することによって、特殊撮影モードの設定、および詳細設定を変更することによって、種々算出され、決定される。
【0072】
<(1-3)特殊撮影モードにおける撮影動作について>
上述したように、特殊撮影モードの設定によって、本撮影時における分割本発光の各発光量、および、画像処理部43における画像データの生成などに相違点を生じるが、特殊撮影モードの各モード設定における撮影動作について以下で説明する。
【0073】
<(1-3-1)高感度モードにおける撮影動作について>
図7および図8は、撮像装置1Aの高感度モードにしたがった基本的な撮影動作を説明するためのフローチャートである。本動作は、カメラマイコン5の制御によって実行される。また、図9は、撮像装置1Aの高感度モードにおける撮影動作を説明するための図で、垂直同期信号VD、シャッター12、内蔵フラッシュ7の発光、CCD2における第1〜第3フィールド21〜23の電荷蓄積状態、およびCCD2の出力を示すタイミングチャートとなっている。以下では、図9を参照しつつ図7および図8のフローチャートを説明する。
【0074】
まず、シャッター12を開状態にしてライブビュー撮影を行い、CCD2で取得されるライブビュー画像を表示部44に表示する。そして、ユーザによってシャッターボタン14が押下されると、撮影が開始される(ステップS1)。
【0075】
撮影が開始されると、上述したように、カメラマイコン5でプリ発光量が算出され、カメラマイコン5から発光信号がフラッシュ制御回路66に送信されて、内蔵フラッシュ7がプリ発光PFを行う(ステップS2)。
【0076】
ステップS3では、上述したように、カメラマイコン5が適正本発光量を算出し、例えば、本撮影の露光開始からCCD2よりの第1フィールド画像データ210の読み出し開始までの露出量が適正露出の半分となるEV=EV0−1となるように、1回目の発光量を算出する(ステップS3)。
【0077】
ステップS4では、本撮影におけるCCD2の露光が開始され、ステップS3で算出された発光量に従って、内蔵フラッシュ7が1回目の発光F1を行う。
【0078】
ステップS5では、シャッター12の開状態を保持してCCD2の露光を継続したまま、CCD2からの第1フィールド画像データ210の読み出しを開始する。
【0079】
ステップS6では、適正露出であるEV=EV0に基づいて、2回目の発光量を算出する。例えば、第1フィールド画像データ210の読み出し開始から第2フィールド画像データ220読み出し開始までの露出量が適正露出の半分となるEV=EV0−1となるように、2回目の発光量を算出する。
【0080】
ステップS7では、ステップS6で算出された発光量に従って、内蔵フラッシュ7が2回目の発光F2を行う。
【0081】
ステップS8では、シャッター12の開状態を保持したまま、ステップS5において開始した、第1フィールド画像データ210の読み出しを継続する。
【0082】
ステップS9では、読み出された第1フィールド画像データ210を画像メモリ41に保存する。
【0083】
ここでは、本撮影の露光開始からCCD2よりの第1フィールド画像データ210の読み出し開始までの露出量が適正露出の半分であるEV=EV0−1となるように1回目の発光量を設定した場合、第1フィールド画像データ210は、露出量を適正露出の半分であるEV=EV0−1とした場合に得られる画像データとなる。
【0084】
ステップS10では、第1フィールド画像データ210の読み出しが完了しているかを判定する。ここで、読み出しが完了している場合には、図8のステップS21に進み、読み出しが完了していない場合には、ステップS8に戻る。
【0085】
ステップS21では、シャッター12の開状態を保持してCCD2の露光を継続したまま、CCD2からの第2フィールド画像データ220の読み出しを開始する。
【0086】
ステップS22では、適正露出であるEV=EV0に基づいて、3回目の発光量を算出する。例えば、第2フィールド画像データ220の読み出し開始から第3フィールド画像データ230の読み出し開始までの露出量が適正露出であるEV=EV0となるように、3回目の発光量を算出する。
【0087】
ステップS23では、ステップS22で算出された発光量に従って、内蔵フラッシュ7が3回目の発光F3を行う。
【0088】
ステップS24では、シャッター12の開状態を保持したまま、ステップS21において開始した、第2フィールド画像データ220の読み出しを継続する。
【0089】
ステップS25では、読み出された第2フィールド画像データ220を画像メモリ41に保存する。
【0090】
ここでは、例えば、第1フィールド画像データ210の読み出しが開始してから第2フィールド画像データ220の読み出し開始までの露出量を、適正露出の半分であるEV=EV0−1となるように2回目の発光量を設定した場合、第2フィールド画像データ220は、第1フィールド画像データ210の読み出しまでに蓄積された電荷と、その後に蓄積された電荷とを合算した電荷に基づく。よって、第2フィールド画像データ220は、露出量を適正露出であるEV=EV0とした場合に得られる画像データとなる。
【0091】
ステップS26では、第2フィールド画像データ220の読み出しが完了しているかを判定する。ここで、読み出しが完了している場合には、ステップS27に進み、読み出しが完了していない場合には、ステップS24に戻る。
【0092】
ステップS27では、シャッター12が閉状態となり、CCD2の露光が終了し、ステップS28に進む。
【0093】
ここで、1回の撮影におけるCCD2の露光が終了するが、図9に示すように、露光開始から露光終了までに、フラッシュ制御回路66の制御の下で、内蔵フラッシュ7が1回目の発光F1を行うとともに、1回目の発光F1後、第1フィールド21から電荷信号を読み出す際に、内蔵フラッシュ7が2回目の発光F2を行う。また、同様にして、内蔵フラッシュ7が2回目の発光F2を行うとともに、2回目の発光F2後、第2フィールド22から電荷信号を読み出す際に、内蔵フラッシュ7が3回目の発光F3を行う。なお、ここでは、1回目および2回目の発光F1,F2をそれぞれ第1および第2の発光とも称する。
【0094】
ステップS28では、CCD2からの第3フィールド画像データ230の読み出しを開始する。
【0095】
ステップS29では、ステップS28において開始した、第3フィールド画像データ230の読み出しを継続する。
【0096】
ステップS30では、読み出された第3フィールド画像データ230を画像メモリ41に保存する。
【0097】
ここでは、例えば、第2フィールド画像データ220の読み出しを開始から第3フィールド画像データ230の読み出し開始までの露出量が適正露出であるEV=EV0となるように3回目の発光量を設定すると、第3フィールド画像データ230は、第2フィールド画像データ220の読み出し開始までに蓄積された電荷と、その後に蓄積された電荷とを合算した電荷に基づく。よって、第3フィールド画像データ230は、露出量を適正露出の2倍であるEV=EV0+1とした場合に得られる画像データとなる。
【0098】
ステップS31では、第3フィールドの画像データの読み出しが完了しているかを判定する。ここで、読み出しが完了している場合には、ステップS32に進み、読み出しが完了していない場合には、ステップS29に戻る。
【0099】
ステップS32では、画像メモリ41に保存された第1〜第3フィールド画像データ210〜230を読み出し、画像処理部43に出力する。
【0100】
ステップS33では、画像処理部43において、第1〜第3フィールド画像データ210〜230を合成して1フレームの画像データを生成する。
【0101】
ここでは、例えば、3つの露出条件(EV=EV0−1,EV0,EV0+1)において得られた第1〜第3フィールド画像データ210〜230のそれぞれには、他の2フィールドの画素データ(画素値)が存在していない。そこで、第1〜第3フィールド画像データ210〜230それぞれについて、存在していない画素(以下、「空画素」と称する)の画素値を補間処理によって求め、補間処理がなされた3つの画像(以下、「第1〜第3補間画像データ」と称する)を生成する。そして、第1〜第3補間画像データを合成することによって1フレーム分の画像データを生成する。
【0102】
ここで言う各フィールド画像データについての補間処理では、例えば、所定の色についての空画素に関し、垂直方向であるJ方向および−J方向で最も近い所定の色の画素データを用いて空画素の画素値を求めることができる。以下、具体的に説明する。
【0103】
例えば、図5に示したようなCCD2の受光部2aにおいて、I方向およびJ方向の位置(偶数,偶数)にRの画素がくるように画素配列がなされていると仮定すると、i,jをともに0以上の偶数とした場合には、R、Gr、Gb、Bの各画素の位置はそれぞれ(i,j)、(i+1,j)、(i,j+1)、(i+1,j+1)となる。
【0104】
Rの画素については、位置(i,j)が第1フィールド21に属するとすると、第2フィールド画像データ220の位置(i,j)は空画素となる。そこで、第2フィールド画像データ220については、位置(i,j)からJ方向および−J方向で最も近いRの画素である位置(i,j−2)および位置(i,j+4)の画素値から、位置(i,j)の画素値を算出する。同様にして、第1および第3フィールド画像データ210,230の空画素についても画素値を算出する。また、Gr、Gb、Bの画素についてもRの画素と同様にして空画素の画素値を算出する。このようにして、第1〜第3フィールド画像データ210〜230の補間処理を行い、それぞれ第1〜第3補間画像データを生成することができる。
【0105】
即ち、2回目の発光F2前において受光部2aに蓄積される電荷信号を第1フィールド21から読み出すことによって、第1フィールド画像データ210を取得し、さらに補間処理を施して第1補間画像データを得ることができる。また、2回目の発光F2の発光前後において受光部2aに蓄積される電荷信号を第2フィールド22から読み出すことによって、第2フィールド画像データ220を取得し、さらに補間処理を施して第2補間画像データを得ることができる。なお、ここでは、第1および第2補間画像データを第1および第2の画像とも称する。
【0106】
そして、第1〜第3補間画像データの各画素値を加算処理することによって、第1〜第3補間画像データを合成して1フレーム分の画像データを生成する。即ち、画像処理部43が、第1〜第3補間画像データとに基づいて、所定の画像データを生成する。下に示す式(1)〜(4)は、合成後の1フレーム分の画像データにおけるR、Gr、Gb、Bの各画素についての画素値を示す式である。なお、式(1)〜(4)では、R、Gr、Gb、Bの右側に付された小文字は、それぞれの画素のI方向およびJ方向の位置を示している。
【0107】
【数1】
【0108】
ここでは、式(1)〜(4)がそれぞれ、第1フィールド21に属する画素についてのR、Gr、Gb、Bの画素値を示す場合は、第1項が第1フィールド画像データ210における画素値、第2項が第2補間画像データにおける画素値、第3項が第3補間画像データにおける画素値をそれぞれ示す。また、式(1)〜(4)がそれぞれ、第2フィールド22に属する画素についてのR、Gr、Gb、Bの画素値を示す場合は、第1項が第2フィールド画像データ220における画素値、第2項が第3補間画像データにおける画素値、第3項が第1補間画像データにおける画素値をそれぞれ示す。さらに、式(1)〜(4)がそれぞれ、第3フィールド23に属する画素についてのR、Gr、Gb、Bの画素値を示す場合は、第1項が第3フィールド画像データ230における画素値、第2項が第1補間画像データにおける画素値、第3項が第2補間画像データにおける画素値をそれぞれ示す。
【0109】
なお、上述した補間処理の一例では、垂直方向(J方向)の画素値のみを考慮した補間処理を行っているが、その他、水平方向(I方向)の画素値を考慮した補間処理を行っても良い。
【0110】
図8のフローチャートに戻って説明を続ける。
【0111】
ステップS33では、上述したように第1〜第3補間画像データを合成することによって1フレーム分の画像データを生成し、ステップS34に進む。なお、各補間画像データは、例えば、10ビットのデジタルデータであり、合成後の1フレーム分の画像データも10ピットのデジタルデータとなっている。
【0112】
ステップS34では、画像処理部43において、ステップS33で生成した1フレーム分の画像データについて、カラー化、γ補正、各種の画像処理、およびAE・WB補正を行う。そして、得られた1フレーム分の画像データに基づいて、圧縮/伸張部45で、圧縮処理を施してメモリカード9に保存するとともに、LCD18に表示し、撮影が終了する。その後、再び撮像装置1Aは、撮影待機状態となる。
【0113】
このように、例えば、3つの露出条件(EV=EV0−1,EV0,EV0+1)において得られた第1〜第3フィールド画像データ210〜230に基づいて1フレーム分の画像データを取得する。この取得された画像データは、式(1)〜(4)に示すように、一般的なデジタル撮像装置において露出量が適正露出の3.5倍となるような発光量でフラッシュ撮影して得られた画像データと等価な画素値を有することとなる。したがって、高感度モードにおける撮影においては、高感度の撮影画像を取得することができる。
【0114】
ところで、露出量が適正露出となるような発光量で得られた画素値を3.5倍に増幅することによっても、露出量が適正露出の3.5倍となるような発光量でフラッシュ撮影して得られた画像データとほぼ等価な画素値を得ることができる。しかし、この方法では、画像データにおけるノイズ成分までも3.5倍に増幅してしまうため、撮影画像の画質が劣化する。これに対して、本実施形態に係る高感度モードにおける撮影においては、3つの異なる画像データを合成するため、画像データ中のノイズ成分がランダム化されるため、撮影画像の画質劣化を抑制することができる。
【0115】
また、一般的なデジタル撮像装置においては、例えば、シャッタースピードを一定として、露出量が適正露出の3.5倍となるような発光量で撮影して画像データを得るためには、適正露出で撮影する場合を基準にして約3.5倍のエネルギーを内蔵フラッシュが消費することとなる。さらに、3回の撮影に分けて、3つの露出条件(EV=EV0−1,EV0,EV0+1)で露光を行う場合にも、適正露出で撮影する場合を基準にして3.5倍のエネルギーを内蔵フラッシュが消費する。
【0116】
これに対して、本実施形態に係る高感度モードにおける撮影では、短時間に複数回の発光を行って1回のフラッシュ撮影を行い、得られる露光条件の異なる複数の画像データについての画素値を加算する。その結果、適正露出で撮影する場合を基準にして約2倍のエネルギーしか内蔵フラッシュ7が消費しないため、消費電力の増加を抑制しつつ、フラッシュ撮影時に高感度の撮影画像を取得することができる。また、内蔵フラッシュ7が小型のキセノン管などで構成され、1回あたりの最大発光量が小さな場合でも、1回の短いフラッシュ撮影において、露光中に複数回の発光を行うことによって、ある程度の露光量を確保することができる。したがって、少ない光量でより遠くの被写体に露出を合わせること等ができ、装置の大型化を抑制しつつ、フラッシュ撮影時に高感度の撮影画像を取得することができる。
【0117】
また、最近のデジタルカメラ用の高画素CCD撮像素子が用いられている一般的なデジタル撮像装置においては、例えば、撮像素子の全画素のデータを読み出すために必要な時間(必要読み出し時間)が約250ms〜300msとなる。そして、3つの露出条件(EV=EV0−1,EV0,EV0+1)で3回の撮影を行うためには、1回目の露光開始から3回目の露光終了までに、最低限、必要読み出し時間の2倍以上の時間が必要となる。したがって、後に3つの画像を合成して生成される画像にボケが発生しないようにするためには、被写体は完全に静止しているような物体に限られてしまう。
【0118】
これに対して、本実施形態に係る高感度モードにおける撮影では、3つの露出条件(EV=EV0−1,EV0,EV0+1)における撮影の露出開始から露出終了までに要する時間は、例えば、必要読み出し時間と同程度の250〜300msと短時間となる。したがって、ある程度動きのある被写体にも適用することができる。即ち、フラッシュ撮影時に被写体に応じた適正な撮影画像を取得することができる。
【0119】
<(1-3-2)フラッシュブラケットモードにおける撮影動作について>
上述した、高感度モードにおける撮影では、例えば、第1〜第3補間画像データを合成して1フレーム分の画像データを得たが、フラッシュブラケットモードにおける撮影では第1〜第3補間画像データを合成することなく、第1〜第3補間画像データについて、それぞれ、カラー化、γ補正、各種の画像処理、およびAE・WB補正を行い、3フレーム分の画像データを得る。そして、得られた3フレーム分の画像データそれぞれについて、圧縮/伸張部45で、圧縮処理を施してメモリカード9に保存するとともに、LCD18に表示し、撮影動作が終了する。したがって、フラッシュブラケットモードにおける撮影動作のフローは図8に示すステップS33の処理が異なるのみで、その他の撮影動作のフローは、高感度モードにおける撮影動作と全く同様となる。
【0120】
このように、本実施形態に係るフラッシュブラケットモードにおける撮影では、短時間に複数回の発光を行って1回のフラッシュ撮影を行い、得られる露光条件の異なる複数の画像データに基づいて、最終的に露出条件の異なる複数フレーム分の画像データを取得する。その結果、高感度モードにおける撮影についての説明で述べたように、一般的なデジタル撮像装置において、複数回の撮影に分けて同様な複数の画像データを取得する場合よりも電力消費の増加などを抑制することができる。
【0121】
また、本実施形態に係るフラッシュブラケットモードにおける撮影では、高感度モードにおける撮影についての説明で述べたように、一般的なデジタル撮像装置よりも短時間で露出条件の異なる複数の撮影画像を得ることができる。したがって、ある程度動きのある被写体であっても、ほぼ同じような構図で露出条件の異なる複数フレーム分の画像データを得ることができる。即ち、フラッシュ撮影時に被写体に応じた適正な撮影画像を取得することができる。
【0122】
さらに、本実施形態に係るフラッシュブラケットモードにおける撮影では、受光部2aのカラーフィルタ配列に対応する全色成分を含み、かつ露光条件の異なる複数のフィールド画像データを得ることができるため、露光条件の異なる複数のフルカラーの撮影画像を短時間で効率良く取得することができる。
【0123】
<(1-3-3)適正階調モードにおける撮影動作について>
上述した、高感度モードにおける撮影では、例えば、第1〜第3フィールド画像データ210〜230が10ビットのデジタルデータであると、合成後の1フレーム分の画像データも同様の10ビットのデジタルデータとなった。しかし、適正階調モードにおける撮影動作では、例えば、合成後の1フレーム分の画像データを11ビットのデジタルデータとして扱う。したがって、適正階調モードの撮影動作のフローは図8に示すステップS33の処理が異なるのみで、その他の撮影動作のフローは、高感度モードにおける撮影動作と全く同様となる。
【0124】
適正階調モードにおける撮影動作において高感度モードにおける撮影動作と異なる点について、以下説明する。
【0125】
例えば、高感度モードにおける撮影動作において説明したように、第1〜第3補間画像データを加算処理すると、式(1)〜(4)に基づいて、合成後の1フレーム分の画像データにおけるR、Gr、Gb、Bの各画素についての画素値が求まる。このとき、適正階調モードでは、加算処理を行うとともに、各画素値が2/3倍となるような階調変換処理を行い、その画素値を11ビットのデジタルデータとして扱う。即ち、第1〜第3補間画像データにおける画素値について、階調数などの階調特性を変換しつつ加算処理することによって、1フレーム分の画像データを生成する。
【0126】
この処理における2/3倍という数値の意味は以下の通りである。すなわち、それぞれの画像データの画素値は10ビットで表現されているため、3つの画像データの画素値を単純に加算した場合の最大値は、210×3=211×(3/2)となり、10ビットのデータでは取り扱えない数値が出てくる。また、12ビットのデータによって表される階調を全て使い切っていない。そこで、3つの画像データのそれぞれの最大値につきそれぞれの画素値を2/3倍すれば、210×(2/3)となるため、3つの画像データの加算値は、210×(2/3)×3=211(11ビット)のように、11ビットのデータによって表される階調を全て使い切ることができる。合成後の値を2/3倍しても同様である。このように、階調表現数Nビット(但し、Nは自然数)のデータによって表される階調を全て使い切ることによって、コントラストを明瞭に表現することができる。
【0127】
なお、本実施形態においては、2/3倍という数値を乗算したが、例えば、4/3倍という数値を乗算して、210×(4/3)×3=212(12ビット)のように、12ビットのデータによって表される階調を全て使い切るようにしても良い。また、1/3倍という数値を乗算して、210×(1/3)×3=210(10ビット)のように、10ビットのデータによって表される階調を全て使い切ることもできる。
【0128】
よって、一般には、合成する画像データがM個ある場合(但し、M≧2)で考えると、r=2n/M(但し、nは自然数)を満足する値rを加算前の各補間画像データにおける各画素値、または加算前の各画素値に乗算することによって、Nビット(但し、Nは自然数)のデータによって表される階調を全て使い切ることによって、コントラストを明瞭に表現することができる。しかし、rがあまりにも小さな値となると、階調表現数が減少してしまい、画質の劣化を招くこととなる。よって、元の画像データの階調表現数(Nビット)よりは大きくする方が画質の面からは好ましい。また、逆にrが大きすぎると、階調表現数(データ長ないしはビット数)が大きくなり、処理速度の低下や記憶媒体の容量の不足を招くため、rの値は2以下であることが好ましい。
【0129】
この実施形態での具体的な処理では、合成前のある画素について、第1補間画像データにおける画素値が519/1023階調、第2補間画像データにおける画素値が最大輝度である1023/1023階調、第3補間画像データの画素値が最大輝度である1023/1023階調の場合は、合成後の画素値を2/3倍する変換処理を施して、この画素値を11ビットのデジタルデータとして扱うことによって、合成および変換後の画素値は1710/2047階調となる。同様にして、種々の画素値の組合せに対して、上述のごとく合成、変換処理を行い、1フレーム分の画像データを11ビットのデジタルデータとして扱う。
【0130】
ところで、一般的なデジタル撮像装置では、フラッシュ撮影時に、露出条件(EV=EV0)のみで撮影した場合、非常に明るい部分と非常に暗い部分とが混在した被写体については黒潰れや白潰れが発生する傾向にある。
【0131】
これに対して、本実施形態に係る適正階調モードにおける撮影では、短時間に複数回の発光を行って1回のフラッシュ撮影を行い、得られる露光条件の異なる複数の画像データ(第1〜第3の補間画像データ)における画素値について、階調特性を変換しつつ加算することによって、非常に明るい部分と非常に暗い部分とが混在した被写体について取得される撮影画像においても、黒潰れや白潰れの発生を抑制することができる。
【0132】
例えば、非常に暗い部分については、特に、第3補間画像データにおける画素値の変化によって階調差を出すことによって、黒潰れの発生を防ぐことができる。また、非常に明るい部分については、特に、第1補間画像データにおける画素値の変化によって階調差を出すことによって、白潰れの発生を防ぐことができる。その結果、適正階調モードにおける撮影においては、輝度差の大きな被写体を撮影する場合にも、最終的に得られる1フレーム分の画像データは輝度差が圧縮されて表現されるため、全体的に露出の良好な画像を得ることができる。即ち、フラッシュ撮影時に被写体からの光の反射が多い部分と、光の反射が少ない部分とをそれぞれ補完することにより、ダイナミックレンジの大きな画像を得ることができる。
【0133】
また、本実施形態に係る適正階調モードにおける撮影では、短時間に複数回の発光を行って1回のフラッシュ撮影を行い、得られる露光条件の異なる複数の画像データ(第1〜第3の補間画像データ)における画素値について、階調特性を変換しつつ加算する。その結果、高感度モードにおける撮影についての説明で述べたように、一般的なデジタル撮像装置よりも短時間で露出条件の異なる複数の撮影画像を得ることができる。したがって、ある程度動きのある被写体であっても、ほぼ同じような構図で露出条件の異なる複数のフィールド画像データを取得することによって、フラッシュ撮影時に、画像のボケの発生などを抑制しつつ、被写体の輝度に応じた適正な撮影画像を取得することができる。さらに、高感度モードにおける撮影についての説明で述べたように、一般的なデジタル撮像装置において、複数回の撮影に分けて同様な複数のフィールド画像データを取得する場合よりも電力消費の増加などを抑制することができる。
【0134】
以上のように、本実施形態に係る撮像装置1Aでは、特殊撮影モードの設定に応じて、短時間に複数回の発光を行って1回のフラッシュ撮影を行い、得られる露光状態の異なる複数の画像データに基づいて、種々の画像を生成する。その結果、フラッシュ撮影時に被写体に応じた種々の撮影画像や適正な撮影画像などを容易に取得可能な撮像装置を提供することができる。
【0135】
<(2)変形例>
以上、この発明の実施形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
【0136】
◎例えば、CCD2の構造を改良し、いわゆる”加算読み出し”ができるようにしても良い。
【0137】
ここで言う”加算読み出し”とは、一般的なデジタルカメラ用のCCD撮像素子の被写体モニターモードで採用されている読み出し方法であり、高感度化、偽色対策のために用いられる。具体例としては、垂直CCDから水平CCDに電荷が転送される際に、水平方向の1ラインごとに電荷を転送するのではなく、垂直CCDが水平方向の複数ラインの電荷を水平CCDに転送した後に、水平CCDによる電荷の転送動作を行い、水平方向の複数ライン分の電荷が重畳して画素値として出力される読み出し方法などがある。
【0138】
図10は、本発明の変形例に係る撮像装置1Bの動作を説明するための図である。なお、図10では、CCD2に”加算読み出し”可能な撮像素子を用いた場合について例示している。
【0139】
図10に示すように、図9に示す撮像装置1Aの動作と異なる点は、第1フィールド21の電荷蓄積状態である。図10に示す動作では、CCD2からの第1および第2フィールド画像データ210,220の読み出しは、図9に示す動作と全く同じであるが、CCD2から第3フィールド画像データ230を読み出す際に、第1フィールド21に蓄積された電荷が加算される。
【0140】
ここでは、CCD2から第1フィールド画像データ210が読み出された後も、シャッター12は開放されているため、CCD2の第1フィールド21には、2回目および3回目の発光F2,F3の際などにも電荷が蓄積される。そして、例えば、図5に示すような画素配列を有している場合は、CCD2から第3フィールド画像データ230を読み出す際に、第3フィールド23のRの画素Ra(不図示)に蓄積された電荷が垂直CCDによって転送されている途中に、画素Raから垂直CCDの転送方向に4つずれた画素位置にあたる第1フィールド21のRの画素Rb(不図示)に蓄積された電荷が重畳される。そして、重畳された電荷に基づく信号を第3フィールド画像データ230として読み出す。
【0141】
このような場合には、第3フィールド画像データ230が、第3フィールド23に蓄積された電荷のみに基づく画像データよりも画素値が大きくなる。その結果、第3フィールド画像データ230に基づいて生成される画像データの画素値が増加する傾向となるため、さらに高感度の撮影画像を容易に取得することができる。また、内蔵フラッシュ7の3回目の発光量を減少させても所望の第3フィールド画像データ230を取得することができるため、内蔵フラッシュ7の電力消費量をより低減することができる。
【0142】
◎また、上述した実施形態では、図9に示すように、第2フィールド22から電荷信号を読み出す際に、内蔵フラッシュ7が3回目の発光F3を行ったが、この動作に限られるものではなく、例えば、第2フィールド22からの電荷信号の読み出しが開始した際に、シャッター12を閉じて、3回目の発光F3を行わないようにしても良い。
【0143】
このとき、第2および第3フィールド画像データ220,230は同一の露出条件(EV=EV0)において得られるため、両画像データ220,230を合わせて1つの露出条件(EV=EV0)において得られた画像データとすることができる。よって、露出条件の異なる画像データの数は減少するが、ここで露出条件(EV=EV0)において得られる画像データについては、上述した実施形態における第2および第3フィールド画像データ220,230のそれぞれと比較して、空画素が半分となる。その結果、画像処理部43における補間処理の精度が向上することとなるため、画像処理部43において最終的に得られる画像データの画質を向上させることができる。
【0144】
◎また、上述した実施形態では、3つの露出条件(EV=EV0−1,EV0,EV0+1)において第1〜第3フィールド画像データ210〜230を取得したが、露出条件は上記のものに限られず、例えば、ユーザーの設定などによって、露出量が適正露出の1/4倍、1倍、3倍となるように1〜3回目の発光量をそれぞれ設定して、3つの露出条件(EV=EV0−2,EV0,EV0+2)において第1〜第3フィールド画像データ210〜230を取得しても良い。即ち、1回目の発光における発光量と、2回目の発光における発光量とが異なるようにしても良い。
【0145】
このように、1回の短いフラッシュ撮影における露光中の複数回の発光について、発光量を変更することによって、例えば、露光状態が種々異なる複数の画像を短時間で効率良く取得することができる。即ち、ユーザーの意図や被写体の状態などに応じて、さらに適正な撮影画像を取得することができる。
【0146】
◎また、上述した実施形態では、第1〜第3フィールド21〜23から電荷信号を各フィールドごとに読み出したが、これに限られるものではなく、各フィールド21〜23をそれぞれ、複数の領域に分けて、その領域ごとに時間的に連続して電荷信号を読み出して、複数の領域からの電荷信号に基づいた複数の画像データを合わせて第1〜第3フィールド画像データ210,220,230としても良い。
【0147】
具体的には、例えば、第1フィールド21をさらに複数の領域に分けて、その領域ごとに時間的に連続して電荷信号を読み出して、複数の領域からの電荷信号に基づいた複数の画像データを合わせて第1フィールド画像データ210とするようにしても良い。なお、このとき、第1フィールド21を複数に分けた領域の露光条件を略一致させることが望ましい。
【0148】
◎また、上述した実施形態では、受光部2aを3つのフィールド21〜23に分けて、電荷信号を読み出したが、これに限られるものではなく、受光部2aを4つのフィールド以上の複数のフィールドに分けて、フィールドごとにカラーフィルタ配列の全色成分にあたる電荷信号を読み出すようにしても良い。また、フィールドごとにカラーフィルタ配列の全色成分を読み出すことができるのであれば、受光部2aを2つのフィールドに分けて、電荷信号を読み出すようにしても良い。
【0149】
◎また、上述した実施形態では、CCD2はカラーフィルタ配列を有するが、これに限られるものではなく、例えば、カラーフィルタを設けていない、いわゆるモノクロ用のCCDであっても良い。この場合は、得られる画像データはモノクロ画像データであるが、特殊撮影モードの各設定に応じた種々の効果を得ることができる。なお、この場合は、受光部2aを2つのフィールドに分けて、電荷信号を読み出すようにしても良い。
【0150】
◎また、上述した実施形態では、フラッシュブラケットモードにおける撮影において、各フィールド画像データについて補完処理を施して、補完画像データを生成したが、補完処理を施さずに、各フィールド画像データそれぞれから垂直および水平方向に間引かれた画像(間引き画像)を生成しても良い。このとき、各間引き画像は画像サイズが小さくなるものの、画像データの量が少なくなるため、撮影開始から記録および表示までに要する処理時間を短縮することができる。
【0151】
◎また、上述した実施形態では、フラッシュ撮影において、連続して取得されるフィールド画像データの全てに基づいて、最終的に種々の画像を生成したが、これに限られるものではなく、例えば、3つのフィールド画像データのうちの2つのフィールド画像データから2つの補間画像データを生成して、その2つの補間画像データに基づいて、最終的に種々の画像を生成するようにしても良い。
【0152】
◎また、上述した実施形態では、発光する部位が内蔵フラッシュ7であったが、これに限られるものではなく、例えば、撮像装置1Aに対して外側から装着する外付けタイプのフラッシュ装置などであっても良い。
【0153】
【発明の効果】
以上説明したように、請求項1ないし請求項5の発明によれば、短時間に複数回の発光を行って1回のフラッシュ撮影を行い、得られる露光条件の異なる複数の画像データに基づいて、種々の画像データを生成することにより、フラッシュ撮影時に被写体に応じた種々の撮影画像や適正な撮影画像を容易に取得可能な撮像装置を提供することができる。
【0154】
特に、請求項2の発明においては、短時間に複数回の発光を行って1回のフラッシュ撮影を行い、受光部のカラーフィルタ配列に対応する全色成分を含み、かつ露光条件の異なる複数の画像データを得ることができるため、フラッシュ撮影時に被写体に応じた適正なフルカラーの撮影画像を容易に取得することができる。例えば、露光条件の異なる複数のフルカラーの撮影画像を短時間で効率良く取得することができる。
【0155】
また、請求項3の発明においては、短時間に複数回の発光を行って1回のフラッシュ撮影を行い、得られる露光条件の異なる複数の画像データについての画素値を加算することによって、装置の大型化や消費電力などを抑制しつつ、フラッシュ撮影時に高感度の撮影画像を取得することができる。
【0156】
また、請求項4の発明においては、短時間に複数回の発光を行って1回のフラッシュ撮影を行い、得られる露光条件の異なる複数の画像データについての画素値について、階調特性を変換しつつ加算することによって、フラッシュ撮影時に、画像のボケの発生や消費電力などを抑制しつつ、被写体の輝度に応じた適正な撮影画像を取得することができる。
【0157】
また、請求項5の発明においては、短時間に複数回の発光を行って1回のフラッシュ撮影を行う際に、露光中の複数回の発光について、発光量を変更することによって、フラッシュ撮影時に、ユーザーの意図や被写体の状態などに応じて、さらに適正な撮影画像を取得することができる。例えば、露光条件が種々異なる複数の画像を容易に取得することができる。
【図面の簡単な説明】
【図1】 本発明の実施形態に係る撮像装置1Aを示す斜視図である。
【図2】 撮像装置1Aの背面図である。
【図3】 撮像装置1Aの機能ブロックを示す図である。
【図4】 撮像装置1Aにおける画像信号等の流れを説明するための図である。
【図5】 CCD2の電荷読み出し方法を説明するための図である。
【図6】 CCD2の高速読み出しモードを説明するための図である。
【図7】 撮像装置1Aの撮影動作を説明するためのフローチャートである。
【図8】 撮像装置1Aの撮影動作を説明するためのフローチャートである。
【図9】 撮像装置1Aの撮影動作を説明するための図である。
【図10】 本発明の変形例に係る撮像装置1Bの撮影動作を説明するための図である。
【図11】 従来技術に係るCCDの電荷読み出し方法を説明するための図である。
【図12】 従来技術に係るCCDの電荷読み出し方法を説明するための図である。
【符号の説明】
1A,1B 撮像装置
2 CCD(撮像手段)
2a 受光部
5 カメラマイコン
7 内蔵フラッシュ(発光部)
21 第1フィールド
22 第2フィールド
23 第3フィールド
43 画像処理部(画像生成手段)
66 フラッシュ制御回路(発光制御手段)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an all-pixel readout type imaging apparatus that reads out image signals of all pixels of a light receiving unit into a plurality of fields and reads out each field.
[0002]
[Prior art]
In recent years, the number of pixels in the light receiving portion of a digital camera has been dramatically increased. On the other hand, since the overall size of the light receiving unit does not increase in accordance with the number of pixels, the light receiving area of each unit light receiving element (unit CCD cell) is reduced due to the increase in pixel density in the light receiving unit, and as a result, imaging is performed. Sensitivity will decrease. In order to prevent such a decrease in sensitivity, a technique for reducing the area of the charge transfer path of the light receiving unit as a region that does not contribute to the photoelectric conversion function is known. However, if the area of the charge transfer path is reduced, it becomes difficult to read out the charge signals of all the lines of the light receiving unit at the same time in parallel. To solve this problem, the charge signals of all the pixels A method is adopted in which is divided into a plurality of fields and read sequentially for each field.
[0003]
As described above, in a digital imaging apparatus typified by a digital camera, a method of reading out image signals of all pixels for each field divided into a plurality of fields (hereinafter referred to as “field-sequential all-pixel reading method”) is adopted. At present, a type in which one frame is divided into two fields and all pixels are read out is generally used. However, it is speculated that the method of reading all pixels by dividing one frame into more fields will be expanded, such as a type of reading all pixels by dividing one frame into 3 fields or 4 fields.
[0004]
In a general two-field readout type image pickup device, adjacent pixel lines cannot be read out as an image signal in the same field. Therefore, in a color filter employing a Bayer array or the like, as shown in FIGS. It is impossible to acquire color information of all colors using only the first field image or only the second field image. Therefore, when performing normal shooting, in order to acquire color information of all colors, it is necessary to acquire all color information from the image data after reading out the image data of all fields.
[0005]
By the way, in an imaging device using such an image sensor, when performing flash photography with flash photography, the flash emission amount is changed, and multiple photography is performed continuously under multiple exposure conditions. Bracket photography (hereinafter referred to as “flash bracket photography”) is performed (for example,
[0006]
Also, during flash photography, the main subject (main subject) has a high optical reflectance, but often encounters photographing conditions where it is difficult to obtain an appropriate exposure, such as a low background optical reflectance. When shooting with normal flash under such shooting conditions, the main subject's reflectivity is taken into consideration, so the main subject's exposure is appropriate, but the background becomes dark and details such as the background Tends to cause the so-called “black crushing”. Furthermore, if there is a very bright part other than the main subject, the part tends to be whitish, so-called “white crushing” tends to occur. And since the dynamic range which an image pick-up element has is often narrower than a silver salt film, in the digital image pick-up device, the occurrence frequency of the above-described black crushing and white crushing tends to become remarkable.
[0007]
As a measure for solving such problems, conventionally, a plurality of images with different exposure conditions are combined with good consistency, thereby generating an image in which the gradation of a portion where white crushing and black crushing has occurred is adjusted. There has been proposed an imaging apparatus that can perform such processing (for example,
[0008]
Prior art documents relating to such technology include the following.
[0009]
[Patent Document 1]
Japanese Patent Laid-Open No. 5-196985
[Patent Document 2]
JP 2000-75371 A
[Patent Document 3]
JP 2000-69355 A
[Patent Document 4]
JP 2002-84449 A
[Patent Document 5]
JP 9-46582 A
[0010]
[Problems to be solved by the invention]
However, with the above-described flash bracket shooting and shooting that generates a well-graded image, when an image sensor with a large number of pixels is used, it takes a considerable amount of time to acquire a plurality of images with different exposure conditions. Therefore, it has been difficult to apply to shooting conditions in which the position of the subject, the surrounding environment, and the like change every moment.
[0011]
In particular, for shooting to generate an image in which the gradation of the portion where white and black crushing has occurred is adjusted, a plurality of images are combined, so even when shooting a subject that is almost stationary, There is a problem that the generated image tends to be blurred due to the camera shake of the photographer.
[0012]
In addition, in order to change the exposure conditions in flash photography, the flash must be emitted a plurality of times, which has the disadvantage of increasing energy consumption.
[0013]
Further, a general compact camera has a certain limit in the amount of flash emission in order to add a flash function without increasing the size of the camera. Therefore, there is a problem that it is difficult to obtain a photographed image having sufficient sensitivity when the flash light arrival distance during flash photography is short and the distance to the subject is long.
[0014]
The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an imaging apparatus that can easily acquire various captured images and appropriate captured images according to the subject during flash shooting.
[0015]
[Means for Solving the Problems]
In order to solve the above problems, the invention of
[0016]
The invention according to
[0017]
The invention according to
[0018]
According to a fourth aspect of the present invention, there is provided the imaging apparatus according to the first or second aspect, wherein the image generation means includes a pixel value in the first image data and a pixel in the second image data. The predetermined image data is generated by performing addition processing on the values while converting the gradation characteristics.
[0019]
The invention according to
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0021]
<(1) First Embodiment>
<(1-1) Configuration of main part of imaging device>
FIG. 1 is a perspective view showing an imaging apparatus 1A according to the first embodiment of the present invention. FIG. 2 is a rear view of the image pickup apparatus 1A. 1 and 2 show three axes X, Y, and Z orthogonal to each other in order to clarify the azimuth relationship.
[0022]
On the front side of the image pickup apparatus 1A, a photographing
[0023]
The
[0024]
A
[0025]
The
[0026]
On the side surface of the image pickup apparatus 1A, a wearing
[0027]
On the back surface of the imaging apparatus 1A, a live view display that displays a subject in a moving image mode before the main shooting, a liquid crystal display (LCD) 18 for displaying a shot image and the like, and an imaging apparatus 1A such as a shutter speed. Are provided with an
[0028]
Here, a mode in which the user operates the
[0029]
In the flash control mode, the “forced flash mode” in which the built-in
[0030]
The special shooting mode includes a “high sensitivity mode” for acquiring high-sensitivity shot images during flash shooting, a “flash bracket mode” for acquiring multiple images with different exposure conditions in a short time during flash shooting, and a subject. There is an “appropriate gradation mode” for preventing the occurrence of black crushing or white crushing when the luminance difference between the two is large. Note that in order to perform flash shooting in the special shooting mode described here, it is necessary to make the built-in
[0031]
The flash shooting in the special shooting mode, which is a feature of the present invention, will be described in detail later.
[0032]
FIG. 3 is a diagram illustrating functional blocks of the imaging apparatus 1A. FIG. 4 is a diagram for explaining the flow of image signals and the like in the imaging apparatus 1A.
[0033]
The imaging apparatus 1A includes an AFE (analog front end) 3 that is connected to the
[0034]
The
[0035]
Here, a method for reading the charge signal in the
[0036]
FIG. 5 is a diagram for explaining a method of reading the charge signal of the
[0037]
As shown in FIGS. 5 and 6, the
[0038]
When reading the charge signal stored in each cell of the
[0039]
On the other hand, in the high-speed reading mode, for example, as shown in FIG. 6, the light signals of the
[0040]
Returning to FIG. 3 and FIG. 4, the description will be continued.
[0041]
The
[0042]
The
[0043]
The
[0044]
The
[0045]
The
[0046]
The AE /
[0047]
For example, first, the high-speed read image data is divided into a plurality of blocks, and multi-division photometry for calculating photometry data for each block is performed to detect subject luminance. As a specific process of subject luminance detection, each color component value (luminance value for each color component) for each pixel defined by the image data given by R, G, and B is averaged over the entire image. , The subject luminance value is calculated in correspondence with integer values from 0 to 1023. For AE, based on the calculated subject luminance value, the aperture value and shutter speed of the
[0048]
Further, for example, when the calculated subject brightness is equal to or lower than a predetermined threshold, the AE /
[0049]
The AE / WB control value calculated by the AE /
[0050]
The
[0051]
The
[0052]
Further, the
[0053]
The display unit 44 includes an
[0054]
The compression /
[0055]
The
[0056]
The
[0057]
The
[0058]
The
[0059]
The flash control circuit 66 is means for controlling the light emission of the built-in
[0060]
The
[0061]
The
[0062]
The
[0063]
<(1-2) AE in flash photography>
Here, a case where the automatic control mode is set as the flash control mode will be described as an example.
[0064]
If the AE /
[0065]
Here, an example of a method of determining the appropriate light emission amount of the built-in
[0066]
As described above, in the AE /
[0067]
In a normal case, if the pre-emission amount becomes too large, a large amount of electric charge stored in the capacitor for causing the built-in
[0068]
At this time, the AE /
[0069]
When the pre-emission amount is determined in the
[0070]
Even when the forced light emission mode is set as the flash control mode, the proper main light emission amount can be determined in the same manner.
[0071]
When the special photographing mode is set, the
[0072]
<(1-3) Shooting operation in special shooting mode>
As described above, depending on the setting of the special shooting mode, there are differences in the respective main flash emission amounts at the time of main shooting and the generation of image data in the
[0073]
<(1-3-1) Shooting operation in high sensitivity mode>
7 and 8 are flowcharts for explaining a basic photographing operation according to the high sensitivity mode of the imaging apparatus 1A. This operation is executed under the control of the
[0074]
First, live view shooting is performed with the
[0075]
When shooting is started, as described above, the pre-emission amount is calculated by the
[0076]
In step S3, as described above, the
[0077]
In step S4, exposure of the
[0078]
In step S5, reading of the first field image data 210 from the
[0079]
In step S6, EV = EV which is appropriate exposure 0 Based on the above, the second emission amount is calculated. For example, EV = EV in which the exposure amount from the start of reading the first field image data 210 to the start of reading the second field image data 220 is half of the appropriate exposure. 0 The second light emission amount is calculated so as to be -1.
[0080]
In step S7, the built-in
[0081]
In step S8, the reading of the first field image data 210 started in step S5 is continued while the
[0082]
In
[0083]
Here, EV = EV where the exposure amount from the start of exposure of the main photographing to the start of reading of the first field image data 210 from the
[0084]
In step S10, it is determined whether reading of the first field image data 210 has been completed. Here, when the reading is completed, the process proceeds to step S21 in FIG. 8, and when the reading is not completed, the process returns to step S8.
[0085]
In step S21, reading of the second field image data 220 from the
[0086]
In step S22, EV = EV which is appropriate exposure 0 Based on the above, the third emission amount is calculated. For example, EV = EV in which the exposure amount from the start of reading of the second field image data 220 to the start of reading of the third field image data 230 is an appropriate exposure. 0 The third emission amount is calculated so that
[0087]
In step S23, the built-in
[0088]
In step S24, the reading of the second field image data 220 started in step S21 is continued while the
[0089]
In step S25, the read second field image data 220 is stored in the
[0090]
Here, for example, the exposure amount from the start of reading of the first field image data 210 to the start of reading of the second field image data 220 is EV = EV which is half of the appropriate exposure. 0 When the second light emission amount is set to be −1, the second field image data 220 is obtained by adding the charges accumulated until the first field image data 210 is read and the charges accumulated thereafter. Based on charge. Therefore, in the second field image data 220, EV = EV where the exposure amount is appropriate exposure. 0 In this case, the image data is obtained.
[0091]
In step S26, it is determined whether the reading of the second field image data 220 has been completed. If the reading has been completed, the process proceeds to step S27. If the reading has not been completed, the process returns to step S24.
[0092]
In step S27, the
[0093]
Here, the exposure of the
[0094]
In step S28, reading of the third field image data 230 from the
[0095]
In step S29, the reading of the third field image data 230 started in step S28 is continued.
[0096]
In step S30, the read third field image data 230 is stored in the
[0097]
Here, for example, EV = EV where the exposure amount from the start of reading of the second field image data 220 to the start of reading of the third field image data 230 is an appropriate exposure. 0 If the third light emission amount is set so that the second field image data 220 is read, the third field image data 230 is a sum of the charges accumulated until the start of reading the second field image data 220 and the charges accumulated thereafter. Based. Therefore, the third field image data 230 has an exposure amount that is twice the appropriate exposure EV = EV 0 The image data obtained when +1 is obtained.
[0098]
In step S31, it is determined whether reading of the image data of the third field is completed. If the reading has been completed, the process proceeds to step S32. If the reading has not been completed, the process returns to step S29.
[0099]
In step S <b> 32, the first to third field image data 210 to 230 stored in the
[0100]
In step S <b> 33, the
[0101]
Here, for example, three exposure conditions (EV = EV 0 -1, EV 0 , EV 0 In each of the first to third field image data 210 to 230 obtained in +1), the other two fields of pixel data (pixel values) do not exist. Therefore, for each of the first to third field image data 210 to 230, pixel values of nonexistent pixels (hereinafter referred to as “empty pixels”) are obtained by interpolation processing, and three images (hereinafter referred to as interpolation processing) are performed. , Referred to as “first to third interpolated image data”). Then, image data for one frame is generated by combining the first to third interpolation image data.
[0102]
In the interpolation processing for each field image data referred to here, for example, with respect to a sky pixel for a predetermined color, a pixel of a sky pixel is used by using pixel data of a predetermined color that is closest in the J direction and −J direction that are vertical directions. The value can be determined. This will be specifically described below.
[0103]
For example, assuming that the
[0104]
As for the R pixel, if the position (i, j) belongs to the
[0105]
That is, the first field image data 210 is acquired by reading out the charge signal accumulated in the
[0106]
Then, by adding each pixel value of the first to third interpolation image data, the first to third interpolation image data is synthesized to generate one frame of image data. That is, the
[0107]
[Expression 1]
[0108]
Here, when the expressions (1) to (4) indicate the pixel values of R, Gr, Gb, and B for the pixels belonging to the
[0109]
In the example of the interpolation processing described above, interpolation processing considering only pixel values in the vertical direction (J direction) is performed, but other interpolation processing considering pixel values in the horizontal direction (I direction) is performed. Also good.
[0110]
Returning to the flowchart of FIG.
[0111]
In step S33, as described above, image data for one frame is generated by combining the first to third interpolation image data, and the process proceeds to step S34. Each interpolated image data is, for example, 10-bit digital data, and the image data for one frame after synthesis is also 10-pit digital data.
[0112]
In step S34, the
[0113]
Thus, for example, three exposure conditions (EV = EV 0 -1, EV 0 , EV 0 Image data for one frame is acquired based on the first to third field image data 210 to 230 obtained in +1). The acquired image data is obtained by flash photography with a light emission amount such that the exposure amount is 3.5 times the appropriate exposure in a general digital imaging device, as shown in equations (1) to (4). It has a pixel value equivalent to the obtained image data. Therefore, a highly sensitive photographed image can be acquired in photographing in the high sensitivity mode.
[0114]
By the way, even by amplifying the pixel value obtained with the light emission amount so that the exposure amount becomes the appropriate exposure to 3.5 times, the flash photography is performed with the light emission amount so that the exposure amount becomes 3.5 times the appropriate exposure. A pixel value substantially equivalent to the image data obtained in this way can be obtained. However, with this method, even the noise component in the image data is amplified by a factor of 3.5, so the quality of the captured image is degraded. In contrast, in shooting in the high sensitivity mode according to the present embodiment, since three different image data are synthesized, noise components in the image data are randomized, so that deterioration of the image quality of the shot image is suppressed. Can do.
[0115]
Also, in a general digital imaging device, for example, in order to obtain image data by photographing with a light emission amount such that the shutter speed is constant and the exposure amount is 3.5 times the appropriate exposure, the appropriate exposure is required. The built-in flash consumes about 3.5 times as much energy as the case of shooting. In addition, three exposure conditions (EV = EV) 0 -1, EV 0 , EV 0 Even in the case of performing the exposure in +1), the built-in flash consumes 3.5 times as much energy as the standard when shooting with proper exposure.
[0116]
On the other hand, in the shooting in the high sensitivity mode according to the present embodiment, a single flash shooting is performed by emitting a plurality of times in a short time, and pixel values for a plurality of image data obtained with different exposure conditions are obtained. to add. As a result, since the built-in
[0117]
Further, in a general digital imaging apparatus in which a high-pixel CCD imaging device for a recent digital camera is used, for example, a time required for reading out data of all pixels of the imaging device (required reading time) is about 250 ms to 300 ms. And three exposure conditions (EV = EV 0 -1, EV 0 , EV 0 In order to perform photographing three times at +1), at least twice the required readout time is required from the start of the first exposure to the end of the third exposure. Therefore, in order to prevent blur from occurring in an image generated by combining three images later, the subject is limited to an object that is completely stationary.
[0118]
On the other hand, in the shooting in the high sensitivity mode according to the present embodiment, three exposure conditions (EV = EV 0 -1, EV 0 , EV 0 The time required from the start of exposure to the end of exposure in +1) is, for example, 250 to 300 ms, which is about the same as the required readout time. Therefore, the present invention can be applied to a subject that moves to some extent. That is, it is possible to acquire an appropriate captured image corresponding to the subject during flash shooting.
[0119]
<(1-3-2) Shooting operation in flash bracket mode>
In the above-described shooting in the high sensitivity mode, for example, the first to third interpolation image data are combined to obtain one frame of image data. However, in the shooting in the flash bracket mode, the first to third interpolation image data are used. Coloring, γ correction, various image processing, and AE / WB correction are performed on the first to third interpolated image data without combining, and image data for three frames is obtained. Then, each of the obtained image data for three frames is subjected to compression processing by the compression /
[0120]
As described above, in the shooting in the flash bracket mode according to the present embodiment, the flash shooting is performed a plurality of times in a short time to perform one flash shooting, and finally, based on a plurality of image data obtained with different exposure conditions. The image data for a plurality of frames having different exposure conditions is acquired. As a result, as described in the description of the shooting in the high sensitivity mode, in a general digital imaging device, an increase in power consumption or the like is obtained in comparison with a case where a plurality of similar image data is acquired by dividing into a plurality of shootings. Can be suppressed.
[0121]
Further, in the shooting in the flash bracket mode according to the present embodiment, as described in the description of the shooting in the high sensitivity mode, a plurality of captured images having different exposure conditions can be obtained in a shorter time than a general digital imaging device. Can do. Therefore, even for a subject that moves to some extent, image data for a plurality of frames with different exposure conditions can be obtained with substantially the same composition. That is, it is possible to acquire an appropriate captured image corresponding to the subject during flash shooting.
[0122]
Furthermore, in the shooting in the flash bracket mode according to the present embodiment, a plurality of field image data including all color components corresponding to the color filter array of the
[0123]
<(1-3-3) Shooting operation in proper gradation mode>
In the above-described shooting in the high sensitivity mode, for example, if the first to third field image data 210 to 230 are 10-bit digital data, the image data for one frame after synthesis is also the same 10-bit digital data. It became. However, in the photographing operation in the appropriate gradation mode, for example, the image data for one frame after synthesis is handled as 11-bit digital data. Therefore, the flow of the shooting operation in the appropriate gradation mode is different only in the process of step S33 shown in FIG. 8, and the flow of the other shooting operations is exactly the same as the shooting operation in the high sensitivity mode.
[0124]
The difference between the shooting operation in the proper gradation mode and the shooting operation in the high sensitivity mode will be described below.
[0125]
For example, as described in the photographing operation in the high sensitivity mode, when the first to third interpolated image data are added, R in the image data for one frame after the synthesis is calculated based on the equations (1) to (4). , Gr, Gb, and B pixels are obtained. At this time, in the appropriate gradation mode, addition processing is performed, gradation conversion processing is performed so that each pixel value is 2/3 times, and the pixel value is handled as 11-bit digital data. That is, the image data for one frame is generated by adding the pixel values in the first to third interpolation image data while converting the gradation characteristics such as the number of gradations.
[0126]
The meaning of the
[0127]
In the present embodiment, the numerical value of 2/3 times is multiplied, but for example, the numerical value of 4/3 times is multiplied by 2 Ten × (4/3) × 3 = 2 12 As in (12 bits), all gradations represented by 12-bit data may be used up. Also, multiply by a value of 1/3
[0128]
Therefore, in general, when there are M pieces of image data to be combined (provided that M ≧ 2), r = 2 n Multiplying each pixel value in each interpolated image data before addition or each pixel value before addition by a value r satisfying / M (where n is a natural number), N bits (where N is a natural number) By using up all the gradations represented by the data, the contrast can be expressed clearly. However, if r is too small, the number of gradation representations decreases, leading to degradation of image quality. Therefore, it is preferable from the viewpoint of image quality to make it larger than the number of gradation representations (N bits) of the original image data. On the other hand, if r is too large, the number of gradation representations (data length or number of bits) increases, leading to a decrease in processing speed and a lack of storage medium capacity. Therefore, the value of r may be 2 or less. preferable.
[0129]
In the specific processing in this embodiment, for a certain pixel before synthesis, the pixel value in the first interpolation image data is 519/1023 gradation, and the pixel value in the second interpolation image data is the maximum luminance. When the pixel value of the tone and the third interpolation image data is 1023/1023 gradation, which is the maximum luminance, a conversion process for multiplying the combined pixel value by 2/3 is performed, and this pixel value is converted into 11-bit digital data. As a result, the combined and converted pixel value becomes 1710/2047 gradation. Similarly, a combination and conversion process is performed on various combinations of pixel values as described above, and image data for one frame is handled as 11-bit digital data.
[0130]
By the way, in a general digital imaging device, exposure conditions (EV = EV = 0 ) Only, the subject in which a very bright portion and a very dark portion are mixed tends to be blacked out or whited out.
[0131]
On the other hand, in shooting in the proper gradation mode according to the present embodiment, a plurality of image data (first to first images) having different exposure conditions are obtained by performing flash emission once in a plurality of times in a short time. The pixel values in the third interpolated image data) are added while converting the gradation characteristics, so that even in a photographed image acquired for a subject in which a very bright part and a very dark part are mixed, The occurrence of white crushing can be suppressed.
[0132]
For example, with respect to a very dark portion, it is possible to prevent the occurrence of black crushing, particularly by producing a gradation difference due to a change in pixel value in the third interpolation image data. Further, with respect to a very bright portion, it is possible to prevent occurrence of white crushing, particularly by producing a gradation difference due to a change in pixel value in the first interpolation image data. As a result, in shooting in the proper gradation mode, even when shooting a subject with a large luminance difference, the image data for one frame that is finally obtained is expressed with the luminance difference compressed. An image with good exposure can be obtained. That is, an image having a large dynamic range can be obtained by complementing a portion where light reflection from a subject is large and a portion where light reflection is low during flash photography.
[0133]
In the shooting in the appropriate gradation mode according to the present embodiment, a plurality of image data (first to third images) having different exposure conditions are obtained by performing a single flash shooting by emitting light a plurality of times in a short time. The pixel values in the interpolation image data) are added while converting the gradation characteristics. As a result, as described in the description of photographing in the high sensitivity mode, a plurality of photographed images with different exposure conditions can be obtained in a shorter time than a general digital imaging device. Therefore, even with a subject that moves to some extent, by acquiring multiple field image data with almost the same composition and different exposure conditions, it is possible to suppress the occurrence of blurring of the subject during flash photography. Appropriate captured images corresponding to the luminance can be acquired. Furthermore, as described in the description of the shooting in the high sensitivity mode, in a general digital imaging device, the power consumption is increased as compared with the case where a plurality of similar field image data is acquired by dividing into a plurality of shootings. Can be suppressed.
[0134]
As described above, in the imaging apparatus 1A according to the present embodiment, in accordance with the setting of the special shooting mode, a plurality of flashes are emitted in a short time to perform one flash shooting, and a plurality of different exposure states are obtained. Various images are generated based on the image data. As a result, it is possible to provide an imaging device that can easily acquire various captured images and appropriate captured images according to the subject during flash shooting.
[0135]
<(2) Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the contents described above.
[0136]
For example, the structure of the
[0137]
The “addition readout” here is a readout method employed in a subject monitor mode of a CCD image sensor for a general digital camera, and is used for high sensitivity and countermeasures against false colors. As a specific example, when a charge is transferred from a vertical CCD to a horizontal CCD, the vertical CCD transfers the charges of a plurality of lines in the horizontal direction to the horizontal CCD instead of transferring the charges for each line in the horizontal direction. Later, there is a readout method in which a charge transfer operation by a horizontal CCD is performed, and charges for a plurality of horizontal lines are superimposed and output as pixel values.
[0138]
FIG. 10 is a diagram for explaining the operation of the imaging apparatus 1B according to the modification of the present invention. Note that FIG. 10 illustrates the case where an image sensor capable of “addition reading” is used for the
[0139]
As shown in FIG. 10, the difference from the operation of the
[0140]
Here, since the
[0141]
In such a case, the pixel value of the third field image data 230 is larger than that of the image data based only on the charges accumulated in the
[0142]
In the above-described embodiment, as shown in FIG. 9, when the charge signal is read from the
[0143]
At this time, the second and third field image data 220 and 230 have the same exposure condition (EV = EV 0 ), The two image data 220 and 230 are combined to form one exposure condition (EV = EV 0 ) Can be obtained as image data. Therefore, the number of image data with different exposure conditions decreases, but here the exposure condition (EV = EV 0 As for the image data obtained in (), the number of empty pixels is halved as compared with each of the second and third field image data 220 and 230 in the above-described embodiment. As a result, since the accuracy of the interpolation processing in the
[0144]
In the above-described embodiment, three exposure conditions (EV = EV 0 -1, EV 0 , EV 0 +1), the first to third field image data 210 to 230 are acquired. However, the exposure conditions are not limited to those described above. For example, depending on the setting of the user, the exposure amount is 1/4 times or 1 time the appropriate exposure. Three to three times of exposure conditions (EV = EV) 0 -2, EV 0 , EV 0 In +2), the first to third field image data 210 to 230 may be acquired. That is, the light emission amount in the first light emission may be different from the light emission amount in the second light emission.
[0145]
As described above, by changing the light emission amount for a plurality of times of light emission during exposure in one short flash photography, for example, a plurality of images with different exposure states can be efficiently acquired in a short time. That is, it is possible to acquire a more appropriate captured image according to the user's intention and the state of the subject.
[0146]
In the above-described embodiment, the charge signals are read from the first to
[0147]
Specifically, for example, the
[0148]
In the above-described embodiment, the
[0149]
In the above-described embodiment, the
[0150]
Also, in the above-described embodiment, in the shooting in the flash bracket mode, the complementary processing is performed on each field image data to generate the complementary image data. An image (thinned image) thinned out in the horizontal direction may be generated. At this time, although the image size of each thinned image is reduced, the amount of image data is reduced, so that the processing time required from the start of recording to recording and display can be shortened.
[0151]
In the above-described embodiment, in flash photography, various images are finally generated based on all the field image data acquired continuously. However, the present invention is not limited to this. For example, 3 Two interpolated image data may be generated from two field image data of the two field image data, and finally various images may be generated based on the two interpolated image data.
[0152]
In the above-described embodiment, the portion that emits light is the built-in
[0153]
【The invention's effect】
As described above, according to the first to fifth aspects of the present invention, a plurality of flashes are emitted in a short period of time to perform one flash photography, and based on a plurality of image data obtained under different exposure conditions. By generating various image data, it is possible to provide an imaging apparatus that can easily acquire various captured images and appropriate captured images according to the subject during flash shooting.
[0154]
In particular, in the second aspect of the present invention, a plurality of light emission is performed in a short time to perform one flash photographing, a plurality of color components corresponding to the color filter array of the light receiving unit, and a plurality of different exposure conditions. Since image data can be obtained, it is possible to easily acquire an appropriate full-color captured image corresponding to the subject during flash shooting. For example, a plurality of full-color captured images with different exposure conditions can be efficiently acquired in a short time.
[0155]
According to a third aspect of the present invention, a plurality of times of light emission is performed in a short time to perform one flash photographing, and pixel values for a plurality of image data obtained under different exposure conditions are added, thereby High-sensitivity captured images can be acquired during flash photography while suppressing enlargement and power consumption.
[0156]
According to a fourth aspect of the present invention, light emission is performed a plurality of times in a short time to perform one flash photographing, and gradation characteristics are converted for pixel values of a plurality of image data obtained under different exposure conditions. By adding them, it is possible to acquire an appropriate captured image according to the brightness of the subject while suppressing blurring of the image and power consumption during flash shooting.
[0157]
Further, in the invention of
[Brief description of the drawings]
FIG. 1 is a perspective view showing an imaging apparatus 1A according to an embodiment of the present invention.
FIG. 2 is a rear view of the imaging apparatus 1A.
FIG. 3 is a diagram illustrating functional blocks of the imaging apparatus 1A.
FIG. 4 is a diagram for explaining a flow of image signals and the like in the imaging apparatus 1A.
FIG. 5 is a diagram for explaining a charge reading method of the
FIG. 6 is a diagram for explaining a high-speed reading mode of the
FIG. 7 is a flowchart for explaining a photographing operation of the imaging apparatus 1A.
FIG. 8 is a flowchart for explaining a photographing operation of the imaging apparatus 1A.
FIG. 9 is a diagram for describing a photographing operation of the imaging apparatus 1A.
FIG. 10 is a diagram for describing a shooting operation of an imaging apparatus 1B according to a modification of the present invention.
FIG. 11 is a diagram for explaining a charge reading method of a CCD according to a conventional technique.
FIG. 12 is a diagram for explaining a charge reading method of a CCD according to a conventional technique.
[Explanation of symbols]
1A, 1B imaging device
2 CCD (imaging means)
2a Light receiver
5 Camera microcomputer
7 Built-in flash (light emitting part)
21 First field
22 Second field
23 Third field
43 Image processing unit (image generating means)
66 Flash control circuit (light emission control means)
Claims (5)
(a)撮影の際に受光部に蓄積される電荷信号を、前記受光部の画素配列を複数のフィールドに分けて読み出し可能な撮像手段と、
(b)前記発光部が第1の発光を行うとともに、前記第1の発光後、前記複数のフィールドのうちの第1のフィールドから電荷信号を読み出す際に、前記発光部が第2の発光を行うように制御する発光制御手段と、
(c)前記第2の発光前において前記受光部に蓄積される電荷信号を前記第1のフィールドから読み出すことによって得られる第1の画像データと、前記第2の発光前後において前記受光部に蓄積される電荷信号を前記複数フィールドのうちの第2のフィールドから読み出すことによって得られる第2の画像データとに基づいて、所定の画像データを生成する画像生成手段と、
を備えることを特徴とする撮像装置。An imaging device having a light emitting unit,
(a) an image pickup means capable of reading out a charge signal accumulated in a light receiving portion at the time of photographing by dividing a pixel array of the light receiving portion into a plurality of fields;
(b) The light emitting unit emits the first light, and after the first light emission, the light emitting unit emits the second light when the charge signal is read from the first field of the plurality of fields. Light emission control means for controlling to perform,
(c) first image data obtained by reading from the first field a charge signal accumulated in the light receiving unit before the second light emission, and accumulation in the light receiving unit before and after the second light emission. Image generating means for generating predetermined image data based on second image data obtained by reading out a charge signal to be read from a second field of the plurality of fields;
An imaging apparatus comprising:
前記受光部の画素配列が、
色フィルタ配列を有し、
前記第1および第2のフィールドのそれぞれが、
前記色フィルタ配列の全色成分を含むことを特徴とする撮像装置。The imaging apparatus according to claim 1,
The pixel array of the light receiving unit is
A color filter array;
Each of the first and second fields is
An imaging apparatus comprising all the color components of the color filter array.
前記画像生成手段が、
前記第1の画像データにおける画素値と、前記第2の画像データにおける画素値とを加算処理することによって、前記所定の画像データを生成することを特徴とする撮像装置。The imaging apparatus according to claim 1 or 2,
The image generating means
An image pickup apparatus that generates the predetermined image data by adding a pixel value in the first image data and a pixel value in the second image data.
前記画像生成手段が、
前記第1の画像データにおける画素値と、前記第2の画像データにおける画素値とについて、階調特性を変換しつつ加算処理することによって、前記所定の画像データを生成することを特徴とする撮像装置。The imaging apparatus according to claim 1 or 2,
The image generating means
The predetermined image data is generated by adding the pixel values in the first image data and the pixel values in the second image data while converting gradation characteristics. apparatus.
前記第1の発光における発光量と、前記第2の発光における発光量とが異なることを特徴とする撮像装置。The imaging device according to any one of claims 1 to 4,
An imaging apparatus, wherein a light emission amount in the first light emission is different from a light emission amount in the second light emission.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002285807A JP3843924B2 (en) | 2002-09-30 | 2002-09-30 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002285807A JP3843924B2 (en) | 2002-09-30 | 2002-09-30 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004128558A JP2004128558A (en) | 2004-04-22 |
JP3843924B2 true JP3843924B2 (en) | 2006-11-08 |
Family
ID=32279015
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002285807A Expired - Fee Related JP3843924B2 (en) | 2002-09-30 | 2002-09-30 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3843924B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008263314A (en) * | 2007-04-10 | 2008-10-30 | Sony Corp | Imaging device and imaging method |
JP5061697B2 (en) * | 2007-04-10 | 2012-10-31 | ソニー株式会社 | Imaging apparatus and imaging method |
JP5159461B2 (en) * | 2008-06-20 | 2013-03-06 | 三洋電機株式会社 | Image processing apparatus, image processing method, and imaging apparatus |
JP4934123B2 (en) * | 2008-09-30 | 2012-05-16 | 富士フイルム株式会社 | Imaging apparatus and method |
JP5474653B2 (en) * | 2010-05-07 | 2014-04-16 | オリンパスイメージング株式会社 | Imaging apparatus and imaging method |
JP5724609B2 (en) * | 2011-05-13 | 2015-05-27 | 富士通セミコンダクター株式会社 | Image processing apparatus, image processing method, and imaging apparatus |
-
2002
- 2002-09-30 JP JP2002285807A patent/JP3843924B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004128558A (en) | 2004-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3551123B2 (en) | Electronic camera | |
KR100819804B1 (en) | Photographing apparatus | |
JP5701664B2 (en) | Imaging device | |
US7379094B2 (en) | Electronic still imaging apparatus and method having function for acquiring synthesis image having wide-dynamic range | |
US7509042B2 (en) | Digital camera, image capture method, and image capture control program | |
US9118854B2 (en) | Methods and apparatus for providing optical black compensation of added images | |
EP1246453A2 (en) | Signal processing apparatus and method, and image sensing apparatus | |
JP3395770B2 (en) | Digital still camera | |
JP2004128584A (en) | Photographing apparatus | |
JP2000059677A (en) | Digital camera | |
JP4398389B2 (en) | Imaging device | |
JP7157714B2 (en) | Image processing device and its control method | |
JP3999321B2 (en) | Electronic camera | |
JP3546854B2 (en) | Camera body and exposure control method | |
JP2022183218A (en) | Image processing device and control method thereof | |
JP5138521B2 (en) | Imaging apparatus and imaging method | |
JP3843924B2 (en) | Imaging device | |
JP2020038505A (en) | Image processing device, capturing device, image processing method, and program | |
JP4335728B2 (en) | Image processing apparatus and method | |
JP2004007133A (en) | Image pickup device | |
JP4178046B2 (en) | Digital camera | |
JP2004007048A (en) | Imaging apparatus | |
JP2000023016A (en) | Digital camera | |
JP2002223386A (en) | Photographing device | |
JP2006080960A (en) | Image pickup device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040917 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20040917 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20041217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060614 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060807 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100825 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110825 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120825 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130825 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |