JP2009116244A - 撮像装置 - Google Patents
撮像装置 Download PDFInfo
- Publication number
- JP2009116244A JP2009116244A JP2007291932A JP2007291932A JP2009116244A JP 2009116244 A JP2009116244 A JP 2009116244A JP 2007291932 A JP2007291932 A JP 2007291932A JP 2007291932 A JP2007291932 A JP 2007291932A JP 2009116244 A JP2009116244 A JP 2009116244A
- Authority
- JP
- Japan
- Prior art keywords
- image
- color
- image data
- acquisition unit
- image acquisition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 22
- 239000003086 colorant Substances 0.000 claims description 10
- 230000004075 alteration Effects 0.000 abstract description 10
- 230000006866 deterioration Effects 0.000 abstract description 4
- CNQCVBJFEGMYDW-UHFFFAOYSA-N lawrencium atom Chemical compound [Lr] CNQCVBJFEGMYDW-UHFFFAOYSA-N 0.000 abstract description 3
- 238000011156 evaluation Methods 0.000 description 64
- 238000000034 method Methods 0.000 description 62
- 238000004364 calculation method Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Color Television Image Signal Generators (AREA)
Abstract
【課題】軸上色収差による画像の劣化を防止すること。
【解決手段】画像取得部104aは、撮像素子103のフィルタにより色分解されたR、G、Bの各色ごとにフォーカスレンズ位置を決定して、撮像素子103により各色ごとの画像データを取得する。そして、画像取得部104aは、取得した各色ごとの画像データに対して補間処理を実行してRGB画像データを作成する。画像ファイル生成部104bは、RGB画像データに基づいて、画像ファイルを生成する。
【選択図】図1
【解決手段】画像取得部104aは、撮像素子103のフィルタにより色分解されたR、G、Bの各色ごとにフォーカスレンズ位置を決定して、撮像素子103により各色ごとの画像データを取得する。そして、画像取得部104aは、取得した各色ごとの画像データに対して補間処理を実行してRGB画像データを作成する。画像ファイル生成部104bは、RGB画像データに基づいて、画像ファイルを生成する。
【選択図】図1
Description
本発明は、被写体像を撮像して画像を取得する撮像装置に関する。
次のようなカメラが知られている。このカメラは、レンズを開放状態にして焦点検出を行った後、レンズを撮影のために絞り込んだ状態にして焦点検出を行うことにより、ピント変動を補正するものである(例えば、特許文献1)。
しかしながら、従来のカメラは、撮影時の絞り値における合焦状態を得ることはできるが、レンズの軸上色収差については考慮されていなかったため、軸上色収差によって画像が劣化する可能性があった。
本発明による撮像装置は、被写体像を複数色に色分解するフィルタが配置されたエリアセンサーで構成されるイメージセンサーと、フィルタにより色分解された各色ごとにフォーカスレンズ位置を決定して、イメージセンサーにより各色ごとの画像データを取得する画像データ取得手段と、各色ごとの画像データに基づいて、画像ファイルを生成する画像ファイル生成手段とを備えることを特徴とする。
本発明では、画像データ取得手段は、各色ごとのフォーカスレンズ位置を決定する度に、その色の画像データを取得するようにしてもよい。
画像データ取得手段は、イメージセンサーで取得した画像データを間引いた画像データに基づいて、フォーカスレンズ位置を決定するようにしてもよい。
画像データ取得手段は、イメージセンサーの出力に基づいて各色のフォーカスレンズ位置を全て決定した後に、フォーカスレンズを各位置に移動させて各色の画像データを取得するようにしてもよい。
画像データ取得手段は、イメージセンサーの出力に基づいて少なくとも1色のフォーカスレンズ位置を基準位置として決定し、決定した基準位置に基づいて、他の色のフォーカスレンズ位置を決定するようにしてもよい。
本発明では、画像データ取得手段は、各色ごとのフォーカスレンズ位置を決定する度に、その色の画像データを取得するようにしてもよい。
画像データ取得手段は、イメージセンサーで取得した画像データを間引いた画像データに基づいて、フォーカスレンズ位置を決定するようにしてもよい。
画像データ取得手段は、イメージセンサーの出力に基づいて各色のフォーカスレンズ位置を全て決定した後に、フォーカスレンズを各位置に移動させて各色の画像データを取得するようにしてもよい。
画像データ取得手段は、イメージセンサーの出力に基づいて少なくとも1色のフォーカスレンズ位置を基準位置として決定し、決定した基準位置に基づいて、他の色のフォーカスレンズ位置を決定するようにしてもよい。
本発明によれば、軸上色収差による画像の劣化を防ぐことができる。
―第1の実施の形態―
図1は、第1の実施の形態におけるカメラの一実施の形態の構成を示すブロック図である。カメラ100は、操作部材101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106とを備えている。操作部材101は、使用者によって操作される種々の入力部材、例えば電源ボタン、レリーズボタン、ズームボタン、十字キー、決定ボタン、再生ボタン、削除ボタンなどを含んでいる。
図1は、第1の実施の形態におけるカメラの一実施の形態の構成を示すブロック図である。カメラ100は、操作部材101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106とを備えている。操作部材101は、使用者によって操作される種々の入力部材、例えば電源ボタン、レリーズボタン、ズームボタン、十字キー、決定ボタン、再生ボタン、削除ボタンなどを含んでいる。
レンズ102は、複数の光学レンズ群から構成されるが、図1では代表して1枚のレンズで表している。このレンズ102には、オートフォーカス用のフォーカスレンズ(AFレンズ)も含まれる。
撮像素子103は、被写体像を複数色に色分解するフィルタが配置されたエリアセンサー、例えばCMOSイメージセンサーであって、レンズ102により結像した被写体像を撮像して画像を取得する。そして、取得した画像のデータ(画像データ)を制御装置104へ出力する。この撮像素子103には、例えば、単板式カラー撮像素子の最も代表的なR(赤)、G(緑)、B(青)のカラーフィルタがBayer配列されている。この撮像素子103で撮像される画像データはRGB表色系で示されるものとし、画像データを構成する各々の画素には、RGBの何れか1つの色成分の色情報が存在しているものとする。
制御装置104は、撮像素子103で取得された画像データに基づいて、所定形式の画像ファイル、例えばJpegファイルを生成し、生成した画像ファイルをメモリカードスロット105へ出力する。メモリカードスロット105は、記憶媒体としてのメモリカードを挿入するためのスロットであり、制御装置104から出力された画像ファイルをメモリカードに書き込んで記録する。また、制御装置104からの指示に基づいて、メモリカード内に記憶されている画像ファイルを読み込む。
モニタ106は、カメラ100の背面に搭載された液晶モニタ(背面モニタ)であり、当該モニタ106には、メモリカードに記憶されている画像やカメラ100を設定するための設定メニューなどが表示される。また、制御装置104は、撮像素子104を制御し、撮像素子103から時系列で水平方向のラインを間引いた画像を取得する。そして、制御装置104は、取得した画像データの垂直方向のラインを間引くことによってQGVAサイズの画像データ(QVGA画像データ)を生成し、モニタ106に出力する。これによって、モニタ106には、QVGA画像データが設定されたフレームレートで順番に表示される。すなわちモニタ106にはスルー画が表示される。
制御装置104は、CPU、メモリ、およびその他の周辺回路により構成され、画像取得部104aと、画像ファイル生成部104bとを機能的に備えている。なお、制御装置104を構成するメモリには、SDRAMやフラッシュメモリが含まれる。SDRAMは、揮発性のメモリであって、CPUがプログラム実行時にプログラムを展開するためのワークメモリとして使用されたり、データを一時的に記録するためのバッファメモリとして使用される。また、フラッシュメモリは、不揮発性のメモリであって、制御装置104が実行するプログラムのデータや、プログラム実行時に読み込まれる種々のパラメータなどが記録されている。
上述したように、撮像素子103にはR、G、BのカラーフィルタがBayer配列されており、このような撮像素子103によって取得された画像上では、軸上色収差に伴う色滲みが発生している可能性がある。すなわち、RGBのいずれかの色成分の焦点が撮像素子103の撮像面からずれることにより、撮像により得られる画像上に色滲みが発生する可能性がある。例えば、図2(a)に示す例では、G成分の焦点は撮像面2aと一致しているが、R成分、およびB成分の焦点が撮像面2aからずれているため、画像上に色滲みが発生する。
このため、本実施の形態におけるカメラ100では、画像取得部104aは、この軸上色収差に伴う色滲みの発生を防止するために次のように処理する。すなわち、画像取得部104aは、AFレンズをR成分の焦点が合った位置(R成分のAFポジション)へ移動させた状態で撮像し、取得した画像からR画素のみを読み出した画像データ(図3(a)に示すR画像)をSDRAMに記録する。また、画像取得部104aは、AFレンズをG成分の焦点が合った位置(G成分のAFポジション)へ移動させた状態で撮像し、取得した画像からG画素のみを読み出した画像データ(図3(b)に示すG画像)をSDRAMに記録する。さらに、画像取得部104aは、AFレンズをB成分の焦点が合った位置(B成分のAFポジション)へ移動させた状態で撮像し、取得した画像からB画素のみを読み出した画像データ(図3(c)に示すB画像)をSDRAMに記録する。
これによって、画像取得部104aは、図2(b)に示すように、R成分、G成分、B成分のそれぞれの焦点が撮像面2aと一致した状態のR画像、G画像、およびB画像を取得することができる。画像取得部104aは、このようにして取得したR画像、G画像、およびB画像を用いて補間処理を行うことによって、RGB画像データを生成する。
画像ファイル生成部104bは、画像取得部104aによって生成されたRGB画像データに基づいて、所定のファイル形式の画像ファイル、例えばJpegファイルを生成し、内部メモリとしてのフラッシュメモリ、またはメモリカードスロット105に挿入されている外部メモリとしてのメモリカードに記録する。なお、フラッシュメモリとメモリカードのどちらに画像ファイルを記録するかは、使用者によってあらかじめ設定されている。
図4は、第1の実施の形態におけるカメラ100の処理を示すフローチャートである。この図4を用いて制御装置104(画像取得部104aおよび画像ファイル生成部104b)による処理の詳細について説明する。なお、図4に示す処理は、使用者によってカメラ100のモードが撮影を行うための撮影モードに設定されると起動するプログラムとして、制御装置104によって実行される。このプログラムのデータは、制御装置104が備えるフラッシュメモリに記録されている。
ステップS10において、画像取得部104aは、使用者によって撮影モードが解除されたか否かを判断する。本実施の形態におけるカメラ100では、使用者は、例えばカメラ100の電源をオフしたり、操作部材101を用いたメニュー操作によってカメラ100のモードを再生モードなどの他のモードに切り替えることによって、撮影モードを解除することができる。ステップS10で肯定判断した場合には、処理を終了する。これに対して、否定判断した場合には、ステップS20へ進む。
ステップS20では、画像取得部104aは、撮像素子103から時系列で画像を取得してモニタ106に出力することによってスルー画の撮影を開始する。また、レンズ101に含まれるAFレンズの移動を開始してピント合わせを開始する。その後、ステップS30へ進む。ステップS30では、画像取得部104aは、スルー画のフレームレートとして設定されている時間、例えば1/30秒が経過したか否かを判断する。肯定判断した場合には、ステップS40へ進む。
ステップS40では、画像取得部104aは、撮像素子102で撮像した水平ライン間引き画像データから垂直方向のラインを間引くことによってQVGA画像データを生成して、ステップS50へ進む。ステップS50では、画像取得部104aは、QVGA画像データに基づいてG成分のAF評価値(G評価値)XGiを算出し、算出結果をSDRAMに記録する。本実施の形態のカメラ100は、公知のコントラスト検出方式によりオートフォーカスを実現する。なお、AF評価値の算出方法については、公知のコントラスト算出の手法を用いれば良いため、説明を省略する。
その後、ステップS60へ進み、画像取得部104aは、今回算出したG評価値XGiと、前回の算出時に算出したG評価値XGi−1とをSDRAMから読み込んで、今回のG評価値XGiが前回のG評価値XGi−1よりも大きいか否かを判断する。肯定判断した場合には、ステップS70へ進み、画像取得部104aは、現在のAFレンズの移動方向を維持したままステップS90へ進む。これに対して、ステップS60で否定判断した場合には、ステップS80へ進み、画像取得部104aは、AFレンズの移動方向を現在の移動方向の逆に変更(反転)して、ステップS90へ進む。
ステップS90では、画像取得部104aは、使用者によって操作部材101に含まれるレリーズボタンが押下(全押し)されたことによって、レリーズがONされたか否かを判断する。否定判断した場合には、ステップS30へ戻って処理を繰り返す。これに対して、肯定判断した場合には、ステップS100へ進む。ステップS100では、画像取得部104aは、スルー画のフレームレートとして設定されている時間、例えば1/30秒が経過したか否かを判断する。肯定判断した場合には、ステップS110へ進む。
ステップS110では、画像取得部104aは、撮像素子102で撮像した全画面画像データを取得してステップS120へ進む。ステップS120では、画像取得部104aは、全画面画像データの水平方向のラインおよび垂直方向のラインを間引くことによってQVGA画像データを生成して、ステップS130へ進む。ステップ130では、画像取得部104aは、QVGA画像データに基づいてR成分のAF評価値(R評価値)XRj、G成分のAF評価値(G評価値)XGj、B成分のAF評価値(B評価値)XBjをそれぞれ算出し、算出結果をSDRAMに記録する。
また、画像取得部104aは、前回の算出時にSDRAMに記録したR成分のAF評価値(R評価値)XRj、G成分のAF評価値(G評価値)XGj、B成分のAF評価値(B評価値)XBjを、それぞれ前回のR評価値XRj−1、前回のG評価値XGj−1、および前回のB評価値XBj−1としてSDRAMに記録する。
その後、ステップS140へ進み、画像取得部104aは、SDRAMに記録されている今回算出したR評価値XRj、G評価値XGj、およびB評価値XBjと、前回算出したR評価値XRj−1、G評価値XGj−1、およびB評価値XBj−1とに基づいて、上述したR成分のAFポジション(Rポジション)、G成分のAFポジション(Gポジション)、B成分のAFポジション(Bポジション)を決定するための判定処理を実行する。
具体的には、画像取得部104aは、次式(1)を満たすときのAFレンズの位置をGポジションとして決定する。また、次式(2)を満たすときのAFレンズの位置をRポジションとして決定する。また、次式(3)を満たすときのAFレンズの位置をBポジションとして決定する。
DGj=XGj−1―XGj<0 AND DGj−1>0 ・・・(1)
DRj=XRj−1―XRj<0 AND DRj−1>0 ・・・(2)
DBj=XBj−1―XBj<0 AND DBj−1>0 ・・・(3)
DGj=XGj−1―XGj<0 AND DGj−1>0 ・・・(1)
DRj=XRj−1―XRj<0 AND DRj−1>0 ・・・(2)
DBj=XBj−1―XBj<0 AND DBj−1>0 ・・・(3)
なお、式(1)〜(3)において、DGj−1、DRj−1、およびDBj−1は、それぞれ前回算出DGj、DRj、およびDBjであって、SDRAMに記録されている。すなわち、式(1)〜(3)で算出したDGj、DRj、およびDBjがSDRAMに記録され、これが次回のAFポジション決定処理において、DGj−1、DRj−1、およびDBj−1として使用される。
その後、ステップS150へ進み、画像取得部104aは、ステップS140におけるAFポジション決定処理によって、Gポジションを決定したか否かを判断する。否定判断した場合には、ステップS100へ戻って処理を繰り返す。これに対して、肯定判断した場合には、ステップS160へ進む。ステップS160では、画像取得部104aは、AFレンズがGポジションにある状態で撮像を行って、上述したG画像を取得し、SDRAMに記録する。その後、ステップ161へ進む。
ステップS161では、ステップS100と同様に、画像取得部104aは、スルー画のフレームレートとして設定されている時間、例えば1/30秒が経過したか否かを判断する。肯定判断した場合には、ステップS162へ進む。ステップS162では、画像取得部104aは、撮像素子102で撮像した全画面画像データを取得してステップS163へ進む。ステップS163では、画像取得部104aは、全画面画像データの水平方向のラインおよび垂直方向のラインを間引くことによってQVGA画像データを生成して、ステップS164へ進む。
ステップ164では、画像取得部104aは、QVGA画像データに基づいてAFポジションが未決定の色のAF評価値、すなわちR成分のAF評価値(R評価値)XRjとB成分のAF評価値(B評価値)XBjとをそれぞれ算出し、算出結果をSDRAMに記録する。また、画像取得部104aは、前回の算出時にSDRAMに記録したR成分のAF評価値(R評価値)XRj、B成分のAF評価値(B評価値)XBjを、それぞれ前回のR評価値XRj−1、および前回のB評価値XBj−1としてSDRAMに記録する。
その後、ステップS165へ進み、画像取得部104aは、SDRAMに記録されている今回算出したR評価値XRj、およびB評価値XBjと、前回算出したR評価値XRj−1、およびB評価値XBj−1とに基づいて、上述した式(2)および(3)により、Rポジション、Bポジションを決定するための判定処理を実行する。画像取得部104aは、式(2)および(3)により算出したDRj、およびDBjをSDRAMに記録する。その後、ステップS170へ進む。
ステップS170では、画像取得部104aは、ステップS165におけるAFポジション決定処理で次の色のAFポジション、すなわちRポジションかBポジションを決定したか否かを判断する。否定判断した場合には、ステップS161へ戻り、再度、ステップS161からステップS165の処理を繰り返す。これに対して、ステップS170で肯定判断した場合には、ステップS180へ進む。
ステップS180では、画像取得部104aは、AFレンズがステップS165で決定したAFポジションにある状態で撮像を行って、AFポジションに対応する色の画像、すなわちR画像またはB画像を取得し、SDRAMに記録する。その後、ステップ190へ進み、画像取得部104aは、AFレンズの移動方向を現在の移動方向の逆に変更(反転)して、ステップS191へ進む。
ステップS191では、ステップS100と同様に、画像取得部104aは、スルー画のフレームレートとして設定されている時間、例えば1/30秒が経過したか否かを判断する。肯定判断した場合には、ステップS192へ進む。ステップS192では、画像取得部104aは、撮像素子102で撮像した全画面画像データを取得してステップS193へ進む。ステップS193では、画像取得部104aは、全画面画像データの水平方向のラインおよび垂直方向のラインを間引くことによってQVGA画像データを生成して、ステップS194へ進む。
ステップ194では、画像取得部104aは、QVGA画像データに基づいてAFポジションが未決定の色のAF評価値、すなわちR成分またはB成分のAF評価値を最後の色のAF評価値として算出し、算出結果をSDRAMに記録する。また、画像取得部104aは、前回の算出時にSDRAMに記録した最後の色のAF評価値を前回のAF評価値としてSDRAMに記録する。
その後、ステップS195へ進み、画像取得部104aは、SDRAMに記録されている今回算出したAF評価値と、前回のAF評価値とに基づいて、上述した式(2)または(3)により、最後の色のAFポジションを決定するための判定処理を実行する。画像取得部104aは、式(2)または(3)による算出結果をSDRAMに記録する。その後、ステップS200へ進む。
ステップS200では、画像取得部104aは、ステップS195におけるAFポジション決定処理で最後の色のAFポジションを決定したか否かを判断する。否定判断した場合には、ステップS191へ戻り、再度、ステップS191からステップS195の処理を繰り返す。これに対して、ステップS200で肯定判断した場合には、ステップS210へ進む。
ステップS210では、画像取得部104aは、AFレンズがステップS195で決定したAFポジションにある状態で撮像を行って、AFポジションに対応する色の画像を取得し、SDRAMに記録する。その後、ステップ220へ進み、画像取得部104aは、上記処理によってSDRAMに記録したR画像、G画像、およびB画像を用いて補間処理を行って、RGB画像データを生成する。その後、ステップS230へ進む。
ステップS230では、画像ファイル生成部104bは、画像取得部104aによって生成されたRGB画像データに基づいて、所定のファイル形式の画像ファイル、例えばJpegファイルを生成し、内部メモリとしてのフラッシュメモリ、またはメモリカードスロット105に挿入されている外部メモリとしてのメモリカードに記録する。その後、ステップS10へ戻る。
以上説明した第1の実施の形態によれば、以下のような作用効果を得ることができる。
(1)カメラ100は、被写体像を複数色に色分解するフィルタが配置されたエリアセンサーで構成されるイメージセンサー(CMONセンサー)を撮像素子103として備え、画像取得部104aは、フィルタにより色分解されたRGBの各色ごとにフォーカスレンズ位置(AFポジション)を決定して、撮像素子103により各色ごとの画像データ(R画像、G画像、B画像)を取得する。そして、画像取得部104aは、R画像、G画像、B画像を用いて補間処理を行ってRGB画像を生成する。画像ファイル生成部104bは、RGB画像に基づいて画像ファイルを生成するようにした。これによって、軸上色収差による画像の劣化を防ぐことができる。
(1)カメラ100は、被写体像を複数色に色分解するフィルタが配置されたエリアセンサーで構成されるイメージセンサー(CMONセンサー)を撮像素子103として備え、画像取得部104aは、フィルタにより色分解されたRGBの各色ごとにフォーカスレンズ位置(AFポジション)を決定して、撮像素子103により各色ごとの画像データ(R画像、G画像、B画像)を取得する。そして、画像取得部104aは、R画像、G画像、B画像を用いて補間処理を行ってRGB画像を生成する。画像ファイル生成部104bは、RGB画像に基づいて画像ファイルを生成するようにした。これによって、軸上色収差による画像の劣化を防ぐことができる。
(2)画像取得部104aは、R、G、Bの各色ごとのフォーカスレンズ位置(AFポジション)を決定する度に、その色の画像データを取得するようにした。これによって、各色ごとにピントが合った画像(合焦画像)をすばやく取得することができる。
(3)画像取得部104aは、撮像素子103で取得した全画面画像データを間引いたQVGA画像データに基づいて、AFポジションを決定するようにした。これによって、全画面画像データよりもQVGA画像データの方がデータ量が少ないため、AFポジション決定処理を高速化することができる。
―第2の実施の形態―
上述した第1の実施の形態では、画像取得部104aは、使用者によってレリーズボタンが全押しされると、Gポジション、Rポジション、およびBポジションを決定し、AFレンズが各ポジションに位置している状態で各色の画像を取得するようにした。これに対して、第2の実施の形態では、画像取得部104aは、使用者によってレリーズボタンが半押しされると、Gポジション、Rポジション、およびBポジションを決定して、各ポジションをSDRAMに記録する。そして、画像処理部104aは、全ての色のAFポジションを決定した後に、AFレンズを決定済みの各AFポジションに移動させて、それぞれの色の画像データを取得する。
上述した第1の実施の形態では、画像取得部104aは、使用者によってレリーズボタンが全押しされると、Gポジション、Rポジション、およびBポジションを決定し、AFレンズが各ポジションに位置している状態で各色の画像を取得するようにした。これに対して、第2の実施の形態では、画像取得部104aは、使用者によってレリーズボタンが半押しされると、Gポジション、Rポジション、およびBポジションを決定して、各ポジションをSDRAMに記録する。そして、画像処理部104aは、全ての色のAFポジションを決定した後に、AFレンズを決定済みの各AFポジションに移動させて、それぞれの色の画像データを取得する。
これによって、レリーズボタンを半押ししてピント合わせを行った後に撮影を行うという従来のカメラの操作性を維持したまま、軸上色収差による画像の劣化を防ぐという効果を得ることができる。なお、図1〜図3の各図については、第1の実施の形態と同様のため、説明を省略する。
図5は、第2の実施の形態におけるカメラ100の処理を示すフローチャートである。図5に示す処理は、使用者によってカメラ100のモードが撮影を行うための撮影モードに設定されると起動するプログラムとして、制御装置104によって実行される。このプログラムのデータは、制御装置104が備えるフラッシュメモリに記録されている。なお、図5においては、図4に示したフローチャートと同一の処理には同じステップ番号を付与して説明を省略し、相違点を中心に説明する。
ステップS91では、画像取得部104aは、使用者によって操作部材101に含まれるレリーズボタンが半押しされたか否かを判断する。否定判断した場合にはステップS30へ戻り、肯定判断した場合には、ステップS100へ進む。
第1の実施の形態では、ステップS150でGポジションを決定したと判断した後、ステップS170で次の色のAFポジションを決定したと判断した後、およびステップS200で最後の色のAFポジションを決定した後のぞれぞれの時点で、画像取得部104aは、各AFポジションで各色の画像データを取得した。しかしながら、上記各時点では各色の画像データを取得せず、各色のAFポジションのみを決定していく。
その後、ステップS211において、画像取得部104aは、SDRAMに記録されているRポジションを読み込んで、AFレンズをRポジションに移動させる。その後、ステップS212へ進み、画像取得部104aは、AFレンズがRポジションにある状態で撮像を行って、上述したR画像を取得し、SDRAMに記録する。その後、ステップS213へ進む。
ステップS213では、画像取得部104aは、SDRAMに記録されているGポジションを読み込んで、AFレンズをGポジションに移動させる。その後、ステップS214へ進み、画像取得部104aは、AFレンズがGポジションにある状態で撮像を行って、上述したG画像を取得し、SDRAMに記録する。その後、ステップS215へ進む。
ステップS215では、画像取得部104aは、SDRAMに記録されているBポジションを読み込んで、AFレンズをBポジションに移動させる。その後、ステップS216へ進み、画像取得部104aは、AFレンズがBポジションにある状態で撮像を行って、上述したB画像を取得し、SDRAMに記録する。その後、ステップS240へ進む。
以上説明した第2の実施の形態によれば、第1の実施の形態における作用効果に加えて、以下のような効果を得ることができる。
(1)画像取得部104aは、R,G、Bの各色のAFポジションを全て決定した後に、AFレンズを各ポジションに移動させて各色の画像データを取得するようにした。これによって、レリーズボタンを半押ししてピント合わせを行った後に撮影を行うという従来のカメラの操作性を維持したまま、軸上色収差による画像の劣化を防ぐことができる。
(1)画像取得部104aは、R,G、Bの各色のAFポジションを全て決定した後に、AFレンズを各ポジションに移動させて各色の画像データを取得するようにした。これによって、レリーズボタンを半押ししてピント合わせを行った後に撮影を行うという従来のカメラの操作性を維持したまま、軸上色収差による画像の劣化を防ぐことができる。
(2)また、第1の実施の形態と比較して、R、G、Bの各画像を撮像する時間的間隔が短くなるので、被写体ブレ画像や手ブレ画像が生成される可能性が低くなる。
―第3の実施の形態―
上述した第1および第2の実施の形態では、画像取得部104aは、R、G、BのそれぞれについてAFポジションを決定し、AFレンズが各AFポジションに位置している状態でR画像、G画像、およびB画像を撮影することによって、各色成分ごとに合焦画像を得る例について説明した。これに対して、第3の実施の形態では、画像取得部104aは、R、G、Bのうちいずれか1色について、上述したAF評価値に基づいてAFポジションを決定する。そして、他の色のAFポジションは、上記1色のAFポジションに基づいて決定する。
上述した第1および第2の実施の形態では、画像取得部104aは、R、G、BのそれぞれについてAFポジションを決定し、AFレンズが各AFポジションに位置している状態でR画像、G画像、およびB画像を撮影することによって、各色成分ごとに合焦画像を得る例について説明した。これに対して、第3の実施の形態では、画像取得部104aは、R、G、Bのうちいずれか1色について、上述したAF評価値に基づいてAFポジションを決定する。そして、他の色のAFポジションは、上記1色のAFポジションに基づいて決定する。
本実施の形態では、画像取得部104aは、Rポジションを上述したAF評価値に基づいて決定し、GポジションとBポジションは、Rポジションに基づいて決定する場合について説明する。すなわち、RポジションからGポジションまでのAFレンズの移動量と、RポジションからBポジションまでのAFレンズの移動量をあらかじめフラッシュメモリに記録しておく。そして、画像取得部104aは、Rポジションを決定した後、このRポジションを基準位置として、フラッシュメモリに記録されているそれぞれのポジションまでの移動量に基づいて、GポジションとBポジションを決定する。なお、図1〜図3の各図については、第1の実施の形態と同様のため、説明を省略する。
図6は、第3の実施の形態におけるカメラ100の処理を示すフローチャートである。図6に示す処理は、使用者によってカメラ100のモードが撮影を行うための撮影モードに設定されると起動するプログラムとして、制御装置104によって実行される。このプログラムのデータは、制御装置104が備えるフラッシュメモリに記録されている。なお、図6においては、図4および図5に示したフローチャートと同一の処理には同じステップ番号を付与して説明を省略し、相違点を中心に説明する。
ステップS51では、画像取得部104aは、QVGA画像データに基づいてR評価値XRiを算出し、算出結果をSDRAMに記録する。なお、上述した第1および第2の実施の形態では、図4または図5のステップS50において、画像取得部104aは、G評価値XGiを算出するようにしたが、第3の実施の形態では、上述したように、Rポジションを基準位置として算出するため、これに合わせてR評価値XRiを算出するようにする。
ステップS131では、画像取得部104aは、QVGA画像データに基づいてR成分のAF評価値(R評価値)XRjを算出し、算出結果をSDRAMに記録する。また、画像取得部104aは、前回の算出時に算出してSDRAMに記録してあるR成分のAF評価値(R評価値)XRjを前回のR評価値XRj−1としてSDRAMに記録する。その後、ステップS141へ進み、画像取得部104aは、第1の実施の形態で上述した式(2)により、Rポジションを決定する。
ステップS151では、画像取得部104aは、ステップS141のAFポジション決定処理によって、Rポジションが決定したか否かを判断する。否定判断した場合にはステップS100へ戻り、肯定判断した場合にはステップS152へ進む。ステップS152では、画像取得部104aは、フラッシュメモリからRポジションからGポジションまでのAFレンズの移動量を読み出して、決定したRポジションから読み出した移動量だけAFレンズを移動させた位置をGポジションとして決定する。また、画像取得部104aは、フラッシュメモリからRポジションからBポジションまでのAFレンズの移動量を読み出して、決定したRポジションから読み出した移動量だけAFレンズを移動させた位置をBポジションとして決定する。
その後、第2の実施の形態と同様に、ステップS211〜ステップS216の処理を実行して、Rポジション、Gポジション、BポジションのそれぞれポジションへAFレンズを移動させ、各ポジションにおいてR画像、G画像、およびB画像を取得する。
以上説明した第3の実施の形態によれば、第1の実施の形態における作用効果に加えて、以下のような効果を得ることができる。
(1)画像取得部104aは、撮像素子103で取得した全画面画像データに基づいて生成したQVGA画像データに基づいてR、G、Bのいずれか1色のAFポジションを決定した。そして、決定したAFポジションを基準位置として、他の色のAFポジションを決定するようにした。これによって、R,G,Bのいずれか一色についてのみAF評価値に基づくAFポジションの決定処理を行えば良いため、AFポジションを決定するための処理の負荷を低減することができる。さらに、AFポジションを高速に決定することができるようになるため、シャッターレリーズのタイムラグを短縮することもできる。
(2)また、第1の実施の形態と比較して、R、G、Bの各画像を撮像する時間的間隔が短くなるので、被写体ブレ画像や手ブレ画像が生成される可能性が低くなる。
―変形例―
なお、上述した実施の形態のカメラは、以下のように変形することもできる。
(1)上述した第1〜第3の実施の形態では、画像取得部104aは、撮像素子103で取得した全画面画像データを間引いてQVGA画像データを生成し、QVGA画像データに基づいてAFポジションを決定するためのAF評価値を算出する例について説明した。しかしながら、画像取得部104aは、全画面画像データに基づいてAFポジションを決定するようにしてもよい。
なお、上述した実施の形態のカメラは、以下のように変形することもできる。
(1)上述した第1〜第3の実施の形態では、画像取得部104aは、撮像素子103で取得した全画面画像データを間引いてQVGA画像データを生成し、QVGA画像データに基づいてAFポジションを決定するためのAF評価値を算出する例について説明した。しかしながら、画像取得部104aは、全画面画像データに基づいてAFポジションを決定するようにしてもよい。
(2)上述した第3の実施の形態では、画像取得部104aは、第2の実施の形態と同様に、あらかじめRポジション、Gポジション、およびBポジションを決定しておき、その後、順番に各ポジションにAFレンズを移動させて、各色の画像を取得する例について説明した。しかしながら、画像取得部104aは、第1の実施の形態と同様に、各ポジションを決定するごとに、各色の画像を取得するようにしてもよい。すなわち、画像取得部104aは、図6のステップS151でRポジションが決定したと判断した後にR画像を取得する。また、画像取得部104aは、ステップS152でGポジションを決定したらG画像を取得し、B画像を取得したらB画像を取得するようにしてもよい。
(3)上述した第3の実施の形態では、画像取得部104aは、AF評価値に基づいていずれか1色のAFポジションを決定し、決定したAFポジションを基準として、他の色のAFポジションを決定する例について説明した。しかしながら、画像取得部104aは、AF評価値に基づいていずれか2色のAFポジションを決定し、決定したAFポジションを基準として残りの1色のAFポジションを決定するようにしてもよい。このように2色のAFポジションを基準とすることによって、他の1色のAFポジションの決定精度を向上することができる。
(4)上述した第1〜第3の実施の形態では、カメラ100が備える制御装置104が図4〜図6に示したフローチャートの処理を実行する例について説明した。しかしながら、撮像素子を備えた他の機器、例えばカメラ付き携帯電話機などに本発明を適用して、それらの機器での撮影時に軸上色収差による画像の劣化を防ぐようにしてもよい。
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。
100 カメラ、101 操作部材、102 レンズ、103 撮像素子、104 制御装置、104a 画像取得部、104b 画像ファイル生成部、105 メモリカードスロット、106 モニタ
Claims (5)
- 被写体像を複数色に色分解するフィルタが配置されたエリアセンサーで構成されるイメージセンサーと、
前記フィルタにより色分解された各色ごとにフォーカスレンズ位置を決定して、前記イメージセンサーにより各色ごとの画像データを取得する画像データ取得手段と、
前記各色ごとの画像データに基づいて、画像ファイルを生成する画像ファイル生成手段とを備えることを特徴とする撮像装置。 - 請求項1に記載の撮像装置において、
前記画像データ取得手段は、各色ごとのフォーカスレンズ位置を決定する度に、その色の画像データを取得することを特徴とする撮像装置。 - 請求項2に記載の撮像装置において、
前記画像データ取得手段は、前記イメージセンサーで取得した画像データを間引いた画像データに基づいて、前記フォーカスレンズ位置を決定することを特徴とする撮像装置。 - 請求項1に記載の撮像装置において、
前記画像データ取得手段は、前記イメージセンサーの出力に基づいて各色のフォーカスレンズ位置を全て決定した後に、前記フォーカスレンズを各位置に移動させて各色の画像データを取得することを特徴とする撮像装置。 - 請求項1に記載の撮像装置において、
前記画像データ取得手段は、前記イメージセンサーの出力に基づいて少なくとも1色のフォーカスレンズ位置を基準位置として決定し、決定した前記基準位置に基づいて、他の色のフォーカスレンズ位置を決定することを特徴とする撮像装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007291932A JP2009116244A (ja) | 2007-11-09 | 2007-11-09 | 撮像装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007291932A JP2009116244A (ja) | 2007-11-09 | 2007-11-09 | 撮像装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009116244A true JP2009116244A (ja) | 2009-05-28 |
Family
ID=40783418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007291932A Pending JP2009116244A (ja) | 2007-11-09 | 2007-11-09 | 撮像装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009116244A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015072324A (ja) * | 2013-10-02 | 2015-04-16 | キヤノン株式会社 | 画像処理装置、撮像装置及び画像処理方法 |
EP3145171A1 (en) * | 2015-09-15 | 2017-03-22 | Mitutoyo Corporation | Chromatic aberration correction in imaging system including variable focal length lens |
-
2007
- 2007-11-09 JP JP2007291932A patent/JP2009116244A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015072324A (ja) * | 2013-10-02 | 2015-04-16 | キヤノン株式会社 | 画像処理装置、撮像装置及び画像処理方法 |
EP3145171A1 (en) * | 2015-09-15 | 2017-03-22 | Mitutoyo Corporation | Chromatic aberration correction in imaging system including variable focal length lens |
US9774765B2 (en) | 2015-09-15 | 2017-09-26 | Mitutoyo Corporation | Chromatic aberration correction in imaging system including variable focal length lens |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI420902B (zh) | 相機、相機之控制程式及相機之控制方法 | |
JP2004064676A (ja) | 撮像装置 | |
JP2008288911A (ja) | 撮像装置、顔領域検出プログラム、及び、顔領域検出方法 | |
JP2007135133A (ja) | 撮像装置 | |
JP4605217B2 (ja) | 撮影装置及びそのプログラム | |
JP4799366B2 (ja) | 撮像装置及び画像再生装置 | |
JP2010054730A (ja) | 合焦位置検出装置、撮像装置及び合焦位置検出方法 | |
KR100819811B1 (ko) | 촬상 장치 및 촬상 방법 | |
JP4792929B2 (ja) | デジタルカメラ | |
JP2013110754A (ja) | カメラ装置、及びその撮影方法とプログラム | |
JP5310076B2 (ja) | 画像処理装置、および画像処理プログラム | |
JP2005323162A (ja) | 撮像装置及び画像記録方法 | |
JP2007311962A (ja) | 電子カメラおよび画像表示プログラム | |
JP2006287814A (ja) | 撮像装置及び動きベクトル決定方法 | |
JP2009223056A (ja) | 撮影装置及び撮影方法 | |
JP2010193324A (ja) | カメラ装置、及びその撮影方法とプログラム | |
JP2008263478A (ja) | 撮像装置 | |
JP2005012423A (ja) | 撮像装置及び信号処理装置 | |
JP2009116244A (ja) | 撮像装置 | |
JP2009055415A (ja) | カメラ | |
JP4705146B2 (ja) | 撮像装置及び撮像方法 | |
JP2008067298A (ja) | 撮影装置及びプログラム | |
JP4888829B2 (ja) | 動画処理装置、動画撮影装置および動画撮影プログラム | |
JP2006262221A (ja) | 撮像装置および画像処理方法 | |
JP2014066904A (ja) | 撮像装置、画像処理装置、画像処理サーバおよび表示装置 |