JP6548141B2 - Image detection apparatus, image detection method and image detection program - Google Patents
Image detection apparatus, image detection method and image detection program Download PDFInfo
- Publication number
- JP6548141B2 JP6548141B2 JP2015019867A JP2015019867A JP6548141B2 JP 6548141 B2 JP6548141 B2 JP 6548141B2 JP 2015019867 A JP2015019867 A JP 2015019867A JP 2015019867 A JP2015019867 A JP 2015019867A JP 6548141 B2 JP6548141 B2 JP 6548141B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- detection
- detection range
- color
- false color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Description
本発明は、画像内の画像劣化の検出範囲を設定する画像検出範囲設定装置、画像検出範囲設定方法、画像検出範囲設定プログラム、並びに画像内の画像劣化を検出する画像検出装置に関する。 The present invention relates to an image detection range setting apparatus for setting a detection range of image deterioration in an image, an image detection range setting method, an image detection range setting program, and an image detection apparatus for detecting image deterioration in an image.
撮像素子の画素ピッチと同程度以上の高周波成分を含む被写体を撮像すると、偽色(色モアレ)等のモアレが発生して、撮影画像が劣化することが知られている。そこで、この種の偽色を除去するための種々の技術が提案されている。例えば特許文献1に、撮影画像内に発生する偽色を検出することが可能な撮影装置の具体的構成が記載されている。
It is known that when an object including a high frequency component equal to or higher than the pixel pitch of the imaging device is imaged, moiré such as false color (color moiré) occurs and the photographed image is degraded. Therefore, various techniques have been proposed for removing this kind of false color. For example,
特許文献1に記載の撮影装置は、合焦状態の被写体を撮像し、次いで、非合焦状態の被写体を撮像する。非合焦状態の撮影画像では、被写体のコントラストが低下して高周波成分が低減されるため、合焦状態の撮影画像に発生していた偽色も低減される。そこで、特許文献1に記載の撮影装置は、合焦状態、非合焦状態の各撮影画像を複数のブロックに分割し、分割されたブロック毎に色差信号の差分値を演算し、差分値の大きいブロックを偽色が発生しているブロックとして検出する。
The imaging device described in
このように、特許文献1に記載の撮影装置では、偽色を検出するため、画像の全域に亘って色差信号の差分値が演算される。そのため、偽色の検出に時間が掛かるという問題が指摘される。
As described above, in the imaging device described in
本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、画像劣化の検出に掛かる時間を抑えるのに好適な画像検出範囲設定装置、画像検出範囲設定方法、画像検出範囲設定プログラム及び画像検出装置を提供することである。 The present invention has been made in view of the above circumstances, and an object of the present invention is an image detection range setting apparatus, an image detection range setting method, and an image detection range suitable for suppressing time taken to detect image deterioration. It is providing a setting program and an image detection device.
本発明の一実施形態に係る画像検出範囲設定装置は、画像内の合焦情報に基づいて少なくとも1つの合焦領域を検出する合焦領域検出手段と、画像内で発生する画像劣化の検出範囲を合焦領域検出手段により検出された各合焦領域を基準とする所定の範囲に設定する検出範囲設定手段とを備える。 An image detection range setting apparatus according to an embodiment of the present invention detects in-focus area detection means for detecting at least one in-focus area based on focusing information in an image, and a detection range of image degradation occurring in an image. And a detection range setting unit configured to set a predetermined range based on each focusing region detected by the focusing region detecting unit.
本発明の一実施形態によれば、画像劣化の検出範囲が画像全域ではなく、画像劣化が発生している可能性の高い合焦領域を基準とする所定の範囲に設定される。そのため、画像劣化の検出精度が保たれつつ画像劣化の検出処理速度が向上する。 According to an embodiment of the present invention, the detection range of the image degradation is not set to the entire image, but is set to a predetermined range based on the in-focus region where the possibility of the image degradation is high. Therefore, the detection processing speed of the image deterioration is improved while the detection accuracy of the image deterioration is maintained.
また、本発明の一実施形態において、画像劣化の検出範囲は、例えば、基準となる合焦領域及び該合焦領域を取り囲む所定の周辺領域よりなる。 Further, in one embodiment of the present invention, the detection range of the image degradation includes, for example, a reference focusing area and a predetermined peripheral area surrounding the focusing area.
また、本発明の一実施形態に係る画像検出範囲設定装置は、走査者の操作を受け付ける操作手段と、受け付けられた操作者の操作に従って画像劣化の検出範囲を変更する検出範囲変更手段とを備える構成としてもよい。 In addition, the image detection range setting device according to one embodiment of the present invention includes operation means for receiving an operation of a scanner, and detection range changing means for changing a detection range of image deterioration according to the received operation of the operator. It is good also as composition.
また、本発明の一実施形態において、検出範囲変更手段は、基準となる合焦領域の中心又は検出範囲の中心に対して操作者の操作に従って該検出範囲の大きさを変更する構成としてもよい。 In one embodiment of the present invention, the detection range changing means may change the size of the detection range according to the operation of the operator with respect to the center of the reference focusing region or the center of the detection range. .
また、本発明の一実施形態において、画像劣化の検出範囲の形状は、例えば、検出範囲変更手段による大きさの変更の前後で相似形を保つ。 Further, in one embodiment of the present invention, the shape of the detection range of the image degradation maintains a similar shape before and after the change of the size by the detection range changing means, for example.
また、本発明の一実施形態に係る画像検出範囲設定装置は、画像劣化の検出範囲の大きさを示す指標を表示する指標表示手段を備える構成としてもよい。指標表示手段は、例えば、画像劣化の検出範囲の大きさの変更に応じて指標の表示を変化させる。 In addition, the image detection range setting device according to an embodiment of the present invention may be configured to include index display means for displaying an index indicating the size of the detection range of the image degradation. The index display means changes the display of the index, for example, according to the change in the size of the detection range of the image deterioration.
また、本発明の一実施形態に係る画像検出装置は、上記の画像検出範囲設定装置と、画像検出範囲設定装置により設定された検出範囲において画像劣化の検出を行う画像検出手段とを備える。 An image detection apparatus according to an embodiment of the present invention includes the above-described image detection range setting apparatus, and an image detection unit that detects image deterioration in a detection range set by the image detection range setting apparatus.
また、本発明の一実施形態において、画像検出手段は、撮像条件の異なる少なくとも一対の画像を取得し、取得された対となる画像に基づいて検出範囲での画像劣化の検出を行う構成としてもよい。 In one embodiment of the present invention, the image detection unit may be configured to acquire at least one pair of images having different imaging conditions and to detect image deterioration in the detection range based on the acquired paired images. Good.
また、本発明の一実施形態において、画像検出手段は、対となる画像間で同一の被写体が写る合焦領域を判別し、判別された同一の被写体が写る合焦領域を基準とする検出範囲について対となる画像に基づく画像劣化の検出を行う構成としてもよい。 Further, in one embodiment of the present invention, the image detection means determines the in-focus area where the same subject appears between the pair of images, and a detection range based on the in-focus area where the determined same subject appears It is good also as composition which performs detection of image degradation based on a picture which serves as a pair.
また、本発明の一実施形態において、画像検出手段は、対となる画像に基づいて所定の閾値判定を行い、閾値判定の結果に基づいて画像劣化の検出を行う構成としてもよい。この構成において、上記閾値は、操作者の操作に従って設定変更可能であってもよい。 In one embodiment of the present invention, the image detection means may be configured to perform predetermined threshold determination based on the paired images and to detect image degradation based on the result of the threshold determination. In this configuration, the threshold may be changeable according to the operation of the operator.
また、本発明の一実施形態に係る画像検出範囲設定方法は、画像内の合焦情報に基づいて少なくとも1つの合焦領域を検出する段階と、画像内で発生する画像劣化の検出範囲を検出された各合焦領域を基準とする所定の範囲に設定する検出範囲設定段階とを含む。 The image detection range setting method according to one embodiment of the present invention includes the steps of detecting at least one in-focus area based on focusing information in the image, and detecting a detection range of image degradation occurring in the image. And a detection range setting step of setting a predetermined range based on each of the focused regions.
また、本発明の一実施形態に係る画像検出範囲設定プログラムは、上記の画像検出範囲設定方法をコンピュータに実行させるためのものである。 An image detection range setting program according to an embodiment of the present invention is for causing a computer to execute the above-described image detection range setting method.
本発明の一実施形態によれば、画像劣化の検出に掛かる時間を抑えるのに好適な画像検出範囲設定装置、画像検出範囲設定方法、画像検出範囲設定プログラム及び画像検出装置が提供される。 According to one embodiment of the present invention, an image detection range setting device, an image detection range setting method, an image detection range setting program, and an image detection device are provided that are suitable for suppressing the time taken to detect image deterioration.
以下、本発明の実施形態の撮影装置について図面を参照しながら説明する。以下においては、本発明の一実施形態として、デジタル一眼レフカメラについて説明する。なお、撮影装置は、デジタル一眼レフカメラに限らず、例えば、ミラーレス一眼カメラ、コンパクトデジタルカメラ、ビデオカメラ、カムコーダ、タブレット端末、PHS(Personal Handy phone System)、スマートフォン、フィーチャフォン、携帯ゲーム機など、撮影機能を有する別の形態の装置に置き換えてもよい。 Hereinafter, a photographing apparatus according to an embodiment of the present invention will be described with reference to the drawings. In the following, a digital single lens reflex camera will be described as an embodiment of the present invention. The photographing apparatus is not limited to a digital single-lens reflex camera, and, for example, a mirrorless single-lens camera, a compact digital camera, a video camera, a camcorder, a tablet terminal, a personal handy phone system (PHS), a smartphone, a feature phone, a portable game machine, etc. , And may be replaced by another form of device having a photographing function.
[撮影装置1全体の構成]
図1は、本実施形態の撮影装置1の構成を示すブロック図である。図1に示されるように、撮影装置1は、システムコントローラ100、操作部102、駆動回路104、撮影レンズ106、絞り108、シャッタ110、像振れ補正装置112、信号処理回路114、画像処理エンジン116、バッファメモリ118、カード用インタフェース120、LCD(Liquid Crystal Display)制御回路122、LCD124、ROM(Read Only Memory)126、ジャイロセンサ128、加速度センサ130、地磁気センサ132及びGPS(Global Positioning System)センサ134を備えている。なお、撮影レンズ106は複数枚構成であるが、図1においては便宜上一枚のレンズとして示す。また、撮影レンズ106の光軸AXと同じ方向をZ軸方向と定義し、Z軸方向と直交し且つ互いに直交する二軸方向をそれぞれX軸方向(水平方向)、Y軸方向(垂直方向)と定義する。
[Configuration of Entire Imaging Device 1]
FIG. 1 is a block diagram showing the configuration of the
操作部102には、電源スイッチやレリーズスイッチ、撮影モードスイッチなど、ユーザが撮影装置1を操作するために必要な各種スイッチが含まれる。ユーザにより電源スイッチが操作されると、図示省略されたバッテリから撮影装置1の各種回路に電源ラインを通じて電源供給が行われる。
The
システムコントローラ100は、CPU(Central Processing Unit)及びDSP(Digital Signal Processor)を含む。システムコントローラ100は電源供給後、ROM126にアクセスして制御プログラムを読み出してワークエリア(不図示)にロードし、ロードされた制御プログラムを実行することにより、撮影装置1全体の制御を行う。
The
レリーズスイッチが操作されると、システムコントローラ100は、例えば、固体撮像素子112a(後述の図2参照)により撮像された画像に基づいて計算された測光値や、撮影装置1に内蔵された露出計(不図示)で測定された測光値に基づき適正露出が得られるように、駆動回路104を介して絞り108及びシャッタ110を駆動制御する。より詳細には、絞り108及びシャッタ110の駆動制御は、プログラムAE(Automatic Exposure)、シャッタ優先AE、絞り優先AEなど、撮影モードスイッチにより指定されるAE機能に基づいて行われる。また、システムコントローラ100はAE制御と併せてAF(Autofocus)制御を行う。AF制御には、アクティブ方式、位相差検出方式、像面位相差検出方式、コントラスト検出方式等が適用される。また、AFモードには、複数の測距エリアを用いた多点測距モード、全画面の距離情報に基づく全画面測距モード等がある。システムコントローラ100は、AF結果に基づいて駆動回路104を介して撮影レンズ106を駆動制御し、撮影レンズ106の焦点を調整する。なお、この種のAE及びAFの構成及び制御については周知であるため、ここでの詳細な説明は省略する。
When the release switch is operated, the
図2及び図3は、像振れ補正装置112の構成を概略的に示す図である。図2及び図3に示されるように、像振れ補正装置112は、固体撮像素子112aを備えている。被写体からの光束は、撮影レンズ106、絞り108、シャッタ110を通過して固体撮像素子112aの受光面112aaにて受光される。なお、固体撮像素子112aの受光面112aaは、X軸及びY軸を含むXY平面である。固体撮像素子112aは、透過波長選択素子としてベイヤ型画素配置のカラーフィルタを有する単板式カラーCCD(Charge Coupled Device)イメージセンサである。固体撮像素子112aは、受光面112aa上の各画素で結像した光学像を光量に応じた電荷として蓄積して、R(Red)、G(Green)、B(Blue)の画像信号を生成して出力する。なお、固体撮像素子112aは、CCDイメージセンサに限らず、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやその他の種類の撮像装置に置き換えられてもよい。固体撮像素子112aはまた、補色系フィルタを搭載したものであってもよいし、画素毎に何れかのカラーフィルタを配置していれば、ベイヤ配列等の周期的なカラー配列を有するフィルタである必要はない。
2 and 3 schematically show the structure of the image
信号処理回路114は、固体撮像素子112aより入力される画像信号に対してクランプ、デモザイク(色補間)等の所定の信号処理を施して、画像処理エンジン116に出力する。画像処理エンジン116は、信号処理回路114より入力される画像信号に対してマトリクス演算、Y/C分離、ホワイトバランス等の所定の信号処理を施して輝度信号Y、色差信号Cb、Crを生成し、JPEG(Joint Photographic Experts Group)等の所定のフォーマットで圧縮する。バッファメモリ118は、画像処理エンジン116による処理の実行時、処理データの一時的な保存場所として用いられる。また、撮影画像の保存形式は、JPEG形式に限らず、最小限の画像処理(例えばクランプ)しか施されないRAW形式であってもよい。
The
カード用インタフェース120のカードスロットには、メモリカード200が着脱可能に差し込まれている。
A
画像処理エンジン116は、カード用インタフェース120を介してメモリカード200と通信可能である。画像処理エンジン116は、生成された圧縮画像信号(撮影画像データ)をメモリカード200(又は撮影装置1に備えられる不図示の内蔵メモリ)に保存する。
The
また、画像処理エンジン116は、生成された輝度信号Y、色差信号Cb、Crをフレームメモリ(不図示)にフレーム単位でバッファリングする。画像処理エンジン116は、バッファリングされた信号を所定のタイミングで各フレームメモリから掃き出して所定のフォーマットのビデオ信号に変換し、LCD制御回路122に出力する。LCD制御回路122は、画像処理エンジン116より入力される画像信号を基に液晶を変調制御する。これにより、被写体の撮影画像がLCD124の表示画面に表示される。ユーザは、AE制御及びAF制御に基づいて適正な輝度及びピントで撮影されたリアルタイムのスルー画(ライブビュー)を、LCD124の表示画面を通じて視認することができる。
Further, the
画像処理エンジン116は、ユーザにより撮影画像の再生操作が行われると、操作により指定された撮影画像データをメモリカード200又は内蔵メモリより読み出して所定のフォーマットの画像信号に変換し、LCD制御回路122に出力する。LCD制御回路122が画像処理エンジン116より入力される画像信号を基に液晶を変調制御することで、被写体の撮影画像がLCD124の表示画面に表示される。
When the user performs a reproduction operation of a photographed image, the
[振れ補正部材の駆動に関する説明]
像振れ補正装置112は、振れ補正部材を駆動させる。本実施形態において、振れ補正部材は、固体撮像素子112aである。なお、振れ補正部材は、固体撮像素子112aに限らず、撮影レンズ106内に含まれる一部のレンズなど、光軸AXを基準として物理的に動かされることにより、固体撮像素子112aの受光面112aa上での被写体像の入射位置をシフトさせることが可能な別の構成であってもよく、又は、これらと固体撮像素子112aのうち2つ以上の部材を組み合わせた構成であってもよい。
[Description of Driving of Shake Correction Member]
The image
像振れ補正装置112は、像振れを補正するために振れ補正部材を光軸AXと直交する平面内(すなわち、XY平面内)で微小に駆動(振動)させるだけでなく、被写体像が画素ピッチ分ぼかされることによる光学的なローパスフィルタ(LPF:Low Pass Filter)効果(偽色等のモアレの軽減)が得られるように振れ補正部材を光軸AXと直交する平面内で微小に駆動(微小回転)させる。以下、説明の便宜上、振れ補正部材を像振れ補正で駆動させることを「像振れ補正駆動」と記し、振れ補正部材を光学的なLPFと同様の効果が得られるように駆動させることを「LPF駆動」と記す。
The image
(像振れ補正駆動に関する説明)
ジャイロセンサ128は、像振れ補正を制御するための情報を検出するセンサである。具体的には、ジャイロセンサ128は、撮影装置1に加わる二軸周り(X軸周り、Y軸周り)の角速度を検出し、検出された二軸周りの角速度をXY平面内(換言すると、固体撮像素子112aの受光面112aa内)の振れを示す振れ検出信号としてシステムコントローラ100に出力する。
(Description of image stabilization drive)
The
図2及び図3に示されるように、像振れ補正装置112は、撮影装置1が備えるシャーシ等の構造物に固定された固定支持基板112bを備えている。固定支持基板112bは、固体撮像素子112aが搭載された可動ステージ112cをスライド可能に支持している。
As shown in FIGS. 2 and 3, the image
可動ステージ112cと対向する固定支持基板112bの面上には、磁石MYR、MYL、MXD、MXUが取り付けられている。また、固定支持基板112bには、磁性体であるヨークYYR、YYL、YXD、YXUが取り付けられている。ヨークYYR、YYL、YXD、YXUはそれぞれ、固定支持基板112bから可動ステージ112cを回り込んで磁石MYR、MYL、MXD、MXUと対向する位置まで延びた形状を持ち、磁石MYR、MYL、MXD、MXUとの間に磁気回路を構成する。また、可動ステージ112cには、駆動用コイルCYR、CYL、CXD、CXUが取り付けられている。駆動用コイルCYR、CYL、CXD、CXUが磁気回路の磁界内において電流を受けることにより、駆動力が発生する。可動ステージ112c(固体撮像素子112a)は、発生した駆動力により、固定支持基板112bに対してXY平面内で微小に駆動される。
Magnets M YR , M YL , M XD , and M XU are attached on the surface of the fixed
対応する磁石、ヨーク及び駆動用コイルはボイスコイルモータを構成する。以下、便宜上、磁石MYR、ヨークYYR及び駆動用コイルCYRよりなるボイスコイルモータに符号VCMYRを付し、磁石MYL、ヨークYYL及び駆動用コイルCYLよりなるボイスコイルモータに符号VCMYLを付し、磁石MXD、ヨークYXD及び駆動用コイルCXDよりなるボイスコイルモータに符号VCMXDを付し、磁石MXU、ヨークYXU及び駆動用コイルCXUよりなるボイスコイルモータに符号VCMXUを付す。 Corresponding magnets, yokes and drive coils constitute a voice coil motor. Hereinafter, reference numerals for convenience, the magnet M YR, reference numeral VCM YR to the voice coil motor consisting of a yoke Y YR and the driving coil C YR, magnet M YL, the voice coil motor consisting of a yoke Y YL and the driving coil C YL A voice coil motor with VCM YL attached, a voice coil motor consisting of a magnet M XD , a yoke Y XD and a drive coil C XD with a code VCM XD , a voice coil motor consisting of a magnet M XU , a yoke Y XU and a drive coil C XU To the symbol VCM XU .
各ボイスコイルモータVCMYR、VCMYL、VCMXD、VCMXU(駆動用コイルCYR、CYL、CXD、CXU)は、システムコントローラ100の制御下でPWM(Pulse Width Modulation)駆動される。ボイスコイルモータVCMYRとVCMYLは、固体撮像素子112aの下方であって、水平方向(X軸方向)に所定の間隔を空けて並べて配置されており、ボイスコイルモータVCMXDとVCMXUは、固体撮像素子112aの側方であって、垂直方向(Y軸方向)に所定の間隔を空けて並べて配置されている。
The voice coil motors VCM YR , VCM YL , VCM XD , and VCM XU (drive coils C YR , C YL , C XD , C XU ) are driven by PWM (Pulse Width Modulation) under the control of the
固定支持基板112b上であって駆動用コイルCYR、CYL、CXD、CXUの各近傍位置には、ホール素子HYR、HYL、HXD、HXUが取り付けられている。ホール素子HYR、HYL、HXD、HXUはそれぞれ、磁石MYR、MYL、MXD、MXUの磁力を検出して、可動ステージ112c(固体撮像素子112a)のXY平面内の位置を示す位置検出信号をシステムコントローラ100に出力する。具体的には、ホール素子HYR及びHYLにより可動ステージ112c(固体撮像素子112a)のY軸方向位置及び傾き(回転)が検出され、ホール素子HXD及びHXUにより可動ステージ112c(固体撮像素子112a)のX軸方向位置及び傾き(回転)が検出される。
Hall elements H YR , H YL , H XD , and H XU are attached to the fixed
システムコントローラ100は、ボイスコイルモータ用のドライバICを内蔵している。システムコントローラ100は、ジャイロセンサ128より出力される振れ検出信号及びホール素子HYR、HYL、HXD、HXUより出力される位置検出信号に基づいて、ドライバICの定格電力(許容電力)を超えない範囲内において各ボイスコイルモータVCMYR、VCMYL、VCMXD、VCMXU(駆動用コイルCYR、CYL、CXD、CXU)に流す電流のバランスを崩さないようにデューティ比を計算する。システムコントローラ100は、計算されたデューティ比で各ボイスコイルモータVCMYR、VCMYL、VCMXD、VCMXUに駆動電流を流し、固体撮像素子112aを像振れ補正駆動する。これにより、固体撮像素子112aが重力や外乱等に抗して規定の位置に保持されつつ固体撮像素子112aの受光面112aa上での像振れが補正(別の言い方によれば、受光面112aa上での被写体像の入射位置が振れないように固体撮像素子112aの位置が調整)される。
The
(LPF駆動に関する説明)
次に、LPF駆動に関する説明を行う。本実施形態において、像振れ補正装置112は、ボイスコイルモータVCMYR、VCMYL、VCMXD、VCMXUに所定の駆動電流を流すことにより、一回の露光期間に対して、XY平面内において所定の軌跡を描くように可動ステージ112c(固体撮像素子112a)を駆動して、被写体像を固体撮像素子112aの検出色(R、G又はB)の異なる複数の画素に入射させる。これにより、光学的なLPFと同様の効果が得られる。
(Description about LPF drive)
Next, the LPF driving will be described. In the present embodiment, the image
図4(a)、図4(b)は、LPF駆動の説明を補助する図である。同図に示されるように、固体撮像素子112aの受光面112aa上には、複数の画素PIXが所定の画素ピッチPでマトリックス状に並べて配置されている。説明の便宜上、同図の各画素PIXについて、前面に配置されたフィルタ色に対応させて符号(R、G、Bの何れか1つ)を付す。
FIG. 4A and FIG. 4B are diagrams to help explain the LPF driving. As shown in the figure, a plurality of pixels PIX are arranged in a matrix at a predetermined pixel pitch P on the light receiving surface 112aa of the solid-
図4(a)は、固体撮像素子112aが光軸AXを中心とする正方形軌跡を描くように駆動される例を示す。この正方形軌跡は、例えば固体撮像素子112aの画素ピッチPを一辺とした正方形の閉じた経路とすることができる。図4(a)の例では、固体撮像素子112aは、X軸方向とY軸方向とに1画素ピッチP単位で交互に且つ正方形経路となるように駆動される。
FIG. 4A shows an example in which the solid-
図4(b)は、固体撮像素子112aが光軸AXを中心とする回転対称な円形軌跡を描くように駆動される例を示す。この円形軌跡は、例えば固体撮像素子112aの画素ピッチPの√2/2倍を半径rとする円形の閉じた経路とすることができる。
FIG. 4B shows an example in which the solid-
なお、画素ピッチPを含む駆動軌跡の情報は、システムコントローラ100の内部メモリ又はROM126に予め保持されている。
The information of the drive locus including the pixel pitch P is stored in advance in the internal memory of the
図4(a)(又は図4(b))に例示されるように、露光期間中、固体撮像素子112aが駆動軌跡の情報に基づいて所定の正方形軌跡(又は円形軌跡)を描くように駆動されると、被写体像が4つのカラーフィルタR、G、B、G(4つ(二行二列)の画素PIX)に均等に入射される。これにより、光学的なLPFと同等の効果が得られる。すなわち、何れのカラーフィルタ(画素PIX)に入射された被写体像も、その周辺のカラーフィルタ(画素PIX)に必ず入射されるため、恰も光学的なLPFを被写体像が通過したときと同等の効果(偽色等のモアレの軽減)が得られる。
As illustrated in FIG. 4A (or FIG. 4B), during the exposure period, the solid-
なお、ユーザは、操作部102を操作することにより、像振れ補正駆動、LPF駆動のそれぞれのオン/オフを切り替えることができる。
Note that the user can switch on / off of the image blur correction drive and the LPF drive by operating the
[偽色の検出に関する説明]
次に、本実施形態において撮影画像内に発生する、モアレの一種である偽色を検出する方法について説明する。図5は、システムコントローラ100により実行される偽色検出フローを示す。図5に示される偽色検出フローは、例えば、レリーズスイッチが押された時点で開始される。
[Description about false color detection]
Next, a method of detecting a false color which is a kind of moire generated in a photographed image in the present embodiment will be described. FIG. 5 shows the false color detection flow executed by the
[図5のS11(状態の判定)]
本処理ステップS11では、撮影装置1が静止状態であるか否かが判定される。例示的には、ジャイロセンサ128より入力される振れ検出信号のうち一定周波数以上の信号成分の振幅が一定期間継続してある閾値以内に収まる場合に静止状態と判定される。撮影装置1の静止状態として、典型的には、撮影装置1が三脚に固定された状態が挙げられる。なお、静止状態を含めた撮影装置1の姿勢はジャイロセンサ128に代えて、加速度センサ130、地磁気センサ132、GPSセンサ134など、他のセンサより出力される情報を用いて検出されてもよい。また、検出精度を向上させるため、例えばセンサ・フュージョン技術を適用し、これらのセンサより出力される情報が複合的に用いられるようにしてもよい。
[S11 (determination of state) in FIG. 5]
In the main processing step S11, it is determined whether the photographing
撮影装置1が低速シャッタスピード設定下の手持ち撮影状態など、静止状態にない場合は、手振れ(あるいは被写体ぶれ)による被写体のボケに起因して偽色がそもそも発生し難い。従って、本実施形態では、撮影装置1が静止状態である(すなわち、偽色が発生しやすい状態である)と判定された場合に限り(S11:YES)、撮影画像内の偽色を検出すべく、処理ステップS12(第一画像の撮影)以降が実行される。撮影装置1が静止状態にない場合は、処理ステップS12(第一画像の撮影)以降が実行されないため、システムコントローラ100の処理負荷が軽減される。処理ステップS12(第一画像の撮影)以降が実行されない旨は、撮影者に例えばLCD124の表示画面等を通じて通知されてもよい。なお、撮影画像内の偽色の検出を重視したい場合は、撮影装置1が静止状態であるか否かに拘わらず処理ステップS12(第一画像の撮影)以降が実行されてもよい。この場合、処理ステップS12(第一画像の撮影)以降が実行される旨は、撮影者に例えばLCD124の表示画面等を通じて通知されてもよい。また、静止状態の判定閾値は撮影装置1に設定されたシャッタスピードに応じて変更されてもよい。
When the photographing
[図5のS12(第一画像の撮影)]
図9(a)は、撮影される被写体の全体を示す。また、図6(a)、図7(a)は、図9(a)に示される被写体の一部(例えば人物が着用している衣服のしわ)であって、それぞれ異なる部分を拡大して示す図である。図6(a)に示される被写体は、固体撮像素子112aの画素PIXの画素ピッチPと同ピッチで明暗が交互に現れる斜め縞模様であり、図7(a)に示される被写体は、画素ピッチPと同ピッチで明暗が交互に現れる縦縞模様である。説明の便宜上、図6(a)に示される被写体のうち太実線で囲まれた6×6マスの被写体を「斜め縞被写体6a」と記し、図7(a)に示される被写体のうち太実線で囲まれた6×6マスの被写体を「縦縞被写体7a」と記す。
[S12 in FIG. 5 (shooting of the first image)]
FIG. 9A shows the entire subject to be photographed. 6 (a) and 7 (a) are a part of the subject shown in FIG. 9 (a) (for example, wrinkles of clothes worn by a person), and different parts are enlarged. FIG. The subject shown in FIG. 6A is an oblique stripe pattern in which light and dark appear alternately at the same pitch as the pixel pitch P of the pixel PIX of the solid-
本処理ステップS12では、AE制御及びAF制御に基づいて適正な輝度及びピントで被写体画像(第一画像)が撮影される。ここでは、斜め縞被写体6aと縦縞被写体7aの何れにもピントが合っているものとする。 In the main processing step S12, a subject image (first image) is photographed with proper brightness and focus based on AE control and AF control. Here, it is assumed that both the diagonally striped subject 6a and the vertically striped subject 7a are in focus.
図6(b)、図7(b)はそれぞれ、固体撮像素子112aの各画素PIXに取り込まれる斜め縞被写体6a、縦縞被写体7aを模式的に示す図であり、固体撮像素子112aの受光面112aaを被写体側から正面視した図である。図6(b)及び図7(b)では、図4と同様に、各画素PIXについて、前面に配置されたフィルタ色に対応させて符号(R、G、Bの何れか1つ)を付す。図6(b)、図7(b)の各図中、黒塗りの画素PIXは、縞模様の暗部分を取り込んだことを示し、白塗りの画素PIXは、縞模様の明部分を取り込んだことを示す。また、説明の便宜上、図6(b)、図7(b)の各図に画素のアドレス(数字1〜8、符号イ〜チ)を付す。なお、厳密には、撮影レンズ106の結像作用によって、被写体は上下左右が反転した状態で固体撮像素子112a上に結像される。一例として、「斜め縞被写体6a」の左上角の部分は、固体撮像素子112a上では右下角の部分として結像する。しかし、本実施形態では、説明の煩雑化を避けるため、「斜め縞被写体6a」の左上角の部分は、図6(b)の左上角の部分に対応するものとして説明する。
FIGS. 6B and 7B schematically show the diagonally
[図5のS13(第一の合焦エリア情報の保存)]
図9(b)に、処理ステップS12(第一画像の撮影)における第一画像の撮影の際にLCD124の表示画面に表示されるライブビューを例示する。システムコントローラ100は、第一画像の撮影の際、AF結果(画像内の合焦情報)に基づいてピントが合っているとみなせる範囲(合焦エリアであり、例示的には被写界深度に収まる範囲)を検出し、検出された合焦エリア(図9(b)の例では、符号FA1〜FA7)をライブビューにOSD(On Screen Display)で表示する。本処理ステップS13では、第一画像の撮影時における合焦エリアの情報(以下、「第一の合焦エリア情報」と記す。)が例えばシステムコントローラ100の内部メモリに保存される。
[S13 in FIG. 5 (storage of first focus area information)]
FIG. 9B illustrates a live view displayed on the display screen of the
[図5のS14(固体撮像素子112aのシフト)]
本処理ステップS14は、可動ステージ112cが駆動されて、固体撮像素子112aが1画素分の距離だけ右方向(図6のX軸の矢じり側の方向)にシフトされる。
[S14 in FIG. 5 (shift of solid-
In the main processing step S14, the
[図5のS15(第二画像の撮影)]
本処理ステップS15においても、第一画像撮影時のAE制御及びAF制御に基づいて被写体画像(第二画像)が撮影される。第二画像の撮影完了後、第一画像と第二画像を用いた偽色検出処理を開始する旨が撮影者に告知されてもよい。
[S15 in FIG. 5 (shooting of the second image)]
Also in the main processing step S15, the subject image (second image) is shot based on the AE control and the AF control at the time of shooting the first image. After completion of shooting of the second image, the photographer may be notified that the false color detection process using the first image and the second image is to be started.
図6(c)、図7(c)はそれぞれ、図6(b)、図7(b)と同様の図であり、固体撮像素子112aの各画素PIXの取り込まれる斜め縞被写体6a、縦縞被写体7aを模式的に示す。図6、図7の各図(b)、(c)に示されるように、固体撮像素子112aの受光面112aa上での被写体像の入射位置は、処理ステップS14(固体撮像素子112aのシフト)における固体撮像素子112aのシフト量に応じて(受光面112aa上で左方向に1画素分の距離だけ)シフトする。
6 (c) and 7 (c) are respectively the same as FIGS. 6 (b) and 7 (b), and show an
附言するに、本処理ステップS15における撮影条件は、処理ステップS12(第一画像の撮影)における撮影時に対して、固体撮像素子112aが1画素分の距離だけ右方向にシフトされた点以外は同一である。そのため、第二画像は、実質的に、第一画像に対して1画素分右方向にシフトした範囲を撮影したものとなっている。図6、図7の各図(b)、(c)から判るように、第二画像において、被写体は、第一画像に対して全体的に1画素分の距離だけ左方向にシフトした位置に写る。
It should be noted that the imaging conditions in the present processing step S15 are the same as those in the imaging in the processing step S12 (the imaging of the first image) except that the solid-
[図5のS16(第二の合焦エリア情報の保存)]
図9(c)に、処理ステップS15(第二画像の撮影)における第二画像の撮影の際にLCD124の表示画面に表示されるライブビューを例示する。システムコントローラ100は、第二画像の撮影の際、AF結果(画像内の合焦情報)に基づいて合焦エリアを検出し、検出された合焦エリア(図9(c)の例では、符号FA1’〜FA7’)をライブビューにOSDで表示する。本処理ステップS16では、第二画像の撮影時における合焦エリアの情報(以下、「第二の合焦エリア情報」と記す。)が例えばシステムコントローラ100の内部メモリに保存される。
[S16 in FIG. 5 (storage of second focus area information)]
FIG. 9C illustrates a live view displayed on the display screen of the
処理ステップS12(第一画像の撮影)にて撮影された第一画像、処理ステップS15(第二画像の撮影)にて撮影された第二画像の何れの画像信号も、上述した信号処理(クランプ、デモザイク、マトリクス演算、Y/C分離、ホワイトバランス等)が施されて、輝度信号Y、色差信号Cb、Crに変換される。以下、説明の便宜上、処理ステップS12(第一画像の撮影)にて撮影された第一画像の色差信号(Cb、Cr)を「第一色差信号」と記し、処理ステップS15(第二画像の撮影)にて撮影された第二画像の色差信号(Cb、Cr)を「第二色差信号」と記す。また、「注目画素」とは、少なくともデモザイク処理された後の各画像の画素を指すものとする。 The above-described signal processing (clamping) is also applied to any image signal of the first image photographed in the processing step S12 (photographing of the first image) and the second image photographed in the processing step S15 (photographing of the second image). , Demosaicing, matrix calculation, Y / C separation, white balance, etc., and converted into a luminance signal Y and color difference signals Cb and Cr. Hereinafter, for the convenience of description, the color difference signal (Cb, Cr) of the first image photographed in processing step S12 (shooting of the first image) is referred to as “first color difference signal”, and processing step S15 (second image) The color difference signal (Cb, Cr) of the second image photographed in photographing) is referred to as "second color difference signal". In addition, “the target pixel” refers to at least a pixel of each image after the demosaicing processing.
[図5のS17(電気的なLPF処理)]
本実施形態では、詳しくは後述するが、第一色差信号と第二色差信号との信号差分値や信号加算値に基づいて偽色の発生が検出される。しかし、コントラストの高いエッジ部分では、偽色が発生していなくても、第一色差信号と第二色差信号との信号差分値が大きくなることがある。この場合、エッジ部分において偽色が発生していると誤検出される虞がある。また、詳しくは後述するが、信号差分値や信号加算値の演算に用いられる第一色差信号と第二色差信号は、同一の被写体像を写す画素の色差信号ではあるが、処理ステップS14(固体撮像素子112aのシフト)にて固体撮像素子112aがシフトされたことが原因で、それぞれ、アドレスが異なる画素を用いてデモザイク処理されている。そのため、第一色差信号と第二色差信号は、同一の被写体像を写す画素の色差信号であるにも拘わらず色情報が極僅かに異なる場合がある。そこで、本処理ステップS17では、画像信号(輝度信号Y、色差信号Cb、Cr)に対してLPF処理が施される。LPF処理によって画像がぼかされることで、エッジ部分における偽色の誤検出が抑えられると共に第一色差信号と第二色差信号との色情報の誤差が抑えられる。
[S17 in FIG. 5 (electrical LPF processing)]
In the present embodiment, although the details will be described later, occurrence of a false color is detected based on the signal difference value between the first color difference signal and the second color difference signal and the signal addition value. However, at an edge portion with high contrast, the signal difference value between the first color difference signal and the second color difference signal may be large even if no false color is generated. In this case, there is a possibility that the false color is erroneously detected at the edge portion. Further, although the details will be described later, the first color difference signal and the second color difference signal used for the calculation of the signal difference value and the signal addition value are color difference signals of the pixels that capture the same subject image. Due to the shift of the solid-
[図5のS18(アドレスの変換)]
本処理ステップS18では、偽色の検出精度を向上させるため、同一の被写体像が同一アドレスの画素に入射されたものとして処理されるように、処理ステップS15(第二画像の撮影)にて撮影された第二画像を構成する各画素のアドレスが、処理ステップS14(固体撮像素子112aのシフト)における固体撮像素子112aのシフト量(換言すると、固体撮像素子112aの受光面112aa上での被写体像の入射位置のシフト量)に応じて変換される。
[S18 (address conversion) in FIG. 5]
In the main processing step S18, shooting is performed in processing step S15 (shooting of the second image) so that the same subject image is processed as if it were incident on the pixel of the same address in order to improve detection accuracy of false color. The address of each pixel constituting the second image is the shift amount of the solid-
一例として、図6(c)の画素PIXbのアドレス(ハ,2)は、被写体像の入射位置のシフト量に応じて右方向に1画素シフトしたときに位置する画素、すなわち、画素PIXbと同一の被写体像を取り込む画素PIXa(図6(b)参照)と同一のアドレス(ニ,2)に変換される。 As an example, the address (c, 2) of the pixel PIXb in FIG. 6C is the same as the pixel located when one pixel is shifted rightward according to the shift amount of the incident position of the object image, ie, the pixel PIXb. The image is converted to the same address (d, 2) as the pixel PIXa (see FIG. 6B) for capturing an image of the subject.
[図5のS19(合焦エリアのペアリング)]
本処理ステップS19では、第一及び第二の合焦エリア情報に基づいて、処理ステップS12(第一画像の撮影)における第一画像の撮影時の合焦エリア(ここでは、図9(b)に示される合焦エリアFA1〜FA7)と、処理ステップS15(第二画像の撮影)における第二画像の撮影時の合焦エリア(ここでは、図9(c)に示される合焦エリアFA1’〜FA7’)とのペアリングが行われる。具体的には、合焦エリアFA1〜FA7と合焦エリアFA1’〜FA7’との間で共通(同一)の被写体像が写る合焦エリアが判別され、判別された共通の被写体像が写る合焦エリア同士がペアリングされる。より詳細には、合焦エリア間で共通の被写体像が写る画素を所定数以上含む合焦エリアのペアが、同一の被写体像が写る合焦エリアとしてペアリングされる。
[S19 in FIG. 5 (pairing of focusing area)]
In the main processing step S19, based on the first and second focusing area information, the focusing area at the time of shooting of the first image in the processing step S12 (shooting of the first image) (here, FIG. 9 (b) Focusing areas FA1 to FA7) and focusing areas at the time of shooting of the second image in the processing step S15 (shooting of the second image) (here, focusing area FA1 ′ shown in FIG. 9C). A pairing with ~ FA7 ') is performed. Specifically, the in-focus area where the common (identical) subject image appears is determined between the in-focus areas FA1 to FA7 and the in-focus areas FA1 ′ to FA7 ′, and the in-focus area where the determined common subject image appears Focal areas are paired with each other. More specifically, a pair of focusing areas including a predetermined number or more of pixels in which a common subject image appears between focusing areas is paired as a focusing area where the same subject image appears.
図9(b)及び図9(c)の例では、合焦エリアFA1とFA1’がペアリングされ、合焦エリアFA2とFA2’がペアリングされ、合焦エリアFA3とFA3’がペアリングされ、合焦エリアFA4とFA4’がペアリングされ、合焦エリアFA5とFA5’がペアリングされる。 In the examples of FIGS. 9B and 9C, the focusing areas FA1 and FA1 ′ are paired, the focusing areas FA2 and FA2 ′ are paired, and the focusing areas FA3 and FA3 ′ are paired The focusing areas FA4 and FA4 'are paired, and the focusing areas FA5 and FA5' are paired.
[図5のS20(偽色検出対象画素の設定)]
本処理ステップS20では、処理ステップS19(合焦エリアのペアリング)におけるペアリング結果に基づいて偽色検出の対象となる画素(以下、「偽色検出対象画素」と記す。)が設定される。図10に、偽色検出対象画素を例示する。図10中、破線の矩形領域が合焦エリアであり、合焦エリアを囲う実線の矩形領域が偽色を検出する偽色検出範囲である。この偽色検出範囲に含まれる画素が偽色検出対象画素である。すなわち、図10の例では、処理ステップS19(合焦エリアのペアリング)にて合焦エリアFA1’〜FA5’とペアリングされた合焦エリアFA1〜FA5内の各画素及び各合焦エリアFA1〜FA5を取り囲む所定数の周辺画素(以下、「第一画像の偽色検出対象画素」と記す。)と、第二画像において第一画像の偽色検出対象画素と同一アドレスの画素(以下、「第二画像の偽色検出対象画素」と記す。)が偽色検出対象画素として設定される。
[S20 in FIG. 5 (setting of false color detection target pixel)]
In the main processing step S20, a pixel to be subjected to false color detection (hereinafter referred to as "false color detection target pixel") is set based on the pairing result in the processing step S19 (pairing of the focusing area). . FIG. 10 illustrates a false color detection target pixel. In FIG. 10, the dashed rectangular area is the in-focus area, and the solid rectangular area surrounding the in-focus area is the false color detection range for detecting a false color. The pixels included in the false color detection range are false color detection target pixels. That is, in the example of FIG. 10, each pixel in each of the focusing areas FA1 to FA5 paired with the focusing areas FA1 ′ to FA5 ′ in the processing step S19 (pairing of focusing areas) and each focusing area FA1. A predetermined number of peripheral pixels (hereinafter, referred to as "false color detection target pixels of the first image") surrounding ~
一般に、合焦状態の被写体はコントラストが高く、高周波成分を含むものが多い。そのため、合焦状態の被写体では偽色が発生しやすい。一方、非合焦状態の被写体はコントラストが低く、高周波成分を含むものが少ない。そのため、非合焦状態の被写体では偽色が発生し難い。そこで、本処理ステップS20では、偽色検出対象画素を、全ての有効画素とせず、偽色が発生している可能性の高い合焦エリア及びその周辺の画素に絞り込む。これにより、偽色の検出精度が保たれつつ偽色検出の処理速度が向上する。 In general, the in-focus object has high contrast and often contains high frequency components. Therefore, false colors are likely to occur in an in-focus object. On the other hand, the out-of-focus subject has low contrast and few objects including high frequency components. Therefore, false colors are less likely to occur in an out-of-focus subject. Therefore, in the present processing step S20, the false color detection target pixels are not all effective pixels, and the focus area is narrowed to a focus area where false colors are likely to occur and pixels in the periphery thereof. As a result, the processing speed of false color detection is improved while the false color detection accuracy is maintained.
他方の画像撮影時の合焦エリアとの間で共通(同一)の被写体像が写らない合焦エリア(すなわちペアリングされなかった合焦エリア)では、他方の画像撮影時に対して合焦状態が変化している可能性が高い。このような合焦エリアに写る被写体は、他方の画像撮影時に像振れした状態で撮像されている可能性が高い。そのため、このような合焦エリア内の各画素では、偽色が発生していなくても第一色差信号と第二色差信号との信号差分値が大きくなり、偽色が発生していると誤検出される虞がある。そこで、本処理ステップS20では、このような合焦エリア内の各画素を偽色検出対象画素から除外している。これにより、偽色の検出精度が向上する。 In the in-focus area where a common (identical) subject image does not appear with the in-focus area at the time of shooting the other image (that is, the in-focus area not paired), the in-focus state is It is likely to be changing. A subject appearing in such a focusing area is highly likely to be captured in a state where the image is blurred at the time of capturing the other image. Therefore, in each pixel in such an in-focus area, the signal difference value between the first color difference signal and the second color difference signal becomes large even if false color is not generated, and false color is erroneously generated. There is a risk of being detected. Therefore, in the present processing step S20, each pixel in such a focusing area is excluded from the false color detection target pixel. This improves the false color detection accuracy.
なお、ユーザは、操作部102を操作することにより、各合焦エリアを基準とする偽色検出範囲の形状や大きさを変更したり、位置を微調整したりすることができる。例示的には、偽色検出範囲は、ユーザによる操作に従い、基準となる合焦エリアの中心又は該偽色検出範囲の中心に対して、形状を保ちつつ(相似形を保ちつつ)大きさのみが変更される。また、偽色検出範囲は、形状を保ちつつLCD124の表示画面の内側に向かって優先的に拡がるように大きさが変更されてもよい。また、LCD124の表示画面(又は画像)の中央寄りに位置する所定の範囲は、合焦エリアであるか否かに拘わらず、常時、偽色検出範囲に設定されてもよい。また、LCD124の表示画面(又は画像)の中央寄りの被写体を含む合焦エリアに対応する偽色検出範囲は、他の偽色検出範囲に対して優先的に拡大するように(操作量に対する拡大率が他の偽色検出範囲よりも大きく設定されたうえで)大きさが変更されてもよい。また、偽色検出範囲は、距離的に近い被写体を含む合焦エリアに対応するものほど優先的に拡大するように(操作量に対する拡大率が大きく設定されたうえで)大きさが変更されてもよい。
Note that the user can change the shape or size of the false color detection range based on each in-focus area or finely adjust the position by operating the
偽色検出範囲が拡げられるほど広い範囲に亘って偽色が検出されるため偽色の検出精度が向上し、偽色検出範囲が狭められるほど偽色検出対象画素の数が減少するため偽色検出の処理速度が向上する。図9、図10の各図に示されるように、ライブビューには枠サイズ調整バーB1がOSDで表示される。枠サイズ調整バーB1の表示は、ユーザによる偽色検出範囲の変更操作量(偽色検出範囲の大きさ)に応じて変化する。ユーザは、枠サイズ調整バーB1を通じて現在の偽色検出範囲の大きさが大きい(すなわち、検出精度重視)か又は小さい(すなわち、検出速度重視)かを把握することができる。 The false color is detected over a wide range as the false color detection range is expanded, the false color detection accuracy is improved, and as the false color detection range is narrowed, the number of false color detection target pixels is decreased. The processing speed of detection is improved. As shown in each of FIGS. 9 and 10, a frame size adjustment bar B1 is displayed by OSD in the live view. The display of the frame size adjustment bar B1 changes in accordance with the change operation amount of the false color detection range by the user (size of the false color detection range). The user can grasp, through the frame size adjustment bar B1, whether the size of the current false color detection range is large (ie, emphasis on detection accuracy) or small (ie, emphasis on detection speed).
[図5のS21(色差信号の差分値の演算)]
斜め縞被写体6a及び縦縞被写体7aは、固体撮像素子112aの画素PIXの画素ピッチPと同ピッチの高周波成分を含む。そのため、斜め縞被写体6a及び縦縞被写体7aの画像信号が処理ステップS12(第一画像の撮影)、処理ステップS15(第二画像の撮影)においてデモザイク処理されると、偽色が発生する。
[S21 in FIG. 5 (calculation of difference value of color difference signal)]
The diagonally striped
具体的には、図6(b)の例では、G成分の画素PIXの輝度が高く、R及びB成分の画素PIXの輝度が低い。そのため、デモザイク処理後の各画素PIXの色情報はG成分が支配的となって、斜め縞被写体6aに緑色の偽色が発生する。一方、図6(c)の例では、図6(b)の例とは反対に、R及びB成分の画素PIXの輝度が高く、G成分の画素PIXの輝度が低い。そのため、デモザイク処理後の各画素PIXの色情報はR及びB成分が支配的となって、斜め縞被写体6aに紫色の偽色が発生する。
Specifically, in the example of FIG. 6B, the luminance of the pixel PIX of the G component is high, and the luminance of the pixel PIX of the R and B components is low. Therefore, the G component is dominant in the color information of each pixel PIX after the demosaicing processing, and a false color of green is generated in the diagonally striped
また、図7(b)の例では、B成分の画素PIXの輝度が高く、R成分の画素PIXの輝度が低い。そのため、デモザイク処理後の各画素PIXの色情報はBとGとの混色成分となって、青と緑との中間色(例えばシアン色中心の近傍色)の偽色が発生する。一方、図7(c)の例では、図7(b)の例とは反対に、R成分の画素PIXの輝度が高く、B成分の画素PIXの輝度が低い。そのため、デモザイク処理後の各画素PIXの色情報はRとGとの混色成分となって、赤と緑の中間色(橙色中心の近傍色)の偽色が発生する。 Further, in the example of FIG. 7B, the luminance of the pixel PIX of the B component is high, and the luminance of the pixel PIX of the R component is low. Therefore, the color information of each pixel PIX after the demosaicing processing becomes a color mixture component of B and G, and a false color of an intermediate color of blue and green (for example, a color near the center of cyan color) is generated. On the other hand, in the example of FIG. 7C, contrary to the example of FIG. 7B, the luminance of the pixel PIX of the R component is high, and the luminance of the pixel PIX of the B component is low. Therefore, the color information of each pixel PIX after the demosaicing processing becomes a color mixture component of R and G, and a false color of intermediate color between red and green (near the center of orange) is generated.
図8は、Cb、Crの二軸で定義される色空間を示す。図8中、符号6bは、図6(b)の例において注目画素で発生する緑色の偽色に対応するプロットであり、符号6cは、図6(c)の例において注目画素で発生する紫色の偽色に対応するプロットであり、符号7bは、図7(b)の例において注目画素で発生する青と緑との中間色の偽色に対応するプロットであり、符号7cは、図7(c)の例において注目画素で発生する赤と緑の中間色の偽色に対応するプロットである。下記は、各プロットの座標情報を示す。なお、原点Oは座標(0,0)である。
プロット6b:(Cb,Cr)=(−M,−N)
プロット6c:(Cb,Cr)=(M,N)
プロット7b:(Cb,Cr)=(M’,−N’)
プロット7c:(Cb,Cr)=(−M’+α,N’+β)
但し、M,N,M’,N’,α,βは何れも正数である。
FIG. 8 shows a color space defined by two axes of Cb and Cr. In FIG. 8,
However, M, N, M ', N', α, β are all positive numbers.
図8に示されるように、本実施形態では、固体撮像素子112aの画素PIXの画素ピッチPと同程度の高周波成分の被写体像を取り込んだときに発生する偽色の色自体が、受光面112aa上での被写体像の入射位置をシフトさせることによって変化することを利用して偽色が発生する箇所(注目画素)を検出している。より詳細には、高周波成分の被写体像が取り込まれる注目画素において、第一色差信号と第二色差信号が持つ色情報が互いに補色の関係となる部分を、偽色が発生する部分であると判断し検出している。
As shown in FIG. 8, in the present embodiment, the false color itself generated when capturing an object image of a high frequency component comparable to the pixel pitch P of the pixel PIX of the solid-
本実施形態では、上記の補色関係を得るべく、受光面112aa上での被写体像の入射位置が左方向(水平の画素の並び方向)に1画素分シフト(固体撮像素子112aが被写体像に対して右方向に1画素分シフト)されているが、本発明はこれに限らない。シフト方向は、例示的には、右方向(水平の画素の並び方向)であってもよく、又は、上方向(垂直な画素の並び方向)、下方向(垂直な画素の並び方向)、右上、右下、左上、左下の各斜め方向(水平、垂直の各並び方向に対して45度をなす方向)など、画素配置に応じた他の方向であってもよいし、併用してもよい。また、シフト距離は、例示的には、3画素分、5画素分など、他の奇数画素分の距離であってもよく、また、半画素分又は半画素分+奇数画素分(例えば1.5画素分、2.5画素分等)であってもよく(すなわち、n画素分又は(m+0.5)画素分(但し、n=奇数の自然数,m=0又は奇数の自然数)の何れかであればよく)、シフト駆動する機構の精度に応じて選択できることもできる。また、シフト距離は、撮影対象の被写体や撮影条件によっては、偶数画素分及びその近傍(例えば1.9〜2.1画素分等)以外の距離であればよい。これらの量(方向及び距離)で受光面112aa上での被写体像の入射位置がシフトされる場合も、高周波成分の被写体像が取り込まれる(偽色が発生する)注目画素において、第一色差信号と第二色差信号が持つ色情報が互いに補色の関係となることから、偽色の発生が検出できる。
In the present embodiment, in order to obtain the above complementary color relationship, the incident position of the subject image on the light receiving surface 112aa is shifted by one pixel to the left (horizontal pixel alignment direction) (the solid-
本処理ステップS21では、処理ステップS20(偽色検出対象画素の設定)にて設定されたアドレスが同一の偽色検出対象画素毎に、第一色差信号と第二色差信号との差分値(Cbsub,Crsub)が演算される。具体的には、本処理ステップS21では、第一色差信号のCb、CrをそれぞれCb1、Cr1と定義し、これと同一アドレスの第二色差信号のCb、CrをそれぞれCb2、Cr2と定義した場合に、差分値(Cbsub,Crsub)が次式により演算される。
Cbsub=Cb1−Cb2
Crsub=Cr1−Cr2
In the main processing step S21, a difference value (Cb) between the first color difference signal and the second color difference signal for each false color detection target pixel having the same address set in the processing step S20 (setting of the false color detection target pixel). sub and Cr sub ) are calculated. Specifically, in the present processing step S21, Cb and Cr of the first color difference signal are defined as Cb1 and Cr1, respectively, and Cb and Cr of the second color difference signal having the same address are defined as Cb2 and Cr2, respectively. Then, the difference value (Cb sub , Cr sub ) is calculated by the following equation.
Cb sub = Cb 1 -
Cr sub = Cr 1 -
[図5のS22(第一の距離情報の演算)]
本処理ステップS22では、処理ステップS20(偽色検出対象画素の設定)にて設定されたアドレスが同一の偽色検出対象画素毎に、第一色差信号と第二色差信号との色空間内での距離(第一の距離情報Saturation_sub)が次式により演算される。
Saturation_sub=√(Cbsub 2+Crsub 2)
[S22 in FIG. 5 (calculation of first distance information)]
In the main processing step S22, in the color space of the first color difference signal and the second color difference signal for each false color detection target pixel having the same address set in the processing step S20 (setting of the false color detection target pixel). distance (first distance information Saturation_ sub) is calculated by the following equation.
Saturation_ sub = ((Cb sub 2 + Cr sub 2 )
第一の距離情報Saturation_subは、図8の各プロット対(プロット6bとプロット6c、プロット7bとプロット7c)の例でそれぞれ、2√(M2+N2)、√{(−2M’+α)2+(2N’+β)2}となる。
The first distance information Saturation_ sub are each an example of each plot pair of FIG. 8 (
図8の各プロット対の位置関係から把握されるように、第一色差信号と第二色差信号が持つ色情報が強い補色関係にあるほど第一の距離情報Saturation_subが大きくなり、第一色差信号と第二色差信号が持つ色情報が補色関係にない(例えば同様の色相である)ほど第一の距離情報Saturation_subが小さくなる。すなわち、第一の距離情報Saturation_subは、偽色発生領域でなければ理想的にはゼロであり、偽色が強く発生する偽色発生領域ほど大きくなる。 As understood from the positional relationship of each plot pair of FIG. 8, as the color information with the first color difference signal and a second color difference signal is strong complementary relationship first distance information Saturation_ sub increases, first color difference signal and the color information having the second color difference signal is not (for example similar hue) in complementary relationship as the first distance information Saturation_ sub decreases. That is, the first distance information Saturation_ sub ideally if false color occurrence region is zero, the larger the false color occurrence region in which false color is generated strongly.
[図5のS23(色差信号の加算値の演算)]
本処理ステップS23では、処理ステップS20(偽色検出対象画素の設定)にて設定されたアドレスが同一の偽色検出対象画素毎に、第一色差信号と第二色差信号との加算値(Cb’add,Cr’add)が演算される。
[S23 in FIG. 5 (calculation of addition value of color difference signal)]
In the main processing step S23, an added value (Cb) of the first color difference signal and the second color difference signal for each false color detection target pixel having the same address set in the processing step S20 (setting of the false color detection target pixel). ' add , Cr'add ) is calculated.
具体的には、本処理ステップS23では、暫定加算値(Cbadd,Cradd)が次式により演算される。
Cbadd=Cb1+Cb2
Cradd=Cr1+Cr2
Specifically, in the present processing step S23, temporary addition values (Cb add , Cr add ) are calculated by the following equation.
Cb add = Cb1 + Cb2
Cr add = Cr1 + Cr2
次いで、暫定加算値の平均値(Cbmean,Crmean)が次式により演算される。
Cbmean=Cbadd/2
Crmean=Cradd/2
Next, the mean value (Cb mean , Cr mean ) of the provisional addition value is calculated by the following equation.
Cb mean = Cb add / 2
Cr mean = Cr add / 2
次いで、加算値(Cb’add,Cr’add)が次式により演算される。
Cb’add=Cbadd−Cbmean
Cr’add=Cradd−Crmean
Then, the added value (Cb 'add, Cr' add ) is calculated by the following equation.
Cb 'add = Cb add -Cb mean
Cr ' add = Cr add -Cr mean
[図5のS24(第二の距離情報の演算)]
本処理ステップS24では、処理ステップS20(偽色検出対象画素の設定)にて設定されたアドレスが同一の偽色検出対象画素毎に、加算値(Cb’add,Cr’add)に基づいて色空間内における第二の距離情報Saturation_addが次式により演算される。
Saturation_add=√(Cb’add 2+Cr’add 2)
[S24 in FIG. 5 (calculation of second distance information)]
In the process step S24, the processing step S20 address is the same false color detection target each pixel is set at (false-color detection target pixel setting), based on the addition value (Cb 'add, Cr' add ) color second distance information Saturation_ the add is calculated by the following equation in space.
Saturation_ add = ((Cb ' add 2 + Cr' add 2 )
第二の距離情報Saturation_addは、図8の各プロット対(プロット6bとプロット6c、プロット7bとプロット7c)の例でそれぞれ、ゼロ、√(α2+β2)となる。
Second distance information Saturation_ the add each example of each plot pair of FIG. 8 (
ここで、第一、第二の各色差信号は、画像撮影時の光源、露出条件、ホワイトバランス等の影響を受けて変化する。しかし、第一、第二の各色差信号が同じように変化するため、色空間内における互いの相対距離(すなわち、第一の距離情報Saturation_sub)は変化が少ない。 Here, the first and second color difference signals change under the influence of the light source at the time of image shooting, the exposure condition, the white balance, and the like. However, first, since the second respective color difference signals varies in the same way, mutual relative distance in the color space (i.e., the first distance information Saturation_ sub) changes little.
一方、第二の距離情報Saturation_addは、第一、第二の各色差信号が画像撮影時の光源、露出条件、ホワイトバランス等の影響を受けて色空間の原点Oの位置に対して変化すると、大きく変化する。そこで、処理ステップS23(色差信号の加算値の演算)では、第二の距離情報Saturation_addを暫定加算値(Cbadd,Cradd)を用いて即座には演算せず、上記影響による原点Oに対する位置の変化を相殺又は軽減すべく(上記影響により、原点Oから離れた第一色差信号と第二色差信号との中点を原点Oに近付けるべく)、加算値(Cb’add,Cr’add)が演算されている。 On the other hand, the second distance information Saturation_ the add, the first, second light source for the respective color difference signal imaging, exposure conditions, the changes relative to the position of the origin O of the color space under the influence of such as white balance , Changes greatly. Therefore, in the process step S23 (calculation of the sum of the color difference signal), the second distance information Saturation_ the add provisional sum value (Cb add, Cr add) without operation immediately using, relative to the origin O by the impact Additive value (Cb ' add , Cr' add ) to offset or reduce the change in position (to bring the midpoint of the first color difference signal and the second color difference signal away from the origin O closer to the origin O due to the above effect) Is calculated.
図8の各プロット対の位置関係から把握されるように、第一色差信号と第二色差信号が持つ色情報が補色関係にある場合は、互いの符号が逆となることから加算値(Cb’add,Cr’add)が小さくなって、第二の距離情報Saturation_addが小さくなる。また、強い補色関係であるほど第二の距離情報Saturation_addが小さくなって、理想的にはゼロとなる。一方、第一色差信号と第二色差信号が持つ色情報が補色関係にない(例えば同様の色相である)場合は、互いの符号が同一となることから、加算値(Cb’add,Cr’add)が大きくなって、第二の距離情報Saturation_addが大きくなる。すなわち、第二の距離情報Saturation_addは、偽色発生領域でなければ大きくなり、偽色発生領域であれば小さくなる。 As understood from the positional relationship between each pair of plots in FIG. 8, when the color information possessed by the first color difference signal and the second color difference signal is in a complementary color relationship, the signs of the respective colors are opposite to each other. 'add, Cr' add) is decreased, the second distance information Saturation_ the add decreases. The second distance information Saturation_ to add becomes smaller as is strong complementary relationship, the zero ideally. On the other hand, if the color information possessed by the first color difference signal and the second color difference signal does not have a complementary color relationship (for example, similar hues), the sign of each other will be the same, so the added value (Cb ' add , Cr' add) and increases, the second distance information Saturation_ the add increases. That is, the second distance information Saturation_ the add is larger if false color occurrence region decreases if false color occurrence region.
[図5のS25(輝度信号の差分値の演算)]
説明の便宜上、処理ステップS12(第一画像の撮影)にて撮影された第一画像の輝度信号Yを「第一輝度信号」と記し、処理ステップS15(第二画像の撮影)にて撮影された第二画像の輝度信号Yを「第二輝度信号」と記す。本処理ステップS25では、処理ステップS20(偽色検出対象画素の設定)にて設定されたアドレスが同一の偽色検出対象画素毎に、第一輝度信号と第二輝度信号との差分値Ydiffが演算される。具体的には、本処理ステップS25では、第一輝度信号をY1と定義し、第二輝度信号をY2と定義した場合に、差分値Ydiffが次式により演算される。
Ydiff=|Y1−Y2|
[S25 in FIG. 5 (calculation of difference value of luminance signal)]
For convenience of explanation, the luminance signal Y of the first image taken in process step S12 (shooting of the first image) is referred to as “first brightness signal”, and it is shot in process step S15 (shooting of the second image) The luminance signal Y of the second image is referred to as a "second luminance signal". In the main processing step S25, the difference value Y diff between the first luminance signal and the second luminance signal for each false color detection target pixel having the same address set in the processing step S20 (setting of the false color detection target pixel). Is calculated. Specifically, in the main processing step S25, when the first luminance signal is defined as Y1 and the second luminance signal is defined as Y2, the difference value Y diff is calculated according to the following equation.
Y diff = | Y1-Y2 |
[図5のS26(偽色発生領域の判定)]
本処理ステップS26では、処理ステップS20(偽色検出対象画素の設定)にて設定されたアドレスが同一の偽色検出対象画素毎に、偽色発生領域であるか否かが判定される。具体的には、次の条件(1)〜(3)が全て満たされる場合に、当該画素が偽色発生領域であると判定される。
[S26 in FIG. 5 (judgment of false color occurrence area)]
In the main processing step S26, it is determined whether or not the address set in the processing step S20 (setting of false color detection target pixel) is a false color generation region for each same false color detection target pixel. Specifically, when all of the following conditions (1) to (3) are satisfied, it is determined that the pixel is a false color generation region.
・条件(1)
上述したように、第一の距離情報Saturation_subが大きいほど第一色差信号と第二色差信号が持つ色情報が強い補色関係となることから、当該画素が偽色発生領域である可能性が高い。そこで、条件(1)は次のように規定される。
条件(1):Saturation_sub≧閾値T1
Condition (1)
As described above, since the color information having the first color difference signal the larger the first distance information Saturation_ sub and the second color difference signal is strong complementary relationship, it is likely the pixel is false color occurrence region . Therefore, the condition (1) is defined as follows.
Condition (1): Saturation_ sub ≧ threshold T1
・条件(2)
上述したように、第二の距離情報Saturation_addが小さいほど第一色差信号と第二色差信号が持つ色情報が強い補色関係となることから、当該画素が偽色発生領域である可能性が高い。そこで、条件(2)は次のように規定される。
条件(2):Saturation_add≦閾値T2
Condition (2)
As described above, since the color information having the second distance information Saturation_ first color difference signal the more add small and the second color difference signal is strong complementary relationship, it is likely the pixel is false color occurrence region . Therefore, the condition (2) is defined as follows.
Condition (2): Saturation_ add ≦ threshold T2
処理ステップS12(第一画像の撮影)にて撮影された第一画像と処理ステップS15(第二画像の撮影)にて撮影された第二画像の一方だけで大きな像振れが発生した場合を考える。この場合、第一色差信号と第二色差信号との差分が大きくなって、偽色が誤検出される虞がある。そこで、条件(3)は次のように規定される。
条件(3):Ydiff≦閾値T3
Consider the case where a large image blur occurs in only one of the first image taken in process step S12 (shooting of the first image) and the second image taken in process step S15 (shooting of the second image) . In this case, the difference between the first color difference signal and the second color difference signal becomes large, and false color may be erroneously detected. Therefore, the condition (3) is defined as follows.
Condition (3): Y diff ≦
すなわち、差分値Ydiffが閾値T3よりも大きい場合は、上記の誤検出の虞があることから、当該画素に対する偽色の検出が行われない(当該画素が偽色発生領域でないものとして処理される。)。
That is, when the difference value Y diff is larger than the
なお、条件(1)と条件(2)は、当該画素が偽色発生領域であるか否かを直接的に判定する条件となっている。そこで、別の実施形態では、条件(1)と条件(2)の少なくとも一方が満たされる場合に、当該画素が偽色発生領域であると判定されるようにしてもよい。 Condition (1) and condition (2) are conditions for directly determining whether the pixel is a false color generation region. Therefore, in another embodiment, when at least one of the condition (1) and the condition (2) is satisfied, it may be determined that the pixel is a false color generation region.
また、ユーザは、操作部102を操作して閾値T1〜T3を設定変更することにより、偽色の検出感度を変更することができる。図9、図10の各図に示されるように、ライブビューには検出感度調整バーB2がOSDで表示される。検出感度調整バーB2の表示は、ユーザによる閾値T1〜T3の設定変更内容に応じて変化する。ユーザは、検出感度調整バーB2を通じて現在の偽色の検出感度を把握することができる。
Also, the user can change the false color detection sensitivity by operating the
[図5のS27(偽色の検出)]
本処理ステップS27では、偽色の有無が検出される。例示的には、処理ステップS26(偽色発生領域の判定)において偽色発生領域と判定された画素数(又は全有効画素数のうち偽色発生領域と判定された画素の割合)が所定の閾値以上である場合に、偽色有りという検出結果となり(S27:YES)、該画素数(又は割合)が所定の閾値未満である場合に、偽色無しという検出結果となる(S27:NO)。
[S27 in FIG. 5 (false color detection)]
In the main processing step S27, the presence or absence of a false color is detected. For example, the number of pixels determined as the false color generation area in the processing step S26 (determination of the false color generation area) (or the ratio of pixels determined as the false color generation area to the total number of effective pixels) is predetermined. If it is more than the threshold, the detection result of false color is present (S27: YES), and if the number of pixels (or the ratio) is less than a predetermined threshold, the detection result of false color absence is obtained (S27: NO) .
[図5のS28(撮影画像の保存)]
本処理ステップS28は、処理ステップS27(偽色の検出)にて偽色無しという検出結果が得られた場合(S27:NO)に実行される。本処理ステップS28では、処理ステップS12(第一画像の撮影)にて撮影された第一画像及び処理ステップS15(第二画像の撮影)にて撮影された第二画像について偽色が検出されなかったとして、その少なくとも一方がメモリカード200(又は撮影装置1に備えられる不図示の内蔵メモリ)に保存される。この時点で撮影動作が完了した旨が撮影者に告知されてもよい。特に、処理ステップS15(第二画像の撮影)で第一画像と第二画像を用いた偽色検出処理を開始する旨が撮影者に告知されている場合には、撮影動作が完了したことが撮影者に伝わる。これにより、撮影者は次の作業、例えば撮影装置1の状態(セッティング)の変更に進むことができる。
[S28 in FIG. 5 (storage of photographed image)]
The present process step S28 is executed when a detection result indicating no false color is obtained in the process step S27 (detection of false color) (S27: NO). In the main processing step S28, a false color is not detected in the first image photographed in the processing step S12 (photographing of the first image) and the second image photographed in the processing step S15 (photographing of the second image) At least one of them is stored in the memory card 200 (or a built-in memory (not shown) provided in the photographing apparatus 1). At this time, the photographer may be notified that the photographing operation has been completed. In particular, when the photographer is notified in the processing step S15 (shooting of the second image) that the false color detection process using the first image and the second image is to be started, the shooting operation is completed I tell the photographer. Thereby, the photographer can proceed to the next operation, for example, changing the state (setting) of the photographing
[図5のS29(LPF駆動下での撮像)]
本処理ステップS29は、処理ステップS27(偽色の検出)にて偽色有りという検出結果が得られた場合(S27:YES)に実行される。本処理ステップS29では、処理ステップS12(第一画像の撮影)にて撮影された第一画像及び処理ステップS15(第二画像の撮影)にて撮影された第二画像について偽色が検出されたことから、LPF駆動が実行される。既にLPF駆動下での撮像が行われていた場合は、より強い光学的なLPF効果(偽色等のモアレの軽減)が得られるように、固体撮像素子112aの駆動周期(回転周期)や駆動振幅(回転半径)が調整される。すなわち、偽色を軽減するためのより有利な撮影条件に変更される。そのうえで、被写体の撮像(第三画像の撮影)が行われる。つまり、偽色が検出された場合には第三画像の撮影が行われる。そのため、処理ステップS15(第二画像の撮影)にて偽色検出処理を開始する旨が撮影者に告知されている場合、撮影者は第三画像の撮影が完了するまで、撮影装置1の状態(セッティング)を維持することができる。
[S29 in FIG. 5 (imaging under LPF drive)]
This processing step S29 is executed when the detection result that false color is present is obtained in processing step S27 (detection of false color) (S27: YES). In the main processing step S29, a false color is detected in the first image photographed in the processing step S12 (photographing of the first image) and the second image photographed in the processing step S15 (photographing of the second image) Therefore, the LPF drive is performed. When imaging under LPF driving has already been performed, the drive cycle (rotation cycle) or drive of the solid-
本実施形態によれば、偽色検出対象画素が、全ての有効画素ではなく、偽色が発生している可能性の高い合焦エリア及びその周辺の画素に絞り込まれる。これにより、偽色の検出精度が保たれつつ偽色検出の処理速度が向上する。また、本実施形態によれば、固体撮像素子112aの受光面112aa上での被写体像の入射位置をシフトさせることにより、画素ピッチPと同程度以上の高周波成分の被写体像が取り込まれた場合に、異なる偽色(互いに補色の関係となる偽色)が発生し、差分の大きい画像が生成される構成となっている。偽色の検出に差分の大きい画像が用いられることから、偽色が精度良く検出される。
According to the present embodiment, the false color detection target pixels are narrowed down not to all the effective pixels but to the in-focus area where false colors are likely to occur and pixels in the periphery thereof. As a result, the processing speed of false color detection is improved while the false color detection accuracy is maintained. Further, according to the present embodiment, when the subject image having a high frequency component equal to or more than the pixel pitch P is captured by shifting the incident position of the subject image on the light receiving surface 112aa of the solid-
以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施形態等又は自明な実施形態等を適宜組み合わせた内容も本願の実施形態に含まれる。 The above is a description of an exemplary embodiment of the present invention. Embodiments of the present invention are not limited to those described above, and various modifications are possible within the scope of the technical idea of the present invention. For example, contents obtained by appropriately combining the embodiments explicitly illustrated in the specification or the obvious embodiments are also included in the embodiments of the present application.
上記の実施形態では、LPF駆動を実行することにより、画像全体に対して光学的に偽色の除去を施しているが、本発明はこれに限らない。偽色は、画像処理を用いて除去されてもよい。画像処理の場合は、偽色を画像全体に限らず局所的に(例えば偽色発生領域と判定された画素毎に)除去することもできる。また、偽色発生領域を示す情報を第一画像(第二画像)と関連付けて保存しておけば、仮に別端末(コンピューターなど)によって手作業で偽色補正をする場合でも、作業者は、当該情報に基づいて偽色発生領域を容易に発見することができる。そのため、画像全体から偽色発生領域を探す手間が軽減される。 In the above embodiment, false color removal is optically performed on the entire image by executing the LPF driving, but the present invention is not limited to this. False colors may be removed using image processing. In the case of image processing, the false color can be removed not only in the entire image but locally (for example, for each pixel determined to be a false color generation region). In addition, if information indicating a false color generation area is stored in association with the first image (second image), the operator can perform false color correction manually even if another terminal (such as a computer) performs manual false color correction, The false color generation area can be easily found based on the information. Therefore, the trouble of searching for the false color generation area from the whole image is reduced.
上記の実施形態では、処理ステップS12(第一画像の撮影)における第一画像の撮影時の合焦エリアFA1〜FA5を基準に偽色検出対象画素が設定されているが、本発明はこれに限らない。例えば、処理ステップS15(第二画像の撮影)における第二画像の撮影時の合焦エリアFA1’〜FA5’を基準に偽色検出対象画素が設定されてもよい。 In the above embodiment, false color detection target pixels are set based on the focusing areas FA1 to FA5 at the time of shooting of the first image in the processing step S12 (shooting of the first image), but the present invention Not exclusively. For example, the false color detection target pixel may be set based on the focusing areas FA1 'to FA5' at the time of shooting of the second image in the processing step S15 (shooting of the second image).
また、上記の実施形態では、ペアリングされた合焦エリア内の各画素だけでなく該合焦エリアを取り囲む所定数の周辺画素が偽色検出対象画素として設定されているが、本発明はこれに限らない。例えば、ペアリングされた合焦エリア内の各画素だけが偽色検出対象画素として設定されてもよい。 Further, in the above embodiment, not only each pixel in the paired focusing area but also a predetermined number of peripheral pixels surrounding the focusing area are set as false color detection target pixels. Not limited to. For example, only each pixel in the paired focusing area may be set as a false color detection target pixel.
1 撮影装置
100 システムコントローラ
102 操作部
104 駆動回路
106 撮影レンズ
108 絞り
110 シャッタ
112 像振れ補正装置
112a 固体撮像素子
112aa (固体撮像素子の)受光面
112b 固定支持基板
112c 可動ステージ
114 信号処理回路
116 画像処理エンジン
118 バッファメモリ
120 カード用インタフェース
122 LCD制御回路
124 LCD
126 ROM
128 ジャイロセンサ
200 メモリカード
CYR、CYL、CXD、CXU 駆動用コイル
HYR、HYL、HXD、HXU ホール素子
MYR、MYL、MXD、MXU 磁石
PIX 画素
VCMYR、VCMYL、VCMXD、VCMXU ボイスコイルモータ
YYR、YYL、YXD、YXU ヨーク
126 ROM
128
Claims (10)
前記画像内で発生する画像劣化の検出範囲を前記検出された各合焦領域を基準とする所定の範囲に設定する検出範囲設定手段と、
前記設定された検出範囲において画像劣化の検出を行う画像検出手段と、
を備え、
前記画像検出手段は、
撮像条件の異なる少なくとも一対の画像を取得し、
取得された対となる画像に基づいて前記検出範囲での画像劣化の検出を行う、
画像検出装置。 Focusing area detection means for detecting at least one focusing area based on focusing information in the image;
Detection range setting means for setting a detection range of image deterioration occurring in the image to a predetermined range based on each of the detected focusing regions;
Image detection means for detecting image deterioration in the set detection range;
Equipped with
The image detection means
Acquire at least one pair of images with different imaging conditions,
Detecting image degradation in the detection range based on the acquired paired images ;
Image detection device .
前記基準となる合焦領域及び該合焦領域の周辺領域よりなる、
請求項1に記載の画像検出装置。 The detection range is
The reference focusing area and the peripheral area of the focusing area
The image detection device according to claim 1.
受け付けられた操作者の操作に従って前記検出範囲を変更する検出範囲変更手段と、
を備える、
請求項1又は請求項2に記載の画像検出装置。 Operation receiving means for receiving an operator's operation;
Detection range changing means for changing the detection range according to the operation of the accepted operator;
Equipped with
The image detection apparatus according to claim 1.
前記基準となる合焦領域の中心又は前記検出範囲の中心に対して前記操作に従って該検出範囲の大きさを変更する、
請求項3に記載の画像検出装置。 The detection range changing means is
The size of the detection range is changed according to the operation with respect to the center of the reference focusing region or the center of the detection range.
The image detection device according to claim 3.
前記検出範囲変更手段による大きさの変更の前後で相似形を保つ、
請求項4に記載の画像検出装置。 The shape of the detection range is
Maintain similar shape before and after the change of the size by the detection range changing means,
The image detection apparatus according to claim 4.
を備え、
前記指標表示手段は、
前記検出範囲の大きさの変更に応じて前記指標の表示を変化させる、
請求項4又は請求項5に記載の画像検出装置。 An indicator display means for displaying an indicator indicating the size of the detection range;
The indicator display means
The display of the indicator is changed according to the change of the size of the detection range,
The image detection apparatus according to claim 4 or 5.
前記対となる画像間で同一の被写体が写る合焦領域を判別し、
判別された同一の被写体が写る合焦領域を基準とする検出範囲について前記対となる画像に基づく画像劣化の検出を行う、
請求項1から請求項6の何れか一項に記載の画像検出装置。 The image detection means
The in-focus area where the same subject appears between the paired images is determined;
The image degradation is detected based on the pair of images with respect to a detection range based on the in-focus area where the determined same subject appears.
The image detection apparatus according to any one of claims 1 to 6 .
前記対となる画像に基づいて所定の閾値判定を行い、
前記閾値判定の結果に基づいて画像劣化の検出を行い、
前記閾値判定に用いられる閾値は、
操作者の操作に従って設定変更可能である、
請求項1から請求項7の何れか一項に記載の画像検出装置。 The image detection means
Performing a predetermined threshold determination based on the pair of images;
The image deterioration is detected based on the result of the threshold determination,
The threshold used for the threshold determination is
The setting can be changed according to the operation of the operator,
The image detection apparatus according to any one of claims 1 to 7 .
前記画像内で発生する画像劣化の検出範囲を前記検出された各合焦領域を基準とする所定の範囲に設定する検出範囲設定段階と、
前記設定された検出範囲において画像劣化の検出を行う画像検出段階と、
を含み、
前記画像検出段階にて、
撮像条件の異なる少なくとも一対の画像を取得し、
取得された対となる画像に基づいて前記検出範囲での画像劣化の検出を行う、
画像検出方法。 Detecting at least one focus area based on focus information in the image;
A detection range setting step of setting a detection range of image degradation occurring in the image to a predetermined range based on each of the detected focusing regions;
An image detection step of detecting image deterioration in the set detection range;
Including
At the image detection stage,
Acquire at least one pair of images with different imaging conditions,
Detecting image degradation in the detection range based on the acquired paired images;
Image detection method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015019867A JP6548141B2 (en) | 2015-02-04 | 2015-02-04 | Image detection apparatus, image detection method and image detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015019867A JP6548141B2 (en) | 2015-02-04 | 2015-02-04 | Image detection apparatus, image detection method and image detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016144103A JP2016144103A (en) | 2016-08-08 |
JP6548141B2 true JP6548141B2 (en) | 2019-07-24 |
Family
ID=56569019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015019867A Active JP6548141B2 (en) | 2015-02-04 | 2015-02-04 | Image detection apparatus, image detection method and image detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6548141B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0974524A (en) * | 1995-07-05 | 1997-03-18 | Sharp Corp | Image input device |
JP4888829B2 (en) * | 2006-08-16 | 2012-02-29 | カシオ計算機株式会社 | Movie processing device, movie shooting device, and movie shooting program |
JP2008182486A (en) * | 2007-01-24 | 2008-08-07 | Fujifilm Corp | Photographing device, and image processing method |
JP5593683B2 (en) * | 2009-11-19 | 2014-09-24 | 株式会社ニコン | Imaging device |
-
2015
- 2015-02-04 JP JP2015019867A patent/JP6548141B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016144103A (en) | 2016-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5502205B2 (en) | Stereo imaging device and stereo imaging method | |
US9749523B2 (en) | Photographing apparatus, photographing method, image processor, image-processing method, and program | |
JP2011223562A (en) | Imaging apparatus | |
US9871964B2 (en) | Photographing apparatus, photographing controller, photographing control method, and photographing control program | |
JP2006129175A (en) | Imaging device | |
US10057492B2 (en) | Photographing apparatus and photographing control method to generate a low-pass filter effect | |
JP2011211329A (en) | Imaging apparatus and control method thereof, image processing apparatus and control method thereof, and image processing program | |
JP6748847B2 (en) | Imaging device | |
JP2007195122A (en) | Imaging apparatus, image processor and image processing method | |
JP5595505B2 (en) | Stereo imaging device and stereo imaging method | |
JP6606838B2 (en) | Imaging apparatus and imaging method | |
JP7080118B2 (en) | Image pickup device and its control method, shooting lens, program, storage medium | |
JP6579369B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6548141B2 (en) | Image detection apparatus, image detection method and image detection program | |
JP2008113466A (en) | Electronic camera | |
JP6501106B2 (en) | Image detection apparatus, image detection method and imaging apparatus | |
JP6525139B2 (en) | Image detection apparatus, image detection method and imaging apparatus | |
JP6460395B2 (en) | Imaging apparatus and display control method in imaging apparatus | |
JP2008245236A (en) | Imaging apparatus and defective pixel correcting method | |
JP6508609B2 (en) | Imaging apparatus and control method therefor | |
JP6489350B2 (en) | Image blur correction apparatus and image blur correction method in the image blur correction apparatus | |
JP6500618B2 (en) | Imaging apparatus and imaging method | |
JP6500384B2 (en) | Imaging apparatus, imaging method and program | |
JP2018148500A (en) | Imaging system, image determination program, image imaging device, image data structure | |
JP2017200028A (en) | Image deterioration detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170717 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190603 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6548141 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190616 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |