JP2018148500A - Imaging system, image determination program, image imaging device, image data structure - Google Patents
Imaging system, image determination program, image imaging device, image data structure Download PDFInfo
- Publication number
- JP2018148500A JP2018148500A JP2017044280A JP2017044280A JP2018148500A JP 2018148500 A JP2018148500 A JP 2018148500A JP 2017044280 A JP2017044280 A JP 2017044280A JP 2017044280 A JP2017044280 A JP 2017044280A JP 2018148500 A JP2018148500 A JP 2018148500A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- images
- subject
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像を撮像する撮像システム及び画像を判定する画像判定プログラム、画像データを撮像する画像撮像装置、並びに、画像データ構造に関する。 The present invention relates to an imaging system that captures an image, an image determination program that determines an image, an image capturing apparatus that captures image data, and an image data structure.
撮像素子の画素ピッチと同程度以上の高周波成分を含む被写体を撮像すると、偽色(色モアレ)等のモアレが発生して、撮影画像が劣化することが知られている。そこで、この種の偽色を除去するための種々の技術が提案されている。例えば特許文献1に、撮影画像内に発生する偽色を検出することが可能な撮影装置の具体的構成が記載されている。また、特許文献2に、偽色を低減可能な撮影装置の具体期構成が記載されている。
It is known that when a subject including a high frequency component equal to or higher than the pixel pitch of the image sensor is picked up, moire such as false color (color moire) is generated and the captured image is deteriorated. Therefore, various techniques for removing this type of false color have been proposed. For example,
特許文献1に記載の撮影装置は、合焦状態の被写体を撮像し、次いで、非合焦状態の被写体を撮像する。非合焦状態の撮影画像では、被写体のコントラストが低下して高周波成分が低減されるため、合焦状態の撮影画像に発生していた偽色も低減される。そこで、特許文献1に記載の撮影装置は、撮影画像を複数のブロックに分け、合焦状態の撮影画像の色差信号と非合焦状態の撮影画像の色差信号との差分値をブロック毎に演算し、差分値の大きいブロックを偽色が発生しているブロックとして検出する。
The imaging device described in
特許文献2に記載の撮影装置は、一度、被写体を撮影した後、撮影レンズの一部(防振レンズ)を光軸に垂直な面内で振動させた状態で被写体を撮影する。一回目の撮影で得られた撮影画像には像振れは発生していないが、偽色が発生している可能性がある。一方、防振レンズを振動させながら撮影した撮影画像には、像振れが発生しているが、偽色は低減されている。特許文献2に記載の撮影装置では、この2枚の撮影画像を合成することにより、像振れと偽色の両方を押さえた撮影画像が得ている。
The imaging apparatus described in
このように、特許文献1や特許文献2に記載の撮影装置では、撮影状態(合焦状態や防振レンズの振動の有無)の異なる複数の撮影画像を用いて、偽色の検出、或いは、偽色の低減を行っている。しかし、偽色の検出処理や偽色の低減処理等の画像処理は、必ずしも複数の撮影画像を撮影した直後に、撮影装置で行うとは限らない。例えば、複数の撮影画像の撮影処理だけを行い、その後、ユーザの所望のタイミングで画像処理を行う場合や、撮影装置以外の外部装置で画像処理を行う場合が想定される。この場合、ユーザは、様々な撮影画像の中から、画像処理に使用する撮影画像を探して選択する必要があった。
As described above, in the photographing apparatuses described in
本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、複数の画像の中から、必要な画像を容易に選択することが可能な撮像システム、画像判定プログラム、画像撮像装置及びデータ構造を提供することである。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an imaging system, an image determination program, and an image imaging system that can easily select a required image from a plurality of images. To provide a device and data structure.
本発明の一実施形態に係る撮像システムは、撮像光学系を介して撮像素子に入射される被写体像と、撮像素子との、撮像素子の受光面と平行な面内における相対的な位置を変化させる位置変化手段と、撮像素子を用いて被写体像を撮像して2以上の所定の画像を取得し、該所定の画像を含む画像群を記録する画像記録手段と、所定の画像が撮像されたときの、被写体像と撮像素子との相対的な位置に関する情報を取得する位置情報取得手段と、所定の画像に対し、相対的な位置に関する情報を付加する位置情報付加手段と、を備える。 An imaging system according to an embodiment of the present invention changes a relative position of a subject image incident on an imaging device via an imaging optical system and an imaging device in a plane parallel to a light receiving surface of the imaging device. A position changing means for capturing, an image recording means for capturing a subject image using an image sensor to acquire two or more predetermined images, and recording an image group including the predetermined images, and the predetermined images are captured Position information acquisition means for acquiring information regarding the relative position between the subject image and the image sensor, and position information addition means for adding information regarding the relative position to a predetermined image.
本発明の一実施形態によれば、複数の画像の中から必要な画像を容易に選択することができる。 According to an embodiment of the present invention, a necessary image can be easily selected from a plurality of images.
以下、本発明の実施形態の撮像システム、画像判定プログラム、画像撮像装置及び画像データ構造について図面を参照しながら説明する。以下においては、本発明の撮像システム及び画像撮像装置の一実施形態として、デジタル一眼レフカメラについて説明する。なお、本発明の撮像システム及び画像撮像装置は、デジタル一眼レフカメラに限らず、例えば、ミラーレス一眼カメラ、コンパクトデジタルカメラ、ビデオカメラ、カムコーダ、タブレット端末、PHS(Personal Handy phone System)、スマートフォン、フィーチャフォン、携帯ゲーム機など、撮像(撮影)機能を有する別の形態の装置に置き換えてもよい。また、撮像システムは、撮像(撮影)機能を有する画像撮像装置と、画像撮像装置によって生成(記録)された画像データを処理する画像処理装置を組み合わせたものであってもよい。画像処理装置には、例えば、パーソナルコンピュータ、サーバ、タブレット端末、スマートフォンなど、情報処理機能を有する装置が使用される。本発明の実施形態の画像判定プログラムは、撮像システムや画像撮像装置、画像処理装置で実行される。また、本発明の実施形態の画像データ構造を有する画像データは、撮像システムや画像撮像装置、画像処理装置で生成(記録)又は処理される。 Hereinafter, an imaging system, an image determination program, an image imaging device, and an image data structure according to an embodiment of the present invention will be described with reference to the drawings. In the following, a digital single lens reflex camera will be described as an embodiment of the imaging system and the imaging apparatus of the present invention. The imaging system and the imaging device of the present invention are not limited to a digital single lens reflex camera, but include, for example, a mirrorless single lens camera, a compact digital camera, a video camera, a camcorder, a tablet terminal, a PHS (Personal Handy phone System), a smartphone, It may be replaced with another form of device having an imaging function, such as a feature phone or a portable game machine. The imaging system may be a combination of an image imaging device having an imaging (imaging) function and an image processing device that processes image data generated (recorded) by the image imaging device. As the image processing device, for example, a device having an information processing function such as a personal computer, a server, a tablet terminal, or a smartphone is used. An image determination program according to an embodiment of the present invention is executed by an imaging system, an image imaging device, and an image processing device. The image data having the image data structure according to the embodiment of the present invention is generated (recorded) or processed by an imaging system, an image imaging device, or an image processing device.
図1は、本実施形態のデジタル一眼レフカメラ(以下、「撮影装置」と記す。)1及び画像処理装置3の構成を示すブロック図である。図1に示されるように、撮影装置1は、システムコントローラ100、操作部102、駆動回路104、撮影レンズ106、絞り108、シャッタ110、像振れ補正装置112、信号処理回路114、画像処理エンジン116、バッファメモリ118、カード用インタフェース120、LCD(Liquid Crystal Display)制御回路122、LCD124、ROM(Read Only Memory)126、ジャイロセンサ128、加速度センサ130、地磁気センサ132、GPS(Global Positioning System)センサ134及び通信インタフェース136を備えている。なお、撮影レンズ106は複数枚構成であるが、図1においては便宜上一枚のレンズとして示す。また、撮影レンズ106の光軸AXと同じ方向をZ軸方向と定義し、Z軸方向と直交し且つ互いに直交する二軸方向をそれぞれX軸方向(水平方向)、Y軸方向(垂直方向)と定義する。また、以下では、X軸正方向を右、X軸負方向を左、Y軸正方向を上、Y軸正方向を下と呼ぶ。
FIG. 1 is a block diagram showing a configuration of a digital single-lens reflex camera (hereinafter referred to as “imaging device”) 1 and an
また、図1に示すように、画像処理装置3は、コントローラ300、メモリ301、LCD302、カード用インタフェース303及び通信インタフェース304を備えている。
As illustrated in FIG. 1, the
操作部102には、電源スイッチやレリーズスイッチ、撮影モードスイッチなど、ユーザが撮影装置1を操作するために必要な各種スイッチが含まれる。また、LCD124がユーザ操作を受け付けるタッチパネルである場合、操作部102にはLCD124も含まれる。ユーザにより電源スイッチが操作されると、図示省略されたバッテリから撮影装置1の各種回路に電源ラインを通じて電源供給が行われる。
The
システムコントローラ100は、CPU(Central Processing Unit)及びDSP(Digital Signal Processor)を含む。システムコントローラ100は電源供給後、ROM126にアクセスして制御プログラムを読み出してワークエリア(不図示)にロードし、ロードされた制御プログラムを実行することにより、撮影装置1全体の制御を行う。
The
レリーズスイッチが操作されると、システムコントローラ100は、例えば、固体撮像素子112a(後述の図2参照)により撮像された画像に基づいて計算された測光値や、撮影装置1に内蔵された露出計(不図示)で測定された測光値に基づき適正露出が得られるように、駆動回路104を介して絞り108及びシャッタ110を駆動制御する。より詳細には、絞り108及びシャッタ110の駆動制御は、プログラムAE(Automatic Exposure)、シャッタ優先AE、絞り優先AEなど、撮影モードスイッチにより指定されるAE機能に基づいて行われる。また、システムコントローラ100はAE制御と併せてAF(Autofocus)制御を行う。AF制御には、アクティブ方式、位相差検出方式、像面位相差検出方式、コントラスト検出方式等が適用される。また、AFモードには、中央一点の測距エリアを用いた中央一点測距モード、複数の測距エリアを用いた多点測距モード、全画面の距離情報に基づく全画面測距モード等がある。システムコントローラ100は、AF結果に基づいて駆動回路104を介して撮影レンズ106を駆動制御し、撮影レンズ106の焦点を調整する。なお、この種のAE及びAFの構成及び制御については周知であるため、ここでの詳細な説明は省略する。
When the release switch is operated, the
図2及び図3は、像振れ補正装置112の構成を概略的に示す図である。図2及び図3に示されるように、像振れ補正装置112は、固体撮像素子112aを備えている。被写体からの光束は、撮影レンズ106、絞り108、シャッタ110を通過して固体撮像素子112aの受光面112aaにて受光される。なお、固体撮像素子112aの受光面112aaは、X軸及びY軸を含むXY平面と平行である。固体撮像素子112aは、透過波長選択素子としてベイヤ型画素配置のカラーフィルタを有する単板式カラーCCD(Charge Coupled Device)イメージセンサである。固体撮像素子112aは、受光面112aa上の各画素で結像した光学像を光量に応じた電荷として蓄積して、R(Red)、G(Green)、B(Blue)の画像信号を生成して出力する。なお、固体撮像素子112aは、CCDイメージセンサに限らず、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやその他の種類の撮像装置に置き換えられてもよい。固体撮像素子112aはまた、補色系フィルタを搭載したものであってもよいし、画素毎に何れかのカラーフィルタを配置していれば、ベイヤ配列等の周期的なカラー配列を有するフィルタである必要はない。
2 and 3 are diagrams schematically showing a configuration of the image
信号処理回路114は、固体撮像素子112aより入力される画像信号に対してクランプ、デモザイク(色補間)等の所定の信号処理を施して、画像処理エンジン116に出力する。画像処理エンジン116は、信号処理回路114より入力される画像信号に対してマトリクス演算、Y/C分離、ホワイトバランス等の所定の信号処理を施して輝度信号Y、色差信号Cb、Crを生成し、JPEG(Joint Photographic Experts Group)等の所定のフォーマットで圧縮して画像データを生成(記録)する。バッファメモリ118は、画像処理エンジン116による処理の実行時、処理データの一時的な保存場所として用いられる。また、画像データのフォーマットは、JPEG形式に限らず、最小限の画像処理(例えばクランプ)しか施されないRAW形式であってもよい。
The
また、画像データには、撮影条件や撮影画像を識別するための情報等のメタデータが付加される。図4は、画像データのデータ構造を示す図である。画像データは、撮影された被写体の画像と、画像に関するメタデータを含む。メタデータには、例えば、撮影日時、画像データのファイル名、撮影画像の解像度、露出時間、絞り値、ホワイトバランスの設定値等が含まれる。メタデータは、例えば、Exif(Exchangeable image file format)形式のフォーマットに準拠している。 In addition, metadata such as information for identifying a shooting condition and a shot image is added to the image data. FIG. 4 is a diagram illustrating a data structure of image data. The image data includes a photographed subject image and metadata related to the image. The metadata includes, for example, the shooting date and time, the file name of the image data, the resolution of the shot image, the exposure time, the aperture value, the white balance setting value, and the like. The metadata complies with, for example, an Exif (Exchangeable image file format) format.
カード用インタフェース120のカードスロットには、メモリカード200が着脱可能に差し込まれている。
A
画像処理エンジン116は、カード用インタフェース120を介してメモリカード200と通信可能である。画像処理エンジン116は、生成(記録)された画像データを画像ファイルとしてメモリカード200に保存する。また、画像データは、撮影装置1に備えられる不図示の内蔵メモリに保存されてもよい。或いは、画像データが保存されたメモリカード200が、外部の画像処理装置3のカード用インタフェース303に装着されてもよい。また、メモリカード200に保存された画像データは、メモリ301に保存されてもよい。或いは、撮影装置1と画像処理装置3が、通信インタフェース136、304によってデータ交換可能に接続されている場合、画像データは、撮影装置1から画像処理装置3へ、通信インタフェース136、304を介して送信されてもよい。通信インタフェース136と通信インタフェース304は、ケーブルによって接続されるものであってもよく、無線通信によって接続されるものであってもよい。
The
また、画像処理エンジン116は、生成された輝度信号Y、色差信号Cb、Crをフレームメモリ(不図示)にフレーム単位でバッファリングする。画像処理エンジン116は、バッファリングされた信号を所定のタイミングで各フレームメモリから掃き出して所定のフォーマットのビデオ信号に変換し、LCD制御回路122に出力する。LCD制御回路122は、画像処理エンジン116より入力される画像信号を基に液晶を変調制御する。これにより、被写体の撮影画像がLCD124の表示画面に表示される。ユーザは、AE制御及びAF制御に基づいて適正な輝度及びピントで撮影されたリアルタイムのスルー画(ライブビュー)を、LCD124の表示画面を通じて視認することができる。
Further, the
画像処理エンジン116は、ユーザにより撮影画像の再生操作が行われると、操作により指定された画像データをメモリカード200又は内蔵メモリより読み出して所定のフォーマットの画像信号に変換し、LCD制御回路122に出力する。LCD制御回路122が画像処理エンジン116より入力される画像信号を基に液晶を変調制御することで、被写体の撮影画像がLCD124の表示画面に表示される。
When the user performs a playback operation of the captured image, the
(振れ補正部材の駆動に関する説明)
像振れ補正装置112は、振れ補正部材を駆動させる。本実施形態において、振れ補正部材は、固体撮像素子112aである。なお、振れ補正部材は、固体撮像素子112aに限らず、撮影レンズ106内に含まれる一部のレンズなど、光軸AXを基準として物理的に動かされることにより、固体撮像素子112aの受光面112aa上での被写体像の入射位置をシフトさせることが可能な別の構成であってもよく、又は、これらと固体撮像素子112aのうち2つ以上の部材を組み合わせた構成であってもよい。
(Explanation regarding the drive of the shake correction member)
The image
像振れ補正装置112は、像振れを補正する(カメラ振れ、手振れを打ち消す)ために振れ補正部材を光軸AXと直交する平面内(すなわち、XY平面内)で微小に駆動(振動)させるだけでなく、被写体像が画素ピッチ分ぼかされることによる光学的なローパスフィルタ(LPF:Low Pass Filter)効果(偽色等のモアレの軽減)が得られるように振れ補正部材を光軸AXと直交する平面内で微小に駆動(微小回転)させる。以下、説明の便宜上、振れ補正部材を像振れ補正で駆動させることを「像振れ補正駆動」と記し、振れ補正部材を光学的なLPFと同様の効果が得られるように駆動させることを「LPF駆動」と記す。
The image
(像振れ補正駆動に関する説明)
ジャイロセンサ128は、像振れ補正を制御するための情報を検出するセンサである。具体的には、ジャイロセンサ128は、撮影装置1に加わる二軸周り(X軸周り、Y軸周り)の角速度を検出し、検出された二軸周りの角速度をXY平面内(換言すると、固体撮像素子112aの受光面112aa内)の振れを示す振れ検出信号としてシステムコントローラ100に出力する。
(Explanation on image blur correction drive)
The
図2及び図3に示されるように、像振れ補正装置112は、撮影装置1が備えるシャーシ等の構造物に固定された固定支持基板112bを備えている。固定支持基板112bは、固体撮像素子112aが搭載された可動ステージ112cをスライド可能に支持している。
As shown in FIGS. 2 and 3, the image
可動ステージ112cと対向する固定支持基板112bの面上には、磁石MYR、MYL、MXD、MXUが取り付けられている。また、固定支持基板112bには、磁性体であるヨークYYR、YYL、YXD、YXUが取り付けられている。ヨークYYR、YYL、YXD、YXUはそれぞれ、固定支持基板112bから可動ステージ112cを回り込んで磁石MYR、MYL、MXD、MXUと対向する位置まで延びた形状を持ち、磁石MYR、MYL、MXD、MXUとの間に磁気回路を構成する。また、可動ステージ112cには、駆動用コイルCYR、CYL、CXD、CXUが取り付けられている。駆動用コイルCYR、CYL、CXD、CXUが磁気回路の磁界内において電流を受けることにより、駆動力が発生する。可動ステージ112c(固体撮像素子112a)は、発生した駆動力により、固定支持基板112bに対してXY平面内で微小に駆動される。
Magnets M YR , M YL , M XD , and M XU are attached on the surface of the fixed
対応する磁石、ヨーク及び駆動用コイルはボイスコイルモータを構成する。以下、便宜上、磁石MYR、ヨークYYR及び駆動用コイルCYRよりなるボイスコイルモータに符号VCMYRを付し、磁石MYL、ヨークYYL及び駆動用コイルCYLよりなるボイスコイルモータに符号VCMYLを付し、磁石MXD、ヨークYXD及び駆動用コイルCXDよりなるボイスコイルモータに符号VCMXDを付し、磁石MXU、ヨークYXU及び駆動用コイルCXUよりなるボイスコイルモータに符号VCMXUを付す。 Corresponding magnets, yokes and driving coils constitute a voice coil motor. Hereinafter, for the sake of convenience, a reference numeral VCM YR is given to a voice coil motor made up of a magnet M YR , a yoke Y YR and a driving coil C YR , and a voice coil motor made up of a magnet M YL , a yoke Y YL and a driving coil C YL is called up. given the VCM YL, a voice coil motor reference numeral VCM XD magnet M XD, the voice coil motor consisting of a yoke Y XD and the driving coil C XD, consisting of the magnet M XU, yoke Y XU and the driving coil C XU The symbol VCM XU is appended.
各ボイスコイルモータVCMYR、VCMYL、VCMXD、VCMXU(駆動用コイルCYR、CYL、CXD、CXU)は、システムコントローラ100の制御下でPWM(Pulse Width Modulation)駆動される。ボイスコイルモータVCMYRとVCMYLは、固体撮像素子112aの下方であって、水平方向(X軸方向)に所定の間隔を空けて並べて配置されており、ボイスコイルモータVCMXDとVCMXUは、固体撮像素子112aの側方であって、垂直方向(Y軸方向)に所定の間隔を空けて並べて配置されている。
Each voice coil motor VCM YR , VCM YL , VCM XD , VCM XU (driving coils C YR , C YL , C XD , C XU ) is PWM (Pulse Width Modulation) driven under the control of the
固定支持基板112b上であって駆動用コイルCYR、CYL、CXD、CXUの各近傍位置には、ホール素子HYR、HYL、HXD、HXUが取り付けられている。ホール素子HYR、HYL、HXD、HXUはそれぞれ、磁石MYR、MYL、MXD、MXUの磁力を検出して、可動ステージ112c(固体撮像素子112a)のXY平面内の位置を示す位置検出信号をシステムコントローラ100に出力する。具体的には、ホール素子HYR及びHYLにより可動ステージ112c(固体撮像素子112a)のY軸方向位置及び傾き(回転)が検出され、ホール素子HXD及びHXUにより可動ステージ112c(固体撮像素子112a)のX軸方向位置及び傾き(回転)が検出される。
Hall elements H YR , H YL , H XD , and H XU are attached to the positions near the driving coils C YR , C YL , C XD , and C XU on the fixed
システムコントローラ100は、ボイスコイルモータ用のドライバICを内蔵している。システムコントローラ100は、ジャイロセンサ128より出力される振れ検出信号及びホール素子HYR、HYL、HXD、HXUより出力される位置検出信号に基づいて、ドライバICの定格電力(許容電力)を超えない範囲内において各ボイスコイルモータVCMYR、VCMYL、VCMXD、VCMXU(駆動用コイルCYR、CYL、CXD、CXU)に流す電流のバランスを崩さないようにデューティ比を計算する。システムコントローラ100は、計算されたデューティ比で各ボイスコイルモータVCMYR、VCMYL、VCMXD、VCMXUに駆動電流を流し、固体撮像素子112aを像振れ補正駆動する。これにより、固体撮像素子112aが重力や外乱等に抗して規定の位置に保持されつつ固体撮像素子112aの受光面112aa上での像振れが補正(別の言い方によれば、受光面112aa上での被写体像の入射位置が振れないように固体撮像素子112aの位置が調整)される。
The
(LPF駆動に関する説明)
次に、LPF駆動に関する説明を行う。本実施形態において、像振れ補正装置112は、ボイスコイルモータVCMYR、VCMYL、VCMXD、VCMXUに所定の駆動電流を流すことにより、一回の露光期間に対して、XY平面内において所定の軌跡を描くように可動ステージ112c(固体撮像素子112a)を駆動して、被写体像を固体撮像素子112aの検出色(R、G又はB)の異なる複数の画素に入射させる。これにより、光学的なLPFと同様の効果が得られる。
(Explanation regarding LPF drive)
Next, the LPF driving will be described. In the present embodiment, the image
図5(a)、図5(b)は、LPF駆動の説明を補助する図である。同図に示されるように、固体撮像素子112aの受光面112aa上には、複数の画素PIXが所定の画素ピッチPでマトリックス状に並べて配置されている。説明の便宜上、同図の各画素PIXについて、前面に配置されたフィルタ色に対応させて符号(R、G、Bの何れか1つ)を付す。
FIG. 5A and FIG. 5B are diagrams for assisting the description of the LPF drive. As shown in the figure, on the light receiving surface 112aa of the solid-
図5(a)は、固体撮像素子112aが光軸AXを中心とする正方形軌跡を描くように駆動される例を示す。この正方形軌跡は、例えば固体撮像素子112aの画素ピッチPを一辺とした正方形の閉じた経路とすることができる。図5(a)の例では、固体撮像素子112aは、X軸方向とY軸方向とに1画素ピッチP単位で交互に且つ正方形経路となるように駆動される。
FIG. 5A shows an example in which the solid-
図5(b)は、固体撮像素子112aが光軸AXを中心とする回転対称な円形軌跡を描くように駆動される例を示す。この円形軌跡は、例えば、(P/2)×21/2を半径rとする円形の閉じた経路とすることができる。
FIG. 5B shows an example in which the solid-
なお、画素ピッチPを含む駆動軌跡の情報は、システムコントローラ100の内部メモリ又はROM126に予め保持されている。
Note that information on the driving locus including the pixel pitch P is stored in advance in the internal memory of the
図5(a)(又は図5(b))に例示されるように、露光期間中、固体撮像素子112aが駆動軌跡の情報に基づいて所定の正方形軌跡(又は円形軌跡)を描くように駆動されると、被写体像が4つのカラーフィルタR、G、B、G(4つ(二行二列)の画素PIX)に均等に入射される。これにより、光学的なLPFと同等の効果が得られる。すなわち、何れのカラーフィルタ(画素PIX)に入射された被写体像も、その周辺のカラーフィルタ(画素PIX)に必ず入射されるため、恰も光学的なLPFを被写体像が通過したときと同等の効果(偽色等のモアレの軽減)が得られる。
As illustrated in FIG. 5A (or FIG. 5B), during the exposure period, the solid-
なお、ユーザは、操作部102を操作することにより、像振れ補正駆動、LPF駆動のそれぞれの設定のオン/オフを切り替えることができる。
Note that the user can switch on / off of each setting of image blur correction driving and LPF driving by operating the
また、ユーザは、操作部102を操作することにより、撮影装置1を、LPF駆動をオンにした状態の撮影とオフにした状態の撮影を連続して行う(LPF駆動のオートブラケット撮影する)ように設定できる。LPF駆動のオートブラケット撮影では、1回のレリーズスイッチの操作で、LPF駆動をオンにした状態で撮影された画像データとLPF駆動をオフにした状態で撮影された画像データの両方が得られる。そのため、ユーザは、撮影する毎にLPF駆動の設定をオンにするか否かを判断する必要がなくなり、撮影時の手間を軽減することができる。
Further, the user operates the
(偽色の検出に関する説明)
次に、本実施形態において撮影画像内に発生する偽色を検出する方法について説明する。ユーザは、操作部102を操作することにより、偽色検出処理の設定のオン/オフを切り替えることができる。
(Explanation regarding false color detection)
Next, a method for detecting a false color generated in a captured image in the present embodiment will be described. The user can switch on / off the setting of the false color detection process by operating the
図6は、システムコントローラ100により実行される偽色検出フローを示す。偽色検出フローは、画像データの撮影処理ステップS1と、画像データを用いた偽色の検出処理ステップS2を含む。図7及び図8にそれぞれ、撮影処理ステップS1の処理フロー及び検出処理ステップS2の処理フローを示す。本実施形態では、撮影処理ステップS1と検出処理ステップS2の両方が、撮影装置1のシステムコントローラ100により実行される場合について説明する。図6に示される偽色検出フローは、例えば、偽色検出処理の設定がオンになっている状態でレリーズスイッチが押された時点で開始される。なお、偽色検出フローのうち、検出処理ステップS2は、撮影装置1の外部の画像処理装置3のコントローラ300によって実行されてもよい。
FIG. 6 shows a false color detection flow executed by the
[図6のS1(撮影処理)]
図6に示す撮影処理ステップS1について、図7を用いて説明する。
[S1 in FIG. 6 (shooting process)]
The photographing process step S1 shown in FIG. 6 will be described with reference to FIG.
[図7のS11(状態の判定)]
本処理ステップS11では、撮影装置1が静止状態であるか否かが判定される。例示的には、ジャイロセンサ128より入力される振れ検出信号のうち一定周波数以上の信号成分の振幅が一定期間継続してある閾値以内に収まる場合に静止状態と判定される。撮影装置1の静止状態として、典型的には、撮影装置1が三脚に固定された状態が挙げられる。なお、静止状態を含めた撮影装置1の姿勢はジャイロセンサ128に代えて、加速度センサ130、地磁気センサ132、GPSセンサ134など、他のセンサより出力される情報を用いて検出されてもよい。また、検出精度を向上させるため、例えばセンサ・フュージョン技術を適用し、これらのセンサより出力される情報が複合的に用いられるようにしてもよい。
[S11 in FIG. 7 (determination of state)]
In this processing step S11, it is determined whether or not the photographing
撮影装置1が低速シャッタスピード設定下の手持ち撮影状態など、静止状態にない場合は、手振れ(あるいは被写体ぶれ)による被写体のボケに起因して偽色がそもそも発生し難い。従って、本実施形態では、撮影装置1が静止状態である(すなわち、偽色が発生しやすい状態である)と判定された場合に限り(S11:YES)、撮影画像内の偽色を検出すべく、処理ステップS12(第一画像の撮影)以降が実行される。撮影装置1が静止状態にない場合は、処理ステップS12(第一画像の撮影)以降が実行されないため、システムコントローラ100の処理負荷が軽減される。処理ステップS12(第一画像の撮影)以降が実行されない旨は、撮影者に例えばLCD124の表示画面等を通じて通知されてもよい。なお、撮影画像内の偽色の検出を重視したい場合は、撮影装置1が静止状態であるか否かに拘わらず処理ステップS12(第一画像の撮影)以降が実行されてもよい。この場合、処理ステップS12(第一画像の撮影)以降が実行される旨は、撮影者に例えばLCD124の表示画面等を通じて通知されてもよい。また、静止状態の判定閾値は撮影装置1に設定されたシャッタスピードに応じて変更されてもよい。
When the photographing
[図7のS12(第一画像の撮影)]
図9(a)、図10(a)は、撮影される被写体の一部であって、それぞれ異なる部分を拡大して示す図である。図9(a)に示される被写体は、固体撮像素子112aの画素PIXの画素ピッチPと同ピッチで明暗が交互に現れる斜め縞模様であり、図10(a)に示される被写体は、画素ピッチPと同ピッチで明暗が交互に現れる縦縞模様である。説明の便宜上、図9(a)に示される被写体のうち太実線で囲まれた6×6マスの被写体を「斜め縞被写体9a」と記し、図10(a)に示される被写体のうち太実線で囲まれた6×6マスの被写体を「縦縞被写体10a」と記す。
[S12 in FIG. 7 (shooting the first image)]
FIGS. 9A and 10A are enlarged views showing different parts of the subject to be photographed. The subject shown in FIG. 9A is an oblique stripe pattern in which light and dark appear alternately at the same pitch as the pixel pitch P of the pixel PIX of the solid-
本処理ステップS12では、AE制御及びAF制御に基づいて適正な輝度及びピントで被写体画像(第一画像)が撮影(一回の露光期間が完結)される。ここでは、斜め縞被写体9aと縦縞被写体10aの何れにもピントが合っているものとする。 In this processing step S12, a subject image (first image) is photographed (one exposure period is completed) with appropriate brightness and focus based on AE control and AF control. Here, it is assumed that both the diagonally striped subject 9a and the vertically striped subject 10a are in focus.
図9(b)、図10(b)はそれぞれ、固体撮像素子112aの各画素PIXの取り込まれる斜め縞被写体9a、縦縞被写体10aを模式的に示す図であり、固体撮像素子112aの受光面112aaを被写体側から正面視した図である。図9(b)及び図10(b)では、図5と同様に、各画素PIXについて、前面に配置されたフィルタ色に対応させて符号(R、G、Bの何れか1つ)を付す。図9(b)、図10(b)の各図中、黒塗りの画素PIXは、縞模様の暗部分を取り込んだことを示し、白塗りの画素PIXは、縞模様の明部分を取り込んだことを示す。また、説明の便宜上、図9(b)、図10(b)の各図に画素のアドレス(数字1〜8、符号イ〜チ)を付す。なお、厳密には、撮影レンズ106の結像作用によって、被写体は上下左右が反転した状態で固体撮像素子112a上に結像される。一例として、「斜め縞被写体9a」の左上角の部分は、固体撮像素子112a上では右下角の部分として結像する。しかし、本実施形態では、説明の煩雑化を避けるため、「斜め縞被写体9a」の左上角の部分は、図9(b)の左上角の部分に対応するものとして説明する。
FIGS. 9B and 10B are diagrams schematically showing the diagonally striped subject 9a and the vertically striped subject 10a captured by each pixel PIX of the solid-
[図7のS13(固体撮像素子112aのシフト)]
本処理ステップS13では、可動ステージ112cが駆動されて、固体撮像素子112aの位置が、受光面112aaと平行な面内(XY面内)上でシフト(変化)される。固体撮像素子112aのシフト方向及びシフト量は、ホール素子HYR、HYL、HXD、HXUからの出力を用いて制御される。本実施形態では、本処理ステップS13において、固体撮像素子112aが1画素分の距離だけ右方向にシフトされる。
[S13 in FIG. 7 (Shift of Solid-
In this processing step S13, the
[図7のS14(第二画像の撮影)]
本処理ステップS14においても、第一画像撮影時のAE制御及びAF制御に基づいて被写体画像(第二画像)が撮影(一回の露光期間が完結)される。
[S14 in FIG. 7 (Taking Second Image)]
Also in this processing step S14, the subject image (second image) is photographed (one exposure period is completed) based on the AE control and AF control at the time of photographing the first image.
図9(c)、図10(c)はそれぞれ、図9(b)、図10(b)と同様の図であり、固体撮像素子112aの各画素PIXの取り込まれる斜め縞被写体9a、縦縞被写体10aを模式的に示す。図9、図10の各図(b)、(c)に示されるように、固体撮像素子112aの受光面112aa上での被写体像の入射位置は、処理ステップS13における固体撮像素子112aのシフト量に応じて(受光面112aa上で左方向に1画素分の距離だけ)シフトする。
FIGS. 9C and 10C are diagrams similar to FIGS. 9B and 10B, respectively, and an obliquely striped subject 9a and a vertically striped subject captured by each pixel PIX of the solid-
附言するに、本処理ステップS14における撮影条件は、処理ステップS12における撮影時に対して、固体撮像素子112aが1画素分の距離だけ右方向にシフトされた点以外は同一である。そのため、第二画像は、実質的に、第一画像に対して1画素分右方向にシフトした範囲を撮影したものとなっている。図9、図10の各図(b)、(c)から判るように、第二画像において、被写体は、第一画像に対して全体的に1画素分の距離だけ左方向にシフトした位置に写る。
In addition, the imaging conditions in this processing step S14 are the same except that the solid-
[図7のS15(メタデータの付加処理)]
本処理ステップS15では、処理ステップS12で撮影された第一画像の画像データ、及び、処理ステップS14で撮影された第二画像の画像データが生成(記録)され、各画像データにメタデータが付加される。撮影処理ステップS1において生成(記録)された画像データ(偽色検出処理の設定がオンの状態で撮影された画像データ)のメタデータには、通常の撮影処理で生成(記録)された画像データ(偽色検出処理の設定がオフの状態で撮影された画像データ)のメタデータに加え、付加情報が含まれる。付加情報は、例えば、Exif形式のフォーマットに準拠するメタデータのメーカノート(Maker Note)領域に書き込まれる。
[S15 in FIG. 7 (metadata addition processing)]
In this processing step S15, image data of the first image photographed in processing step S12 and image data of the second image photographed in processing step S14 are generated (recorded), and metadata is added to each image data. Is done. The metadata of the image data generated (recorded) in the shooting process step S1 (image data shot with the false color detection process set to ON) includes image data generated (recorded) in the normal shooting process. Additional information is included in addition to the metadata of (image data captured with the false color detection process set to OFF). The additional information is written, for example, in a maker note area of metadata that complies with the format of the Exif format.
図11(a)及び図11(b)は、第一画像の画像データのデータ構造及び第二画像の画像データのデータ構造を示す。メタデータのうち、付加情報以外の項目は、偽色判定処理の設定がオンである場合とオフである場合(図4参照)とで共通である。付加情報は、偽色検出処理の設定がオンの状態で撮影されたことを示す情報、及び、撮影処理ステップS1(処理ステップS12、S14)で生成(記録)された画像データ(即ち、同じ画像グループに含まれる画像データ)が互いに関連していることを示す情報が含まれる。以下では、付加情報の各項目に書き込まれる情報について説明する。 FIG. 11A and FIG. 11B show the data structure of the image data of the first image and the data structure of the image data of the second image. Items of the metadata other than the additional information are common when the false color determination process is set to on and off (see FIG. 4). The additional information includes information indicating that the image is captured with the false color detection process set to ON, and the image data generated (recorded) in the imaging process step S1 (processing steps S12 and S14) (that is, the same image). Information indicating that the image data included in the group is related to each other is included. Below, the information written in each item of additional information is demonstrated.
「偽色検出フラグ」項目には、偽色検出処理の設定がオンとオフの何れの状態であるかを示す情報が書き込まれる。この項目には、例えば、偽色検出処理の設定がオンである場合は「1」が書き込まれ、偽色検出処理の設定がオフである場合は「0」が書き込まれる。なお、偽色検出処理の設定がオフである場合、この項目には情報が書き込まれなくてもよい。 In the “false color detection flag” item, information indicating whether the setting of the false color detection process is on or off is written. In this item, for example, “1” is written when the setting of the false color detection process is on, and “0” is written when the setting of the false color detection process is off. Note that when the setting of the false color detection process is off, information does not have to be written in this item.
「ファイルID」項目には、各画像データを識別するための情報が書き込まれる。「ファイルID」項目に記載される情報は、メタデータの「ファイル名」項目と同じ情報が書き込まれてもよい。ただし、一旦「ファイルID」項目に情報が書き込まれた後は、「ファイル名」項目の情報と「ファイルID」項目の情報は互いに独立した情報となる。例えば、画像データにメタデータが付加された後に、「ファイル名」項目の情報が変更されたとしても、付加情報の「ファイルID」項目の値は変更されずに維持される。 In the “file ID” item, information for identifying each image data is written. As the information described in the “file ID” item, the same information as the “file name” item of the metadata may be written. However, once information is written in the “file ID” item, the information in the “file name” item and the information in the “file ID” item are independent from each other. For example, even if the information of the “file name” item is changed after the metadata is added to the image data, the value of the “file ID” item of the additional information is maintained without being changed.
「グループID」項目には、各画像データが含まれるグループを示す情報が書き込まれる。本実施形態において、1回の撮影処理ステップS1によって生成(記録)される複数の画像データは、同じ画像群(画像グループ)に含まれる。図11(a)、図11(b)に示す例では、第一画像の画像データと第二画像の画像データは何れも同じ画像グループに含まれており、そのグループのIDは「3」である。グループIDは、撮影処理ステップS1が実行される毎に変更される。 In the “group ID” item, information indicating a group including each image data is written. In the present embodiment, a plurality of image data generated (recorded) by one photographing process step S1 is included in the same image group (image group). In the example shown in FIGS. 11A and 11B, the image data of the first image and the image data of the second image are both included in the same image group, and the ID of the group is “3”. is there. The group ID is changed every time the photographing process step S1 is executed.
「撮影枚数」項目には、撮影処理ステップS1における撮影回数(撮影画像の枚数、同じグループに属する画像の枚数)が書き込まれる。本実施形態では、処理ステップS12と処理ステップS14で、計2回の撮影が行われるため、「撮影枚数」項目には「2」が書き込まれる。なお、後述するように、本発明の別の実施形態では、撮影処理S1において3回以上の撮影が行われる。その場合、撮影回数に応じて「撮影枚数」項目に書き込まれる値は変化する。 In the “number of shots” item, the number of shots (number of shot images, number of images belonging to the same group) in the shooting process step S1 is written. In the present embodiment, since a total of two shootings are performed in the processing step S12 and the processing step S14, “2” is written in the “number of shots” item. Note that, as will be described later, in another embodiment of the present invention, three or more shootings are performed in the shooting process S1. In this case, the value written in the “number of shots” item changes according to the number of shots.
「撮影順番」項目には、同じグループに含まれる複数の画像の中での撮影順番が書き込まれる。図11(a)、図11(b)に示す例では、グループ「3」において、第一画像の撮影順番が「1」で、第二画像の撮影順番が「2」である。 In the “shooting order” item, a shooting order among a plurality of images included in the same group is written. In the example shown in FIGS. 11A and 11B, in the group “3”, the shooting order of the first image is “1”, and the shooting order of the second image is “2”.
「撮影時間」項目には、各画像(第一画像、第二画像)が撮影された時間を示す情報が書き込まれる。「撮影時間」項目に書き込まれる時間は、各画像の撮影された時間が区別可能となるように、メタデータの「撮影日時」項目よりも小さい単位(例えば、ミリ秒単位)で書き込まれる。なお、メタデータがExif形式のフォーマットに準拠している場合、この「撮影時間」項目には、メタデータ中の秒以上の単位で日付が書き込まれた「DateTime」項目の値、及び、秒よりも小さい単位の時間が書き込まれた「SubSecTime」項目の値を参照して時間情報が書き込まれてもよい。 In the “shooting time” item, information indicating the time when each image (first image, second image) was shot is written. The time written in the “shooting time” item is written in a unit (for example, in milliseconds) smaller than the “shooting date” item in the metadata so that the time when each image was shot can be distinguished. If the metadata conforms to the format of the Exif format, the “shooting time” item includes the value of the “DateTime” item in which the date is written in units of seconds or more in the metadata, and the second. The time information may be written with reference to the value of the “SubSecTime” item in which the time of a smaller unit is written.
「座標」項目には、各画像が撮影されたときの固体撮像素子112aの位置を示す情報が書き込まれる。固体撮像素子112aの位置は、例えば、光軸AXを基準(座標(0,0))とし、光軸AXに直交するXY面内における座標(X,Y)で示される。位置の単位は、例えば、画素(ピクセル)である。本実施形態では、第一画像の撮影時は、固体撮像素子112aは、座標(0,0)に位置している。また、第二画像の撮影時は、固体撮像素子112aは、右方向へ1画素分シフトしているため、座標は(1,0)である。「座標」項目に書き込まれる値は、例えば、処理ステップS13におけるホール素子HYR、HYL、HXD、HXUからの出力に基づいて決定されてもよい。或いは、処理ステップS13における固体撮像素子112aのシフト量が予め決定されてROM126等の所定の記憶領域に記憶されている場合、「座標」項目に書き込まれる値は、この所定の記憶領域から読み出された値が書き込まれてもよい。
In the “coordinate” item, information indicating the position of the solid-
「前の画像のファイルID」項目には、同じグループに含まれる画像のうち、一つ前に撮影された画像のファイルIDが書き込まれる。図11(a)、図11(b)に示す例では、第一画像は、グループ「3」において最初に撮影された画像であるため、「前の画像のファイルID」項目には、一つ前に撮影された画像が無いことを示す「null」(または「何もない」ことを示す値である「null値」)が書き込まれる。また、第二画像は、グループ「3」において、第一画像の一つ後に撮影された画像であるため、「前の画像のファイルID」項目には、第一画像の画像データのファイルIDである「Image011」が書き込まれる。 In the “file ID of previous image” item, the file ID of the image captured immediately before among the images included in the same group is written. In the example shown in FIGS. 11A and 11B, the first image is the first image taken in the group “3”. “Null” (or “null value” which is a value indicating “nothing”) indicating that there is no previously captured image is written. Further, since the second image is an image taken immediately after the first image in the group “3”, the “file ID of the previous image” item includes the file ID of the image data of the first image. A certain “Image011” is written.
「後の画像のファイルID」項目には、同じグループに含まれる画像のうち、一つ後に撮影された画像のファイルIDが書き込まれる。図11(a)、図11(b)に示す例では、グループ「3」において第一画像の一つ後に撮影された画像は第二画像であるため、第一画像の画像データの「後の画像のファイルID」項目には、第二画像の画像データのファイルIDである「Image012」が書き込まれる。また、グループ「3」において、第二画像の後に撮影された画像は無いため、第二画像の画像データの「後の画像のファイルID」項目には、一つ後に撮影された画像が無いことを示す「null」(またはnull値)が書き込まれる。 In the “file ID of subsequent image” item, the file ID of the image captured immediately after among the images included in the same group is written. In the example shown in FIG. 11A and FIG. 11B, the image taken immediately after the first image in the group “3” is the second image. In the “image file ID” item, “Image012” that is the file ID of the image data of the second image is written. Also, in group “3”, there is no image taken after the second image, and therefore there is no image taken immediately after in the “file ID of the subsequent image” item of the image data of the second image. “Null” (or a null value) is written.
「前の画像のファイルID」項目と「後の画像のファイルID」項目にはそれぞれ、前後に撮影された画像の画像データにおける「ファイル名」項目の値ではなく、「ファイルID」項目の値が書き込まれる。そのため、もし、画像データの「ファイル名」項目の値が変更されたとしても、「前の画像のファイルID」項目と「後の画像のファイルID」項目の値は影響を受けない。 In the “file ID of the previous image” item and the “file ID of the subsequent image” item, the value of the “file ID” item, not the value of the “file name” item in the image data of the images taken before and after, respectively. Is written. For this reason, even if the value of the “file name” item of the image data is changed, the values of the “file ID of the previous image” item and the “file ID of the subsequent image” item are not affected.
付加情報を含むメタデータが付加された画像データは、メモリカード200に保存される。なお、画像データは、メモリカード200ではなく、撮影装置1の内部メモリや、撮影装置1の外部の画像処理装置3のメモリ301に保存されてもよい。
Image data to which metadata including additional information is added is stored in the
なお、上述の処理では、付加情報がメタデータの一部として画像データに付加されるが、本実施形態におけるメタデータの付加処理はこれに限定されない。例えば、画像データと付加情報は別々にメモリカード等に保存され、画像データと画像データに対応する付加情報を紐付けする情報が、画像データと付加情報の少なくとも一方に付加されてもよい。また、付加情報には、上述の全ての項目が含まれていなくてもよい。要するに、少なくとも「各画像が撮影されたときの固体撮像素子112aの位置を示す情報」が判別できるような情報を各画像データと紐づけて記録しておけば、後々、撮影装置1または外部の画像処理装置3によって偽色の有無の検出を自動または手動で行う際に有効となる。「各画像が撮影されたときの固体撮像素子112aの位置を示す情報」とはストレートには「座標」項目に書き込まれる情報であるが、仮に固体撮像素子112aの位置が「撮影順番」によって固定されているなら、「各画像が撮影されたときの固体撮像素子112aの位置を示す情報」は「座標」項目の値の代わりに「撮影順番」項目の値または「撮影時間」項目の値などから求めることができる。またその他の各項目の情報は、処理を行うユーザの大きな補助になるが、無ければ「偽色検出ができない」わけではない。
In the above-described processing, the additional information is added to the image data as part of the metadata, but the metadata addition processing in the present embodiment is not limited to this. For example, the image data and the additional information may be stored separately in a memory card or the like, and information that associates the image data and the additional information corresponding to the image data may be added to at least one of the image data and the additional information. Further, the additional information may not include all the items described above. In short, if at least “information indicating the position of the solid-
また、上述の処理ステップS12及び処理ステップS14で生成(記録)された第一画像の画像データ及び第二画像の画像データは何れも、画像信号に上述した信号処理(クランプ、デモザイク、マトリクス演算、Y/C分離、ホワイトバランス等)が施され、輝度信号Y、色差信号Cb、Crに変換されて所定のフォーマットで保存されたものである。以下、説明の便宜上、第一画像の色差信号(Cb、Cr)を「第一色差信号」と記し、第二画像の色差信号(Cb、Cr)を「第二色差信号」と記す。また、「注目画素」とは、少なくともデモザイク処理された後の各画像の画素を指すものとする。 In addition, the image data of the first image and the image data of the second image generated (recorded) in the processing step S12 and the processing step S14 described above are all processed by the signal processing (clamping, demosaicing, matrix calculation, Y / C separation, white balance, etc.) are performed, converted into a luminance signal Y and color difference signals Cb, Cr, and stored in a predetermined format. Hereinafter, for convenience of explanation, the color difference signals (Cb, Cr) of the first image are referred to as “first color difference signals”, and the color difference signals (Cb, Cr) of the second image are referred to as “second color difference signals”. The “target pixel” refers to a pixel of each image after at least demosaic processing.
本実施形態では、詳しくは後述するが、第一色差信号と第二色差信号との信号差分値や信号加算値に基づいて偽色の発生が検出される。しかし、コントラストの高いエッジ部分では、偽色が発生していなくても、第一色差信号と第二色差信号との信号差分値が大きくなることがある。この場合、エッジ部分において偽色が発生していると誤検出される虞がある。また、詳しくは後述するが、信号差分値や信号加算値の演算に用いられる第一色差信号と第二色差信号は、同一の被写体像を写す画素の色差信号ではあるが、処理ステップS13にて固体撮像素子112aがシフトされたことが原因で、それぞれ、アドレスが異なる画素を用いてデモザイク処理されている。そのため、第一色差信号と第二色差信号は、同一の被写体像を写す画素の色差信号であるにも拘わらず色情報が極僅かに異なる場合がある。これが、撮影画像上で偽色として現れる。
In the present embodiment, although described in detail later, the occurrence of false colors is detected based on the signal difference value or signal addition value between the first color difference signal and the second color difference signal. However, at the edge portion with high contrast, the signal difference value between the first color difference signal and the second color difference signal may be large even if a false color is not generated. In this case, there is a risk of false detection that a false color has occurred in the edge portion. As will be described in detail later, the first color difference signal and the second color difference signal used for the calculation of the signal difference value and the signal addition value are the color difference signals of the pixels that capture the same subject image, but in processing step S13. Due to the shift of the solid-
[図6のS2(検出処理)]
図6に示す検出処理ステップS2について、図8を用いて説明する。検出処理ステップS2では、撮影処理ステップS1で生成(記録)及び保存された画像データを用いて、偽色の検出処理が行われる。検出処理ステップS2は、撮影処理ステップS1が完了した後に自動的に開始されてもよく、操作部102に対する操作に応じて開始されてもよい。また、画像データが外部の画像処理装置3のメモリ301に保存されている場合、検出処理ステップS2は、画像処理装置3で実行されてもよい。以下では、メモリカード200に画像データが保存されている場合の処理について説明する。
[S2 in FIG. 6 (detection process)]
The detection processing step S2 shown in FIG. 6 will be described with reference to FIG. In the detection processing step S2, false color detection processing is performed using the image data generated (recorded) and stored in the photographing processing step S1. The detection processing step S2 may be automatically started after the photographing processing step S1 is completed, or may be started in response to an operation on the
[図8のS20(メタデータの取得処理)]
本処理ステップS20では、メモリカード200に保存されている各画像データからメタデータが取得される。メモリカード200には、通常の撮影処理で生成(記録)された画像データ(偽色検出処理の設定がオフの状態で撮影された画像データ)と、偽色検出に使用するために撮影処理ステップS1で生成(記録)された画像データ(偽色検出処理の設定がオンの状態で撮影された画像データ)とが保存されている。本処理ステップS20では、通常の撮影処理で生成(記録)された画像データと、撮影処理ステップS1で生成(記録)された画像データとの両方からメタデータが取得される。
[S20 in FIG. 8 (Metadata Acquisition Processing)]
In this processing step S20, metadata is acquired from each image data stored in the
[図8のS21(画像データの抽出処理)]
本処理ステップS21では、処理ステップS20で取得されたメタデータを用いて、メモリカード200に保存されている複数の画像データの中から、偽色検出に使用される画像データが抽出される。例示的には、本処理ステップS21では、処理ステップS20で取得されたメタデータに付加情報が含まれるか否かを判定する。次いで、システムコントローラ100は、複数の画像データの中から、付加情報が付加された画像データを抽出する。メタデータに付加情報が含まれているか否かの判定は、例えば、「偽色検出フラグ」項目の値が用いられる。付加情報が含まれる画像データが抽出されると、メモリカード200に保存されている画像データの中から、抽出された画像データのみがLCD124に表示される。LCD124には、選択された画像データのサムネイル画像が表示されてもよく、選択された画像データのメタデータの一部(例えば、ファイル名)が表示されてもよい。
[S21 in FIG. 8 (Image Data Extraction Processing)]
In this processing step S21, image data used for false color detection is extracted from the plurality of image data stored in the
なお、LCD124には、抽出された全ての画像データが表示される必要はない。例えば、「偽色検出フラグ」項目の値が「1」である画像データうち、グループIDで指定される各グループから一つずつ画像データ(例えば、付加情報の「撮影順番」項目の値が「1」である画像データ)が選択されて表示されてもよい。
Note that it is not necessary for the
また、本処理ステップS21において、LCD124には、抽出された画像データ(付加情報が含まれている画像データ)と抽出されなかった画像データ(付加情報が含まれていない画像データ)の両方が表示されてもよい。この場合、付加情報が含まれている画像データが、付加情報が含まれていない画像データと識別可能に表示される。例えば、付加情報が含まれている画像データのみが、強調して表示される。
In this processing step S21, the
なお、本処理ステップS21において、メタデータに付加情報が含まれているか否かの判定処理及び画像データを抽出処理には、「偽色検出フラグ」項目以外の項目の値が使用されてもよい。例えば、これらの処理には、「各画像が撮影されたときの固体撮像素子112aの位置を示す情報」が用いられてもよい。この「各画像が撮影されたときの固体撮像素子112aの位置を示す情報」は、具体的には、「座標」項目の情報、「撮影順番」項目の情報、又は、「撮影時間」項目の情報等である。或いは、本処理ステップS21では、「撮影処理ステップS1で生成(記録)された画像データ(即ち、同じ画像グループに含まれる画像データ)が互いに関連していることを示す情報」が用いられてもよい。この「撮影処理ステップS1で生成(記録)された画像データが互いに関連していることを示す情報」は、具体的には、「グループID」項目の情報、「撮影枚数」項目の情報、「撮影順番」項目の情報、「前の画像のファイルID」項目の情報、「後の画像のファイルID」項目の情報等である。更に、本処理ステップS21では、付加情報に含まれる複数の項目の情報の組み合わせが用いられてもよい。
In this processing step S21, values of items other than the “false color detection flag” item may be used for the determination processing of whether additional information is included in the metadata and the image data extraction processing. . For example, “information indicating the position of the solid-
[図8のS22(画像データの指定処理)]
本処理ステップS22では、処理ステップS21において抽出され、LCD124に表示された画像データの中から、偽色検出を行う画像データの指定(選択)を受け付ける。例示的には、システムコントローラ100は、LCD124に表示されている複数の画像データの中の一つの指定を受け付ける。この指定は、ユーザによる操作部102への操作によって行われる。システムコントローラ100は、ユーザによって指定された画像データのグループIDを読み取り、読み取ったグループIDと同じグループIDを有する画像データを、偽色検出に用いる画像データとして指定する。本処理ステップS22で指定される画像データの数は、ユーザによって指定された画像データの付加情報に記載されている「撮影枚数」項目に書き込まれた値と同じである。なお、処理ステップS21において抽出された画像データの全てが同じグループIDを有している場合、本処理ステップS22は省略されてもよい。
[S22 in FIG. 8 (Process for Specifying Image Data)]
In this processing step S22, designation (selection) of image data for performing false color detection is received from the image data extracted in processing step S21 and displayed on the
以下では、本処理ステップS22において、第一画像の画像データ及び第二画像の画像データが指定されたとして説明する。 In the following description, it is assumed that the image data of the first image and the image data of the second image are designated in this processing step S22.
[図5のS23(アドレスの変換)]
本実施形態では、撮影画像内において偽色が発生する偽色発生領域が画素単位で検出される。この場合、偽色の検出精度を向上させるため、同一の被写体像が入射される注目画素同士で信号差分値や信号加算値を演算することが望ましい。そこで、本処理ステップS23では、同一の被写体像が同一アドレスの画素に入射されたものとして処理されるように、第二画像を構成する各画素のアドレスが、処理ステップS13における固体撮像素子112aのシフト方向及びシフト量(換言すると、固体撮像素子112aの受光面112aa上での被写体像の入射位置のシフト方向及びシフト量)に応じて変換される。このアドレスの変換は、各画像データに付加されている付加情報、例示的には「座標」項目の値(座標情報)や「各画像が撮影されたときの固体撮像素子112aの位置を示す情報」、に基づいて行われる。
[S23 in FIG. 5 (address conversion)]
In the present embodiment, a false color generation area in which a false color is generated in a captured image is detected on a pixel basis. In this case, in order to improve the false color detection accuracy, it is desirable to calculate the signal difference value and the signal addition value between the target pixels on which the same subject image is incident. Therefore, in this processing step S23, the addresses of the respective pixels forming the second image are processed by the solid-
まず、各画像データに付加された付加情報のうち「座標」項目の値に基づいて、各画像の撮影時における固体撮像素子112aの位置が判定される。図11(a)、図11(b)に示す例では、固体撮像素子112aが座標(0,0)にあるときに第一画像が撮影され、その後、固体撮像素子112aが座標(1,0)へシフトされて第二画像が撮影されている。この場合の固体撮像素子112aのシフト方向は右方向であり、シフト量は1画素である。換言すると、第二画像は、第一画像に対し、受光面112aa上の被写体像が左方向へ1画素分移動した状態で撮影されたものである。そのため、本処理ステップS23では、第二画像の各画素のアドレスが、被写体像の移動方向とは反対の右方向へ1画素分移動するように変換される。一例として、図9(c)の画素PIXbのアドレス(ハ,2)は、被写体像の入射位置のシフト量に応じて右方向に1画素シフトしたときに位置する画素、すなわち、画素PIXbと同一の被写体像を取り込む画素PIXa(図9(b)参照)と同一のアドレス(ニ,2)に変換される。
First, based on the value of the “coordinate” item in the additional information added to each image data, the position of the solid-
なお、本処理ステップS23において、仮に撮影順番に応じて各画像の撮影時における固体撮像素子112aの位置が固定されている場合等、「座標」項目の値の代わりに、付加情報のうち「撮影順番」項目の値や「撮影時間」項目の情報を用いて各画像の撮影時における固体撮像素子112aの位置が判定されてもよい。或いは、各画像の撮影順番は、「前の画像のファイルID」及び「後の画像のファイルID」項目の情報を用いて判定されてもよい。
In this processing step S23, instead of the value of the “coordinate” item, “shooting” is performed instead of the value of the “coordinate” item, for example, when the position of the solid-
[図8のS24(色差信号の差分値の演算)]
斜め縞被写体9a及び縦縞被写体10aは、固体撮像素子112aの画素PIXの画素ピッチPと同ピッチの高周波成分を含む。そのため、斜め縞被写体9a及び縦縞被写体10aの画像信号が処理ステップS12、処理ステップS14においてデモザイク処理されると、偽色が発生する。
[S24 in FIG. 8 (Calculation of Difference Value of Color Difference Signal)]
The oblique stripe subject 9a and the
具体的には、図9(b)の例では、G成分の画素PIXの輝度が高く、R及びB成分の画素PIXの輝度が低い。そのため、デモザイク処理後の各画素PIXの色情報はG成分が支配的となって、斜め縞被写体9aに緑色の偽色が発生する。一方、図9(c)の例では、図9(b)の例とは反対に、R及びB成分の画素PIXの輝度が高く、G成分の画素PIXの輝度が低い。そのため、デモザイク処理後の各画素PIXの色情報はR及びB成分が支配的となって、斜め縞被写体9aに紫色の偽色が発生する。 Specifically, in the example of FIG. 9B, the luminance of the G component pixel PIX is high, and the luminance of the R and B component pixels PIX is low. Therefore, the G component is dominant in the color information of each pixel PIX after the demosaic process, and a green false color is generated in the diagonally striped subject 9a. On the other hand, in the example of FIG. 9C, the luminance of the R and B component pixels PIX is high and the luminance of the G component pixel PIX is low, contrary to the example of FIG. 9B. Therefore, R and B components are dominant in the color information of each pixel PIX after demosaic processing, and a purple false color is generated in the diagonally striped subject 9a.
また、図10(b)の例では、B成分の画素PIXの輝度が高く、R成分の画素PIXの輝度が低い。そのため、デモザイク処理後の各画素PIXの色情報はBとGとの混色成分となって、青と緑との中間色(例えばシアン色中心の近傍色)の偽色が発生する。一方、図10(c)の例では、図10(b)の例とは反対に、R成分の画素PIXの輝度が高く、B成分の画素PIXの輝度が低い。そのため、デモザイク処理後の各画素PIXの色情報はRとGとの混色成分となって、赤と緑の中間色(橙色中心の近傍色)の偽色が発生する。 In the example of FIG. 10B, the luminance of the B component pixel PIX is high and the luminance of the R component pixel PIX is low. Therefore, the color information of each pixel PIX after the demosaic processing becomes a mixed color component of B and G, and a false color of an intermediate color between blue and green (for example, a color near the cyan color center) is generated. On the other hand, in the example of FIG. 10C, the luminance of the R component pixel PIX is high and the luminance of the B component pixel PIX is low, contrary to the example of FIG. Therefore, the color information of each pixel PIX after the demosaic processing becomes a mixed color component of R and G, and a false color of an intermediate color between red and green (a color near the orange center) is generated.
図12は、Cb、Crの二軸で定義される色空間を示す。図12中、符号9bは、図9(b)の例において注目画素で発生する緑色の偽色に対応するプロットであり、符号9cは、図9(c)の例において注目画素で発生する紫色の偽色に対応するプロットであり、符号10bは、図10(b)の例において注目画素で発生する青と緑との中間色の偽色に対応するプロットであり、符号10cは、図10(c)の例において注目画素で発生する赤と緑の中間色の偽色に対応するプロットである。下記は、各プロットの座標情報を示す。なお、原点Oは座標(0,0)である。
プロット9b: (Cb,Cr)=(−M,−N)
プロット9c: (Cb,Cr)=(M,N)
プロット10b:(Cb,Cr)=(M’,−N’)
プロット10c:(Cb,Cr)=(−M’+α,N’+β)
但し、M,N,M’,N’,α,βは何れも正数である。
FIG. 12 shows a color space defined by two axes of Cb and Cr. In FIG. 12,
However, all of M, N, M ′, N ′, α, and β are positive numbers.
本実施形態では、固体撮像素子112aの画素PIXの画素ピッチPと同程度の高周波成分の被写体像を取り込んだときに発生する偽色の色自体が、受光面112aa上での被写体像の入射位置をシフトさせることによって変化することを利用して偽色が発生する箇所(注目画素)を検出している。より詳細には、高周波成分の被写体像が取り込まれる注目画素において、第一色差信号と第二色差信号が持つ色情報が互いに補色の関係となる部分を、偽色が発生する部分であると判断し検出している。
In the present embodiment, the false color itself generated when a subject image having a high frequency component equivalent to the pixel pitch P of the pixel PIX of the solid-
本実施形態では、上記の補色関係を得るべく、受光面112aa上での被写体像の入射位置が左方向(水平の画素の並び方向)に1画素分シフト(固体撮像素子112aが被写体像に対して右方向に1画素分シフト)されているが、本発明はこれに限らない。シフト方向は、例示的には、右方向(水平の画素の並び方向)であってもよく、又は、上方向(垂直な画素の並び方向)、下方向(垂直な画素の並び方向)、右上、右下、左上、左下の各斜め方向(水平、垂直の各並び方向に対して45度をなす方向)など、画素配置に応じた他の方向であってもよいし、併用してもよい。また、シフト距離は、例示的には、3画素分、5画素分など、他の奇数画素分の距離であってもよく、また、半画素分又は半画素分+奇数画素分(例えば1.5画素分、2.5画素分等)であってもよく(すなわち、n画素分又は(m+0.5)画素分(但し、n=奇数の自然数,m=0又は奇数の自然数)の何れかであればよく)、シフト駆動する機構の精度に応じて選択できることもできる。また、シフト距離は、撮影対象の被写体や撮影条件によっては、偶数画素分及びその近傍(例えば1.9〜2.1画素分等)以外の距離であればよい。これらの量(方向及び距離)で受光面112aa上での被写体像の入射位置がシフトされる場合も、高周波成分の被写体像が取り込まれる(偽色が発生する)注目画素において、第一色差信号と第二色差信号が持つ色情報が互いに補色の関係となることから、偽色の発生が検出できる。
In the present embodiment, in order to obtain the above complementary color relationship, the incident position of the subject image on the light receiving surface 112aa is shifted by one pixel in the left direction (horizontal pixel arrangement direction) (the solid-
本処理ステップS24では、処理ステップS23におけるアドレス変換後において(以下、同様)、アドレスが同一の注目画素毎に、第一色差信号と第二色差信号との差分値(Cbsub,Crsub)が演算される。具体的には、第一色差信号のCb、CrをそれぞれCb1、Cr1と定義し、これと同一アドレスの第二色差信号のCb、CrをそれぞれCb2、Cr2と定義した場合に、差分値(Cbsub,Crsub)は次式により演算される。
Cbsub=Cb1−Cb2
Crsub=Cr1−Cr2
In this processing step S24, after the address conversion in the processing step S23 (hereinafter the same), the difference value (Cb sub , Cr sub ) between the first color difference signal and the second color difference signal is obtained for each target pixel having the same address. Calculated. Specifically, when the Cb and Cr of the first color difference signal are defined as Cb1 and Cr1, respectively, and the Cb and Cr of the second color difference signal of the same address are defined as Cb2 and Cr2, respectively, the difference value (Cb sub , Cr sub ) is calculated by the following equation.
Cb sub = Cb1-Cb2
Cr sub = Cr1-Cr2
[図8のS25(第一の距離情報の演算)]
本処理ステップS25では、アドレスが同一の注目画素毎に、第一色差信号と第二色差信号との色空間内での距離(第一の距離情報Saturation_sub)が次式により演算される。
Saturation_sub=(Cbsub 2+Crsub 2)1/2
[S25 in FIG. 8 (Calculation of First Distance Information)]
In the process step S25, address for each identical target pixel, a distance in the color space of the first color difference signal and a second color difference signal (the first distance information Saturation_ sub) is calculated by the following equation.
Saturation_ sub = (Cb sub 2 + Cr sub 2) 1/2
第一の距離情報Saturation_subは、図12の各プロット対(プロット6bとプロット6c、プロット7bとプロット7c)の例でそれぞれ、2(M2+N2)1/2、{(2M’−α)2+(2N’+β)2}1/2となる。 The first distance information Saturation_ sub are each an example of each plot pair of FIG. 12 (plot 6b and plot 6c, plots 7b and plot 7c), 2 (M 2 + N 2) 1/2, {(2M'-α ) 2 + (2N ′ + β) 2 } 1/2 .
図12の各プロット対の位置関係から把握されるように、第一色差信号と第二色差信号が持つ色情報が強い補色関係にあるほど第一の距離情報Saturation_subが大きくなり、第一色差信号と第二色差信号が持つ色情報が補色関係にない(例えば同様の色相である)ほど第一の距離情報Saturation_subが小さくなる。すなわち、第一の距離情報Saturation_subは、偽色発生領域でなければ理想的にはゼロであり、偽色が強く発生する偽色発生領域ほど大きくなる。 As understood from the positional relationship of each plot pair of FIG. 12, as the color information with the first color difference signal and a second color difference signal is strong complementary relationship first distance information Saturation_ sub increases, first color difference signal and the color information having the second color difference signal is not (for example similar hue) in complementary relationship as the first distance information Saturation_ sub decreases. That is, the first distance information Saturation_ sub ideally if false color occurrence region is zero, the larger the false color occurrence region in which false color is generated strongly.
[図8のS26(色差信号の加算値の演算)]
本処理ステップS26では、アドレスが同一の注目画素毎に、第一色差信号と第二色差信号との加算値(Cb’add,Cr’add)が演算される。
[S26 in FIG. 8 (Calculation of Addition Value of Color Difference Signal)]
In this processing step S26, an added value (Cb ′ add , Cr ′ add ) of the first color difference signal and the second color difference signal is calculated for each target pixel having the same address.
具体的には、本処理ステップS26では、暫定加算値(Cbadd,Cradd)が次式により演算される。
Cbadd=Cb1+Cb2
Cradd=Cr1+Cr2
Specifically, in this processing step S26, provisional addition values (Cb add , Cr add ) are calculated by the following equations.
Cb add = Cb1 + Cb2
Cr add = Cr1 + Cr2
次いで、暫定加算値の平均値(Cbmean,Crmean)が次式により演算される。
Cbmean=Cbadd/2
Crmean=Cradd/2
Next, the average value (Cb mean , Cr mean ) of the provisional addition values is calculated by the following equation.
Cb mean = Cb add / 2
Cr mean = Cr add / 2
次いで、加算値(Cb’add,Cr’add)が次式により演算される。
Cb’add=Cbadd−Cbmean
Cr’add=Cradd−Crmean
Next, the added value (Cb ′ add , Cr ′ add ) is calculated by the following equation.
Cb ′ add = Cb add −Cb mean
Cr ′ add = Cr add −Cr mean
[図8のS27(第二の距離情報の演算)]
本処理ステップS27では、アドレスが同一の注目画素毎に、加算値(Cb’add,Cr’add)に基づいて色空間内における第二の距離情報Saturation_addが次式により演算される。
Saturation_add=(Cb’add 2+Cr’add 2)1/2
[S27 in FIG. 8 (Calculation of Second Distance Information)]
In the process step S27, address for each identical target pixel, the addition value (Cb 'add, Cr' add ) the second distance information Saturation_ the add in a color space based on the calculation by the following equation.
Saturation_ add = (Cb 'add 2 + Cr' add 2) 1/2
第二の距離情報Saturation_addは、図12の各プロット対(プロット9bとプロット9c、プロット10bとプロット10c)の例でそれぞれ、ゼロ、(α2+β2)1/2となる。
Second distance information Saturation_ the add each example of each plot pair of FIG. 12 (
ここで、第一、第二の各色差信号は、画像撮影時の光源、露出条件、ホワイトバランス等の影響を受けて変化する。しかし、第一、第二の各色差信号が同じように変化するため、色空間内における互いの相対距離(すなわち、第一の距離情報Saturation_sub)は変化が少ない。 Here, the first and second color difference signals change under the influence of the light source, the exposure condition, the white balance and the like at the time of image capturing. However, first, since the second respective color difference signals varies in the same way, mutual relative distance in the color space (i.e., the first distance information Saturation_ sub) changes little.
一方、第二の距離情報Saturation_addは、第一、第二の各色差信号が画像撮影時の光源、露出条件、ホワイトバランス等の影響を受けて色空間の原点Oの位置に対して変化すると、大きく変化する。そこで、処理ステップS26では、第二の距離情報Saturation_addを暫定加算値(Cbadd,Cradd)を用いて即座には演算せず、上記影響による原点Oに対する位置の変化を相殺又は軽減すべく(上記影響により、原点Oから離れた第一色差信号と第二色差信号との中点を原点Oに近付けるべく)、加算値(Cb’add,Cr’add)が演算されている。 On the other hand, the second distance information Saturation_ the add, the first, second light source for the respective color difference signal imaging, exposure conditions, the changes relative to the position of the origin O of the color space under the influence of such as white balance , Change a lot. Therefore, in the process step S26, the second distance information Saturation_ the add provisional sum value (Cb add, Cr add) without operation immediately using, to offset or reduce the change in position with respect to the origin O by the impact The added values (Cb ′ add , Cr ′ add ) are calculated (in order to bring the midpoint between the first color difference signal and the second color difference signal away from the origin O closer to the origin O due to the above influence).
図12の各プロット対の位置関係から把握されるように、第一色差信号と第二色差信号が持つ色情報が補色関係にある場合は、互いの符号が逆となることから加算値(Cb’add,Cr’add)が小さくなって、第二の距離情報Saturation_addが小さくなる。また、強い補色関係であるほど第二の距離情報Saturation_addが小さくなって、理想的にはゼロとなる。一方、第一色差信号と第二色差信号が持つ色情報が補色関係にない(例えば同様の色相である)場合は、互いの符号が同一となることから、加算値(Cb’add,Cr’add)が大きくなって、第二の距離情報Saturation_addが大きくなる。すなわち、第二の距離情報Saturation_addは、偽色発生領域でなければ大きくなり、偽色発生領域であれば小さくなる。 As can be understood from the positional relationship between each pair of plots in FIG. 12, when the color information of the first color difference signal and the second color difference signal has a complementary color relationship, the signs are opposite to each other, so that the added value (Cb 'add, Cr' add) is decreased, the second distance information Saturation_ the add decreases. The second distance information Saturation_ to add becomes smaller as is strong complementary relationship, the zero ideally. On the other hand, when the color information of the first color difference signal and the second color difference signal is not in a complementary color relationship (for example, the same hue), the signs are the same, so the added values (Cb ′ add , Cr ′) add) and increases, the second distance information Saturation_ the add increases. That is, the second distance information Saturation_ the add is larger if false color occurrence region decreases if false color occurrence region.
[図8のS28(輝度信号の差分値の演算)]
説明の便宜上、第一画像の輝度信号Yを「第一輝度信号」と記し、第二画像の輝度信号Yを「第二輝度信号」と記す。本処理ステップS28では、アドレスが同一の注目画素毎に、第一輝度信号と第二輝度信号との差分値Ydiffが演算される。具体的には、本処理ステップS28では、第一輝度信号をY1と定義し、第二輝度信号をY2と定義した場合に、差分値Ydiffが次式により演算される。
Ydiff=|Y1−Y2|
[S28 in FIG. 8 (Calculation of Difference Value of Luminance Signal)]
For convenience of explanation, the luminance signal Y of the first image is denoted as “first luminance signal”, and the luminance signal Y of the second image is denoted as “second luminance signal”. In this processing step S28, a difference value Y diff between the first luminance signal and the second luminance signal is calculated for each target pixel having the same address. Specifically, in this processing step S28, when the first luminance signal is defined as Y1 and the second luminance signal is defined as Y2, the difference value Y diff is calculated by the following equation.
Y diff = | Y1-Y2 |
[図8のS29(偽色発生領域の判定)]
本処理ステップS29では、アドレスが同一の注目画素毎に、偽色発生領域であるか否かが判定される。具体的には、次の条件(1)〜(3)が全て満たされる場合に、当該画素が偽色発生領域であると判定される。
[S29 in FIG. 8 (Determination of False Color Generation Area)]
In this processing step S29, it is determined whether or not each pixel of interest having the same address is a false color generation region. Specifically, when all of the following conditions (1) to (3) are satisfied, it is determined that the pixel is a false color generation region.
・条件(1)
上述したように、第一の距離情報Saturation_subが大きいほど第一色差信号と第二色差信号が持つ色情報が強い補色関係となることから、当該注目画素が偽色発生領域である可能性が高い。そこで、条件(1)は次のように規定される。
条件(1):Saturation_sub≧閾値T1
・ Condition (1)
As described above, since the color information having the first color difference signal the larger the first distance information Saturation_ sub and the second color difference signal is strong complementary relationship, likely the target pixel is false color occurrence region is high. Therefore, condition (1) is defined as follows.
Condition (1): Saturation_ sub ≧ threshold T1
・条件(2)
上述したように、第二の距離情報Saturation_addが小さいほど第一色差信号と第二色差信号が持つ色情報が強い補色関係となることから、当該注目画素が偽色発生領域である可能性が高い。そこで、条件(2)は次のように規定される。
条件(2):Saturation_add≦閾値T2
・ Condition (2)
As described above, since the color information having the second distance information Saturation_ the add is small enough first color difference signal and a second color difference signal is strong complementary relationship, likely the target pixel is false color occurrence region is high. Therefore, condition (2) is defined as follows.
Condition (2): Saturation_ add ≦ threshold T2
処理ステップS12にて撮影された第一画像と処理ステップS14にて撮影された第二画像の一方だけで大きな像振れが発生した場合を考える。この場合、第一色差信号と第二色差信号との差分が大きくなって、偽色が誤検出される虞がある。そこで、条件(3)は次のように規定される。
条件(3):Ydiff≦閾値T3
Consider a case where a large image blur occurs in only one of the first image photographed in the processing step S12 and the second image photographed in the processing step S14. In this case, the difference between the first color difference signal and the second color difference signal becomes large, and there is a possibility that a false color is erroneously detected. Therefore, the condition (3) is defined as follows.
Condition (3): Y diff ≦ threshold value T3
すなわち、差分値Ydiffが閾値T3よりも大きい場合は、上記の誤検出の虞があることから、当該注目画素に対する偽色の検出が行われない(当該注目画素が偽色発生領域でないものとして処理される。)。 That is, when the difference value Y diff is larger than the threshold value T3, there is a risk of the erroneous detection described above, so that false color detection for the target pixel is not performed (assuming that the target pixel is not a false color generation region). It is processed.).
なお、条件(1)と条件(2)は、当該注目画素が偽色発生領域であるか否かを直接的に判定する条件となっている。そこで、別の実施形態では、条件(1)と条件(2)の少なくとも一方が満たされる場合に、当該注目画素が偽色発生領域であると判定されるようにしてもよい。 Condition (1) and condition (2) are conditions for directly determining whether or not the target pixel is a false color generation region. Therefore, in another embodiment, when at least one of the condition (1) and the condition (2) is satisfied, the target pixel may be determined to be a false color generation region.
また、ユーザは、操作部102を操作して閾値T1〜T3を設定変更することにより、偽色の検出感度を変更することができる。
Further, the user can change the false color detection sensitivity by operating the
[図8のS30(偽色の検出)]
本処理ステップS30では、偽色の有無が検出される。例示的には、処理ステップS29において偽色発生領域と判定された注目画素数(又は全有効画素数のうち偽色発生領域と判定された注目画素の割合)が所定の閾値以上である場合に、偽色有りという検出結果となり、該注目画素数(又は割合)が所定の閾値未満である場合に、偽色無しという検出結果となる。
[S30 in FIG. 8 (detection of false color)]
In this processing step S30, the presence or absence of a false color is detected. Illustratively, when the number of target pixels determined as a false color generation region in processing step S29 (or the ratio of the target pixels determined as a false color generation region out of the total number of effective pixels) is equal to or greater than a predetermined threshold value. When the number of pixels of interest (or the ratio) is less than a predetermined threshold, the detection result is that there is no false color.
検出処理S2による偽色の検出結果は、被写体の撮影処理や、LCD124等の表示装置を通したユーザへの報知に使用される。
The detection result of the false color by the detection process S2 is used for the photographing process of the subject and the notification to the user through the display device such as the
例示的には、検出処理S2が撮影装置1のシステムコントローラ100により実行されており、且つ、偽色有りと判定された場合、LPF駆動下で被写体の撮影が再度行われてもよい。これにより、偽色が抑えられた画像を得ることができる。なお、撮影処理S1が既にLPF駆動下で行われており、その状態で偽色が検出された場合、更に強い光学的なLPF効果(偽色等のモアレの軽減)が得られるように、固体撮像素子112aの駆動周期(回転周期)や駆動振幅(回転半径)が調整される。すなわち、偽色を軽減するためのより有利な撮影条件に変更される。撮影条件が変更されると、被写体の撮影が再度行われる。
Illustratively, if the detection process S2 is executed by the
また、例示的には、検出処理S2で偽色有りと判定された場合、画像(第一画像と第二画像の何れか一方又は両方)がLCD124に表示される。また、LCD124上において、撮影画像に重畳して偽色の発生箇所を示す情報が表示される。これにより、ユーザは、画像中の偽色が発生している箇所を把握することができる。また、撮影装置1や外部の画像処理装置3が、画像に対する画像処理を行う画像処理部を有している場合、画像中の偽色の発生箇所を示す情報に基づいて、偽色を低減するような画像処理(例えば、ぼかし処理)が実行されてもよい。
For example, when it is determined that there is a false color in the detection process S <b> 2, an image (either one or both of the first image and the second image) is displayed on the
以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施形態等又は自明な実施形態等を適宜組み合わせた内容も本願の実施形態に含まれる。 The above is the description of the exemplary embodiments of the present invention. Embodiments of the present invention are not limited to those described above, and various modifications are possible within the scope of the technical idea of the present invention. For example, the embodiment of the present application also includes an embodiment that is exemplarily specified in the specification or a combination of obvious embodiments and the like as appropriate.
例えば、上記の実施形態では、固体撮像素子112aをシフトさせることにより、受光面112aa上での被写体像の入射位置をシフトさせているが、本発明の実施形態はこの構成に限らない。例えば、固体撮像素子112aと被写体からの光束が通過する光学部材との間のXY面内における相対位置を移動させることにより、受光面112aaと被写体像の相対位置をシフトさせることができる。具体的には、固体撮像素子112aと別の振れ補正部材(撮影レンズ106内に含まれる一部のレンズなど)を偏心駆動させることにより、受光面112aa上での被写体像の入射位置をシフトさせてもよく、また、撮影レンズ106の光路内に光軸AXに対して垂直よりやや傾けて配置された平行平板を光軸AX周りに回転させたり、頂角可変プリズム、固体撮像素子112aのカバーガラス(カバーガラスに付着した塵等を除去するための加振機能を備えたもの)等を駆動させたりすることにより、受光面112aa上での被写体像の入射位置をシフトさせてもよい。このように、固体撮像素子112a以外の光学部材をシフトさせて撮影処理S1が実行される場合、画像データの付加情報には、光学部材の位置を示す情報、或いは、固体撮像素子112aと光学部材との間の相対位置を示す情報が書き込まれる。
For example, in the above embodiment, the incident position of the subject image on the light receiving surface 112aa is shifted by shifting the solid-
また、上記の実施形態では、処理ステップS29において、閾値T1〜T3が各画素に対する全ての判定において不変であるが、本発明はこれに限らない。 Moreover, in said embodiment, although threshold value T1-T3 is unchanged in all the determinations with respect to each pixel in process step S29, this invention is not limited to this.
例えば、システムコントローラ100によってAF制御が行われることにより、画像内でピントが合っているとみなせる範囲(合焦エリアであり、例示的には被写界深度に収まる範囲)が求まる。合焦エリア(合焦状態)の被写体はコントラストが高く、高周波成分を含みやすいため、偽色が発生しやすい。一方、合焦エリア外(非合焦状態)の被写体はコントラストが低く、高周波成分を含み難いため、偽色が発生し難い。そこで、処理ステップS29では、演算によって求まった合焦エリア内の画素に対する判定を行う場合と合焦エリア外の画素に対する判定を行う場合とで、閾値T1〜T3が異なる値に変更されてもよい。例示的には、合焦エリア内の画素では偽色が発生している(目立つ)可能性が高いことから、検出感度が高くなるような閾値設定(例えば閾値T1を低い値に設定)を行い、それ以外の画素では偽色が発生している可能性が低い(目立たない)ことから、検出感度が低くなるような閾値設定(例えば閾値T1を高い値に設定)を行うか、偽色検出の処理自体が省略される。これにより、偽色の検出精度がより一層向上したり、検出速度が向上したりする。
For example, by performing AF control by the
また、上記の実施形態では、一対の画像(処理ステップS12にて撮影された第一画像と処理ステップS14にて撮影された第二画像)を用いて偽色の検出が行われているが、別の実施形態では、3つ以上の画像を用いて偽色の検出が行われてもよい。 In the above embodiment, false color detection is performed using a pair of images (a first image taken in processing step S12 and a second image taken in processing step S14). In another embodiment, false color detection may be performed using more than two images.
例えば、縦縞被写体10aに対しては、上記の実施形態のように、処理ステップS13(固体撮像素子112aのシフト)にて固体撮像素子112aを縞の明暗方向(左方向)にシフトさせることにより、補色の関係となる偽色画像が得られやすい。しかし、縦縞被写体10aに対して固体撮像素子112aを上、下又は斜め方向にシフトさせた場合は、輝度の高い色成分が固体撮像素子112aのシフトの前後で変わり難くなり、補色の関係となる偽色画像が得られ難くなる。そこで、偽色検出の精度をより一層向上させる(別の観点では、検出漏れを防ぐ)ため、固体撮像素子112aのシフト方向を変更しながら、3つ以上の画像が撮影されてもよい。
For example, for the vertical stripe subject 10a, by shifting the solid-
例えば、撮影処理S1において、固体撮像素子112aの座標をそれぞれ(0,0)、(1,0)、(1,1)、(0,1)と移動させながら、第一〜第四画像が撮影されてもよい。この場合、検出処理S2では、第一画像と第二画像の組み合わせを用いた偽色の検出、第一画像と第三画像の組み合わせを用いた偽色の検出、第一画像と第四画像の組み合わせを用いた偽色の検出が行われる。各組み合わせにおいて、一方の画像に対する他方の画像の撮影時の固体撮像素子112aのシフト方向は異なる。そのため、複数の画像の組み合わせを用いて偽色の判定を行うことにより、高周波成分の出現方向に拘わらず、偽色を精度よく検出することができる。
For example, in the imaging process S1, the first to fourth images are moved while the coordinates of the solid-
また、上述の実施形態では、付加情報の「座標」項目に固体撮像素子112aの位置を示す情報が書き込まれるが、本実施形態における固体撮像素子112aの位置を示す情報は座標に限定されない。付加情報には、各画像が撮影されたときの固体撮像素子112aの位置に関する情報が含まれていればよく、この情報には、位置を表す種々の表現が使用可能である。例えば、付加情報は、「座標」項目の代わりに、固体撮像素子112aのシフト方向を示す情報が書き込まれる「シフト方向」項目を有していてもよい。例えば、撮影処理S1において固体撮像素子112aのシフト量が予め決められている場合、付加情報に固体撮像素子112aのシフト方向を書込むことにより、固体撮像素子112aのXY面内における位置を判定することができる。また、付加情報は、シフト量を示す情報を更に含んでいてもよい。
In the above-described embodiment, information indicating the position of the solid-
例えば、付加情報の「シフト方向」項目には、座標(0,0)を基準とし、右方向(X軸正方向)の偏角θをゼロとした円座標系(rθ座標系)における偏角θが書き込まれてもよい。固体撮像素子112aの座標を(0,0)、(1,0)、(1,1)、(0,1)と移動させながら第一〜第四画像を撮影する場合、第一画像の撮影時は、固体撮像素子112aは基準位置から移動していないため、第一画像の画像データの「シフト方向」項目には、固体撮像素子112aが移動していないことを示す「null」(または移動していないことを示す値である「null値」)が書き込まれる。第二〜第四画像の画像データの「シフト方向」項目にはそれぞれ、基準位置に対する固体撮像素子112aの位置の偏角θ「0度」、「45度」、「90度」が書き込まれる。
For example, in the “shift direction” item of the additional information, the declination angle in the circular coordinate system (rθ coordinate system) with the declination angle θ in the right direction (X-axis positive direction) set to zero with the coordinate (0, 0) as a reference. θ may be written. When shooting the first to fourth images while moving the coordinates of the solid-
また、付加情報には、図11(a)、図11(b)に示す全ての項目が含まれていなくてもよい。付加情報は、少なくとも、同一のグループに含まれる画像を選択するために必要な項目と、選択された画像の撮影時における固体撮像素子112aの位置が分かる情報を有していればよい。
Further, the additional information may not include all the items shown in FIGS. 11A and 11B. The additional information only needs to include at least information necessary for selecting the images included in the same group and the position of the solid-
例えば、付加情報に「グループID」項目が含まれている場合、「前の画像のファイルID」項目と「後の画像のファイルID」項目の一方或いは両方は含まれていなくてもよい。「グループID」項目があれば、処理ステップS22において、ユーザによって指定(選択)された画像と同じグループに含まれる画像データを選択可能である。 For example, when the “group ID” item is included in the additional information, one or both of the “file ID of the previous image” item and the “file ID of the subsequent image” may not be included. If there is a “group ID” item, it is possible to select image data included in the same group as the image designated (selected) by the user in processing step S22.
また、撮影処理ステップS1において、各撮影画像の撮影順番と、各撮影画像の撮影時における固体撮像素子112aが移動位置の対応関係が決められており、その対応関係がROM126等の所定の記憶領域に記録されている場合、付加情報に「座標」項目が含まれていなくてもよい。この場合、システムコントローラ100は、付加情報の「撮影順番」項目の値と、所定の記憶領域に記録されている撮影順番と移動位置の対応関係に基づいて、各画像の撮影時における固体撮像素子112aの位置に関する情報を取得することができる。
Also, in the shooting processing step S1, the correspondence between the shooting order of each shot image and the movement position of the solid-
1 撮影装置
100 システムコントローラ
102 操作部
104 駆動回路
106 撮影レンズ
108 絞り
110 シャッタ
112 像振れ補正装置
112a 固体撮像素子
112aa (固体撮像素子の)受光面
112b 固定支持基板
112c 可動ステージ
114 信号処理回路
116 画像処理エンジン
118 バッファメモリ
120 カード用インタフェース
122 LCD制御回路
124 LCD
126 ROM
128 ジャイロセンサ
130 加速度センサ
132 地磁気センサ
134 GPSセンサ
136 通信インタフェース
200 メモリカード
3 画像処理装置
300 コントローラ
301 メモリ
302 LCD
303 カード用インタフェース
304 通信インタフェース
CYR、CYL、CXD、CXU 駆動用コイル
HYR、HYL、HXD、HXU ホール素子
MYR、MYL、MXD、MXU 磁石
PIX 画素
VCMYR、VCMYL、VCMXD、VCMXU ボイスコイルモータ
YYR、YYL、YXD、YXU ヨーク
DESCRIPTION OF
126 ROM
128
303
Claims (16)
前記撮像素子を用いて前記被写体像を撮像して2以上の所定の画像を取得し、該所定の画像を含む画像群を記録する画像記録手段と、
前記所定の画像が撮像されたときの、前記被写体像と前記撮像素子との前記相対的な位置に関する情報を取得する位置情報取得手段と、
前記所定の画像に対し、前記相対的な位置に関する情報を付加する位置情報付加手段と、
を備える、
撮像システム。 A subject image incident on the image sensor via the imaging optical system, and a position changing means for changing a relative position of the image sensor in a plane parallel to the light receiving surface of the image sensor;
Image recording means for capturing two or more predetermined images by capturing the subject image using the image sensor and recording an image group including the predetermined images;
Position information acquisition means for acquiring information related to the relative position between the subject image and the image sensor when the predetermined image is captured;
Position information adding means for adding information on the relative position to the predetermined image;
Comprising
Imaging system.
請求項1に記載の撮像システム。 The information on the relative position is obtained by capturing other images of the two or more predetermined images with respect to the relative position between the subject image and the image sensor when the first image is captured. Including information indicating a change in relative position between the subject image and the image sensor at the time of
The imaging system according to claim 1.
前記相対的な位置に関する情報は、前記撮像素子の前記受光面と平行な面内における所定の原点に対する位置座標を含む、
請求項1又は請求項2に記載の撮像システム。 The position changing means changes the position of the image sensor in a plane parallel to the light receiving surface,
The information on the relative position includes position coordinates with respect to a predetermined origin in a plane parallel to the light receiving surface of the imaging element.
The imaging system according to claim 1 or 2.
請求項1から請求項3の何れか一項に記載の撮像システム。 The image recording means captures the subject images in a state where the relative positions are different from each other, acquires the two or more predetermined images, and records an image group including the predetermined images;
The imaging system according to any one of claims 1 to 3.
請求項1から請求項4の何れか一項に記載の撮像システム。 The position information adding unit is configured to calculate the relative information based on imaging order information indicating an imaging order in an image included in the image group for each of the two or more predetermined images included in the image group. Add location information,
The imaging system according to any one of claims 1 to 4.
複数の画像の中から前記関連情報が付加された画像を抽出する関連画像抽出手段と、
を更に備える、
請求項1から請求項5の何れか一項に記載の撮像システム。 Related information adding means for adding, to each of the two or more predetermined images included in the image group, related information indicating that the two or more predetermined images are related to each other;
Related image extraction means for extracting an image to which the related information is added from a plurality of images;
Further comprising
The imaging system according to any one of claims 1 to 5.
前記関連情報付加手段は、前記2以上の所定の画像のそれぞれに対し、前記画像群に含まれる他の画像の前記画像識別情報を付加する、
請求項6に記載の撮像システム。 Image identification information adding means for adding image identification information for identifying each of the two or more predetermined images to each of the two or more predetermined images included in the image group;
The related information adding means adds the image identification information of other images included in the image group to each of the two or more predetermined images.
The imaging system according to claim 6.
請求項7に記載の撮像システム。 The related information adding means captures each of the two or more predetermined images included in the image group in front of each of the two or more predetermined images among the images included in the image group. Adding at least one of the image identification information of the captured image and the image identification information of the image captured after each of the two or more predetermined images;
The imaging system according to claim 7.
請求項6から請求項8の何れか一項に記載の撮像システム。 The related information includes image number information indicating the number of images included in the image group.
The imaging system according to any one of claims 6 to 8.
請求項6から請求項9の何れか一項に記載の撮像システム。 The related information includes image group identification information for identifying the image group,
The imaging system according to any one of claims 6 to 9.
前記情報取得ステップで取得された情報に、撮像装置が撮像光学系を介して撮像素子に入射される被写体像と、該撮像素子との、該撮像素子の受光面と平行な面内における相対的な位置を変化させて前記被写体像を撮像したときの、該相対的な位置に関する情報であって、前記画像に対する所定の画像処理に用いるものが含まれているかを判定する情報判定ステップと、
を含む画像判定プログラム。 An information acquisition step of acquiring information about the image added to the image from the image;
In the information acquired in the information acquisition step, relative to a subject image incident on the imaging device by the imaging device via the imaging optical system and the imaging device in a plane parallel to the light receiving surface of the imaging device. An information determination step for determining whether information relating to the relative position when the subject image is captured while changing the position and used for predetermined image processing on the image is included;
An image determination program including
請求項11に記載の画像判定プログラム。 The information regarding the relative position is obtained when another image is captured with respect to the relative position between the subject image and the image sensor when the first image is captured among the two or more images. Including information indicating a change in the relative position of the subject image and the image sensor,
The image determination program according to claim 11.
前記複数の画像は、同じ画像群に含まれる2以上の所定の画像を含んでおり、
前記2以上の所定の画像はそれぞれ、互いに関連していることを示す関連情報を有し、
前記複数の画像の中から、前記関連情報を有する画像を抽出する関連画像抽出ステップを更に含む、
請求項11又は請求項12に記載の画像判定プログラム。 The information acquisition step acquires information on the image from each of the plurality of images,
The plurality of images include two or more predetermined images included in the same image group,
Each of the two or more predetermined images has associated information indicating that they are associated with each other;
A related image extracting step of extracting an image having the related information from the plurality of images;
The image determination program according to claim 11 or 12.
請求項11から請求項13の何れか一項に記載の画像判定プログラム。 The predetermined image processing is detection processing of a false color included in the predetermined image.
The image determination program according to any one of claims 11 to 13.
前記撮像素子を用いて前記被写体像を撮像して2以上の所定の画像を取得し、該所定の画像を含む画像群を記録する画像記録手段と、
前記所定の画像が撮像されたときの、前記被写体像と前記撮像素子との前記相対的な位置に関する情報を取得する位置情報取得手段と、
前記所定の画像に対し、前記相対的な位置に関する情報を付加する位置情報付加手段と、
を備える、
画像撮像装置。 A subject image incident on the image sensor via the imaging optical system, and a position changing means for changing a relative position of the image sensor in a plane parallel to the light receiving surface of the image sensor;
Image recording means for capturing two or more predetermined images by capturing the subject image using the image sensor and recording an image group including the predetermined images;
Position information acquisition means for acquiring information related to the relative position between the subject image and the image sensor when the predetermined image is captured;
Position information adding means for adding information on the relative position to the predetermined image;
Comprising
Imaging device.
撮像システムにおいて、2以上の前記画像に対する所定の画像処理を実行させることを可能とする画像データ構造。 Each time the imaging device changes the relative position of the subject image incident on the imaging device via the imaging optical system and the imaging device in a plane parallel to the light receiving surface of the imaging device, the subject image Information about the relative position of the subject image and the image sensor when each image is recorded
An image data structure that enables predetermined image processing to be performed on two or more images in an imaging system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017044280A JP2018148500A (en) | 2017-03-08 | 2017-03-08 | Imaging system, image determination program, image imaging device, image data structure |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017044280A JP2018148500A (en) | 2017-03-08 | 2017-03-08 | Imaging system, image determination program, image imaging device, image data structure |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018148500A true JP2018148500A (en) | 2018-09-20 |
Family
ID=63592465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017044280A Pending JP2018148500A (en) | 2017-03-08 | 2017-03-08 | Imaging system, image determination program, image imaging device, image data structure |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018148500A (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005168056A (en) * | 1996-03-27 | 2005-06-23 | Fuji Photo Film Co Ltd | Camera and reception equipment |
JP2007324965A (en) * | 2006-06-01 | 2007-12-13 | Fujifilm Corp | Digital camera, photography control method, and image output system |
JP2010183565A (en) * | 2009-01-06 | 2010-08-19 | Nikon Corp | Image capturing apparatus, image retrieval device, and program |
JP2011259415A (en) * | 2010-05-10 | 2011-12-22 | Panasonic Corp | Imaging apparatus |
JP2017038318A (en) * | 2015-08-13 | 2017-02-16 | リコーイメージング株式会社 | Image processing apparatus, image processing method and image processing program |
-
2017
- 2017-03-08 JP JP2017044280A patent/JP2018148500A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005168056A (en) * | 1996-03-27 | 2005-06-23 | Fuji Photo Film Co Ltd | Camera and reception equipment |
JP2007324965A (en) * | 2006-06-01 | 2007-12-13 | Fujifilm Corp | Digital camera, photography control method, and image output system |
JP2010183565A (en) * | 2009-01-06 | 2010-08-19 | Nikon Corp | Image capturing apparatus, image retrieval device, and program |
JP2011259415A (en) * | 2010-05-10 | 2011-12-22 | Panasonic Corp | Imaging apparatus |
JP2017038318A (en) * | 2015-08-13 | 2017-02-16 | リコーイメージング株式会社 | Image processing apparatus, image processing method and image processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6486656B2 (en) | Imaging device | |
US11394881B2 (en) | Image processing apparatus, image processing method, storage medium, system, and electronic apparatus | |
JP5681329B2 (en) | Imaging apparatus and image display method | |
US8593531B2 (en) | Imaging device, image processing method, and computer program | |
CN109691085B (en) | Image pickup apparatus and image pickup control method | |
WO2014045739A1 (en) | Image processing device, imaging device, image processing method, and image processing program | |
JPWO2012032826A1 (en) | Stereo imaging device and stereo imaging method | |
US11012633B2 (en) | Image capturing apparatus, image capturing method, and image processing apparatus | |
US9871964B2 (en) | Photographing apparatus, photographing controller, photographing control method, and photographing control program | |
JP6606838B2 (en) | Imaging apparatus and imaging method | |
JP6579369B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JPWO2012032825A1 (en) | Stereo imaging device and stereo imaging method | |
JP2008113466A (en) | Electronic camera | |
JP2018148500A (en) | Imaging system, image determination program, image imaging device, image data structure | |
JP6548141B2 (en) | Image detection apparatus, image detection method and image detection program | |
JP6501106B2 (en) | Image detection apparatus, image detection method and imaging apparatus | |
JP6525139B2 (en) | Image detection apparatus, image detection method and imaging apparatus | |
JP6489350B2 (en) | Image blur correction apparatus and image blur correction method in the image blur correction apparatus | |
JP2011041092A (en) | Imaging apparatus and lens barrel | |
JP2009246468A (en) | Photographing device and control method of photographing device | |
JP2017200028A (en) | Image deterioration detector | |
WO2014045741A1 (en) | Image processing device, imaging device, image processing method, and image processing program | |
JP2017200029A (en) | Image deterioration detector | |
WO2019202983A1 (en) | Image capturing device, distance measuring method, distance measuring program, and recording medium | |
JP2016208064A (en) | Imaging apparatus and imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200817 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20201007 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210302 |