JP2018148500A - Imaging system, image determination program, image imaging device, image data structure - Google Patents

Imaging system, image determination program, image imaging device, image data structure Download PDF

Info

Publication number
JP2018148500A
JP2018148500A JP2017044280A JP2017044280A JP2018148500A JP 2018148500 A JP2018148500 A JP 2018148500A JP 2017044280 A JP2017044280 A JP 2017044280A JP 2017044280 A JP2017044280 A JP 2017044280A JP 2018148500 A JP2018148500 A JP 2018148500A
Authority
JP
Japan
Prior art keywords
image
information
images
subject
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017044280A
Other languages
Japanese (ja)
Inventor
健児 松本
Kenji Matsumoto
健児 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017044280A priority Critical patent/JP2018148500A/en
Publication of JP2018148500A publication Critical patent/JP2018148500A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging system, image determination program, image imaging device, and image data structure that can easily select a necessary image from a plurality of images.SOLUTION: An imaging system includes: position changing means for changing relative positions between a subject image entering an imaging element via an imaging optical system and the imaging element in a plane parallel to a light-receiving face of the imaging element; image recording means for obtaining two or more prescribed images by taking an image of the subject image with the imaging element and recording an image group including the prescribed images; positional information acquisition means for acquiring information on the relative positions between the subject image and the imaging element when the prescribed images were taken; and positional information addition means for adding the information on the relative positions to the prescribed images.SELECTED DRAWING: Figure 11

Description

本発明は、画像を撮像する撮像システム及び画像を判定する画像判定プログラム、画像データを撮像する画像撮像装置、並びに、画像データ構造に関する。   The present invention relates to an imaging system that captures an image, an image determination program that determines an image, an image capturing apparatus that captures image data, and an image data structure.

撮像素子の画素ピッチと同程度以上の高周波成分を含む被写体を撮像すると、偽色(色モアレ)等のモアレが発生して、撮影画像が劣化することが知られている。そこで、この種の偽色を除去するための種々の技術が提案されている。例えば特許文献1に、撮影画像内に発生する偽色を検出することが可能な撮影装置の具体的構成が記載されている。また、特許文献2に、偽色を低減可能な撮影装置の具体期構成が記載されている。   It is known that when a subject including a high frequency component equal to or higher than the pixel pitch of the image sensor is picked up, moire such as false color (color moire) is generated and the captured image is deteriorated. Therefore, various techniques for removing this type of false color have been proposed. For example, Patent Document 1 describes a specific configuration of a photographing apparatus capable of detecting a false color generated in a photographed image. Patent Document 2 describes a specific configuration of an imaging apparatus that can reduce false colors.

特許文献1に記載の撮影装置は、合焦状態の被写体を撮像し、次いで、非合焦状態の被写体を撮像する。非合焦状態の撮影画像では、被写体のコントラストが低下して高周波成分が低減されるため、合焦状態の撮影画像に発生していた偽色も低減される。そこで、特許文献1に記載の撮影装置は、撮影画像を複数のブロックに分け、合焦状態の撮影画像の色差信号と非合焦状態の撮影画像の色差信号との差分値をブロック毎に演算し、差分値の大きいブロックを偽色が発生しているブロックとして検出する。   The imaging device described in Patent Document 1 captures an in-focus subject, and then captures an out-of-focus subject. In the out-of-focus photographed image, the contrast of the subject is reduced and high-frequency components are reduced, so that the false color generated in the in-focus photographed image is also reduced. Therefore, the imaging device described in Patent Document 1 divides a captured image into a plurality of blocks, and calculates a difference value between the color difference signal of the focused captured image and the color difference signal of the unfocused captured image for each block. Then, a block having a large difference value is detected as a block in which a false color is generated.

特許文献2に記載の撮影装置は、一度、被写体を撮影した後、撮影レンズの一部(防振レンズ)を光軸に垂直な面内で振動させた状態で被写体を撮影する。一回目の撮影で得られた撮影画像には像振れは発生していないが、偽色が発生している可能性がある。一方、防振レンズを振動させながら撮影した撮影画像には、像振れが発生しているが、偽色は低減されている。特許文献2に記載の撮影装置では、この2枚の撮影画像を合成することにより、像振れと偽色の両方を押さえた撮影画像が得ている。   The imaging apparatus described in Patent Document 2 captures a subject in a state in which a part of the imaging lens (anti-vibration lens) is vibrated in a plane perpendicular to the optical axis after imaging the subject once. Although there is no image blur in the captured image obtained in the first shooting, there is a possibility that a false color is generated. On the other hand, image blurring has occurred in a photographed image taken while vibrating the anti-vibration lens, but false colors are reduced. In the photographing apparatus described in Patent Document 2, a photographed image in which both image blur and false color are suppressed is obtained by combining the two photographed images.

特開2011−109496号公報JP 2011-109496 A 特開2008−182486号公報JP 2008-182486 A

このように、特許文献1や特許文献2に記載の撮影装置では、撮影状態(合焦状態や防振レンズの振動の有無)の異なる複数の撮影画像を用いて、偽色の検出、或いは、偽色の低減を行っている。しかし、偽色の検出処理や偽色の低減処理等の画像処理は、必ずしも複数の撮影画像を撮影した直後に、撮影装置で行うとは限らない。例えば、複数の撮影画像の撮影処理だけを行い、その後、ユーザの所望のタイミングで画像処理を行う場合や、撮影装置以外の外部装置で画像処理を行う場合が想定される。この場合、ユーザは、様々な撮影画像の中から、画像処理に使用する撮影画像を探して選択する必要があった。   As described above, in the photographing apparatuses described in Patent Document 1 and Patent Document 2, false colors are detected using a plurality of photographed images with different photographing states (in-focus state and presence / absence of vibration of the vibration-proof lens), or Reduces false colors. However, image processing such as false color detection processing and false color reduction processing is not always performed by the photographing apparatus immediately after photographing a plurality of photographed images. For example, it is assumed that only a plurality of captured images are captured and then image processing is performed at a timing desired by the user, or an external device other than the capturing device performs image processing. In this case, the user has to search for and select a captured image to be used for image processing from various captured images.

本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、複数の画像の中から、必要な画像を容易に選択することが可能な撮像システム、画像判定プログラム、画像撮像装置及びデータ構造を提供することである。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an imaging system, an image determination program, and an image imaging system that can easily select a required image from a plurality of images. To provide a device and data structure.

本発明の一実施形態に係る撮像システムは、撮像光学系を介して撮像素子に入射される被写体像と、撮像素子との、撮像素子の受光面と平行な面内における相対的な位置を変化させる位置変化手段と、撮像素子を用いて被写体像を撮像して2以上の所定の画像を取得し、該所定の画像を含む画像群を記録する画像記録手段と、所定の画像が撮像されたときの、被写体像と撮像素子との相対的な位置に関する情報を取得する位置情報取得手段と、所定の画像に対し、相対的な位置に関する情報を付加する位置情報付加手段と、を備える。   An imaging system according to an embodiment of the present invention changes a relative position of a subject image incident on an imaging device via an imaging optical system and an imaging device in a plane parallel to a light receiving surface of the imaging device. A position changing means for capturing, an image recording means for capturing a subject image using an image sensor to acquire two or more predetermined images, and recording an image group including the predetermined images, and the predetermined images are captured Position information acquisition means for acquiring information regarding the relative position between the subject image and the image sensor, and position information addition means for adding information regarding the relative position to a predetermined image.

本発明の一実施形態によれば、複数の画像の中から必要な画像を容易に選択することができる。   According to an embodiment of the present invention, a necessary image can be easily selected from a plurality of images.

本発明の実施形態の撮影装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device of embodiment of this invention. 本発明の実施形態の撮影装置に備えられる像振れ補正装置の構成を概略的に示す図である。1 is a diagram schematically illustrating a configuration of an image shake correction apparatus provided in an imaging apparatus according to an embodiment of the present invention. 本発明の実施形態の撮影装置に備えられる像振れ補正装置の構成を概略的に示す図である。1 is a diagram schematically illustrating a configuration of an image shake correction apparatus provided in an imaging apparatus according to an embodiment of the present invention. 本発明の実施形態の撮影装置で生成(記録)される画像データのデータ構造を示す図である。It is a figure which shows the data structure of the image data produced | generated (recorded) with the imaging device of embodiment of this invention. 本発明の実施形態におけるLPF駆動の説明を補助する図である。It is a figure which assists description of the LPF drive in embodiment of this invention. 本発明の実施形態におけるシステムコントローラによる偽色検出フローを示す図である。It is a figure which shows the false color detection flow by the system controller in embodiment of this invention. 発明の実施形態におけるシステムコントローラによる撮影処理の処理フローを示す図である。It is a figure which shows the processing flow of the imaging | photography process by the system controller in embodiment of invention. 発明の実施形態におけるシステムコントローラによる検出処理の処理フローを示す図である。It is a figure which shows the processing flow of the detection process by the system controller in embodiment of invention. 本発明の実施形態において撮影される被写体に関する図である。It is a figure regarding the to-be-photographed object image | photographed in embodiment of this invention. 本発明の実施形態において撮影処理で生成(記録)される画像データのデータ構造を示す図である。It is a figure which shows the data structure of the image data produced | generated (recorded) by imaging | photography process in embodiment of this invention. 本発明の実施形態における撮影される被写体に関する図である。It is a figure regarding the to-be-photographed object in embodiment of this invention. 本発明の実施形態の色空間内においてプロットされる各色差信号を示す図である。It is a figure which shows each color difference signal plotted in the color space of embodiment of this invention.

以下、本発明の実施形態の撮像システム、画像判定プログラム、画像撮像装置及び画像データ構造について図面を参照しながら説明する。以下においては、本発明の撮像システム及び画像撮像装置の一実施形態として、デジタル一眼レフカメラについて説明する。なお、本発明の撮像システム及び画像撮像装置は、デジタル一眼レフカメラに限らず、例えば、ミラーレス一眼カメラ、コンパクトデジタルカメラ、ビデオカメラ、カムコーダ、タブレット端末、PHS(Personal Handy phone System)、スマートフォン、フィーチャフォン、携帯ゲーム機など、撮像(撮影)機能を有する別の形態の装置に置き換えてもよい。また、撮像システムは、撮像(撮影)機能を有する画像撮像装置と、画像撮像装置によって生成(記録)された画像データを処理する画像処理装置を組み合わせたものであってもよい。画像処理装置には、例えば、パーソナルコンピュータ、サーバ、タブレット端末、スマートフォンなど、情報処理機能を有する装置が使用される。本発明の実施形態の画像判定プログラムは、撮像システムや画像撮像装置、画像処理装置で実行される。また、本発明の実施形態の画像データ構造を有する画像データは、撮像システムや画像撮像装置、画像処理装置で生成(記録)又は処理される。   Hereinafter, an imaging system, an image determination program, an image imaging device, and an image data structure according to an embodiment of the present invention will be described with reference to the drawings. In the following, a digital single lens reflex camera will be described as an embodiment of the imaging system and the imaging apparatus of the present invention. The imaging system and the imaging device of the present invention are not limited to a digital single lens reflex camera, but include, for example, a mirrorless single lens camera, a compact digital camera, a video camera, a camcorder, a tablet terminal, a PHS (Personal Handy phone System), a smartphone, It may be replaced with another form of device having an imaging function, such as a feature phone or a portable game machine. The imaging system may be a combination of an image imaging device having an imaging (imaging) function and an image processing device that processes image data generated (recorded) by the image imaging device. As the image processing device, for example, a device having an information processing function such as a personal computer, a server, a tablet terminal, or a smartphone is used. An image determination program according to an embodiment of the present invention is executed by an imaging system, an image imaging device, and an image processing device. The image data having the image data structure according to the embodiment of the present invention is generated (recorded) or processed by an imaging system, an image imaging device, or an image processing device.

図1は、本実施形態のデジタル一眼レフカメラ(以下、「撮影装置」と記す。)1及び画像処理装置3の構成を示すブロック図である。図1に示されるように、撮影装置1は、システムコントローラ100、操作部102、駆動回路104、撮影レンズ106、絞り108、シャッタ110、像振れ補正装置112、信号処理回路114、画像処理エンジン116、バッファメモリ118、カード用インタフェース120、LCD(Liquid Crystal Display)制御回路122、LCD124、ROM(Read Only Memory)126、ジャイロセンサ128、加速度センサ130、地磁気センサ132、GPS(Global Positioning System)センサ134及び通信インタフェース136を備えている。なお、撮影レンズ106は複数枚構成であるが、図1においては便宜上一枚のレンズとして示す。また、撮影レンズ106の光軸AXと同じ方向をZ軸方向と定義し、Z軸方向と直交し且つ互いに直交する二軸方向をそれぞれX軸方向(水平方向)、Y軸方向(垂直方向)と定義する。また、以下では、X軸正方向を右、X軸負方向を左、Y軸正方向を上、Y軸正方向を下と呼ぶ。   FIG. 1 is a block diagram showing a configuration of a digital single-lens reflex camera (hereinafter referred to as “imaging device”) 1 and an image processing device 3 of the present embodiment. As shown in FIG. 1, the photographing apparatus 1 includes a system controller 100, an operation unit 102, a drive circuit 104, a photographing lens 106, a diaphragm 108, a shutter 110, an image shake correction device 112, a signal processing circuit 114, and an image processing engine 116. , Buffer memory 118, card interface 120, LCD (Liquid Crystal Display) control circuit 122, LCD 124, ROM (Read Only Memory) 126, gyro sensor 128, acceleration sensor 130, geomagnetic sensor 132, GPS (Global Positioning System) sensor 134 And a communication interface 136. Although the photographing lens 106 has a plurality of lenses, it is shown as a single lens for convenience in FIG. Further, the same direction as the optical axis AX of the photographing lens 106 is defined as the Z-axis direction, and the two axial directions orthogonal to the Z-axis direction and orthogonal to each other are the X-axis direction (horizontal direction) and the Y-axis direction (vertical direction), respectively. It is defined as In the following, the positive X-axis direction is called right, the negative X-axis direction is left, the positive Y-axis direction is up, and the positive Y-axis direction is down.

また、図1に示すように、画像処理装置3は、コントローラ300、メモリ301、LCD302、カード用インタフェース303及び通信インタフェース304を備えている。   As illustrated in FIG. 1, the image processing apparatus 3 includes a controller 300, a memory 301, an LCD 302, a card interface 303, and a communication interface 304.

操作部102には、電源スイッチやレリーズスイッチ、撮影モードスイッチなど、ユーザが撮影装置1を操作するために必要な各種スイッチが含まれる。また、LCD124がユーザ操作を受け付けるタッチパネルである場合、操作部102にはLCD124も含まれる。ユーザにより電源スイッチが操作されると、図示省略されたバッテリから撮影装置1の各種回路に電源ラインを通じて電源供給が行われる。   The operation unit 102 includes various switches necessary for the user to operate the photographing apparatus 1, such as a power switch, a release switch, and a photographing mode switch. When the LCD 124 is a touch panel that accepts user operations, the operation unit 102 includes the LCD 124. When the user operates the power switch, power is supplied from the battery (not shown) to the various circuits of the photographing apparatus 1 through the power line.

システムコントローラ100は、CPU(Central Processing Unit)及びDSP(Digital Signal Processor)を含む。システムコントローラ100は電源供給後、ROM126にアクセスして制御プログラムを読み出してワークエリア(不図示)にロードし、ロードされた制御プログラムを実行することにより、撮影装置1全体の制御を行う。   The system controller 100 includes a CPU (Central Processing Unit) and a DSP (Digital Signal Processor). After supplying power, the system controller 100 accesses the ROM 126, reads out a control program, loads it into a work area (not shown), and executes the loaded control program to control the entire photographing apparatus 1.

レリーズスイッチが操作されると、システムコントローラ100は、例えば、固体撮像素子112a(後述の図2参照)により撮像された画像に基づいて計算された測光値や、撮影装置1に内蔵された露出計(不図示)で測定された測光値に基づき適正露出が得られるように、駆動回路104を介して絞り108及びシャッタ110を駆動制御する。より詳細には、絞り108及びシャッタ110の駆動制御は、プログラムAE(Automatic Exposure)、シャッタ優先AE、絞り優先AEなど、撮影モードスイッチにより指定されるAE機能に基づいて行われる。また、システムコントローラ100はAE制御と併せてAF(Autofocus)制御を行う。AF制御には、アクティブ方式、位相差検出方式、像面位相差検出方式、コントラスト検出方式等が適用される。また、AFモードには、中央一点の測距エリアを用いた中央一点測距モード、複数の測距エリアを用いた多点測距モード、全画面の距離情報に基づく全画面測距モード等がある。システムコントローラ100は、AF結果に基づいて駆動回路104を介して撮影レンズ106を駆動制御し、撮影レンズ106の焦点を調整する。なお、この種のAE及びAFの構成及び制御については周知であるため、ここでの詳細な説明は省略する。   When the release switch is operated, the system controller 100 detects, for example, a photometric value calculated based on an image captured by a solid-state imaging device 112a (see FIG. 2 described later) or an exposure meter built in the photographing apparatus 1. The diaphragm 108 and the shutter 110 are driven and controlled via the drive circuit 104 so that proper exposure is obtained based on the photometric value measured in (not shown). More specifically, drive control of the aperture 108 and the shutter 110 is performed based on an AE function designated by a shooting mode switch such as a program AE (Automatic Exposure), shutter priority AE, aperture priority AE, and the like. Further, the system controller 100 performs AF (Autofocus) control together with AE control. For AF control, an active method, a phase difference detection method, an image plane phase difference detection method, a contrast detection method, or the like is applied. In addition, the AF mode includes a central single-point ranging mode using a single central ranging area, a multi-point ranging mode using a plurality of ranging areas, a full-screen ranging mode based on full-screen distance information, and the like. is there. The system controller 100 controls driving of the photographing lens 106 via the driving circuit 104 based on the AF result, and adjusts the focus of the photographing lens 106. Since the configuration and control of this type of AE and AF are well known, detailed description thereof is omitted here.

図2及び図3は、像振れ補正装置112の構成を概略的に示す図である。図2及び図3に示されるように、像振れ補正装置112は、固体撮像素子112aを備えている。被写体からの光束は、撮影レンズ106、絞り108、シャッタ110を通過して固体撮像素子112aの受光面112aaにて受光される。なお、固体撮像素子112aの受光面112aaは、X軸及びY軸を含むXY平面と平行である。固体撮像素子112aは、透過波長選択素子としてベイヤ型画素配置のカラーフィルタを有する単板式カラーCCD(Charge Coupled Device)イメージセンサである。固体撮像素子112aは、受光面112aa上の各画素で結像した光学像を光量に応じた電荷として蓄積して、R(Red)、G(Green)、B(Blue)の画像信号を生成して出力する。なお、固体撮像素子112aは、CCDイメージセンサに限らず、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやその他の種類の撮像装置に置き換えられてもよい。固体撮像素子112aはまた、補色系フィルタを搭載したものであってもよいし、画素毎に何れかのカラーフィルタを配置していれば、ベイヤ配列等の周期的なカラー配列を有するフィルタである必要はない。   2 and 3 are diagrams schematically showing a configuration of the image blur correction device 112. FIG. As shown in FIGS. 2 and 3, the image blur correction device 112 includes a solid-state image sensor 112a. The light beam from the subject passes through the photographing lens 106, the diaphragm 108, and the shutter 110, and is received by the light receiving surface 112aa of the solid-state imaging device 112a. The light receiving surface 112aa of the solid-state image sensor 112a is parallel to the XY plane including the X axis and the Y axis. The solid-state imaging device 112a is a single-plate color CCD (Charge Coupled Device) image sensor having a color filter with a Bayer pixel arrangement as a transmission wavelength selection device. The solid-state imaging device 112a accumulates an optical image formed by each pixel on the light receiving surface 112aa as a charge corresponding to the amount of light, and generates R (Red), G (Green), and B (Blue) image signals. Output. Note that the solid-state imaging device 112a is not limited to a CCD image sensor, and may be replaced with a complementary metal oxide semiconductor (CMOS) image sensor or other types of imaging devices. The solid-state imaging device 112a may be a filter having a complementary color filter, or a filter having a periodic color arrangement such as a Bayer arrangement if any color filter is arranged for each pixel. There is no need.

信号処理回路114は、固体撮像素子112aより入力される画像信号に対してクランプ、デモザイク(色補間)等の所定の信号処理を施して、画像処理エンジン116に出力する。画像処理エンジン116は、信号処理回路114より入力される画像信号に対してマトリクス演算、Y/C分離、ホワイトバランス等の所定の信号処理を施して輝度信号Y、色差信号Cb、Crを生成し、JPEG(Joint Photographic Experts Group)等の所定のフォーマットで圧縮して画像データを生成(記録)する。バッファメモリ118は、画像処理エンジン116による処理の実行時、処理データの一時的な保存場所として用いられる。また、画像データのフォーマットは、JPEG形式に限らず、最小限の画像処理(例えばクランプ)しか施されないRAW形式であってもよい。   The signal processing circuit 114 performs predetermined signal processing such as clamping and demosaicing (color interpolation) on the image signal input from the solid-state imaging device 112 a and outputs the processed signal to the image processing engine 116. The image processing engine 116 performs predetermined signal processing such as matrix operation, Y / C separation, and white balance on the image signal input from the signal processing circuit 114 to generate a luminance signal Y and color difference signals Cb and Cr. The image data is generated (recorded) after being compressed in a predetermined format such as JPEG (Joint Photographic Experts Group). The buffer memory 118 is used as a temporary storage location for processing data when the image processing engine 116 executes processing. Further, the format of the image data is not limited to the JPEG format, and may be a RAW format in which only minimal image processing (for example, clamping) is performed.

また、画像データには、撮影条件や撮影画像を識別するための情報等のメタデータが付加される。図4は、画像データのデータ構造を示す図である。画像データは、撮影された被写体の画像と、画像に関するメタデータを含む。メタデータには、例えば、撮影日時、画像データのファイル名、撮影画像の解像度、露出時間、絞り値、ホワイトバランスの設定値等が含まれる。メタデータは、例えば、Exif(Exchangeable image file format)形式のフォーマットに準拠している。   In addition, metadata such as information for identifying a shooting condition and a shot image is added to the image data. FIG. 4 is a diagram illustrating a data structure of image data. The image data includes a photographed subject image and metadata related to the image. The metadata includes, for example, the shooting date and time, the file name of the image data, the resolution of the shot image, the exposure time, the aperture value, the white balance setting value, and the like. The metadata complies with, for example, an Exif (Exchangeable image file format) format.

カード用インタフェース120のカードスロットには、メモリカード200が着脱可能に差し込まれている。   A memory card 200 is detachably inserted into a card slot of the card interface 120.

画像処理エンジン116は、カード用インタフェース120を介してメモリカード200と通信可能である。画像処理エンジン116は、生成(記録)された画像データを画像ファイルとしてメモリカード200に保存する。また、画像データは、撮影装置1に備えられる不図示の内蔵メモリに保存されてもよい。或いは、画像データが保存されたメモリカード200が、外部の画像処理装置3のカード用インタフェース303に装着されてもよい。また、メモリカード200に保存された画像データは、メモリ301に保存されてもよい。或いは、撮影装置1と画像処理装置3が、通信インタフェース136、304によってデータ交換可能に接続されている場合、画像データは、撮影装置1から画像処理装置3へ、通信インタフェース136、304を介して送信されてもよい。通信インタフェース136と通信インタフェース304は、ケーブルによって接続されるものであってもよく、無線通信によって接続されるものであってもよい。   The image processing engine 116 can communicate with the memory card 200 via the card interface 120. The image processing engine 116 stores the generated (recorded) image data in the memory card 200 as an image file. Further, the image data may be stored in a built-in memory (not shown) provided in the photographing apparatus 1. Alternatively, the memory card 200 storing the image data may be attached to the card interface 303 of the external image processing apparatus 3. Further, the image data stored in the memory card 200 may be stored in the memory 301. Alternatively, when the image capturing apparatus 1 and the image processing apparatus 3 are connected to each other via the communication interfaces 136 and 304, the image data is transferred from the image capturing apparatus 1 to the image processing apparatus 3 via the communication interfaces 136 and 304. May be sent. The communication interface 136 and the communication interface 304 may be connected by a cable or may be connected by wireless communication.

また、画像処理エンジン116は、生成された輝度信号Y、色差信号Cb、Crをフレームメモリ(不図示)にフレーム単位でバッファリングする。画像処理エンジン116は、バッファリングされた信号を所定のタイミングで各フレームメモリから掃き出して所定のフォーマットのビデオ信号に変換し、LCD制御回路122に出力する。LCD制御回路122は、画像処理エンジン116より入力される画像信号を基に液晶を変調制御する。これにより、被写体の撮影画像がLCD124の表示画面に表示される。ユーザは、AE制御及びAF制御に基づいて適正な輝度及びピントで撮影されたリアルタイムのスルー画(ライブビュー)を、LCD124の表示画面を通じて視認することができる。   Further, the image processing engine 116 buffers the generated luminance signal Y and color difference signals Cb and Cr in a frame memory (not shown) in units of frames. The image processing engine 116 sweeps the buffered signal from each frame memory at a predetermined timing, converts it into a video signal of a predetermined format, and outputs it to the LCD control circuit 122. The LCD control circuit 122 modulates and controls the liquid crystal based on the image signal input from the image processing engine 116. Thereby, the photographed image of the subject is displayed on the display screen of the LCD 124. The user can view through a display screen of the LCD 124 a real-time through image (live view) captured with appropriate brightness and focus based on AE control and AF control.

画像処理エンジン116は、ユーザにより撮影画像の再生操作が行われると、操作により指定された画像データをメモリカード200又は内蔵メモリより読み出して所定のフォーマットの画像信号に変換し、LCD制御回路122に出力する。LCD制御回路122が画像処理エンジン116より入力される画像信号を基に液晶を変調制御することで、被写体の撮影画像がLCD124の表示画面に表示される。   When the user performs a playback operation of the captured image, the image processing engine 116 reads the image data designated by the operation from the memory card 200 or the built-in memory, converts the image data into an image signal of a predetermined format, and sends it to the LCD control circuit 122. Output. The LCD control circuit 122 performs modulation control on the liquid crystal based on the image signal input from the image processing engine 116, so that a captured image of the subject is displayed on the display screen of the LCD 124.

(振れ補正部材の駆動に関する説明)
像振れ補正装置112は、振れ補正部材を駆動させる。本実施形態において、振れ補正部材は、固体撮像素子112aである。なお、振れ補正部材は、固体撮像素子112aに限らず、撮影レンズ106内に含まれる一部のレンズなど、光軸AXを基準として物理的に動かされることにより、固体撮像素子112aの受光面112aa上での被写体像の入射位置をシフトさせることが可能な別の構成であってもよく、又は、これらと固体撮像素子112aのうち2つ以上の部材を組み合わせた構成であってもよい。
(Explanation regarding the drive of the shake correction member)
The image shake correction device 112 drives a shake correction member. In the present embodiment, the shake correction member is the solid-state image sensor 112a. Note that the shake correction member is not limited to the solid-state image sensor 112a, but is partially moved with respect to the optical axis AX, such as a part of lenses included in the photographing lens 106, so that the light-receiving surface 112aa of the solid-state image sensor 112a. Another configuration capable of shifting the incident position of the subject image above may be used, or a configuration in which two or more members of these and the solid-state imaging device 112a are combined may be used.

像振れ補正装置112は、像振れを補正する(カメラ振れ、手振れを打ち消す)ために振れ補正部材を光軸AXと直交する平面内(すなわち、XY平面内)で微小に駆動(振動)させるだけでなく、被写体像が画素ピッチ分ぼかされることによる光学的なローパスフィルタ(LPF:Low Pass Filter)効果(偽色等のモアレの軽減)が得られるように振れ補正部材を光軸AXと直交する平面内で微小に駆動(微小回転)させる。以下、説明の便宜上、振れ補正部材を像振れ補正で駆動させることを「像振れ補正駆動」と記し、振れ補正部材を光学的なLPFと同様の効果が得られるように駆動させることを「LPF駆動」と記す。   The image blur correction device 112 only drives (vibrates) the shake correction member minutely in a plane orthogonal to the optical axis AX (that is, in the XY plane) in order to correct image blur (cancel camera shake and camera shake). In addition, the shake correction member is orthogonal to the optical axis AX so that an optical low pass filter (LPF) effect (reduction of moiré such as false color) is obtained by blurring the subject image by the pixel pitch. Drive minutely (micro-rotation) in the plane. Hereinafter, for convenience of description, driving the shake correction member with image shake correction is referred to as “image shake correction drive”, and driving the shake correction member so as to obtain the same effect as an optical LPF is referred to as “LPF”. "Drive".

(像振れ補正駆動に関する説明)
ジャイロセンサ128は、像振れ補正を制御するための情報を検出するセンサである。具体的には、ジャイロセンサ128は、撮影装置1に加わる二軸周り(X軸周り、Y軸周り)の角速度を検出し、検出された二軸周りの角速度をXY平面内(換言すると、固体撮像素子112aの受光面112aa内)の振れを示す振れ検出信号としてシステムコントローラ100に出力する。
(Explanation on image blur correction drive)
The gyro sensor 128 is a sensor that detects information for controlling image blur correction. Specifically, the gyro sensor 128 detects angular velocities around the two axes (around the X axis and around the Y axis) applied to the imaging apparatus 1, and the detected angular velocities around the two axes are within the XY plane (in other words, a solid state This is output to the system controller 100 as a shake detection signal indicating the shake of the light receiving surface 112aa of the image sensor 112a.

図2及び図3に示されるように、像振れ補正装置112は、撮影装置1が備えるシャーシ等の構造物に固定された固定支持基板112bを備えている。固定支持基板112bは、固体撮像素子112aが搭載された可動ステージ112cをスライド可能に支持している。   As shown in FIGS. 2 and 3, the image blur correction device 112 includes a fixed support substrate 112 b fixed to a structure such as a chassis included in the photographing device 1. The fixed support substrate 112b slidably supports the movable stage 112c on which the solid-state imaging device 112a is mounted.

可動ステージ112cと対向する固定支持基板112bの面上には、磁石MYR、MYL、MXD、MXUが取り付けられている。また、固定支持基板112bには、磁性体であるヨークYYR、YYL、YXD、YXUが取り付けられている。ヨークYYR、YYL、YXD、YXUはそれぞれ、固定支持基板112bから可動ステージ112cを回り込んで磁石MYR、MYL、MXD、MXUと対向する位置まで延びた形状を持ち、磁石MYR、MYL、MXD、MXUとの間に磁気回路を構成する。また、可動ステージ112cには、駆動用コイルCYR、CYL、CXD、CXUが取り付けられている。駆動用コイルCYR、CYL、CXD、CXUが磁気回路の磁界内において電流を受けることにより、駆動力が発生する。可動ステージ112c(固体撮像素子112a)は、発生した駆動力により、固定支持基板112bに対してXY平面内で微小に駆動される。 Magnets M YR , M YL , M XD , and M XU are attached on the surface of the fixed support substrate 112 b facing the movable stage 112 c. In addition, yokes Y YR , Y YL , Y XD , and Y XU that are magnetic bodies are attached to the fixed support substrate 112b. The yokes Y YR , Y YL , Y XD , and Y XU each have a shape that extends from the fixed support substrate 112 b to the position facing the magnets M YR , M YL , M XD , and M XU around the movable stage 112 c, A magnetic circuit is formed between the magnets M YR , M YL , M XD , and M XU . In addition, driving coils C YR , C YL , C XD , and C XU are attached to the movable stage 112c. When the driving coils C YR , C YL , C XD , and C XU receive a current in the magnetic field of the magnetic circuit, a driving force is generated. The movable stage 112c (solid-state imaging device 112a) is minutely driven in the XY plane with respect to the fixed support substrate 112b by the generated driving force.

対応する磁石、ヨーク及び駆動用コイルはボイスコイルモータを構成する。以下、便宜上、磁石MYR、ヨークYYR及び駆動用コイルCYRよりなるボイスコイルモータに符号VCMYRを付し、磁石MYL、ヨークYYL及び駆動用コイルCYLよりなるボイスコイルモータに符号VCMYLを付し、磁石MXD、ヨークYXD及び駆動用コイルCXDよりなるボイスコイルモータに符号VCMXDを付し、磁石MXU、ヨークYXU及び駆動用コイルCXUよりなるボイスコイルモータに符号VCMXUを付す。 Corresponding magnets, yokes and driving coils constitute a voice coil motor. Hereinafter, for the sake of convenience, a reference numeral VCM YR is given to a voice coil motor made up of a magnet M YR , a yoke Y YR and a driving coil C YR , and a voice coil motor made up of a magnet M YL , a yoke Y YL and a driving coil C YL is called up. given the VCM YL, a voice coil motor reference numeral VCM XD magnet M XD, the voice coil motor consisting of a yoke Y XD and the driving coil C XD, consisting of the magnet M XU, yoke Y XU and the driving coil C XU The symbol VCM XU is appended.

各ボイスコイルモータVCMYR、VCMYL、VCMXD、VCMXU(駆動用コイルCYR、CYL、CXD、CXU)は、システムコントローラ100の制御下でPWM(Pulse Width Modulation)駆動される。ボイスコイルモータVCMYRとVCMYLは、固体撮像素子112aの下方であって、水平方向(X軸方向)に所定の間隔を空けて並べて配置されており、ボイスコイルモータVCMXDとVCMXUは、固体撮像素子112aの側方であって、垂直方向(Y軸方向)に所定の間隔を空けて並べて配置されている。 Each voice coil motor VCM YR , VCM YL , VCM XD , VCM XU (driving coils C YR , C YL , C XD , C XU ) is PWM (Pulse Width Modulation) driven under the control of the system controller 100. The voice coil motors VCM YR and VCM YL are arranged below the solid-state image sensor 112a and arranged side by side with a predetermined interval in the horizontal direction (X-axis direction). The voice coil motors VCM XD and VCM XU are On the side of the solid-state image sensor 112a, they are arranged side by side with a predetermined interval in the vertical direction (Y-axis direction).

固定支持基板112b上であって駆動用コイルCYR、CYL、CXD、CXUの各近傍位置には、ホール素子HYR、HYL、HXD、HXUが取り付けられている。ホール素子HYR、HYL、HXD、HXUはそれぞれ、磁石MYR、MYL、MXD、MXUの磁力を検出して、可動ステージ112c(固体撮像素子112a)のXY平面内の位置を示す位置検出信号をシステムコントローラ100に出力する。具体的には、ホール素子HYR及びHYLにより可動ステージ112c(固体撮像素子112a)のY軸方向位置及び傾き(回転)が検出され、ホール素子HXD及びHXUにより可動ステージ112c(固体撮像素子112a)のX軸方向位置及び傾き(回転)が検出される。 Hall elements H YR , H YL , H XD , and H XU are attached to the positions near the driving coils C YR , C YL , C XD , and C XU on the fixed support substrate 112b. The Hall elements H YR , H YL , H XD , and H XU detect the magnetic forces of the magnets M YR , M YL , M XD , and M XU , respectively, and the position of the movable stage 112c (solid-state imaging device 112a) in the XY plane. Is output to the system controller 100. Specifically, the Y-axis direction position and tilt (rotation) of the movable stage 112c (solid-state imaging device 112a) are detected by the Hall elements H YR and H YL , and the movable stage 112c (solid-state imaging) is detected by the Hall elements H XD and H XU. The X-axis direction position and inclination (rotation) of the element 112a) are detected.

システムコントローラ100は、ボイスコイルモータ用のドライバICを内蔵している。システムコントローラ100は、ジャイロセンサ128より出力される振れ検出信号及びホール素子HYR、HYL、HXD、HXUより出力される位置検出信号に基づいて、ドライバICの定格電力(許容電力)を超えない範囲内において各ボイスコイルモータVCMYR、VCMYL、VCMXD、VCMXU(駆動用コイルCYR、CYL、CXD、CXU)に流す電流のバランスを崩さないようにデューティ比を計算する。システムコントローラ100は、計算されたデューティ比で各ボイスコイルモータVCMYR、VCMYL、VCMXD、VCMXUに駆動電流を流し、固体撮像素子112aを像振れ補正駆動する。これにより、固体撮像素子112aが重力や外乱等に抗して規定の位置に保持されつつ固体撮像素子112aの受光面112aa上での像振れが補正(別の言い方によれば、受光面112aa上での被写体像の入射位置が振れないように固体撮像素子112aの位置が調整)される。 The system controller 100 includes a driver IC for a voice coil motor. The system controller 100 determines the rated power (allowable power) of the driver IC based on the shake detection signal output from the gyro sensor 128 and the position detection signal output from the Hall elements H YR , H YL , H XD , and H XU. Calculate the duty ratio so as not to disturb the balance of the current flowing through each voice coil motor VCM YR , VCM YL , VCM XD , VCM XU (drive coil C YR , C YL , C XD , C XU ) within the range not exceeding To do. The system controller 100 sends a drive current to each of the voice coil motors VCM YR , VCM YL , VCM XD , and VCM XU with the calculated duty ratio to drive the solid-state imaging device 112 a with image blur correction. As a result, the image blur on the light receiving surface 112aa of the solid-state image sensor 112a is corrected while the solid-state image sensor 112a is held at a predetermined position against gravity, disturbance, or the like (in other words, on the light receiving surface 112aa). The position of the solid-state imaging device 112a is adjusted so that the incident position of the subject image does not fluctuate.

(LPF駆動に関する説明)
次に、LPF駆動に関する説明を行う。本実施形態において、像振れ補正装置112は、ボイスコイルモータVCMYR、VCMYL、VCMXD、VCMXUに所定の駆動電流を流すことにより、一回の露光期間に対して、XY平面内において所定の軌跡を描くように可動ステージ112c(固体撮像素子112a)を駆動して、被写体像を固体撮像素子112aの検出色(R、G又はB)の異なる複数の画素に入射させる。これにより、光学的なLPFと同様の効果が得られる。
(Explanation regarding LPF drive)
Next, the LPF driving will be described. In the present embodiment, the image blur correction device 112 causes a predetermined drive current to flow through the voice coil motors VCM YR , VCM YL , VCM XD , and VCM XU , so that the image shake correction device 112 is predetermined in the XY plane for one exposure period. The movable stage 112c (solid-state image sensor 112a) is driven so as to draw a trajectory, and the subject image is incident on a plurality of pixels having different detection colors (R, G, or B) of the solid-state image sensor 112a. Thereby, the same effect as an optical LPF can be obtained.

図5(a)、図5(b)は、LPF駆動の説明を補助する図である。同図に示されるように、固体撮像素子112aの受光面112aa上には、複数の画素PIXが所定の画素ピッチPでマトリックス状に並べて配置されている。説明の便宜上、同図の各画素PIXについて、前面に配置されたフィルタ色に対応させて符号(R、G、Bの何れか1つ)を付す。   FIG. 5A and FIG. 5B are diagrams for assisting the description of the LPF drive. As shown in the figure, on the light receiving surface 112aa of the solid-state imaging device 112a, a plurality of pixels PIX are arranged in a matrix at a predetermined pixel pitch P. For convenience of explanation, each pixel PIX in the figure is given a reference (any one of R, G, and B) corresponding to the filter color arranged on the front surface.

図5(a)は、固体撮像素子112aが光軸AXを中心とする正方形軌跡を描くように駆動される例を示す。この正方形軌跡は、例えば固体撮像素子112aの画素ピッチPを一辺とした正方形の閉じた経路とすることができる。図5(a)の例では、固体撮像素子112aは、X軸方向とY軸方向とに1画素ピッチP単位で交互に且つ正方形経路となるように駆動される。   FIG. 5A shows an example in which the solid-state imaging device 112a is driven so as to draw a square locus centered on the optical axis AX. For example, the square locus can be a square closed path with the pixel pitch P of the solid-state imaging element 112a as one side. In the example of FIG. 5A, the solid-state imaging device 112a is driven so as to alternately form a square path in units of one pixel pitch P in the X-axis direction and the Y-axis direction.

図5(b)は、固体撮像素子112aが光軸AXを中心とする回転対称な円形軌跡を描くように駆動される例を示す。この円形軌跡は、例えば、(P/2)×21/2を半径rとする円形の閉じた経路とすることができる。 FIG. 5B shows an example in which the solid-state imaging device 112a is driven so as to draw a rotationally symmetric circular locus centered on the optical axis AX. This circular locus can be, for example, a circular closed path having a radius r of (P / 2) × .

なお、画素ピッチPを含む駆動軌跡の情報は、システムコントローラ100の内部メモリ又はROM126に予め保持されている。   Note that information on the driving locus including the pixel pitch P is stored in advance in the internal memory of the system controller 100 or the ROM 126.

図5(a)(又は図5(b))に例示されるように、露光期間中、固体撮像素子112aが駆動軌跡の情報に基づいて所定の正方形軌跡(又は円形軌跡)を描くように駆動されると、被写体像が4つのカラーフィルタR、G、B、G(4つ(二行二列)の画素PIX)に均等に入射される。これにより、光学的なLPFと同等の効果が得られる。すなわち、何れのカラーフィルタ(画素PIX)に入射された被写体像も、その周辺のカラーフィルタ(画素PIX)に必ず入射されるため、恰も光学的なLPFを被写体像が通過したときと同等の効果(偽色等のモアレの軽減)が得られる。   As illustrated in FIG. 5A (or FIG. 5B), during the exposure period, the solid-state imaging device 112a is driven to draw a predetermined square locus (or circular locus) based on the information of the drive locus. Then, the subject image is uniformly incident on the four color filters R, G, B, and G (four (two rows and two columns) pixels PIX). Thereby, an effect equivalent to that of an optical LPF can be obtained. In other words, since the subject image incident on any color filter (pixel PIX) is necessarily incident on the surrounding color filter (pixel PIX), the same effect as when the subject image passes through the optical LPF. (Reduction of moiré such as false color) is obtained.

なお、ユーザは、操作部102を操作することにより、像振れ補正駆動、LPF駆動のそれぞれの設定のオン/オフを切り替えることができる。   Note that the user can switch on / off of each setting of image blur correction driving and LPF driving by operating the operation unit 102.

また、ユーザは、操作部102を操作することにより、撮影装置1を、LPF駆動をオンにした状態の撮影とオフにした状態の撮影を連続して行う(LPF駆動のオートブラケット撮影する)ように設定できる。LPF駆動のオートブラケット撮影では、1回のレリーズスイッチの操作で、LPF駆動をオンにした状態で撮影された画像データとLPF駆動をオフにした状態で撮影された画像データの両方が得られる。そのため、ユーザは、撮影する毎にLPF駆動の設定をオンにするか否かを判断する必要がなくなり、撮影時の手間を軽減することができる。   Further, the user operates the operation unit 102 so that the photographing apparatus 1 continuously performs photographing with the LPF driving turned on and photographing with the LPF driving turned off (LPF driving auto bracket photographing). Can be set. In the auto bracket shooting of LPF drive, both the image data shot with the LPF drive turned on and the image data shot with the LPF drive turned off can be obtained by operating the release switch once. Therefore, the user does not need to determine whether or not the LPF drive setting is turned on every time shooting is performed, and the time and effort during shooting can be reduced.

(偽色の検出に関する説明)
次に、本実施形態において撮影画像内に発生する偽色を検出する方法について説明する。ユーザは、操作部102を操作することにより、偽色検出処理の設定のオン/オフを切り替えることができる。
(Explanation regarding false color detection)
Next, a method for detecting a false color generated in a captured image in the present embodiment will be described. The user can switch on / off the setting of the false color detection process by operating the operation unit 102.

図6は、システムコントローラ100により実行される偽色検出フローを示す。偽色検出フローは、画像データの撮影処理ステップS1と、画像データを用いた偽色の検出処理ステップS2を含む。図7及び図8にそれぞれ、撮影処理ステップS1の処理フロー及び検出処理ステップS2の処理フローを示す。本実施形態では、撮影処理ステップS1と検出処理ステップS2の両方が、撮影装置1のシステムコントローラ100により実行される場合について説明する。図6に示される偽色検出フローは、例えば、偽色検出処理の設定がオンになっている状態でレリーズスイッチが押された時点で開始される。なお、偽色検出フローのうち、検出処理ステップS2は、撮影装置1の外部の画像処理装置3のコントローラ300によって実行されてもよい。   FIG. 6 shows a false color detection flow executed by the system controller 100. The false color detection flow includes an image data photographing process step S1 and a false color detection process step S2 using the image data. FIG. 7 and FIG. 8 show the processing flow of the imaging processing step S1 and the processing flow of the detection processing step S2, respectively. In the present embodiment, a case will be described in which both the imaging processing step S1 and the detection processing step S2 are executed by the system controller 100 of the imaging device 1. The false color detection flow shown in FIG. 6 is started, for example, when the release switch is pressed while the false color detection process is set to ON. In the false color detection flow, the detection processing step S2 may be executed by the controller 300 of the image processing device 3 outside the imaging device 1.

[図6のS1(撮影処理)]
図6に示す撮影処理ステップS1について、図7を用いて説明する。
[S1 in FIG. 6 (shooting process)]
The photographing process step S1 shown in FIG. 6 will be described with reference to FIG.

[図7のS11(状態の判定)]
本処理ステップS11では、撮影装置1が静止状態であるか否かが判定される。例示的には、ジャイロセンサ128より入力される振れ検出信号のうち一定周波数以上の信号成分の振幅が一定期間継続してある閾値以内に収まる場合に静止状態と判定される。撮影装置1の静止状態として、典型的には、撮影装置1が三脚に固定された状態が挙げられる。なお、静止状態を含めた撮影装置1の姿勢はジャイロセンサ128に代えて、加速度センサ130、地磁気センサ132、GPSセンサ134など、他のセンサより出力される情報を用いて検出されてもよい。また、検出精度を向上させるため、例えばセンサ・フュージョン技術を適用し、これらのセンサより出力される情報が複合的に用いられるようにしてもよい。
[S11 in FIG. 7 (determination of state)]
In this processing step S11, it is determined whether or not the photographing apparatus 1 is in a stationary state. Illustratively, when the amplitude of a signal component having a frequency equal to or higher than a certain frequency among the vibration detection signals input from the gyro sensor 128 is within a certain threshold continuously for a certain period, it is determined that the camera is stationary. A typical example of the stationary state of the photographing apparatus 1 is a state in which the photographing apparatus 1 is fixed to a tripod. Note that the posture of the photographing apparatus 1 including the stationary state may be detected using information output from other sensors such as the acceleration sensor 130, the geomagnetic sensor 132, and the GPS sensor 134 instead of the gyro sensor 128. In order to improve the detection accuracy, for example, sensor fusion technology may be applied so that information output from these sensors may be used in combination.

撮影装置1が低速シャッタスピード設定下の手持ち撮影状態など、静止状態にない場合は、手振れ(あるいは被写体ぶれ)による被写体のボケに起因して偽色がそもそも発生し難い。従って、本実施形態では、撮影装置1が静止状態である(すなわち、偽色が発生しやすい状態である)と判定された場合に限り(S11:YES)、撮影画像内の偽色を検出すべく、処理ステップS12(第一画像の撮影)以降が実行される。撮影装置1が静止状態にない場合は、処理ステップS12(第一画像の撮影)以降が実行されないため、システムコントローラ100の処理負荷が軽減される。処理ステップS12(第一画像の撮影)以降が実行されない旨は、撮影者に例えばLCD124の表示画面等を通じて通知されてもよい。なお、撮影画像内の偽色の検出を重視したい場合は、撮影装置1が静止状態であるか否かに拘わらず処理ステップS12(第一画像の撮影)以降が実行されてもよい。この場合、処理ステップS12(第一画像の撮影)以降が実行される旨は、撮影者に例えばLCD124の表示画面等を通じて通知されてもよい。また、静止状態の判定閾値は撮影装置1に設定されたシャッタスピードに応じて変更されてもよい。   When the photographing apparatus 1 is not in a stationary state, such as a hand-held photographing state with a low shutter speed setting, a false color is unlikely to occur in the first place due to blurring of the subject due to camera shake (or subject shake). Therefore, in this embodiment, only when it is determined that the photographing apparatus 1 is in a stationary state (that is, in a state in which false color is likely to occur) (S11: YES), the false color in the photographed image is detected. Therefore, processing step S12 (photographing of the first image) and subsequent steps are executed. When the photographing apparatus 1 is not in a stationary state, the processing load of the system controller 100 is reduced because the processing step S12 (first image photographing) and subsequent steps are not executed. The photographer may be notified, for example, via the display screen of the LCD 124 that the processing step S12 (photographing the first image) and subsequent steps are not executed. Note that, when it is important to detect the false color in the photographed image, the processing step S12 (photographing the first image) and subsequent steps may be executed regardless of whether or not the photographing apparatus 1 is in a stationary state. In this case, the photographer may be notified through the display screen of the LCD 124 that the processing step S12 (photographing the first image) and subsequent steps are executed. Further, the determination threshold value for the still state may be changed according to the shutter speed set in the photographing apparatus 1.

[図7のS12(第一画像の撮影)]
図9(a)、図10(a)は、撮影される被写体の一部であって、それぞれ異なる部分を拡大して示す図である。図9(a)に示される被写体は、固体撮像素子112aの画素PIXの画素ピッチPと同ピッチで明暗が交互に現れる斜め縞模様であり、図10(a)に示される被写体は、画素ピッチPと同ピッチで明暗が交互に現れる縦縞模様である。説明の便宜上、図9(a)に示される被写体のうち太実線で囲まれた6×6マスの被写体を「斜め縞被写体9a」と記し、図10(a)に示される被写体のうち太実線で囲まれた6×6マスの被写体を「縦縞被写体10a」と記す。
[S12 in FIG. 7 (shooting the first image)]
FIGS. 9A and 10A are enlarged views showing different parts of the subject to be photographed. The subject shown in FIG. 9A is an oblique stripe pattern in which light and dark appear alternately at the same pitch as the pixel pitch P of the pixel PIX of the solid-state image sensor 112a, and the subject shown in FIG. It is a vertical stripe pattern in which light and dark appear alternately at the same pitch as P. For convenience of explanation, a 6 × 6 square subject surrounded by a thick solid line among the subjects shown in FIG. 9A is referred to as “obliquely striped subject 9a”, and a thick solid line among the subjects shown in FIG. The subject of 6 × 6 square surrounded by is denoted as “vertical stripe subject 10a”.

本処理ステップS12では、AE制御及びAF制御に基づいて適正な輝度及びピントで被写体画像(第一画像)が撮影(一回の露光期間が完結)される。ここでは、斜め縞被写体9aと縦縞被写体10aの何れにもピントが合っているものとする。   In this processing step S12, a subject image (first image) is photographed (one exposure period is completed) with appropriate brightness and focus based on AE control and AF control. Here, it is assumed that both the diagonally striped subject 9a and the vertically striped subject 10a are in focus.

図9(b)、図10(b)はそれぞれ、固体撮像素子112aの各画素PIXの取り込まれる斜め縞被写体9a、縦縞被写体10aを模式的に示す図であり、固体撮像素子112aの受光面112aaを被写体側から正面視した図である。図9(b)及び図10(b)では、図5と同様に、各画素PIXについて、前面に配置されたフィルタ色に対応させて符号(R、G、Bの何れか1つ)を付す。図9(b)、図10(b)の各図中、黒塗りの画素PIXは、縞模様の暗部分を取り込んだことを示し、白塗りの画素PIXは、縞模様の明部分を取り込んだことを示す。また、説明の便宜上、図9(b)、図10(b)の各図に画素のアドレス(数字1〜8、符号イ〜チ)を付す。なお、厳密には、撮影レンズ106の結像作用によって、被写体は上下左右が反転した状態で固体撮像素子112a上に結像される。一例として、「斜め縞被写体9a」の左上角の部分は、固体撮像素子112a上では右下角の部分として結像する。しかし、本実施形態では、説明の煩雑化を避けるため、「斜め縞被写体9a」の左上角の部分は、図9(b)の左上角の部分に対応するものとして説明する。   FIGS. 9B and 10B are diagrams schematically showing the diagonally striped subject 9a and the vertically striped subject 10a captured by each pixel PIX of the solid-state image sensor 112a, and the light receiving surface 112aa of the solid-state image sensor 112a. Is a front view from the subject side. In FIG. 9B and FIG. 10B, as in FIG. 5, each pixel PIX is assigned a code (any one of R, G, and B) corresponding to the filter color arranged on the front surface. . In each of FIGS. 9B and 10B, the black pixel PIX indicates that the dark portion of the striped pattern has been captured, and the white pixel PIX has captured the bright portion of the striped pattern. It shows that. For convenience of explanation, pixel addresses (numerals 1 to 8, symbols 1 to 1) are attached to the diagrams of FIGS. 9B and 10B. Strictly speaking, the subject is imaged on the solid-state imaging device 112a by the imaging action of the photographic lens 106 in a state where the subject is turned upside down. As an example, the upper left corner portion of the “obliquely striped subject 9a” forms an image as the lower right corner portion on the solid-state imaging device 112a. However, in this embodiment, in order to avoid complication of explanation, it is assumed that the upper left corner portion of the “obliquely striped subject 9a” corresponds to the upper left corner portion of FIG. 9B.

[図7のS13(固体撮像素子112aのシフト)]
本処理ステップS13では、可動ステージ112cが駆動されて、固体撮像素子112aの位置が、受光面112aaと平行な面内(XY面内)上でシフト(変化)される。固体撮像素子112aのシフト方向及びシフト量は、ホール素子HYR、HYL、HXD、HXUからの出力を用いて制御される。本実施形態では、本処理ステップS13において、固体撮像素子112aが1画素分の距離だけ右方向にシフトされる。
[S13 in FIG. 7 (Shift of Solid-State Image Sensor 112a)]
In this processing step S13, the movable stage 112c is driven, and the position of the solid-state imaging device 112a is shifted (changed) in a plane parallel to the light receiving surface 112aa (in the XY plane). The shift direction and the shift amount of the solid-state imaging device 112a are controlled using outputs from the Hall elements H YR , H YL , H XD , and H XU . In the present embodiment, in this processing step S13, the solid-state imaging device 112a is shifted rightward by a distance of one pixel.

[図7のS14(第二画像の撮影)]
本処理ステップS14においても、第一画像撮影時のAE制御及びAF制御に基づいて被写体画像(第二画像)が撮影(一回の露光期間が完結)される。
[S14 in FIG. 7 (Taking Second Image)]
Also in this processing step S14, the subject image (second image) is photographed (one exposure period is completed) based on the AE control and AF control at the time of photographing the first image.

図9(c)、図10(c)はそれぞれ、図9(b)、図10(b)と同様の図であり、固体撮像素子112aの各画素PIXの取り込まれる斜め縞被写体9a、縦縞被写体10aを模式的に示す。図9、図10の各図(b)、(c)に示されるように、固体撮像素子112aの受光面112aa上での被写体像の入射位置は、処理ステップS13における固体撮像素子112aのシフト量に応じて(受光面112aa上で左方向に1画素分の距離だけ)シフトする。   FIGS. 9C and 10C are diagrams similar to FIGS. 9B and 10B, respectively, and an obliquely striped subject 9a and a vertically striped subject captured by each pixel PIX of the solid-state imaging device 112a. 10a is schematically shown. As shown in FIGS. 9B and 10B, the incident position of the subject image on the light receiving surface 112aa of the solid-state image sensor 112a is the shift amount of the solid-state image sensor 112a in the processing step S13. According to (shifted by a distance of one pixel in the left direction on the light receiving surface 112aa).

附言するに、本処理ステップS14における撮影条件は、処理ステップS12における撮影時に対して、固体撮像素子112aが1画素分の距離だけ右方向にシフトされた点以外は同一である。そのため、第二画像は、実質的に、第一画像に対して1画素分右方向にシフトした範囲を撮影したものとなっている。図9、図10の各図(b)、(c)から判るように、第二画像において、被写体は、第一画像に対して全体的に1画素分の距離だけ左方向にシフトした位置に写る。   In addition, the imaging conditions in this processing step S14 are the same except that the solid-state imaging device 112a is shifted rightward by a distance of one pixel with respect to the imaging in processing step S12. For this reason, the second image is substantially a photograph of a range shifted to the right by one pixel with respect to the first image. As can be seen from FIGS. 9B and 10B, in the second image, the subject is shifted to the left by a distance of one pixel as a whole with respect to the first image. It is reflected.

[図7のS15(メタデータの付加処理)]
本処理ステップS15では、処理ステップS12で撮影された第一画像の画像データ、及び、処理ステップS14で撮影された第二画像の画像データが生成(記録)され、各画像データにメタデータが付加される。撮影処理ステップS1において生成(記録)された画像データ(偽色検出処理の設定がオンの状態で撮影された画像データ)のメタデータには、通常の撮影処理で生成(記録)された画像データ(偽色検出処理の設定がオフの状態で撮影された画像データ)のメタデータに加え、付加情報が含まれる。付加情報は、例えば、Exif形式のフォーマットに準拠するメタデータのメーカノート(Maker Note)領域に書き込まれる。
[S15 in FIG. 7 (metadata addition processing)]
In this processing step S15, image data of the first image photographed in processing step S12 and image data of the second image photographed in processing step S14 are generated (recorded), and metadata is added to each image data. Is done. The metadata of the image data generated (recorded) in the shooting process step S1 (image data shot with the false color detection process set to ON) includes image data generated (recorded) in the normal shooting process. Additional information is included in addition to the metadata of (image data captured with the false color detection process set to OFF). The additional information is written, for example, in a maker note area of metadata that complies with the format of the Exif format.

図11(a)及び図11(b)は、第一画像の画像データのデータ構造及び第二画像の画像データのデータ構造を示す。メタデータのうち、付加情報以外の項目は、偽色判定処理の設定がオンである場合とオフである場合(図4参照)とで共通である。付加情報は、偽色検出処理の設定がオンの状態で撮影されたことを示す情報、及び、撮影処理ステップS1(処理ステップS12、S14)で生成(記録)された画像データ(即ち、同じ画像グループに含まれる画像データ)が互いに関連していることを示す情報が含まれる。以下では、付加情報の各項目に書き込まれる情報について説明する。   FIG. 11A and FIG. 11B show the data structure of the image data of the first image and the data structure of the image data of the second image. Items of the metadata other than the additional information are common when the false color determination process is set to on and off (see FIG. 4). The additional information includes information indicating that the image is captured with the false color detection process set to ON, and the image data generated (recorded) in the imaging process step S1 (processing steps S12 and S14) (that is, the same image). Information indicating that the image data included in the group is related to each other is included. Below, the information written in each item of additional information is demonstrated.

「偽色検出フラグ」項目には、偽色検出処理の設定がオンとオフの何れの状態であるかを示す情報が書き込まれる。この項目には、例えば、偽色検出処理の設定がオンである場合は「1」が書き込まれ、偽色検出処理の設定がオフである場合は「0」が書き込まれる。なお、偽色検出処理の設定がオフである場合、この項目には情報が書き込まれなくてもよい。   In the “false color detection flag” item, information indicating whether the setting of the false color detection process is on or off is written. In this item, for example, “1” is written when the setting of the false color detection process is on, and “0” is written when the setting of the false color detection process is off. Note that when the setting of the false color detection process is off, information does not have to be written in this item.

「ファイルID」項目には、各画像データを識別するための情報が書き込まれる。「ファイルID」項目に記載される情報は、メタデータの「ファイル名」項目と同じ情報が書き込まれてもよい。ただし、一旦「ファイルID」項目に情報が書き込まれた後は、「ファイル名」項目の情報と「ファイルID」項目の情報は互いに独立した情報となる。例えば、画像データにメタデータが付加された後に、「ファイル名」項目の情報が変更されたとしても、付加情報の「ファイルID」項目の値は変更されずに維持される。   In the “file ID” item, information for identifying each image data is written. As the information described in the “file ID” item, the same information as the “file name” item of the metadata may be written. However, once information is written in the “file ID” item, the information in the “file name” item and the information in the “file ID” item are independent from each other. For example, even if the information of the “file name” item is changed after the metadata is added to the image data, the value of the “file ID” item of the additional information is maintained without being changed.

「グループID」項目には、各画像データが含まれるグループを示す情報が書き込まれる。本実施形態において、1回の撮影処理ステップS1によって生成(記録)される複数の画像データは、同じ画像群(画像グループ)に含まれる。図11(a)、図11(b)に示す例では、第一画像の画像データと第二画像の画像データは何れも同じ画像グループに含まれており、そのグループのIDは「3」である。グループIDは、撮影処理ステップS1が実行される毎に変更される。   In the “group ID” item, information indicating a group including each image data is written. In the present embodiment, a plurality of image data generated (recorded) by one photographing process step S1 is included in the same image group (image group). In the example shown in FIGS. 11A and 11B, the image data of the first image and the image data of the second image are both included in the same image group, and the ID of the group is “3”. is there. The group ID is changed every time the photographing process step S1 is executed.

「撮影枚数」項目には、撮影処理ステップS1における撮影回数(撮影画像の枚数、同じグループに属する画像の枚数)が書き込まれる。本実施形態では、処理ステップS12と処理ステップS14で、計2回の撮影が行われるため、「撮影枚数」項目には「2」が書き込まれる。なお、後述するように、本発明の別の実施形態では、撮影処理S1において3回以上の撮影が行われる。その場合、撮影回数に応じて「撮影枚数」項目に書き込まれる値は変化する。   In the “number of shots” item, the number of shots (number of shot images, number of images belonging to the same group) in the shooting process step S1 is written. In the present embodiment, since a total of two shootings are performed in the processing step S12 and the processing step S14, “2” is written in the “number of shots” item. Note that, as will be described later, in another embodiment of the present invention, three or more shootings are performed in the shooting process S1. In this case, the value written in the “number of shots” item changes according to the number of shots.

「撮影順番」項目には、同じグループに含まれる複数の画像の中での撮影順番が書き込まれる。図11(a)、図11(b)に示す例では、グループ「3」において、第一画像の撮影順番が「1」で、第二画像の撮影順番が「2」である。   In the “shooting order” item, a shooting order among a plurality of images included in the same group is written. In the example shown in FIGS. 11A and 11B, in the group “3”, the shooting order of the first image is “1”, and the shooting order of the second image is “2”.

「撮影時間」項目には、各画像(第一画像、第二画像)が撮影された時間を示す情報が書き込まれる。「撮影時間」項目に書き込まれる時間は、各画像の撮影された時間が区別可能となるように、メタデータの「撮影日時」項目よりも小さい単位(例えば、ミリ秒単位)で書き込まれる。なお、メタデータがExif形式のフォーマットに準拠している場合、この「撮影時間」項目には、メタデータ中の秒以上の単位で日付が書き込まれた「DateTime」項目の値、及び、秒よりも小さい単位の時間が書き込まれた「SubSecTime」項目の値を参照して時間情報が書き込まれてもよい。   In the “shooting time” item, information indicating the time when each image (first image, second image) was shot is written. The time written in the “shooting time” item is written in a unit (for example, in milliseconds) smaller than the “shooting date” item in the metadata so that the time when each image was shot can be distinguished. If the metadata conforms to the format of the Exif format, the “shooting time” item includes the value of the “DateTime” item in which the date is written in units of seconds or more in the metadata, and the second. The time information may be written with reference to the value of the “SubSecTime” item in which the time of a smaller unit is written.

「座標」項目には、各画像が撮影されたときの固体撮像素子112aの位置を示す情報が書き込まれる。固体撮像素子112aの位置は、例えば、光軸AXを基準(座標(0,0))とし、光軸AXに直交するXY面内における座標(X,Y)で示される。位置の単位は、例えば、画素(ピクセル)である。本実施形態では、第一画像の撮影時は、固体撮像素子112aは、座標(0,0)に位置している。また、第二画像の撮影時は、固体撮像素子112aは、右方向へ1画素分シフトしているため、座標は(1,0)である。「座標」項目に書き込まれる値は、例えば、処理ステップS13におけるホール素子HYR、HYL、HXD、HXUからの出力に基づいて決定されてもよい。或いは、処理ステップS13における固体撮像素子112aのシフト量が予め決定されてROM126等の所定の記憶領域に記憶されている場合、「座標」項目に書き込まれる値は、この所定の記憶領域から読み出された値が書き込まれてもよい。 In the “coordinate” item, information indicating the position of the solid-state imaging device 112a when each image is captured is written. The position of the solid-state imaging device 112a is indicated by coordinates (X, Y) in the XY plane orthogonal to the optical axis AX, for example, with the optical axis AX as a reference (coordinates (0, 0)). The unit of position is, for example, a pixel (pixel). In the present embodiment, when the first image is captured, the solid-state imaging device 112a is located at the coordinates (0, 0). Further, when the second image is captured, the solid-state imaging device 112a is shifted by one pixel in the right direction, and thus the coordinates are (1, 0). The value written in the “coordinate” item may be determined based on, for example, outputs from the hall elements H YR , H YL , H XD , and H XU in the processing step S13. Alternatively, when the shift amount of the solid-state imaging device 112a in the processing step S13 is determined in advance and stored in a predetermined storage area such as the ROM 126, the value written in the “coordinate” item is read from the predetermined storage area. The written value may be written.

「前の画像のファイルID」項目には、同じグループに含まれる画像のうち、一つ前に撮影された画像のファイルIDが書き込まれる。図11(a)、図11(b)に示す例では、第一画像は、グループ「3」において最初に撮影された画像であるため、「前の画像のファイルID」項目には、一つ前に撮影された画像が無いことを示す「null」(または「何もない」ことを示す値である「null値」)が書き込まれる。また、第二画像は、グループ「3」において、第一画像の一つ後に撮影された画像であるため、「前の画像のファイルID」項目には、第一画像の画像データのファイルIDである「Image011」が書き込まれる。   In the “file ID of previous image” item, the file ID of the image captured immediately before among the images included in the same group is written. In the example shown in FIGS. 11A and 11B, the first image is the first image taken in the group “3”. “Null” (or “null value” which is a value indicating “nothing”) indicating that there is no previously captured image is written. Further, since the second image is an image taken immediately after the first image in the group “3”, the “file ID of the previous image” item includes the file ID of the image data of the first image. A certain “Image011” is written.

「後の画像のファイルID」項目には、同じグループに含まれる画像のうち、一つ後に撮影された画像のファイルIDが書き込まれる。図11(a)、図11(b)に示す例では、グループ「3」において第一画像の一つ後に撮影された画像は第二画像であるため、第一画像の画像データの「後の画像のファイルID」項目には、第二画像の画像データのファイルIDである「Image012」が書き込まれる。また、グループ「3」において、第二画像の後に撮影された画像は無いため、第二画像の画像データの「後の画像のファイルID」項目には、一つ後に撮影された画像が無いことを示す「null」(またはnull値)が書き込まれる。   In the “file ID of subsequent image” item, the file ID of the image captured immediately after among the images included in the same group is written. In the example shown in FIG. 11A and FIG. 11B, the image taken immediately after the first image in the group “3” is the second image. In the “image file ID” item, “Image012” that is the file ID of the image data of the second image is written. Also, in group “3”, there is no image taken after the second image, and therefore there is no image taken immediately after in the “file ID of the subsequent image” item of the image data of the second image. “Null” (or a null value) is written.

「前の画像のファイルID」項目と「後の画像のファイルID」項目にはそれぞれ、前後に撮影された画像の画像データにおける「ファイル名」項目の値ではなく、「ファイルID」項目の値が書き込まれる。そのため、もし、画像データの「ファイル名」項目の値が変更されたとしても、「前の画像のファイルID」項目と「後の画像のファイルID」項目の値は影響を受けない。   In the “file ID of the previous image” item and the “file ID of the subsequent image” item, the value of the “file ID” item, not the value of the “file name” item in the image data of the images taken before and after, respectively. Is written. For this reason, even if the value of the “file name” item of the image data is changed, the values of the “file ID of the previous image” item and the “file ID of the subsequent image” item are not affected.

付加情報を含むメタデータが付加された画像データは、メモリカード200に保存される。なお、画像データは、メモリカード200ではなく、撮影装置1の内部メモリや、撮影装置1の外部の画像処理装置3のメモリ301に保存されてもよい。   Image data to which metadata including additional information is added is stored in the memory card 200. Note that the image data may be stored not in the memory card 200 but in the internal memory of the photographing apparatus 1 or the memory 301 of the image processing apparatus 3 outside the photographing apparatus 1.

なお、上述の処理では、付加情報がメタデータの一部として画像データに付加されるが、本実施形態におけるメタデータの付加処理はこれに限定されない。例えば、画像データと付加情報は別々にメモリカード等に保存され、画像データと画像データに対応する付加情報を紐付けする情報が、画像データと付加情報の少なくとも一方に付加されてもよい。また、付加情報には、上述の全ての項目が含まれていなくてもよい。要するに、少なくとも「各画像が撮影されたときの固体撮像素子112aの位置を示す情報」が判別できるような情報を各画像データと紐づけて記録しておけば、後々、撮影装置1または外部の画像処理装置3によって偽色の有無の検出を自動または手動で行う際に有効となる。「各画像が撮影されたときの固体撮像素子112aの位置を示す情報」とはストレートには「座標」項目に書き込まれる情報であるが、仮に固体撮像素子112aの位置が「撮影順番」によって固定されているなら、「各画像が撮影されたときの固体撮像素子112aの位置を示す情報」は「座標」項目の値の代わりに「撮影順番」項目の値または「撮影時間」項目の値などから求めることができる。またその他の各項目の情報は、処理を行うユーザの大きな補助になるが、無ければ「偽色検出ができない」わけではない。   In the above-described processing, the additional information is added to the image data as part of the metadata, but the metadata addition processing in the present embodiment is not limited to this. For example, the image data and the additional information may be stored separately in a memory card or the like, and information that associates the image data and the additional information corresponding to the image data may be added to at least one of the image data and the additional information. Further, the additional information may not include all the items described above. In short, if at least “information indicating the position of the solid-state imaging device 112a when each image is photographed” is recorded in association with each image data, the image capturing apparatus 1 or an external device is recorded later. This is effective when the image processing apparatus 3 automatically or manually detects the presence or absence of false colors. “Information indicating the position of the solid-state image sensor 112a when each image is photographed” is information written in the “coordinate” item in a straight line, but the position of the solid-state image sensor 112a is temporarily fixed by “imaging order”. If it is, “the information indicating the position of the solid-state imaging device 112a when each image is photographed” is the value of the “shooting order” item or the value of the “shooting time” item instead of the value of the “coordinate” item. Can be obtained from The information of each other item greatly assists the user who performs the process, but without it, “false color detection cannot be performed” is not possible.

また、上述の処理ステップS12及び処理ステップS14で生成(記録)された第一画像の画像データ及び第二画像の画像データは何れも、画像信号に上述した信号処理(クランプ、デモザイク、マトリクス演算、Y/C分離、ホワイトバランス等)が施され、輝度信号Y、色差信号Cb、Crに変換されて所定のフォーマットで保存されたものである。以下、説明の便宜上、第一画像の色差信号(Cb、Cr)を「第一色差信号」と記し、第二画像の色差信号(Cb、Cr)を「第二色差信号」と記す。また、「注目画素」とは、少なくともデモザイク処理された後の各画像の画素を指すものとする。   In addition, the image data of the first image and the image data of the second image generated (recorded) in the processing step S12 and the processing step S14 described above are all processed by the signal processing (clamping, demosaicing, matrix calculation, Y / C separation, white balance, etc.) are performed, converted into a luminance signal Y and color difference signals Cb, Cr, and stored in a predetermined format. Hereinafter, for convenience of explanation, the color difference signals (Cb, Cr) of the first image are referred to as “first color difference signals”, and the color difference signals (Cb, Cr) of the second image are referred to as “second color difference signals”. The “target pixel” refers to a pixel of each image after at least demosaic processing.

本実施形態では、詳しくは後述するが、第一色差信号と第二色差信号との信号差分値や信号加算値に基づいて偽色の発生が検出される。しかし、コントラストの高いエッジ部分では、偽色が発生していなくても、第一色差信号と第二色差信号との信号差分値が大きくなることがある。この場合、エッジ部分において偽色が発生していると誤検出される虞がある。また、詳しくは後述するが、信号差分値や信号加算値の演算に用いられる第一色差信号と第二色差信号は、同一の被写体像を写す画素の色差信号ではあるが、処理ステップS13にて固体撮像素子112aがシフトされたことが原因で、それぞれ、アドレスが異なる画素を用いてデモザイク処理されている。そのため、第一色差信号と第二色差信号は、同一の被写体像を写す画素の色差信号であるにも拘わらず色情報が極僅かに異なる場合がある。これが、撮影画像上で偽色として現れる。   In the present embodiment, although described in detail later, the occurrence of false colors is detected based on the signal difference value or signal addition value between the first color difference signal and the second color difference signal. However, at the edge portion with high contrast, the signal difference value between the first color difference signal and the second color difference signal may be large even if a false color is not generated. In this case, there is a risk of false detection that a false color has occurred in the edge portion. As will be described in detail later, the first color difference signal and the second color difference signal used for the calculation of the signal difference value and the signal addition value are the color difference signals of the pixels that capture the same subject image, but in processing step S13. Due to the shift of the solid-state imaging device 112a, the demosaic processing is performed using pixels having different addresses. For this reason, the first color difference signal and the second color difference signal may be slightly different in color information even though they are color difference signals of pixels that capture the same subject image. This appears as a false color on the captured image.

[図6のS2(検出処理)]
図6に示す検出処理ステップS2について、図8を用いて説明する。検出処理ステップS2では、撮影処理ステップS1で生成(記録)及び保存された画像データを用いて、偽色の検出処理が行われる。検出処理ステップS2は、撮影処理ステップS1が完了した後に自動的に開始されてもよく、操作部102に対する操作に応じて開始されてもよい。また、画像データが外部の画像処理装置3のメモリ301に保存されている場合、検出処理ステップS2は、画像処理装置3で実行されてもよい。以下では、メモリカード200に画像データが保存されている場合の処理について説明する。
[S2 in FIG. 6 (detection process)]
The detection processing step S2 shown in FIG. 6 will be described with reference to FIG. In the detection processing step S2, false color detection processing is performed using the image data generated (recorded) and stored in the photographing processing step S1. The detection processing step S2 may be automatically started after the photographing processing step S1 is completed, or may be started in response to an operation on the operation unit 102. Further, when the image data is stored in the memory 301 of the external image processing device 3, the detection processing step S <b> 2 may be executed by the image processing device 3. Hereinafter, processing when image data is stored in the memory card 200 will be described.

[図8のS20(メタデータの取得処理)]
本処理ステップS20では、メモリカード200に保存されている各画像データからメタデータが取得される。メモリカード200には、通常の撮影処理で生成(記録)された画像データ(偽色検出処理の設定がオフの状態で撮影された画像データ)と、偽色検出に使用するために撮影処理ステップS1で生成(記録)された画像データ(偽色検出処理の設定がオンの状態で撮影された画像データ)とが保存されている。本処理ステップS20では、通常の撮影処理で生成(記録)された画像データと、撮影処理ステップS1で生成(記録)された画像データとの両方からメタデータが取得される。
[S20 in FIG. 8 (Metadata Acquisition Processing)]
In this processing step S20, metadata is acquired from each image data stored in the memory card 200. In the memory card 200, image data generated (recorded) by a normal shooting process (image data shot with the false color detection process set to OFF) and a shooting process step for use in false color detection are stored. The image data generated (recorded) in S1 (image data captured with the false color detection process set to ON) is stored. In this processing step S20, metadata is acquired from both the image data generated (recorded) in the normal shooting process and the image data generated (recorded) in the shooting process step S1.

[図8のS21(画像データの抽出処理)]
本処理ステップS21では、処理ステップS20で取得されたメタデータを用いて、メモリカード200に保存されている複数の画像データの中から、偽色検出に使用される画像データが抽出される。例示的には、本処理ステップS21では、処理ステップS20で取得されたメタデータに付加情報が含まれるか否かを判定する。次いで、システムコントローラ100は、複数の画像データの中から、付加情報が付加された画像データを抽出する。メタデータに付加情報が含まれているか否かの判定は、例えば、「偽色検出フラグ」項目の値が用いられる。付加情報が含まれる画像データが抽出されると、メモリカード200に保存されている画像データの中から、抽出された画像データのみがLCD124に表示される。LCD124には、選択された画像データのサムネイル画像が表示されてもよく、選択された画像データのメタデータの一部(例えば、ファイル名)が表示されてもよい。
[S21 in FIG. 8 (Image Data Extraction Processing)]
In this processing step S21, image data used for false color detection is extracted from the plurality of image data stored in the memory card 200 using the metadata acquired in the processing step S20. Illustratively, in this processing step S21, it is determined whether or not additional information is included in the metadata acquired in processing step S20. Next, the system controller 100 extracts image data to which additional information is added from among a plurality of image data. For example, the value of the “false color detection flag” item is used to determine whether additional information is included in the metadata. When the image data including the additional information is extracted, only the extracted image data is displayed on the LCD 124 from the image data stored in the memory card 200. The LCD 124 may display a thumbnail image of the selected image data, or may display a part of the metadata (for example, a file name) of the selected image data.

なお、LCD124には、抽出された全ての画像データが表示される必要はない。例えば、「偽色検出フラグ」項目の値が「1」である画像データうち、グループIDで指定される各グループから一つずつ画像データ(例えば、付加情報の「撮影順番」項目の値が「1」である画像データ)が選択されて表示されてもよい。   Note that it is not necessary for the LCD 124 to display all the extracted image data. For example, among the image data whose “false color detection flag” item value is “1”, image data (for example, “shooting order” item value of the additional information is “1” from each group specified by the group ID). 1 ”) may be selected and displayed.

また、本処理ステップS21において、LCD124には、抽出された画像データ(付加情報が含まれている画像データ)と抽出されなかった画像データ(付加情報が含まれていない画像データ)の両方が表示されてもよい。この場合、付加情報が含まれている画像データが、付加情報が含まれていない画像データと識別可能に表示される。例えば、付加情報が含まれている画像データのみが、強調して表示される。   In this processing step S21, the LCD 124 displays both extracted image data (image data including additional information) and image data not extracted (image data not including additional information). May be. In this case, the image data including the additional information is displayed so as to be distinguishable from the image data not including the additional information. For example, only image data including additional information is displayed with emphasis.

なお、本処理ステップS21において、メタデータに付加情報が含まれているか否かの判定処理及び画像データを抽出処理には、「偽色検出フラグ」項目以外の項目の値が使用されてもよい。例えば、これらの処理には、「各画像が撮影されたときの固体撮像素子112aの位置を示す情報」が用いられてもよい。この「各画像が撮影されたときの固体撮像素子112aの位置を示す情報」は、具体的には、「座標」項目の情報、「撮影順番」項目の情報、又は、「撮影時間」項目の情報等である。或いは、本処理ステップS21では、「撮影処理ステップS1で生成(記録)された画像データ(即ち、同じ画像グループに含まれる画像データ)が互いに関連していることを示す情報」が用いられてもよい。この「撮影処理ステップS1で生成(記録)された画像データが互いに関連していることを示す情報」は、具体的には、「グループID」項目の情報、「撮影枚数」項目の情報、「撮影順番」項目の情報、「前の画像のファイルID」項目の情報、「後の画像のファイルID」項目の情報等である。更に、本処理ステップS21では、付加情報に含まれる複数の項目の情報の組み合わせが用いられてもよい。   In this processing step S21, values of items other than the “false color detection flag” item may be used for the determination processing of whether additional information is included in the metadata and the image data extraction processing. . For example, “information indicating the position of the solid-state imaging device 112a when each image is captured” may be used for these processes. Specifically, the “information indicating the position of the solid-state imaging device 112a when each image is photographed” is information of “coordinate” item, information of “shooting order” item, or “shooting time” item. Information etc. Alternatively, in the present processing step S21, “information indicating that the image data generated (recorded) in the photographing processing step S1 (that is, image data included in the same image group) is related to each other” is used. Good. Specifically, the “information indicating that the image data generated (recorded) in the shooting process step S1 are related to each other” includes information on the “group ID” item, information on the “number of shots” item, “ Information of “shooting order” item, information of “file ID of previous image” item, information of “file ID of subsequent image” item, and the like. Furthermore, in this process step S21, the combination of the information of the some item contained in additional information may be used.

[図8のS22(画像データの指定処理)]
本処理ステップS22では、処理ステップS21において抽出され、LCD124に表示された画像データの中から、偽色検出を行う画像データの指定(選択)を受け付ける。例示的には、システムコントローラ100は、LCD124に表示されている複数の画像データの中の一つの指定を受け付ける。この指定は、ユーザによる操作部102への操作によって行われる。システムコントローラ100は、ユーザによって指定された画像データのグループIDを読み取り、読み取ったグループIDと同じグループIDを有する画像データを、偽色検出に用いる画像データとして指定する。本処理ステップS22で指定される画像データの数は、ユーザによって指定された画像データの付加情報に記載されている「撮影枚数」項目に書き込まれた値と同じである。なお、処理ステップS21において抽出された画像データの全てが同じグループIDを有している場合、本処理ステップS22は省略されてもよい。
[S22 in FIG. 8 (Process for Specifying Image Data)]
In this processing step S22, designation (selection) of image data for performing false color detection is received from the image data extracted in processing step S21 and displayed on the LCD 124. For example, the system controller 100 accepts one designation among a plurality of image data displayed on the LCD 124. This designation is performed by an operation on the operation unit 102 by the user. The system controller 100 reads the group ID of the image data designated by the user, and designates image data having the same group ID as the read group ID as image data used for false color detection. The number of image data specified in this processing step S22 is the same as the value written in the “number of shots” item described in the additional information of the image data specified by the user. If all the image data extracted in the processing step S21 has the same group ID, this processing step S22 may be omitted.

以下では、本処理ステップS22において、第一画像の画像データ及び第二画像の画像データが指定されたとして説明する。   In the following description, it is assumed that the image data of the first image and the image data of the second image are designated in this processing step S22.

[図5のS23(アドレスの変換)]
本実施形態では、撮影画像内において偽色が発生する偽色発生領域が画素単位で検出される。この場合、偽色の検出精度を向上させるため、同一の被写体像が入射される注目画素同士で信号差分値や信号加算値を演算することが望ましい。そこで、本処理ステップS23では、同一の被写体像が同一アドレスの画素に入射されたものとして処理されるように、第二画像を構成する各画素のアドレスが、処理ステップS13における固体撮像素子112aのシフト方向及びシフト量(換言すると、固体撮像素子112aの受光面112aa上での被写体像の入射位置のシフト方向及びシフト量)に応じて変換される。このアドレスの変換は、各画像データに付加されている付加情報、例示的には「座標」項目の値(座標情報)や「各画像が撮影されたときの固体撮像素子112aの位置を示す情報」、に基づいて行われる。
[S23 in FIG. 5 (address conversion)]
In the present embodiment, a false color generation area in which a false color is generated in a captured image is detected on a pixel basis. In this case, in order to improve the false color detection accuracy, it is desirable to calculate the signal difference value and the signal addition value between the target pixels on which the same subject image is incident. Therefore, in this processing step S23, the addresses of the respective pixels forming the second image are processed by the solid-state imaging device 112a in the processing step S13 so that the same subject image is processed as being incident on the pixels having the same address. Conversion is performed according to the shift direction and the shift amount (in other words, the shift direction and shift amount of the incident position of the subject image on the light receiving surface 112aa of the solid-state imaging device 112a). This address conversion is performed by adding additional information added to each image data, for example, the value of the “coordinate” item (coordinate information) or “information indicating the position of the solid-state imaging device 112a when each image is captured. ”.

まず、各画像データに付加された付加情報のうち「座標」項目の値に基づいて、各画像の撮影時における固体撮像素子112aの位置が判定される。図11(a)、図11(b)に示す例では、固体撮像素子112aが座標(0,0)にあるときに第一画像が撮影され、その後、固体撮像素子112aが座標(1,0)へシフトされて第二画像が撮影されている。この場合の固体撮像素子112aのシフト方向は右方向であり、シフト量は1画素である。換言すると、第二画像は、第一画像に対し、受光面112aa上の被写体像が左方向へ1画素分移動した状態で撮影されたものである。そのため、本処理ステップS23では、第二画像の各画素のアドレスが、被写体像の移動方向とは反対の右方向へ1画素分移動するように変換される。一例として、図9(c)の画素PIXbのアドレス(ハ,2)は、被写体像の入射位置のシフト量に応じて右方向に1画素シフトしたときに位置する画素、すなわち、画素PIXbと同一の被写体像を取り込む画素PIXa(図9(b)参照)と同一のアドレス(ニ,2)に変換される。   First, based on the value of the “coordinate” item in the additional information added to each image data, the position of the solid-state imaging device 112a at the time of shooting each image is determined. In the example shown in FIGS. 11A and 11B, the first image is taken when the solid-state image sensor 112a is at the coordinates (0, 0), and then the solid-state image sensor 112a is at the coordinates (1,0). ) And the second image is taken. In this case, the shift direction of the solid-state imaging device 112a is rightward, and the shift amount is one pixel. In other words, the second image is taken with the subject image on the light receiving surface 112aa moved leftward by one pixel with respect to the first image. Therefore, in this processing step S23, the address of each pixel of the second image is converted so as to move by one pixel in the right direction opposite to the moving direction of the subject image. As an example, the address (c, 2) of the pixel PIXb in FIG. 9C is the same as the pixel that is located when the pixel PIXb is shifted by one pixel in the right direction according to the shift amount of the incident position of the subject image, that is, the pixel PIXb. Are converted into the same address (d, 2) as the pixel PIXa (see FIG. 9B) for capturing the subject image.

なお、本処理ステップS23において、仮に撮影順番に応じて各画像の撮影時における固体撮像素子112aの位置が固定されている場合等、「座標」項目の値の代わりに、付加情報のうち「撮影順番」項目の値や「撮影時間」項目の情報を用いて各画像の撮影時における固体撮像素子112aの位置が判定されてもよい。或いは、各画像の撮影順番は、「前の画像のファイルID」及び「後の画像のファイルID」項目の情報を用いて判定されてもよい。   In this processing step S23, instead of the value of the “coordinate” item, “shooting” is performed instead of the value of the “coordinate” item, for example, when the position of the solid-state imaging device 112a at the time of shooting each image is fixed according to the shooting order The position of the solid-state imaging device 112a at the time of shooting each image may be determined using the value of the “order” item or the information of the “shooting time” item. Alternatively, the shooting order of each image may be determined using information of the “file ID of the previous image” and the “file ID of the subsequent image”.

[図8のS24(色差信号の差分値の演算)]
斜め縞被写体9a及び縦縞被写体10aは、固体撮像素子112aの画素PIXの画素ピッチPと同ピッチの高周波成分を含む。そのため、斜め縞被写体9a及び縦縞被写体10aの画像信号が処理ステップS12、処理ステップS14においてデモザイク処理されると、偽色が発生する。
[S24 in FIG. 8 (Calculation of Difference Value of Color Difference Signal)]
The oblique stripe subject 9a and the vertical stripe subject 10a include a high-frequency component having the same pitch as the pixel pitch P of the pixel PIX of the solid-state image sensor 112a. Therefore, when the image signals of the diagonally striped subject 9a and the vertically striped subject 10a are demosaiced in the processing step S12 and the processing step S14, a false color is generated.

具体的には、図9(b)の例では、G成分の画素PIXの輝度が高く、R及びB成分の画素PIXの輝度が低い。そのため、デモザイク処理後の各画素PIXの色情報はG成分が支配的となって、斜め縞被写体9aに緑色の偽色が発生する。一方、図9(c)の例では、図9(b)の例とは反対に、R及びB成分の画素PIXの輝度が高く、G成分の画素PIXの輝度が低い。そのため、デモザイク処理後の各画素PIXの色情報はR及びB成分が支配的となって、斜め縞被写体9aに紫色の偽色が発生する。   Specifically, in the example of FIG. 9B, the luminance of the G component pixel PIX is high, and the luminance of the R and B component pixels PIX is low. Therefore, the G component is dominant in the color information of each pixel PIX after the demosaic process, and a green false color is generated in the diagonally striped subject 9a. On the other hand, in the example of FIG. 9C, the luminance of the R and B component pixels PIX is high and the luminance of the G component pixel PIX is low, contrary to the example of FIG. 9B. Therefore, R and B components are dominant in the color information of each pixel PIX after demosaic processing, and a purple false color is generated in the diagonally striped subject 9a.

また、図10(b)の例では、B成分の画素PIXの輝度が高く、R成分の画素PIXの輝度が低い。そのため、デモザイク処理後の各画素PIXの色情報はBとGとの混色成分となって、青と緑との中間色(例えばシアン色中心の近傍色)の偽色が発生する。一方、図10(c)の例では、図10(b)の例とは反対に、R成分の画素PIXの輝度が高く、B成分の画素PIXの輝度が低い。そのため、デモザイク処理後の各画素PIXの色情報はRとGとの混色成分となって、赤と緑の中間色(橙色中心の近傍色)の偽色が発生する。   In the example of FIG. 10B, the luminance of the B component pixel PIX is high and the luminance of the R component pixel PIX is low. Therefore, the color information of each pixel PIX after the demosaic processing becomes a mixed color component of B and G, and a false color of an intermediate color between blue and green (for example, a color near the cyan color center) is generated. On the other hand, in the example of FIG. 10C, the luminance of the R component pixel PIX is high and the luminance of the B component pixel PIX is low, contrary to the example of FIG. Therefore, the color information of each pixel PIX after the demosaic processing becomes a mixed color component of R and G, and a false color of an intermediate color between red and green (a color near the orange center) is generated.

図12は、Cb、Crの二軸で定義される色空間を示す。図12中、符号9bは、図9(b)の例において注目画素で発生する緑色の偽色に対応するプロットであり、符号9cは、図9(c)の例において注目画素で発生する紫色の偽色に対応するプロットであり、符号10bは、図10(b)の例において注目画素で発生する青と緑との中間色の偽色に対応するプロットであり、符号10cは、図10(c)の例において注目画素で発生する赤と緑の中間色の偽色に対応するプロットである。下記は、各プロットの座標情報を示す。なお、原点Oは座標(0,0)である。
プロット9b: (Cb,Cr)=(−M,−N)
プロット9c: (Cb,Cr)=(M,N)
プロット10b:(Cb,Cr)=(M’,−N’)
プロット10c:(Cb,Cr)=(−M’+α,N’+β)
但し、M,N,M’,N’,α,βは何れも正数である。
FIG. 12 shows a color space defined by two axes of Cb and Cr. In FIG. 12, reference numeral 9b is a plot corresponding to the green false color generated at the target pixel in the example of FIG. 9B, and reference numeral 9c is a purple color generated at the target pixel in the example of FIG. 9C. 10b is a plot corresponding to a false color of an intermediate color between blue and green generated in the target pixel in the example of FIG. 10B, and reference numeral 10c is a plot corresponding to FIG. It is a plot corresponding to the false color of the intermediate color of red and green generated in the target pixel in the example of c). The following shows the coordinate information of each plot. The origin O is the coordinates (0, 0).
Plot 9b: (Cb, Cr) = (− M, −N)
Plot 9c: (Cb, Cr) = (M, N)
Plot 10b: (Cb, Cr) = (M ′, −N ′)
Plot 10c: (Cb, Cr) = (− M ′ + α, N ′ + β)
However, all of M, N, M ′, N ′, α, and β are positive numbers.

本実施形態では、固体撮像素子112aの画素PIXの画素ピッチPと同程度の高周波成分の被写体像を取り込んだときに発生する偽色の色自体が、受光面112aa上での被写体像の入射位置をシフトさせることによって変化することを利用して偽色が発生する箇所(注目画素)を検出している。より詳細には、高周波成分の被写体像が取り込まれる注目画素において、第一色差信号と第二色差信号が持つ色情報が互いに補色の関係となる部分を、偽色が発生する部分であると判断し検出している。   In the present embodiment, the false color itself generated when a subject image having a high frequency component equivalent to the pixel pitch P of the pixel PIX of the solid-state image sensor 112a is captured is the incident position of the subject image on the light receiving surface 112aa. A portion (a pixel of interest) where a false color is generated is detected by utilizing the change caused by shifting. More specifically, in a pixel of interest in which a high-frequency component subject image is captured, a portion in which the color information of the first color difference signal and the second color difference signal has a complementary color relationship is determined to be a portion where a false color is generated. It is detected.

本実施形態では、上記の補色関係を得るべく、受光面112aa上での被写体像の入射位置が左方向(水平の画素の並び方向)に1画素分シフト(固体撮像素子112aが被写体像に対して右方向に1画素分シフト)されているが、本発明はこれに限らない。シフト方向は、例示的には、右方向(水平の画素の並び方向)であってもよく、又は、上方向(垂直な画素の並び方向)、下方向(垂直な画素の並び方向)、右上、右下、左上、左下の各斜め方向(水平、垂直の各並び方向に対して45度をなす方向)など、画素配置に応じた他の方向であってもよいし、併用してもよい。また、シフト距離は、例示的には、3画素分、5画素分など、他の奇数画素分の距離であってもよく、また、半画素分又は半画素分+奇数画素分(例えば1.5画素分、2.5画素分等)であってもよく(すなわち、n画素分又は(m+0.5)画素分(但し、n=奇数の自然数,m=0又は奇数の自然数)の何れかであればよく)、シフト駆動する機構の精度に応じて選択できることもできる。また、シフト距離は、撮影対象の被写体や撮影条件によっては、偶数画素分及びその近傍(例えば1.9〜2.1画素分等)以外の距離であればよい。これらの量(方向及び距離)で受光面112aa上での被写体像の入射位置がシフトされる場合も、高周波成分の被写体像が取り込まれる(偽色が発生する)注目画素において、第一色差信号と第二色差信号が持つ色情報が互いに補色の関係となることから、偽色の発生が検出できる。   In the present embodiment, in order to obtain the above complementary color relationship, the incident position of the subject image on the light receiving surface 112aa is shifted by one pixel in the left direction (horizontal pixel arrangement direction) (the solid-state imaging device 112a is shifted from the subject image). However, the present invention is not limited to this. For example, the shift direction may be the right direction (horizontal pixel arrangement direction), or the upper direction (vertical pixel arrangement direction), the lower direction (vertical pixel arrangement direction), or the upper right direction. , Lower right, upper left, lower left diagonal directions (directions forming 45 degrees with respect to horizontal and vertical arrangement directions), or other directions according to the pixel arrangement may be used together. . In addition, the shift distance may be, for example, a distance corresponding to another odd pixel such as 3 pixels or 5 pixels, or a half pixel or a half pixel plus an odd pixel (for example, 1.. 5 pixels, 2.5 pixels, etc.) (ie, n pixels or (m + 0.5) pixels (where n = odd natural number, m = 0 or odd natural number) However, it can be selected according to the accuracy of the mechanism for shift driving. Further, the shift distance may be a distance other than the even number of pixels and the vicinity thereof (for example, 1.9 to 2.1 pixels) depending on the subject to be photographed and the photographing conditions. Even when the incident position of the subject image on the light receiving surface 112aa is shifted by these amounts (direction and distance), the first color difference signal is obtained at the target pixel in which the subject image of the high frequency component is captured (false color is generated). Since the color information of the second color difference signal and the second color difference signal are complementary to each other, the occurrence of false color can be detected.

本処理ステップS24では、処理ステップS23におけるアドレス変換後において(以下、同様)、アドレスが同一の注目画素毎に、第一色差信号と第二色差信号との差分値(Cbsub,Crsub)が演算される。具体的には、第一色差信号のCb、CrをそれぞれCb1、Cr1と定義し、これと同一アドレスの第二色差信号のCb、CrをそれぞれCb2、Cr2と定義した場合に、差分値(Cbsub,Crsub)は次式により演算される。
Cbsub=Cb1−Cb2
Crsub=Cr1−Cr2
In this processing step S24, after the address conversion in the processing step S23 (hereinafter the same), the difference value (Cb sub , Cr sub ) between the first color difference signal and the second color difference signal is obtained for each target pixel having the same address. Calculated. Specifically, when the Cb and Cr of the first color difference signal are defined as Cb1 and Cr1, respectively, and the Cb and Cr of the second color difference signal of the same address are defined as Cb2 and Cr2, respectively, the difference value (Cb sub , Cr sub ) is calculated by the following equation.
Cb sub = Cb1-Cb2
Cr sub = Cr1-Cr2

[図8のS25(第一の距離情報の演算)]
本処理ステップS25では、アドレスが同一の注目画素毎に、第一色差信号と第二色差信号との色空間内での距離(第一の距離情報Saturation_sub)が次式により演算される。
Saturation_sub=(Cbsub +Crsub 1/2
[S25 in FIG. 8 (Calculation of First Distance Information)]
In the process step S25, address for each identical target pixel, a distance in the color space of the first color difference signal and a second color difference signal (the first distance information Saturation_ sub) is calculated by the following equation.
Saturation_ sub = (Cb sub 2 + Cr sub 2) 1/2

第一の距離情報Saturation_subは、図12の各プロット対(プロット6bとプロット6c、プロット7bとプロット7c)の例でそれぞれ、2(M+N1/2、{(2M’−α)+(2N’+β)1/2となる。 The first distance information Saturation_ sub are each an example of each plot pair of FIG. 12 (plot 6b and plot 6c, plots 7b and plot 7c), 2 (M 2 + N 2) 1/2, {(2M'-α ) 2 + (2N ′ + β) 2 } 1/2 .

図12の各プロット対の位置関係から把握されるように、第一色差信号と第二色差信号が持つ色情報が強い補色関係にあるほど第一の距離情報Saturation_subが大きくなり、第一色差信号と第二色差信号が持つ色情報が補色関係にない(例えば同様の色相である)ほど第一の距離情報Saturation_subが小さくなる。すなわち、第一の距離情報Saturation_subは、偽色発生領域でなければ理想的にはゼロであり、偽色が強く発生する偽色発生領域ほど大きくなる。 As understood from the positional relationship of each plot pair of FIG. 12, as the color information with the first color difference signal and a second color difference signal is strong complementary relationship first distance information Saturation_ sub increases, first color difference signal and the color information having the second color difference signal is not (for example similar hue) in complementary relationship as the first distance information Saturation_ sub decreases. That is, the first distance information Saturation_ sub ideally if false color occurrence region is zero, the larger the false color occurrence region in which false color is generated strongly.

[図8のS26(色差信号の加算値の演算)]
本処理ステップS26では、アドレスが同一の注目画素毎に、第一色差信号と第二色差信号との加算値(Cb’add,Cr’add)が演算される。
[S26 in FIG. 8 (Calculation of Addition Value of Color Difference Signal)]
In this processing step S26, an added value (Cb ′ add , Cr ′ add ) of the first color difference signal and the second color difference signal is calculated for each target pixel having the same address.

具体的には、本処理ステップS26では、暫定加算値(Cbadd,Cradd)が次式により演算される。
Cbadd=Cb1+Cb2
Cradd=Cr1+Cr2
Specifically, in this processing step S26, provisional addition values (Cb add , Cr add ) are calculated by the following equations.
Cb add = Cb1 + Cb2
Cr add = Cr1 + Cr2

次いで、暫定加算値の平均値(Cbmean,Crmean)が次式により演算される。
Cbmean=Cbadd/2
Crmean=Cradd/2
Next, the average value (Cb mean , Cr mean ) of the provisional addition values is calculated by the following equation.
Cb mean = Cb add / 2
Cr mean = Cr add / 2

次いで、加算値(Cb’add,Cr’add)が次式により演算される。
Cb’add=Cbadd−Cbmean
Cr’add=Cradd−Crmean
Next, the added value (Cb ′ add , Cr ′ add ) is calculated by the following equation.
Cb ′ add = Cb add −Cb mean
Cr ′ add = Cr add −Cr mean

[図8のS27(第二の距離情報の演算)]
本処理ステップS27では、アドレスが同一の注目画素毎に、加算値(Cb’add,Cr’add)に基づいて色空間内における第二の距離情報Saturation_addが次式により演算される。
Saturation_add=(Cb’add +Cr’add 1/2
[S27 in FIG. 8 (Calculation of Second Distance Information)]
In the process step S27, address for each identical target pixel, the addition value (Cb 'add, Cr' add ) the second distance information Saturation_ the add in a color space based on the calculation by the following equation.
Saturation_ add = (Cb 'add 2 + Cr' add 2) 1/2

第二の距離情報Saturation_addは、図12の各プロット対(プロット9bとプロット9c、プロット10bとプロット10c)の例でそれぞれ、ゼロ、(α+β1/2となる。 Second distance information Saturation_ the add each example of each plot pair of FIG. 12 (plot 9b and plot 9c, plots 10b and plot 10c), zero, and (α 2 + β 2) 1/2 .

ここで、第一、第二の各色差信号は、画像撮影時の光源、露出条件、ホワイトバランス等の影響を受けて変化する。しかし、第一、第二の各色差信号が同じように変化するため、色空間内における互いの相対距離(すなわち、第一の距離情報Saturation_sub)は変化が少ない。 Here, the first and second color difference signals change under the influence of the light source, the exposure condition, the white balance and the like at the time of image capturing. However, first, since the second respective color difference signals varies in the same way, mutual relative distance in the color space (i.e., the first distance information Saturation_ sub) changes little.

一方、第二の距離情報Saturation_addは、第一、第二の各色差信号が画像撮影時の光源、露出条件、ホワイトバランス等の影響を受けて色空間の原点Oの位置に対して変化すると、大きく変化する。そこで、処理ステップS26では、第二の距離情報Saturation_addを暫定加算値(Cbadd,Cradd)を用いて即座には演算せず、上記影響による原点Oに対する位置の変化を相殺又は軽減すべく(上記影響により、原点Oから離れた第一色差信号と第二色差信号との中点を原点Oに近付けるべく)、加算値(Cb’add,Cr’add)が演算されている。 On the other hand, the second distance information Saturation_ the add, the first, second light source for the respective color difference signal imaging, exposure conditions, the changes relative to the position of the origin O of the color space under the influence of such as white balance , Change a lot. Therefore, in the process step S26, the second distance information Saturation_ the add provisional sum value (Cb add, Cr add) without operation immediately using, to offset or reduce the change in position with respect to the origin O by the impact The added values (Cb ′ add , Cr ′ add ) are calculated (in order to bring the midpoint between the first color difference signal and the second color difference signal away from the origin O closer to the origin O due to the above influence).

図12の各プロット対の位置関係から把握されるように、第一色差信号と第二色差信号が持つ色情報が補色関係にある場合は、互いの符号が逆となることから加算値(Cb’add,Cr’add)が小さくなって、第二の距離情報Saturation_addが小さくなる。また、強い補色関係であるほど第二の距離情報Saturation_addが小さくなって、理想的にはゼロとなる。一方、第一色差信号と第二色差信号が持つ色情報が補色関係にない(例えば同様の色相である)場合は、互いの符号が同一となることから、加算値(Cb’add,Cr’add)が大きくなって、第二の距離情報Saturation_addが大きくなる。すなわち、第二の距離情報Saturation_addは、偽色発生領域でなければ大きくなり、偽色発生領域であれば小さくなる。 As can be understood from the positional relationship between each pair of plots in FIG. 12, when the color information of the first color difference signal and the second color difference signal has a complementary color relationship, the signs are opposite to each other, so that the added value (Cb 'add, Cr' add) is decreased, the second distance information Saturation_ the add decreases. The second distance information Saturation_ to add becomes smaller as is strong complementary relationship, the zero ideally. On the other hand, when the color information of the first color difference signal and the second color difference signal is not in a complementary color relationship (for example, the same hue), the signs are the same, so the added values (Cb ′ add , Cr ′) add) and increases, the second distance information Saturation_ the add increases. That is, the second distance information Saturation_ the add is larger if false color occurrence region decreases if false color occurrence region.

[図8のS28(輝度信号の差分値の演算)]
説明の便宜上、第一画像の輝度信号Yを「第一輝度信号」と記し、第二画像の輝度信号Yを「第二輝度信号」と記す。本処理ステップS28では、アドレスが同一の注目画素毎に、第一輝度信号と第二輝度信号との差分値Ydiffが演算される。具体的には、本処理ステップS28では、第一輝度信号をY1と定義し、第二輝度信号をY2と定義した場合に、差分値Ydiffが次式により演算される。
diff=|Y1−Y2|
[S28 in FIG. 8 (Calculation of Difference Value of Luminance Signal)]
For convenience of explanation, the luminance signal Y of the first image is denoted as “first luminance signal”, and the luminance signal Y of the second image is denoted as “second luminance signal”. In this processing step S28, a difference value Y diff between the first luminance signal and the second luminance signal is calculated for each target pixel having the same address. Specifically, in this processing step S28, when the first luminance signal is defined as Y1 and the second luminance signal is defined as Y2, the difference value Y diff is calculated by the following equation.
Y diff = | Y1-Y2 |

[図8のS29(偽色発生領域の判定)]
本処理ステップS29では、アドレスが同一の注目画素毎に、偽色発生領域であるか否かが判定される。具体的には、次の条件(1)〜(3)が全て満たされる場合に、当該画素が偽色発生領域であると判定される。
[S29 in FIG. 8 (Determination of False Color Generation Area)]
In this processing step S29, it is determined whether or not each pixel of interest having the same address is a false color generation region. Specifically, when all of the following conditions (1) to (3) are satisfied, it is determined that the pixel is a false color generation region.

・条件(1)
上述したように、第一の距離情報Saturation_subが大きいほど第一色差信号と第二色差信号が持つ色情報が強い補色関係となることから、当該注目画素が偽色発生領域である可能性が高い。そこで、条件(1)は次のように規定される。
条件(1):Saturation_sub≧閾値T1
・ Condition (1)
As described above, since the color information having the first color difference signal the larger the first distance information Saturation_ sub and the second color difference signal is strong complementary relationship, likely the target pixel is false color occurrence region is high. Therefore, condition (1) is defined as follows.
Condition (1): Saturation_ sub ≧ threshold T1

・条件(2)
上述したように、第二の距離情報Saturation_addが小さいほど第一色差信号と第二色差信号が持つ色情報が強い補色関係となることから、当該注目画素が偽色発生領域である可能性が高い。そこで、条件(2)は次のように規定される。
条件(2):Saturation_add≦閾値T2
・ Condition (2)
As described above, since the color information having the second distance information Saturation_ the add is small enough first color difference signal and a second color difference signal is strong complementary relationship, likely the target pixel is false color occurrence region is high. Therefore, condition (2) is defined as follows.
Condition (2): Saturation_ add ≦ threshold T2

処理ステップS12にて撮影された第一画像と処理ステップS14にて撮影された第二画像の一方だけで大きな像振れが発生した場合を考える。この場合、第一色差信号と第二色差信号との差分が大きくなって、偽色が誤検出される虞がある。そこで、条件(3)は次のように規定される。
条件(3):Ydiff≦閾値T3
Consider a case where a large image blur occurs in only one of the first image photographed in the processing step S12 and the second image photographed in the processing step S14. In this case, the difference between the first color difference signal and the second color difference signal becomes large, and there is a possibility that a false color is erroneously detected. Therefore, the condition (3) is defined as follows.
Condition (3): Y diff ≦ threshold value T3

すなわち、差分値Ydiffが閾値T3よりも大きい場合は、上記の誤検出の虞があることから、当該注目画素に対する偽色の検出が行われない(当該注目画素が偽色発生領域でないものとして処理される。)。 That is, when the difference value Y diff is larger than the threshold value T3, there is a risk of the erroneous detection described above, so that false color detection for the target pixel is not performed (assuming that the target pixel is not a false color generation region). It is processed.).

なお、条件(1)と条件(2)は、当該注目画素が偽色発生領域であるか否かを直接的に判定する条件となっている。そこで、別の実施形態では、条件(1)と条件(2)の少なくとも一方が満たされる場合に、当該注目画素が偽色発生領域であると判定されるようにしてもよい。   Condition (1) and condition (2) are conditions for directly determining whether or not the target pixel is a false color generation region. Therefore, in another embodiment, when at least one of the condition (1) and the condition (2) is satisfied, the target pixel may be determined to be a false color generation region.

また、ユーザは、操作部102を操作して閾値T1〜T3を設定変更することにより、偽色の検出感度を変更することができる。   Further, the user can change the false color detection sensitivity by operating the operation unit 102 to change the settings of the threshold values T1 to T3.

[図8のS30(偽色の検出)]
本処理ステップS30では、偽色の有無が検出される。例示的には、処理ステップS29において偽色発生領域と判定された注目画素数(又は全有効画素数のうち偽色発生領域と判定された注目画素の割合)が所定の閾値以上である場合に、偽色有りという検出結果となり、該注目画素数(又は割合)が所定の閾値未満である場合に、偽色無しという検出結果となる。
[S30 in FIG. 8 (detection of false color)]
In this processing step S30, the presence or absence of a false color is detected. Illustratively, when the number of target pixels determined as a false color generation region in processing step S29 (or the ratio of the target pixels determined as a false color generation region out of the total number of effective pixels) is equal to or greater than a predetermined threshold value. When the number of pixels of interest (or the ratio) is less than a predetermined threshold, the detection result is that there is no false color.

検出処理S2による偽色の検出結果は、被写体の撮影処理や、LCD124等の表示装置を通したユーザへの報知に使用される。   The detection result of the false color by the detection process S2 is used for the photographing process of the subject and the notification to the user through the display device such as the LCD 124.

例示的には、検出処理S2が撮影装置1のシステムコントローラ100により実行されており、且つ、偽色有りと判定された場合、LPF駆動下で被写体の撮影が再度行われてもよい。これにより、偽色が抑えられた画像を得ることができる。なお、撮影処理S1が既にLPF駆動下で行われており、その状態で偽色が検出された場合、更に強い光学的なLPF効果(偽色等のモアレの軽減)が得られるように、固体撮像素子112aの駆動周期(回転周期)や駆動振幅(回転半径)が調整される。すなわち、偽色を軽減するためのより有利な撮影条件に変更される。撮影条件が変更されると、被写体の撮影が再度行われる。   Illustratively, if the detection process S2 is executed by the system controller 100 of the photographing apparatus 1 and it is determined that there is a false color, the subject may be photographed again under LPF driving. Thereby, an image in which false colors are suppressed can be obtained. It should be noted that when the photographing process S1 has already been performed under LPF driving and a false color is detected in that state, a solid optical so that a stronger optical LPF effect (reduction of moire such as false color) can be obtained. The drive cycle (rotation cycle) and drive amplitude (rotation radius) of the image sensor 112a are adjusted. That is, it is changed to a more advantageous shooting condition for reducing false colors. When the shooting condition is changed, the subject is shot again.

また、例示的には、検出処理S2で偽色有りと判定された場合、画像(第一画像と第二画像の何れか一方又は両方)がLCD124に表示される。また、LCD124上において、撮影画像に重畳して偽色の発生箇所を示す情報が表示される。これにより、ユーザは、画像中の偽色が発生している箇所を把握することができる。また、撮影装置1や外部の画像処理装置3が、画像に対する画像処理を行う画像処理部を有している場合、画像中の偽色の発生箇所を示す情報に基づいて、偽色を低減するような画像処理(例えば、ぼかし処理)が実行されてもよい。   For example, when it is determined that there is a false color in the detection process S <b> 2, an image (either one or both of the first image and the second image) is displayed on the LCD 124. Further, on the LCD 124, information indicating the location where the false color is generated is displayed superimposed on the photographed image. Thereby, the user can grasp | ascertain the location in which the false color in the image has generate | occur | produced. In addition, when the photographing apparatus 1 or the external image processing apparatus 3 includes an image processing unit that performs image processing on an image, false colors are reduced based on information indicating a false color occurrence location in the image. Such image processing (for example, blur processing) may be executed.

以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施形態等又は自明な実施形態等を適宜組み合わせた内容も本願の実施形態に含まれる。   The above is the description of the exemplary embodiments of the present invention. Embodiments of the present invention are not limited to those described above, and various modifications are possible within the scope of the technical idea of the present invention. For example, the embodiment of the present application also includes an embodiment that is exemplarily specified in the specification or a combination of obvious embodiments and the like as appropriate.

例えば、上記の実施形態では、固体撮像素子112aをシフトさせることにより、受光面112aa上での被写体像の入射位置をシフトさせているが、本発明の実施形態はこの構成に限らない。例えば、固体撮像素子112aと被写体からの光束が通過する光学部材との間のXY面内における相対位置を移動させることにより、受光面112aaと被写体像の相対位置をシフトさせることができる。具体的には、固体撮像素子112aと別の振れ補正部材(撮影レンズ106内に含まれる一部のレンズなど)を偏心駆動させることにより、受光面112aa上での被写体像の入射位置をシフトさせてもよく、また、撮影レンズ106の光路内に光軸AXに対して垂直よりやや傾けて配置された平行平板を光軸AX周りに回転させたり、頂角可変プリズム、固体撮像素子112aのカバーガラス(カバーガラスに付着した塵等を除去するための加振機能を備えたもの)等を駆動させたりすることにより、受光面112aa上での被写体像の入射位置をシフトさせてもよい。このように、固体撮像素子112a以外の光学部材をシフトさせて撮影処理S1が実行される場合、画像データの付加情報には、光学部材の位置を示す情報、或いは、固体撮像素子112aと光学部材との間の相対位置を示す情報が書き込まれる。   For example, in the above embodiment, the incident position of the subject image on the light receiving surface 112aa is shifted by shifting the solid-state imaging device 112a, but the embodiment of the present invention is not limited to this configuration. For example, the relative position between the light receiving surface 112aa and the subject image can be shifted by moving the relative position in the XY plane between the solid-state imaging device 112a and the optical member through which the light flux from the subject passes. Specifically, the incident position of the subject image on the light receiving surface 112aa is shifted by driving the image sensor 112a and another shake correction member (such as a part of the lenses included in the photographing lens 106) eccentrically. In addition, a parallel plate arranged in the optical path of the photographing lens 106 at a slight inclination with respect to the optical axis AX may be rotated around the optical axis AX, or the vertex angle variable prism and the solid-state image sensor 112a may be covered. The incident position of the subject image on the light receiving surface 112aa may be shifted by driving a glass (having a vibration function for removing dust or the like attached to the cover glass). As described above, when the imaging process S1 is executed by shifting an optical member other than the solid-state image sensor 112a, the additional information of the image data includes information indicating the position of the optical member, or the solid-state image sensor 112a and the optical member. Information indicating the relative position between and is written.

また、上記の実施形態では、処理ステップS29において、閾値T1〜T3が各画素に対する全ての判定において不変であるが、本発明はこれに限らない。   Moreover, in said embodiment, although threshold value T1-T3 is unchanged in all the determinations with respect to each pixel in process step S29, this invention is not limited to this.

例えば、システムコントローラ100によってAF制御が行われることにより、画像内でピントが合っているとみなせる範囲(合焦エリアであり、例示的には被写界深度に収まる範囲)が求まる。合焦エリア(合焦状態)の被写体はコントラストが高く、高周波成分を含みやすいため、偽色が発生しやすい。一方、合焦エリア外(非合焦状態)の被写体はコントラストが低く、高周波成分を含み難いため、偽色が発生し難い。そこで、処理ステップS29では、演算によって求まった合焦エリア内の画素に対する判定を行う場合と合焦エリア外の画素に対する判定を行う場合とで、閾値T1〜T3が異なる値に変更されてもよい。例示的には、合焦エリア内の画素では偽色が発生している(目立つ)可能性が高いことから、検出感度が高くなるような閾値設定(例えば閾値T1を低い値に設定)を行い、それ以外の画素では偽色が発生している可能性が低い(目立たない)ことから、検出感度が低くなるような閾値設定(例えば閾値T1を高い値に設定)を行うか、偽色検出の処理自体が省略される。これにより、偽色の検出精度がより一層向上したり、検出速度が向上したりする。   For example, by performing AF control by the system controller 100, a range that can be regarded as being in focus in the image (a focus area, illustratively a range that falls within the depth of field) is obtained. Since the subject in the focus area (in-focus state) has high contrast and tends to include high-frequency components, false colors are likely to occur. On the other hand, a subject outside the in-focus area (out-of-focus state) has a low contrast and is unlikely to contain a high-frequency component, so that a false color is unlikely to occur. Therefore, in the processing step S29, the threshold values T1 to T3 may be changed to different values depending on whether the determination is made for the pixel in the in-focus area obtained by the calculation or the determination for the pixel outside the in-focus area. . Illustratively, since there is a high possibility that a false color is generated (conspicuous) in a pixel in the in-focus area, a threshold setting that increases detection sensitivity (for example, the threshold T1 is set to a low value) is performed. Since the possibility of false color is low (not conspicuous) in other pixels, threshold setting (for example, setting the threshold value T1 to a high value) that lowers the detection sensitivity or false color detection is performed. The process itself is omitted. As a result, the false color detection accuracy is further improved, and the detection speed is improved.

また、上記の実施形態では、一対の画像(処理ステップS12にて撮影された第一画像と処理ステップS14にて撮影された第二画像)を用いて偽色の検出が行われているが、別の実施形態では、3つ以上の画像を用いて偽色の検出が行われてもよい。   In the above embodiment, false color detection is performed using a pair of images (a first image taken in processing step S12 and a second image taken in processing step S14). In another embodiment, false color detection may be performed using more than two images.

例えば、縦縞被写体10aに対しては、上記の実施形態のように、処理ステップS13(固体撮像素子112aのシフト)にて固体撮像素子112aを縞の明暗方向(左方向)にシフトさせることにより、補色の関係となる偽色画像が得られやすい。しかし、縦縞被写体10aに対して固体撮像素子112aを上、下又は斜め方向にシフトさせた場合は、輝度の高い色成分が固体撮像素子112aのシフトの前後で変わり難くなり、補色の関係となる偽色画像が得られ難くなる。そこで、偽色検出の精度をより一層向上させる(別の観点では、検出漏れを防ぐ)ため、固体撮像素子112aのシフト方向を変更しながら、3つ以上の画像が撮影されてもよい。   For example, for the vertical stripe subject 10a, by shifting the solid-state image sensor 112a in the bright and dark direction (left direction) of the stripe in the processing step S13 (shift of the solid-state image sensor 112a) as in the above embodiment, It is easy to obtain a false color image having a complementary color relationship. However, when the solid-state image sensor 112a is shifted in the up, down, or diagonal directions with respect to the vertical stripe subject 10a, the color component with high luminance is less likely to change before and after the shift of the solid-state image sensor 112a, resulting in a complementary color relationship. It becomes difficult to obtain a false color image. Therefore, in order to further improve the accuracy of false color detection (in another aspect, to prevent detection omission), three or more images may be taken while changing the shift direction of the solid-state imaging device 112a.

例えば、撮影処理S1において、固体撮像素子112aの座標をそれぞれ(0,0)、(1,0)、(1,1)、(0,1)と移動させながら、第一〜第四画像が撮影されてもよい。この場合、検出処理S2では、第一画像と第二画像の組み合わせを用いた偽色の検出、第一画像と第三画像の組み合わせを用いた偽色の検出、第一画像と第四画像の組み合わせを用いた偽色の検出が行われる。各組み合わせにおいて、一方の画像に対する他方の画像の撮影時の固体撮像素子112aのシフト方向は異なる。そのため、複数の画像の組み合わせを用いて偽色の判定を行うことにより、高周波成分の出現方向に拘わらず、偽色を精度よく検出することができる。   For example, in the imaging process S1, the first to fourth images are moved while the coordinates of the solid-state imaging element 112a are moved to (0, 0), (1, 0), (1, 1), and (0, 1), respectively. It may be taken. In this case, in the detection process S2, false color detection using a combination of the first image and the second image, false color detection using a combination of the first image and the third image, and the first image and the fourth image are detected. False color detection using the combination is performed. In each combination, the shift direction of the solid-state imaging device 112a when the other image is captured with respect to one image is different. Therefore, by determining the false color using a combination of a plurality of images, the false color can be accurately detected regardless of the appearance direction of the high-frequency component.

また、上述の実施形態では、付加情報の「座標」項目に固体撮像素子112aの位置を示す情報が書き込まれるが、本実施形態における固体撮像素子112aの位置を示す情報は座標に限定されない。付加情報には、各画像が撮影されたときの固体撮像素子112aの位置に関する情報が含まれていればよく、この情報には、位置を表す種々の表現が使用可能である。例えば、付加情報は、「座標」項目の代わりに、固体撮像素子112aのシフト方向を示す情報が書き込まれる「シフト方向」項目を有していてもよい。例えば、撮影処理S1において固体撮像素子112aのシフト量が予め決められている場合、付加情報に固体撮像素子112aのシフト方向を書込むことにより、固体撮像素子112aのXY面内における位置を判定することができる。また、付加情報は、シフト量を示す情報を更に含んでいてもよい。   In the above-described embodiment, information indicating the position of the solid-state image sensor 112a is written in the “coordinate” item of the additional information, but the information indicating the position of the solid-state image sensor 112a in the present embodiment is not limited to the coordinates. The additional information only needs to include information regarding the position of the solid-state imaging device 112a when each image is captured, and various expressions representing the position can be used for this information. For example, the additional information may have a “shift direction” item in which information indicating the shift direction of the solid-state imaging device 112a is written instead of the “coordinate” item. For example, when the shift amount of the solid-state image sensor 112a is determined in advance in the photographing process S1, the position of the solid-state image sensor 112a in the XY plane is determined by writing the shift direction of the solid-state image sensor 112a in the additional information. be able to. Further, the additional information may further include information indicating the shift amount.

例えば、付加情報の「シフト方向」項目には、座標(0,0)を基準とし、右方向(X軸正方向)の偏角θをゼロとした円座標系(rθ座標系)における偏角θが書き込まれてもよい。固体撮像素子112aの座標を(0,0)、(1,0)、(1,1)、(0,1)と移動させながら第一〜第四画像を撮影する場合、第一画像の撮影時は、固体撮像素子112aは基準位置から移動していないため、第一画像の画像データの「シフト方向」項目には、固体撮像素子112aが移動していないことを示す「null」(または移動していないことを示す値である「null値」)が書き込まれる。第二〜第四画像の画像データの「シフト方向」項目にはそれぞれ、基準位置に対する固体撮像素子112aの位置の偏角θ「0度」、「45度」、「90度」が書き込まれる。   For example, in the “shift direction” item of the additional information, the declination angle in the circular coordinate system (rθ coordinate system) with the declination angle θ in the right direction (X-axis positive direction) set to zero with the coordinate (0, 0) as a reference. θ may be written. When shooting the first to fourth images while moving the coordinates of the solid-state imaging device 112a to (0, 0), (1, 0), (1, 1), (0, 1), shooting the first image At that time, since the solid-state image sensor 112a has not moved from the reference position, the “shift direction” item of the image data of the first image indicates “null” (or movement) indicating that the solid-state image sensor 112a has not moved. ("Null value"), which is a value indicating that this is not done, is written. Deflection angles θ “0 degrees”, “45 degrees”, and “90 degrees” of the position of the solid-state imaging device 112a with respect to the reference position are written in the “shift direction” items of the image data of the second to fourth images.

また、付加情報には、図11(a)、図11(b)に示す全ての項目が含まれていなくてもよい。付加情報は、少なくとも、同一のグループに含まれる画像を選択するために必要な項目と、選択された画像の撮影時における固体撮像素子112aの位置が分かる情報を有していればよい。   Further, the additional information may not include all the items shown in FIGS. 11A and 11B. The additional information only needs to include at least information necessary for selecting the images included in the same group and the position of the solid-state imaging device 112a when the selected image is captured.

例えば、付加情報に「グループID」項目が含まれている場合、「前の画像のファイルID」項目と「後の画像のファイルID」項目の一方或いは両方は含まれていなくてもよい。「グループID」項目があれば、処理ステップS22において、ユーザによって指定(選択)された画像と同じグループに含まれる画像データを選択可能である。   For example, when the “group ID” item is included in the additional information, one or both of the “file ID of the previous image” item and the “file ID of the subsequent image” may not be included. If there is a “group ID” item, it is possible to select image data included in the same group as the image designated (selected) by the user in processing step S22.

また、撮影処理ステップS1において、各撮影画像の撮影順番と、各撮影画像の撮影時における固体撮像素子112aが移動位置の対応関係が決められており、その対応関係がROM126等の所定の記憶領域に記録されている場合、付加情報に「座標」項目が含まれていなくてもよい。この場合、システムコントローラ100は、付加情報の「撮影順番」項目の値と、所定の記憶領域に記録されている撮影順番と移動位置の対応関係に基づいて、各画像の撮影時における固体撮像素子112aの位置に関する情報を取得することができる。   Also, in the shooting processing step S1, the correspondence between the shooting order of each shot image and the movement position of the solid-state imaging device 112a at the time of shooting each shot image is determined, and the corresponding relationship is a predetermined storage area such as the ROM 126. Is recorded in the additional information, the “coordinate” item may not be included. In this case, the system controller 100 determines the solid-state imaging device at the time of shooting each image based on the value of the “shooting order” item of the additional information and the correspondence relationship between the shooting order recorded in the predetermined storage area and the movement position. Information about the position of 112a can be acquired.

1 撮影装置
100 システムコントローラ
102 操作部
104 駆動回路
106 撮影レンズ
108 絞り
110 シャッタ
112 像振れ補正装置
112a 固体撮像素子
112aa (固体撮像素子の)受光面
112b 固定支持基板
112c 可動ステージ
114 信号処理回路
116 画像処理エンジン
118 バッファメモリ
120 カード用インタフェース
122 LCD制御回路
124 LCD
126 ROM
128 ジャイロセンサ
130 加速度センサ
132 地磁気センサ
134 GPSセンサ
136 通信インタフェース
200 メモリカード
3 画像処理装置
300 コントローラ
301 メモリ
302 LCD
303 カード用インタフェース
304 通信インタフェース
YR、CYL、CXD、CXU 駆動用コイル
YR、HYL、HXD、HXU ホール素子
YR、MYL、MXD、MXU 磁石
PIX 画素
VCMYR、VCMYL、VCMXD、VCMXU ボイスコイルモータ
YR、YYL、YXD、YXU ヨーク
DESCRIPTION OF SYMBOLS 1 Image pick-up device 100 System controller 102 Operation part 104 Drive circuit 106 Shooting lens 108 Aperture 110 Shutter 112 Image blur correction device 112a Solid-state image sensor 112aa Light-receiving surface 112b (of solid-state image sensor) Fixed support substrate 112c Movable stage 114 Signal processing circuit 116 Image Processing engine 118 Buffer memory 120 Card interface 122 LCD control circuit 124 LCD
126 ROM
128 Gyro sensor 130 Acceleration sensor 132 Geomagnetic sensor 134 GPS sensor 136 Communication interface 200 Memory card 3 Image processing device 300 Controller 301 Memory 302 LCD
303 Card Interface 304 Communication Interface C YR , C YL , C XD , C XU Drive Coil H YR , H YL , H XD , H XU Hall Element M YR , M YL , M XD , M XU Magnet PIX Pixel VCM YR , VCM YL , VCM XD , VCM XU voice coil motor Y YR , Y YL , Y XD , Y XU yoke

Claims (16)

撮像光学系を介して撮像素子に入射される被写体像と、該撮像素子との、該撮像素子の受光面と平行な面内における相対的な位置を変化させる位置変化手段と、
前記撮像素子を用いて前記被写体像を撮像して2以上の所定の画像を取得し、該所定の画像を含む画像群を記録する画像記録手段と、
前記所定の画像が撮像されたときの、前記被写体像と前記撮像素子との前記相対的な位置に関する情報を取得する位置情報取得手段と、
前記所定の画像に対し、前記相対的な位置に関する情報を付加する位置情報付加手段と、
を備える、
撮像システム。
A subject image incident on the image sensor via the imaging optical system, and a position changing means for changing a relative position of the image sensor in a plane parallel to the light receiving surface of the image sensor;
Image recording means for capturing two or more predetermined images by capturing the subject image using the image sensor and recording an image group including the predetermined images;
Position information acquisition means for acquiring information related to the relative position between the subject image and the image sensor when the predetermined image is captured;
Position information adding means for adding information on the relative position to the predetermined image;
Comprising
Imaging system.
前記相対的な位置に関する情報は、前記2以上の所定の画像のうち、第1の画像が撮像された時の前記被写体像と前記撮像素子との相対的な位置に対する、他の画像が撮像された時の前記被写体像と前記撮像素子との相対的な位置の、変化を示す情報を含む、
請求項1に記載の撮像システム。
The information on the relative position is obtained by capturing other images of the two or more predetermined images with respect to the relative position between the subject image and the image sensor when the first image is captured. Including information indicating a change in relative position between the subject image and the image sensor at the time of
The imaging system according to claim 1.
前記位置変化手段は、前記撮像素子を前記受光面と平行な面内において位置変化させ、
前記相対的な位置に関する情報は、前記撮像素子の前記受光面と平行な面内における所定の原点に対する位置座標を含む、
請求項1又は請求項2に記載の撮像システム。
The position changing means changes the position of the image sensor in a plane parallel to the light receiving surface,
The information on the relative position includes position coordinates with respect to a predetermined origin in a plane parallel to the light receiving surface of the imaging element.
The imaging system according to claim 1 or 2.
前記画像記録手段は、前記相対的な位置が互いに異なる状態で前記被写体像をそれぞれ撮像して前記2以上の所定の画像を取得し、該所定の画像を含む画像群を記録する、
請求項1から請求項3の何れか一項に記載の撮像システム。
The image recording means captures the subject images in a state where the relative positions are different from each other, acquires the two or more predetermined images, and records an image group including the predetermined images;
The imaging system according to any one of claims 1 to 3.
前記位置情報付加手段は、前記画像群に含まれる前記2以上の所定の画像のそれぞれに対し、該画像群に含まれる画像の中での撮像順番を示す撮像順番情報に基づいて前記相対的な位置に関する情報を付加する、
請求項1から請求項4の何れか一項に記載の撮像システム。
The position information adding unit is configured to calculate the relative information based on imaging order information indicating an imaging order in an image included in the image group for each of the two or more predetermined images included in the image group. Add location information,
The imaging system according to any one of claims 1 to 4.
前記画像群に含まれる前記2以上の所定の画像のそれぞれに対し、該2以上の所定の画像が互いに関連していることを示す関連情報を付加する関連情報付加手段と、
複数の画像の中から前記関連情報が付加された画像を抽出する関連画像抽出手段と、
を更に備える、
請求項1から請求項5の何れか一項に記載の撮像システム。
Related information adding means for adding, to each of the two or more predetermined images included in the image group, related information indicating that the two or more predetermined images are related to each other;
Related image extraction means for extracting an image to which the related information is added from a plurality of images;
Further comprising
The imaging system according to any one of claims 1 to 5.
前記画像群に含まれる前記2以上の所定の画像のそれぞれに対し、該2以上の所定の画像のそれぞれを識別する画像識別情報を付加する画像識別情報付加手段を更に備え、
前記関連情報付加手段は、前記2以上の所定の画像のそれぞれに対し、前記画像群に含まれる他の画像の前記画像識別情報を付加する、
請求項6に記載の撮像システム。
Image identification information adding means for adding image identification information for identifying each of the two or more predetermined images to each of the two or more predetermined images included in the image group;
The related information adding means adds the image identification information of other images included in the image group to each of the two or more predetermined images.
The imaging system according to claim 6.
前記関連情報付加手段は、前記画像群に含まれる前記2以上の所定の画像のそれぞれに対し、該画像群に含まれる画像のうち、該2以上の所定の画像のそれぞれの一つ前に撮像された画像の前記画像識別情報と該2以上の所定の画像のそれぞれの一つ後に撮像された画像の前記画像識別情報の少なくとも一方を付加する、
請求項7に記載の撮像システム。
The related information adding means captures each of the two or more predetermined images included in the image group in front of each of the two or more predetermined images among the images included in the image group. Adding at least one of the image identification information of the captured image and the image identification information of the image captured after each of the two or more predetermined images;
The imaging system according to claim 7.
前記関連情報は、前記画像群に含まれる画像の数を示す画像数情報を含む、
請求項6から請求項8の何れか一項に記載の撮像システム。
The related information includes image number information indicating the number of images included in the image group.
The imaging system according to any one of claims 6 to 8.
前記関連情報は、前記画像群を識別する画像群識別情報を含む、
請求項6から請求項9の何れか一項に記載の撮像システム。
The related information includes image group identification information for identifying the image group,
The imaging system according to any one of claims 6 to 9.
画像から、該画像に付加されている該画像に関する情報を取得する情報取得ステップと、
前記情報取得ステップで取得された情報に、撮像装置が撮像光学系を介して撮像素子に入射される被写体像と、該撮像素子との、該撮像素子の受光面と平行な面内における相対的な位置を変化させて前記被写体像を撮像したときの、該相対的な位置に関する情報であって、前記画像に対する所定の画像処理に用いるものが含まれているかを判定する情報判定ステップと、
を含む画像判定プログラム。
An information acquisition step of acquiring information about the image added to the image from the image;
In the information acquired in the information acquisition step, relative to a subject image incident on the imaging device by the imaging device via the imaging optical system and the imaging device in a plane parallel to the light receiving surface of the imaging device. An information determination step for determining whether information relating to the relative position when the subject image is captured while changing the position and used for predetermined image processing on the image is included;
An image determination program including
前記相対的な位置に関する情報は、2以上の前記画像のうち、第1の画像が撮像された時の前記被写体像と前記撮像素子との相対的な位置に対する、他の画像が撮像された時の前記被写体像と前記撮像素子との相対的な位置の、変化を示す情報を含む、
請求項11に記載の画像判定プログラム。
The information regarding the relative position is obtained when another image is captured with respect to the relative position between the subject image and the image sensor when the first image is captured among the two or more images. Including information indicating a change in the relative position of the subject image and the image sensor,
The image determination program according to claim 11.
前記情報取得ステップは、複数の前記画像のそれぞれから前記画像に関する情報を取得し、
前記複数の画像は、同じ画像群に含まれる2以上の所定の画像を含んでおり、
前記2以上の所定の画像はそれぞれ、互いに関連していることを示す関連情報を有し、
前記複数の画像の中から、前記関連情報を有する画像を抽出する関連画像抽出ステップを更に含む、
請求項11又は請求項12に記載の画像判定プログラム。
The information acquisition step acquires information on the image from each of the plurality of images,
The plurality of images include two or more predetermined images included in the same image group,
Each of the two or more predetermined images has associated information indicating that they are associated with each other;
A related image extracting step of extracting an image having the related information from the plurality of images;
The image determination program according to claim 11 or 12.
前記所定の画像処理は、前記所定の画像に含まれる偽色の検出処理である、
請求項11から請求項13の何れか一項に記載の画像判定プログラム。
The predetermined image processing is detection processing of a false color included in the predetermined image.
The image determination program according to any one of claims 11 to 13.
撮像光学系を介して撮像素子に入射される被写体像と、該撮像素子との、該撮像素子の受光面と平行な面内における相対的な位置を変化させる位置変化手段と、
前記撮像素子を用いて前記被写体像を撮像して2以上の所定の画像を取得し、該所定の画像を含む画像群を記録する画像記録手段と、
前記所定の画像が撮像されたときの、前記被写体像と前記撮像素子との前記相対的な位置に関する情報を取得する位置情報取得手段と、
前記所定の画像に対し、前記相対的な位置に関する情報を付加する位置情報付加手段と、
を備える、
画像撮像装置。
A subject image incident on the image sensor via the imaging optical system, and a position changing means for changing a relative position of the image sensor in a plane parallel to the light receiving surface of the image sensor;
Image recording means for capturing two or more predetermined images by capturing the subject image using the image sensor and recording an image group including the predetermined images;
Position information acquisition means for acquiring information related to the relative position between the subject image and the image sensor when the predetermined image is captured;
Position information adding means for adding information on the relative position to the predetermined image;
Comprising
Imaging device.
撮像装置が、撮像光学系を介して撮像素子に入射される被写体像と、該撮像素子との、該撮像素子の受光面と平行な面内における相対的な位置を変化させる毎に該被写体像を撮像して各画像を記録したときの、該被写体像と前記撮像素子との該相対的な位置に関する情報を有し、
撮像システムにおいて、2以上の前記画像に対する所定の画像処理を実行させることを可能とする画像データ構造。
Each time the imaging device changes the relative position of the subject image incident on the imaging device via the imaging optical system and the imaging device in a plane parallel to the light receiving surface of the imaging device, the subject image Information about the relative position of the subject image and the image sensor when each image is recorded
An image data structure that enables predetermined image processing to be performed on two or more images in an imaging system.
JP2017044280A 2017-03-08 2017-03-08 Imaging system, image determination program, image imaging device, image data structure Pending JP2018148500A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017044280A JP2018148500A (en) 2017-03-08 2017-03-08 Imaging system, image determination program, image imaging device, image data structure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017044280A JP2018148500A (en) 2017-03-08 2017-03-08 Imaging system, image determination program, image imaging device, image data structure

Publications (1)

Publication Number Publication Date
JP2018148500A true JP2018148500A (en) 2018-09-20

Family

ID=63592465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017044280A Pending JP2018148500A (en) 2017-03-08 2017-03-08 Imaging system, image determination program, image imaging device, image data structure

Country Status (1)

Country Link
JP (1) JP2018148500A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005168056A (en) * 1996-03-27 2005-06-23 Fuji Photo Film Co Ltd Camera and reception equipment
JP2007324965A (en) * 2006-06-01 2007-12-13 Fujifilm Corp Digital camera, photography control method, and image output system
JP2010183565A (en) * 2009-01-06 2010-08-19 Nikon Corp Image capturing apparatus, image retrieval device, and program
JP2011259415A (en) * 2010-05-10 2011-12-22 Panasonic Corp Imaging apparatus
JP2017038318A (en) * 2015-08-13 2017-02-16 リコーイメージング株式会社 Image processing apparatus, image processing method and image processing program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005168056A (en) * 1996-03-27 2005-06-23 Fuji Photo Film Co Ltd Camera and reception equipment
JP2007324965A (en) * 2006-06-01 2007-12-13 Fujifilm Corp Digital camera, photography control method, and image output system
JP2010183565A (en) * 2009-01-06 2010-08-19 Nikon Corp Image capturing apparatus, image retrieval device, and program
JP2011259415A (en) * 2010-05-10 2011-12-22 Panasonic Corp Imaging apparatus
JP2017038318A (en) * 2015-08-13 2017-02-16 リコーイメージング株式会社 Image processing apparatus, image processing method and image processing program

Similar Documents

Publication Publication Date Title
JP6486656B2 (en) Imaging device
US11394881B2 (en) Image processing apparatus, image processing method, storage medium, system, and electronic apparatus
JP5681329B2 (en) Imaging apparatus and image display method
US8593531B2 (en) Imaging device, image processing method, and computer program
CN109691085B (en) Image pickup apparatus and image pickup control method
WO2014045739A1 (en) Image processing device, imaging device, image processing method, and image processing program
JPWO2012032826A1 (en) Stereo imaging device and stereo imaging method
US11012633B2 (en) Image capturing apparatus, image capturing method, and image processing apparatus
US9871964B2 (en) Photographing apparatus, photographing controller, photographing control method, and photographing control program
JP6606838B2 (en) Imaging apparatus and imaging method
JP6579369B2 (en) Image processing apparatus, image processing method, and image processing program
JPWO2012032825A1 (en) Stereo imaging device and stereo imaging method
JP2008113466A (en) Electronic camera
JP2018148500A (en) Imaging system, image determination program, image imaging device, image data structure
JP6548141B2 (en) Image detection apparatus, image detection method and image detection program
JP6501106B2 (en) Image detection apparatus, image detection method and imaging apparatus
JP6525139B2 (en) Image detection apparatus, image detection method and imaging apparatus
JP6489350B2 (en) Image blur correction apparatus and image blur correction method in the image blur correction apparatus
JP2011041092A (en) Imaging apparatus and lens barrel
JP2009246468A (en) Photographing device and control method of photographing device
JP2017200028A (en) Image deterioration detector
WO2014045741A1 (en) Image processing device, imaging device, image processing method, and image processing program
JP2017200029A (en) Image deterioration detector
WO2019202983A1 (en) Image capturing device, distance measuring method, distance measuring program, and recording medium
JP2016208064A (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200817

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20201007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210302