JP2010074244A - Imaging apparatus, image processing method and image processing program - Google Patents

Imaging apparatus, image processing method and image processing program Download PDF

Info

Publication number
JP2010074244A
JP2010074244A JP2008236380A JP2008236380A JP2010074244A JP 2010074244 A JP2010074244 A JP 2010074244A JP 2008236380 A JP2008236380 A JP 2008236380A JP 2008236380 A JP2008236380 A JP 2008236380A JP 2010074244 A JP2010074244 A JP 2010074244A
Authority
JP
Japan
Prior art keywords
shading
image
image data
correction coefficient
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008236380A
Other languages
Japanese (ja)
Other versions
JP2010074244A5 (en
JP5132495B2 (en
Inventor
Manabu Ichikawa
学 市川
Tetsuya Toyoda
哲也 豊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2008236380A priority Critical patent/JP5132495B2/en
Publication of JP2010074244A publication Critical patent/JP2010074244A/en
Publication of JP2010074244A5 publication Critical patent/JP2010074244A5/ja
Application granted granted Critical
Publication of JP5132495B2 publication Critical patent/JP5132495B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To add shading to an image without changing an optical system. <P>SOLUTION: An imaging element 102 obtains image data by photoelectrically converting object light received through a photographing lens 1,010. A white balance correction part 1071 performs white balance correction to the image data. A shading processing part 118 performs the processing of adding shading emphasized more than optical characteristics of the photographing lens 1,010 is performed to the image data to which the white balance correction is performed. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像にシェーディングを付加する技術に関する。   The present invention relates to a technique for adding shading to an image.

デジタルカメラにおいて、撮影時に用いられるレンズなどの光学系の特性により、撮影された画像の周辺部が中心部に比べて暗くなるシェーディングが生じることがある。近年のデジタルカメラの中には、特許文献1のように、暗くなった部分を修正して、シェーディングを補正する機能や、光学系の改良により、シェーディングの発生が抑えられたレンズを搭載するものがある。そのようなデジタルカメラを用いると、見た目ではシェーディングが生じていることがわからないような画像を撮影することができる。   In a digital camera, shading may occur in which a peripheral portion of a photographed image becomes darker than a central portion due to characteristics of an optical system such as a lens used at the time of photographing. Some recent digital cameras, like Patent Document 1, have a function that corrects shading and corrects shading, and a lens that suppresses shading by improving the optical system. There is. When such a digital camera is used, it is possible to take an image that does not seem to show that shading has occurred.

一方で、シェーディングには、画像に立体感を生じさせる効果や、主要被写体を強調するような効果も生じさせる。そのため、同様な被写体を撮影した場合であっても、シェーディングが生じた画像には、シェーディングが生じていない画像とは異なる印象を、見る人に対して与える場合がある。
特開2005−277618号公報
On the other hand, the shading also produces an effect that gives the image a three-dimensional effect and an effect that emphasizes the main subject. For this reason, even when a similar subject is photographed, an image with shading may give a viewer an impression different from that of an image without shading.
JP 2005-277618 A

一般的にシェーディングは、レンズなどの光学系の特性により生じる。そのため、シェーディングがあまり生じない光学系を有するデジタルカメラにおいては、シェーディングがあまり生じていない画像を撮影することはできる。しかしながら、印象的な画像を撮影するためにシェーディングを生じさせるためには、撮影時にレンズの前面にフィルターを配置するなど、光学系の変更を行わなければならなかった。   In general, shading is caused by characteristics of an optical system such as a lens. Therefore, in a digital camera having an optical system that does not generate much shading, an image that does not generate much shading can be taken. However, in order to generate shading in order to capture an impressive image, it has been necessary to change the optical system, such as placing a filter in front of the lens at the time of shooting.

本発明は、光学系の変更を行うことなく、撮像された画像に対してシェーディングを付加することを目的とする。   An object of the present invention is to add shading to a captured image without changing the optical system.

本発明のある態様に係る撮像装置は、撮影レンズを通して撮像素子で受光した被写体光を光電変換する撮像部と、前記撮像部から得られる画像データに対してホワイトバランス補正を行うホワイトバランス補正部と、前記ホワイトバランス補正が行われた画像データを、輝度成分のデータと色成分のデータとに分離するデータ分離部と、前記データ分離部で分離された前記輝度成分のデータに対して、前記撮影レンズの光学特性よりも強調したシェーディングを付加するシェーディング処理部と、を備えることを特徴とする。   An imaging apparatus according to an aspect of the present invention includes an imaging unit that photoelectrically converts subject light received by an imaging element through a photographic lens, and a white balance correction unit that performs white balance correction on image data obtained from the imaging unit. The image data subjected to the white balance correction is separated into luminance component data and color component data, and the photographing of the luminance component data separated by the data separation unit And a shading processing unit that adds shading more emphasized than the optical characteristics of the lens.

本発明の別の態様に係る画像処理方法は、撮影レンズを通して撮像素子で受光した被写体光を光電変換することにより得られる画像データに対して、ホワイトバランス補正を行うステップと、前記ホワイトバランス補正が行われた画像データを、輝度成分のデータと色成分のデータとに分離するステップと、分離された前記輝度成分のデータに対して、前記撮影レンズの光学特性よりも強調したシェーディングを付加するステップと、を備えることを特徴とする。   An image processing method according to another aspect of the present invention includes a step of performing white balance correction on image data obtained by photoelectrically converting subject light received by an image sensor through a photographing lens, and the white balance correction includes: Separating the performed image data into luminance component data and color component data, and adding shading that is more emphasized than the optical characteristics of the photographing lens to the separated luminance component data And.

本発明のさらに別の態様に係る画像処理プログラムは、撮影レンズを通して撮像素子で受光した被写体光を光電変換することにより得られる画像データに対して、ホワイトバランス補正を行うステップと、前記ホワイトバランス補正が行われた画像データを、輝度成分のデータと色成分のデータとに分離するステップと、分離された前記輝度成分のデータに対して、前記撮影レンズの光学特性よりも強調したシェーディングを付加するステップと、をコンピュータに実行させるためのプログラムである。   An image processing program according to still another aspect of the present invention includes a step of performing white balance correction on image data obtained by photoelectrically converting subject light received by an image sensor through a photographing lens, and the white balance correction Separating the image data that has been subjected to luminance component data and color component data, and adding shading that is more emphasized than the optical characteristics of the photographing lens to the separated luminance component data Is a program for causing a computer to execute steps.

本発明によれば、光学系の変更を行わなくても、撮像された画像に対してシェーディングを付加することができる。   According to the present invention, it is possible to add shading to a captured image without changing the optical system.

−第1の実施形態−
図1は、第1の実施形態に係る撮像装置であるデジタルスチルカメラの構成を示すブロック図である。図1に示すデジタルスチルカメラは、カメラ本体1と交換式レンズ2から構成される。
-First embodiment-
FIG. 1 is a block diagram illustrating a configuration of a digital still camera that is an imaging apparatus according to the first embodiment. The digital still camera shown in FIG. 1 includes a camera body 1 and an interchangeable lens 2.

交換式レンズ2は、レンズ1010と、Flashメモリ1011と、マイクロコンピュータ1012と、ドライバ1013と、絞り1014と、を有している。交換式レンズ2は、I/F999を介して、カメラ本体1と通信可能に接続されている。   The interchangeable lens 2 includes a lens 1010, a flash memory 1011, a microcomputer 1012, a driver 1013, and a diaphragm 1014. The interchangeable lens 2 is communicably connected to the camera body 1 via the I / F 999.

カメラ本体1は、メカシャッター101と、撮像素子102と、アナログ処理部103と、アナログ/デジタル変換部104(以下、A/D変換部104)と、バス105と、SDRAM106と、画像処理部107と、AE処理部108と、AF処理部109と、JPEG処理部110と、メモリインターフェース111(以下、メモリI/F111)と、記録媒体112と、LCDドライバ113と、LCD114と、マイクロコンピュータ115と、操作部116と、Flashメモリ117と、シェーディング処理部118とを有している。   The camera body 1 includes a mechanical shutter 101, an image sensor 102, an analog processing unit 103, an analog / digital conversion unit 104 (hereinafter referred to as A / D conversion unit 104), a bus 105, an SDRAM 106, and an image processing unit 107. An AE processing unit 108, an AF processing unit 109, a JPEG processing unit 110, a memory interface 111 (hereinafter referred to as a memory I / F 111), a recording medium 112, an LCD driver 113, an LCD 114, and a microcomputer 115. , An operation unit 116, a flash memory 117, and a shading processing unit 118.

レンズ1010は、被写体の光学像を撮像素子102に集光させる。レンズ1010は、単焦点レンズであってもよいし、ズームレンズであってもよい。Flashメモリ1011には、レンズ1010に関するシェーディング特性の情報が記憶されている。   The lens 1010 focuses the optical image of the subject on the image sensor 102. The lens 1010 may be a single focus lens or a zoom lens. The flash memory 1011 stores shading characteristic information regarding the lens 1010.

マイクロコンピュータ1012は、I/F999、Flashメモリ1011、および、ドライバ1013と接続されていて、Flashメモリ1011に記憶されている情報の読み込み・書き込みを行うとともに、ドライバ1013を制御する。マイクロコンピュータ1012は、さらに、I/F999を介して、マイクロコンピュータ115と通信することができ、シェーディング特性やレンズの焦点距離情報などをマイクロコンピュータ115へ送信し、また、マイクロコンピュータ115から絞り値等の情報を受信する。   The microcomputer 1012 is connected to the I / F 999, the flash memory 1011 and the driver 1013. The microcomputer 1012 reads and writes information stored in the flash memory 1011 and controls the driver 1013. Further, the microcomputer 1012 can communicate with the microcomputer 115 via the I / F 999, transmits shading characteristics, lens focal length information, and the like to the microcomputer 115. Receive information.

ドライバ1013は、マイクロコンピュータ1012の指示を受けて、レンズ1010を駆動させて、焦点距離やフォーカス位置の変更を行うとともに、絞り1014を駆動する。絞り1014は、レンズ1010の近傍に設けられ、被写体の光量を調節する。   In response to an instruction from the microcomputer 1012, the driver 1013 drives the lens 1010 to change the focal length and focus position, and drives the aperture 1014. The aperture 1014 is provided in the vicinity of the lens 1010 and adjusts the amount of light of the subject.

メカシャッター101は、マイクロコンピュータ115の指示を受けて駆動し、撮像素子102に被写体を露光する時間を制御する。   The mechanical shutter 101 is driven in response to an instruction from the microcomputer 115 to control the time for exposing the subject to the image sensor 102.

撮像素子102は、各画素を構成するフォトダイオードの前面に、ベイヤー配列のカラーフィルタが配置された撮像素子である。ベイヤー配列は、水平方向にR画素とG(Gr)画素が交互に配置されたラインと、G(Gb)画素とB画素が交互に配置されたラインとを有し、さらにその2つのラインを垂直方向にも交互に配置することで構成されている。この撮像素子102は、レンズ1010により集光された光を、画素を構成するフォトダイオードで受光して光電変換することで、光の量を電荷量としてアナログ処理部103へ出力する。なお、撮像素子102は、CMOS方式のものでもCCD方式のものでも良い。   The image sensor 102 is an image sensor in which a Bayer array color filter is arranged in front of a photodiode constituting each pixel. The Bayer array has a line in which R pixels and G (Gr) pixels are alternately arranged in a horizontal direction, and a line in which G (Gb) pixels and B pixels are alternately arranged, and the two lines are further divided. It is configured by alternately arranging in the vertical direction. The imaging element 102 receives the light collected by the lens 1010 by a photodiode that constitutes a pixel and performs photoelectric conversion, and outputs the amount of light to the analog processing unit 103 as a charge amount. The image sensor 102 may be a CMOS type or a CCD type.

アナログ処理部103は、撮像素子102から読み出された電気信号(アナログ画像信号)に対し、リセットノイズ等を低減した上で波形整形を行い、さらに目的の明るさとなるように、ゲインアップを行う。A/D変換部104は、アナログ処理部103から出力されたアナログ画像信号をデジタル画像信号(以後、画像データという)に変換する。   The analog processing unit 103 performs waveform shaping on the electrical signal (analog image signal) read from the image sensor 102 while reducing reset noise and the like, and further increases the gain so that the target brightness is obtained. . The A / D conversion unit 104 converts the analog image signal output from the analog processing unit 103 into a digital image signal (hereinafter referred to as image data).

バス105は、デジタルカメラ内部で発生した各種データをデジタルカメラ内の各部に転送するための転送路である。バス105は、A/D変換部104と、SDRAM106と、画像処理部107と、AE処理部108と、AF処理部109と、JPEG処理部110と、メモリI/F111と、LCDドライバ113と、マイクロコンピュータ115と、シェーディング処理部118とに接続されている。   A bus 105 is a transfer path for transferring various data generated in the digital camera to each unit in the digital camera. The bus 105 includes an A / D conversion unit 104, an SDRAM 106, an image processing unit 107, an AE processing unit 108, an AF processing unit 109, a JPEG processing unit 110, a memory I / F 111, an LCD driver 113, The microcomputer 115 and the shading processing unit 118 are connected.

A/D変換部104から出力される画像データは、バス105を介して一旦SDRAM106に記憶される。SDRAM106は、A/D変換部104において得られた画像データや、画像処理部107、JPEG処理部110において処理された画像データ等の各種データが一時的に記憶される記憶部である。   The image data output from the A / D conversion unit 104 is temporarily stored in the SDRAM 106 via the bus 105. The SDRAM 106 is a storage unit that temporarily stores various data such as image data obtained by the A / D conversion unit 104 and image data processed by the image processing unit 107 and the JPEG processing unit 110.

画像処理部107は、ホワイトバランス補正部1071(以下、WB補正部1071)、同時化処理部1072、色再現処理部1073、および、ノイズ低減処理部1074(以下、NR処理部1074)を含み、SDRAM106から読み出した画像データに対して様々な画像処理を施す。WB補正部1071は、画像データのホワイトバランスを補正する処理を行う。同時化処理部1072は、ベイヤー配列による画像データから、1画素あたりR、G、Bの情報からなる画像データへ同時化する処理を行う。色再現処理部1073は、画像の色味を変化させる色再現処理を行い、NR処理部1074は、ノイズを低減する処理を行う。ノイズ低減処理後の画像データは、SDRAM106に記憶される。   The image processing unit 107 includes a white balance correction unit 1071 (hereinafter, WB correction unit 1071), a synchronization processing unit 1072, a color reproduction processing unit 1073, and a noise reduction processing unit 1074 (hereinafter, NR processing unit 1074). Various image processing is performed on the image data read from the SDRAM 106. The WB correction unit 1071 performs processing for correcting the white balance of the image data. The synchronization processing unit 1072 performs a process of synchronizing image data based on the Bayer array into image data including R, G, and B information per pixel. The color reproduction processing unit 1073 performs color reproduction processing that changes the color of an image, and the NR processing unit 1074 performs processing to reduce noise. The image data after the noise reduction processing is stored in the SDRAM 106.

シェーディング処理部118は、画像処理部107によって様々な画像処理が行われて、SDRAM106に一旦記憶された画像データを読み出して、画像の中心部に対して、周辺部が暗くなるようにシェーディングを付加する処理を行う。   The shading processing unit 118 performs various image processing by the image processing unit 107, reads the image data temporarily stored in the SDRAM 106, and adds shading so that the peripheral part becomes darker than the central part of the image. Perform the process.

AE処理部108は、画像データから被写体輝度を算出する。被写体輝度を算出するためのデータは、専用の測光センサの出力であってもよい。AF処理部109は、画像データから高周波成分の信号を取り出し、AF(Auto Focus)積算処理により、合焦評価値を取得する。   The AE processing unit 108 calculates subject luminance from the image data. The data for calculating the subject brightness may be an output of a dedicated photometric sensor. The AF processing unit 109 extracts a high-frequency component signal from the image data, and acquires a focus evaluation value by AF (Auto Focus) integration processing.

JPEG処理部110は、画像データの記録時には、SDRAM106から画像データを読み出し、読み出した画像データをJPEG圧縮方式に従って圧縮して、圧縮したJPEG画像データを、SDRAM106に一旦記憶する。マイクロコンピュータ115は、SDRAM106に記憶されたJPEG画像データに対して、JPEGファイルを構成するために必要なJPEGヘッダを付加してJPEGファイルを作成し、作成したJPEGファイルを、メモリI/F111を介して記録媒体112に記録する。記録媒体112は、例えばカメラ本体1に着脱可能なメモリカードからなる記録媒体であるが、これに限定されるものではない。   When the image data is recorded, the JPEG processing unit 110 reads the image data from the SDRAM 106, compresses the read image data according to the JPEG compression method, and temporarily stores the compressed JPEG image data in the SDRAM 106. The microcomputer 115 creates a JPEG file by adding a JPEG header necessary for constructing a JPEG file to the JPEG image data stored in the SDRAM 106, and sends the created JPEG file via the memory I / F 111. To the recording medium 112. The recording medium 112 is, for example, a recording medium including a memory card that can be attached to and detached from the camera body 1, but is not limited thereto.

LCDドライバ113は、LCD114に画像を表示させる。記録媒体112に記録されたJPEGファイルを再生する場合、JPEG処理部110は、記録媒体112に記録されているJPEGファイルを読み出して伸張処理を施した上で、伸張した画像データを一旦SDRAM106に記憶させる。LCDドライバ113は、伸張された画像データをSDRAM106から読み出し、読み出した画像データを映像信号へ変換した後でLCD114へ出力して、画像の表示を行う。   The LCD driver 113 displays an image on the LCD 114. When playing back a JPEG file recorded on the recording medium 112, the JPEG processing unit 110 reads the JPEG file recorded on the recording medium 112, performs decompression processing, and temporarily stores the decompressed image data in the SDRAM 106. Let The LCD driver 113 reads the decompressed image data from the SDRAM 106, converts the read image data into a video signal, and then outputs it to the LCD 114 to display an image.

制御部としての機能を有するマイクロコンピュータ115は、デジタルカメラ本体1の各種シーケンスを統括的に制御する。マイクロコンピュータ115には、操作部116およびFlashメモリ117が接続されている。   The microcomputer 115 having a function as a control unit comprehensively controls various sequences of the digital camera body 1. An operation unit 116 and a flash memory 117 are connected to the microcomputer 115.

操作部116は、電源ボタン、レリーズボタン、各種入力キー等の操作部材である。ユーザによって、操作部116の何れかの操作部材が操作されることにより、マイクロコンピュータ115は、ユーザの操作に応じた各種シーケンスを実行する。電源ボタンは、当該デジタルカメラの電源のオン/オフ指示を行うための操作部材である。電源ボタンが押されたときに、マイクロコンピュータ115は、当該デジタルカメラの電源をオン又はオフする。レリーズボタンは、ファーストレリーズスイッチとセカンドレリーズスイッチの2段スイッチを有して構成されている。レリーズボタンが半押しされて、ファーストレリーズスイッチがオンされた場合に、マイクロコンピュータ115は、AE処理やAF処理等の撮影準備シーケンスを行う。また、レリーズボタンが全押しされて、セカンドレリーズスイッチがオンされた場合に、マイクロコンピュータ115は、撮影シーケンスを実行して撮影を行う。   The operation unit 116 is an operation member such as a power button, a release button, and various input keys. When one of the operation members of the operation unit 116 is operated by the user, the microcomputer 115 executes various sequences according to the user's operation. The power button is an operation member for instructing power on / off of the digital camera. When the power button is pressed, the microcomputer 115 turns the digital camera on or off. The release button has a two-stage switch of a first release switch and a second release switch. When the release button is pressed halfway and the first release switch is turned on, the microcomputer 115 performs a shooting preparation sequence such as AE processing and AF processing. Further, when the release button is fully pressed and the second release switch is turned on, the microcomputer 115 performs shooting by executing a shooting sequence.

Flashメモリ117は、ホワイトバランス補正値やローパスフィルタ係数、シェーディングの特性を決めるシェーディングテーブル等のデジタルカメラの動作に必要な各種パラメータや、デジタルスチルカメラを特定するための製造番号などを記憶している。また、Flashメモリ117は、マイクロコンピュータ115にて実行する各種プログラムも記憶している。マイクロコンピュータ115は、Flashメモリ117に記憶されているプログラムに従い、またFlashメモリ117から各種シーケンスに必要なパラメータを読み込み、各処理を実行する。   The flash memory 117 stores various parameters necessary for the operation of the digital camera, such as a white balance correction value, a low-pass filter coefficient, a shading table that determines shading characteristics, and a manufacturing number for specifying the digital still camera. . The flash memory 117 also stores various programs executed by the microcomputer 115. The microcomputer 115 reads parameters necessary for various sequences from the flash memory 117 according to a program stored in the flash memory 117, and executes each process.

図2は、第1の実施形態に係る撮影およびJPEGファイル生成時の処理フローを示すフローチャートである。   FIG. 2 is a flowchart showing a processing flow at the time of shooting and JPEG file generation according to the first embodiment.

ステップS201では、撮影を行う。撮影に関しては、従来から用いられている手法と同様である。レリーズボタンが半押しされて、ファーストレリーズスイッチがオンされた場合に、被写体の像が最も鮮明になるように、図示していないレンズ駆動機構を駆動させるAF処理、および、被写体輝度に基づいて、Flashメモリ117に記憶された絞り値およびシャッター速決定テーブルを参照することにより、絞りとシャッター速を算出するAE処理を行う。そして、レリーズボタンが全押しされて、セカンドレリーズスイッチがオンされた場合に、I/F999を介して、算出した絞り値をマイクロコンピュータ1012に送信する。ドライバ1013は、マイクロコンピュータ1012の指示に基づいて、算出された絞り値になるように絞り1014を駆動させる。そして、算出したシャッター速に基づいて、メカシャッター101を制御して撮影を行い、画像データを得る。   In step S201, shooting is performed. The shooting is the same as the conventionally used method. When the release button is pressed halfway and the first release switch is turned on, based on the AF processing that drives a lens drive mechanism (not shown) and the subject brightness so that the subject image becomes clearest, By referring to the aperture value and shutter speed determination table stored in the flash memory 117, AE processing for calculating the aperture and shutter speed is performed. When the release button is fully pressed and the second release switch is turned on, the calculated aperture value is transmitted to the microcomputer 1012 via the I / F 999. The driver 1013 drives the aperture 1014 so that the calculated aperture value is obtained based on an instruction from the microcomputer 1012. Based on the calculated shutter speed, shooting is performed by controlling the mechanical shutter 101 to obtain image data.

ステップS202では、ステップS201で得られた画像データに対して、画像処理部107にて、ホワイトバランス補正処理、色変換処理および色再現処理や、ノイズ低減処理等の画像処理などを行い、同時化された画像データを得る。   In step S202, the image data obtained in step S201 is subjected to image processing such as white balance correction processing, color conversion processing, color reproduction processing, noise reduction processing, and the like in the image processing unit 107, and is synchronized. Obtained image data is obtained.

ステップS203では、シェーディングを付加する必要があるか否かの判定を行う。この判定は、ユーザによる操作部116の操作結果に基づいて行う。すなわち、ユーザは、操作部116の操作によって、画像にシェーディングを付加するか否かを予め設定することができ、その設定結果はFlashメモリ117に記録される。Flashメモリ117に記録されている、シェーディング付加に関する設定結果に基づいて、シェーディングを付加する必要があると判定するとステップS204に進み、付加しないと判定すると、ステップS205に進む。   In step S203, it is determined whether or not shading needs to be added. This determination is performed based on the operation result of the operation unit 116 by the user. That is, the user can set in advance whether or not to add shading to the image by operating the operation unit 116, and the setting result is recorded in the flash memory 117. If it is determined that it is necessary to add shading based on the setting result regarding shading addition recorded in the flash memory 117, the process proceeds to step S204. If it is determined not to add shading, the process proceeds to step S205.

ステップS204において、シェーディング処理部118は、ステップS202において同時化された画像データに対して、画像の中心部に対して周辺部が暗くなるようにシェーディングを付加する処理を行い、シェーディングが付加された画像データを作成する。シェーディング付加の処理に関する詳細については、後述する。   In step S204, the shading processing unit 118 performs a process of adding shading to the image data synchronized in step S202 so that the peripheral part becomes darker than the central part of the image, and the shading is added. Create image data. Details regarding the shading addition process will be described later.

ステップS205では、LCDドライバ113を制御して、画像データをLCD114に表示させる。この処理は、記録媒体112に記録される画像データを一時的にユーザに見せるための処理である。   In step S205, the LCD driver 113 is controlled to display the image data on the LCD 114. This process is a process for temporarily showing the image data recorded on the recording medium 112 to the user.

ステップS206では、画像データをJPEG処理部110でJPEG圧縮して、JPEG画像データを得るとともに、JPEGヘッダを作成して、SDRAM106に記憶する。ステップS207では、JPEG画像データとJPEGヘッダを1つのファイルとして構成し、記録媒体112に記録する。   In step S 206, the image data is JPEG compressed by the JPEG processing unit 110 to obtain JPEG image data, and a JPEG header is created and stored in the SDRAM 106. In step S207, the JPEG image data and the JPEG header are configured as one file and recorded on the recording medium 112.

図3は、第1の実施形態に係るシェーディング付加時の処理フロー、すなわち、図2に示すフローチャートのステップS204における処理の内容を示すフローチャートである。   FIG. 3 is a flowchart showing the processing flow when shading is added according to the first embodiment, that is, the contents of the processing in step S204 of the flowchart shown in FIG.

ステップS301では、予めFlashメモリ117に記憶されている、シェーディングの特性を決めるシェーディングテーブルを読み込む。   In step S301, a shading table that is stored in advance in the flash memory 117 and that determines shading characteristics is read.

シェーディングテーブルは、例えば、図4に示すように、基準点からの距離に応じて、補正係数が1から徐々に減少するような特性の連続データを、一定間隔でサンプリングしたものである。基準点は、例えば、画像データにおける光軸中心に対応する位置とし、ここでは、画像の中心位置とする。なお、図4では、画像の中心位置から最も遠い位置における距離が1となるように正規化している。   For example, as shown in FIG. 4, the shading table is obtained by sampling continuous data having characteristics such that the correction coefficient gradually decreases from 1 according to the distance from the reference point at regular intervals. The reference point is, for example, a position corresponding to the center of the optical axis in the image data, and here is the center position of the image. In FIG. 4, normalization is performed so that the distance at a position farthest from the center position of the image is 1.

上述したように、シェーディング処理部118によるシェーディングの付加は、WB補正部1071によるホワイトバランス補正処理が行われた後に行われる。一般的に、撮影された画像データは、適切な明るさであることが多いので、画像の基準となる中心は、適切な明るさとしたまま、周辺部を徐々に暗くするのが好ましい。よって、補正係数を1以下としている。補正係数は、撮影レンズ1010の光学特性よりも強調したシェーディングが付加されるような値とする。   As described above, the addition of shading by the shading processing unit 118 is performed after the white balance correction processing by the WB correction unit 1071 is performed. In general, captured image data often has appropriate brightness. Therefore, it is preferable to gradually darken the peripheral portion while maintaining appropriate brightness at the center serving as the reference of the image. Therefore, the correction coefficient is set to 1 or less. The correction coefficient is set to a value that adds shading more emphasized than the optical characteristics of the taking lens 1010.

なお、シェーディングテーブルにおいて、サンプリング間隔を大きくすると、データ量は小さくなるが、図4に示すような特性の再現性が悪くなる。逆に、サンプリング間隔を小さくすると、図4に示すような特性の再現性は良くなるが、データ量は大きくなる。   In the shading table, when the sampling interval is increased, the data amount is reduced, but the reproducibility of characteristics as shown in FIG. 4 is deteriorated. Conversely, when the sampling interval is reduced, the reproducibility of characteristics as shown in FIG. 4 is improved, but the data amount is increased.

ここで、画像中心からの距離を算出するためには、平方根を求める必要がある。一般に、平方根を求めると演算量が増加してしまうため、シェーディングテーブルを、基準点からの距離の2乗に応じた補正係数を格納したデータテーブルとしてもよい。図5は、横軸を基準点からの距離の2乗とした場合の補正係数の特性の一例を示す図である。ただし、図4と同様に、画像の中心位置から最も遠い位置における距離が1となるように正規化している。この場合のシェーディングテーブルは、基準点からの距離の2乗に応じて、補正係数が1から徐々に減少するような特性の連続データを、一定間隔でサンプリングしたものとなる。図5に示すような特性のシェーディングテーブルを用いることにより、図4に示すような特性のシェーディングテーブルを用いる場合に比べて、少ない演算量で高速に、補正係数を求めることができる。   Here, in order to calculate the distance from the image center, it is necessary to obtain the square root. In general, since the amount of calculation increases when the square root is obtained, the shading table may be a data table storing a correction coefficient corresponding to the square of the distance from the reference point. FIG. 5 is a diagram illustrating an example of the characteristic of the correction coefficient when the horizontal axis is the square of the distance from the reference point. However, as in FIG. 4, normalization is performed so that the distance at the position farthest from the center position of the image is 1. In this case, the shading table is obtained by sampling continuous data having characteristics such that the correction coefficient gradually decreases from 1 according to the square of the distance from the reference point at regular intervals. By using the shading table having the characteristics shown in FIG. 5, it is possible to obtain the correction coefficient at a high speed with a small amount of calculation compared to the case of using the shading table having the characteristics shown in FIG.

ステップS302では、ステップS301で取得したシェーディングテーブルに基づいて、基準点である画像の中心位置が1であり、画像の中心位置からの距離に応じて値が小さくなる補正係数を求める。すなわち、画像の中心からの距離に基づいて、シェーディングテーブルを参照することにより、画像の各画素位置における補正係数を算出する。   In step S302, based on the shading table acquired in step S301, a correction coefficient is obtained in which the center position of the image that is the reference point is 1, and the value decreases according to the distance from the center position of the image. That is, the correction coefficient at each pixel position of the image is calculated by referring to the shading table based on the distance from the center of the image.

このとき、シェーディングを付加する画像データのサイズ情報に基づいて、画像の中心位置からの距離が最大になる点(中心位置から最も遠い点)が、シェーディングテーブルにおける最も遠い位置の補正係数となるように正規化する。一般的には、画像の四隅の位置が中心位置から最も遠いため、四隅の位置の補正係数がシェーディングテーブルにおける最も小さい補正係数となる。これにより、記録する画像データのアスペクト比が異なる場合でも、画像の四隅は常に同じような輝度になる補正係数を算出することができる。   At this time, based on the size information of the image data to which shading is added, the point at which the distance from the center position of the image is the maximum (the point farthest from the center position) is the correction coefficient for the farthest position in the shading table. Normalize to Generally, since the four corner positions of the image are farthest from the center position, the correction coefficients at the four corner positions are the smallest correction coefficients in the shading table. Thereby, even when the aspect ratios of the image data to be recorded are different, it is possible to calculate correction coefficients that always give the same brightness to the four corners of the image.

また、シェーディングテーブルにおけるデータのサンプリング間隔が大きい場合には、線形補完などの補完手法を用いて補完することで、画像の中心位置からの距離に応じてなめらかに補正係数を変化させることができる。   Further, when the data sampling interval in the shading table is large, the correction coefficient can be changed smoothly according to the distance from the center position of the image by complementing using a complementation method such as linear interpolation.

ステップS303では、画像を構成する画素の値に、ステップS302で算出した、その画素位置に対応する補正係数を乗じることによって、シェーディングを付加する処理を行う。   In step S303, a process for adding shading is performed by multiplying the value of the pixel constituting the image by the correction coefficient corresponding to the pixel position calculated in step S302.

ここでは、RGB形式の画像データを輝度成分(例えば、Y)と色差成分(例えば、CbとCr)に分離した画像データに変換し、輝度成分のデータのみに補正係数を乗算することで、輝度を変更する。例えば、画像処理部107において、RGB形式の画像データを輝度成分および色差成分のデータに変換し、変換後のデータを一旦SDRAM106に記憶させる。シェーディング処理部118は、SDRAM106に記憶されている輝度成分および色差成分のデータを読み出して、輝度成分のデータのみに対して、補正係数を乗算することにより、シェーディングを付加する処理を行う。画像データがRGB形式のデータである場合、R、G、B全てに同じ補正係数を乗算することで輝度を変更することができるが、輝度成分のデータのみに補正係数を乗算する方法によれば、R、G、Bのそれぞれに補正係数を乗算する場合に比べて、乗算量が3分の1になるため、演算処理を高速化することができる。   Here, the RGB format image data is converted into image data separated into a luminance component (for example, Y) and a color difference component (for example, Cb and Cr), and only the luminance component data is multiplied by a correction coefficient to obtain luminance. To change. For example, the image processing unit 107 converts RGB format image data into luminance component and color difference component data, and temporarily stores the converted data in the SDRAM 106. The shading processing unit 118 reads the luminance component and chrominance component data stored in the SDRAM 106 and performs a process of adding shading by multiplying only the luminance component data by a correction coefficient. When the image data is RGB format data, the luminance can be changed by multiplying all of R, G, and B by the same correction coefficient. However, according to the method of multiplying only the luminance component data by the correction coefficient, , R, G, and B are multiplied by a third as compared with the case of multiplying each of the correction coefficients by R, G, and B, so that the arithmetic processing can be speeded up.

図6(a)は、シェーディングを付加する前の画像の一例を示す図であり、図6(b)は、シェーディング処理部118によってシェーディングが付加された画像の一例を示す図である。図6(b)に示すように、シェーディングが付加された画像では、画像の中心から遠い位置になるほど、暗くなっている。なお、図6(a)および図6(b)において、符号61で示されている被写体は、模式的に表された人物の上半身を示している。   FIG. 6A is a diagram illustrating an example of an image before shading is added, and FIG. 6B is a diagram illustrating an example of an image to which shading is added by the shading processing unit 118. As shown in FIG. 6B, the image with shading is darker as the position is farther from the center of the image. In FIGS. 6A and 6B, the subject denoted by reference numeral 61 represents the upper body of a person schematically represented.

以上、第1の実施形態における撮像装置によれば、画像データに対して画像処理を施すことにより、撮影レンズの光学特性よりも強調したシェーディングを付加することができる。特に、ホワイトバランス補正が行われた画像データに対してシェーディングを付加する処理を行うので、適切な明るさに調整された画像データに基づいて、シェーディングを付加することができる。これに対して、ホワイトバランス補正が行われる前の画像データに対してシェーディングを付加する画像処理を行うと、ホワイトバランス補正が行われた後の画像で色づきが発生する可能性がある。また、ホワイトバランス補正が行われた画像を、輝度成分のデータと色成分のデータとに分離し、分離した輝度成分のデータに対してシェーディングを付加するので、シェーディング付加時の演算量を低減することができる。   As described above, according to the imaging apparatus of the first embodiment, shading that is more emphasized than the optical characteristics of the photographing lens can be added by performing image processing on the image data. In particular, since processing for adding shading is performed on image data on which white balance correction has been performed, it is possible to add shading based on image data adjusted to an appropriate brightness. On the other hand, when image processing for adding shading to image data before white balance correction is performed, coloring may occur in the image after white balance correction is performed. In addition, the white balance corrected image is separated into luminance component data and color component data, and shading is added to the separated luminance component data, thereby reducing the amount of computation when adding shading. be able to.

また、ユーザの設定によりシェーディングの付加を行うかどうかを設定することができるので、光学系の変更を行うことなく設定の変更のみで、シェーディングが付加されていない画像データと、シェーディングが付加された画像データの両方を作成することができる。   In addition, since it is possible to set whether or not to add shading according to user settings, image data without shading and shading are added only by changing the settings without changing the optical system. Both image data can be created.

−第2の実施形態−
第2の実施形態における撮像装置の構成は、第1の実施形態における撮像装置の構成と同じである。第2の実施形態における撮像装置では、撮影時の撮影方法、および、シェーディング付加時の処理方法が第1の実施形態と異なる。なお、シェーディング付加時の処理方法が異なるため、シェーディング処理部の符号を118Aと表す。
-Second Embodiment-
The configuration of the imaging device in the second embodiment is the same as the configuration of the imaging device in the first embodiment. In the imaging apparatus according to the second embodiment, the shooting method at the time of shooting and the processing method at the time of adding shading are different from those of the first embodiment. Since the processing method at the time of adding shading is different, the code of the shading processing unit is represented as 118A.

図7は、第2の実施形態に係る撮影およびJPEGファイル生成時の処理フローを示すフローチャートである。図2に示すフローチャートと同じ処理を行うステップについては、同じステップ番号を付して、詳しい説明は省略する。   FIG. 7 is a flowchart showing a processing flow when shooting and JPEG file generation according to the second embodiment. Steps that perform the same processing as in the flowchart shown in FIG. 2 are given the same step numbers, and detailed descriptions thereof are omitted.

ステップS203において、画像データにシェーディングを付加する処理を行わないと判定すると、ステップS201に進み、通常の撮影処理を行う。一方、ステップS203において、画像データにシェーディングを付加する処理を行うと判定すると、ステップS701に進む。   If it is determined in step S203 that the process of adding shading to the image data is not to be performed, the process proceeds to step S201 to perform a normal photographing process. On the other hand, if it is determined in step S203 that the process of adding shading to the image data is to be performed, the process proceeds to step S701.

ステップS701では撮影を行う。ここでは、まず、ステップS201と同様に、レリーズボタンが半押しされて、ファーストレリーズスイッチがオンされた場合に、被写体の像が最も鮮明になるように、図示しないレンズ駆動機構を駆動させるAF処理、および、被写体輝度に基づいて、Flashメモリ117に記憶された絞り値およびシャッター速決定テーブルを参照することにより、絞りおよびシャッター速を算出するAE処理を行う。   In step S701, shooting is performed. Here, first, as in step S201, when the release button is pressed halfway and the first release switch is turned on, an AF process for driving a lens driving mechanism (not shown) so that the subject image becomes clearest. AE processing for calculating the aperture and shutter speed is performed by referring to the aperture value and shutter speed determination table stored in the flash memory 117 based on the subject brightness.

続いて、露光時間が、例えば4分の1になるように、算出されたシャッター速を修正する。そして、レリーズボタンが全押しされて、セカンドレリーズスイッチがオンされた場合に、I/F999を介して、算出した絞り値をマイクロコンピュータ1012に送信する。ドライバ1013は、マイクロコンピュータ1012の指示に基づいて、算出された絞り値になるように絞り1014を駆動させる。そして、算出したシャッター速に基づいて、メカシャッター101を制御して撮影を行い、画像データを得る。ステップS201における処理との差は、シャッター速を変更して、アンダーに撮影されるようにする点である。   Subsequently, the calculated shutter speed is corrected so that the exposure time is, for example, a quarter. When the release button is fully pressed and the second release switch is turned on, the calculated aperture value is transmitted to the microcomputer 1012 via the I / F 999. The driver 1013 drives the aperture 1014 so that the calculated aperture value is obtained based on an instruction from the microcomputer 1012. Based on the calculated shutter speed, shooting is performed by controlling the mechanical shutter 101 to obtain image data. The difference from the processing in step S201 is that the shutter speed is changed so that the under image is taken.

ステップS701で撮影を行うと、ステップS704に進む。ステップS704において、シェーディング処理部118Aは、撮影されて、SDRAM106に一旦記憶された画像データを読み出して、シェーディングを付加する処理を行う。この時点では、画像処理部107による画像処理が行われていないため、ホワイトバランス補正も行われていない。また、上述したように、シャッター速を遅くしているため、1以上の補正係数を用いて、シェーディングを付加する処理を行う。   When shooting is performed in step S701, the process proceeds to step S704. In step S <b> 704, the shading processing unit 118 </ b> A reads the image data that has been captured and temporarily stored in the SDRAM 106, and performs a process of adding shading. At this time, since the image processing by the image processing unit 107 is not performed, the white balance correction is not performed. Further, as described above, since the shutter speed is reduced, processing for adding shading is performed using one or more correction coefficients.

図8は、第2の実施形態において用いられるシェーディングテーブルの特性を示す図である。横軸は、基準点(画像の中心位置)からの距離であり、縦軸は補正係数である。ここでも、図4および図5と同様に、画像の中心位置から最も遠い位置における距離が1となるように正規化している。上述したように、露光時間が4分の1になるように制御したため、基準位置での補正係数を4とし、基準位置からの距離が最も遠い位置における補正係数を1としている。   FIG. 8 is a diagram illustrating characteristics of the shading table used in the second embodiment. The horizontal axis is the distance from the reference point (the center position of the image), and the vertical axis is the correction coefficient. Here, as in FIGS. 4 and 5, normalization is performed so that the distance at a position farthest from the center position of the image is 1. As described above, since the exposure time is controlled to be ¼, the correction coefficient at the reference position is set to 4, and the correction coefficient at the position farthest from the reference position is set to 1.

シェーディング処理部118Aは、画像の中心からの距離に基づいて、図8に示すような特性を有するシェーディングテーブルを参照することにより、画像の各位置における補正係数を算出し、算出した補正係数を用いて、各画素の画素値を補正する処理を行う。これにより、基準となる中心位置での露出は適正になり、画像の中心から遠くなるに従って暗くなる画像が得られる。   Based on the distance from the center of the image, the shading processor 118A calculates a correction coefficient at each position of the image by referring to a shading table having characteristics as shown in FIG. 8, and uses the calculated correction coefficient. Thus, a process for correcting the pixel value of each pixel is performed. As a result, the exposure at the reference center position is appropriate, and an image that becomes darker as the distance from the center of the image increases.

ステップS201において、撮影処理を行うか、または、ステップS704において、画像データにシェーディングを付加する処理を行うと、ステップS202に進む。ステップS202において、画像処理部107は、画像データに対して、既に説明したような様々な画像処理を行う。その後の処理は、図2のフローチャートと同じである。   If a shooting process is performed in step S201 or a process of adding shading to image data is performed in step S704, the process proceeds to step S202. In step S202, the image processing unit 107 performs various image processes as described above on the image data. The subsequent processing is the same as the flowchart of FIG.

第2の実施形態における撮像装置によれば、撮影直後の画像データに対してシェーディングを付加することができる。   According to the imaging apparatus in the second embodiment, it is possible to add shading to image data immediately after shooting.

−第3の実施形態−
第3の実施形態における撮像装置の構成は、第1の実施形態における撮像装置の構成と同じである。第3の実施形態における撮像装置では、撮影時の焦点距離に応じて、画像に付加するシェーディングの特性を変更する。なお、シェーディング付加時の処理方法が異なるため、シェーディング処理部の符号を118Bと表す。
-Third embodiment-
The configuration of the imaging device in the third embodiment is the same as the configuration of the imaging device in the first embodiment. In the imaging apparatus according to the third embodiment, the characteristics of shading added to an image are changed according to the focal length at the time of shooting. In addition, since the processing method at the time of shading addition differs, the code | symbol of a shading process part is represented as 118B.

図9は、第3の実施形態に係る撮影およびJPEGファイル生成時の処理フローを示すフローチャートである。図2に示すフローチャートと同じ処理を行うステップについては、同じステップ番号を付して、詳しい説明は省略する。図2に示すフローチャートと異なるのは、画像処理済みの画像データに対してシェーディングを付加するステップS904の処理である。ステップS904の処理の詳細を、図10に示すフローチャートを用いて説明する。   FIG. 9 is a flowchart showing a processing flow when shooting and JPEG file generation according to the third embodiment. Steps that perform the same processing as in the flowchart shown in FIG. 2 are given the same step numbers, and detailed descriptions thereof are omitted. What is different from the flowchart shown in FIG. 2 is a process in step S904 in which shading is added to image data that has been subjected to image processing. Details of the processing in step S904 will be described using the flowchart shown in FIG.

図10は、第3の実施形態におけるシェーディング付加時の処理フロー、すなわち、シェーディング処理部118Bによって行われる処理フローを示すフローチャートである。図3に示すフローチャートと同じ処理を行うステップについては、同じステップ番号を付して、詳しい説明は省略する。   FIG. 10 is a flowchart showing a processing flow when shading is added in the third embodiment, that is, a processing flow performed by the shading processing unit 118B. Steps that perform the same processing as in the flowchart shown in FIG. 3 are given the same step numbers, and detailed descriptions thereof are omitted.

ステップS1001では、I/F999およびマイクロコンピュータ115を介して、撮影時のレンズの焦点距離をマイクロコンピュータ1012から取得する。   In step S <b> 1001, the focal length of the lens at the time of shooting is acquired from the microcomputer 1012 via the I / F 999 and the microcomputer 115.

ステップS1002では、I/F999およびマイクロコンピュータ115を介して、予めFlashメモリ1011に記憶されている焦点距離に対するシェーディング特性の中から、ステップS1001で取得した焦点距離に最も近い焦点距離に対するシェーディング特性を取得する。   In step S1002, the shading characteristic for the focal length closest to the focal length acquired in step S1001 is acquired from the shading characteristics for the focal length previously stored in the flash memory 1011 via the I / F 999 and the microcomputer 115. To do.

図11は、レンズ1010の異なる焦点距離に応じたシェーディング特性の一例を示す図である。横軸は、基準点(画像の中心位置)からの距離であり、縦軸は、基準点の光量を1とした場合の光量比である。ここでも、図4等と同様に、画像の中心位置から最も遠い位置における距離が1となるように正規化している。   FIG. 11 is a diagram illustrating an example of shading characteristics according to different focal lengths of the lens 1010. The horizontal axis is the distance from the reference point (the center position of the image), and the vertical axis is the light amount ratio when the light amount at the reference point is 1. Here, as in FIG. 4 and the like, normalization is performed so that the distance at the position farthest from the center position of the image is 1.

一般的に、焦点距離が短いほど、シェーディングの影響は大きくなる。すなわち、図11に示すように、基準点である画像の中心位置からの距離が同じであれば、焦点距離が短いほど、光量比が小さくなり、焦点距離が長いほど、光量比が大きくなる。図11では、最長焦点、中間焦点、最短焦点の3つの焦点距離に応じたシェーディング特性しか示していないが、異なる焦点距離に応じて、Flashメモリ1011に記憶しておくシェーディング特性データの数を4つ以上としてもよい。   Generally, the shorter the focal length, the greater the influence of shading. That is, as shown in FIG. 11, if the distance from the center position of the image that is the reference point is the same, the light amount ratio becomes smaller as the focal length becomes shorter, and the light amount ratio becomes larger as the focal length becomes longer. In FIG. 11, only the shading characteristics corresponding to the three focal lengths of the longest focal point, the intermediate focal point, and the shortest focal point are shown, but the number of shading characteristic data stored in the flash memory 1011 is 4 according to different focal lengths. It may be more than one.

なお、ステップS1001で取得した焦点距離と一致する焦点距離に対するシェーディング特性がFlashメモリ1011に記憶されていなかった場合には、線形補完などの補完手法を使用して、撮影時の焦点距離に応じたシェーディング特性を算出するようにしてもよい。   If the shading characteristic for the focal length that matches the focal length acquired in step S1001 is not stored in the flash memory 1011, the interpolation method such as linear interpolation is used to determine the focal length at the time of shooting. The shading characteristics may be calculated.

ステップS1003では補正係数を算出する。基準とする位置を画像データにおける光軸中心(一般的には画像中心)として、基準とする位置からの距離と、ステップS1002で取得したシェーディング特性を使用して、画像データの各画素に対する補正係数を算出する。ここでは、画像上のある点において、基準である画像の中心位置からの距離を算出し、シェーディング特性よりその距離に応じた光量比を得る。そして、光量比を2乗した値をその点の補正係数とする。   In step S1003, a correction coefficient is calculated. Using the reference position as the optical axis center in the image data (generally, the image center), the correction coefficient for each pixel of the image data using the distance from the reference position and the shading characteristics acquired in step S1002 Is calculated. Here, at a certain point on the image, the distance from the center position of the reference image is calculated, and the light quantity ratio corresponding to the distance is obtained from the shading characteristics. A value obtained by squaring the light amount ratio is set as a correction coefficient at that point.

撮影した画像データには、レンズ1010の撮影時の焦点距離におけるシェーディングの特性により、シェーディングがかかった状態であるが、さらに2乗した補正係数を用いてシェーディングを付加することで、レンズ1010の撮影時の焦点距離におけるシェーディングの特性の3乗に相当するシェーディングが付加されることになる。   The captured image data is in a state where shading is applied due to the characteristics of shading at the focal length when the lens 1010 is captured, but by adding shading using a correction coefficient squared, the image of the lens 1010 is captured. Shading corresponding to the cube of the characteristic of shading at the focal length at that time is added.

なお、レンズの焦点距離に応じた光量比をそのまま補正係数として用いてもよい。また、レンズの焦点距離と補正係数とを対応付けたテーブルを予め用意して用いるようにしてもよい。   Note that the light amount ratio corresponding to the focal length of the lens may be used as it is as a correction coefficient. A table in which the focal length of the lens is associated with the correction coefficient may be prepared and used in advance.

図12(a)は、シェーディングを付加する前の画像の一例を示す図であり、図12(b)および図12(c)は、シェーディング処理部118Bによってシェーディングが付加された画像の一例を示す図である。ただし、図12(b)は、短焦点側でシェーディングを付加した例であり、図12(c)は、長焦点側でシェーディングを付加した例である。上述したように、基準点である画像の中心位置からの距離が同じであれば、焦点距離が短いほど、光量比が小さくなるため、補正係数も小さくなる。すなわち、焦点距離が長い場合(図12(c)参照)に比べて、焦点距離が短い場合(図12(b)参照)の方がシェーディング付加の効果が視覚的に分かりやすくなる。   FIG. 12A shows an example of an image before shading is added, and FIGS. 12B and 12C show an example of an image to which shading is added by the shading processing unit 118B. FIG. However, FIG. 12B is an example in which shading is added on the short focus side, and FIG. 12C is an example in which shading is added on the long focus side. As described above, if the distance from the center position of the image that is the reference point is the same, the shorter the focal length, the smaller the light amount ratio, and the smaller the correction coefficient. That is, the effect of adding shading is more visually understandable when the focal length is short (see FIG. 12B) than when the focal length is long (see FIG. 12C).

以上、第3の実施形態における撮像装置によれば、撮影時の焦点距離における使用したレンズのシェーディング特性を用いて、撮影した画像データにシェーディングを付加することができる。そのため、レンズや焦点距離によるシェーディングの差がシェーディングを付加する量に反映されるため、より自然なシェーディングの付加が可能となる。   As described above, according to the imaging apparatus of the third embodiment, it is possible to add shading to captured image data using the shading characteristics of the lens used at the focal length at the time of shooting. Therefore, the shading difference due to the lens and the focal length is reflected in the amount of shading, so that more natural shading can be added.

−第4の実施形態−
第4の実施形態における撮像装置では、シェーディング付加処理が行われた画像の一部を切り取るトリミングが行われた場合に、トリミングされた画像に対して、再度、適切なシェーディングを付加する処理を行う。
-Fourth Embodiment-
In the imaging device according to the fourth embodiment, when trimming is performed to cut out part of an image that has undergone shading addition processing, processing for adding appropriate shading is performed again on the trimmed image. .

図13は、第4の実施形態に係る撮像装置であるデジタルスチルカメラの構成を示すブロック図であり、図1に示す構成に対して、トリミング処理部120が追加されている。トリミング処理部120は、シェーディング処理部118でシェーディングが付加された画像データに対して、ユーザによる操作部116の操作に応じて、トリミング処理を行う。   FIG. 13 is a block diagram illustrating a configuration of a digital still camera that is an imaging apparatus according to the fourth embodiment. A trimming processing unit 120 is added to the configuration illustrated in FIG. The trimming processing unit 120 performs trimming processing on the image data to which shading is added by the shading processing unit 118 according to the operation of the operation unit 116 by the user.

図14は、第4の実施形態に係る撮影およびJPEGファイル生成時の処理フローを示すフローチャートである。図2に示すフローチャートと同じ処理を行うステップについては、同じステップ番号を付して、詳しい説明は省略する。図2に示すフローチャートと異なるのは、画像データに対してシェーディングを付加するステップS204の処理の後に、ステップS1301の処理が追加されていること、および、画像データを記録媒体112に記録するステップS1302の処理である。   FIG. 14 is a flowchart showing a processing flow when shooting and JPEG file generation according to the fourth embodiment. Steps that perform the same processing as in the flowchart shown in FIG. 2 are given the same step numbers, and detailed descriptions thereof are omitted. The difference from the flowchart shown in FIG. 2 is that the process of step S1301 is added after the process of step S204 for adding shading to the image data, and step S1302 for recording the image data on the recording medium 112. It is processing of.

ステップS1301では、ステップS204でシェーディング付加処理を行う際に算出した補正係数に、8ビットの輝度値で表示するための値255を乗じて、それぞれの画素に対応する位置に配置してできる画像を作成する。そして、作成された画像を、例えば10分の1のサイズに縮小したものを、補正係数画像とする。図15は、補正係数に基づいて作成された補正係数画像の一例を示す図である。
ステップS1302では、ステップS203の判定でシェーディングを付加した場合には、JPEG画像データとJPEGヘッダと補正係数画像を、シェーディングを付加しなかった場合には、JPEG画像データとJPEGヘッダを1つのファイルとして構成し、記録媒体112に記録する。
In step S1301, an image formed by multiplying the correction coefficient calculated when performing the shading addition process in step S204 by a value 255 for displaying with an 8-bit luminance value and disposing the image at a position corresponding to each pixel. create. Then, an image obtained by reducing the created image to, for example, one tenth size is set as a correction coefficient image. FIG. 15 is a diagram illustrating an example of a correction coefficient image created based on the correction coefficient.
In step S1302, if shading is added in the determination in step S203, the JPEG image data, JPEG header, and correction coefficient image are combined into one file. If no shading is added, the JPEG image data and JPEG header are combined into one file. Configured and recorded on the recording medium 112.

図16は、既に記録されているJPEGファイルを基に、アスペクトの変換などで行うトリミング処理におけるフローを示すフローチャートである。なお、図14に示すフローチャートの処理と同じ処理を行うステップについては、同じステップ番号を付して、詳しい説明は省略する。   FIG. 16 is a flowchart showing a flow in a trimming process performed by aspect conversion or the like based on an already recorded JPEG file. Note that steps that perform the same processes as those in the flowchart shown in FIG. 14 are given the same step numbers, and detailed descriptions thereof are omitted.

ステップS1501では、記録媒体112に記録されているトリミングする対象のJPEGファイルを選択して、記録媒体112から読み込み、JPEGヘッダからサイズ情報などの必要なデータを読み込むとともに、JPEG画像データをJPEG処理部110で解凍して画像データを得る。ここでは、例えば、記録媒体112に記録されているJPEGファイルの一覧をLCD114に表示し、操作部116をユーザが操作することで対象のJPEGファイルを決定する。図17(a)は、トリミング対象の画像データの一例を示す図であり、画像のアスペクト比は、例えば4:3である。   In step S1501, a JPEG file to be trimmed recorded on the recording medium 112 is selected, read from the recording medium 112, necessary data such as size information is read from the JPEG header, and JPEG image data is converted into a JPEG processing unit. The image data is obtained by decompressing at 110. Here, for example, a list of JPEG files recorded on the recording medium 112 is displayed on the LCD 114, and the target JPEG file is determined by operating the operation unit 116 by the user. FIG. 17A shows an example of image data to be trimmed, and the aspect ratio of the image is, for example, 4: 3.

ステップS1502では、JPEGファイルに補正係数画像が存在するか否か、すなわち、図14に示すフローチャートの処理において、シェーディングを付加する処理を行ったか否かを判定する。補正係数画像が存在すると判定するとステップS1503に進み、存在しないと判定すると、ステップS1505へ進む。   In step S1502, it is determined whether or not a correction coefficient image exists in the JPEG file, that is, whether or not shading addition processing has been performed in the processing of the flowchart shown in FIG. If it is determined that there is a correction coefficient image, the process proceeds to step S1503. If it is determined that there is no correction coefficient image, the process proceeds to step S1505.

ステップS1503では、ステップS1501で読み込んだJPEGファイルにおける補正係数画像のデータを、画像データと同じサイズになるように拡大して、補正係数を得る。例えば、図14に示すフローチャートのステップS1301において、補正係数画像のサイズを10分の1に縮小した場合には、10倍に拡大する。このとき、必要に応じて、線形補完などの補完手法を用いるのが望ましい。図17(b)は、画像データと同じサイズになるように拡大された補正係数画像を示す図である。   In step S1503, the correction coefficient image data in the JPEG file read in step S1501 is enlarged so as to have the same size as the image data to obtain a correction coefficient. For example, if the size of the correction coefficient image is reduced to 1/10 in step S1301 of the flowchart shown in FIG. 14, it is enlarged 10 times. At this time, it is desirable to use a complementing method such as linear complementing as necessary. FIG. 17B is a diagram showing a correction coefficient image enlarged to have the same size as the image data.

ステップS1504では、画像データのシェーディングを除去する。画像データの各画素に対応する、ステップS1503で得た補正係数で、各画素の値を除算することにより、シェーディングを除去することができる。図17(c)は、図17(a)に示す画像から、シェーディングが除去された画像を示している。   In step S1504, shading of image data is removed. Shading can be removed by dividing the value of each pixel by the correction coefficient obtained in step S1503 corresponding to each pixel of the image data. FIG. 17C shows an image obtained by removing shading from the image shown in FIG.

ステップS1505では、トリミング処理部120によってトリミング処理を行う。この処理は、従来から行われている一般的な処理であり、概要は、画像データにおける不要な部分を削除し、必要な部分のみを残す処理である。図17(d)は、図17(c)に示す画像に基づいて、画像の中央部分を正方形に切り抜くトリミングが行われた画像を示している。   In step S1505, the trimming processing unit 120 performs trimming processing. This process is a general process conventionally performed, and the outline is a process in which unnecessary portions in image data are deleted and only necessary portions are left. FIG. 17D shows an image that has been subjected to trimming based on the image shown in FIG.

ステップS203以降の処理は、図14に示すフローチャートと同じである。ステップS204では、トリミングされた画像データに対してシェーディングを付加する処理が行われる。シェーディングを付加する処理方法は、トリミング前の画像データに対してシェーディングを付加する処理方法と同じである。図17(e)は、図17(d)に示すトリミングされた画像に対して、シェーディングが付加された画像を示している。   The processing after step S203 is the same as the flowchart shown in FIG. In step S204, processing for adding shading to the trimmed image data is performed. The processing method for adding shading is the same as the processing method for adding shading to image data before trimming. FIG. 17E shows an image obtained by adding shading to the trimmed image shown in FIG.

ステップS1301では、補正係数画像を作成する。図17(f)は、作成された補正係数画像を示している。   In step S1301, a correction coefficient image is created. FIG. 17F shows the created correction coefficient image.

図17(g)は、図17(a)に示す画像から、シェーディングを除去せずに、画像の中央部分を正方形に切り抜くトリミングが行われた画像を示している。シェーディングが付加された画像からトリミングを行っただけの図17(g)に示す画像に比べて、トリミングされた画像に対してシェーディングを付加した図17(e)に示す画像では、シェーディングの効果がはっきりと表れている。   FIG. 17G shows an image obtained by performing trimming by cutting out the central portion of the image into a square without removing shading from the image shown in FIG. Compared with the image shown in FIG. 17G in which only the trimming is performed from the image with shading, the image shown in FIG. 17E in which shading is added to the trimmed image has an effect of shading. It appears clearly.

なお、図16のステップS204では、予めFlashメモリ117に記憶されているシェーディングテーブルを用いて補正係数の算出を行うが、第3の実施形態で説明したように、レンズ1010の撮影時の焦点距離におけるシェーディング特性を使用して、補正係数を算出するようにしてもよい。   In step S204 in FIG. 16, the correction coefficient is calculated using a shading table stored in advance in the flash memory 117. As described in the third embodiment, the focal length of the lens 1010 at the time of shooting is calculated. The correction coefficient may be calculated using the shading characteristics in FIG.

以上、第4の実施形態における撮像装置によれば、シェーディングが付加された画像データに対してトリミング処理が行われた場合に、シェーディングが付加された画像データに対して、トリミングが行われる前に行ったシェーディング付加処理とは異なるシェーディング付加処理を行う。特に、シェーディングが付加された画像データからシェーディングを除去した後、トリミングが行われた画像データに対してシェーディングを再び付加するので、トリミングが行われた画像データのサイズに応じた適切なシェーディングを付加することができる。   As described above, according to the imaging device of the fourth embodiment, when trimming processing is performed on image data to which shading has been added, before trimming is performed on image data to which shading has been added. A shading addition process different from the performed shading addition process is performed. In particular, after shading is removed from the image data with shading added, shading is added again to the trimmed image data, so appropriate shading is added according to the size of the trimmed image data. can do.

また、シェーディングが付加された画像データと、シェーディングを付加する処理を行う際に用いられた補正係数とを対応付けて記録するので、トリミング時に適切なシェーディングの付加および除去が可能となる。   Further, since image data to which shading is added and the correction coefficient used when performing the process for adding shading are recorded in association with each other, appropriate shading can be added and removed during trimming.

−第5の実施形態−
第5の実施形態における撮像装置の構成は、第4の実施形態における撮像装置の構成と同じである。第5の実施形態における撮像装置では、シェーディング付加処理が行われた画像の一部を切り取るトリミングが行われた場合に、第4の実施形態における撮像装置が行う方法とは異なる方法にて、トリミングされた画像に対して、再度、適切なシェーディングを付加する処理を行う。なお、撮影およびJPEGファイル生成時の処理フローは、図14に示すフローチャートの処理フローと同じである。
-Fifth embodiment-
The configuration of the imaging device in the fifth embodiment is the same as the configuration of the imaging device in the fourth embodiment. In the imaging device according to the fifth embodiment, when trimming is performed to cut out a part of the image subjected to the shading addition process, the trimming is performed by a method different from the method performed by the imaging device according to the fourth embodiment. The process of adding an appropriate shading is performed again on the obtained image. The processing flow at the time of shooting and JPEG file generation is the same as the processing flow of the flowchart shown in FIG.

図18は、第5の実施形態におけるトリミング処理の処理フローを示すフローチャートである。なお、図3、図14および図16に示すフローチャートの処理と同じ処理を行うステップについては、同じステップ番号を付して、詳しい説明は省略する。   FIG. 18 is a flowchart illustrating a processing flow of trimming processing according to the fifth embodiment. Note that steps that perform the same processes as those in the flowcharts shown in FIGS. 3, 14, and 16 are assigned the same step numbers, and detailed descriptions thereof are omitted.

ステップS1502の判定を否定した後に進むステップS1701では、画像データと同じサイズで、かつ、全て1である補正係数を作成する。   In step S1701, which proceeds after the determination in step S1502 is denied, a correction coefficient having the same size as the image data and all 1 is created.

ステップS203の判定を肯定した後に進むステップS1702では、ステップS301の処理と同様に、Flashメモリ117からシェーディングテーブルを読み込む。   In step S1702, which proceeds after the determination in step S203 is affirmed, the shading table is read from the flash memory 117 in the same manner as in step S301.

ステップS1703では、ステップS1702で読み込んだシェーディングテーブルに基づいて、トリミングされた画像のサイズに応じた補正係数を算出する。補正係数の算出方法は、図3に示すフローチャートのステップS302における補正係数の算出方法と同様である。そして、ステップS1701またはステップS1503で既に得られている補正係数で、ステップS302同様に得られた補正係数を除算する。これにより、トリミングする画像にシェーディングが付加されていても、そのシェーディング特性とトリミングされた画像に対して付加するシェーディング特性の差分からなる補正係数を算出できる。   In step S1703, a correction coefficient corresponding to the size of the trimmed image is calculated based on the shading table read in step S1702. The correction coefficient calculation method is the same as the correction coefficient calculation method in step S302 of the flowchart shown in FIG. Then, the correction coefficient obtained in the same manner as in step S302 is divided by the correction coefficient already obtained in step S1701 or step S1503. As a result, even if shading is added to the image to be trimmed, a correction coefficient comprising a difference between the shading characteristics and the shading characteristics to be added to the trimmed image can be calculated.

第4の実施形態における撮像装置の処理方法と、第5の実施形態における撮像装置の処理方法との違いを簡単にまとめておく。第4の実施形態における撮像装置では、画像にシェーディングを付加する際に用いた補正係数で、シェーディングが付加された画像の各画素の値を除算してシェーディングを除去し、その後、トリミングされた画像の大きさに応じた補正係数を用いて、シェーディングを付加する処理を行った。一方、第5の実施形態における撮像装置では、画像にシェーディングを付加する際に用いた補正係数で、トリミングされた画像の大きさに応じた補正係数を除算し、除算して得られた補正係数を用いて、シェーディングが付加された画像に対して、さらにシェーディングを付加する処理を行う。   The difference between the processing method of the imaging device in the fourth embodiment and the processing method of the imaging device in the fifth embodiment will be briefly summarized. In the imaging apparatus according to the fourth embodiment, the shading is removed by dividing the value of each pixel of the image with the shading by the correction coefficient used when the shading is added to the image, and then the trimmed image A process for adding shading was performed using a correction coefficient corresponding to the size of. On the other hand, in the imaging apparatus according to the fifth embodiment, the correction coefficient obtained when the shading is added to the image is divided by the correction coefficient corresponding to the size of the trimmed image, and the correction coefficient obtained by the division is obtained. Is used to further add shading to the image with the shading added.

なお、図18のステップS1702およびステップS1703では、予めFlashメモリ117に記憶されているシェーディングテーブルを用いて補正係数の算出を行ったが、第3の実施形態で説明したように、レンズ1010の撮影時の焦点距離におけるシェーディング特性を使用して、補正係数を算出するようにしてもよい。   In step S1702 and step S1703 in FIG. 18, the correction coefficient is calculated using the shading table stored in advance in the flash memory 117. However, as described in the third embodiment, the lens 1010 is photographed. The correction coefficient may be calculated using the shading characteristic at the focal length at the time.

以上、第5の実施形態における撮像装置によれば、シェーディングが付加された画像データに対してトリミング処理が行われた場合に、トリミング処理が行われた画像データに対して、トリミングが行われる前に行ったシェーディング付加処理とは異なるシェーディング付加処理を行う。特に、トリミング処理が行われる前の画像データのサイズに応じた第1の補正係数を算出するとともに、トリミング処理が行われた後の画像データのサイズに応じた第2の補正係数を算出し、算出した第1の補正係数および第2の補正係数と、トリミング処理が行われた後の画像データとに基づいて、トリミング処理が行われた後の画像データに対して、シェーディングを付加する処理を行う。これにより、シェーディングが付加された画像データから、シェーディングを除去する処理を行わなくても、トリミングが行われた画像データのサイズに応じた適切なシェーディングを付加することができる。   As described above, according to the imaging device of the fifth embodiment, when trimming processing is performed on image data to which shading has been added, before trimming is performed on image data on which trimming processing has been performed. A shading addition process that is different from the shading addition process performed in step 1 is performed. In particular, the first correction coefficient according to the size of the image data before the trimming process is calculated, and the second correction coefficient according to the size of the image data after the trimming process is calculated, A process of adding shading to the image data after the trimming process is performed based on the calculated first correction coefficient and the second correction coefficient and the image data after the trimming process is performed. Do. Accordingly, it is possible to add appropriate shading according to the size of the trimmed image data without performing shading removal processing from the image data to which shading has been added.

−第6の実施形態−
第6の実施形態における撮像装置の構成は、第1の実施形態における撮像装置の構成と同じである。第6の実施形態における撮像装置では、シェーディングを付加する際に用いる補正係数が異なる。なお、撮影およびJPEGファイル生成時の処理フローは、図2に示すフローチャートの処理フローと同じである。また、シェーディング付加時の処理フローは、図3に示すフローチャートの処理フローと同じであるが、ステップS302の補正係数の算出処理が異なる。補正係数の算出方法について、以下で詳しく説明する。
-Sixth Embodiment-
The configuration of the imaging device in the sixth embodiment is the same as the configuration of the imaging device in the first embodiment. In the imaging apparatus according to the sixth embodiment, the correction coefficient used when adding shading is different. The processing flow at the time of shooting and JPEG file generation is the same as the processing flow of the flowchart shown in FIG. The processing flow when adding shading is the same as the processing flow of the flowchart shown in FIG. 3, but the correction coefficient calculation processing in step S302 is different. A method for calculating the correction coefficient will be described in detail below.

第1の実施形態では、基準点(画像の中心位置)からの距離と補正係数とを対応付けたシェーディングテーブルを予め用意しておき、基準点からの距離に基づいてシェーディングテーブルを参照することにより、補正係数を算出した。本実施形態では、例えば、画像上の基準点からの横方向(x方向)および縦方向(y方向)それぞれの距離に対するシェーディングテーブルの値をそれぞれ求め、求めた値の積を補正係数とする。このとき、それぞれの方向の最大距離がシェーディングテーブルの最大距離の値に対応するように正規化して、補正係数を求める。これにより、同心円状ではないシェーディングを付加することができる。   In the first embodiment, a shading table in which a distance from a reference point (the center position of an image) is associated with a correction coefficient is prepared in advance, and the shading table is referred to based on the distance from the reference point. The correction factor was calculated. In the present embodiment, for example, shading table values for distances in the horizontal direction (x direction) and vertical direction (y direction) from the reference point on the image are obtained, and the product of the obtained values is used as the correction coefficient. At this time, normalization is performed so that the maximum distance in each direction corresponds to the value of the maximum distance in the shading table, and a correction coefficient is obtained. As a result, shading that is not concentric can be added.

なお、基準点からの横方向の距離に応じた補正係数を定めたシェーディングテーブルと、基準点からの縦方向の距離に応じた補正係数を定めたシェーディングテーブルの2種類のシェーディングテーブルを予め用意するようにしてもよい。   Two types of shading tables are prepared in advance: a shading table that defines a correction coefficient according to the distance in the horizontal direction from the reference point, and a shading table that defines a correction coefficient according to the distance in the vertical direction from the reference point. You may do it.

図19(a)は、基準点からの距離が同じであれば補正係数も同じ値である同心円状補正係数を用いて付加されるシェーディングの一例を示す図である。また、図19(b)は、基準点からの横方向の距離に応じて求められる横方向補正係数と、基準点からの縦方向の距離に応じて求められる縦方向補正係数とを乗算して得られる補正係数を用いて付加されるシェーディングの一例を示す図である。   FIG. 19A is a diagram illustrating an example of shading added using concentric correction coefficients having the same correction coefficient when the distance from the reference point is the same. FIG. 19B shows a product obtained by multiplying the horizontal correction coefficient obtained in accordance with the horizontal distance from the reference point and the vertical correction coefficient obtained in accordance with the vertical distance from the reference point. It is a figure which shows an example of the shading added using the correction coefficient obtained.

基準点からの横方向または縦方向の距離に対応した補正係数を全て1としたシェーディングテーブルを用いることもできる。図19(c)は、基準点からの横方向の距離に対応した補正係数を全て1とした場合に得られるシェーディングの一例を示す図である。   It is also possible to use a shading table in which all correction coefficients corresponding to the distance in the horizontal direction or the vertical direction from the reference point are set to 1. FIG. 19C is a diagram illustrating an example of shading obtained when all correction coefficients corresponding to the distance in the horizontal direction from the reference point are set to 1.

なお、補正係数の算出に用いるシェーディングテーブルは、第3の実施形態で説明したように、レンズ1010の撮影時の焦点距離におけるシェーディング特性に応じたものを用意して使用してもよい。   As described in the third embodiment, a shading table used for calculating the correction coefficient may be prepared and used according to the shading characteristics at the focal length when the lens 1010 is photographed.

−第7の実施形態−
第7の実施形態における撮像装置の構成は、第1の実施形態における撮像装置の構成と同じである。第7の実施形態における撮像装置では、シェーディングを付加する際に用いる補正係数が異なる。なお、撮影およびJPEGファイル生成時の処理フローは、図2に示すフローチャートの処理フローと同じである。また、シェーディング付加時の処理フローは、図3に示すフローチャートの処理フローと同じであるが、ステップS302の補正係数の算出処理が異なる。補正係数の算出方法について、以下で詳しく説明する。
-Seventh embodiment-
The configuration of the imaging device in the seventh embodiment is the same as the configuration of the imaging device in the first embodiment. In the imaging apparatus according to the seventh embodiment, the correction coefficient used when adding shading is different. The processing flow at the time of shooting and JPEG file generation is the same as the processing flow of the flowchart shown in FIG. The processing flow when adding shading is the same as the processing flow of the flowchart shown in FIG. 3, but the correction coefficient calculation processing in step S302 is different. A method for calculating the correction coefficient will be described in detail below.

第1の実施形態においては、基準点からの距離に応じて補正係数を算出した。本実施形態では、第1の実施形態と同一方法で算出された補正係数を、トリミングされた画像のアスペクト比に応じて、縦方向および横方向に拡大・縮小することで補正係数を算出する。   In the first embodiment, the correction coefficient is calculated according to the distance from the reference point. In the present embodiment, the correction coefficient is calculated by enlarging / reducing the correction coefficient calculated by the same method as in the first embodiment in the vertical and horizontal directions according to the aspect ratio of the trimmed image.

図20(a)は、本実施形態における撮像装置によって、4:3の画像に対する同心円状の補正係数を、16:9の画像に対する補正係数になるように拡大・縮小した補正係数を用いて、シェーディングを付加した画像を示している。16:9の画像に対応させるために、拡大・縮小した補正係数を用いることにより、画像のサイズに応じたより適切なシェーディングを付加することができる。   FIG. 20A illustrates a correction coefficient obtained by enlarging or reducing a concentric correction coefficient for a 4: 3 image so as to be a correction coefficient for a 16: 9 image by the imaging apparatus according to the present embodiment. An image with shading is shown. By using an enlarged / reduced correction coefficient to correspond to a 16: 9 image, more appropriate shading can be added according to the size of the image.

一方、図20(b)は、第1の実施形態における撮像装置によって、アスペクト比が4:3の画像データにシェーディングを付加する処理が行われた後、幅は変えずに16:9のアスペクト比になるようにトリミングした画像を示している。   On the other hand, FIG. 20B shows the aspect of 16: 9 without changing the width after the processing for adding shading to the image data having the aspect ratio of 4: 3 is performed by the imaging apparatus according to the first embodiment. An image trimmed so as to have a ratio is shown.

以上、複数の実施形態を挙げて説明したが、算出した補正係数はSDRAM106や、Flashメモリ117などに記憶し、2回目以後の処理で使用するようにしてもよい。また、シェーディングを付加する画像データの高さと幅を入れ替えた形の画像データに対する補正係数がSDRAM106や、Flashメモリ117などに記憶されている場合には、その補正係数を90度右回転または左回転した補正係数を使用してもよい。   Although a plurality of embodiments have been described above, the calculated correction coefficient may be stored in the SDRAM 106, the flash memory 117, or the like and used in the second and subsequent processes. Further, when correction coefficients for image data in which the height and width of image data to which shading is added are exchanged are stored in the SDRAM 106, the flash memory 117, or the like, the correction coefficient is rotated 90 degrees right or left. The corrected coefficient may be used.

上述した第1〜第7の実施形態では、画像データにおける光軸中心に対応する位置、すなわち、画像の中心位置を基準としてシェーディングを付加する処理を行ったが、シェーディング付加処理を行う際の基準位置は、画像上の任意の位置とすることができる。   In the first to seventh embodiments described above, the processing for adding shading is performed on the basis of the position corresponding to the optical axis center in the image data, that is, the center position of the image. However, the reference for performing the shading addition processing is used. The position can be any position on the image.

なお、上述した各実施形態の説明では、デジタルスチルカメラを例に挙げて説明したが、各実施形態で説明した処理を実現するためのプログラムをコンピュータが実行する構成とすることもできる。すなわち、CPU、RAM等の主記憶装置、各実施形態で説明した処理の全て或いは一部を実現させるためのプログラムが記憶されたコンピュータ読み取り可能な記憶媒体を備えたコンピュータにおいて、CPUが上記記憶媒体に記憶されているプログラムを読み出して、情報の加工・演算処理を実行することにより、上述の撮像装置と同様の処理を実現させる。   In the description of each embodiment described above, a digital still camera has been described as an example. However, a computer may be configured to execute a program for realizing the processing described in each embodiment. That is, in a computer having a main storage device such as a CPU and a RAM, and a computer-readable storage medium storing a program for realizing all or part of the processing described in each embodiment, the CPU stores the above storage medium. Is read out, and information processing / arithmetic processing is executed to realize the same processing as that of the above-described imaging apparatus.

ここで、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、上述したプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータがプログラムを実行するようにしても良い。   Here, the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, and the like. Further, the above-described program may be distributed to a computer via a communication line, and the computer that has received the distribution may execute the program.

本発明は、上述した第1〜第7の実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   The present invention is not limited to the first to seventh embodiments described above, and various modifications and applications are possible without departing from the scope of the present invention.

第1の実施形態に係る撮像装置であるデジタルスチルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital still camera which is an imaging device which concerns on 1st Embodiment. 第1の実施形態に係る撮影およびJPEGファイル生成時の処理フローを示すフローチャートである。It is a flowchart which shows the process flow at the time of imaging | photography and JPEG file generation concerning 1st Embodiment. 第1の実施形態に係るシェーディング付加時の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow at the time of the shading addition which concerns on 1st Embodiment. 基準点からの距離に応じた補正係数の特性の一例を示す図である。It is a figure which shows an example of the characteristic of the correction coefficient according to the distance from a reference point. 基準点からの距離の2乗に応じた補正係数の特性の一例を示す図である。It is a figure which shows an example of the characteristic of the correction coefficient according to the square of the distance from a reference point. 図6(a)は、シェーディングを付加する前の画像の一例を示す図であり、図6(b)は、シェーディングが付加された画像の一例を示す図である。FIG. 6A is a diagram illustrating an example of an image before shading is added, and FIG. 6B is a diagram illustrating an example of an image to which shading is added. 第2の実施形態における撮影およびJPEGファイル生成時の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow at the time of imaging | photography and JPEG file generation in 2nd Embodiment. 第2の実施形態において用いられるシェーディングテーブルの特性を示す図である。It is a figure which shows the characteristic of the shading table used in 2nd Embodiment. 第3の実施形態における撮影およびJPEGファイル生成時の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow at the time of imaging | photography and JPEG file generation in 3rd Embodiment. 第3の実施形態におけるシェーディング付加時の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow at the time of the shading addition in 3rd Embodiment. レンズの異なる焦点距離に応じたシェーディング特性の一例を示す図である。It is a figure which shows an example of the shading characteristic according to the focal distance from which a lens differs. 図12(a)は、シェーディングを付加する前の画像の一例を示す図、図12(b)は、短焦点側でシェーディングが付加された画像の一例を示す図、図12(c)は、長焦点側でシェーディングが付加された画像の一例を示す図である。12A shows an example of an image before adding shading, FIG. 12B shows an example of an image added with shading on the short focus side, and FIG. It is a figure which shows an example of the image to which the shading was added by the long focus side. 第4の実施形態に係る撮像装置であるデジタルスチルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital still camera which is an imaging device which concerns on 4th Embodiment. 第4の実施形態における撮影およびJPEGファイル生成時の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow at the time of imaging | photography and JPEG file generation in 4th Embodiment. 補正係数画像の一例を示す図である。It is a figure which shows an example of a correction coefficient image. 既に記録されているJPEGファイルを基に、アスペクトの変換などで行うトリミング処理におけるフローを示すフローチャートである。It is a flowchart which shows the flow in the trimming process performed by aspect conversion etc. based on the JPEG file already recorded. 図17(a)は、トリミング対象の画像データの一例を示す図、図17(b)は、画像データと同じサイズになるように拡大された補正係数画像を示す図、図17(c)は、図17(a)に示す画像から、シェーディングが除去された画像を示す図、図17(d)は、図17(c)に示す画像に基づいて、画像の中央部分を正方形に切り抜くトリミングが行われた画像を示す図、図17(e)は、図17(d)に示すトリミングされた画像に対して、シェーディングが付加された画像を示す図、図17(f)は、作成された補正係数画像を示す図、図17(g)は、図17(a)に示す画像から、シェーディングを除去せずに、画像の中央部分を正方形に切り抜くトリミングが行われた画像を示す図である。FIG. 17A shows an example of image data to be trimmed, FIG. 17B shows a correction coefficient image enlarged to the same size as the image data, and FIG. FIG. 17A is a diagram showing an image obtained by removing shading from the image shown in FIG. 17A. FIG. 17D is a diagram in which the center portion of the image is trimmed into a square based on the image shown in FIG. FIG. 17 (e) is a diagram showing an image performed, FIG. 17 (e) is a diagram showing an image obtained by adding shading to the trimmed image shown in FIG. 17 (d), and FIG. 17 (f) is created. FIG. 17G is a diagram showing a correction coefficient image, and FIG. 17G is a diagram showing an image that has been trimmed by cutting out the central portion of the image into a square without removing shading from the image shown in FIG. . 第5の実施形態におけるトリミング処理の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the trimming process in 5th Embodiment. 図19(a)は、同心円状補正係数を用いて付加されるシェーディングの一例を示す図、図19(b)は、横方向距離および縦方向距離に応じて求まる補正係数を用いて付加されるシェーディングの一例を示す図、図19(c)は、基準点からの横方向の距離に対応した補正係数を全て1とした場合に得られるシェーディングの一例を示す図である。FIG. 19A is a diagram showing an example of shading added using concentric correction coefficients, and FIG. 19B is added using correction coefficients obtained according to the horizontal distance and the vertical distance. FIG. 19C is a diagram showing an example of shading, and FIG. 19C is a diagram showing an example of shading obtained when all the correction coefficients corresponding to the distance in the horizontal direction from the reference point are set to 1. 図20(a)は、4:3の画像に対する同心円状の補正係数を、16:9の画像に対する補正係数になるように拡大・縮小した補正係数を用いて、シェーディングを付加した画像を示す図であり、図20(b)は、アスペクト比が4:3の画像データにシェーディングを付加する処理が行われた後、幅は変えずに16:9のアスペクト比になるようにトリミングした画像を示す図である。FIG. 20A is a diagram showing an image obtained by adding shading using a concentric correction coefficient for a 4: 3 image and a correction coefficient enlarged or reduced so as to be a correction coefficient for a 16: 9 image. FIG. 20B shows an image trimmed so as to have an aspect ratio of 16: 9 without changing the width after the process of adding shading to the image data having the aspect ratio of 4: 3 is performed. FIG.

符号の説明Explanation of symbols

1…カメラ本体、2…交換式レンズ、101…メカシャッター、102…撮像素子、103…アナログ処理部、104…アナログ/デジタル変換部、105…バス、106…SDRAM、107…画像処理部、108…AE処理部、109…AF処理部、110…JPEG処理部、111…メモリインターフェース、112…記録媒体、113…LCDドライバ、114…LCD、115…マイクロコンピュータ、116…操作部、117…Flashメモリ、118…シェーディング処理部、120…トリミング処理部、999…I/F、1010…レンズ、1011…Flashメモリ、1012…マイクロコンピュータ、1013…ドライバ、1014…絞り、1071…ホワイトバランス補正部、1072…同時化処理部、1073…色再現処理部、1074…ノイズ低減処理部 DESCRIPTION OF SYMBOLS 1 ... Camera body, 2 ... Interchangeable lens, 101 ... Mechanical shutter, 102 ... Image sensor, 103 ... Analog processing part, 104 ... Analog / digital conversion part, 105 ... Bus, 106 ... SDRAM, 107 ... Image processing part, 108 AE processing unit, 109 AF processing unit, 110 JPEG processing unit, 111 memory interface, 112 recording medium, 113 LCD driver, 114 LCD, 115 microcomputer, 116 operation unit, 117 flash memory 118 ... Shading processing unit 120 ... Trimming processing unit 999 ... I / F 1010 ... Lens 1011 ... Flash memory 1012 ... Microcomputer 1013 ... Driver 1014 ... Aperture 1071 ... White balance correction unit 1072 ... Synchronization processing unit, 1073... Color reproduction processing unit, 1074 ... Noise reduction processing unit

Claims (12)

撮影レンズを通して撮像素子で受光した被写体光を光電変換する撮像部と、
前記撮像部から得られる画像データに対して、ホワイトバランス補正を行うホワイトバランス補正部と、
前記ホワイトバランス補正が行われた画像データを、輝度成分のデータと色成分のデータとに分離するデータ分離部と、
前記データ分離部で分離された前記輝度成分のデータに対して、前記撮影レンズの光学特性よりも強調したシェーディングを付加するシェーディング処理部と、
を備えることを特徴とする撮像装置。
An imaging unit that photoelectrically converts subject light received by the imaging element through the imaging lens;
A white balance correction unit that performs white balance correction on image data obtained from the imaging unit;
A data separation unit for separating the image data subjected to the white balance correction into luminance component data and color component data;
A shading processing unit that adds shading emphasized over the optical characteristics of the photographing lens to the data of the luminance component separated by the data separation unit;
An imaging apparatus comprising:
前記画像データの各画素の位置に応じて、前記シェーディングを付加する処理で用いる補正係数を1以下の値として算出する補正係数算出部をさらに備え、
前記シェーディング処理部は、前記画像データの各画素の位置ごとに、その画素位置の画素値の輝度成分に前記1以下の補正係数を乗ずることにより、シェーディングを付加した画像データを得ることを特徴とする請求項1に記載の撮像装置。
A correction coefficient calculation unit that calculates a correction coefficient used in the process of adding the shading as a value of 1 or less according to the position of each pixel of the image data;
The shading processing unit obtains image data to which shading is added by multiplying the luminance component of the pixel value at the pixel position by the correction coefficient of 1 or less for each pixel position of the image data. The imaging device according to claim 1.
前記補正係数算出部は、画像上の各位置における補正係数の値を、画像上の任意の基準位置からの距離に応じて設定することを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the correction coefficient calculation unit sets a value of a correction coefficient at each position on the image according to a distance from an arbitrary reference position on the image. 前記補正係数算出部は、画像上の各位置における補正係数の値を、画像上の任意の基準位置からの第1の方向における距離と、前記第1の方向とは異なる第2の方向における距離とに応じて設定することを特徴とする請求項2に記載の撮像装置。   The correction coefficient calculation unit calculates the value of the correction coefficient at each position on the image, the distance in a first direction from an arbitrary reference position on the image, and the distance in a second direction different from the first direction. The imaging apparatus according to claim 2, wherein the imaging apparatus is set in accordance with. 画像データに対してトリミング処理を行うトリミング処理部をさらに備え、
前記シェーディング処理部は、前記シェーディングが付加された画像データに対して前記トリミング処理が行われた場合に、前記シェーディングが付加された画像データに対して、前記トリミングが行われる前に行ったシェーディング付加処理とは異なるシェーディング付加処理を行うことを特徴とする請求項1に記載の撮像装置。
A trimming processing unit for performing trimming processing on the image data;
When the trimming process is performed on the image data to which the shading is added, the shading processing unit adds the shading performed before the trimming is performed on the image data to which the shading is added. The imaging apparatus according to claim 1, wherein a shading addition process different from the process is performed.
前記シェーディングを付加するための1以下の補正係数を算出する補正係数算出部をさらに備え、
前記補正係数算出部は、前記トリミング処理が行われる前の画像データのサイズに応じた第1の補正係数を算出するとともに、前記トリミング処理が行われた後の画像データのサイズに応じた第2の補正係数を算出し、
前記シェーディング処理部は、前記トリミング処理が行われた後の画像データと、前記第1の補正係数および前記第2の補正係数とに基づいて、前記トリミング処理が行われた後の画像データに対して、前記シェーディングを付加する処理を行うことを特徴とする請求項5に記載の撮像装置。
A correction coefficient calculation unit for calculating a correction coefficient of 1 or less for adding the shading;
The correction coefficient calculation unit calculates a first correction coefficient according to the size of the image data before the trimming process is performed, and a second according to the size of the image data after the trimming process is performed. Calculate the correction factor for
The shading processing unit applies the image data after the trimming process is performed based on the image data after the trimming process is performed and the first correction coefficient and the second correction coefficient. The imaging apparatus according to claim 5, wherein processing for adding the shading is performed.
前記シェーディング処理部は、前記第2の補正係数を前記第1の補正係数で除算して得られる第3の補正係数を用いて、前記トリミング処理が行われた後の画像データに対して前記シェーディングを付加する処理を行うことを特徴とする請求項6に記載の撮像装置。   The shading processing unit uses the third correction coefficient obtained by dividing the second correction coefficient by the first correction coefficient to perform the shading on the image data after the trimming process is performed. The image pickup apparatus according to claim 6, wherein a process for adding the image is performed. 前記シェーディングが付加された画像データと、前記シェーディングを付加する処理を行う際に用いられた前記補正係数とを対応付けて記録する記録部をさらに備えることを特徴とする請求項2または請求項3に記載の撮像装置。   4. The recording apparatus according to claim 2, further comprising a recording unit that records the image data to which the shading is added and the correction coefficient used when performing the processing to add the shading in association with each other. The imaging device described in 1. 前記撮影レンズの焦点距離を取得する焦点距離取得部をさらに備え、
前記シェーディング処理部は、前記焦点距離取得部によって取得された撮影時における前記撮影レンズの焦点距離に応じて、前記画像データに付加するシェーディングの特性を変更することを特徴とする請求項1から請求項8のいずれか一項に記載の撮像装置。
A focal length acquisition unit for acquiring a focal length of the photographing lens;
The shading processing unit changes a characteristic of shading added to the image data in accordance with a focal length of the photographing lens at the time of photographing acquired by the focal length acquisition unit. The imaging device according to any one of items 8.
前記撮影レンズの焦点距離に応じたシェーディング特性のデータを記憶するシェーディング特性データ記憶部をさらに備え、
前記シェーディング処理部は、前記焦点距離取得部によって取得された撮影時における前記撮影レンズの焦点距離に応じたシェーディング特性のデータを前記シェーディング特性データ記憶部から読み出して用いることを特徴とする請求項9に記載の撮像装置。
A shading characteristic data storage unit for storing shading characteristic data according to the focal length of the photographing lens;
The shading processing unit reads out and uses shading characteristic data according to a focal length of the photographing lens at the time of photographing acquired by the focal length acquisition unit from the shading characteristic data storage unit. The imaging device described in 1.
撮影レンズを通して撮像素子で受光した被写体光を光電変換することにより得られる画像データに対して、ホワイトバランス補正を行うステップと、
前記ホワイトバランス補正が行われた画像データを、輝度成分のデータと色成分のデータとに分離するステップと、
分離された前記輝度成分のデータに対して、前記撮影レンズの光学特性よりも強調したシェーディングを付加するステップと、
を備えることを特徴とする画像処理方法。
A step of performing white balance correction on image data obtained by photoelectrically converting subject light received by an image sensor through a photographing lens;
Separating the image data on which the white balance correction has been performed into luminance component data and color component data;
Adding shading emphasized over the optical characteristics of the photographing lens to the separated luminance component data;
An image processing method comprising:
撮影レンズを通して撮像素子で受光した被写体光を光電変換することにより得られる画像データに対して、ホワイトバランス補正を行うステップと、
前記ホワイトバランス補正が行われた画像データを、輝度成分のデータと色成分のデータとに分離するステップと、
分離された前記輝度成分のデータに対して、前記撮影レンズの光学特性よりも強調したシェーディングを付加するステップと、
をコンピュータに実行させるための画像処理プログラム。
A step of performing white balance correction on image data obtained by photoelectrically converting subject light received by an image sensor through a photographing lens;
Separating the image data on which the white balance correction has been performed into luminance component data and color component data;
Adding shading emphasized over the optical characteristics of the photographing lens to the separated luminance component data;
An image processing program for causing a computer to execute.
JP2008236380A 2008-09-16 2008-09-16 Imaging apparatus and image processing method Expired - Fee Related JP5132495B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008236380A JP5132495B2 (en) 2008-09-16 2008-09-16 Imaging apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008236380A JP5132495B2 (en) 2008-09-16 2008-09-16 Imaging apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2010074244A true JP2010074244A (en) 2010-04-02
JP2010074244A5 JP2010074244A5 (en) 2011-09-15
JP5132495B2 JP5132495B2 (en) 2013-01-30

Family

ID=42205664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008236380A Expired - Fee Related JP5132495B2 (en) 2008-09-16 2008-09-16 Imaging apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5132495B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012044552A (en) * 2010-08-20 2012-03-01 Canon Inc Image processing device, image processing method, program and recording medium
JP2012124666A (en) * 2010-12-07 2012-06-28 Canon Inc Image processing apparatus and control method thereof
WO2012150680A1 (en) * 2011-05-03 2012-11-08 オリンパスイメージング株式会社 Three-dimensional image processing apparatus and three-dimensional image processing method
CN102811313A (en) * 2011-05-31 2012-12-05 奥林巴斯映像株式会社 Imaging apparatus and imaging method
JP2013026939A (en) * 2011-07-23 2013-02-04 Canon Inc Image processing device, image processing method, and program
US8885078B2 (en) 2010-12-21 2014-11-11 Olympus Imaging Corp. Image processing apparatus, image processing method, and recording medium storing image processing program
US8957982B2 (en) 2011-10-04 2015-02-17 Olympus Imaging Corp. Imaging device and imaging method
US9019400B2 (en) 2011-05-31 2015-04-28 Olympus Imaging Corp. Imaging apparatus, imaging method and computer-readable storage medium
US9402037B2 (en) 2013-04-26 2016-07-26 Olympus Corporation Imaging apparatus, image processing apparatus, and image processing method for generating random special effects

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115044A (en) * 2004-10-13 2006-04-27 Sony Corp Imaging apparatus, layout editing method and program
JP2008154002A (en) * 2006-12-18 2008-07-03 Sanyo Electric Co Ltd Electronic camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115044A (en) * 2004-10-13 2006-04-27 Sony Corp Imaging apparatus, layout editing method and program
JP2008154002A (en) * 2006-12-18 2008-07-03 Sanyo Electric Co Ltd Electronic camera

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012044552A (en) * 2010-08-20 2012-03-01 Canon Inc Image processing device, image processing method, program and recording medium
JP2012124666A (en) * 2010-12-07 2012-06-28 Canon Inc Image processing apparatus and control method thereof
US8885078B2 (en) 2010-12-21 2014-11-11 Olympus Imaging Corp. Image processing apparatus, image processing method, and recording medium storing image processing program
WO2012150680A1 (en) * 2011-05-03 2012-11-08 オリンパスイメージング株式会社 Three-dimensional image processing apparatus and three-dimensional image processing method
US9317900B2 (en) 2011-05-03 2016-04-19 Olympus Corporation Three-dimensional image processing device, and three-dimensional image processing method
CN102811313A (en) * 2011-05-31 2012-12-05 奥林巴斯映像株式会社 Imaging apparatus and imaging method
US9019400B2 (en) 2011-05-31 2015-04-28 Olympus Imaging Corp. Imaging apparatus, imaging method and computer-readable storage medium
JP2013026939A (en) * 2011-07-23 2013-02-04 Canon Inc Image processing device, image processing method, and program
US8957982B2 (en) 2011-10-04 2015-02-17 Olympus Imaging Corp. Imaging device and imaging method
US9402037B2 (en) 2013-04-26 2016-07-26 Olympus Corporation Imaging apparatus, image processing apparatus, and image processing method for generating random special effects

Also Published As

Publication number Publication date
JP5132495B2 (en) 2013-01-30

Similar Documents

Publication Publication Date Title
JP5132495B2 (en) Imaging apparatus and image processing method
US10122947B2 (en) Image pickup apparatus and image processing method
KR101626780B1 (en) Imaging apparatus, image processing method, and image processing program
US8872936B2 (en) Image processing device, white balance correction method, and imaging device
JP5126344B2 (en) Imaging apparatus, imaging method, and program
JP2004328461A (en) Automatic white balance adjustment method
JP5642344B2 (en) Image processing apparatus, image processing method, and image processing program
JP5186021B2 (en) Imaging apparatus, image processing apparatus, and imaging method
JP5185085B2 (en) Image processing apparatus, image processing method, and image processing program
US9282257B2 (en) Image apparatus and imaging method
JP2010283504A (en) Imaging device, imaging method, and imaging program
JP2004287794A (en) Image processor
JP4264808B2 (en) Moving image processing apparatus and method
JP5094686B2 (en) Image processing apparatus, image processing method, and image processing program
JP5185027B2 (en) Image display device, imaging device, image display method, and imaging method
JP2010245810A (en) Imaging apparatus
JP2004304695A (en) White balance adjustment method
JP5836109B2 (en) Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program
JP2010098428A (en) Imaging apparatus, imaging method, and imaging program
JP6592293B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP5191941B2 (en) Imaging apparatus, image processing apparatus, image processing method, and image processing program
JP2009219028A (en) Image recording method and imaging unit
JP2010239267A (en) Imaging apparatus, method for controlling peripheral darkening correction, and program
JP2010245686A (en) Imaging apparatus, method of processing image, and image processing program
JP2009206761A (en) Multi-image file editing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151116

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5132495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151116

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees