JP2010147689A - Imaging apparatus and image processing program - Google Patents

Imaging apparatus and image processing program Download PDF

Info

Publication number
JP2010147689A
JP2010147689A JP2008321337A JP2008321337A JP2010147689A JP 2010147689 A JP2010147689 A JP 2010147689A JP 2008321337 A JP2008321337 A JP 2008321337A JP 2008321337 A JP2008321337 A JP 2008321337A JP 2010147689 A JP2010147689 A JP 2010147689A
Authority
JP
Japan
Prior art keywords
image
imaging
target value
unit
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008321337A
Other languages
Japanese (ja)
Other versions
JP5233645B2 (en
Inventor
Kenichiro Iwami
謙一郎 岩見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008321337A priority Critical patent/JP5233645B2/en
Publication of JP2010147689A publication Critical patent/JP2010147689A/en
Application granted granted Critical
Publication of JP5233645B2 publication Critical patent/JP5233645B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that in a prior art, a photographer not necessarily obtains an image with desired characteristics. <P>SOLUTION: An imaging apparatus has: imaging parts (103, 104) which captures images by an optical system (102); a display part (108) which displays the images by imaging signals obtained by the imaging parts (103, 104); setting parts (112, 106) for setting target values of the imaging signals at their positions in association with specific positions in the images; and correction parts (105, 106) which correct the imaging signals obtained by the imaging parts (103, 104) based on the target values set by the setting parts (112, 106). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮影した画像の出力を補正する技術に関する。   The present invention relates to a technique for correcting the output of a captured image.

従来、撮影者が希望するダイナミックレンジや階調特性の画像を得る方法として、撮影後の再生画像やプリントに必要とされるダイナミックレンジよりも広いダイナミックレンジで画像を撮影しておき、画像再生時やプリント時に希望する特性に補正する方法が知られている(例えば、特許文献1参照)。
特許第3959581号公報
Conventionally, as a method of obtaining an image with the dynamic range and gradation characteristics desired by the photographer, an image is shot with a dynamic range wider than the dynamic range required for the reproduced image or print after shooting. And a method of correcting to a desired characteristic at the time of printing is known (for example, see Patent Document 1).
Japanese Patent No. 3959581

ところが、従来技術では、撮影時に広いダイナミックレンジで撮影しておく必要があるだけでなく、撮影後の再生画像やヒストグラム等を見ながら希望する特性に調整する手法は、カメラ搭載の階調再現性が低い液晶モニタでは難しく、得られる画像の特性が必ずしも撮影者の希望するものにはならないという問題があった。   However, in the conventional technology, it is not only necessary to shoot with a wide dynamic range at the time of shooting, but the method of adjusting to the desired characteristics while viewing the reproduced image and histogram etc. after shooting is the gradation reproducibility built in the camera However, there is a problem that the characteristics of the obtained image are not necessarily what the photographer desires.

本発明の目的は、撮影者が希望する特性の画像が得られる撮像装置および画像処理プログラムを提供することである。   An object of the present invention is to provide an imaging apparatus and an image processing program capable of obtaining an image having characteristics desired by a photographer.

本発明は、以下のような解決手段により前記課題を解決する。尚、理解を容易にするために、本発明の一実施例を示す図面に対応する符号を付して説明するが、これに限定されるものではない。   The present invention solves the above problems by the following means. For ease of understanding, reference numerals corresponding to the drawings showing an embodiment of the present invention are given and described, but the present invention is not limited to this.

請求項1に記載の発明は、光学系(102)による像を撮像する撮像部(103,104)と、前記撮像部(103,104)で得られた撮像信号による画像を表示する表示部(108)と、前記画像内の特定の位置に対応付けて該位置における前記撮像信号の目標値を設定する設定部(112,106)と、前記設定部(112,106)で設定された目標値を基準として、前記撮像部(103,104)で得られた前記撮像信号を補正する補正部(105,106)とを有することを特徴とする。   The invention according to claim 1 is an imaging unit (103, 104) that captures an image by the optical system (102), and a display unit that displays an image based on the imaging signal obtained by the imaging unit (103, 104). 108), a setting unit (112, 106) for setting a target value of the imaging signal at the position in association with a specific position in the image, and a target value set by the setting unit (112, 106) And a correction unit (105, 106) for correcting the imaging signal obtained by the imaging unit (103, 104).

請求項2に記載の発明は、前記設定部(112,106)は、前記画像においてハイエストライトとする第1位置と、ディープシャドウとする第2位置とに関する前記撮像信号の目標値を設定することを特徴とする。   According to a second aspect of the present invention, the setting unit (112, 106) sets a target value of the imaging signal related to a first position to be a highest light and a second position to be a deep shadow in the image. It is characterized by.

請求項3に記載の発明は、前記第1位置に関する第1目標値と前記第2位置に関する第2目標値は、それぞれ所定の許容範囲を有することを特徴とする。   The invention according to claim 3 is characterized in that the first target value related to the first position and the second target value related to the second position each have a predetermined allowable range.

請求項4に記載の発明は、前記補正部(105,106)は、前記撮像部(103,104)で撮像された画像の前記第1位置における前記撮像信号および前記第2位置における前記撮像信号の少なくとも一方が前記許容範囲内に無い場合は、露出条件が異なる複数の画像を前記撮像部(103,104)により撮像し、該複数の画像に基づいて前記撮像信号を補正することを特徴とする。   According to a fourth aspect of the present invention, the correction unit (105, 106) is configured such that the imaging signal at the first position and the imaging signal at the second position of an image captured by the imaging unit (103, 104). When at least one of the two is not within the allowable range, a plurality of images with different exposure conditions are captured by the imaging unit (103, 104), and the imaging signal is corrected based on the plurality of images. To do.

請求項5に記載の発明は、前記補正部(105,106)は、複数の異なる露光時間で得られる複数の画像を補正することを特徴とする。   The invention according to claim 5 is characterized in that the correction section (105, 106) corrects a plurality of images obtained at a plurality of different exposure times.

請求項6に記載の発明は、前記補正部(105,106)は、前記撮像部(103,104)で得られる前記撮像信号のダイナミックレンジを補正することを特徴とする。   The invention according to claim 6 is characterized in that the correction unit (105, 106) corrects a dynamic range of the image pickup signal obtained by the image pickup unit (103, 104).

請求項7に記載の発明は、前記設定部(112,106)は、前記画像において中間調とする第3位置に関する前記撮像信号の目標値を設定することを特徴とする。   The invention according to claim 7 is characterized in that the setting unit (112, 106) sets a target value of the imaging signal related to a third position which is a halftone in the image.

請求項8に記載の発明は、前記補正部(105,106)は、前記撮像部(103,104)でのダイナミックレンジおよび階調特性を補正することを特徴とする。   The invention according to claim 8 is characterized in that the correction unit (105, 106) corrects a dynamic range and a gradation characteristic in the imaging unit (103, 104).

請求項9に記載の発明は、画像信号に基づく画像を表示部に表示する表示手順(S102)と、前記表示部に表示された画像内の特定の位置に対応付けて該位置における前記画像信号の目標値を設定する設定手順(S103)と、前記設定手順で設定された目標値を基準として、前記画像信号を補正する補正手順(S105からS114)とを有することを特徴とする。   The invention according to claim 9 is a display procedure (S102) for displaying an image based on an image signal on the display unit, and the image signal at the position in association with a specific position in the image displayed on the display unit. And a correction procedure (S105 to S114) for correcting the image signal based on the target value set in the setting procedure.

尚、符号を付して説明した構成は適宜改良してもよく、また、少なくとも一部を他の構成物に代替してもよい。   Note that the configuration described with reference numerals may be improved as appropriate, or at least a part thereof may be replaced with another component.

本発明に係る撮像装置および画像処理プログラムは、撮影者が希望する特性の画像を得ることができる。   The imaging apparatus and the image processing program according to the present invention can obtain an image having characteristics desired by the photographer.

以下、図面を参照して本発明の実施形態に係る撮像装置および画像処理プログラムについて説明する。   Hereinafter, an imaging apparatus and an image processing program according to embodiments of the present invention will be described with reference to the drawings.

図1は第1の実施形態に係る撮像装置101の構成を示すブロック図である。撮像装置101は、光学系102と、撮像素子103と、AFE(アナログフロントエンド)回路104と、画像処理部105と、CPU(中央演算ユニット)106と、バッファメモリ107と、モニタ108と、メモリ109と、記録I/F(インターフェース)110と、メモリカード111と、操作部材112、PC(パーソナルコンピュータ)I/F113とで構成される。尚、PCI/F113にはパソコン(PC)114を接続できるようになっている。   FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus 101 according to the first embodiment. The imaging apparatus 101 includes an optical system 102, an imaging element 103, an AFE (analog front end) circuit 104, an image processing unit 105, a CPU (central processing unit) 106, a buffer memory 107, a monitor 108, and a memory. 109, a recording I / F (interface) 110, a memory card 111, an operation member 112, and a PC (personal computer) I / F 113. A personal computer (PC) 114 can be connected to the PCI / F 113.

図2は、撮像装置101の外観を示す説明図である。図2において、撮像装置101の筐体には、電源ボタン201、レリーズボタン202、ズームボタン203、十字キー204(上キー204a,下キー204b,左キー204c,右キー204d)、確定(OK)ボタン205、撮影モード選択ダイヤル206などの操作ボタンが配置されている。尚、これらの操作ボタンは、図1の操作部材112に含まれる。   FIG. 2 is an explanatory diagram showing the appearance of the imaging apparatus 101. In FIG. 2, the housing of the image pickup apparatus 101 includes a power button 201, a release button 202, a zoom button 203, a cross key 204 (up key 204a, down key 204b, left key 204c, right key 204d), and confirm (OK). Operation buttons such as a button 205 and a shooting mode selection dial 206 are arranged. These operation buttons are included in the operation member 112 in FIG.

以下、図1および図2を用いて、本実施形態に係る撮像装置101の構成について順に説明する。尚、本実施形態に係る撮像装置101は、撮影者が希望する画像特性(ダイナミックレンジや階調特性)の画像を撮影する「マニュアル階調撮影モード」を有する。また、本実施形態に係る撮像装置101において、撮像素子103とAFE回路104とで撮像部を構成し、モニタ108は撮像部で撮像される画像を表示する表示部に相当する。また、画像内の位置およびこの位置における画像信号の出力の目標値を対応付けて設定する設定部は操作部材112とCPU106とで構成され、設定部で設定された画像信号の目標値を基準として撮像した画像特性を補正する補正部は画像処理部105とCPU106とで構成される。   Hereinafter, the configuration of the imaging apparatus 101 according to the present embodiment will be described in order with reference to FIGS. 1 and 2. Note that the imaging apparatus 101 according to the present embodiment has a “manual gradation photographing mode” for photographing an image having an image characteristic (dynamic range or gradation characteristic) desired by the photographer. In the imaging apparatus 101 according to the present embodiment, the imaging element 103 and the AFE circuit 104 constitute an imaging unit, and the monitor 108 corresponds to a display unit that displays an image captured by the imaging unit. The setting unit that associates and sets the position in the image and the target value of the output of the image signal at this position includes the operation member 112 and the CPU 106, and uses the target value of the image signal set by the setting unit as a reference. A correction unit that corrects captured image characteristics includes an image processing unit 105 and a CPU 106.

図1において、光学系102は、フォーカスレンズやズームレンズなどの複数枚のレンズで構成される。光学系102に入射される被写体光は、撮像素子103の受光面に結像される。   In FIG. 1, the optical system 102 includes a plurality of lenses such as a focus lens and a zoom lens. The subject light incident on the optical system 102 forms an image on the light receiving surface of the image sensor 103.

撮像素子103は、受光面に複数の光電変換部が二次元状に配置されたCMOS型イメージセンサなどで構成される。光電変換部は、結像された被写体光の光量に応じた電気信号に変換し、AFE回路104に出力する。   The image sensor 103 is configured by a CMOS image sensor or the like in which a plurality of photoelectric conversion units are two-dimensionally arranged on the light receiving surface. The photoelectric conversion unit converts the signal into an electrical signal corresponding to the amount of imaged subject light, and outputs the electrical signal to the AFE circuit 104.

AFE回路104は、撮像素子103が出力する電気信号のノイズ除去や設定感度に応じたゲイン調整などを行う。さらに、アナログの電気信号をデジタル画像データにA/D変換して画像処理部105に出力する。   The AFE circuit 104 performs noise removal of the electric signal output from the image sensor 103, gain adjustment according to the set sensitivity, and the like. Further, the analog electrical signal is A / D converted into digital image data and output to the image processing unit 105.

画像処理部105は、CPU106の指令に応じて、AFE回路104が出力する画像データに対して画像処理(ホワイトバランス処理,色補正処理,階調処理など)を行う。さらに、「マニュアル階調撮影モード」では、所定位置の画像信号の出力値が許容範囲内にあるか否かを判別するための画像解析処理、ダイナミックレンジの拡大/圧縮処理、或いは階調特性の補正処理などを行う。尚、画像処理部105がAFE回路104から入力する画像データは、CPU106を介してバッファメモリ107に一時的に記憶され、画像処理部105はバッファメモリ107上で様々な画像処理を行う。また、処理後の画像データもバッファメモリ107に一時的に記憶される。   The image processing unit 105 performs image processing (white balance processing, color correction processing, gradation processing, etc.) on the image data output from the AFE circuit 104 in accordance with a command from the CPU 106. Further, in the “manual gradation photographing mode”, image analysis processing for determining whether or not the output value of the image signal at a predetermined position is within an allowable range, dynamic range expansion / compression processing, or gradation characteristics Perform correction processing. Note that image data input from the AFE circuit 104 by the image processing unit 105 is temporarily stored in the buffer memory 107 via the CPU 106, and the image processing unit 105 performs various image processing on the buffer memory 107. Further, the processed image data is also temporarily stored in the buffer memory 107.

CPU106は、内部に予め記憶されているプログラムに従って動作し、撮像装置101全体の動作を制御する。例えば、CPU106は、AF(オートフォーカス)制御やAE(自動露出)制御、オートホワイトバランス制御などを行う。そして、フォーカス位置に応じて光学系102のフォーカスレンズの位置を可変する。同様に、操作部材112に含まれるズームボタン203の操作に応じて、ズームレンズの位置を可変する。また、CPU106は、バッファメモリ107に一時的に記憶されている画像データをモニタ108に表示する。或いは、CPU106は、メモリカード111に保存されている撮影済みの画像データをバッファメモリ107に読み出してモニタ108に表示する。   The CPU 106 operates according to a program stored therein in advance, and controls the entire operation of the imaging apparatus 101. For example, the CPU 106 performs AF (autofocus) control, AE (automatic exposure) control, auto white balance control, and the like. Then, the position of the focus lens of the optical system 102 is varied according to the focus position. Similarly, the position of the zoom lens is changed according to the operation of the zoom button 203 included in the operation member 112. In addition, the CPU 106 displays the image data temporarily stored in the buffer memory 107 on the monitor 108. Alternatively, the CPU 106 reads captured image data stored in the memory card 111 into the buffer memory 107 and displays it on the monitor 108.

ここで、本実施形態に係る撮像装置101は、撮像素子103で時間的に連続して取り込む被写体像をライブビュー画像としてモニタ108に表示する。ライブビュー画像は、通常の静止画像を撮影する本撮影と同様に、撮像素子103からAFE回路104および画像処理部105を介してバッファメモリ107に取り込まれ、動画像のようにモニタ108に表示される。ライブビュー画像は撮影者が被写体像を確認するために用いる画像で、一般にライブビュー画像は本撮影画像よりも解像度の粗い簡易的な画像である。撮影者は、モニタ108に表示されるライブビュー画像を見て撮影構図を決定し、操作部材112に含まれるレリーズボタン202を押下する。「マニュアル階調撮影モード」ではない通常の撮影時は、撮影者が操作部材112に含まれるレリーズボタン202を押下すると、撮像素子103で撮影された本撮影画像はバッファメモリ107に一時的に記憶され、画像処理部105でホワイトバランス処理,色補正処理,階調処理(通常のガンマ変換処理)などを行った後、CPU106を介して記録I/F110に装着されているメモリカード111に保存される。   Here, the imaging apparatus 101 according to the present embodiment displays on the monitor 108 a subject image that is continuously captured in time by the imaging element 103 as a live view image. The live view image is captured from the image sensor 103 to the buffer memory 107 via the AFE circuit 104 and the image processing unit 105 and displayed on the monitor 108 like a moving image, as in the case of the main shooting for shooting a normal still image. The The live view image is an image used by the photographer to confirm the subject image. Generally, the live view image is a simple image having a coarser resolution than the actual captured image. The photographer determines the shooting composition by looking at the live view image displayed on the monitor 108 and presses the release button 202 included in the operation member 112. During normal shooting other than the “manual gradation shooting mode”, when the photographer presses the release button 202 included in the operation member 112, the actual captured image captured by the image sensor 103 is temporarily stored in the buffer memory 107. The image processing unit 105 performs white balance processing, color correction processing, gradation processing (normal gamma conversion processing), and the like, and then is stored in the memory card 111 attached to the recording I / F 110 via the CPU 106. The

バッファメモリ107は、画像処理部105が画像処理する際のバッファとして使用される。また、バッファメモリ107は、CPU106がモニタ108に表示する画像データを一時的に記憶する表示用バッファとしても使用される。   The buffer memory 107 is used as a buffer when the image processing unit 105 performs image processing. The buffer memory 107 is also used as a display buffer that temporarily stores image data to be displayed on the monitor 108 by the CPU 106.

モニタ108は、液晶モニタなどで構成され、CPU106が出力する画像(ライブビュー画像および本撮影画像)や操作メニューなどを表示する。また、CPU106は、モニタ108に表示する画像に重畳して、グラフィックや文字などを表示することができる。さらに、モニタ108にタッチパネル方式のモニタを採用して、操作部材112の操作ボタンの代わりにタッチパネルで操作できるようにしても構わない。   The monitor 108 is composed of a liquid crystal monitor or the like, and displays images (live view images and actual captured images) output from the CPU 106, operation menus, and the like. Further, the CPU 106 can display graphics, characters, and the like superimposed on the image displayed on the monitor 108. Further, a touch panel type monitor may be adopted as the monitor 108 so that it can be operated with a touch panel instead of the operation buttons of the operation member 112.

メモリ109は、フラッシュメモリなどの不揮発性メモリで構成される。メモリ109には、撮像装置101の撮影モード設定内容や露出制御値など動作に必要な様々なパラメータが記憶される。これらのパラメータは、撮像装置101の製造時に予め記憶されているパラメータや、撮影者が設定メニューで設定するパラメータなどで構成される。特に本実施形態では、「マニュアル階調撮影モード」におけるパラメータとして、例えばライブビュー画像内の位置や目標値、或いは目標値の許容範囲などが記憶される。尚、「マニュアル階調撮影モード」については後で詳しく説明する。   The memory 109 is configured by a nonvolatile memory such as a flash memory. The memory 109 stores various parameters necessary for operation, such as shooting mode setting contents and exposure control values of the imaging apparatus 101. These parameters include parameters stored in advance at the time of manufacturing the imaging apparatus 101, parameters set by the photographer using the setting menu, and the like. In particular, in the present embodiment, for example, a position in the live view image, a target value, or an allowable range of the target value are stored as parameters in the “manual gradation shooting mode”. The “manual gradation shooting mode” will be described in detail later.

記録I/F110は、不図示のコネクタを有し、該コネクタにメモリカード111が接続される。そして、CPU106が出力する画像データをメモリカード111に書き込んだり、メモリカード111に保存されている画像データをCPU106に読み出す。   The recording I / F 110 has a connector (not shown), and the memory card 111 is connected to the connector. Then, the image data output from the CPU 106 is written into the memory card 111, and the image data stored in the memory card 111 is read out to the CPU 106.

メモリカード111は、フラッシュメモリなどの不揮発性メモリで構成される。撮像装置101で撮影した画像データが保存される。また、撮影済みの画像が保存されたメモリカード111をパソコンに装着して、パソコン上で撮影済みの画像に対して画像処理を行うことができる。   The memory card 111 is composed of a nonvolatile memory such as a flash memory. Image data captured by the imaging apparatus 101 is stored. In addition, a memory card 111 in which captured images are stored can be attached to a personal computer, and image processing can be performed on the captured images on the personal computer.

操作部材112は、図2に示すように、撮影者が撮像装置101を操作するためのボタン類で構成される。撮影者は、これらの操作ボタンを用いて撮像装置101を操作する。そして、各操作ボタンの操作情報はCPU106に出力され、CPU106は操作ボタンの操作情報に応じて撮像装置101全体の動作を制御する。例えば、撮影者が操作部材112の撮影モード選択ダイヤル206を操作して「マニュアル階調撮影モード」を選択すると、CPU106は「マニュアル階調撮影モード」の処理を開始する。   As illustrated in FIG. 2, the operation member 112 includes buttons for the photographer to operate the imaging apparatus 101. The photographer operates the imaging apparatus 101 using these operation buttons. The operation information of each operation button is output to the CPU 106, and the CPU 106 controls the operation of the entire imaging apparatus 101 according to the operation information of the operation button. For example, when the photographer operates the photographing mode selection dial 206 of the operation member 112 to select “manual gradation photographing mode”, the CPU 106 starts processing of “manual gradation photographing mode”.

PC(パソコン)I/F113は、USB(汎用シリアルバス)インターフェースやLAN(ローカルエリアネットワーク)などで構成される。PC114は、PCI/F113を介して撮像装置101に装着されているメモリカード111に保存された画像データを読み出したり、逆にメモリカード111に画像データを書き込むことができる。或いは、CPU106は、PC114からのコマンドに応じて、メモリ109に記憶されている各種パラメータを変更することもできる。さらに、LANやインターネットを介して遠隔地にあるPC114と撮像装置101とを接続して、撮像装置101からPC114にライブビュー画像を送り、PC114側で「マニュアル階調撮影モード」の処理を実行して、撮影者が希望する出力特性の画像を撮像装置101で撮影することも可能である。   The PC (personal computer) I / F 113 includes a USB (general-purpose serial bus) interface, a LAN (local area network), and the like. The PC 114 can read out image data stored in the memory card 111 attached to the imaging apparatus 101 via the PCI / F 113, and conversely write image data into the memory card 111. Alternatively, the CPU 106 can change various parameters stored in the memory 109 in accordance with commands from the PC 114. Further, the remote PC 114 and the imaging device 101 are connected via a LAN or the Internet, the live view image is sent from the imaging device 101 to the PC 114, and the processing of the “manual gradation shooting mode” is executed on the PC 114 side. Thus, it is also possible to take an image of the output characteristics desired by the photographer with the imaging device 101.

次に、本実施形態に係る撮像装置101の「マニュアル階調撮影モード」について詳しく説明する。撮影者は、操作部材112の撮影モード選択ダイヤル206を用いて、「マニュアル階調撮影モード」を選択する。「マニュアル階調撮影モード」では、撮影者はモニタ108に表示されるライブビュー画像を見ながら十字キー204を操作し、ハイエストライト(最大輝度値)にしたい画面上の位置(第1位置)と、ディープシャドウ(最小輝度値)にしたい画面上の位置(第2位置)とを指定する。さらに、中間調にしたい画面上の位置(第3位置)を指定してもよい。この様子を図2に示す。   Next, the “manual gradation shooting mode” of the imaging apparatus 101 according to the present embodiment will be described in detail. The photographer uses the photographing mode selection dial 206 of the operation member 112 to select “manual gradation photographing mode”. In the “manual gradation shooting mode”, the photographer operates the cross key 204 while viewing the live view image displayed on the monitor 108, and sets the position (first position) on the screen where the highest light (maximum luminance value) is desired. The position (second position) on the screen to be used for the deep shadow (minimum luminance value) is designated. Furthermore, a position (third position) on the screen where halftone is desired may be designated. This is shown in FIG.

図2のモニタ108のライブビュー画像の拡大画面において、ハイエストライトポイントH301と、ディープシャドウポイントL302と、中間調ポイントM303とがライブビュー画像に重畳されて表示されている。   On the enlarged screen of the live view image of the monitor 108 in FIG. 2, the highest light point H301, the deep shadow point L302, and the halftone point M303 are displayed superimposed on the live view image.

各ポイントの位置指定の方法は、例えばCPU106が「マニュアル階調撮影モード」を開始した時に、先ずハイエストライトポイントH301の記号Hをライブビュー画像に重畳して点滅表示させる。そして、撮影者は十字キー204の上キー204a,下キー204b,左キー204c,右キー204dを用いて、ハイエストライトポイントH301の記号Hを上下左右に動かして、指定したいライブビュー画像上の位置に移動する。そこで、撮影者がOKボタン205を押下すると、CPU106はハイエストライトポイントH301の記号Hがあるライブビュー画像上の位置を読み取って、メモリ109に一時的に記憶する。そして、ライブビュー画像上のハイエストライトポイントH301の記号Hの点滅を止めて表示状態に固定する。   For example, when the CPU 106 starts the “manual gradation shooting mode”, the symbol H of the highest light point H301 is first superimposed on the live view image and blinked. Then, the photographer uses the up key 204a, the down key 204b, the left key 204c, and the right key 204d of the cross key 204 to move the symbol H of the highest light point H301 up and down, left and right, and to specify the position on the live view image to be designated. Move to. Therefore, when the photographer presses the OK button 205, the CPU 106 reads the position on the live view image where the symbol H of the highest light point H301 is present and temporarily stores it in the memory 109. Then, the blinking of the symbol H of the highest light point H301 on the live view image is stopped and fixed to the display state.

次に、CPU106はディープシャドウポイントL302の記号Lをライブビュー画像に重畳して点滅表示させる。そして、ハイエストライトポイントH301の位置指定と同様に、撮影者は十字キー204の上キー204a,下キー204b,左キー204c,右キー204dを用いて、ディープシャドウポイントL302の記号Lを上下左右に動かして、指定したいライブビュー画像上の位置に移動する。そこで、撮影者がOKボタン205を押下すると、CPU106はディープシャドウポイントL302の記号Lがあるライブビュー画像上の位置を読み取って、メモリ109に一時的に記憶する。そして、ライブビュー画像上のディープシャドウポイントL302の記号Lの点滅を止めて表示状態に固定する。   Next, the CPU 106 superimposes the symbol L of the deep shadow point L302 on the live view image and blinks it. Then, similarly to the position designation of the highest light point H301, the photographer uses the up key 204a, down key 204b, left key 204c, and right key 204d of the cross key 204 to move the symbol L of the deep shadow point L302 up, down, left, and right. Move to the position on the live view image you want to specify. Therefore, when the photographer presses the OK button 205, the CPU 106 reads the position on the live view image where the symbol L of the deep shadow point L302 is present and temporarily stores it in the memory 109. Then, the flashing of the symbol L of the deep shadow point L302 on the live view image is stopped and fixed to the display state.

引き続き、中間調ポイントM303の指定を行う場合は、CPU106は中間調ポイントM303の記号Mをライブビュー画像に重畳して点滅表示させる。そして、ハイエストライトポイントH301の記号Hの位置指定やディープシャドウポイントL302の記号Lの位置指定と同様に、撮影者は十字キー204の上キー204a,下キー204b,左キー204c,右キー204dを用いて、中間調ポイントM303の記号Mを上下左右に動かして、指定したいライブビュー画像上の位置に移動する。そこで、撮影者がOKボタン205を押下すると、CPU106は中間調ポイントM303の記号Mがあるライブビュー画像上の位置を読み取って、メモリ109に一時的に記憶する。   Subsequently, when designating the halftone point M303, the CPU 106 superimposes the symbol M of the halftone point M303 on the live view image and blinks it. Then, similar to the designation of the position of the symbol H of the highest light point H301 and the designation of the position of the symbol L of the deep shadow point L302, the photographer uses the upper key 204a, the lower key 204b, the left key 204c, and the right key 204d of the cross key 204. The symbol M of the halftone point M303 is moved up, down, left and right to move to a position on the live view image to be designated. Therefore, when the photographer presses the OK button 205, the CPU 106 reads the position on the live view image where the symbol M of the halftone point M303 is present and temporarily stores it in the memory 109.

このようにして、撮影者は、ハイエストライトポイントH301と、ディープシャドウポイントL302と、中間調ポイントM303との各ポイントの位置を指定する。尚、この時、モニタ108をタッチパネルで構成すれば、各ポイントの位置を容易に指定することができる。   In this way, the photographer designates the position of each point of the highest light point H301, the deep shadow point L302, and the halftone point M303. At this time, if the monitor 108 is constituted by a touch panel, the position of each point can be easily specified.

ここで、位置の情報は、例えばモニタ108の画面の縦横の画素位置を(x,y)座標で表す。この場合は、モニタ108の縦横の画素数を320×240とすると、ハイエストライトポイントHの位置は座標H(220,200)、ディープシャドウポイントLの位置は座標L(80,60)、中間調ポイントMの位置は座標M(240,120)のように表される。これらの位置座標は、メモリ109に記憶される。   Here, the position information represents, for example, vertical and horizontal pixel positions on the screen of the monitor 108 by (x, y) coordinates. In this case, assuming that the number of vertical and horizontal pixels of the monitor 108 is 320 × 240, the position of the highest light point H is coordinates H (220, 200), the position of the deep shadow point L is coordinates L (80, 60), and halftones. The position of the point M is expressed as coordinates M (240, 120). These position coordinates are stored in the memory 109.

次に、ハイエストライトポイント、ディープシャドウポイント、中間調ポイントにおける画像信号の目標値の設定について説明する。目標値の設定は、例えば操作部材112を操作して「マニュアル階調撮影モード」のメニュー画面をモニタ108に表示し、各ポイントの目標値を入力する。尚、十字キー204を用いて目標値を入力する方法は、例えば図3に示すような「マニュアル階調撮影モード」のメニュー画面において、十字キー204の左キー204cと右キー204dを用いて目標値を設定したいポイント項目(ハイエストライトポイント、ディープシャドウポイント、中間調ポイント)のいずれかを選択する。例えば、選択された項目は太枠で囲まれるようにする。   Next, setting of the target value of the image signal at the highest light point, the deep shadow point, and the halftone point will be described. The target value is set by, for example, operating the operation member 112 to display the “manual gradation photographing mode” menu screen on the monitor 108 and inputting the target value of each point. Note that the method of inputting the target value using the cross key 204 is performed by using the left key 204c and the right key 204d of the cross key 204 on the menu screen of the “manual gradation shooting mode” as shown in FIG. Select one of the point items (highest light point, deep shadow point, halftone point) for which you want to set a value. For example, the selected item is surrounded by a thick frame.

図3の場合は、太枠で囲まれた項目(ハイエストライトポイント)が選択された状態を示している。この状態で、十字キー204の上キー204aまたは下キー204bを押す毎に選択された項目の目標値を上下させ、撮影者が希望する目標値になったらOKボタン205を押下して、その項目の目標値を確定する。次に、ディープシャドウポイントの目標値を設定する場合は、同様に十字キー204の左キー204cと右キー204dを用いてディープシャドウポイントの項目を選択し、さらに十字キー204の上キー204aまたは下キー204bを用いてディープシャドウポイントの目標値を選択する。また、中間調ポイントについても同様の操作で目標値を設定することができる。   In the case of FIG. 3, an item (highest light point) surrounded by a thick frame is selected. In this state, each time the upper key 204a or the lower key 204b of the cross key 204 is pressed, the target value of the selected item is raised or lowered. When the target value desired by the photographer is reached, the OK button 205 is pressed to Determine the target value for. Next, when setting the target value of the deep shadow point, similarly, the item of the deep shadow point is selected using the left key 204c and the right key 204d of the cross key 204, and the upper key 204a or the lower key of the cross key 204 is further selected. The target value of the deep shadow point is selected using the key 204b. Also, the target value can be set for halftone points by the same operation.

次に、本実施形態に係る撮像装置101の「マニュアル階調撮影モード」での撮影処理について、図4のフローチャートを用いて詳しく説明する。尚、図4のフローチャートは、CPU106の内部に予め組み込まれたプログラムに従って動作し、画像処理部105に画像処理を適宜指令する。   Next, shooting processing in the “manual gradation shooting mode” of the imaging apparatus 101 according to the present embodiment will be described in detail with reference to the flowchart of FIG. Note that the flowchart of FIG. 4 operates according to a program incorporated in the CPU 106 in advance, and appropriately instructs the image processing unit 105 to perform image processing.

(ステップS101)撮影者は、操作部材112の撮影モードダイヤル206を用いて、「マニュアル階調撮影モード」を選択する。尚、この時、カメラを三脚に固定するのが好ましい。   (Step S101) The photographer uses the photographing mode dial 206 of the operation member 112 to select “manual gradation photographing mode”. At this time, it is preferable to fix the camera to a tripod.

(ステップS102)CPU106は、撮像素子103で取り込まれるライブビュー画像を表示部108に表示する。   (Step S <b> 102) The CPU 106 displays a live view image captured by the image sensor 103 on the display unit 108.

(ステップS103)撮影者は、先に説明したように、ハイエストライトポイント、ディープシャドウポイント、中間調ポイントのそれぞれの位置および目標値を設定する。尚、設定内容はメモリ109に記憶される。   (Step S103) As described above, the photographer sets the positions and target values of the highest light point, deep shadow point, and halftone point. The setting contents are stored in the memory 109.

(ステップS104)CPU106は、撮影者がレリーズボタン202を押下したか否かを判別する。ここで、CPU106はレリーズボタン202が押下されるまで待ち、レリーズボタン202が押下された場合にステップS105へ進む。尚、レリーズボタン202が押下されなくても撮影モードダイヤル206が変更されたり、他のメニュー画面が選択された場合には、「マニュアル階調撮影モード」を終了し、本フローチャートから抜ける。   (Step S <b> 104) The CPU 106 determines whether or not the photographer has pressed the release button 202. Here, the CPU 106 waits until the release button 202 is pressed, and proceeds to step S105 when the release button 202 is pressed. If the shooting mode dial 206 is changed or another menu screen is selected even if the release button 202 is not pressed, the “manual gradation shooting mode” is terminated and the process exits from this flowchart.

(ステップS105)CPU106は、撮影処理を行う。具体的には、撮像素子103で撮影された画像データはバッファメモリ107に一時的に記憶され、画像処理部105でホワイトバランス処理,色補正処理,階調処理などが行われる。尚、通常の撮影処理では、画像処理部105が処理した画像データは、JPEG等の画像圧縮処理が施されて、CPU106を介して記録I/F110に装着されているメモリカード111に保存されるが、「マニュアル階調撮影モード」の場合は、この時点では未だバッファメモリ107に一時的に記憶された状態にある。   (Step S105) The CPU 106 performs a photographing process. Specifically, image data captured by the image sensor 103 is temporarily stored in the buffer memory 107, and white balance processing, color correction processing, gradation processing, and the like are performed by the image processing unit 105. Note that in normal shooting processing, image data processed by the image processing unit 105 is subjected to image compression processing such as JPEG, and is stored in the memory card 111 attached to the recording I / F 110 via the CPU 106. However, in the “manual gradation photographing mode”, the buffer memory 107 is still temporarily stored at this time.

(ステップS106)CPU106は、画像処理部105に画像解析処理を指令する。指令を受けた画像処理部105は、ステップS105でバッファメモリ107に記憶された画像データに対して、ステップS103でメモリ109に記憶されたハイエストライトポイント、ディープシャドウポイント、中間調ポイントの各位置での画像信号の出力値を求める。尚、各位置での画像信号の出力値は、各位置に対応する1つの画素の画像信号の出力値を用いても構わないし、各位置に対応する画素周辺の複数画素の画像信号の平均出力値を用いても構わない。   (Step S <b> 106) The CPU 106 instructs the image processing unit 105 to perform image analysis processing. Upon receiving the command, the image processing unit 105 performs the highest light point, deep shadow point, and halftone point stored in the memory 109 in step S103 on the image data stored in the buffer memory 107 in step S105. The output value of the image signal is obtained. The output value of the image signal at each position may be the output value of the image signal of one pixel corresponding to each position, or the average output of the image signals of a plurality of pixels around the pixel corresponding to each position. A value may be used.

(ステップS107)CPU106は、ステップS106で求めたハイエストライトポイント、ディープシャドウポイントの各位置での画像信号の出力値が予め撮像装置101に設定されている画像信号の出力値の許容範囲内に入っているか否かを判別する。許容範囲内に入っている場合はステップS114に進み、許容範囲内に入っていない場合はステップS108に進む。尚、本処理ステップでは、中間調ポイントの画像信号の出力値が許容範囲内に入っているか否かの判別は行っていないが、中間調ポイントの画像信号の出力値についても許容範囲内に入っているか否かの判別を行うようにしても構わない。   (Step S107) The CPU 106 outputs the output value of the image signal at each position of the highest light point and deep shadow point obtained in Step S106 within the allowable range of the output value of the image signal set in the imaging apparatus 101 in advance. It is determined whether or not. If it is within the allowable range, the process proceeds to step S114. If it is not within the allowable range, the process proceeds to step S108. In this processing step, it is not determined whether the output value of the halftone point image signal is within the allowable range, but the output value of the halftone point image signal is also within the allowable range. It may be determined whether or not it is.

ここで、本撮影画像の各位置の画像信号の出力値が先に設定された目標値の許容範囲内に入っている場合の例について図5を用いて説明する。図5において、ライブビュー画像251で設定したハイエストライトポイントH301,ディープシャドウポイントL302,中間調ポイントM303のそれぞれの目標値は、ハイエストライトポイントHの目標値=250,ディープシャドウポイントLの目標値=10,中間調ポイントMの目標値=128である。また、ハイエストライトポイントH301とディープシャドウポイントL302の各画像信号の出力値の許容範囲は、それぞれ±20である。この時、ステップS105で撮影した本撮影画像252の各位置での画像信号の出力値が例えばハイエストライトポイントH=240,ディープシャドウポイントL=20,中間調ポイントM=140であったとすると、本撮影画像252のハイエストライトポイントH301とディープシャドウポイントL302の各画像信号の出力値は、それぞれの目標値の許容範囲内に入っているので、ステップS114に進む。   Here, an example in which the output value of the image signal at each position of the captured image is within the allowable range of the target value set previously will be described with reference to FIG. In FIG. 5, the target values of the highest light point H301, deep shadow point L302, and halftone point M303 set in the live view image 251 are the target value of the highest light point H = 250, the target value of the deep shadow point L = 10. Target value of halftone point M = 128. Further, the allowable ranges of the output values of the image signals of the highest light point H301 and the deep shadow point L302 are ± 20, respectively. At this time, assuming that the output values of the image signal at each position of the actual captured image 252 captured in step S105 are, for example, a highest light point H = 240, a deep shadow point L = 20, and a halftone point M = 140. Since the output values of the image signals of the highest light point H301 and the deep shadow point L302 of the captured image 252 are within the allowable ranges of the respective target values, the process proceeds to step S114.

次に、本撮影画像の各位置の画像信号の出力値が先に設定された目標値の許容範囲内に入っていない場合の例について図6を用いて説明する。図6において、ライブビュー画像254で設定したハイエストライトポイントH301,ディープシャドウポイントL302,中間調ポイントM303のそれぞれの目標値は、ハイエストライトポイントHの目標値=250,ディープシャドウポイントLの目標値=10,中間調ポイントMの目標値=128である。また、ハイエストライトポイントH301とディープシャドウポイントL302の各画像信号の出力値の許容範囲は、それぞれ±20である。この時、ステップS105で撮影した本撮影画像255の各位置での画像信号の出力値が例えばハイエストライトポイントH=220,ディープシャドウポイントL=20,中間調ポイントM=110であったとすると、本撮影画像255のハイエストライトポイントH301の画像信号の出力値がそれぞれの目標値の許容範囲内に入っていないので、ステップS108に進む。尚、ハイエストライトポイントH301とディープシャドウポイントL302の少なくとも1つの画像信号の出力値がその目標値の許容範囲内に入っていない場合は、ステップS108に進む。   Next, an example in which the output value of the image signal at each position of the actual captured image is not within the allowable range of the target value set previously will be described with reference to FIG. In FIG. 6, the target values of the highest light point H301, the deep shadow point L302, and the halftone point M303 set in the live view image 254 are the target value of the highest light point H = 250, the target value of the deep shadow point L = 10. Target value of halftone point M = 128. Further, the allowable ranges of the output values of the image signals of the highest light point H301 and the deep shadow point L302 are ± 20, respectively. At this time, if the output value of the image signal at each position of the actual captured image 255 captured in step S105 is, for example, a highest light point H = 220, a deep shadow point L = 20, and a halftone point M = 110. Since the output value of the image signal at the highest light point H301 of the photographed image 255 is not within the allowable range of each target value, the process proceeds to step S108. If the output value of at least one image signal of the highest light point H301 and the deep shadow point L302 is not within the allowable range of the target value, the process proceeds to step S108.

このように、ステップS107では、ステップS105で撮影された本撮影画像のハイエストライトポイントH301とディープシャドウポイントL302の両方の画像信号の出力値がそれぞれの目標値の許容範囲内に入っているか否かを判別する。   As described above, in step S107, whether or not the output values of the image signals of both the highest light point H301 and the deep shadow point L302 of the actual captured image captured in step S105 are within the allowable ranges of the respective target values. Is determined.

(ステップS108)CPU106は、ステップS105で撮影された画像のハイエストライトポイント位置の画像信号の出力値またはディープシャドウポイント位置の画像信号の出力値がそれぞれの目標値になるための露出補正量を算出する。尚、この時、ステップS107で許容範囲内であったポイントを計算対象とする。ここで、露出補正量の算出は、例えば、シャッタースピードを1段階上下すると撮影される画像の画像信号の出力値がどれだけ変化するかを予め撮像装置101の設計値や実測値から求め、撮像装置101の製造時にメモリ109に記憶しておく。   (Step S108) The CPU 106 calculates an exposure correction amount for the output value of the image signal at the highest light point position or the output value of the image signal at the deep shadow point position of the image taken in step S105 to be the respective target values. To do. At this time, the points that were within the allowable range in step S107 are to be calculated. Here, the exposure correction amount is calculated, for example, by calculating in advance from the design value or actual measurement value of the imaging device 101 how much the output value of the image signal of the image to be captured changes when the shutter speed is increased or decreased by one step. It is stored in the memory 109 when the apparatus 101 is manufactured.

例えば、シャッタースピードを1段階上下すると撮影される画像の画像信号の出力値が約10だけ上下する時、目標値が250に対して撮影された画像の画像信号の出力値が220の場合は、シャッタースピードを3段階下げればよい。例えば、画像の画像信号の出力値が220の時のシャッタースピードが1/500秒だった場合は、露出補正後のシャッタースピードは3段分低速の1/60秒になる。逆に、目標値が10に対して撮影された画像の画像信号の出力値が40の場合は、シャッタースピードを3段階上げればよいので、例えば画像の画像信号の出力値が10の時のシャッタースピードが1/500秒だった場合は、露出補正後のシャッタースピードは3段分高速の1/4000秒になる。このようにして、CPU106は、ステップS105で撮影された画像のハイエストライトポイント位置の画像信号の出力値またはディープシャドウポイント位置の画像信号の出力値がそれぞれ目標値になるための露出補正量を算出する。   For example, when the output value of the image signal of the image to be captured is increased or decreased by about 10 when the shutter speed is increased or decreased by one step, and the output value of the image signal of the image captured with respect to the target value is 250, Just lower the shutter speed by three levels. For example, when the shutter speed when the output value of the image signal of the image is 220 is 1/500 seconds, the shutter speed after exposure correction is 1/60 seconds, which is three steps slower. On the contrary, when the output value of the image signal of the image taken with respect to the target value 10 is 40, the shutter speed may be increased by three stages. For example, the shutter when the output value of the image signal of the image is 10 When the speed is 1/500 seconds, the shutter speed after exposure correction is 1/4000 seconds, which is three steps faster. In this way, the CPU 106 calculates the exposure correction amount for the output value of the image signal at the highest light point position or the output value of the image signal at the deep shadow point position of the image taken in step S105 to be the target value. To do.

尚、本実施形態では、シャッタースピードで露出補正を行うようにしたが、AFE回路104のゲイン調整で露出補正を行うようにしても構わない。また、絞りで露出補正を行うようにしても構わないが、露出補正前後の画像で被写界深度の違いが目立つような被写体の場合は好ましくない。   In this embodiment, exposure correction is performed at the shutter speed. However, exposure correction may be performed by gain adjustment of the AFE circuit 104. Further, although exposure correction may be performed with the aperture, it is not preferable for a subject in which a difference in depth of field is conspicuous in images before and after exposure correction.

(ステップS109)CPU106は、ステップS108で算出した露出補正量になるように、露出条件(シャッタースピードやISO感度(ゲイン調整)或いは絞り値など)を変える。   (Step S109) The CPU 106 changes the exposure conditions (shutter speed, ISO sensitivity (gain adjustment), aperture value, etc.) so that the exposure correction amount calculated in step S108 is obtained.

(ステップS110)CPU106は、自動的に撮影処理を行い、新たに本撮影画像を撮影する。尚、撮像素子103で撮影された画像データはバッファメモリ107に一時的に記憶され、画像処理部105でホワイトバランス処理,色補正処理,階調処理などが行われる。例えば、図6の本撮影画像256はステップS110で新たに撮影された本撮影画像である。この時、ステップS105で撮影された本撮影画像255も未だバッファメモリ107に記憶された状態にある。   (Step S <b> 110) The CPU 106 automatically performs a photographing process and newly captures a main captured image. Note that the image data captured by the image sensor 103 is temporarily stored in the buffer memory 107, and the image processing unit 105 performs white balance processing, color correction processing, gradation processing, and the like. For example, the actual captured image 256 in FIG. 6 is the actual captured image newly captured in step S110. At this time, the actual captured image 255 captured in step S105 is still stored in the buffer memory 107.

(ステップS111)CPU106は、ステップS106と同様に、画像処理部105に画像解析処理を指令する。指令を受けた画像処理部105は、ステップS110で撮影されたバッファメモリ107に記憶されている画像データに対して、ハイエストライトポイント、ディープシャドウポイント、中間調ポイントの各位置の画像信号の出力値を求める。尚、各位置での画像信号の出力値の求め方は、ステップS106と同様である。例えば、図6の本撮影画像256の各位置の画像信号の出力値は、ハイエストライトポイントH=250,ディープシャドウポイントL=50,中間調ポイントM=140となっている。   (Step S111) The CPU 106 instructs the image processing unit 105 to perform image analysis processing in the same manner as in Step S106. Upon receiving the command, the image processing unit 105 outputs the output value of the image signal at each position of the highest light point, deep shadow point, and halftone point with respect to the image data stored in the buffer memory 107 photographed in step S110. Ask for. The method for obtaining the output value of the image signal at each position is the same as in step S106. For example, the output value of the image signal at each position of the actual captured image 256 in FIG. 6 is a highest light point H = 250, a deep shadow point L = 50, and a halftone point M = 140.

(ステップS112)CPU106は、ステップS107と同様に、ステップS111で求めたハイエストライトポイント、ディープシャドウポイントの各位置での画像信号の出力値が予め撮像装置101に設定されている目標値の許容範囲内に入っているか否かを判別する。許容範囲内に入っている場合はステップS113に進み、許容範囲内に入っていない場合はステップS108に戻る。尚、ここでの許容範囲内であるか否かの判別は、ステップS107で許容範囲内に入らなかったポイントについてのみ行い、ステップS107で許容範囲内に入っていたポイントが許容範囲内に入っているか否かの判別は行わない。   (Step S112) Similar to step S107, the CPU 106 allows an allowable range of a target value in which the output values of the image signal at each position of the highest light point and deep shadow point obtained in step S111 are set in the imaging apparatus 101 in advance. It is determined whether it is inside. If it is within the allowable range, the process proceeds to step S113. If it is not within the allowable range, the process returns to step S108. Here, the determination as to whether or not it is within the allowable range is made only for the points that are not within the allowable range at step S107, and the points that were within the allowable range at step S107 are within the allowable range. It is not determined whether or not there is.

例えば、図6の本撮影画像255で許容範囲内に入らなかったハイエストライトポイントHの画像信号の出力値についてのみ、目標値(250)の許容範囲(±20)内に入っているかいなかの判別を行う。ステップS110で新たに撮影された本撮影画像256の画像信号の出力値は、ハイエストライトポイントH=250,ディープシャドウポイントL=50,中間調ポイントM=140なので、ハイエストライトポイントHの画像信号の出力値は目標値(250)の許容範囲(±20)内に入っていると判別し、ステップS113に進む。   For example, it is determined whether only the output value of the image signal at the highest light point H that is not within the allowable range in the actual captured image 255 of FIG. 6 is within the allowable range (± 20) of the target value (250). I do. The output values of the image signal of the actual captured image 256 newly captured in step S110 are the highest light point H = 250, the deep shadow point L = 50, and the halftone point M = 140. It is determined that the output value is within the allowable range (± 20) of the target value (250), and the process proceeds to step S113.

尚、本撮影画像256のハイエストライトポイントHの画像信号の出力値が目標値の許容範囲内に入っていなかった場合は、ステップS108に戻り、本撮影画像256を基にして再び露出補正量を算出し、ステップS109からステップS111までの処理を実行する。このようにして、ステップS107で許容範囲内に入らなかったポイントの画像信号の出力値がその目標値の許容範囲内に入るまで同様の処理を繰り返す。例えば、ステップS107でハイエストライトポイントとディープシャドウポイントの両方が目標値の許容範囲内に入らなかった場合は、両方のポイントの画像信号の出力値が目標値の許容範囲内に入るまで本撮影画像を撮影する。尚、この時、ハイエストライトポイントの画像信号の出力値が目標値の許容範囲内に入っている本撮影画像と、ディープシャドウポイントの画像信号の出力値が目標値の許容範囲内に入っている本撮影画像の2枚の画像が得られればよい。   If the output value of the image signal at the highest light point H of the actual captured image 256 is not within the allowable range of the target value, the process returns to step S108, and the exposure correction amount is again set based on the actual captured image 256. Calculate and execute the processing from step S109 to step S111. In this way, the same processing is repeated until the output value of the image signal at the point that does not fall within the allowable range in step S107 falls within the allowable range of the target value. For example, if both the highest light point and the deep shadow point are not within the allowable range of the target value in step S107, the actual captured image is output until the output values of the image signals at both points are within the allowable range of the target value. Shoot. At this time, the output value of the image signal of the high light point is within the allowable range of the target value, and the output value of the image signal of the deep shadow point is within the allowable range of the target value. It is only necessary to obtain two images of the actual captured image.

(ステップS113)CPU106は、画像処理部105に画像合成処理を指令する。指令を受けた画像処理部105は、ステップS105で撮影した本撮影画像と、ステップS108からステップS112までの繰り返し処理で撮影した少なくとも1枚の本撮影画像とを合成して1枚の合成画像を作成する。尚、この段階では、作成された合成画像のハイエストライトポイント、ディープシャドウポイントの各位置での画像信号の出力値はそれぞれの目標値の許容範囲内に入っているが、必ずしも目標値に合致しているとは限らない。例えば、図6に示すように、本撮影画像255と本撮影画像256の2枚の本撮影画像を合成して1枚の合成画像257を作成する場合、合成画像257のハイエストライトポイントHの画像信号の出力値は250なので目標値(250)に合致しているが、合成画像257のディープシャドウポイントLの画像信号の出力値は20なので許容範囲内ではあるが目標値(10)とは少しずれている。同様に、合成画像の中間調ポイントMの画像信号の出力値も130で目標値(128)とは少しずれている。   (Step S113) The CPU 106 instructs the image processing unit 105 to perform image composition processing. Receiving the command, the image processing unit 105 combines the actual captured image captured in step S105 with at least one actual captured image captured in the repeated processing from step S108 to step S112 to produce one synthesized image. create. At this stage, the output value of the image signal at each position of the highest light point and deep shadow point of the created composite image is within the allowable range of each target value, but does not necessarily match the target value. Not necessarily. For example, as shown in FIG. 6, when two main photographic images of the main photographic image 255 and the main photographic image 256 are combined to create one composite image 257, an image of the highest light point H of the composite image 257. Since the output value of the signal is 250, it matches the target value (250). However, the output value of the image signal of the deep shadow point L of the composite image 257 is 20, so it is within the allowable range but slightly different from the target value (10). It's off. Similarly, the output value of the image signal of the halftone point M of the composite image is 130, which is slightly different from the target value (128).

(ステップS114)CPU106は、各位置の画像信号の出力値とそれぞれの目標値とのずれを補正して、各位置の画像信号の出力値がそれぞれの目標値に合致するようにダイナミックレンジの拡大/圧縮処理や階調特性を補正する階調処理を行うよう画像処理部105に指令する。   (Step S114) The CPU 106 corrects the deviation between the output value of the image signal at each position and the respective target value, and expands the dynamic range so that the output value of the image signal at each position matches the respective target value. / The image processing unit 105 is instructed to perform compression processing and gradation processing for correcting gradation characteristics.

例えば、ステップS107の判別処理でYesの判定が為された場合について説明する。図5の例では、本撮影画像252に対してダイナミックレンジの拡大/圧縮処理や階調特性を補正する階調処理を行い、補正画像253を作成する。この結果、補正画像253の画像信号の出力値は、ハイエストライトポイントH=250,ディープシャドウポイントL=10,中間調ポイントM=128となり、各ポイントの目標値通りの画像を得ることができる。   For example, a case will be described in which a Yes determination is made in the determination processing in step S107. In the example of FIG. 5, the corrected image 253 is created by performing dynamic range expansion / compression processing and gradation processing for correcting gradation characteristics on the actual captured image 252. As a result, the output values of the image signal of the corrected image 253 are the highest light point H = 250, the deep shadow point L = 10, and the halftone point M = 128, and an image according to the target value of each point can be obtained.

また、ステップS107の判別処理でNoの判定が為された場合について説明する。例えば、図6に示すように、合成画像257に対してダイナミックレンジの拡大/圧縮処理や階調特性を補正する階調処理を行い、補正画像258を作成する。この結果、補正画像258の画像信号の出力値は、ハイエストライトポイントH=250,ディープシャドウポイントL=10,中間調ポイントM=128となり、各ポイントの目標値通りの画像を得ることができる。   A case where No is determined in the determination processing in step S107 will be described. For example, as shown in FIG. 6, dynamic image expansion / compression processing and gradation processing for correcting gradation characteristics are performed on the composite image 257 to create a corrected image 258. As a result, the output value of the image signal of the corrected image 258 becomes the highest light point H = 250, the deep shadow point L = 10, and the halftone point M = 128, and an image according to the target value of each point can be obtained.

ここで、ダイナミックレンジの拡大/圧縮処理について図7(a)を用いて説明する。図7(a)は8ビット階調(0から255の256階調)の場合のダイナミックレンジの変換処理例を示している。図7(a)において、撮影者が希望するダイナミックレンジの範囲は、ダイナミックレンジ401に示すように、ハイエストライトポイントの目標値が250、ディープシャドウポイントの目標値が10にそれぞれ設定されている。一方、撮影された本撮影画像または合成画像から得られるダイナミックレンジ402がハイエストライトポイントの画像信号の出力値=225、ディープシャドウポイントの画像信号の出力値=30であったとする。この場合は、ハイエストライトポイントの画像信号の出力値(225)が目標値(250)になるように、ディープシャドウポイントの画像信号の出力値(30)が目標値(10)になるように、スケールを拡大する(ダイナミックレンジの拡大)。尚、画像信号の出力値(30)から画像信号の出力値(225)の間の画像信号の出力値も比率に応じて計算される。   Here, dynamic range expansion / compression processing will be described with reference to FIG. FIG. 7A shows an example of dynamic range conversion processing in the case of 8-bit gradation (256 gradations from 0 to 255). In FIG. 7A, the range of the dynamic range desired by the photographer is set such that the target value of the high light point is 250 and the target value of the deep shadow point is 10, as indicated by the dynamic range 401. On the other hand, it is assumed that the dynamic range 402 obtained from the actual captured image or the synthesized image is the output value of the image signal of the highest light point = 225 and the output value of the image signal of the deep shadow point = 30. In this case, the output value (30) of the image signal of the deep shadow point becomes the target value (10) so that the output value (225) of the image signal of the highest light point becomes the target value (250). Increase the scale (enhance the dynamic range). The output value of the image signal between the output value (30) of the image signal and the output value (225) of the image signal is also calculated according to the ratio.

或いは、撮影された本撮影画像または合成画像のダイナミックレンジ402がハイエストライトポイントの画像信号の出力値=255、ディープシャドウポイントの画像信号の出力値=0であったとする。この場合は、ハイエストライトポイントの画像信号の出力値(255)が目標値(250)になるように、ディープシャドウポイントの画像信号の出力値(0)が目標値(10)になるように、スケールを圧縮する(ダイナミックレンジの圧縮)。尚、画像信号の出力値(0)から画像信号の出力値(255)の間の画像信号の出力値も比率に応じて計算される。   Alternatively, it is assumed that the dynamic range 402 of the photographed main photographed image or composite image is the output value of the image signal of the highest light point = 255 and the output value of the image signal of the deep shadow point = 0. In this case, the output value (0) of the image signal of the deep shadow point becomes the target value (10) so that the output value (255) of the image signal of the high light point becomes the target value (250). Compress the scale (dynamic range compression). The output value of the image signal between the output value (0) of the image signal and the output value (255) of the image signal is also calculated according to the ratio.

このようにして、画像処理部105はCPU106の指令を受けて、撮影された本撮影画像または合成画像のダイナミックレンジを拡大/圧縮する処理を行う。   In this way, the image processing unit 105 receives the command from the CPU 106 and performs processing for expanding / compressing the dynamic range of the captured real image or composite image.

次に、階調特性を補正する階調処理について図7(b)を用いて説明する。階調処理は、中間調ポイントの画像信号の出力値がその目標値になるように階調特性を補正する処理である。図7(b)は中間調ポイントの画像信号の出力値を目標値に補正する処理例を示している。尚、図7(b)は図7(a)で説明したダイナミックレンジの拡大/圧縮処理が行われた後で階調特性を補正する例を示し、横軸は補正前の画像信号の出力値,縦軸は補正後の画像信号の出力値をそれぞれ表す。図7(b)において、図7(a)で説明したダイナミックレンジの拡大/圧縮処理によってハイエストライトポイントの画像信号の出力値とディープシャドウポイントの画像信号の出力値はそれぞれの目標値に調整され、例えば階調特性404のようになっているものとする。ここで、階調特性404の中間調ポイントの画像信号の出力値が140であった場合、CPU106は画像処理部105に目標値の128に補正するよう指令する。尚、階調特性405は補正後の階調特性である。ここで、補正前の階調特性404から補正後の階調特性405を作成する方法は、例えばハイエストライトポイントとディープシャドウポイントと中間調ポイントの3つのポイントを基準にベジェ曲線などの曲線関数を用いてポイント間の画像信号の出力値を求めても構わないし、簡易な近似直線によってポイント間の画像信号の出力値を求めても構わない。このようにして、画像処理部105はCPU106の指令を受けて、撮影された本撮影画像または合成画像の階調特性の補正処理を行う。   Next, gradation processing for correcting gradation characteristics will be described with reference to FIG. The gradation processing is processing for correcting the gradation characteristics so that the output value of the image signal of the halftone point becomes the target value. FIG. 7B shows a processing example for correcting the output value of the image signal of the halftone point to the target value. FIG. 7B shows an example in which the gradation characteristics are corrected after the dynamic range expansion / compression processing described in FIG. 7A is performed, and the horizontal axis indicates the output value of the image signal before correction. The vertical axis represents the output value of the corrected image signal. In FIG. 7B, the output value of the image signal of the highest light point and the output value of the image signal of the deep shadow point are adjusted to the respective target values by the dynamic range expansion / compression processing described in FIG. For example, it is assumed that the gradation characteristic 404 is obtained. Here, when the output value of the image signal at the halftone point of the gradation characteristic 404 is 140, the CPU 106 instructs the image processing unit 105 to correct the target value to 128. Note that the gradation characteristic 405 is a gradation characteristic after correction. Here, the method of creating the corrected gradation characteristic 405 from the uncorrected gradation characteristic 404 is, for example, by using a curve function such as a Bezier curve based on three points of a highest light point, a deep shadow point, and a halftone point. The output value of the image signal between the points may be obtained by using, or the output value of the image signal between the points may be obtained by a simple approximate straight line. In this way, the image processing unit 105 receives a command from the CPU 106 and performs a correction process on the gradation characteristics of the captured real image or composite image.

(ステップS115)CPU106は、ステップS114でダイナミックレンジの拡大/圧縮処理や階調特性の補正処理が施された画像データを記録I/F110を介してメモリカード111に保存する。或いは、モニタ108に表示する。例えば、図5の場合は、補正画像253がメモリカード111に保存されたりモニタ108に表示され、図6の場合は、補正画像258がメモリカード111に保存されたりモニタ108に表示される。   (Step S115) The CPU 106 stores the image data that has been subjected to the dynamic range expansion / compression processing and the gradation characteristic correction processing in Step S114 in the memory card 111 via the recording I / F 110. Alternatively, it is displayed on the monitor 108. For example, in the case of FIG. 5, the corrected image 253 is stored on the memory card 111 or displayed on the monitor 108, and in the case of FIG. 6, the corrected image 258 is stored on the memory card 111 or displayed on the monitor 108.

(ステップS116)CPU106は、「マニュアル階調撮影モード」における撮影処理を終了する。   (Step S116) The CPU 106 ends the photographing process in the “manual gradation photographing mode”.

このように、本実施形態に係る撮像装置101は、撮影者が希望する特性(ダイナミックレンジや階調特性)の画像を撮影する「マニュアル階調撮影モード」を有するので、撮影者が撮影前にライブビュー画像上で指定したハイエストライトポイントとディープシャドウポイントと中間調ポイントの3つのポイントの目標値に補正された画像を撮影することができる。   As described above, the imaging apparatus 101 according to the present embodiment has the “manual gradation imaging mode” for capturing an image having characteristics (dynamic range and gradation characteristics) desired by the photographer. It is possible to shoot an image that has been corrected to target values of three points of the highest light point, deep shadow point, and halftone point specified on the live view image.

尚、本実施形態では、ハイエストライトポイントとディープシャドウポイントと中間調ポイントの3つのポイントの目標値を設定するようにしたが、ハイエストライトポイントとディープシャドウポイントの2つのポイントだけでも構わない。いずれの場合であっても、本実施形態で説明した構成および処理を適用することによって、撮影者が希望する特性の画像を容易に撮影することができる。   In the present embodiment, the target values of the three points of the highest light point, the deep shadow point, and the halftone point are set, but only two points of the highest light point and the deep shadow point may be set. In any case, by applying the configuration and processing described in the present embodiment, it is possible to easily capture an image having characteristics desired by the photographer.

また、本実施形態に係る撮像装置101は、スチルカメラだけでなく、ビデオカメラやカメラ付き携帯電話などを含み、画像を撮影することができる全ての装置に適用することができる。   In addition, the imaging apparatus 101 according to the present embodiment can be applied not only to a still camera but also to all apparatuses that can capture images including a video camera, a camera-equipped mobile phone, and the like.

更に、本実施形態では撮像装置101について説明したが、図1に示すように、撮像装置101と、撮像装置101で撮影された画像の出力特性を補正するPC114を画像処理装置として構成しても構わない。例えば、地理的に離れた場所に設置された撮像装置101とPC114とをインターネットを介して接続できるようにし、撮像装置101で撮影する画像をライブビュー画像としてPC114でモニタしながら撮影を行うカメラシステムを実現することができる。   Furthermore, although the imaging apparatus 101 has been described in the present embodiment, as illustrated in FIG. 1, the imaging apparatus 101 and the PC 114 that corrects output characteristics of an image captured by the imaging apparatus 101 may be configured as an image processing apparatus. I do not care. For example, a camera system that enables an imaging apparatus 101 and a PC 114 installed at geographically distant locations to be connected via the Internet, and performs imaging while monitoring an image captured by the imaging apparatus 101 as a live view image on the PC 114. Can be realized.

以上、本発明について詳細に説明してきたが、上記の実施形態は発明の一例に過ぎず、本発明はこれに限定されるものではない。本発明を逸脱しない範囲で変形可能であることは明らかである。   As mentioned above, although this invention was demonstrated in detail, said embodiment is only an example of this invention and this invention is not limited to this. Obviously, modifications can be made without departing from the scope of the present invention.

本実施形態に係る撮像装置101の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device 101 which concerns on this embodiment. 本実施形態に係る撮像装置101の外観を示す説明図である。It is explanatory drawing which shows the external appearance of the imaging device 101 which concerns on this embodiment. 目標値の設定メニュー画面の様子を示す説明図である。It is explanatory drawing which shows the mode of the setting menu screen of target value. 本実施形態に係る撮像装置101の動作を示すフローチャートである。6 is a flowchart illustrating an operation of the imaging apparatus 101 according to the present embodiment. 許容範囲内に入っている場合の処理例を示す説明図である。It is explanatory drawing which shows the process example in the case of being in the tolerance | permissible_range. 許容範囲内に入っていない場合の処理例を示す説明図である。It is explanatory drawing which shows the process example when it does not enter in the tolerance | permissible_range. ダイナミックレンジの拡大/圧縮処理および階調特性の補正処理の例を示す説明図である。It is explanatory drawing which shows the example of the expansion / compression process of a dynamic range, and the correction process of a gradation characteristic.

符号の説明Explanation of symbols

101・・・撮像装置 102・・・光学系
103・・・撮像素子 104・・・AFE回路
105・・・画像処理部 106・・・CPU
107・・・バッファメモリ 108・・・モニタ
109・・・メモリ 110・・・記録I/F
111・・・メモリカード 112・・・操作部材
113・・・PCI/F 114・・・PC
201・・・電源ボタン 202・・・レリーズボタン
203・・・ズームボタン 204・・・十字キー
204a・・・上キー 204b・・・下キー
204c・・・左キー 204d・・・右キー
205・・・確定(OK)ボタン 206・・・撮影モード選択ダイヤル
DESCRIPTION OF SYMBOLS 101 ... Imaging device 102 ... Optical system 103 ... Imaging element 104 ... AFE circuit 105 ... Image processing part 106 ... CPU
107 ... Buffer memory 108 ... Monitor 109 ... Memory 110 ... Recording I / F
111 ... Memory card 112 ... Operation member 113 ... PCI / F 114 ... PC
201 ... Power button 202 ... Release button 203 ... Zoom button 204 ... Cross key 204a ... Up key 204b ... Down key 204c ... Left key 204d ... Right key 205 ..Confirmation (OK) button 206 ... Shooting mode selection dial

Claims (9)

光学系による像を撮像する撮像部と、
前記撮像部で得られた撮像信号による画像を表示する表示部と、
前記画像内の特定の位置に対応付けて該位置における前記撮像信号の目標値を設定する設定部と、
前記設定部で設定された目標値を基準として、前記撮像部で得られた前記撮像信号を補正する補正部と
を有することを特徴とする撮像装置。
An imaging unit for imaging an image by an optical system;
A display unit for displaying an image based on an imaging signal obtained by the imaging unit;
A setting unit that sets a target value of the imaging signal at the position in association with a specific position in the image;
An imaging apparatus comprising: a correction unit that corrects the imaging signal obtained by the imaging unit with reference to the target value set by the setting unit.
請求項1に記載の撮像装置において、
前記設定部は、前記画像においてハイエストライトとする第1位置と、ディープシャドウとする第2位置とに関する前記撮像信号の目標値を設定する
ことを特徴とする撮像装置。
The imaging device according to claim 1,
The said setting part sets the target value of the said image pick-up signal regarding the 1st position used as highest light in the said image, and the 2nd position used as deep shadow. The imaging device characterized by the above-mentioned.
請求項2に記載の撮像装置において、
前記第1位置に関する第1目標値と前記第2位置に関する第2目標値は、それぞれ所定の許容範囲を有する
ことを特徴とする撮像装置。
The imaging device according to claim 2,
The first target value related to the first position and the second target value related to the second position each have a predetermined allowable range.
請求項3に記載の撮像装置において、
前記補正部は、前記撮像部で撮像された画像の前記第1位置における前記撮像信号および前記第2位置における前記撮像信号の少なくとも一方が前記許容範囲内に無い場合は、露出条件が異なる複数の画像を前記撮像部により撮像し、該複数の画像に基づいて前記撮像信号を補正することを特徴とする撮像装置。
The imaging device according to claim 3.
The correction unit includes a plurality of different exposure conditions when at least one of the imaging signal at the first position and the imaging signal at the second position of the image captured by the imaging unit is not within the allowable range. An image pickup apparatus that picks up an image by the image pickup unit and corrects the image pickup signal based on the plurality of images.
請求項4に記載の撮像装置において、
前記補正部は、複数の異なる露光時間で得られる複数の画像を補正することを特徴とする撮像装置。
The imaging apparatus according to claim 4,
The correction unit corrects a plurality of images obtained at a plurality of different exposure times.
請求項1から5のいずれか一項に記載の撮像装置において、
前記補正部は、前記撮像部で得られる前記撮像信号のダイナミックレンジを補正することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 5,
The said correction | amendment part correct | amends the dynamic range of the said imaging signal obtained by the said imaging part, The imaging device characterized by the above-mentioned.
請求項1から5のいずれか一項に記載の撮像装置において、
前記設定部は、前記画像において中間調とする第3位置に関する前記撮像信号の目標値を設定することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 5,
The setting unit sets a target value of the imaging signal related to a third position that is a halftone in the image.
請求項7に記載の撮像装置において、
前記補正部は、前記撮像部でのダイナミックレンジおよび階調特性を補正することを特徴とする撮像装置。
The imaging apparatus according to claim 7,
The image pickup apparatus, wherein the correction unit corrects a dynamic range and gradation characteristics in the image pickup unit.
画像信号に基づく画像を表示部に表示する表示手順と、
前記表示部に表示された画像内の特定の位置に対応付けて該位置における前記画像信号の目標値を設定する設定手順と、
前記設定手順で設定された目標値を基準として、前記画像信号を補正する補正手順と
を有することを特徴とする画像処理プログラム。
A display procedure for displaying an image based on the image signal on the display unit;
A setting procedure for setting a target value of the image signal at the position in association with a specific position in the image displayed on the display unit;
An image processing program comprising: a correction procedure for correcting the image signal with reference to the target value set in the setting procedure.
JP2008321337A 2008-12-17 2008-12-17 Imaging apparatus and image processing program Active JP5233645B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008321337A JP5233645B2 (en) 2008-12-17 2008-12-17 Imaging apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008321337A JP5233645B2 (en) 2008-12-17 2008-12-17 Imaging apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2010147689A true JP2010147689A (en) 2010-07-01
JP5233645B2 JP5233645B2 (en) 2013-07-10

Family

ID=42567680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008321337A Active JP5233645B2 (en) 2008-12-17 2008-12-17 Imaging apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5233645B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012002561A1 (en) 2010-06-29 2012-01-05 Dow Corning Toray Co., Ltd. Curable organopolysiloxane composition and optical semiconductor device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10224686A (en) * 1997-01-31 1998-08-21 Mitsubishi Denki Eng Kk Image pickup device
JP2005065176A (en) * 2003-08-20 2005-03-10 Minolta Co Ltd Imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10224686A (en) * 1997-01-31 1998-08-21 Mitsubishi Denki Eng Kk Image pickup device
JP2005065176A (en) * 2003-08-20 2005-03-10 Minolta Co Ltd Imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012002561A1 (en) 2010-06-29 2012-01-05 Dow Corning Toray Co., Ltd. Curable organopolysiloxane composition and optical semiconductor device

Also Published As

Publication number Publication date
JP5233645B2 (en) 2013-07-10

Similar Documents

Publication Publication Date Title
KR101900097B1 (en) Image capturing method and image capturing apparatus
US8325268B2 (en) Image processing apparatus and photographing apparatus
KR101643321B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
JP4787180B2 (en) Imaging apparatus and imaging method
JP2003198891A (en) Image display controller, image display control method, and imaging apparatus
JP2015231058A (en) Imaging device, control method for imaging device and program
JP2010147786A (en) Imaging device and image processing method
JP5533053B2 (en) Camera, camera control program, and shooting teaching method
JP6529533B2 (en) Imaging device, control method of imaging device, and program
WO2016117137A1 (en) Image-capturing device, image-capturing method, and image display device
JP2010041611A (en) Digital camera and image processor, as well as image processing program
JP2009284136A (en) Electronic camera
JP2014161079A (en) Image generating apparatus and method, and imaging apparatus
JP2009200743A (en) Image processor, image processing method, image processing program and imaging apparatus
JP5569361B2 (en) Imaging apparatus and white balance control method
JP5088166B2 (en) Image output characteristic correction system
JP2008017198A (en) Device and method for calculating light source color, and photographing device
JP2012124652A (en) Imaging apparatus and image processing method
JP5233645B2 (en) Imaging apparatus and image processing program
JP5803233B2 (en) Imaging apparatus and imaging method
KR101750986B1 (en) An apparatus and a method for processing image, and a computer-readable storage medium
JP4714561B2 (en) Imaging apparatus and imaging method
JP2015050733A (en) Exposure control apparatus, exposure control method, control program, and imaging apparatus
JP6157274B2 (en) Imaging apparatus, information processing method, and program
KR101298638B1 (en) Method for processing digital image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130311

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5233645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250