JP4756831B2 - Image photographing apparatus and image processing method - Google Patents

Image photographing apparatus and image processing method Download PDF

Info

Publication number
JP4756831B2
JP4756831B2 JP2004170449A JP2004170449A JP4756831B2 JP 4756831 B2 JP4756831 B2 JP 4756831B2 JP 2004170449 A JP2004170449 A JP 2004170449A JP 2004170449 A JP2004170449 A JP 2004170449A JP 4756831 B2 JP4756831 B2 JP 4756831B2
Authority
JP
Japan
Prior art keywords
luminance information
luminance
image
focal point
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004170449A
Other languages
Japanese (ja)
Other versions
JP2005354230A (en
Inventor
学 大賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004170449A priority Critical patent/JP4756831B2/en
Publication of JP2005354230A publication Critical patent/JP2005354230A/en
Application granted granted Critical
Publication of JP4756831B2 publication Critical patent/JP4756831B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像のカラーマッチングを行う画像処理技術に関する。 The present invention relates to an image processing technique for performing color matching of images.

図1は、一般的な異なるデバイス間のカラーマッチングを示した概念図である。   FIG. 1 is a conceptual diagram showing color matching between different devices in general.

RGBデータである入力データは、入力プロファイルによりデバイスに依存しない色空間のXYZデータに変換される。出力デバイスの色再現範囲外の色は出力デバイスによって表現できないため、その全色が出力デバイスの色再現範囲内に収まるように、色空間圧縮が施される。そして、色空間圧縮が施された後、入力データはデバイスに依存しない色空間から出力デバイスに依存する色空間のCMYKデータへ変換される。   The input data that is RGB data is converted into XYZ data in a color space that does not depend on the device by the input profile. Since colors outside the color reproduction range of the output device cannot be expressed by the output device, color space compression is performed so that all the colors are within the color reproduction range of the output device. After color space compression, the input data is converted from a device-independent color space to CMYK data in a color space that depends on the output device.

しかし、図1に示されるような系では異なる観察条件下のカラーマッチングを行うことが困難である。異なる観察条件下において色の見えを一致させるためには、人間の色知覚モデルを導入する必要がある。   However, in the system shown in FIG. 1, it is difficult to perform color matching under different observation conditions. In order to match the color appearance under different viewing conditions, it is necessary to introduce a human color perception model.

人間の色知覚モデルは視野角2°の色票が与えられた場合に人間の色の見えが正しく予測できるように設計されており、図2に示すように人間の視野を定義している。一般に、CIE1931測色標準観察者は視野角1°から4°までの範囲で適用可能なので、この適用可能な領域を視野角2°以内の刺激領域と視野角4°以内の隣接領域として区別する。そして、隣接領域から視野角10°までの領域を背景領域とし、その背景領域の周囲の領域を周囲領域とする。更に、刺激領域、隣接領域、背景領域及び周囲領域を全て含めた視界領域を順応領域とする。   The human color perception model is designed so that the appearance of human color can be correctly predicted when a color chart having a viewing angle of 2 ° is given, and the human visual field is defined as shown in FIG. In general, CIE1931 colorimetric standard observers can apply in the range of viewing angles from 1 ° to 4 °, so this applicable region is distinguished as a stimulus region within a viewing angle of 2 ° and an adjacent region within a viewing angle of 4 °. . A region from the adjacent region to a viewing angle of 10 ° is defined as a background region, and a region around the background region is defined as a peripheral region. Furthermore, the visual field area including all of the stimulation area, the adjacent area, the background area, and the surrounding area is set as the adaptation area.

代表的な色知覚モデルとしてはCIE CAM97sやCIE CAM02があり、これらのモデルでは色票の相対XYZ値を観察条件に依存しない色知覚空間上のJCh値やQMh値へ変換するために必要な観察条件パラメータを以下のように定義している。
LA:順応領域の絶対輝度(以下、順応輝度)[cd/m2]
Xw,Yw,Zw:白色点の相対X,Y,Z値
Yb:背景領域の相対輝度(以下、背景輝度[%])
Surround:周囲光レベル
-Average Surround
-Dim Surround
-Dark Surround
ここで、順応輝度は通常、順応領域における白色点絶対輝度の20%が設定され、周囲光レベルは周囲領域における相対輝度が順応領域における白色点の20%以上ならばAverage、20%より小さいならばDim、ほとんど0%ならばDarkが設定される。
Typical color perception models include CIE CAM97s and CIE CAM02. In these models, the observations necessary to convert the relative XYZ values of the color chart into JCh values and QMh values in the color perception space independent of the observation conditions. The condition parameters are defined as follows.
LA: Absolute luminance of adaptation area (hereinafter referred to as adaptation luminance) [cd / m 2 ]
Xw, Yw, Zw: White point relative X, Y, Z value
Yb: Relative luminance of the background area (hereinafter referred to as background luminance [%])
Surround: Ambient light level
-Average Surround
-Dim Surround
-Dark Surround
Here, the adaptation brightness is usually set to 20% of the absolute brightness of the white point in the adaptation area, and the ambient light level is Average if the relative brightness in the surrounding area is 20% or more of the white point in the adaptation area, and less than 20%. If it is almost 0%, Dark is set.

色知覚モデルが単色の色票を利用した実験結果から導出されたことから、複数の色が混在する画像に対して、どのような観察条件パラメータを適用すれば良いのかということは、これまで確立されていなかった。つまり、ニュートラルなグレーが白色点の20%であることから、Ybを20%として設定してしまうのが一般的であった。   Since the color perception model was derived from experimental results using a single color chart, it has been established what observation condition parameters should be applied to images with multiple colors. Was not. That is, since neutral gray is 20% of the white point, Yb is generally set to 20%.

また、画像に対して色知覚モデルを適用する場合には、全画素に対して一つの観察条件パラメータを利用するのが一般的であった。   When applying a color perception model to an image, it is common to use one observation condition parameter for all pixels.

図3は異なるデバイス間のカラーマッチングにおいて入出力観察条件(白色点、順応輝度、背景輝度、周囲光レベル)を考慮できるように拡張した概念図である。   FIG. 3 is a conceptual diagram extended so that input / output observation conditions (white point, adaptation luminance, background luminance, ambient light level) can be considered in color matching between different devices.

D50光源下のRGBデータである入力データは、入力プロファイルによりD50光源下のXYZデータへ変換される。D50光源下のXYZデータは色知覚モデル順変換に入力側観察条件を与えることによって観察条件に依存しない色空間のJChデータまたはQMhデータへ変換される。JChデータまたはQMhデータは色知覚モデル逆変換に出力側観察条件を与えることによってA光源下のXYZデータへ変換される。さらに、A光源下のXYZデータは出力プロファイルによってA光源下のCMYKデータへ変換される。ここで、色空間圧縮は観察条件に依存しない色空間上で行われても、A光源下のXYZ空間上で行われても構わない。   Input data which is RGB data under the D50 light source is converted into XYZ data under the D50 light source by the input profile. XYZ data under a D50 light source is converted into JCh data or QMh data in a color space independent of the viewing conditions by giving the viewing conditions on the input side to the color perceptual model forward conversion. JCh data or QMh data is converted to XYZ data under the A light source by giving the output side observation condition to the inverse color perception model. Further, the XYZ data under the A light source is converted into CMYK data under the A light source by the output profile. Here, the color space compression may be performed in a color space that does not depend on viewing conditions, or may be performed in an XYZ space under the A light source.

従来、入出力観察条件パラメータ(白色点、順応輝度、背景輝度、周囲光レベル)の設定は、ユーザインターフェイスによる設定や予めプロファイル内に格納された観察条件パラメータを利用することによって行われていた。しかし、ユーザインターフェイスによる設定は一般ユーザにとって煩雑でわかりにくいものであり、プロファイルを選択する方法は観察条件の数だけプロファイルを用意する必要があった。プロファイル数の増大を防ぐために、ユーザインターフェイスによってプロファイル内の観察条件パラメータを更新することもできるが、ユーザにとっての煩雑さは解消されなかった。   Conventionally, input / output observation condition parameters (white point, adaptation luminance, background luminance, ambient light level) have been set by using a user interface or observation condition parameters stored in advance in a profile. However, setting by the user interface is complicated and difficult for a general user to understand, and the method for selecting a profile has to prepare as many profiles as the number of observation conditions. In order to prevent an increase in the number of profiles, the observation condition parameter in the profile can be updated by the user interface, but the troublesomeness for the user has not been solved.

また、特にデジタルカメラ画像に対する観察条件の設定は、撮影現場の観察条件が不明であり、撮影条件も異なっていることから適切な観察条件パラメータを設定することが困難だった。
特開2000−050086公報 特開2000−050088公報 特開2000−050089公報
In particular, in setting the observation conditions for the digital camera image, it is difficult to set appropriate observation condition parameters because the observation conditions at the shooting site are unknown and the shooting conditions are different.
JP2000-050086A JP 2000-050088 A JP 2000-050089 A

このように、従来の観察条件パラメータの設定方法においては、
(1)観察条件設定について専門知識を必要とした。
(2)複数の観察条件を格納するために観察条件の数だけプロファイルを必要とした。
(3)撮影現場の観察条件が不明である。
という問題があった。
Thus, in the conventional setting method of observation condition parameters,
(1) Special knowledge was required for setting observation conditions.
(2) In order to store a plurality of observation conditions, as many profiles as the number of observation conditions are required.
(3) The observation conditions at the shooting site are unknown.
There was a problem.

本発明は、画像撮影時の状況に応じた適切な順応輝度情報と背景輝度情報とを自動的に設定でき、カラーマッチングの観察条件設定に対するユーザ負担を軽減することを目的とする。 An object of the present invention is to automatically set adaptive luminance information and background luminance information according to the situation at the time of image shooting , and to reduce the burden on the user for setting color matching observation conditions.

上述の課題を解決し、目的を達成するために、本発明の画像撮影装置は、複数の測光エリアにおける輝度情報から露出条件を設定し、前記各測光エリアに対応したエリアの焦点検出を行い合焦点を決定する画像撮影装置であって、前記合焦点の決定に使用した前記測光エリアにおける前記輝度情報から人間の色知覚モデルにおける順応領域の輝度を示す順応輝度情報を求め、前記合焦点の決定に使用しなかった前記測光エリアにおける前記輝度情報から人間の色知覚モデルにおける背景領域の輝度を示す背景輝度情報を求める手段と、前記順応輝度情報と前記背景輝度情報とを画像の付加情報として画像ファイルに格納する格納手段とを有する。 In order to solve the above-described problems and achieve the object, the image capturing apparatus of the present invention sets an exposure condition from luminance information in a plurality of photometric areas and performs focus detection of the areas corresponding to the photometric areas. An imaging apparatus for determining a focal point, wherein adaptive luminance information indicating luminance of an adaptive region in a human color perception model is obtained from the luminance information in the photometric area used for determining the focal point, and the focal point is determined. Means for obtaining background luminance information indicating the luminance of the background region in the human color perception model from the luminance information in the photometric area not used for the image, and using the adaptive luminance information and the background luminance information as image additional information Storage means for storing in a file.

本発明によれば、画像撮影時の状況に応じた適切な順応輝度情報と背景輝度情報とを自動的に設定できるようになり、カラーマッチングの観察条件設定に対するユーザ負担を軽減することができる According to the present invention, it is possible to automatically set appropriate adaptation luminance information and background luminance information according to the situation at the time of image capturing, and it is possible to reduce the burden on the user for setting the observation condition for color matching .

以下に、本発明に係る実施の形態について添付図面を参照して詳細に説明する。   Embodiments according to the present invention will be described below in detail with reference to the accompanying drawings.

尚、以下に説明する実施の形態は、本発明の実現手段としての一例であり、以下に例示される構成要素の寸法、形状、それらの相対配置等は、本発明が適用される装置の構成や各種条件により適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   The embodiment described below is an example as means for realizing the present invention, and the dimensions, shapes, relative arrangements, and the like of the constituent elements exemplified below are the configurations of the apparatus to which the present invention is applied. It should be modified or changed as appropriate according to various conditions, and the present invention is not limited to the following embodiments.

また、本発明は、後述する実施形態の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。
[デジタルカメラにおける観察条件の算出]
図4にデジタルカメラ内の分割された測距点対応測光センサを示す。ここで、該測距点対応測光センサは分割された測光エリアS0〜S20に対応した焦点検出点S0〜S20を持つものとする。
Further, the present invention supplies a storage medium (or recording medium) storing software program codes for realizing the functions of the embodiments described later to the system or apparatus, and the computer of the system or apparatus (or CPU or MPU). Needless to say, this can also be achieved by reading and executing the program code stored in the storage medium.
[Calculation of observation conditions for digital cameras]
FIG. 4 shows a divided photometric sensor corresponding to a distance measuring point in the digital camera. Here, it is assumed that the distance measuring point corresponding photometric sensor has focus detection points S0 to S20 corresponding to the divided photometric areas S0 to S20.

焦点検出の原理は、撮影レンズの異なる領域を通った光束により一対のラインセンサとして形成されたCCDの上に夫々像を結像させ、これらの結像された像の相対的な位置の差(以下、デフォーカス量)が、合焦点と、検出された撮影レンズの焦点状態とのずれ量に比例的な関係にあることを利用して、上記2像の空間的な位相差を表わす像信号に適当な演算を施して、その時点での焦点状態、すなわち合焦状態からのずれ方向や合焦点までに必要な撮影レンズの移動距離を算出するようにしたものである。   The principle of focus detection is that each image is formed on a CCD formed as a pair of line sensors by light beams that pass through different areas of the photographic lens, and the relative position difference between these imaged images ( Hereinafter, the image signal representing the spatial phase difference between the two images is utilized by utilizing that the defocus amount is proportional to the amount of deviation between the in-focus point and the detected focus state of the photographing lens. Appropriate calculation is performed to calculate the focal state at that time, that is, the shift direction from the in-focus state and the moving distance of the photographic lens required to the in-focus point.

図5に観察条件算出フローを示す。   FIG. 5 shows an observation condition calculation flow.

先ず、被写体に対して測光を行い、各測光エリアS0〜S20から得られる輝度情報から露出条件(絞り、シャッタースピード)の演算を行う(T1)。   First, photometry is performed on the subject, and the exposure conditions (aperture and shutter speed) are calculated from the luminance information obtained from the photometric areas S0 to S20 (T1).

次に、被写体に対して各焦点検出点S0〜S20での焦点検出を行い(T2)、その検出結果から合焦点を決定する(T3)。合焦点が決定すれば、その結果に基づいてレンズ駆動量の計算が行われ、レンズ駆動を行う(T4,T5)。   Next, focus detection is performed on the subject at the focus detection points S0 to S20 (T2), and the focal point is determined from the detection result (T3). If the focal point is determined, the lens drive amount is calculated based on the result, and the lens is driven (T4, T5).

次に、ステップT6,T7では、合焦点に利用されたエリア(デフォーカス量が小)と合焦点に利用されなかったエリア(デフォーカス量が大)に分類し、デフォーカス量が大きいエリアは背景とみなす。例えば、合焦点に利用されたエリアをS0,S5,S6,S7,S8,S9,S12、合焦点に利用されなかったエリアをS1,S2,S3,S4,S10,S11,S13,S14,S15,S16,S17,S18,S19,S20とすると、合焦点に利用されたエリアに対応する測光エリアの平均輝度Yaf [cd/m2]、合焦点に利用されなかったエリアに対応する測光エリアの平均輝度Ynaf [cd/m2]は、各エリアの面積や位置に応じた重み付けを考慮して、以下のように算出することができる。
Yaf=Cs0・Ys0+Cs5・Ys5+Cs6・Ys6+Cs7・Ys7+Cs8・Ys8+Cs9・Ys9+Cs12・Ys12 [cd/m2]
Ynaf=Cs1・Ys1+Cs2・Ys2+Cs3・Ys3+Cs4・Ys4+Cs10・Ys10+Cs11・Ys11+Cs13・Ys13+Cs14・Ys14+Cs15・Ys15+Cs16・Ys16+Cs17・Ys17+Cs18・Ys18+Cs19・Ys19+Cs20・Ys20 [cd/m2]
ここで、Ysiは測光エリアiから出力される輝度情報であり、Csiは測光エリアiの面積や位置に応じた重み付けを考慮すると共に、該輝度情報の単位を[cd/m2]への変換するための係数である。
Next, in steps T6 and T7, an area used for focusing (small defocus amount) is classified into an area not used for focusing (large defocus amount), and an area with a large defocus amount is used. Consider background. For example, the areas used for focusing are S0, S5, S6, S7, S8, S9, S12, and the areas not used for focusing are S1, S2, S3, S4, S10, S11, S13, S14, S15. , S16, S17, S18, S19, and S20, the average brightness Yaf [cd / m 2 ] of the metering area corresponding to the area used for focusing, and the metering area corresponding to the area not used for focusing The average luminance Ynaf [cd / m 2 ] can be calculated as follows in consideration of weighting according to the area and position of each area.
Yaf = Cs0 / Ys0 + Cs5 / Ys5 + Cs6 / Ys6 + Cs7 / Ys7 + Cs8 / Ys8 + Cs9 / Ys9 + Cs12 / Ys12 [cd / m 2 ]
Ynaf = Cs1 · Ys1 + Cs2 · Ys2 + Cs3 · Ys3 + Cs4 · Ys4 + Cs10 · Ys10 + Cs11 · Ys11 + Cs13 · Ys13 + Cs14 · Ys14 + Cs15 · Ys15 + Cs16 · Ys16 + Cs17 · Ys17 + Cs18 · Ys18 + Cs19 · Ys19 + Cs20 · Ys20 [cd / m 2]
Here, Ysi is luminance information output from the photometric area i, and Csi considers weighting according to the area and position of the photometric area i and converts the unit of the luminance information to [cd / m 2 ]. It is a coefficient to do.

デジタルカメラの場合、被写体に対する測光情報から順応輝度は、
LA=Yaf [cd/m2]
として実測できる。
In the case of a digital camera, the adaptation brightness from the photometric information for the subject is
LA = Yaf [cd / m 2 ]
Can be actually measured.

しかし、白色点の絶対輝度は同時に実測することができないため、背景輝度Yb[%]の決定は以下の方法によって行う。
(1)マニュアル露出設定時(T9)
マニュアル露出設定を利用する場合には、被写体と同一の観察条件下で設定された露出条件(絞り、シャッタースピード)及びフィルム感度から18%グレーに対する輝度を推測して背景輝度Ybを求める。露出計のEv値から決定された露出条件(絞りAv、シャッタースピードTv)とフィルムISO感度Sv及び輝度Bvの間には、APEX(Additive Photographic Exposure)値でEv=Av+Tv=Bv+Svの関係が成立することから、
Bv=Av+Tv-Sv
=2log2(F)-log2(T)-log2(ISO/3.125)
例えば、絞りF2.8、シャッタースピード1/160秒、ISO200ならば、
Bv=2log2(2.8)-log2(1/160)-log2(200/3.125)=4.32 [APEX]
更に、18%グレーに対する輝度B[cd/m2]との関係は、
Bv=log2(B/NK),NK=3.426
であるから、
B=3.426・(2Bv)=65.11 [cd/m2]
ちなみに、白色点の絶対輝度はB/0.18=65.11/0.18=361.73 [cd/m2]となる。
However, since the absolute luminance of the white point cannot be measured at the same time, the background luminance Yb [%] is determined by the following method.
(1) When manual exposure is set (T9)
When using the manual exposure setting, the luminance for 18% gray is estimated from the exposure conditions (aperture, shutter speed) and film sensitivity set under the same observation conditions as the subject, and the background luminance Yb is obtained. Between the exposure conditions (aperture Av, shutter speed Tv) determined from the Ev value of the exposure meter and the film ISO sensitivity Sv and brightness Bv, APEX (Additive Photographic Exposure) value is Ev = Av + Tv = Bv + Sv Because the relationship is established,
Bv = Av + Tv-Sv
= 2log 2 (F) -log 2 (T) -log 2 (ISO / 3.125)
For example, if the aperture is F2.8, the shutter speed is 1/160 seconds, and ISO 200,
Bv = 2log 2 (2.8) -log 2 (1/160) -log 2 (200 / 3.125) = 4.32 [APEX]
Furthermore, the relationship with luminance B [cd / m 2 ] for 18% gray is
Bv = log 2 (B / NK), NK = 3.426
Because
B = 3.426 ・ (2 Bv ) = 65.11 [cd / m 2 ]
Incidentally, the absolute brightness of the white point is B / 0.18 = 65.11 / 0.18 = 361.73 [cd / m 2 ].

これより、背景輝度は、
Yb=18・Ynaf/B [%]
として算出することができる。また、全てのエリアが合焦点に利用されて、Ynafを算出できなかった場合には、Yb=20 [%]を設定する。
(2)AE設定時(T10)
AE(自動露出)設定を利用する場合には、被写体と同一の観察条件下において既知の反射率を持つグレーチャート等をデジタルカメラで測光し、求められた平均輝度を予め基準値として登録しておく必要がある。
From this, the background brightness is
Yb = 18 ・ Ynaf / B [%]
Can be calculated as Further, when all areas are used for focusing and Ynaf cannot be calculated, Yb = 20 [%] is set.
(2) When AE is set (T10)
When using the AE (automatic exposure) setting, measure a gray chart with a known reflectance under the same observation conditions as the subject using a digital camera, and register the calculated average brightness as a reference value in advance. It is necessary to keep.

例えば、予めグレーチャート(18%グレー)に対する平均輝度Yg [cd/m2]をデジタルカメラ本体のメモリ中にマニュアル登録しておけば、背景輝度は、
Yb=18・Ynaf/Yg [%]
として算出することができる。
For example, if the average luminance Yg [cd / m 2 ] for the gray chart (18% gray) is previously manually registered in the memory of the digital camera body, the background luminance is
Yb = 18 ・ Ynaf / Yg [%]
Can be calculated as

また、全てのエリアが合焦点に利用されて、Ynafを算出できなかった場合には、Yb=20 [%]を設定する。   Further, when all areas are used for focusing and Ynaf cannot be calculated, Yb = 20 [%] is set.

デジタルカメラの場合、周囲光レベルSurroundは背景の延長と考え、Ybと連動するように設定する(T11)。つまり、Ybが20%以上ならばAverage、20%より小さいならばDim、ほとんど0%ならばDarkとする。   In the case of a digital camera, the ambient light level Surround is considered to be an extension of the background, and is set so as to be linked to Yb (T11). That is, if Yb is 20% or more, it is Average, if it is smaller than 20%, it is Dim, and if it is almost 0%, it is Dark.

白色点の相対X,Y,Z値Xw,Yw,Zwは、デジタルカメラのホワイトバランス情報(Auto/プリセット/マニュアル/色温度)に設定されている色温度等から換算する(T12)。   The relative X, Y, and Z values Xw, Yw, and Zw of the white point are converted from the color temperature set in the white balance information (Auto / preset / manual / color temperature) of the digital camera (T12).

以上の方法により、デジタルカメラの内部情報から撮影現場の撮影条件に対する観察条件パラメータを決定し、画像の付加情報として画像ファイルに格納する(T13)。   By the above method, the observation condition parameters for the shooting conditions at the shooting site are determined from the internal information of the digital camera and stored in the image file as additional information of the image (T13).

画像ファイルへの観察条件パラメータの格納は、Exifタグのメーカ依存データ情報として観察条件のみを格納しても、ICCプロファイルのようなデバイス・プロファイルのプライベートタグとして格納し、画像への埋め込みプロファイルとして格納しても構わない。   Even if only the observation conditions are stored as manufacturer-dependent data information for Exif tags, the observation condition parameters are stored in the image file as private tags for device profiles such as ICC profiles and stored as embedded profiles in images. It doesn't matter.

画像ファイルへ格納された観察条件パラメータは、図2に示されるような観察条件を考慮したカラーマッチングを行う際に、画像ファイルから抽出され、入力側観察条件として利用される。   The observation condition parameters stored in the image file are extracted from the image file and used as input-side observation conditions when performing color matching considering the observation conditions as shown in FIG.

上記実施形態によれば、以下の効果を奏する。
(1)画像の付加情報として観察条件パラメータを画像ファイルに格納することにより、入力側観察条件の設定を自動化できる。
(2)観察条件パラメータをプロファイルの付加情報として格納し、該プロファイルを画像ファイルに埋め込むことにより、入力観察条件の設定、及びプロファイル選択を自動化できる。
(3)撮影条件から観察条件を算出することにより、撮影現場に応じた観察条件パラメータを算出できる。
(4)分割された測距点対応測光センサから送られてくる出力や測距点情報を利用することにより、撮影現場に応じた正確な観察条件パラメータを算出できる。
According to the said embodiment, there exist the following effects.
(1) By storing the observation condition parameters in the image file as image additional information, the setting of the input side observation conditions can be automated.
(2) By storing observation condition parameters as additional information of a profile and embedding the profile in an image file, setting of input observation conditions and profile selection can be automated.
(3) By calculating the observation conditions from the imaging conditions, it is possible to calculate the observation condition parameters corresponding to the imaging site.
(4) By using the output and distance measuring point information sent from the divided distance measuring point corresponding photometric sensors, it is possible to calculate an accurate observation condition parameter according to the photographing site.

異なるデバイス間のカラーマッチングの従来例を示す図である。It is a figure which shows the prior art example of the color matching between different devices. 人間の視野の定義を説明する図である。It is a figure explaining the definition of a human visual field. 異なるデバイス間のカラーマッチングにおいて入出力観察条件を考慮できるように拡張した概念図である。It is the conceptual diagram expanded so that the input / output observation conditions could be considered in the color matching between different devices. デジタルカメラ内の分割された測距点対応測光センサを示す図である。It is a figure which shows the photometry sensor corresponding to the ranging point divided | segmented in the digital camera. 観察条件算出のためのフローチャートである。It is a flowchart for observation condition calculation.

Claims (4)

複数の測光エリアにおける輝度情報から露出条件を設定し、前記各測光エリアに対応したエリアの焦点検出を行い合焦点を決定する画像撮影装置であって、
前記合焦点の決定に使用した前記測光エリアにおける前記輝度情報から人間の色知覚モデルにおける順応領域の輝度を示す順応輝度情報を求め、前記合焦点の決定に使用しなかった前記測光エリアにおける前記輝度情報から人間の色知覚モデルにおける背景領域の輝度を示す背景輝度情報を求める手段と、
前記順応輝度情報と前記背景輝度情報とを画像の付加情報として画像ファイルに格納する格納手段とを有することを特徴とする画像撮影装置。
An image capturing device that sets an exposure condition from luminance information in a plurality of photometric areas, detects a focal point of an area corresponding to each photometric area, and determines a focal point,
The luminance information in the photometric area not used for determining the focal point is obtained by obtaining adaptive luminance information indicating the luminance of the adaptive region in the human color perception model from the luminance information in the photometric area used for determining the focal point. Means for obtaining background luminance information indicating the luminance of the background region in the human color perception model from the information;
An image photographing apparatus comprising: storage means for storing the adaptive luminance information and the background luminance information as image additional information in an image file.
前記合焦点の決定に使用した前記測光エリアにおける前記輝度情報と、前記合焦点の決定に使用しなかった前記測光エリアにおける前記輝度情報は、前記各測光エリアから得られる輝度情報に当該測光エリアの面積及び位置に応じた重み付け係数を乗算することにより求められることを特徴とする請求項1に記載の画像撮影装置。   The luminance information in the photometric area used for determining the focal point and the luminance information in the photometric area not used for determining the focal point are the luminance information obtained from each photometric area. The image capturing apparatus according to claim 1, wherein the image capturing apparatus is obtained by multiplying a weighting coefficient corresponding to an area and a position. 前記順応輝度情報と前記背景輝度情報は、前記画像に対してカラーマッチングを行う際に入力側の観察条件として使用されることを特徴とする請求項1又は2に記載の画像撮影装置。   The image photographing apparatus according to claim 1, wherein the adaptation luminance information and the background luminance information are used as an observation condition on the input side when color matching is performed on the image. 複数の測光エリアにおける輝度情報から露出条件を設定し、前記各測光エリアに対応したエリアの焦点検出を行い合焦点を決定する画像撮影装置における画像処理方法であって、
前記合焦点の決定に使用した前記測光エリアにおける前記輝度情報から人間の色知覚モデルにおける順応領域の輝度を示す順応輝度情報を求め、前記合焦点の決定に使用しなかった前記測光エリアにおける前記輝度情報から人間の色知覚モデルにおける背景領域の輝度を示す背景輝度情報を求める工程と、
前記順応輝度情報と前記背景輝度情報とを画像の付加情報として画像ファイルに格納する格納工程とを有することを特徴とする画像処理方法。
An image processing method in an image capturing apparatus that sets an exposure condition from luminance information in a plurality of photometric areas, performs focus detection of an area corresponding to each photometric area and determines a focal point,
The luminance information in the photometric area not used for determining the focal point is obtained by obtaining adaptive luminance information indicating the luminance of the adaptive region in the human color perception model from the luminance information in the photometric area used for determining the focal point. Obtaining background luminance information indicating the luminance of the background region in the human color perception model from the information;
An image processing method comprising: storing the adaptive luminance information and the background luminance information in an image file as additional information of an image.
JP2004170449A 2004-06-08 2004-06-08 Image photographing apparatus and image processing method Expired - Fee Related JP4756831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004170449A JP4756831B2 (en) 2004-06-08 2004-06-08 Image photographing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004170449A JP4756831B2 (en) 2004-06-08 2004-06-08 Image photographing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2005354230A JP2005354230A (en) 2005-12-22
JP4756831B2 true JP4756831B2 (en) 2011-08-24

Family

ID=35588335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004170449A Expired - Fee Related JP4756831B2 (en) 2004-06-08 2004-06-08 Image photographing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4756831B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009171008A (en) * 2008-01-11 2009-07-30 Olympus Corp Color reproduction apparatus and color reproduction program
JP5457652B2 (en) * 2008-09-01 2014-04-02 キヤノン株式会社 Image processing apparatus and method
JP5845912B2 (en) * 2012-01-16 2016-01-20 株式会社ニコン Imaging apparatus and image processing program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2728995B2 (en) * 1991-09-12 1998-03-18 富士写真フイルム株式会社 How to make a print photo
JP2000075351A (en) * 1998-09-01 2000-03-14 Minolta Co Ltd Camera
JP4489274B2 (en) * 1999-10-04 2010-06-23 富士フイルム株式会社 Digital camera and control method thereof, and image output apparatus and method
JP2002204372A (en) * 2000-12-28 2002-07-19 Canon Inc Image processor and its method
JP2002238056A (en) * 2001-02-08 2002-08-23 Minolta Co Ltd Digital imaging device, program and recording medium
JP2003029137A (en) * 2001-07-18 2003-01-29 Olympus Optical Co Ltd Automatic focusing detector
JP2003066339A (en) * 2001-08-29 2003-03-05 Olympus Optical Co Ltd Image comparison device

Also Published As

Publication number Publication date
JP2005354230A (en) 2005-12-22

Similar Documents

Publication Publication Date Title
JP5398156B2 (en) WHITE BALANCE CONTROL DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
KR101633460B1 (en) Method and Apparatus for controlling multi-exposure
JP3892648B2 (en) Image input device, white balance adjustment method, and computer-readable recording medium storing program for executing the method
WO2018176925A1 (en) Hdr image generation method and apparatus
JP6833415B2 (en) Image processing equipment, image processing methods, and programs
JP6083974B2 (en) Image processing apparatus, image processing method, and program
CN103888661A (en) Image pickup apparatus, image pickup system and method of controlling image pickup apparatus
JP6935272B2 (en) Devices, methods, and programs for creating high dynamic range images
JP6381404B2 (en) Image processing apparatus and method, and imaging apparatus
JP2015032966A (en) Image processing apparatus, imaging apparatus, control method, and program
KR20180132210A (en) Method and Device for making HDR image by using color response curve, camera, and recording medium
JP4349380B2 (en) IMAGING DEVICE, METHOD FOR OBTAINING IMAGE
JP2007329620A (en) Imaging device and video signal processing program
KR101072945B1 (en) Apparatus for balancing flashed image color using depth estimation and method therefor
JP4756831B2 (en) Image photographing apparatus and image processing method
JP5566680B2 (en) Imaging apparatus and imaging method
JP2021136555A (en) Image processing device and image processing method
JP6210772B2 (en) Information processing apparatus, imaging apparatus, control method, and program
JP2007258923A (en) Image processing apparatus, image processing method, image processing program
JP5854716B2 (en) Image processing apparatus, image processing method, and program
JP5743456B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP5339299B2 (en) Optical brightness correction apparatus, optical brightness correction method, and optical brightness correction program
JP2017138927A (en) Image processing device, imaging apparatus, control method and program thereof
JP2016051982A (en) Image processing system, camera, and image processing program
JP2017092544A (en) Output control device, output control method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070530

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20070530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110527

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110531

R150 Certificate of patent or registration of utility model

Ref document number: 4756831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees