JP2006311108A - Image processor, image processing method, image processing program and camera - Google Patents

Image processor, image processing method, image processing program and camera Download PDF

Info

Publication number
JP2006311108A
JP2006311108A JP2005130095A JP2005130095A JP2006311108A JP 2006311108 A JP2006311108 A JP 2006311108A JP 2005130095 A JP2005130095 A JP 2005130095A JP 2005130095 A JP2005130095 A JP 2005130095A JP 2006311108 A JP2006311108 A JP 2006311108A
Authority
JP
Japan
Prior art keywords
image data
subject
image
correction amount
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005130095A
Other languages
Japanese (ja)
Other versions
JP4551270B2 (en
Inventor
Makoto Oishi
誠 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2005130095A priority Critical patent/JP4551270B2/en
Publication of JP2006311108A publication Critical patent/JP2006311108A/en
Application granted granted Critical
Publication of JP4551270B2 publication Critical patent/JP4551270B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor using a recognition result of a subject to correct photographed image data. <P>SOLUTION: A digital still camera 10 which processes the image data 24a obtained by imaging the subject includes an image recognition section 32 which detects a plurality of faces included in a field from the image data 24a, evaluates the respective faces, determines a reference face for correction of the image data 24a according to the evaluation, and determines a correction quantity for the image data 24a based upon the reference face, and a digital signal processing sectioni 36 which corrects the image data 24a based upon the correction quantity. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像データの補正を行う画像処理装置、画像処理方法、画像処理プログラムおよびカメラに関するものである。   The present invention relates to an image processing apparatus, an image processing method, an image processing program, and a camera for correcting image data.

従来から、撮像素子により被写界を撮像して画像データを取得し、取得した画像データに含まれる被写体、たとえば顔を認識する技術がある。この技術を用いて、認識された被写体に基づいて、自動露出制御、合焦、ストロボ制御などを行う技術がある。特許文献1には、顔画像を認識して、合焦、またはストロボ制御を行うことが記載されている。
特開2003−92700号公報
2. Description of the Related Art Conventionally, there has been a technique for capturing an image of an object scene with an image sensor and acquiring image data, and recognizing a subject, for example, a face included in the acquired image data. There is a technique for performing automatic exposure control, focusing, strobe control, and the like based on a recognized subject using this technique. Patent Document 1 describes that a face image is recognized and focusing or strobe control is performed.
JP 2003-92700 A

上記従来技術には、被写体を認識して、自動露出制御、合焦、ストロボ制御などの撮影動作を行うことは開示されている。しかしこの技術は、被写体を認識した結果を、カメラの撮影動作に利用するのみである。   The above prior art discloses that a subject is recognized and photographing operations such as automatic exposure control, focusing, and strobe control are performed. However, this technique only uses the result of recognizing the subject for the shooting operation of the camera.

本発明はこのような従来技術の欠点を解消し、被写体を認識した結果を、撮影された画像データの補正に利用した画像処理装置、画像処理方法、画像処理プログラムおよびカメラを提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus, an image processing method, an image processing program, and a camera that eliminate such drawbacks of the prior art and use a result of recognizing a subject for correcting captured image data. And

本発明は上述の課題を解決するために、被写界を撮像して得られた画像データを処理する画像処理装置において、画像データから、被写界に含まれる複数の被写体を検出する被写体検出手段と、複数の被写体ごとに評価を行い、評価に従って、画像データに対する補正の基準となる被写体を決定する基準被写体決定手段と、基準となる被写体に基づいて画像データの補正量を決定する補正量決定手段と、補正量に基づいて、画像データに対する補正を行う補正手段とを含むこととしたものである。この補正手段は、たとえば画像データの階調を補正することができる。階調としては、明るさの階調や色の階調がある。   In order to solve the above-described problems, the present invention is an image processing apparatus that processes image data obtained by capturing an image of a scene, and detects a plurality of subjects included in the scene from the image data. Means for evaluating each of a plurality of subjects, and in accordance with the evaluation, a reference subject determining unit for determining a subject as a reference for correction of the image data, and a correction amount for determining a correction amount of the image data based on the reference subject The image forming apparatus includes a determination unit and a correction unit that corrects the image data based on the correction amount. This correction means can correct the gradation of image data, for example. The gradation includes a brightness gradation and a color gradation.

本発明によれば、被写体を認識し、画像データの補正を行う際に、複数の被写体を認識した場合、被写体の評価値、すなわち重要度によって基準とする被写体を選択して、画像データの補正を行う。このため、補正の必要がないにもかかわらず、補正を行うことや過剰に補正を行うことを防ぐことができる。   According to the present invention, when a plurality of subjects are recognized when the subject is recognized and the image data is corrected, the subject is selected based on the evaluation value of the subject, that is, the importance, and the image data is corrected. I do. For this reason, it is possible to prevent correction and excessive correction even though correction is not necessary.

本発明は、また上述の課題を解決するために、画像処理装置において、画像データから、被写界に含まれる被写体を検出する被写体検出手段と、被写体の評価を行い、評価に従って、画像データの補正量を決定する補正量決定手段と、補正量に基づいて、画像データに対する補正を行う補正手段とを含むこととしたものである。   In order to solve the above-described problems, the present invention performs evaluation of a subject and subject detection means for detecting a subject included in the scene from the image data in the image processing apparatus, and according to the evaluation, A correction amount determination unit that determines a correction amount and a correction unit that corrects image data based on the correction amount are included.

これによれば、被写体を認識して画像補正を行う際に、被写体の重要度に応じて補正量を調整し、補正を行うことができる。   According to this, when recognizing a subject and performing image correction, it is possible to perform correction by adjusting the correction amount according to the importance of the subject.

なお、被写体は顔を含む領域であることが好ましい。また評価は、被写体の大きさ、被写体に含まれる顔の大きさ、被写体の明るさ、および被写体に含まれる顔の明るさのうち、少なくとも1つに関する評価値とすることができる。   The subject is preferably an area including a face. The evaluation can be an evaluation value related to at least one of the size of the subject, the size of the face included in the subject, the brightness of the subject, and the brightness of the face included in the subject.

本発明によれば、被写体を認識して、認識結果に基づいて画像データの補正を行う際に、複数の被写体が検出された場合や、補正する必要のない被写体などが検出された場合に、その被写体の評価を面積や明るさなどから決定する。決定された重要度に応じて、補正の基準となる被写体を決定することや、画像データの補正量を決定することを行う。このため、補正の必要のない被写体に補正を行うことや、過剰に補正を行うことなどを避けることができ、適切に画像データの補正を行うことができる。   According to the present invention, when recognizing a subject and correcting image data based on the recognition result, when a plurality of subjects are detected or a subject that does not need to be corrected is detected, The subject's evaluation is determined from the area and brightness. In accordance with the determined importance, a subject as a correction reference is determined and a correction amount of image data is determined. For this reason, it is possible to avoid correcting an object that does not need to be corrected or to perform excessive correction, and to correct image data appropriately.

次に添付図面を参照して、本発明による画像処理装置をデジタルスチルカメラに適用した実施例を詳細に説明する。本実施例では、デジタルスチルカメラによって被写界を撮像し、撮像されたデータを用いて、被写界に含まれる被写体(顔)を認識する。この際に、状況によっては、複数の被写体が検出される場合がある。   Next, an embodiment in which an image processing apparatus according to the present invention is applied to a digital still camera will be described in detail with reference to the accompanying drawings. In this embodiment, a scene is captured by a digital still camera, and a subject (face) included in the scene is recognized using the captured data. At this time, depending on the situation, a plurality of subjects may be detected.

そのときは、被写体の大きさや被写体の明るさによって、各々の被写体の重要度を決定し、重要度が高い被写体を基準に、画像補正(たとえば明るさ補正)の量を決定して、補正を行う。重要度の最も高い被写体が適正となるような補正(階調補正による明るさ補正)などを行う。その結果、補正を行いたい被写体を正しく選択することが可能となり、補正を行わなくて良い場合には、補正を行わないことや、過剰に補正することを防ぐことができ、適切に画像補正を行うことが可能となる。   In that case, determine the importance of each subject according to the size of the subject and the brightness of the subject, determine the amount of image correction (for example, brightness correction) based on the subject with high importance, and perform the correction. Do. Correction (brightness correction by gradation correction) is performed so that the subject with the highest importance is appropriate. As a result, it is possible to correctly select the subject to be corrected, and when correction is not necessary, it is possible to prevent correction from being performed or to prevent excessive correction, and to perform image correction appropriately. Can be done.

実施例の画像処理装置は、被写界を撮像して得られた画像データを処理するものであり、画像データから、被写界に含まれる複数の被写体を検出する被写体検出手段と、複数の被写体ごとに評価を行い、評価に従って、画像データに対する補正の基準となる被写体を決定する基準被写体決定手段と、基準となる被写体の重要度に基づいて画像データの補正量を決定する補正量決定手段と、補正量に基づいて、画像データに対する補正を行う補正手段とを含む。   An image processing apparatus according to an embodiment processes image data obtained by capturing an image of a scene, and includes a subject detection unit that detects a plurality of subjects included in the scene from the image data, and a plurality of subjects A reference subject determination unit that performs evaluation for each subject and determines a subject as a reference for correction of image data according to the evaluation, and a correction amount determination unit that determines a correction amount of the image data based on the importance of the reference subject And correction means for correcting the image data based on the correction amount.

被写体検出手段は被写体として、この構成例では顔を検出する。基準被写体決定手段は、検出された複数の顔の大きさ、すなわち顔の面積と、顔の明るさとを評価の対象として、面積に関する評価値と、明るさに関する評価値の積を最終的な評価値とする。最終的な評価値に基づいて、複数の顔の中から補正の基準となる顔を選択する。補正手段は、最終的な評価値を考慮して画像データの明るさを、階調変換により補正する。   The subject detection means detects a face as a subject in this configuration example. The reference subject determining means uses a plurality of detected face sizes, that is, the face area and the face brightness as evaluation targets, and finally evaluates a product of the evaluation value related to the area and the evaluation value related to the brightness. Value. Based on the final evaluation value, a face to be corrected is selected from a plurality of faces. The correction unit corrects the brightness of the image data by gradation conversion in consideration of the final evaluation value.

なお、評価の方法はこれに限られるものではなく、顔のみから評価する方法以外に、顔と胴体を含めた人物全体を被写体として評価してもよい。また、面積に関する評価値と、明るさに関する評価値の積を評価値とする方法以外に、面積と明るさのいずれか一方のみで評価してもよい。また面積に関する評価値と、明るさに関する評価値の和を最終的な評価値としてもよい。   Note that the evaluation method is not limited to this, and the entire person including the face and the torso may be evaluated as a subject other than the method of evaluating from the face alone. Moreover, you may evaluate only in any one of an area and brightness other than the method of making the evaluation value the product of the evaluation value regarding an area, and the evaluation value regarding brightness. The sum of the evaluation value related to the area and the evaluation value related to the brightness may be used as the final evaluation value.

さらに、評価値として、本実施例では、顔の大きさとして顔の面積を採用したが、顔の面積に限られるものではなく、顔の縦または横の長さを評価値としてもよい。顔の面積と、顔の縦または横の長さとは、相関関係があるからである。   Furthermore, in this embodiment, the face area is used as the face size as the evaluation value, but the face area is not limited to the face area, and the vertical or horizontal length of the face may be used as the evaluation value. This is because the face area and the vertical or horizontal length of the face have a correlation.

評価の結果、最終的に選択される被写体は、本実施例では1つであるが、本発明では、選択される被写体の数は、1つに限られるものではなく、複数でもよい。複数選択した場合の補正量の決定方法は、たとえば、複数の被写体の評価値(重要度)の平均値から補正量を決定することができる。また、被写体は、人物に限られるものではなく、人物以外に車又は建物等を被写体として、その評価を行うこととしてもよい。   As a result of the evaluation, one object is finally selected in the present embodiment. However, in the present invention, the number of objects to be selected is not limited to one and may be plural. As a method for determining a correction amount when a plurality of selections are made, for example, the correction amount can be determined from an average value of evaluation values (importance levels) of a plurality of subjects. Further, the subject is not limited to a person, and the evaluation may be performed using a car or a building as a subject other than the person.

図1は、本発明による撮像装置の一実施例であるデジタルスチルカメラ10のブロック図である。被写体からの入射光はレンズ12により集光される。レンズ12により集光された光束は、絞り部14により、光束の大きさが制限される。レンズ12を移動させて合焦したり、絞り部14を駆動するために、駆動部16を設ける。   FIG. 1 is a block diagram of a digital still camera 10 which is an embodiment of an imaging apparatus according to the present invention. Incident light from the subject is collected by the lens 12. The size of the light beam collected by the lens 12 is limited by the diaphragm unit 14. A driving unit 16 is provided to move the lens 12 to focus or drive the diaphragm unit 14.

レンズ12と絞り部14を通過した入射光は、CCD(Charge Coupled Device:電荷結合素子)を含む撮像素子20により光電変換されて、信号20aとしてアナログ信号処理部22に出力される。アナログ信号処理部22は、CDS(Correlated Double Sampling)等の信号処理を行い、信号20aに含まれる雑音を低減し、信号22aとしてAD変換回路24に出力する。AD変換回路24は、信号22aをデジタル信号に変換して、画像信号(画像データ)24aとしてメモリ30に出力する。画像信号24aは、メモリ30に記憶される。   Incident light that has passed through the lens 12 and the diaphragm unit 14 is photoelectrically converted by the imaging device 20 including a CCD (Charge Coupled Device) and output to the analog signal processing unit 22 as a signal 20a. The analog signal processing unit 22 performs signal processing such as CDS (Correlated Double Sampling), reduces noise included in the signal 20a, and outputs the signal 22a to the AD conversion circuit 24. The AD conversion circuit 24 converts the signal 22a into a digital signal and outputs it to the memory 30 as an image signal (image data) 24a. The image signal 24a is stored in the memory 30.

メモリ30に記憶された画像信号24aの処理は、予備撮影と本撮影のときで処理が異なる。予備撮影とは、操作部32のシャッタが半押しされたときであり、本撮影のための測光および測距が行われて、レンズ12および絞り部14の設定が行われ、その後、シャッタが全押しされたときに本撮影が行われる。   The processing of the image signal 24a stored in the memory 30 is different between the preliminary shooting and the main shooting. Preliminary shooting is when the shutter of the operation unit 32 is half-pressed, photometry and distance measurement are performed for the main shooting, the lens 12 and the aperture unit 14 are set, and then the shutter is fully moved. Real shooting is performed when pressed.

予備撮影で得られた画像信号24aは、システム制御部34によって読み出され、公知の方法で測光のための処理がなされる。測光の結果、たとえば逆光状態と判断された場合、システム制御部34は、ストロボ48を発光させる。   The image signal 24a obtained by the preliminary photographing is read out by the system control unit 34, and processing for photometry is performed by a known method. As a result of photometry, for example, when it is determined that the backlight is in the backlit state, the system control unit 34 causes the strobe 48 to emit light.

システム制御部34は、制御プログラムに基づいて、これらの処理、および電子カメラ10全体の制御を行う。システム制御部34は、これらの処理および所定の制御を実行するCPU(Central Processing Unit: 中央処理装置、図示しない)と、制御プログラムや制御パラメータ等を格納するROM(Read Only Memory、図示しない)と、作業用のメモリであるRAM(Random Access Memory、図示しない)とを有する。   The system control unit 34 performs these processes and controls the entire electronic camera 10 based on the control program. The system control unit 34 includes a CPU (Central Processing Unit: not shown) that executes these processes and predetermined control, and a ROM (Read Only Memory, not shown) that stores control programs, control parameters, and the like. And RAM (Random Access Memory, not shown) which is a working memory.

システム制御部34は撮影時に、駆動部16を介して、レンズ12、絞り部14、および撮像素子20を制御する。駆動部16は、レンズ12、絞り部14、撮像素子20へ制御信号およびタイミング信号を供給する。またシステム制御部34は、ストロボ48を制御する。   The system control unit 34 controls the lens 12, the diaphragm unit 14, and the image sensor 20 via the drive unit 16 at the time of shooting. The drive unit 16 supplies a control signal and a timing signal to the lens 12, the diaphragm unit 14, and the image sensor 20. Further, the system control unit 34 controls the strobe 48.

本撮影で得られた画像信号24aは、画像認識部32により読み出される。画像認識部32は、画像信号24aから、被写界に含まれる被写体を検出し、複数の被写体がある場合は、複数の被写体ごとに評価を行う。画像認識部32は、顔の面積と、顔の明るさとを重要度の評価の対象として、面積の評価値と明るさの評価値の積を評価値とする。この評価値に基づいて、画像信号24aに対する補正の基準となる被写体を決定し、さらに、決定された基準となる被写体の重要度に基づいて画像信号24aの補正量を決定する。   The image signal 24a obtained by the main photographing is read by the image recognition unit 32. The image recognition unit 32 detects a subject included in the scene from the image signal 24a, and performs evaluation for each of the plurality of subjects when there are a plurality of subjects. The image recognizing unit 32 sets the product of the area evaluation value and the brightness evaluation value as the evaluation value, with the face area and the face brightness as evaluation targets. Based on this evaluation value, a subject that is a reference for correction of the image signal 24a is determined, and further, a correction amount of the image signal 24a is determined based on the importance of the determined reference subject.

システム制御部34は、決定された補正量に基づいて画像信号24aに対する補正を行う。この補正処理は、いわゆる階調変換カーブ(ガンマ補正カーブ)を、決定された補正量に従って、さらに変更することにより行われる。これらの処理の詳細は後述する。   The system control unit 34 corrects the image signal 24a based on the determined correction amount. This correction process is performed by further changing a so-called gradation conversion curve (gamma correction curve) according to the determined correction amount. Details of these processes will be described later.

なお、本実施例では、本撮影のときに得られた画像データに基づいて、基準となる被写体を決定することや、補正量を決定することを行ったが、本発明は、これに限られるものではなく、予備撮影のときに得られた画像データに基づいて、これらの決定を行ってもよい。   In this embodiment, the reference subject and the correction amount are determined based on the image data obtained at the time of the main photographing. However, the present invention is limited to this. However, these determinations may be made based on image data obtained at the time of preliminary shooting.

本撮影で得られた画像信号24aは、デジタル信号処理部36によっても読み出される。デジタル信号処理部36は、画像処理パラメータに従って画像信号24aに対して、オートホワイトバランス処理等の画像処理を行う。本実施例では、オートホワイトバランス処理を行った後に、上記の階調変換を行う。これらの処理が行われた画像36aは、メモリ30に記憶される。   The image signal 24a obtained by the main photographing is also read by the digital signal processing unit 36. The digital signal processing unit 36 performs image processing such as auto white balance processing on the image signal 24a according to the image processing parameter. In the present embodiment, the gradation conversion is performed after the auto white balance process. The image 36a subjected to these processes is stored in the memory 30.

メモリ30に記憶された画像36aは、メモリ30から読み出されて、カードインターフェース(カードI/F)38aを介してメモリカード38bに記憶される。メモリ30から読み出された画像36aは、画像合成部40aを介して液晶表示部(LCD: Liquid Crystal Display)40bまたはファインダ(EVF: Electric View Finder、電子ビューファインダ)40cにも表示される。画像合成部40aは、画像36aと、液晶表示部40bまたはファインダ40cに表示すべき種々の情報(カメラの動作状態や、被写界の明るさなど)表示とを合成するためのものである。   The image 36a stored in the memory 30 is read from the memory 30 and stored in the memory card 38b via the card interface (card I / F) 38a. The image 36a read from the memory 30 is also displayed on a liquid crystal display (LCD: Liquid Crystal Display) 40b or a finder (EVF: Electric View Finder, electronic view finder) 40c via the image composition unit 40a. The image synthesis unit 40a is for synthesizing the image 36a and various information (camera operating state, brightness of the object scene, etc.) to be displayed on the liquid crystal display unit 40b or the finder 40c.

レンズ12、絞り部14、駆動部16、撮像素子20が画像撮像手段を構成する。画像認識部32は被写体検出手段と基準被写体決定手段と補正量決定手段である。システム制御部34が補正手段である。なお、被写体検出手段、基準被写体決定手段、補正量決定手段、補正手段の機能は、プログラムによって実行することができる。   The lens 12, the diaphragm unit 14, the drive unit 16, and the imaging device 20 constitute an image imaging unit. The image recognition unit 32 is a subject detection unit, a reference subject determination unit, and a correction amount determination unit. The system control unit 34 is correction means. The functions of the subject detection unit, the reference subject determination unit, the correction amount determination unit, and the correction unit can be executed by a program.

図1を参照しながら、デジタルスチルカメラ10の動作の概要について説明する。操作者はファインダ40c、または表示部40bから被写体を覗き、図示しない操作部のシャッタを半押しすると、システム制御部34は、シャッタが半押しされたことを示す信号を検出して、撮像素子20に被写体からの入射光を信号20aに変換させる。信号20aは、駆動部16から発生されるクロックにより順次取り出され、アナログ信号処理部22により、信号20aに含まれる雑音を低減する等の処理が行われる。アナログ信号処理部22が出力する信号22aはAD変換回路24により、デジタル信号である画像信号24aに変換され、画像信号24aはメモリ30に送られる。   An outline of the operation of the digital still camera 10 will be described with reference to FIG. When the operator looks into the subject from the finder 40c or the display unit 40b and half-presses the shutter of the operation unit (not shown), the system control unit 34 detects a signal indicating that the shutter is half-pressed, and the imaging device 20 The incident light from the subject is converted into a signal 20a. The signal 20a is sequentially extracted by a clock generated from the driving unit 16, and the analog signal processing unit 22 performs processing such as reducing noise included in the signal 20a. The signal 22 a output from the analog signal processing unit 22 is converted into an image signal 24 a which is a digital signal by the AD conversion circuit 24, and the image signal 24 a is sent to the memory 30.

システム制御部34は、メモリ30から画像信号24aを読み出して、画像信号24aに基づいて測光を行う。また画像信号24aに基づいて、逆光補正を行うかどうかを決定する。これらの結果として、露出値を決定し、またストロボ48を発光させるかどうかも決定する。システム制御部34は決定に従って、駆動部16を介してレンズ12と絞り部14を駆動し、本撮影に備える。   The system control unit 34 reads the image signal 24a from the memory 30, and performs photometry based on the image signal 24a. Whether to perform backlight correction is determined based on the image signal 24a. As a result of these, the exposure value is determined, and it is also determined whether or not the strobe 48 is caused to emit light. The system control unit 34 drives the lens 12 and the diaphragm unit 14 via the drive unit 16 according to the determination, and prepares for the actual photographing.

操作者が、シャッタを全押しすると、システム制御部34は、シャッタが全押しされたということを示す信号を検出して、撮像素子20に被写体からの入射光を信号20aに変換させる。このとき必要であればストロボ48が発光する。予備撮影と同様にして、信号20aは画像信号24aに変換され、画像信号24aはメモリ30に送られる。   When the operator fully presses the shutter, the system control unit 34 detects a signal indicating that the shutter is fully pressed, and causes the image sensor 20 to convert incident light from the subject into a signal 20a. At this time, the flash 48 emits light if necessary. Similarly to the preliminary shooting, the signal 20a is converted into an image signal 24a, and the image signal 24a is sent to the memory 30.

画像信号24aは、画像認識部32により読み出される。画像認識部32は、被写体を検出し、被写体の重要度の評価を行う。この評価値に基づいて、補正の基準となる被写体を決定し、さらに、この基準となる被写体の重要度から画像信号24aの補正量を決定する。システム制御部34は、画像信号24aに対する補正を行う。   The image signal 24a is read by the image recognition unit 32. The image recognition unit 32 detects the subject and evaluates the importance of the subject. Based on this evaluation value, a subject as a reference for correction is determined, and further, a correction amount of the image signal 24a is determined from the importance of the subject as a reference. The system control unit 34 corrects the image signal 24a.

画像信号24aは、またデジタル信号処理部36に入力され、ホワイトバランス処理、上記の補正処理等の処理が行われた後、処理済の画像信号36aは、メモリ30に記憶される。画像信号36aは、操作部の指示により表示部40bに表示されることもある。   The image signal 24 a is also input to the digital signal processing unit 36, and after processing such as white balance processing and the above correction processing, the processed image signal 36 a is stored in the memory 30. The image signal 36a may be displayed on the display unit 40b according to an instruction from the operation unit.

次に、画像認識部32およびシステム制御部34が行う被写体の検出、評価、画像信号24aに対する補正について、図を参照して述べる。本実施例の場合、被写体は顔であり、顔の検出が行われる。画像認識部32は、最初に画像信号24aから顔画像を検出する。なお、顔画像の検出については、特許文献1等に記載の公知の方法で行う。たとえば、以下のように行う。   Next, object detection, evaluation, and correction for the image signal 24a performed by the image recognition unit 32 and the system control unit 34 will be described with reference to the drawings. In the present embodiment, the subject is a face, and face detection is performed. The image recognition unit 32 first detects a face image from the image signal 24a. The detection of the face image is performed by a known method described in Patent Document 1 or the like. For example, this is performed as follows.

撮像素子20により撮影された被写体の画像信号24aを、メモリ30に記憶する。その画像信号24aを、ある所定の単位(1フレーム、または数バイト等の単位)で画像認識部32に取り込む。次に、画像信号を、予め画像認識部32内に記憶しておいた顔の特徴を表す各種のデータ(顔の輪郭、目、鼻、口、耳等のテンプレートデータ等)と比較する。この比較の方法は各種アルゴリズムに基づいて行われる。その結果、たとえば、特徴を表すデータと所定以上の一致度を有する画像信号24aの部分を顔画像と判断する。   The image signal 24a of the subject imaged by the image sensor 20 is stored in the memory 30. The image signal 24a is taken into the image recognition unit 32 in a certain predetermined unit (unit of one frame or several bytes). Next, the image signal is compared with various types of data representing facial features stored in the image recognizing unit 32 in advance (template data such as facial contours, eyes, nose, mouth, ears, etc.). This comparison method is performed based on various algorithms. As a result, for example, a portion of the image signal 24a having a degree of coincidence with a predetermined level of data representing a feature is determined as a face image.

図2(a), (b)に、認識された顔画像の例を示す。図2(a)は、被写界42aに複数の人物44a, 44b, 44c, 44dがいる場合である。画像認識部32は、複数の顔画像46a, 46b, 46c, 46dを検出する。図2(a)には、被写体ではない、他の物体、たとえば風景50も示す。図2(b)は、被写界42bに一人の人物44eがいる場合である。画像認識部32は、顔画像46eを検出する。   2A and 2B show examples of recognized face images. FIG. 2 (a) shows a case where a plurality of persons 44a, 44b, 44c, 44d are present in the object scene 42a. The image recognition unit 32 detects a plurality of face images 46a, 46b, 46c, 46d. FIG. 2 (a) also shows other objects that are not subjects, such as the landscape 50. FIG. FIG. 2B shows a case where one person 44e is present in the object scene 42b. The image recognition unit 32 detects the face image 46e.

図3(a)に、認識された顔画像の別の例を示す。図3(a)は、被写界42cに一人の人物44fが小さく撮影されている場合である。画像認識部32は、顔画像46fを検出する。比較のために、図3(b)に、図2(b)を再掲する。図3(b)は、被写界42bに一人の人物44eが大きく撮影されている場合である。   FIG. 3 (a) shows another example of the recognized face image. FIG. 3A shows a case where one person 44f is photographed small in the object scene 42c. The image recognition unit 32 detects the face image 46f. For comparison, FIG. 2 (b) is shown again in FIG. 3 (b). FIG. 3B shows a case where a single person 44e is photographed large in the object scene 42b.

画像認識部32は、顔画像46a〜46fを検出した後に、顔画像46a〜46fを囲む検出枠45a〜45fを設定してもよい。図2(a), (b)、図3(a), (b)に、検出枠45a〜45fを示す。検出枠45a〜45fは、顔画像46a〜46fの面積を後述するように評価するときに、顔画像46a〜46fの面積を直接求める代わりに、検出枠45a〜45fの面積を算出して、顔画像46a〜46fの重要度を決定してもよい。顔画像46a〜46fの面積の大小関係と、検出枠45a〜45fの大小関係は同じと考えられるからである。   The image recognition unit 32 may set detection frames 45a to 45f surrounding the face images 46a to 46f after detecting the face images 46a to 46f. FIGS. 2 (a), 2 (b), 3 (a), and 3 (b) show detection frames 45a to 45f. The detection frames 45a to 45f calculate the areas of the detection frames 45a to 45f instead of directly obtaining the areas of the face images 46a to 46f when evaluating the areas of the face images 46a to 46f as described later. The importance of the images 46a to 46f may be determined. This is because the size relationship between the areas of the face images 46a to 46f and the size relationship between the detection frames 45a to 45f are considered to be the same.

なお、人物以外が検出対象の場合、テンプレートデータとして、検出対象(たとえば、建物、車等)に合わせたデータを用意すればよい。   In addition, when a person other than a person is a detection target, data corresponding to the detection target (for example, a building, a car, etc.) may be prepared as template data.

顔画像を認識した後、画像認識部32は、複数の顔がある場合、複数の顔ごとに評価を行う。画像認識部32は、顔の面積と、顔の明るさとを評価の対象として、複数の顔ごとに面積と明るさを求める。顔の明るさとしては、たとえば顔に含まれる画素の明るさの平均値を採用する。面積と明るさから、それぞれ評価値(重要度)を求める。面積から求めた重要度と、明るさから求めた重要度の積を、それぞれの顔の重要度とする。   After recognizing the face image, the image recognition unit 32 performs evaluation for each of the plurality of faces when there are a plurality of faces. The image recognition unit 32 obtains the area and brightness for each of a plurality of faces, with the face area and the brightness of the face as evaluation targets. As the face brightness, for example, an average value of the brightness of pixels included in the face is employed. An evaluation value (importance) is obtained from the area and brightness. The product of the importance obtained from the area and the importance obtained from the brightness is defined as the importance of each face.

顔の面積、および顔の明るさと重要度との関係の一例を図4に示す。図4(a), (b)は、それぞれ、顔の面積と重要度との関係、および顔の明るさと重要度との関係を示す。図の横軸は、顔の面積、および顔の明るさ、縦軸は重要度であり、その最大値は、たとえば1.0であり、最小値は、たとえば0.0である。   An example of the relationship between the face area and the brightness and importance of the face is shown in FIG. 4 (a) and 4 (b) show the relationship between the face area and the importance level, and the relationship between the face brightness and the importance level, respectively. In the figure, the horizontal axis represents the face area and the brightness of the face, and the vertical axis represents the importance. The maximum value is, for example, 1.0, and the minimum value is, for example, 0.0.

顔の面積と重要度との関係に関しては、面積が大きいほど重要度が高いと考えられるため、図4(a)のようなグラフを採用する。ある値54aより小さい場合は、重要度は「0」とする。ある値54bより大きい場合は、重要度は「1」とする。値54aより小さい場合に、一律に重要度を「0」とする理由は、面積がある程度以下の被写体は、撮影者にとっては、関心が低いものであり、一律に重要度を「0」とすることが、撮影者の意図もしくは希望に沿うと考えられるからである。値54bより大きい場合に、一律に重要度を「1」とする理由は、面積がある程度以上の被写体は、撮影者にとっては、同程度に関心が高いものであり、一律に重要度を「1」とすることが、撮影者の意図もしくは希望に沿うと考えられるからである。   Regarding the relationship between the area of the face and the importance, it is considered that the importance is higher as the area is larger, so the graph as shown in FIG. 4 (a) is adopted. When the value is smaller than a certain value 54a, the importance is set to “0”. When the value is larger than a certain value 54b, the importance is set to “1”. The reason why the importance level is uniformly “0” when the value is smaller than 54a is that the subject whose area is below a certain level is of little interest to the photographer, and the importance level is uniformly set to “0”. This is because it is considered to meet the photographer's intention or desire. When the value is larger than 54b, the reason why the importance is uniformly set to “1” is that the subject having an area of a certain degree or more is equally interested in the photographer, and the importance is uniformly set to “1”. This is because it is considered to be in line with the photographer's intention or desire.

顔の明るさと重要度との関係に関しては、明るさが低すぎても、また高すぎても重要度は低いと考えられるため、図4(b)のようなグラフを採用する。ある値56aより小さい場合、および、ある値56bより大きい場合は、重要度は「0」とする。一律に重要度を「0」とする理由は、明るさが低すぎても、また高すぎても、撮影者にとっては、関心が低いあるいは、好ましくないものであり、一律に重要度を「0」とすることが、撮影者の意図もしくは希望に沿うと考えられるからである
図4(a), (b)により、面積に関する重要度、および明るさに関する重要度を、それぞれの顔画像46a〜46fについて求める。さらに、その積を顔ごとに求める。
Regarding the relationship between the brightness of the face and the importance, it is considered that the importance is low if the brightness is too low or too high, so a graph as shown in FIG. 4B is adopted. If the value is smaller than a certain value 56a and larger than a certain value 56b, the importance is set to “0”. The reason why the importance is uniformly set to “0” is that the photographer is less interested or unpreferable if the brightness is too low or too high. It is because it is considered that it is in line with the photographer's intention or desire, the importance relating to the area and the importance relating to the brightness are assigned to each of the face images 46a to 46d according to FIGS. Ask for 46f. Furthermore, the product is obtained for each face.

被写体(顔)が複数ある場合は、それぞれの顔についての重要度の中で、もっとも大きい重要度を有する顔を、画像信号24aに対する補正の基準とする。図2(a)の場合、顔画像46bがもっとも面積が大きい。そして、明るさに関する重要度との積も、顔画像46a, 46b, 46c, 46dの中でもっとも大きいとする。その場合、顔画像46bの重要度がもっとも大きいため、顔画像46bが補正の基準となる顔である。なお、決定された顔画像46bが有する重要度は、後述するように補正量の決定に使用する。   When there are a plurality of subjects (faces), the face having the highest importance level among the importance levels for each face is used as a reference for correction for the image signal 24a. In the case of FIG. 2 (a), the face image 46b has the largest area. It is also assumed that the product of the importance regarding brightness is the largest among the face images 46a, 46b, 46c, and 46d. In this case, since the importance of the face image 46b is the highest, the face image 46b is a face that is a reference for correction. Note that the importance of the determined face image 46b is used to determine the correction amount as will be described later.

一方、図2(b)、図3(a)のように、顔が1つしかない場合は、顔画像46e, 46fを補正の基準となる顔とする。そして、顔画像46e, 46fについて、図4(a), (b)により、面積に関する重要度、および明るさに関する重要度を求め、さらに、これらの重要度の積を求める。顔画像46e, 46fが有する重要度は、補正量の決定に使用する。   On the other hand, as shown in FIGS. 2 (b) and 3 (a), when there is only one face, the face images 46e and 46f are used as correction reference faces. Then, for the face images 46e and 46f, the importance related to the area and the importance related to the brightness are obtained from FIGS. 4A and 4B, and the product of these importance is obtained. The importance of the face images 46e and 46f is used to determine the correction amount.

次に、補正量の決定について説明する。補正量の決定に使用する重要度が、以上のようにして求まると、図5に示す重要度と補正量の関係から画像信号24aの補正量を決定する。図5の横軸は、重要度であり、縦軸は補正量であり、0%から100%の間の値を取る。   Next, determination of the correction amount will be described. When the importance used for determining the correction amount is obtained as described above, the correction amount of the image signal 24a is determined from the relationship between the importance and the correction amount shown in FIG. The horizontal axis in FIG. 5 is the importance, and the vertical axis is the correction amount, which takes a value between 0% and 100%.

画像認識部32は、図5の関係から補正量を決定し、決定した補正量をシステム制御部34に出力する。補正量は、重要度が大きいほど、大きくする。ある値52aより小さい場合は、重要度は「0」とする。ある値52bより大きい場合は、重要度は「1」とする。   The image recognition unit 32 determines a correction amount from the relationship of FIG. 5 and outputs the determined correction amount to the system control unit 34. The correction amount is increased as the importance is increased. If the value is smaller than a certain value 52a, the importance is set to “0”. When the value is larger than a certain value 52b, the importance is set to “1”.

システム制御部34は補正量を入力されて、画像信号24aに対する補正を行う。この補正処理は、階調変換カーブに従って画像信号24aを変更して、画像信号36aを得る。補正は、本実施例では、補正量0%に相当する階調変換カーブと、補正量100%に相当する目標値である階調変換カーブとの間で、決定された補正量に従って行われる。図6に、補正量0%に相当する階調変換カーブ58aと、補正量100%に相当する目標値である階調変換カーブ58bを示す。階調変換カーブは、いわゆるガンマ補正カーブに相当するものである。   The system control unit 34 receives the correction amount and corrects the image signal 24a. In this correction process, the image signal 24a is changed according to the gradation conversion curve to obtain the image signal 36a. In this embodiment, the correction is performed according to the determined correction amount between the gradation conversion curve corresponding to the correction amount of 0% and the gradation conversion curve that is the target value corresponding to the correction amount of 100%. FIG. 6 shows a gradation conversion curve 58a corresponding to a correction amount of 0% and a gradation conversion curve 58b that is a target value corresponding to a correction amount of 100%. The gradation conversion curve corresponds to a so-called gamma correction curve.

なお、本発明の補正は、階調変換カーブに関する補正に限られるものではなく、他の補正、たとえば、色変換処理(色の鮮やかさの処理)、空間周波数処理(画像のシャープさの処理)等に関する補正に用いてもよい。   The correction of the present invention is not limited to the correction related to the gradation conversion curve, and other corrections such as color conversion processing (color vividness processing), spatial frequency processing (image sharpness processing). You may use for the correction | amendment regarding etc.

上記のようにして補正量が決定されたときに、補正量が0%であったときは、階調変換カーブ58aが使用され、補正量が100%であったときは、階調変換カーブ58bが使用され、補正量が0%と100%との間にあるときは、階調変換カーブ58aと階調変換カーブ58bとの間の階調変換カーブ(図示せず)が使用される。たとえば、補正量が0%、100%、その他のときに、入力データ60a(画像信号24a)に対して、出力データ60b, 60d, 60c(画像信号36a)がそれぞれ得られる。   When the correction amount is determined as described above, when the correction amount is 0%, the gradation conversion curve 58a is used, and when the correction amount is 100%, the gradation conversion curve 58b is used. Is used, and a gradation conversion curve (not shown) between the gradation conversion curve 58a and the gradation conversion curve 58b is used when the correction amount is between 0% and 100%. For example, output data 60b, 60d, 60c (image signal 36a) is obtained for input data 60a (image signal 24a) when the correction amount is 0%, 100%, or otherwise.

次に、画像認識部32およびシステム制御部34が行う被写体の検出、評価、画像信号24aに対する補正の処理ステップについて、図7により述べる。画像認識部32は、画像信号24aをメモリ30から入力される(ステップS1)。画像認識部32は、画像信号24aから被写体を検出する(ステップS2)。次に、画像認識部32は、被写体がいくつ検出されたかを判断する(ステップS3)。   Next, processing steps of subject detection, evaluation, and correction for the image signal 24a performed by the image recognition unit 32 and the system control unit 34 will be described with reference to FIG. The image recognition unit 32 receives the image signal 24a from the memory 30 (step S1). The image recognition unit 32 detects the subject from the image signal 24a (step S2). Next, the image recognition unit 32 determines how many subjects are detected (step S3).

検出数nが0のときは、画像補正は行わないため、ステップS7に進み、画像信号24aを変換しないで、画像信号36aとしてメモリ30に出力する(ステップS7)。   When the detection number n is 0, image correction is not performed, so the process proceeds to step S7, and the image signal 24a is not converted and output to the memory 30 as the image signal 36a (step S7).

一方、検出数nが1より大きいときはステップS4に進み、各被写体についてその大きさと明るさから重要度を算出する。算出された2つの重要度の積をその被写体の重要度とする(ステップS4)。算出された重要度から、もっとも大きい重要度を有する被写体を基準被写体とする。基準被写体の有する重要度から画像信号24aの補正量を決定する(ステップS5)。システム制御部34は、補正量を入力されて、階調変換カーブを決定し、決定後の階調変換カーブにより画像信号24aを変換する(ステップS6)。変換して得られた画像信号36aをメモリ30に出力する(ステップS7)。   On the other hand, when the detection number n is greater than 1, the process proceeds to step S4, and the importance is calculated from the size and brightness of each subject. The product of the two calculated importance levels is set as the importance level of the subject (step S4). Based on the calculated importance, the subject having the highest importance is set as the reference subject. The correction amount of the image signal 24a is determined from the importance of the reference subject (step S5). The system control unit 34 receives the correction amount, determines a gradation conversion curve, and converts the image signal 24a using the determined gradation conversion curve (step S6). The image signal 36a obtained by the conversion is output to the memory 30 (step S7).

また、検出数nが1のときはステップS8に進み、1つの被写体について、その大きさと明るさから重要度を算出する。算出された2つの重要度の積をその被写体の重要度とする(ステップS8)。画像認識部32は、被写体の有する重要度から画像信号24aの補正量を決定する(ステップS9)。その後、既述のステップS6を行う。   When the detection number n is 1, the process proceeds to step S8, and importance is calculated from the size and brightness of one subject. The product of the two calculated importance levels is set as the importance level of the subject (step S8). The image recognition unit 32 determines the correction amount of the image signal 24a from the importance of the subject (step S9). Thereafter, step S6 described above is performed.

本実施例によれば、複数の被写体が検出された場合、その被写体の評価を面積や明るさなどから決定する。決定された重要度に応じて、補正の基準となる被写体を決定することや、画像データの補正量を決定する。このため、補正の必要のない被写体に補正を行うことや、過剰に補正を行うことなどを避けることができ、適切に画像データの補正を行うことができる。   According to the present embodiment, when a plurality of subjects are detected, the evaluation of the subject is determined from the area, brightness, and the like. In accordance with the determined importance, a subject to be corrected is determined and a correction amount of image data is determined. For this reason, it is possible to avoid correcting an object that does not need to be corrected or to perform excessive correction, and to correct image data appropriately.

なお、上記の実施例では、メモリ30に蓄積するときに画像データに対して補正を行ったが、本発明は、メモリ30に蓄積するときに限られるものではなく、再生時、たとえばディスプレイに表示するとき、または、プリンタにプリントアウトするときに、表示またはプリントアウトされるデータに対して補正することもできる。このときは、これらに適した補正を行うことが好ましい。たとえば、階調変換カーブとして、それぞれディスプレイ表示またはプリンタ出力に適した階調変換カーブを用いることが好ましい。   In the above-described embodiment, the image data is corrected when stored in the memory 30, but the present invention is not limited to storing in the memory 30, and is displayed on a display, for example, during playback. It is also possible to correct the data displayed or printed out when printing or printing out to a printer. In this case, it is preferable to perform correction suitable for these. For example, it is preferable to use a gradation conversion curve suitable for display display or printer output as the gradation conversion curve.

また、上記の実施例では、画面全体の画像データに対して、一律に同一の補正量を適用したが、本発明はこれに限られるものではなく、画面内の異なるものに対して、異なる補正量を設定することとしてもよい。たとえば、人物と背景では補正量を変える、または人物同士の間で、人物の重要度に応じて補正量を変えることとしてもよい。   In the above embodiment, the same correction amount is uniformly applied to the image data of the entire screen. However, the present invention is not limited to this, and different corrections are made for different items in the screen. It is good also as setting quantity. For example, the correction amount may be changed between the person and the background, or between the persons, the correction amount may be changed according to the importance of the person.

本発明による撮像装置の一実施例であるデジタルスチルカメラのブロック図である。1 is a block diagram of a digital still camera which is an embodiment of an imaging apparatus according to the present invention. 本発明による被写体の認識結果の一例を示す説明図である。。It is explanatory drawing which shows an example of the recognition result of the to-be-photographed object by this invention. . 本発明による被写体の認識結果の一例を示す説明図である。。It is explanatory drawing which shows an example of the recognition result of the to-be-photographed object by this invention. . 顔の面積と重要度との関係、および顔の明るさと重要度との関係を示すグラフである。It is a graph which shows the relationship between the area of a face and importance, and the relationship between the brightness of a face and importance. 重要度と補正量の関係を示すグラフである。It is a graph which shows the relationship between importance and correction amount. 所定の階調変換カーブの例を示すグラフであるIt is a graph which shows the example of a predetermined gradation conversion curve 画像認識部およびシステム制御部が行う被写体の検出、評価、画像信号に対する補正の処理ステップを示すフローチャートである。It is a flowchart which shows the process step of the correction | amendment with respect to the detection of the to-be-photographed object, evaluation, and image signal which an image recognition part and a system control part perform.

符号の説明Explanation of symbols

10 デジタルスチルカメラ
12 レンズ
14 絞り部
16 駆動部
20 撮像素子
30 メモリ
32 画像認識部
34 システム制御部
36 デジタル信号処理部
44a〜44f 人物
45a〜45f 検出枠
46a〜46f 顔画像
48 ストロボ
10 Digital still camera
12 Lens
14 Aperture
16 Drive unit
20 Image sensor
30 memory
32 Image recognition unit
34 System controller
36 Digital signal processor
44a ~ 44f People
45a to 45f detection frame
46a-46f face image
48 Strobe

Claims (11)

被写界を撮像して得られた画像データを処理する画像処理装置において、該装置は、
前記画像データから、前記被写界に含まれる複数の被写体を検出する被写体検出手段と、
該複数の被写体ごとに評価を行い、該評価に従って、前記画像データに対する補正の基準となる該被写体を決定する基準被写体決定手段と、
該基準となる被写体に基づいて前記画像データの補正量を決定する補正量決定手段と、
該補正量に基づいて、該画像データに対する補正を行う補正手段とを含むことを特徴とする画像処理装置。
In an image processing apparatus that processes image data obtained by imaging a scene, the apparatus includes:
Subject detection means for detecting a plurality of subjects included in the scene from the image data;
A reference subject determination unit that performs evaluation for each of the plurality of subjects and determines the subject as a reference for correction of the image data according to the evaluation;
Correction amount determining means for determining a correction amount of the image data based on the reference subject;
An image processing apparatus comprising: correction means for correcting the image data based on the correction amount.
請求項1に記載の画像処理装置において、前記補正量決定手段は、前記基準となる被写体について前記評価を行い、該評価に基づいて、前記画像データの補正量を決定することを特徴とする画像処理装置。   The image processing apparatus according to claim 1, wherein the correction amount determination unit performs the evaluation on the reference subject and determines the correction amount of the image data based on the evaluation. Processing equipment. 被写界を撮像して得られた画像データを処理する画像処理装置において、該装置は、
前記画像データから、前記被写界に含まれる被写体を検出する被写体検出手段と、
該被写体の評価を行い、該評価に従って、前記画像データの補正量を決定する補正量決定手段と、
該補正量に基づいて、前記画像データに対する補正を行う補正手段とを含むことを特徴とする画像処理装置。
In an image processing apparatus that processes image data obtained by imaging a scene, the apparatus includes:
Subject detection means for detecting a subject included in the scene from the image data;
A correction amount determining means for evaluating the subject and determining a correction amount of the image data according to the evaluation;
An image processing apparatus comprising: correction means for correcting the image data based on the correction amount.
請求項1から3までのいずれかに記載の画像処理装置において、前記補正手段は、前記画像データの階調を補正することを特徴とする画像処理装置。   4. The image processing apparatus according to claim 1, wherein the correction unit corrects a gradation of the image data. 請求項1から4までのいずれかに記載の画像処理装置において、前記被写体は顔を含む領域であることを特徴とする画像処理装置。   5. The image processing apparatus according to claim 1, wherein the subject is an area including a face. 請求項1から5までのいずれかに記載の画像処理装置において、前記評価は、前記被写体の大きさ、該被写体に含まれる顔の大きさ、該被写体の明るさ、および該被写体に含まれる顔の明るさのうち、少なくとも1つに関する評価値であることを特徴とする画像処理装置。   The image processing apparatus according to claim 1, wherein the evaluation includes the size of the subject, the size of the face included in the subject, the brightness of the subject, and the face included in the subject. An image processing apparatus characterized by an evaluation value relating to at least one of the brightness values. 請求項1から6までのいずれかに記載の画像処理装置と、前記被写界を撮像して前記画像データを取得し該取得した画像データを出力する画像撮像手段とを有することを特徴とするカメラ。   7. An image processing apparatus according to claim 1, further comprising: an image capturing unit that captures an image of the object scene, acquires the image data, and outputs the acquired image data. camera. 被写界を撮像して得られた画像データを処理する画像処理方法において、該方法は、
前記画像データから、前記被写界に含まれる複数の被写体を検出する工程と、
該複数の被写体ごとに評価を行い、該評価に従って、前記画像データに対する補正の基準となる該被写体を決定する工程と、
該基準となる被写体に基づいて前記画像データの補正量を決定する工程と、
該補正量に基づいて、該画像データに対する補正を行う工程とを含むことを特徴とする画像処理方法。
In an image processing method for processing image data obtained by imaging an object scene, the method includes:
Detecting a plurality of subjects included in the scene from the image data;
Performing an evaluation for each of the plurality of subjects, and determining the subject as a reference for correction of the image data according to the evaluation;
Determining a correction amount of the image data based on the reference subject;
And a step of correcting the image data based on the correction amount.
被写界を撮像して得られた画像データを処理する画像処理方法において、該方法は、
前記画像データから、前記被写界に含まれる被写体を検出する工程と、
該被写体の評価を行い、該評価に従って、前記画像データの補正量を決定する工程と、
該補正量に基づいて、前記画像データに対する補正を行う工程とを含むことを特徴とする画像処理方法。
In an image processing method for processing image data obtained by imaging an object scene, the method includes:
Detecting a subject included in the object scene from the image data;
Evaluating the subject and determining a correction amount of the image data according to the evaluation;
And a step of correcting the image data based on the correction amount.
被写界を撮像して得られた画像データを処理するためにコンピュータを、
前記画像データから、前記被写界に含まれる複数の被写体を検出する手段、
該複数の被写体ごとに評価を行い、該評価に従って、前記画像データに対する補正の基準となる該被写体を決定する手段、
該基準となる被写体に基づいて前記画像データの補正量を決定する手段、
該補正量に基づいて、該画像データに対する補正を行う手段として機能させるための画像処理プログラム。
A computer for processing the image data obtained by imaging the object scene,
Means for detecting a plurality of subjects included in the object scene from the image data;
Means for evaluating each of the plurality of subjects and determining the subject as a reference for correction of the image data according to the evaluation;
Means for determining a correction amount of the image data based on the reference subject;
An image processing program for causing a function to correct the image data based on the correction amount.
被写界を撮像して得られた画像データを処理するためにコンピュータを、
前記画像データから、前記被写界に含まれる被写体を検出する手段、
該被写体の評価を行い、該評価に従って、前記画像データの補正量を決定する手段、
該補正量に基づいて、前記画像データに対する補正を行う手段として機能させるための画像処理プログラム。
A computer to process the image data obtained by imaging the object scene,
Means for detecting a subject included in the object scene from the image data;
Means for evaluating the subject and determining a correction amount of the image data according to the evaluation;
An image processing program for causing a function to correct the image data based on the correction amount.
JP2005130095A 2005-04-27 2005-04-27 Image processing apparatus, image processing method, image processing program, and camera Expired - Fee Related JP4551270B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005130095A JP4551270B2 (en) 2005-04-27 2005-04-27 Image processing apparatus, image processing method, image processing program, and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005130095A JP4551270B2 (en) 2005-04-27 2005-04-27 Image processing apparatus, image processing method, image processing program, and camera

Publications (2)

Publication Number Publication Date
JP2006311108A true JP2006311108A (en) 2006-11-09
JP4551270B2 JP4551270B2 (en) 2010-09-22

Family

ID=37477492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005130095A Expired - Fee Related JP4551270B2 (en) 2005-04-27 2005-04-27 Image processing apparatus, image processing method, image processing program, and camera

Country Status (1)

Country Link
JP (1) JP4551270B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100793230B1 (en) * 2006-07-24 2008-01-10 엘지전자 주식회사 Apparatus and method for compensating a partial back light in camera
JP2008262305A (en) * 2007-04-10 2008-10-30 Canon Inc Imaging device, control method therefor, program, and storage medium
JP2009071768A (en) * 2007-09-18 2009-04-02 Olympus Corp Image signal processor and imaging apparatus
JP2009217506A (en) * 2008-03-10 2009-09-24 Seiko Epson Corp Image processor and image processing method
JP2010102426A (en) * 2008-10-22 2010-05-06 Mitsubishi Electric Corp Image processing apparatus and image processing method
JP2012160212A (en) * 2012-05-18 2012-08-23 Canon Inc Image data identification method, imaging device, program, and storage medium
JP2013127819A (en) * 2013-03-14 2013-06-27 Canon Inc Image processing apparatus and method thereof
WO2013150734A1 (en) * 2012-04-05 2013-10-10 日本電気株式会社 Analysis system
WO2020241855A1 (en) * 2019-05-31 2020-12-03 富士フイルム株式会社 Image processing device, image processing method, and image processing program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001211382A (en) * 1999-11-16 2001-08-03 Fuji Photo Film Co Ltd Device and method for image processing and recording medium
JP2002051255A (en) * 2000-07-31 2002-02-15 Olympus Optical Co Ltd Main object detectable camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001211382A (en) * 1999-11-16 2001-08-03 Fuji Photo Film Co Ltd Device and method for image processing and recording medium
JP2002051255A (en) * 2000-07-31 2002-02-15 Olympus Optical Co Ltd Main object detectable camera

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100793230B1 (en) * 2006-07-24 2008-01-10 엘지전자 주식회사 Apparatus and method for compensating a partial back light in camera
US7817190B2 (en) 2006-07-24 2010-10-19 Lg Electronics Inc. Method and apparatus for processing an image exposed to backlight
JP2008262305A (en) * 2007-04-10 2008-10-30 Canon Inc Imaging device, control method therefor, program, and storage medium
JP2009071768A (en) * 2007-09-18 2009-04-02 Olympus Corp Image signal processor and imaging apparatus
JP2009217506A (en) * 2008-03-10 2009-09-24 Seiko Epson Corp Image processor and image processing method
JP2010102426A (en) * 2008-10-22 2010-05-06 Mitsubishi Electric Corp Image processing apparatus and image processing method
JPWO2013150734A1 (en) * 2012-04-05 2015-12-17 日本電気株式会社 Analysis system
WO2013150734A1 (en) * 2012-04-05 2013-10-10 日本電気株式会社 Analysis system
JP2012160212A (en) * 2012-05-18 2012-08-23 Canon Inc Image data identification method, imaging device, program, and storage medium
JP2013127819A (en) * 2013-03-14 2013-06-27 Canon Inc Image processing apparatus and method thereof
WO2020241855A1 (en) * 2019-05-31 2020-12-03 富士フイルム株式会社 Image processing device, image processing method, and image processing program
JPWO2020241855A1 (en) * 2019-05-31 2020-12-03
JP7114807B2 (en) 2019-05-31 2022-08-08 富士フイルム株式会社 Image processing device, image processing method, and image processing program
JP7321336B2 (en) 2019-05-31 2023-08-04 富士フイルム株式会社 Image processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP4551270B2 (en) 2010-09-22

Similar Documents

Publication Publication Date Title
JP4551270B2 (en) Image processing apparatus, image processing method, image processing program, and camera
KR101142316B1 (en) Image selection device and method for selecting image
JP4254873B2 (en) Image processing apparatus, image processing method, imaging apparatus, and computer program
JP4537255B2 (en) Imaging apparatus and imaging method
US8194158B2 (en) Image processor, image processing method, digital camera, and imaging apparatus
US8305453B2 (en) Imaging apparatus and HDRI method
TWI411970B (en) Image capturing apparatus, face area detecting method and program recording medium
EP1628465A1 (en) Image capture apparatus and control method therefor
JP5029137B2 (en) Imaging apparatus and program
US7590346B2 (en) Digital camera
US8411159B2 (en) Method of detecting specific object region and digital camera
JP2005006330A (en) System for analyzing digital image
JP2008141740A (en) Apparatus, method and program for photography
CN101931752A (en) Camera head and focusing method
US20120121129A1 (en) Image processing apparatus
CN101848327A (en) Camera head and image processing method
US20090059025A1 (en) Electronic Camera
US20110002678A1 (en) Photographing control device and method, as well as program
JP4948591B2 (en) Image processing apparatus, image processing method, and program
JP2007188126A (en) Image brightness calculation device, method, and program
JP2009123081A (en) Face detection method and photographing apparatus
US8243165B2 (en) Video camera with flicker prevention
JP5407373B2 (en) Imaging apparatus and program
JP2009055125A (en) Imaging apparatus and its control method
JP2007165947A (en) Imaging device, backlight correcting device for object image, target image detecting device, and control method of these

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100615

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100709

R150 Certificate of patent or registration of utility model

Ref document number: 4551270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees