JP2006293898A - Image processing method, image processing apparatus, and image processing program - Google Patents

Image processing method, image processing apparatus, and image processing program Download PDF

Info

Publication number
JP2006293898A
JP2006293898A JP2005116917A JP2005116917A JP2006293898A JP 2006293898 A JP2006293898 A JP 2006293898A JP 2005116917 A JP2005116917 A JP 2005116917A JP 2005116917 A JP2005116917 A JP 2005116917A JP 2006293898 A JP2006293898 A JP 2006293898A
Authority
JP
Japan
Prior art keywords
image data
image processing
image
information
corrected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005116917A
Other languages
Japanese (ja)
Inventor
Chizuko Ikeda
千鶴子 池田
Shoichi Nomura
庄一 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2005116917A priority Critical patent/JP2006293898A/en
Publication of JP2006293898A publication Critical patent/JP2006293898A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To divide photographic image data into groups on the basis of information relevant to a light distribution condition at the time of photographing to stabilize correction processing of the whole of a series of photographic image data in the groups. <P>SOLUTION: Image data of one order is acquired (step S1), and light distribution condition determination processing of each image data is performed (step S2). Then image data is divided into groups on the basis of light distribution conditions and a photographing sequence (step S3). Next, face extraction processing of each image data included in M groups is performed (step S5), and an average density (group average face density) of extracted face areas is calculated (step S6). If an N-th image data in M groups has a face area (step S8; YES), density correction processing of correcting an average density of the face area in the image data to a target density value is performed (step S10). If the N-th image data in M groups does not have a face area (step S8; NO), density correction processing of correcting the group average face density to the target density value is performed (step S12). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像データに対して画像処理を施す画像処理方法、画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing method, an image processing apparatus, and an image processing program for performing image processing on image data.

近年、デジタルスチルカメラ(一般ユーザ用の汎用用途、高機能なプロ用途、玩具用、携帯電話機やラップトップパソコン等の機器に組み込まれたものを含む。以下、DSCと略称する。)が広く普及し、DSCで撮影された画像が、カラー写真フィルムと同様に、ハードコピー画像として出力されたり、CRT(Cathode Ray Tube)等の出力媒体に表示されたりして鑑賞されている。また、カラー写真フィルム上に形成された画像を、CCD(Charge Coupled Device)センサ等で光電的に読みとって画像信号に変換する技術が広く用いられている。   In recent years, digital still cameras (including general-purpose applications for general users, high-performance professional applications, toys, built-in devices such as mobile phones and laptop computers, hereinafter abbreviated as DSC) have become widespread. Images taken by DSC, like color photographic film, are output as hard copy images or displayed on output media such as CRT (Cathode Ray Tube) for viewing. In addition, a technique is widely used in which an image formed on a color photographic film is photoelectrically read by a CCD (Charge Coupled Device) sensor or the like and converted into an image signal.

このような画像信号は、ネガポジ反転、輝度調整、カラーバランス調整、粒状除去、鮮鋭性強調に代表される種々の画像処理が施された後に、CD−R(CD-Recordable)、CD−RW(CD-ReWritable)、フロッピー(登録商標)ディスク、メモリーカード等の記録媒体に記録されたり、インターネット経由で配布されたり、銀塩印画紙、インクジェットプリンタ、サーマルプリンタ等でハードコピーとして出力されたり、CRT、液晶ディスプレイ、プラズマディスプレイ等の出力媒体に表示されたりして鑑賞される。   Such an image signal is subjected to various image processing represented by negative / positive reversal, luminance adjustment, color balance adjustment, grain removal, and sharpness enhancement, and then CD-R (CD-Recordable), CD-RW ( CD-ReWritable), floppy (registered trademark) disk, memory card and other recording media, distributed over the Internet, output as hard copy on silver halide photographic paper, inkjet printer, thermal printer, etc., CRT It can be viewed on an output medium such as a liquid crystal display or a plasma display.

ところで、どのような出力形態であっても、鑑賞者の着目度が高く、その評価基準が厳しいのは、人物が被写体として撮影されたシーンであり、特に顔部が注目される。しかしながら、実際の画像撮影では、人物の顔が適正な色、明るさ、鮮鋭感、ノイズ感、立体感を有する画像として撮影される環境になっていない場合が多い。このような背景を受けて、人物を含むシーンについて高い品質の画像とするために、撮影画像データから顔領域を抽出して補正処理を施す技術が必要とされており、顔領域の抽出・判定技術や、顔判定処理の判定精度を向上させる技術が数多く開示されている。   By the way, in any output form, the viewer's attention is high and the evaluation standard is strict in a scene in which a person is photographed as a subject, and in particular, the face is focused. However, in actual image shooting, it is often the case that the face of a person is not photographed as an image having an appropriate color, brightness, sharpness, noise, and stereoscopic effect. In order to obtain a high-quality image for a scene including a person in response to such a background, a technique for extracting a face area from captured image data and performing a correction process is required. Many techniques and techniques for improving the determination accuracy of face determination processing are disclosed.

また、一般ユーザが撮影画像を自分で、または業者に依頼してプリントする際には、旅行やイベント等で撮影された一連の複数の画像を同時に依頼することがほとんどである。このような場合、上記に述べたような個々の画像における顔領域の画質はもちろんであるが、一連の複数画像を鑑賞する際に、類似した撮影シーンにおいては濃度や色再現等の仕上がりに一貫性があることが求められる。   Further, when a general user prints a photographed image by himself or a contractor, he / she usually requests a series of images photographed at a trip or an event at the same time. In such a case, the image quality of the face area in each image as described above is of course, but when viewing a series of multiple images, the finish such as density and color reproduction is consistent in similar shooting scenes. It is required to have sex.

例えば、関連のある複数コマの画像を処理する際に、第1コマの画像中に特定領域(人物全体、顔、衣服等)を指定し、特定領域の画像を修正するとともに、この特定領域の画像特徴量を記憶しておき、それ以降のコマの画像処理を行う際に、第1コマの特定領域の処理前の画像と画像特徴量が類似する類似領域を抽出し、この類似領域に第1コマの特定領域と同様の画像修正を行うことで、コマ間の処理のばらつきを抑える技術が開示されている(特許文献1参照)。
特開平11−275351号公報
For example, when processing images of a plurality of related frames, a specific area (whole person, face, clothes, etc.) is specified in the first frame image, and the image of the specific area is corrected. When image features are stored and image processing of subsequent frames is performed, a similar region having an image feature amount similar to that of the pre-processed image of the specific region of the first frame is extracted, and There has been disclosed a technique for suppressing variation in processing between frames by performing image correction similar to that for a specific area of one frame (see Patent Document 1).
JP-A-11-275351

しかし、上記従来技術は、主要被写体、特に人物に着目し、人物の仕上がりの安定性を確保するものであるが、主要被写体以外の画像領域に対する考慮がなされていないため、同じ人物が撮影されていても、異なる環境下で撮影されている場合には撮影シーン間の安定性が得られず、ばらつきが生じるという問題があった。また、人物が撮影されていないシーンについては仕上がりの安定性を確保することが困難であった。   However, the above prior art focuses on the main subject, particularly a person, and ensures the stability of the finish of the person. However, since the image area other than the main subject is not considered, the same person is photographed. However, when shooting in different environments, there is a problem in that stability between shooting scenes cannot be obtained and variations occur. In addition, it is difficult to ensure the finish stability for a scene in which a person is not photographed.

また、特に一般ユーザが撮影する画像は、露出条件をはじめとする撮影条件が良好でないシーンも数多く含まれる。このような場合は、所定の抽出アルゴリズムにしたがって行われる人物領域の抽出精度が落ちるおそれがあった。また、類似した撮影画像であっても、人物の抽出が成功した場合と失敗した場合の処理結果に大きく差がでてしまうおそれがあった。   In particular, an image shot by a general user includes many scenes where shooting conditions such as exposure conditions are not good. In such a case, there is a risk that the extraction accuracy of the person region performed according to a predetermined extraction algorithm may be reduced. In addition, even for similar photographed images, there is a possibility that a large difference may occur in the processing results when the person extraction succeeds and when the person extraction fails.

本発明は、上記の従来技術における問題に鑑みてなされたものであって、一連の画像全体の補正処理の安定性を図ることを目的とする。   The present invention has been made in view of the above-described problems in the related art, and an object of the present invention is to achieve stability of correction processing for a whole series of images.

上記課題を解決するために、請求項1に記載の発明は、複数の撮影画像データに補正処理を施し、補正画像を生成する画像処理方法において、撮影時の配光条件に関する情報に基づいて、前記複数の撮影画像データをグループ化し、2以上の撮影画像データが含まれるグループについては、当該グループにおける基準補正処理条件及び/又は補正対象となる撮影画像データの主要被写体領域に関する情報に基づいて、前記補正対象となる撮影画像データの補正処理条件を決定することを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 1 is an image processing method for generating a corrected image by performing correction processing on a plurality of captured image data, and based on information on light distribution conditions at the time of shooting. Grouping the plurality of photographed image data, and for a group including two or more photographed image data, based on the reference correction processing condition in the group and / or information on the main subject region of the photographed image data to be corrected, A correction processing condition for the photographic image data to be corrected is determined.

請求項2に記載の発明は、複数の撮影画像データに補正処理を施し、補正画像を生成する画像処理方法において、撮影時の配光条件に関する情報及び主要被写体領域に関する情報に基づいて、前記複数の撮影画像データをグループ化し、2以上の撮影画像データが含まれるグループについては、当該グループにおける基準補正処理条件及び/又は補正対象となる撮影画像データの主要被写体領域に関する情報に基づいて、前記補正対象となる撮影画像データの補正処理条件を決定することを特徴とする。   The invention according to claim 2 is an image processing method for performing correction processing on a plurality of photographed image data and generating a corrected image, based on the information on the light distribution condition at the time of photographing and the information on the main subject region. For the group including two or more pieces of photographed image data, the correction is performed based on the reference correction processing condition in the group and / or information on the main subject region of the photographed image data to be corrected. It is characterized in that a correction processing condition for the target captured image data is determined.

請求項3に記載の発明は、請求項1又は2に記載の画像処理方法において、前記複数の撮影画像データをグループ化する際に、さらに、撮影順序が連続している撮影画像データを同一グループとすることを特徴とする。   According to a third aspect of the present invention, in the image processing method according to the first or second aspect, when the plurality of photographed image data are grouped, the photographed image data in which the photographing order is continued is further grouped. It is characterized by.

請求項4に記載の発明は、請求項1〜3のいずれか一項に記載の画像処理方法において、前記主要被写体領域は、人物の顔領域であることを特徴とする。   According to a fourth aspect of the present invention, in the image processing method according to any one of the first to third aspects, the main subject area is a human face area.

請求項5に記載の発明は、請求項1〜4のいずれか一項に記載の画像処理方法において、前記補正処理条件を決定する際に参照する主要被写体領域に関する情報は、前記主要被写体領域の有無であることを特徴とする。   According to a fifth aspect of the present invention, in the image processing method according to any one of the first to fourth aspects, information relating to a main subject area referred to when determining the correction processing condition is information on the main subject area. It is characterized by the presence or absence.

請求項6に記載の発明は、請求項1〜5のいずれか一項に記載の画像処理方法において、前記撮影時の配光条件には、逆光状態、フラッシュ光利用状態、アンダー状態のうち少なくとも1以上が含まれることを特徴とする。   According to a sixth aspect of the present invention, in the image processing method according to any one of the first to fifth aspects, the light distribution condition at the time of photographing includes at least one of a backlight state, a flash light utilization state, and an under state. One or more are included.

請求項7に記載の発明は、複数の撮影画像データに補正処理を施し、補正画像を生成する画像処理装置において、撮影時の配光条件に関する情報に基づいて、前記複数の撮影画像データをグループ化するグループ化手段と、2以上の撮影画像データが含まれるグループについては、当該グループにおける基準補正処理条件及び/又は補正対象となる撮影画像データの主要被写体領域に関する情報に基づいて、前記補正対象となる撮影画像データの補正処理条件を決定する補正処理条件決定手段と、を備えたことを特徴とする。   According to a seventh aspect of the present invention, in the image processing apparatus that performs correction processing on a plurality of photographed image data and generates a corrected image, the plurality of photographed image data are grouped based on information on light distribution conditions at the time of photographing. Grouping means to be grouped and a group including two or more photographed image data, the correction target based on the reference correction processing condition in the group and / or information on the main subject region of the photographed image data to be corrected Correction processing condition determining means for determining the correction processing condition of the captured image data.

請求項8に記載の発明は、複数の撮影画像データに補正処理を施し、補正画像を生成する画像処理装置において、撮影時の配光条件に関する情報及び主要被写体領域に関する情報に基づいて、前記複数の撮影画像データをグループ化するグループ化手段と、2以上の撮影画像データが含まれるグループについては、当該グループにおける基準補正処理条件及び/又は補正対象となる撮影画像データの主要被写体領域に関する情報に基づいて、前記補正対象となる撮影画像データの補正処理条件を決定する補正処理条件決定手段と、を備えたことを特徴とする。   According to an eighth aspect of the present invention, in the image processing apparatus that performs correction processing on a plurality of captured image data and generates a corrected image, the plurality of the plurality of captured image data is based on information on a light distribution condition at the time of shooting and information on a main subject region. Grouping means for grouping the photographic image data and a group including two or more photographic image data, the reference correction processing condition in the group and / or information on the main subject area of the photographic image data to be corrected. And correction processing condition determining means for determining a correction processing condition for the photographic image data to be corrected.

請求項9に記載の発明は、請求項7又は8に記載の画像処理装置において、前記グループ化手段は、さらに、撮影順序が連続している撮影画像データを同一グループとすることを特徴とする。   According to a ninth aspect of the present invention, in the image processing device according to the seventh or eighth aspect, the grouping unit further groups the captured image data in which the capturing order is continuous into the same group. .

請求項10に記載の発明は、請求項7〜9のいずれか一項に記載の画像処理装置において、前記主要被写体領域は、人物の顔領域であることを特徴とする。   According to a tenth aspect of the present invention, in the image processing device according to any one of the seventh to ninth aspects, the main subject area is a human face area.

請求項11に記載の発明は、請求項7〜10のいずれか一項に記載の画像処理装置において、前記補正処理条件を決定する際に参照する主要被写体領域に関する情報は、前記主要被写体領域の有無であることを特徴とする。   According to an eleventh aspect of the present invention, in the image processing apparatus according to any one of the seventh to tenth aspects, information on the main subject area referred to when the correction processing condition is determined includes the main subject area. It is characterized by the presence or absence.

請求項12に記載の発明は、請求項7〜11のいずれか一項に記載の画像処理装置において、前記撮影時の配光条件には、逆光状態、フラッシュ光利用状態、アンダー状態のうち少なくとも1以上が含まれることを特徴とする。   According to a twelfth aspect of the present invention, in the image processing apparatus according to any one of the seventh to eleventh aspects, the light distribution condition at the time of photographing includes at least one of a backlight state, a flash light utilization state, and an under state. One or more are included.

請求項13に記載の発明は、コンピュータに、複数の撮影画像データに補正処理を施し、補正画像を生成する機能を実現させるための画像処理プログラムにおいて、前記コンピュータに、撮影時の配光条件に関する情報に基づいて、前記複数の撮影画像データをグループ化するグループ化機能と、2以上の撮影画像データが含まれるグループについては、当該グループにおける基準補正処理条件及び/又は補正対象となる撮影画像データの主要被写体領域に関する情報に基づいて、前記補正対象となる撮影画像データの補正処理条件を決定する補正処理条件決定機能と、を実現させることを特徴とする。   According to a thirteenth aspect of the present invention, in an image processing program for causing a computer to perform a correction process on a plurality of photographed image data and to generate a corrected image, the computer relates to a light distribution condition at the time of photographing. The grouping function for grouping the plurality of photographed image data based on the information, and the group including two or more photographed image data, the reference correction processing condition in the group and / or the photographed image data to be corrected And a correction processing condition determination function for determining a correction processing condition of the photographic image data to be corrected based on information on the main subject area.

請求項14に記載の発明は、コンピュータに、複数の撮影画像データに補正処理を施し、補正画像を生成する機能を実現させるための画像処理プログラムにおいて、前記コンピュータに、撮影時の配光条件に関する情報及び主要被写体領域に関する情報に基づいて、前記複数の撮影画像データをグループ化するグループ化機能と、2以上の撮影画像データが含まれるグループについては、当該グループにおける基準補正処理条件及び/又は補正対象となる撮影画像データの主要被写体領域に関する情報に基づいて、前記補正対象となる撮影画像データの補正処理条件を決定する補正処理条件決定機能と、を実現させることを特徴とする。   According to a fourteenth aspect of the present invention, in an image processing program for causing a computer to perform a correction process on a plurality of captured image data and to generate a corrected image, the computer relates to a light distribution condition at the time of shooting. A grouping function for grouping the plurality of captured image data and a group including two or more captured image data based on the information and information on the main subject area, and a reference correction processing condition and / or correction in the group And a correction processing condition determination function for determining a correction processing condition of the photographic image data to be corrected based on information on a main subject area of the photographic image data to be corrected.

請求項15に記載の発明は、請求項13又は14に記載の画像処理プログラムにおいて、前記グループ化機能を実現させる際に、さらに、撮影順序が連続している撮影画像データを同一グループとすることを特徴とする。   According to a fifteenth aspect of the present invention, in the image processing program according to the thirteenth or fourteenth aspect, when the grouping function is realized, the photographic image data in which the photographing order is continuous is further made the same group. It is characterized by.

請求項16に記載の発明は、請求項13〜15のいずれか一項に記載の画像処理プログラムにおいて、前記主要被写体領域は、人物の顔領域であることを特徴とする。   According to a sixteenth aspect of the present invention, in the image processing program according to any one of the thirteenth to fifteenth aspects, the main subject area is a human face area.

請求項17に記載の発明は、請求項13〜16のいずれか一項に記載の画像処理プログラムにおいて、前記補正処理条件を決定する際に参照する主要被写体領域に関する情報は、前記主要被写体領域の有無であることを特徴とする。   According to a seventeenth aspect of the present invention, in the image processing program according to any one of the thirteenth to sixteenth aspects, the information on the main subject region referred to when determining the correction processing condition is the main subject region information. It is characterized by the presence or absence.

請求項18に記載の発明は、請求項13〜17のいずれか一項に記載の画像処理プログラムにおいて、前記撮影時の配光条件には、逆光状態、フラッシュ光利用状態、アンダー状態のうち少なくとも1以上が含まれることを特徴とする。   According to an eighteenth aspect of the present invention, in the image processing program according to any one of the thirteenth to seventeenth aspects, the light distribution condition at the time of photographing includes at least one of a backlight state, a flash light utilization state, and an under state. One or more are included.

請求項1、7、13に記載の発明によれば、撮影時の配光条件に関する情報に基づいて撮影画像データをグループ化し、グループ内の一連の撮影画像データ全体の補正処理の安定性を図ることができる。   According to the first, seventh, and thirteenth aspects of the present invention, the photographic image data is grouped based on the information regarding the light distribution condition at the time of photographing, and the stability of the correction process for the entire series of photographic image data in the group is improved. be able to.

請求項2、8、14に記載の発明によれば、撮影時の配光条件に関する情報及び主要被写体領域に関する情報に基づいて撮影画像データをグループ化し、グループ内の一連の撮影画像データ全体の補正処理の安定性を図ることができる。   According to the invention described in claims 2, 8, and 14, the photographed image data is grouped based on the information on the light distribution condition at the time of photographing and the information on the main subject region, and correction of the entire series of photographed image data in the group is performed. Processing stability can be achieved.

請求項3、9、15に記載の発明によれば、撮影順序が連続している撮影画像データを同一グループとするので、類似した画像を選出する効果が高められる。   According to the third, ninth, and fifteenth aspects of the present invention, the captured image data in which the imaging order is continuous are grouped, so that the effect of selecting similar images is enhanced.

請求項4、10、16に記載の発明によれば、鑑賞者の着目度が高い人物の顔領域に関する情報に基づいて、補正対象となる撮影画像データの補正処理条件を決定することができる。   According to the fourth, tenth, and sixteenth aspects of the present invention, it is possible to determine the correction processing condition of the photographic image data to be corrected based on the information related to the face area of the person whose viewer's attention is high.

請求項5、11、17に記載の発明によれば、主要被写体領域の有無に基づいて、補正対象となる撮影画像データの補正処理条件を決定することができる。   According to the fifth, eleventh and seventeenth aspects of the present invention, it is possible to determine the correction processing conditions for the photographic image data to be corrected based on the presence or absence of the main subject region.

請求項6、12、18に記載の発明によれば、逆光状態、フラッシュ光利用状態、アンダー状態等の配光条件に関する情報に基づいて、複数の撮影画像データをグループ化することができる。   According to the sixth, twelfth, and eighteenth aspects, a plurality of captured image data can be grouped based on information relating to light distribution conditions such as a backlight state, a flash light utilization state, an under state, and the like.

[第1の実施の形態]
以下、図を参照して本発明の第1の実施の形態を詳細に説明する。ただし、発明の範囲は、図示例に限定されない。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

<画像処理装置1の外観構成>
まず、本発明の実施の形態の画像処理装置1について説明する。
図1は、画像処理装置1の概観構成を示す斜視図である。
<Appearance Configuration of Image Processing Apparatus 1>
First, the image processing apparatus 1 according to the embodiment of the present invention will be described.
FIG. 1 is a perspective view showing a general configuration of the image processing apparatus 1.

図1に示すように、画像処理装置1には、本体2の一側面に感光材料を装填するためのマガジン装填部3が設けられている。本体2の内側には、感光材料に露光する露光処理部4と、露光された感光材料を現像処理して乾燥し、プリントを作成するプリント作成部5が設けられている。作成されたプリントは、本体2の他側面に設けられたトレー6に排出される。   As shown in FIG. 1, the image processing apparatus 1 is provided with a magazine loading unit 3 for loading a photosensitive material on one side of a main body 2. Inside the main body 2, there are provided an exposure processing unit 4 for exposing the photosensitive material and a print creating unit 5 for developing and drying the exposed photosensitive material to create a print. The created print is discharged to a tray 6 provided on the other side of the main body 2.

また、本体2の上部には、表示装置としてのCRT(Cathode Ray Tube)8、透過原稿を読み込む装置であるフィルムスキャナ部9、反射原稿入力装置10、操作部11が備えられている。さらに、本体2には、各種デジタル記録媒体に記録された画像情報を読み取り可能な画像読込部14、各種デジタル記録媒体に画像信号を書き込み(出力)可能な画像書込部15が備えられている。また、本体2の内部には、これらの各部を集中制御する制御部7が備えられている。   In addition, a CRT (Cathode Ray Tube) 8 serving as a display device, a film scanner unit 9 serving as a device for reading a transparent original, a reflective original input device 10, and an operation unit 11 are provided on the upper portion of the main body 2. Furthermore, the main body 2 includes an image reading unit 14 that can read image information recorded on various digital recording media, and an image writing unit 15 that can write (output) image signals to various digital recording media. . In addition, a control unit 7 that centrally controls these units is provided inside the main body 2.

画像読込部14には、PCカード用アダプタ14a、フロッピー(登録商標)ディスク用アダプタ14bが備えられ、PCカード13aやフロッピー(登録商標)ディスク13bが差し込み可能になっている。PCカード13aは、デジタルカメラで撮像された複数の画像データが記録されたメモリを有する。フロッピーディスク13bには、例えば、デジタルカメラで撮像された複数の画像データが記録されている。その他、画像データを有する記録媒体としては、マルチメディアカード、メモリースティック、CD−ROM(Compact Disc Read Only Memory)等が挙げられる。   The image reading unit 14 includes a PC card adapter 14a and a floppy (registered trademark) disk adapter 14b, and a PC card 13a and a floppy (registered trademark) disk 13b can be inserted therein. The PC card 13a has a memory in which a plurality of image data captured by a digital camera is recorded. For example, a plurality of image data captured by a digital camera is recorded on the floppy disk 13b. In addition, examples of the recording medium having image data include a multimedia card, a memory stick, and a CD-ROM (Compact Disc Read Only Memory).

画像書込部15には、フロッピーディスク用アダプタ15a、MO用アダプタ15b、光ディスク用アダプタ15cが備えられ、各々、FD16a、MO16b、光ディスク16cが差し込み可能になっており、画像情報を画像記録メディアに書き込むことができるようになっている。光ディスク16cとしては、CD−R(Compact Disc-Recordable)、DVD−R(Digital Versatile Disk-Recordable)等がある。   The image writing unit 15 includes a floppy disk adapter 15a, an MO adapter 15b, and an optical disk adapter 15c. The FD 16a, the MO 16b, and the optical disk 16c can be inserted into the image writing unit 15, respectively. You can write. Examples of the optical disk 16c include a CD-R (Compact Disc-Recordable), a DVD-R (Digital Versatile Disk-Recordable), and the like.

なお、図1では、操作部11、CRT8、フィルムスキャナ部9、反射原稿入力装置10、画像読込部14が、本体2に一体的に備えられた構造となっているが、これらのいずれか1つ以上を別体として設けるようにしてもよい。   In FIG. 1, the operation unit 11, the CRT 8, the film scanner unit 9, the reflection original input device 10, and the image reading unit 14 are integrally provided in the main body 2, but any one of these is provided. Two or more may be provided separately.

なお、図1に示した画像処理装置1では、感光材料に露光して現像してプリントを作成するものが例示されているが、プリント作成方式はこれに限定されず、例えば、インクジェット方式、電子写真方式、感熱方式、昇華方式等の方式を用いてもよい。   In the image processing apparatus 1 shown in FIG. 1, an example is illustrated in which a photosensitive material is exposed and developed to create a print, but the print creation method is not limited to this, and for example, an inkjet method, an electronic A method such as a photographic method, a thermal method, or a sublimation method may be used.

<画像処理装置1の内部構成>
図2は、画像処理装置1の内部構成を示すブロック図である。画像処理装置1は、図2に示すように、制御部7、露光処理部4、プリント作成部5、CRT8、フィルムスキャナ部9、反射原稿入力装置10、操作部11、画像読込部14、画像書込部15、通信手段(入力)32、通信手段(出力)33、データ蓄積手段71から構成される。
<Internal Configuration of Image Processing Apparatus 1>
FIG. 2 is a block diagram showing the internal configuration of the image processing apparatus 1. As shown in FIG. 2, the image processing apparatus 1 includes a control unit 7, an exposure processing unit 4, a print creation unit 5, a CRT 8, a film scanner unit 9, a reflective original input device 10, an operation unit 11, an image reading unit 14, and an image. The writing unit 15 includes a communication unit (input) 32, a communication unit (output) 33, and a data storage unit 71.

制御部7は、マイクロコンピュータにより構成され、ROM(Read Only Memory)等の記憶部(図示略)に記憶されている画像処理プログラム等の各種制御プログラムと、CPU(Central Processing Unit)(図示略)との協働により、画像処理装置1を構成する各部の動作を統括的に制御する。   The control unit 7 includes a microcomputer, and various control programs such as an image processing program stored in a storage unit (not shown) such as a ROM (Read Only Memory), and a CPU (Central Processing Unit) (not shown). The operation of each part constituting the image processing apparatus 1 is comprehensively controlled in cooperation with the above.

制御部7は、画像処理部70を有し、操作部11からの入力信号(指令情報)に基づいて、フィルムスキャナ部9や反射原稿入力装置10により取得した画像データ、画像読込部14から読み込まれた画像データ、外部機器から通信手段(入力)32を介して入力された画像データに対して、画像処理を施して出力用画像データを生成し、露光処理部4に出力する。また、画像処理部70は、画像処理された画像データに対して出力形態に応じた変換処理を施して出力する。画像処理部70の出力先としては、CRT8、画像書込部15、通信手段(出力)33等がある。   The control unit 7 includes an image processing unit 70, and reads image data acquired by the film scanner unit 9 or the reflection original input device 10 from the image reading unit 14 based on an input signal (command information) from the operation unit 11. The processed image data and image data input from an external device via the communication means (input) 32 are subjected to image processing to generate output image data, which are output to the exposure processing unit 4. Further, the image processing unit 70 performs a conversion process corresponding to the output form on the image processed image data, and outputs the converted image data. Output destinations of the image processing unit 70 include the CRT 8, the image writing unit 15, the communication means (output) 33, and the like.

露光処理部4は、感光材料に画像の露光を行い、この感光材料をプリント作成部5に出力する。プリント作成部5は、露光された感光材料を現像処理して乾燥し、プリントP1、P2、P3を作成する。プリントP1は、サービスサイズ、ハイビジョンサイズ、パノラマサイズ等のプリントであり、プリントP2は、A4サイズのプリントであり、プリントP3は、名刺サイズのプリントである。   The exposure processing unit 4 exposes an image to the photosensitive material and outputs the photosensitive material to the print creating unit 5. The print creating unit 5 develops and exposes the exposed photosensitive material to create prints P1, P2, and P3. The print P1 is a service size, high-definition size, panoramic size print, the print P2 is an A4 size print, and the print P3 is a business card size print.

フィルムスキャナ部9は、アナログカメラにより撮像された現像済みのネガフィルムNやリバーサルフィルム等の透過原稿に記録された画像を読み取る。   The film scanner unit 9 reads an image recorded on a transparent original such as a developed negative film N or a reversal film taken by an analog camera.

反射原稿入力装置10は、図示しないフラットベッドスキャナにより、プリントP(写真プリント、書画、各種の印刷物)に形成された画像を読み取る。   The reflection original input device 10 reads an image formed on a print P (photo print, document, various printed materials) by a flat bed scanner (not shown).

操作部11は、情報入力手段12を有する。情報入力手段12は、例えば、タッチパネル等により構成されており、情報入力手段12の押下信号を入力信号として制御部7に出力する。なお、操作部11は、キーボードやマウス等を備えて構成するようにしてもよい。CRT8は、制御部7から入力された表示制御信号に従って、画像データ等を表示する。   The operation unit 11 includes information input means 12. The information input unit 12 is configured by a touch panel, for example, and outputs a pressing signal of the information input unit 12 to the control unit 7 as an input signal. Note that the operation unit 11 may be configured to include a keyboard, a mouse, and the like. The CRT 8 displays image data and the like according to the display control signal input from the control unit 7.

画像読込部14は、画像転送手段30として、PCカード用アダプタ14a、フロッピーディスク用アダプタ14b等を有し、PCカード用アダプタ14aに差し込まれたPCカード13aや、フロッピーディスク用アダプタ14bに差し込まれたフロッピーディスク13bに記録された画像データを読み出して制御部7に転送する。PCカード用アダプタ14aとしては、例えばPCカードリーダやPCカードスロット等が用いられる。   The image reading unit 14 includes, as the image transfer means 30, a PC card adapter 14a, a floppy disk adapter 14b, and the like, and is inserted into the PC card 13a inserted into the PC card adapter 14a or the floppy disk adapter 14b. The image data recorded on the floppy disk 13b is read out and transferred to the control unit 7. For example, a PC card reader or a PC card slot is used as the PC card adapter 14a.

画像書込部15は、画像搬送部31として、フロッピーディスク用アダプタ15a、MO用アダプタ15b、光ディスク用アダプタ15cを備えている。画像書込部15は、制御部7から入力される書込信号に従って、フロッピーディスク用アダプタ15aに差し込まれたフロッピーディスク16a、MO用アダプタ15bに差し込まれたMO16b、光ディスク用アダプタ15cに差し込まれた光ディスク16cに、生成された画像データを書き込む。   The image writing unit 15 includes a floppy disk adapter 15a, an MO adapter 15b, and an optical disk adapter 15c as the image transport unit 31. The image writing unit 15 is inserted into the floppy disk 16a inserted into the floppy disk adapter 15a, the MO 16b inserted into the MO adapter 15b, and the optical disk adapter 15c in accordance with the write signal input from the control unit 7. The generated image data is written on the optical disc 16c.

通信手段(入力)32は、画像処理装置1が設置された施設内の別のコンピュータや、インターネット等を介した遠方のコンピュータから、撮像画像を表す画像データやプリント命令信号を受信する。   The communication means (input) 32 receives image data representing a captured image and a print command signal from another computer in the facility where the image processing apparatus 1 is installed, or a remote computer via the Internet or the like.

通信手段(出力)33は、画像処理を施した後の撮影画像を表す画像データと注文情報(どの駒の画像から何枚プリントを作成するかの情報、プリントサイズの情報等)を、画像処理装置1が設置された施設内の他のコンピュータや、インターネット等を介した遠方のコンピュータに対して送信する。   The communication means (output) 33 includes image data representing a photographed image after image processing and order information (information on how many prints are to be created from images of which frames, print size information, etc.) 1 is transmitted to other computers in the facility where 1 is installed or to a distant computer via the Internet or the like.

データ蓄積手段71は、画像データとそれに対応する注文情報とを記憶し、順次蓄積する。   The data storage unit 71 stores the image data and order information corresponding to the image data, and sequentially stores them.

<画像処理部70の構成>
図3は、画像処理装置1の画像処理部70の機能的構成を示すブロック図である。画像処理部70は、図3に示すように、フィルムスキャンデータ処理部701、反射原稿スキャンデータ処理部702、画像データ書式解読処理部703、画像調整処理部704、CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708から構成される。
<Configuration of Image Processing Unit 70>
FIG. 3 is a block diagram illustrating a functional configuration of the image processing unit 70 of the image processing apparatus 1. As shown in FIG. 3, the image processing unit 70 includes a film scan data processing unit 701, a reflection original scan data processing unit 702, an image data format decoding processing unit 703, an image adjustment processing unit 704, a CRT specific processing unit 705, a printer specific A processing unit (1) 706, a printer specific processing unit (2) 707, and an image data format creation processing unit 708 are configured.

フィルムスキャンデータ処理部701は、フィルムスキャナ部9から入力された画像データに対し、フィルムスキャナ部9固有の校正操作・ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、粒状ノイズ除去、鮮鋭化強調等を施し、画像調整処理部704に出力する。また、フィルムスキャンデータ処理部701は、フィルムサイズ、ネガポジ種別、フィルムに光学的あるいは磁気的に記録されたISO(International Organization for Standardization)感度、メーカー名、主要被写体に関わる情報・撮影条件に関する情報(例えばAPS(Advanced Photo System)の記載情報内容)等も併せて画像調整処理部704に出力する。   A film scan data processing unit 701 performs proofing operations specific to the film scanner unit 9 on the image data input from the film scanner unit 9, negative reversal in the case of a negative document, dust flaw removal, gray balance adjustment, contrast adjustment, granular noise Removal, sharpening, and the like are performed, and the result is output to the image adjustment processing unit 704. The film scan data processing unit 701 also includes information on film size, negative / positive type, ISO (International Organization for Standardization) sensitivity recorded on the film optically or magnetically, manufacturer name, information on main subject, and shooting conditions ( For example, the description information content of APS (Advanced Photo System) is also output to the image adjustment processing unit 704.

反射原稿スキャンデータ処理部702は、反射原稿入力装置10から入力された画像データに対し、反射原稿入力装置10固有の校正操作、ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、ノイズ除去、鮮鋭化強調等を施し、画像調整処理部704に出力する。   The reflection document scan data processing unit 702 performs a calibration operation unique to the reflection document input device 10, negative / positive reversal in the case of a negative document, dust flaw removal, gray balance adjustment, and contrast adjustment for the image data input from the reflection document input device 10. , Noise removal, sharpening enhancement, and the like, and output to the image adjustment processing unit 704.

画像データ書式解読処理部703は、画像転送手段30や通信手段(入力)32から入力された画像データのデータ書式に従って、必要に応じて圧縮符号の復元、色データの表現方法の変換等を行い、画像処理部70内の演算に適したデータ形式に変換し、画像調整処理部704に出力する。   The image data format decoding processing unit 703 performs compression code restoration, color data expression method conversion, and the like as necessary according to the data format of the image data input from the image transfer means 30 or the communication means (input) 32. Then, the data is converted into a data format suitable for calculation in the image processing unit 70 and output to the image adjustment processing unit 704.

画像調整処理部704は、操作部11又は制御部7の指令に基づいて、フィルムスキャナ部9、反射原稿入力装置10、画像転送手段30、通信手段(入力)32から受け取った画像に対して各種画像処理を行い、CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708、データ蓄積手段71へ処理済みの画像信号を出力する。   The image adjustment processing unit 704 performs various processes on the images received from the film scanner unit 9, the reflective original input device 10, the image transfer unit 30, and the communication unit (input) 32 based on the command from the operation unit 11 or the control unit 7. Performs image processing, and outputs processed image signals to the CRT specific processing unit 705, printer specific processing unit (1) 706, printer specific processing unit (2) 707, image data format creation processing unit 708, and data storage means 71. .

CRT固有処理部705は、画像調整処理部704から入力された画像データに対して、必要に応じて画素数変更やカラーマッチング等の処理を施し、制御情報等表示が必要な情報と合成した表示用の画像データをCRT8に出力する。   The CRT specific processing unit 705 performs processing such as changing the number of pixels and color matching on the image data input from the image adjustment processing unit 704 as necessary, and combines the information with information that needs to be displayed, such as control information. Image data is output to the CRT 8.

プリンタ固有処理部(1)706は、画像調整処理部704から入力された画像データに対して、必要に応じてプリンタ固有の校正処理、カラーマッチング、画素数変更等を行い、露光処理部4に出力する。   A printer-specific processing unit (1) 706 performs printer-specific calibration processing, color matching, pixel number change, and the like on the image data input from the image adjustment processing unit 704 as necessary. Output.

画像処理装置1に、大判インクジェットプリンタ等の外部プリンタ34が接続されている場合には、接続されたプリンタ毎にプリンタ固有処理部(2)707が設けられている。このプリンタ固有処理部(2)707は、画像調整処理部704から入力された画像データに対して、適正なプリンタ固有の校正処理、カラーマッチング、画素数変更等を行う。   When an external printer 34 such as a large-format ink jet printer is connected to the image processing apparatus 1, a printer specific processing unit (2) 707 is provided for each connected printer. The printer-specific processing unit (2) 707 performs appropriate printer-specific calibration processing, color matching, pixel number change, and the like on the image data input from the image adjustment processing unit 704.

画像データ書式作成処理部708は、画像調整処理部704から入力された画像データに対して、必要に応じてJPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、Exif(Exchangeable Image File Format)等に代表される各種の汎用画像フォーマットへの変換を行い、画像搬送部31や通信手段(出力)33に出力する。   The image data format creation processing unit 708 applies JPEG (Joint Photographic Experts Group), TIFF (Tagged Image File Format), and Exif (Exchangeable Image File Format) to the image data input from the image adjustment processing unit 704 as necessary. ) And the like, and the image is converted to various general-purpose image formats and output to the image transport unit 31 and the communication means (output) 33.

なお、フィルムスキャンデータ処理部701、反射原稿スキャンデータ処理部702、画像データ書式解読処理部703、画像調整処理部704、CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708という区分は、画像処理部70の機能の理解を助けるために設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば、単一のCPUにおけるソフトウェア処理の種類の区分として実現されてもよい。また、本実施の形態における画像処理装置1は、上述の内容に限定されるものではなく、デジタルフォトプリンタ、プリンタドライバ、各種の画像処理ソフトのプラグイン等、種々の形態に適用することができる。   A film scan data processing unit 701, a reflection original scan data processing unit 702, an image data format decoding processing unit 703, an image adjustment processing unit 704, a CRT specific processing unit 705, a printer specific processing unit (1) 706, a printer specific processing unit. (2) The category 707 and the image data format creation processing unit 708 are provided to help understanding of the function of the image processing unit 70, and need not be realized as a physically independent device. Alternatively, it may be realized as a type of software processing in a single CPU. The image processing apparatus 1 according to the present embodiment is not limited to the above-described contents, and can be applied to various forms such as a digital photo printer, a printer driver, and various image processing software plug-ins. .

次に、画像処理装置1の動作について説明する。
まず、図4を参照して、画像調整処理部704において実行される補正処理について説明する。
Next, the operation of the image processing apparatus 1 will be described.
First, with reference to FIG. 4, the correction process performed in the image adjustment process part 704 is demonstrated.

まず、画像転送手段30又は通信手段(入力)32から入力された1オーダーの撮影画像データ(以下、単に画像データという。)が取得される(ステップS1)。1オーダーの画像データには、1回に注文される複数の画像データが含まれる。   First, one-order captured image data (hereinafter simply referred to as image data) input from the image transfer means 30 or the communication means (input) 32 is acquired (step S1). One order of image data includes a plurality of pieces of image data ordered at one time.

ここで、画像データとともに、画像データに付加された付加情報(タグ情報等)が取得される。このような付加情報は、独自の情報フォーマットや独立した情報ファイル、データとして付加されることとしてもよいが、JPEG、TIFF、Exif等に代表される汎用画像フォーマットに規定されている既存のタグ情報を利用したり、メーカーノートやユーザノートといった自由に使用することができる領域を利用したりすることが好ましい。   Here, additional information (tag information or the like) added to the image data is acquired together with the image data. Such additional information may be added as a unique information format or an independent information file or data, but existing tag information defined in general-purpose image formats represented by JPEG, TIFF, Exif, etc. It is preferable to use an area that can be freely used, such as a maker note or a user note.

タグ情報には、例えば、露出時間、F値、シャッタースピード、ズーム比率、撮影光源、ストロボ利用(有無、強制発光、強制無発光等)、ホワイトバランス、撮影日時、撮影場所、解像度、被写体位置・サイズ、被写体距離範囲(遠景、近景等)、撮影モード(ポートレート、夜景、風景等)、画像入力機器のメーカー名・モデル名等が記載されている。   Tag information includes, for example, exposure time, F value, shutter speed, zoom ratio, shooting light source, strobe usage (presence / absence, forced flash, forced non-flash, etc.), white balance, shooting date / time, shooting location, resolution, subject position / The size, subject distance range (distant view, near view, etc.), shooting mode (portrait, night view, landscape, etc.), manufacturer name / model name, etc. of the image input device are described.

次に、各画像データの配光条件判別処理が行われる(ステップS2)。配光条件として、順光、逆光、ストロボ(フラッシュ光利用状態)、アンダー等の撮影シーンが判別される。また、判別される配光条件として、オーバー状態を含むこととしてもよい。   Next, a light distribution condition determination process for each image data is performed (step S2). Shooting scenes such as forward light, backlight, strobe (flash light use state), under, etc. are determined as light distribution conditions. Moreover, it is good also as including the over state as a light distribution condition discriminated.

ここで、図5を参照して、配光条件判別処理について説明する。
まず、画像データが所定の画像領域に分割され、各分割領域が画像データ全体に占める割合を示す占有率(第1の占有率、第2の占有率)を算出する占有率算出処理が行われる(ステップS21)。占有率算出処理の詳細は、後に図6、図7を参照して説明する。
Here, the light distribution condition determination processing will be described with reference to FIG.
First, image data is divided into predetermined image areas, and an occupancy ratio calculation process is performed to calculate an occupancy ratio (first occupancy ratio, second occupancy ratio) indicating the ratio of each divided area to the entire image data. (Step S21). Details of the occupation rate calculation process will be described later with reference to FIGS.

次いで、ステップS21において算出された占有率(第1の占有率、第2の占有率)と、少なくとも、画像データの画面中央部における肌色の平均輝度値と、撮影条件に応じて予め設定された係数に基づいて、配光条件を特定する(光源条件及び露出条件を定量的に表す)指標(指標1〜6)が算出される(ステップS22)。ステップS22における各指標の算出方法については、後に詳細に説明する。   Next, the occupancy ratio (first occupancy ratio, second occupancy ratio) calculated in step S21, at least the average luminance value of the skin color in the center of the screen of the image data, and the shooting conditions are set in advance. Based on the coefficients, indexes (indexes 1 to 6) for specifying light distribution conditions (quantitatively representing light source conditions and exposure conditions) are calculated (step S22). The calculation method of each index in step S22 will be described in detail later.

次いで、ステップS22において算出された指標に基づいて画像データの配光条件が判別され(ステップS23)、本配光条件判別処理が終了する。配光条件の判別方法は、後に詳細に説明する。   Next, the light distribution condition of the image data is determined based on the index calculated in step S22 (step S23), and the main light distribution condition determination process ends. A method for determining the light distribution condition will be described in detail later.

次に、図6を参照して、図5のステップS21において実行される第1の占有率算出処理について詳細に説明する。   Next, the first occupancy rate calculation process executed in step S21 of FIG. 5 will be described in detail with reference to FIG.

まず、画像データのRGB(Red,Green,Blue)値がHSV表色系に変換される(ステップS31)。次いで、画像データが、所定の明度と色相の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS32)。   First, RGB (Red, Green, Blue) values of image data are converted into the HSV color system (step S31). Next, the image data is divided into regions composed of combinations of predetermined brightness and hue, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S32).

明度(V)は、明度値が0〜25(v1)、26〜50(v2)、51〜84(v3)、85〜169(v4)、170〜199(v5)、200〜224(v6)、225〜255(v7)の7つの領域に分割される。色相(H)は、色相値が0〜39、330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。なお、赤色色相領域(H5)は、撮影シーンの判別への寄与が少ないとの知見から、以下の計算では用いていない。肌色色相領域は、さらに、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39、330〜359)のうち、下記の式(2)を満たす色相’(H)を肌色領域(H1)とし、式(2)を満たさない領域を(H2)とする。ただし、入力画像データの値をInR、InG、InBとする。   Lightness (V) is 0-25 (v1), 26-50 (v2), 51-84 (v3), 85-169 (v4), 170-199 (v5), 200-224 (v6) , 225 to 255 (v7). Hue (H) is a skin hue hue area (H1 and H2) with a hue value of 0 to 39, 330 to 359, a green hue area (H3) with a hue value of 40 to 160, and a blue hue area with a hue value of 161 to 250 It is divided into four areas (H4) and a red hue area (H5). Note that the red hue region (H5) is not used in the following calculation because it is found that the contribution to the discrimination of the shooting scene is small. The flesh color hue area is further divided into a flesh color area (H1) and other areas (H2). Hereinafter, among the flesh-colored hue areas (H = 0 to 39, 330 to 359), the hue '(H) that satisfies the following formula (2) is defined as the flesh-colored area (H1), and the area that does not satisfy the formula (2) is ( H2). However, the values of the input image data are InR, InG, and InB.

10 < 彩度(S) <175、
色相’(H) = 色相(H) + 60 (0 ≦ 色相(H) < 300のとき)、
色相’(H) = 色相(H) − 300 (300 ≦ 色相(H) < 360のとき)、
輝度(Y) = InR × 0.30 + InG × 0.59 + InB × 0.11 (1)
として、
色相’(H)/輝度(Y) < 3.0 × (彩度(S)/255) + 0.7 (2)
10 <Saturation (S) <175,
Hue '(H) = Hue (H) + 60 (when 0 ≤ Hue (H) <300),
Hue '(H) = Hue (H)-300 (when 300 ≤ Hue (H) <360),
Luminance (Y) = InR x 0.30 + InG x 0.59 + InB x 0.11 (1)
As
Hue '(H) / Luminance (Y) <3.0 × (Saturation (S) / 255) + 0.7 (2)

したがって、画像データの分割領域の数は4×7=28個となる。なお、式(1)及び(2)において明度(V)を用いることも可能である。   Therefore, the number of divided areas of the image data is 4 × 7 = 28. In addition, it is also possible to use the brightness (V) in the expressions (1) and (2).

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第1の占有率が算出される(ステップS33)。明度領域vi、色相領域Hjの組み合わせからなる分割領域において算出された第1の占有率をRijとする。   When the two-dimensional histogram is created, a first occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S33). Let Rij be the first occupancy calculated in the divided area composed of the combination of the lightness area vi and the hue area Hj.

次に、指標1及び指標2の算出方法について説明する。
表1に、ストロボ撮影としての確度、すなわち、ストロボ撮影時の顔領域の明度状態を定量的に示す指標1を算出するために必要な第1の係数を分割領域別に示す。表1に示された各分割領域の係数は、各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2006293898
Next, a method for calculating the index 1 and the index 2 will be described.
Table 1 shows, for each divided area, the first coefficient necessary for calculating the index 1 that quantitatively indicates the accuracy of strobe shooting, that is, the brightness state of the face area at the time of strobe shooting. The coefficient of each divided area shown in Table 1 is a weighting coefficient by which the first occupation ratio Rij of each divided area is multiplied, and is set in advance according to the shooting conditions.
Figure 2006293898

明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1は、式(3)のように定義される。

Figure 2006293898
When the first coefficient in the lightness region vi and the hue region Hj is Cij, the index 1 is defined as in Expression (3).
Figure 2006293898

表2に、逆光撮影としての確度、すなわち、逆光撮影時の顔領域の明度状態を定量的に示す指標2を算出するために必要な第2の係数を分割領域別に示す。表2に示された各分割領域の係数は、各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2006293898
Table 2 shows, for each divided region, the second coefficient necessary for calculating the index 2 that quantitatively indicates the accuracy as backlight photographing, that is, the brightness state of the face region at the time of backlight photographing. The coefficient of each divided area shown in Table 2 is a weighting coefficient by which the first occupancy rate Rij of each divided area is multiplied, and is set in advance according to the shooting conditions.
Figure 2006293898

明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2は、式(4)のように定義される。

Figure 2006293898
When the second coefficient in the lightness area vi and the hue area Hj is Dij, the index 2 is defined as in Expression (4).
Figure 2006293898

次に、図7を参照して、指標3を算出するために実行される第2の占有率算出処理について詳細に説明する。   Next, the second occupancy rate calculation process executed to calculate the index 3 will be described in detail with reference to FIG.

まず、画像データのRGB値がHSV表色系に変換される(ステップS41)。次いで、画像データが、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS42)。   First, the RGB values of the image data are converted into the HSV color system (step S41). Next, the image data is divided into regions each composed of a combination of the distance from the outer edge of the captured image screen and the brightness, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S42).

図8(a)〜(d)に、画像データの画面の外縁からの距離に応じて分割された4つの領域n1〜n4を示す。図8(a)に示す領域n1が外枠であり、図8(b)に示す領域n2が、外枠の内側の領域であり、図8(c)に示す領域n3が、領域n2のさらに内側の領域であり、図8(d)に示す領域n4が、撮影画像画面の中心部の領域である。また、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。したがって、画像データを、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割した場合の分割領域の数は4×7=28個となる。   8A to 8D show four areas n1 to n4 divided according to the distance from the outer edge of the screen of the image data. A region n1 shown in FIG. 8A is an outer frame, a region n2 shown in FIG. 8B is a region inside the outer frame, and a region n3 shown in FIG. An inner area, an area n4 shown in FIG. 8D, is an area at the center of the captured image screen. Further, the lightness is divided into seven regions v1 to v7 as described above. Therefore, when the image data is divided into regions each having a combination of the distance from the outer edge of the captured image screen and the brightness, the number of divided regions is 4 × 7 = 28.

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第2の占有率が算出される(ステップS43)。明度領域vi、画面領域njの組み合わせからなる分割領域において算出された第2の占有率をQijとする。   When the two-dimensional histogram is created, a second occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S43). The second occupancy calculated in the divided area composed of the combination of the brightness area vi and the screen area nj is defined as Qij.

次に、指標3の算出方法について説明する。
表3に、指標3を算出するために必要な第3の係数を分割領域別に示す。表3に示された各分割領域の係数は、各分割領域の第2の占有率Qijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2006293898
Next, a method for calculating the index 3 will be described.
Table 3 shows the third coefficient necessary for calculating the index 3 for each divided region. The coefficient of each divided area shown in Table 3 is a weighting coefficient by which the second occupancy rate Qij of each divided area is multiplied, and is set in advance according to the shooting conditions.
Figure 2006293898

明度領域vi、画面領域njにおける第3の係数をEijとすると、指標3は、式(5)のように定義される。

Figure 2006293898
If the third coefficient in the lightness area vi and the screen area nj is Eij, the index 3 is defined as shown in Expression (5).
Figure 2006293898

次に、指標4の算出方法について説明する。
まず、画像データのRGB(Red,Green,Blue)値から、式(1)を用いて輝度Yを算出する。また、画像データの画面中央部における肌色領域の平均輝度値x1を算出する。ここで、画面中央部とは、例えば、図8において、領域n3及び領域n4により構成される領域である。次いで、画像データの最大輝度値と平均輝度値との差分値x2を算出する。
Next, a method for calculating the index 4 will be described.
First, the luminance Y is calculated from the RGB (Red, Green, Blue) values of the image data using Equation (1). Also, the average luminance value x1 of the skin color area in the center of the screen of the image data is calculated. Here, the center of the screen is, for example, an area configured by an area n3 and an area n4 in FIG. Next, a difference value x2 between the maximum luminance value and the average luminance value of the image data is calculated.

次いで、画像データの輝度の標準偏差x3を算出し、画面中央部における平均輝度値x4を算出する。また、画像データにおける肌色領域の最大輝度値Yskin_maxと最小輝度値Yskin_minの差分値と、肌色領域の平均輝度値Yskin_aveとの比較値x5を算出する。この比較値x5は、下記の式(6)のように表される。
x5=(Yskin_max−Yskin_min)/2 −Yskin_ave (6)
Next, the standard deviation x3 of the luminance of the image data is calculated, and the average luminance value x4 at the center of the screen is calculated. Also, a comparison value x5 between the difference value between the maximum luminance value Yskin_max and the minimum luminance value Yskin_min of the skin color area in the image data and the average luminance value Yskin_ave of the skin color area is calculated. This comparison value x5 is expressed as the following equation (6).
x5 = (Yskin_max−Yskin_min) / 2−Yskin_ave (6)

次いで、算出された値x1〜x5のそれぞれに、撮影条件に応じて予め設定された第4の係数を乗算し、和をとることにより、指標4が算出される。指標4は、下記の式(7)のように定義される。
指標4=0.06×x1+1.13×x2+0.02×x3+(−0.01)×x4+0.03×x5−6.50 (7)
Next, the index 4 is calculated by multiplying each of the calculated values x1 to x5 by a fourth coefficient set in advance according to the photographing condition and taking the sum. The index 4 is defined as the following formula (7).
Index 4 = 0.06 × x1 + 1.13 × x2 + 0.02 × x3 + (− 0.01) × x4 + 0.03 × x5−6.50 (7)

また、画像データの画面中央部における肌色領域の平均輝度値を指標4’とする。ここでの画面中央部とは、例えば、図8の領域n2、領域n3及び領域n4から構成される領域である。   Further, the average luminance value of the skin color area in the center of the screen of the image data is set as an index 4 '. Here, the center of the screen is, for example, an area composed of the area n2, the area n3, and the area n4 in FIG.

また、指標5は、指標1、指標3、指標4’を用いて式(8)のように定義され、指標6は、指標2、指標3、指標4’を用いて式(9)のように定義される。
指標5=0.46×指標1+0.61×指標3+0.01×指標4’−0.79 (8)
指標6=0.58×指標2+0.18×指標3+(−0.03)×指標4’+3.34 (9)
ここで、式(8)及び式(9)において各指標に乗算される重み係数は、撮影条件に応じて予め設定されている。
In addition, the index 5 is defined as in Expression (8) using the index 1, index 3, and index 4 ′, and the index 6 is defined as in Expression (9) using the index 2, index 3, and index 4 ′. Defined in
Index 5 = 0.46 × Index 1 + 0.61 × Index 3 + 0.01 × Index 4′−0.79 (8)
Indicator 6 = 0.58 x Indicator 2 + 0.18 x Indicator 3 + (-0.03) x Indicator 4 '+ 3.34 (9)
Here, the weighting coefficient by which each index is multiplied in Expression (8) and Expression (9) is set in advance according to the shooting conditions.

次に、図5のステップS23における配光条件の判別方法について説明する。
図9(a)は、順光、逆光、ストロボの各光源条件で60枚ずつ撮影し、合計180枚のデジタル画像データについて、指標5及び指標6を算出し、各光源条件での指標5及び指標6の値をプロットしたものである。図9(a)によれば、指標5の値が0.5より大きい場合、ストロボ撮影シーンが多く、指標5の値が0.5以下で、指標6の値が−0.5より大きい場合、逆光シーンが多く、指標5の値が0.5以下で、指標6の値が−0.5以下の場合、順光シーンが多いことがわかる。このように指標5及び指標6の値により撮影シーンを定量的に判別することができる。
Next, a method for determining the light distribution condition in step S23 in FIG. 5 will be described.
In FIG. 9A, 60 images are taken under each light source condition of normal light, backlight, and strobe, and index 5 and index 6 are calculated for a total of 180 digital image data. The values of index 6 are plotted. According to FIG. 9A, when the value of the index 5 is larger than 0.5, there are many flash shooting scenes, the value of the index 5 is 0.5 or less, and the value of the index 6 is larger than −0.5. When there are many backlight scenes, the value of the index 5 is 0.5 or less, and the value of the index 6 is −0.5 or less, it is understood that there are many backlight scenes. In this way, the shooting scene can be determined quantitatively based on the values of the index 5 and the index 6.

図9(b)は、ストロボ撮影シーンとアンダー撮影シーンの撮影画像各60枚のうち、指標5が0.5より大きい画像の指標4及び指標5を算出し、プロットしたものである。図9(b)によれば、指標4の値が0より大きい場合、ストロボ撮影シーンが多く、指標4の値が0以下の場合、アンダー撮影シーンが多いことがわかる。   FIG. 9B is a graph in which index 4 and index 5 of an image with index 5 larger than 0.5 are calculated and plotted among 60 captured images of the strobe shooting scene and the under shooting scene. According to FIG. 9B, it can be seen that when the value of the index 4 is greater than 0, there are many flash shooting scenes, and when the value of the index 4 is 0 or less, there are many under shooting scenes.

なお、撮影時の配光条件に関する情報として、撮影シーンだけでなく、さらに、その度合い(強度)で細分化してもよい(例えば、強い逆光・弱い逆光、近接ストロボ・非近接ストロボ等)。
また、輝度ヒストグラムを用いて、その形状から配光条件を判定することとしてもよい。
Note that the information regarding the light distribution conditions at the time of shooting is not limited to the shooting scene, and may be further subdivided according to the degree (intensity) (for example, strong backlight / weak backlight, proximity strobe / non-proximity strobe, etc.).
Moreover, it is good also as determining light distribution conditions from the shape using a brightness | luminance histogram.

また、Exifをはじめとするタグ情報(露出時間、F値、シャッタースピード、ズーム比率、撮影光源、ストロボ利用(有無、強制発光、強制無発光等)、ホワイトバランス、被写体位置・サイズ、被写体距離範囲(遠景、近景等)、撮影モード(ポートレート、夜景、風景等))から撮影時の配光条件に関する情報を取得又は類推することとしてもよい。   Tag information including Exif (exposure time, F value, shutter speed, zoom ratio, photographing light source, use of strobe (existence, forced flash, forced non-flash, etc.), white balance, subject position / size, subject distance range Information on light distribution conditions at the time of shooting may be acquired or inferred from (far view, near view, etc.) and shooting mode (portrait, night view, landscape, etc.).

図4に戻り、配光条件判別処理が行われた後(ステップS2)、配光条件及び撮影順序に基づいて、画像データがグループ化される(ステップS3)。   Returning to FIG. 4, after the light distribution condition determination process is performed (step S <b> 2), the image data is grouped based on the light distribution condition and the photographing order (step S <b> 3).

図10に、5枚のオーダーがあった場合の例を示す。配光条件判別処理により、1コマ目〜4コマ目の画像は逆光であると判別され、5コマ目の画像は順光であると判別されている。また、1コマ目〜4コマ目の画像は撮影順序が連続しているから、1コマ目〜4コマ目の画像が同一グループにグループ化される。   FIG. 10 shows an example when there is an order for five sheets. By the light distribution condition determination process, the images of the first frame to the fourth frame are determined to be backlight, and the image of the fifth frame is determined to be forward light. In addition, since the images in the first frame to the fourth frame are sequentially photographed, the images in the first frame to the fourth frame are grouped into the same group.

撮影順序については、例えば、画像ファイル名(デジタルカメラ等の撮像装置では、連番でファイル名が付与されることが多い。ユーザが付与する名前でも日付を含む場合や○○−1、○○−2等、関連する画像に番号を付与する場合が多い。)やフォルダ名、Exifをはじめとするタグ情報(撮影日時・撮影場所)から推測することができる。   As for the shooting order, for example, an image file name (in an imaging device such as a digital camera, a file name is often assigned as a serial number. The name given by the user also includes a date, OO-1, OO -2, etc., a number is often assigned to a related image), a folder name, and tag information such as Exif (shooting date / time and shooting location).

次に、複数あるグループのうちM群に含まれる画像データが2以上であるか否かが判断される(ステップS4)。   Next, it is determined whether or not the image data included in the M group among the plurality of groups is 2 or more (step S4).

M群に含まれる画像データが2以上である場合には(ステップS4;YES)、各画像データの顔抽出処理が行われる(ステップS5)。   When the image data included in the M group is 2 or more (step S4; YES), face extraction processing of each image data is performed (step S5).

顔抽出処理としては、まず、画像データから各種の特性値が算出され、人物の顔候補領域(肌色領域)が抽出される。例えば、特性値として、画素信号値の平均、分散等の統計値、レンズ焦点距離、合焦位置、撮影時の光源情報等の付加情報が取得される。   In the face extraction process, first, various characteristic values are calculated from image data, and a human face candidate area (skin color area) is extracted. For example, additional information such as a mean value of pixel signal values, a statistical value such as dispersion, a lens focal length, a focus position, and light source information at the time of photographing is acquired as a characteristic value.

人物の顔候補領域が抽出されると、その顔候補領域を示す信号を入力信号として、人物の顔判定処理を学習した階層型ニューラルネットワーク(以下、単にニューラルネットワークという。)を用いることにより、当該抽出された顔候補領域から顔領域を検出するための処理が行われる。顔検出のために、例えば、肌色領域の形態を表す[領域面積/周囲長]や、[最短径/最長径]、画素信号値の分散等の各種特性値が、抽出された各々の顔候補領域について算出される。そして、ニューラルネットワークの反応強度が算出され、反応強度が所定値より大きい場合に「顔」であると判定される。   When a human face candidate area is extracted, a hierarchical neural network (hereinafter simply referred to as a neural network) that has learned human face determination processing using a signal indicating the face candidate area as an input signal is used. Processing for detecting a face area from the extracted face candidate areas is performed. For face detection, for example, [area area / peripheral length] representing the form of the skin color area, [shortest diameter / longest diameter], and various characteristic values such as pixel signal value variance are extracted for each face candidate. Calculated for the region. Then, the reaction intensity of the neural network is calculated, and when the reaction intensity is greater than a predetermined value, it is determined that the face is “face”.

なお、顔判定処理については、ニューラルネットワークを用いた方法に限らず、テンプレートマッチングや、特開平5−282457号公報、特開平6−214970号公報に記載されているコホーネンの自己組織化による学習方法を使用して学習した目や口の特徴パターンに、顔候補領域から抽出した特徴部分が含まれるか否かを判定し、さらに特徴部分の位置関係を判定することで、顔であるか否かを判定することとしてもよい。   Note that the face determination processing is not limited to a method using a neural network, but is a template matching or a learning method by self-organization of Kohonen described in Japanese Patent Laid-Open Nos. 5-282457 and 6-214970. It is determined whether the feature pattern extracted from the face candidate area is included in the feature pattern of eyes and mouth learned using, and whether or not it is a face by determining the positional relationship of the feature part May be determined.

次に、M群に含まれる各画像データから抽出された顔領域の平均濃度(群平均顔濃度)が算出される(ステップS6)。ここでは、群平均顔濃度に基づく補正処理条件を基準補正処理条件に設定する。   Next, the average density (group average face density) of the face area extracted from each image data included in the M group is calculated (step S6). Here, the correction processing condition based on the group average face density is set as the reference correction processing condition.

次に、各画像の補正処理に移る。まず、M群のN番目の画像データが取得され(ステップS7)、画像中に主要被写体としての顔領域があるか否かが判断される(ステップS8)。   Next, the process proceeds to correction processing of each image. First, the Nth image data of the M group is acquired (step S7), and it is determined whether or not there is a face area as a main subject in the image (step S8).

M群のN番目の画像データに顔領域がある場合には(ステップS8;YES)、その画像データの顔領域の平均濃度が取得され(ステップS9)、顔領域の平均濃度を予め定められた目標濃度値にするような階調変換曲線(補正カーブ)が作成され、この階調変換曲線に基づいて濃度補正処理が行われる(ステップS10)。   When there is a face area in the Nth image data of the M group (step S8; YES), the average density of the face area of the image data is acquired (step S9), and the average density of the face area is determined in advance. A gradation conversion curve (correction curve) that creates a target density value is created, and density correction processing is performed based on the gradation conversion curve (step S10).

M群のN番目の画像データに顔領域がない場合には(ステップS8;NO)、ステップS6で算出された群平均顔濃度が取得され(ステップS11)、群平均顔濃度を予め定められた目標濃度値にするような階調変換曲線が作成され、この階調変換曲線に基づいて濃度補正処理が行われる(ステップS12)。   When there is no face area in the Nth image data of the M group (step S8; NO), the group average face density calculated in step S6 is acquired (step S11), and the group average face density is determined in advance. A gradation conversion curve that creates a target density value is created, and density correction processing is performed based on the gradation conversion curve (step S12).

ステップS10又はステップS12の後、濃度値の分布の幅が広い場合に必要であれば、階調圧縮処理が行われる(ステップS13)。例えば、逆光の場合、顔をはじめとする主要被写体が暗く、背景等が明るくなる場合がほとんどであるため、階調変換曲線で補正した場合に背景部分に白トビが生じないように、当業界で汎用的に使用されている階調圧縮処理が行われる。   After step S10 or step S12, gradation compression processing is performed if necessary when the distribution of density values is wide (step S13). For example, in the case of backlighting, the main subject, including the face, is often dark and the background etc. is bright, so when correcting with a gradation conversion curve, The gradation compression processing that is generally used is performed.

次に、M群中に次の画像データがある場合には(ステップS14;YES)、ステップS7に戻り、ステップS7〜ステップS13の処理が繰り返される。   Next, when there is the next image data in the M group (step S14; YES), the process returns to step S7, and the processes of steps S7 to S13 are repeated.

また、ステップS4において、M群に含まれる画像データが1つの場合には(ステップS4;NO)、その画像データに適した補正処理が行われる(ステップS15)。   In step S4, when there is one image data included in the M group (step S4; NO), correction processing suitable for the image data is performed (step S15).

M群中の画像データの処理が全て終了した場合(ステップS14;NO)、又はステップS15が終了した後、次の画像群があるか否かが判断される(ステップS16)。次の画像群がある場合には(ステップS16;YES)、ステップS4に戻り、ステップS4〜ステップS15の処理が繰り返される。   When all the processing of the image data in the M group is completed (step S14; NO), or after step S15 is completed, it is determined whether there is a next image group (step S16). If there is a next image group (step S16; YES), the process returns to step S4, and the processes of steps S4 to S15 are repeated.

全ての画像群に対して処理が終了した場合には(ステップS16;NO)、本処理が終了する。   When the processing is completed for all the image groups (step S16; NO), this processing ends.

図10は、逆光と判別されたグループのうち、1,2,4コマ目の画像データは顔領域があると判定され、3コマ目の画像データは顔領域がないと判定された場合の例である。1コマ目の画像データについては、顔領域があるため、この顔領域の平均濃度を目標濃度値にする濃度補正処理が行われ、さらに、階調圧縮処理が行われる。2コマ目の画像データについても、顔領域があるため、2コマ目の顔領域の平均濃度を目標濃度値にする濃度補正処理が行われ、さらに、階調圧縮処理が行われる。3コマ目の画像データについては、顔領域がないため、群平均顔濃度(1,2,4コマ目の顔領域の平均濃度)を目標濃度値にする濃度補正処理が行われ、さらに、階調圧縮処理が行われる。4コマ目の画像データについては、顔領域があるため、この顔領域の平均濃度を目標濃度値にする濃度補正処理が行われ、さらに、階調圧縮処理が行われる。   FIG. 10 shows an example in which the image data of the first, second, and fourth frames are determined to have a face area, and the image data of the third frame is determined to have no face area among the groups determined to be backlit. It is. Since the first frame of image data has a face area, density correction processing is performed to set the average density of the face area to a target density value, and gradation compression processing is further performed. Since the image data of the second frame also has a face area, density correction processing is performed to set the average density of the face area of the second frame to the target density value, and gradation compression processing is further performed. Since there is no face area for the image data of the third frame, density correction processing is performed to set the group average face density (average density of the face areas of the first, second, and fourth frames) to the target density value. Tone compression processing is performed. Since the image data of the fourth frame has a face area, density correction processing is performed to set the average density of the face area to a target density value, and gradation compression processing is further performed.

以上説明したように、第1の実施の形態の画像処理装置1によれば、顔領域がある場合には、顔領域の濃度を目標濃度値にする濃度補正処理を行うので、各画像に応じて、顔領域を目標濃度値にする補正処理を行うことができる。また、顔領域がない場合には、群平均顔濃度を目標濃度値にする補正処理(基準補正処理条件)を行うので、処理の安定性を図ることができる。したがって、一連の画像データ全体の補正処理の安定性を図ることができる。   As described above, according to the image processing apparatus 1 of the first embodiment, when there is a face area, the density correction process is performed to set the density of the face area to the target density value. Thus, it is possible to perform correction processing for setting the face area to the target density value. When there is no face area, correction processing (reference correction processing conditions) for setting the group average face density to the target density value is performed, so that the stability of the process can be achieved. Therefore, the stability of the correction process for the entire series of image data can be achieved.

また、画像データをグループ化する際に、撮影順序が連続している画像データを同一グループとするので、類似した画像を選出する効果が高められる。   In addition, when grouping image data, the image data in which the shooting order is continuous are grouped, so that the effect of selecting similar images is enhanced.

なお、補正処理条件を決定する際に、グループ内の全ての画像データに対して、基準補正処理条件に基づいた処理(群平均顔濃度を目標濃度値にする補正処理)を行うこととしてもよい。また、顔領域が抽出された画像データに対しては、そのコマの顔平均濃度と群平均顔濃度の平均値を目標濃度値にする補正処理を行うこととしてもよい。   Note that when determining the correction processing conditions, processing based on the reference correction processing conditions (correction processing for setting the group average face density to the target density value) may be performed on all the image data in the group. . Further, for the image data from which the face area is extracted, correction processing may be performed in which the average value of the face average density and the group average face density of the frame is set to the target density value.

また、グループ内の1コマ目の顔平均濃度を基準補正処理条件としてもよい。この場合にも、グループ内の他の全ての画像データに対して、1コマ目の顔平均濃度に基づいた処理を行うこととしてもよいし、顔領域が抽出された場合にはそのコマの顔平均濃度を用い、顔領域が抽出されなかった場合には1コマ目の顔平均濃度を用いることとしてもよいし、顔領域が抽出された画像データに対しては、そのコマの顔平均濃度と1コマ目の顔平均濃度の平均値を目標濃度値にする補正処理を行うこととしてもよい。   Further, the face average density of the first frame in the group may be used as the reference correction processing condition. Also in this case, it is possible to perform processing based on the face average density of the first frame for all other image data in the group, and when a face region is extracted, the face of that frame When the average density is used and the face area is not extracted, the face average density of the first frame may be used. For the image data from which the face area is extracted, the face average density of the frame is used. Correction processing for setting the average value of the face average density of the first frame to the target density value may be performed.

なお、図4に示した補正処理では、1オーダー分の画像データに対してまとめて配光条件を判別し、1オーダー分まとめてグループ分けしたが、1コマずつ補正処理を行っていく場合には、補正対象となるnコマ目の画像と、既に補正処理を行った(n−1)コマ目の画像又は(n−1)コマ以前の複数コマの画像とが類似しているか否かを判断し、類似している場合には、1つのグループとして扱うことができる。   In the correction process shown in FIG. 4, the light distribution conditions are collectively determined for the image data for one order, and the groups are grouped for one order. However, the correction process is performed one frame at a time. Indicates whether or not the n-th frame image to be corrected is similar to the (n−1) -th frame image or the (n−1) -th frame images that have already been corrected. If they are judged and similar, they can be handled as one group.

また、同様に、1オーダー分の画像データに対して顔抽出処理を行う場合について説明したが、1コマずつ顔抽出処理を行い、補正処理を行っていくようにしてもよい。この場合、図10に示す例では、1コマ目及び2コマ目の画像データについては、顔領域があるため、それぞれの顔領域の平均濃度を目標濃度値にする濃度補正処理が行われるが、3コマ目の画像データについては、顔領域がないため、群平均顔濃度として、1,2コマ目の顔領域の平均濃度を目標濃度値にする濃度補正処理が行われる。   Similarly, the case of performing face extraction processing on image data for one order has been described, but face extraction processing may be performed frame by frame and correction processing may be performed. In this case, in the example shown in FIG. 10, since there is a face area for the image data of the first frame and the second frame, density correction processing is performed to set the average density of each face area to the target density value. Since the image data of the third frame has no face area, density correction processing is performed to set the average density of the face areas of the first and second frames to the target density value as the group average face density.

また、撮影順序の連続性もグループ化の際の指標としたが、連続しない画像データ同士(例えば、1,3,5コマ目等)を同一グループとしてもよい。   In addition, the continuity of the shooting order is also used as an index for grouping, but non-continuous image data (for example, the first, third, and fifth frames) may be set as the same group.

また、第1の実施の形態では、主要被写体に関する情報として、顔抽出処理による顔領域の有無を用いたが、Exif等のタグ情報(例えば、撮影モード(ポートレート、風景、マクロ)、焦点距離(遠景であれば人物ではない等))から類推することも可能である。   In the first embodiment, the presence / absence of a face area obtained by face extraction processing is used as information on the main subject. However, tag information such as Exif (for example, shooting mode (portrait, landscape, macro), focal length, etc. It is also possible to infer from (such as a person who is a distant view).

<変形例>
第1の実施の形態では、画像内の顔領域の有無に基づいて補正処理条件を決定したが、配光条件が順光シーンの場合、出現頻度が高く、また、逆光やストロボ等に比べ人物が撮影されないシーンも多く、また、顔の向き等が不定で肌色領域は抽出しやすいが、顔判定が困難である場合も多いため、顔領域の有無に加え、顔候補領域(肌色領域)の位置に基づいて補正処理条件を決定することが好ましい。
<Modification>
In the first embodiment, the correction processing conditions are determined based on the presence / absence of a face area in the image. However, when the light distribution condition is a front light scene, the appearance frequency is higher, and the person is more likely to be compared to backlight or strobe light. There are many scenes that are not photographed, and the face orientation is undefined and the skin color area is easy to extract, but since face determination is often difficult, in addition to the presence or absence of the face area, the face candidate area (skin color area) It is preferable to determine the correction processing condition based on the position.

図11は、配光条件判別処理により、1コマ目〜4コマ目の画像は順光であると判別され、5コマ目の画像はストロボであると判別された場合の例である。1コマ目〜4コマ目の画像は撮影順序が連続しているから、1コマ目〜4コマ目の画像が同一グループにグループ化される。順光と判別されたグループのうち、1,2コマ目の画像データは顔領域があると判定され、3コマ目の画像データは顔領域はないと判定されたが、1,2コマ目の画像データの顔領域と略同じ位置に肌色領域(顔候補領域)が抽出され、4コマ目の画像データは顔領域がないと判定され、1,2コマ目の画像データの顔領域と略同じ位置に肌色領域もないと判定されている。   FIG. 11 shows an example of the case where the first to fourth frame images are determined to be forward light and the fifth frame image is determined to be strobe light by the light distribution condition determination processing. Since the images of the first frame to the fourth frame are consecutively photographed, the images of the first frame to the fourth frame are grouped into the same group. Among the groups determined to have the following light, the image data for the first and second frames are determined to have a face area, and the image data for the third frame are determined to have no face area. A skin color area (face candidate area) is extracted at substantially the same position as the face area of the image data, and it is determined that there is no face area in the fourth frame image data, which is substantially the same as the face area of the first and second frame image data. It is determined that there is no skin color area at the position.

この場合、1コマ目の画像データについては、顔領域があるため、この顔領域の平均濃度を目標濃度値にする階調変換曲線が作成され、濃度補正処理が行われる。2コマ目の画像データについても、顔領域があるため、同様に、2コマ目の顔領域の平均濃度を目標濃度値にする階調変換曲線が作成され、濃度補正処理が行われる。3コマ目の画像データについては、顔領域はないが、1,2コマ目の画像データの顔領域と略同じ位置に肌色領域があるため、群平均顔濃度(1,2コマ目の顔領域の平均濃度)を目標濃度値にする階調変換曲線が作成され、濃度補正処理が行われる。4コマ目の画像データについては、顔領域も肌色領域もないため、配光条件に基づく所定の濃度補正処理が行われる。あるいは、1,2,3コマ目の画像データの平均輝度分布と類似するように、4コマ目の画像データに対して濃度補正処理を行うこととしてもよい。   In this case, since there is a face area for the image data of the first frame, a gradation conversion curve with the average density of this face area as a target density value is created and density correction processing is performed. Since the image data of the second frame also has a face area, similarly, a gradation conversion curve that creates the average density of the face area of the second frame as a target density value is created, and density correction processing is performed. The image data for the third frame has no face area, but since the skin color area is at the same position as the face area of the image data for the first and second frames, the group average face density (the face area for the first and second frames) A gradation conversion curve with the average density) as a target density value is created, and density correction processing is performed. The image data of the fourth frame has neither a face area nor a skin color area, and therefore a predetermined density correction process based on the light distribution condition is performed. Alternatively, the density correction process may be performed on the image data of the fourth frame so as to be similar to the average luminance distribution of the image data of the first, second, and third frames.

[第2の実施の形態]
次に、本発明を適用した第2の実施の形態について説明する。
第2の実施の形態に示す画像処理装置において、第1の実施の形態に示した画像処理装置1と同一の構成部分については同一の符号を付し、その構成については図示及び説明を省略する。以下、第2の実施の形態に特徴的な処理について説明する。
[Second Embodiment]
Next, a second embodiment to which the present invention is applied will be described.
In the image processing apparatus shown in the second embodiment, the same components as those in the image processing apparatus 1 shown in the first embodiment are denoted by the same reference numerals, and the illustration and description thereof are omitted. . Hereinafter, processing characteristic of the second embodiment will be described.

第2の実施の形態では、配光条件に関する情報に加え、主要被写体情報に関する情報(顔候補領域の有無)に基づいて、画像データをグループ化する。   In the second embodiment, image data is grouped based on information on main subject information (presence / absence of a face candidate region) in addition to information on light distribution conditions.

図12は、第2の実施の形態の画像処理装置の画像調整処理部704において実行される補正処理を示すフローチャートである。   FIG. 12 is a flowchart illustrating correction processing executed in the image adjustment processing unit 704 of the image processing apparatus according to the second embodiment.

まず、画像転送手段30又は通信手段(入力)32から入力された1オーダーの画像データが取得される(ステップS51)。   First, one-order image data input from the image transfer means 30 or the communication means (input) 32 is acquired (step S51).

次に、各画像データの配光条件判別処理が行われる(ステップS52)。配光条件判別処理については、第1の実施の形態のステップS2で説明したので、説明を省略する。   Next, a light distribution condition determination process for each image data is performed (step S52). Since the light distribution condition determination process has been described in step S2 of the first embodiment, the description thereof is omitted.

次に、各画像データの顔候補領域(肌色領域)の抽出処理が行われる(ステップS53)。人物の顔候補領域が抽出されると、その顔候補領域を示す信号を入力信号として、人物の顔判定処理を学習したニューラルネットワークを用いることにより、当該抽出された顔候補領域が顔領域であるか否かが判定される(ステップS54)。顔候補領域抽出処理及び顔判定処理については、第1の実施の形態のステップS5で説明したので、説明を省略する。   Next, a face candidate area (skin color area) is extracted from each image data (step S53). When a human face candidate area is extracted, the extracted face candidate area is a face area by using a neural network that has learned a human face determination process using a signal indicating the face candidate area as an input signal. Is determined (step S54). Since the face candidate area extraction process and the face determination process have been described in step S5 of the first embodiment, description thereof will be omitted.

次に、配光条件、顔候補領域の有無、及び撮影順序に基づいて、画像データがグループ化される(ステップS55)。   Next, the image data is grouped based on the light distribution condition, the presence / absence of the face candidate region, and the photographing order (step S55).

図13は、配光条件判別処理により、1コマ目〜4コマ目の画像は順光であると判別され、5コマ目の画像はストロボであると判別された場合の例である。順光と判別されたグループのうち、1,2コマ目の画像データは顔領域があると判定され、3コマ目の画像データは顔領域はないと判定されたが、1,2コマ目の画像データの顔領域と略同じ位置に肌色領域(顔候補領域)が抽出され、4コマ目の画像データは顔領域がないと判定され、1,2コマ目の画像データの顔領域と略同じ位置に肌色領域もないと判定されている。さらに、1コマ目〜3コマ目の画像は撮影順序が連続しているから、1コマ目〜3コマ目の画像は、順光で顔候補領域があるグループとしてグループ化される。   FIG. 13 shows an example of the case where the first to fourth frame images are determined to be forward light and the fifth frame image is determined to be strobe light by the light distribution condition determination processing. Among the groups determined to have the following light, the image data for the first and second frames are determined to have a face area, and the image data for the third frame are determined to have no face area. A skin color area (face candidate area) is extracted at substantially the same position as the face area of the image data, and it is determined that there is no face area in the fourth frame image data, which is substantially the same as the face area of the first and second frame image data. It is determined that there is no skin color area at the position. Furthermore, since the images of the first frame to the third frame are in the order of shooting, the images of the first frame to the third frame are grouped as a group with a face candidate area in the front light.

次に、M群に含まれる画像データが2以上である場合には(ステップS56;YES)、M群に含まれる各画像データの顔領域の平均濃度(群平均顔濃度)が算出される(ステップS57)。   Next, when the image data included in the M group is 2 or more (step S56; YES), the average density (group average face density) of the face area of each image data included in the M group is calculated ( Step S57).

次に、各画像の補正処理に移る。まず、M群のN番目の画像データが取得され(ステップS58)、画像中に顔領域があるか否かが判断される(ステップS59)。   Next, the process proceeds to correction processing of each image. First, the Nth image data of the M group is acquired (step S58), and it is determined whether or not there is a face area in the image (step S59).

M群のN番目の画像データに顔領域がある場合には(ステップS59;YES)、その画像データの顔領域の平均濃度が取得され(ステップS60)、顔領域の平均濃度を予め定められた目標濃度値にするような階調変換曲線が作成され、この階調変換曲線に基づいて濃度補正処理が行われる(ステップS61)。   When there is a face area in the Nth image data of the M group (step S59; YES), the average density of the face area of the image data is acquired (step S60), and the average density of the face area is determined in advance. A gradation conversion curve for creating the target density value is created, and density correction processing is performed based on the gradation conversion curve (step S61).

M群のN番目の画像データに顔領域がない場合には(ステップS59;NO)、ステップS57で算出された群平均顔濃度が取得され(ステップS62)、群平均顔濃度を予め定められた目標濃度値にするような階調変換曲線が作成され、この階調変換曲線に基づいて濃度補正処理が行われる(ステップS63)。   When there is no face area in the Nth image data of the M group (step S59; NO), the group average face density calculated in step S57 is acquired (step S62), and the group average face density is determined in advance. A gradation conversion curve for creating the target density value is created, and density correction processing is performed based on the gradation conversion curve (step S63).

ステップS61又はステップS63の後、濃度値の分布の幅が広い場合に必要であれば、階調圧縮処理が行われる(ステップS64)。   After step S61 or step S63, gradation compression processing is performed if necessary when the width of the density value distribution is wide (step S64).

次に、M群中に次の画像データがある場合には(ステップS65;YES)、ステップS58に戻り、ステップS58〜ステップS64の処理が繰り返される。   Next, when there is the next image data in the M group (step S65; YES), the process returns to step S58, and the processes of steps S58 to S64 are repeated.

また、ステップS56において、M群に含まれる画像データが1つの場合には(ステップS56;NO)、その画像データに適した補正処理が行われる(ステップS66)。   In step S56, when there is one image data included in the M group (step S56; NO), correction processing suitable for the image data is performed (step S66).

M群中の画像データの処理が全て終了した場合(ステップS65;NO)、又はステップS66が終了した後、次の画像群があるか否かが判断される(ステップS67)。次の画像群がある場合には(ステップS67;YES)、ステップS56に戻り、ステップS56〜ステップS66の処理が繰り返される。   When all the processing of the image data in the M group is completed (step S65; NO), or after step S66 is completed, it is determined whether there is a next image group (step S67). If there is a next image group (step S67; YES), the process returns to step S56, and the processes of steps S56 to S66 are repeated.

全ての画像群に対して処理が終了した場合には(ステップS67;NO)、本処理が終了する。   When the processing is completed for all the image groups (step S67; NO), this processing ends.

以上説明したように、第2の実施の形態の画像形成装置によれば、鑑賞者の着目度が高い主要被写体領域(特に人物の顔)に関する情報と、画像全体の状況や雰囲気を鑑賞者に伝えることを担う画像の配光条件に関する情報の2つの情報を用いて、1オーダー内の画像データのグループを設定することで、鑑賞者が画像が類似していると感じる感性に近いグループ設定を精度良く行うことができる。   As described above, according to the image forming apparatus of the second embodiment, information regarding the main subject region (especially the face of a person) with a high degree of attention of the viewer, and the status and atmosphere of the entire image are shown to the viewer. By setting two groups of image data within one order using two pieces of information related to the light distribution conditions of the images responsible for transmission, a group setting close to the sensitivity that the viewer feels that the images are similar is set. It can be performed with high accuracy.

また、顔領域がある場合には、顔領域の濃度を目標濃度値にする濃度補正処理を行い、顔領域がない場合には、群平均顔濃度を目標濃度値にする補正処理(基準補正処理条件)を行うので、一連の画像データ全体の補正処理の安定性を図ることができる。   If there is a face area, density correction processing is performed to set the density of the face area to the target density value. If there is no face area, correction processing to set the group average face density to the target density value (reference correction processing). Therefore, the stability of the correction process for the entire series of image data can be improved.

第2の実施の形態では、グループ化に用いる主要被写体に関する情報として、顔候補領域の有無及び顔候補領域の位置を用いたが、さらに、顔の数(0,1,2,・・・、又は、なし,1つ,数個(2〜5),6以上等)、顔の大きさ(大中小)等を用いてもよい。   In the second embodiment, the presence / absence of the face candidate area and the position of the face candidate area are used as the information on the main subject used for grouping, but the number of faces (0, 1, 2,... Alternatively, none, one, several (2-5), 6 or more, etc.), face size (large, medium, small), etc. may be used.

なお、上記各実施の形態における記述は、本発明に係る画像処理装置の例であり、これに限定されるものではない。装置を構成する各部の細部構成及び細部動作に関しても本発明の趣旨を逸脱することのない範囲で適宜変更可能である。   The description in each of the above embodiments is an example of the image processing apparatus according to the present invention, and the present invention is not limited to this. The detailed configuration and detailed operation of each part constituting the apparatus can be changed as appropriate without departing from the spirit of the present invention.

例えば、画像の構図、濃度分布、色度分布に基づいて、画像データをグループ化したり、画像処理条件を決定したりすることとしてもよい。   For example, image data may be grouped or image processing conditions may be determined based on image composition, density distribution, and chromaticity distribution.

また、上記各実施の形態では、補正処理として、濃度補正処理(階調補正処理)を行う場合について説明したが、階調補正処理、濃度補正処理、コントラスト調整処理、カラーバランス調整処理、彩度調整処理、色相補正等の色補正処理、覆い焼き処理、鮮鋭性調整処理、ノイズ抑制処理等、当業界で知られる補正処理を単独で、あるいは組み合わせて行うこととしてもよい。   In each of the above embodiments, the case where density correction processing (tone correction processing) is performed as correction processing has been described. However, tone correction processing, density correction processing, contrast adjustment processing, color balance adjustment processing, saturation, and the like are described. Correction processing known in the art, such as adjustment processing, color correction processing such as hue correction, dodging processing, sharpness adjustment processing, and noise suppression processing, may be performed alone or in combination.

本発明の第1の実施の形態における画像処理装置1の概観構成を示す斜視図である。1 is a perspective view illustrating an overview configuration of an image processing apparatus 1 according to a first embodiment of the present invention. 画像処理装置1の内部構成を示すブロック図である。2 is a block diagram showing an internal configuration of the image processing apparatus 1. FIG. 画像処理装置1の画像処理部70の機能的構成を示すブロック図である。2 is a block diagram illustrating a functional configuration of an image processing unit 70 of the image processing apparatus 1. FIG. 画像調整処理部704において実行される補正処理を示すフローチャートである。6 is a flowchart illustrating a correction process executed in an image adjustment processing unit 704. 配光条件判別処理を示すフローチャートである。It is a flowchart which shows a light distribution condition discrimination | determination process. 第1の占有率算出処理を示すフローチャートである。It is a flowchart which shows a 1st occupation rate calculation process. 第2の占有率算出処理を示すフローチャートである。It is a flowchart which shows a 2nd occupation rate calculation process. 画像データの画面の外縁からの距離に応じて決定される領域n1〜n4を示す図である。It is a figure which shows the area | region n1-n4 determined according to the distance from the outer edge of the screen of image data. 撮影シーン(順光、ストロボ、逆光、アンダー)と指標4〜6の関係を示すプロット図である。It is a plot figure which shows the relationship between an imaging | photography scene (forward light, strobe, backlight, under) and the indices 4-6. 第1の実施の形態における画像データの補正処理条件の決定方法を説明するための図である。It is a figure for demonstrating the determination method of the correction process conditions of the image data in 1st Embodiment. 第1の実施の形態の変形例における画像データの補正処理条件の決定方法を説明するための図である。It is a figure for demonstrating the determination method of the correction process conditions of the image data in the modification of 1st Embodiment. 第2の実施の形態の画像処理装置の画像調整処理部704において実行される補正処理を示すフローチャートである。It is a flowchart which shows the correction process performed in the image adjustment process part 704 of the image processing apparatus of 2nd Embodiment. 第2の実施の形態における画像データの補正処理条件の決定方法を説明するための図である。It is a figure for demonstrating the determination method of the correction process condition of the image data in 2nd Embodiment.

符号の説明Explanation of symbols

1 画像処理装置
4 露光処理部
5 プリント作成部
7 制御部
8 CRT
9 フィルムスキャナ部
10 反射原稿入力装置
11 操作部
14 画像読込部
15 画像書込部
30 画像転送手段
31 画像搬送部
32 通信手段(入力)
33 通信手段(出力)
34 外部プリンタ
70 画像処理部
701 フィルムスキャンデータ処理部
702 反射原稿スキャンデータ処理部
703 画像データ書式解読処理部
704 画像調整処理部
705 CRT固有処理部
706 プリンタ固有処理部(1)
707 プリンタ固有処理部(2)
708 画像データ書式作成処理部
71 データ蓄積手段
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 4 Exposure processing part 5 Print preparation part 7 Control part 8 CRT
DESCRIPTION OF SYMBOLS 9 Film scanner part 10 Reflective original input device 11 Operation part 14 Image reading part 15 Image writing part 30 Image transfer means 31 Image conveyance part 32 Communication means (input)
33 Communication means (output)
34 External Printer 70 Image Processing Unit 701 Film Scan Data Processing Unit 702 Reflected Original Scan Data Processing Unit 703 Image Data Format Decoding Processing Unit 704 Image Adjustment Processing Unit 705 CRT Specific Processing Unit 706 Printer Specific Processing Unit (1)
707 Printer-specific processing unit (2)
708 Image data format creation processing unit 71 Data storage means

Claims (18)

複数の撮影画像データに補正処理を施し、補正画像を生成する画像処理方法において、
撮影時の配光条件に関する情報に基づいて、前記複数の撮影画像データをグループ化し、
2以上の撮影画像データが含まれるグループについては、当該グループにおける基準補正処理条件及び/又は補正対象となる撮影画像データの主要被写体領域に関する情報に基づいて、前記補正対象となる撮影画像データの補正処理条件を決定することを特徴とする画像処理方法。
In an image processing method for performing correction processing on a plurality of captured image data and generating a corrected image,
Based on the information on the light distribution conditions at the time of shooting, the plurality of shot image data are grouped,
For a group including two or more photographed image data, the correction of the photographed image data to be corrected is performed based on the reference correction processing condition in the group and / or information on the main subject region of the photographed image data to be corrected. An image processing method characterized by determining a processing condition.
複数の撮影画像データに補正処理を施し、補正画像を生成する画像処理方法において、
撮影時の配光条件に関する情報及び主要被写体領域に関する情報に基づいて、前記複数の撮影画像データをグループ化し、
2以上の撮影画像データが含まれるグループについては、当該グループにおける基準補正処理条件及び/又は補正対象となる撮影画像データの主要被写体領域に関する情報に基づいて、前記補正対象となる撮影画像データの補正処理条件を決定することを特徴とする画像処理方法。
In an image processing method for performing correction processing on a plurality of captured image data and generating a corrected image,
Based on the information on the light distribution conditions at the time of shooting and the information on the main subject area, the plurality of shot image data are grouped,
For a group including two or more photographed image data, the correction of the photographed image data to be corrected is performed based on the reference correction processing condition in the group and / or information on the main subject region of the photographed image data to be corrected. An image processing method characterized by determining a processing condition.
請求項1又は2に記載の画像処理方法において、
前記複数の撮影画像データをグループ化する際に、さらに、撮影順序が連続している撮影画像データを同一グループとすることを特徴とする画像処理方法。
The image processing method according to claim 1 or 2,
An image processing method characterized in that, when grouping the plurality of photographed image data, the photographed image data in which the photographing order is continued is made into the same group.
請求項1〜3のいずれか一項に記載の画像処理方法において、
前記主要被写体領域は、人物の顔領域であることを特徴とする画像処理方法。
In the image processing method as described in any one of Claims 1-3,
The image processing method according to claim 1, wherein the main subject area is a human face area.
請求項1〜4のいずれか一項に記載の画像処理方法において、
前記補正処理条件を決定する際に参照する主要被写体領域に関する情報は、前記主要被写体領域の有無であることを特徴とする画像処理方法。
In the image processing method according to any one of claims 1 to 4,
The image processing method characterized in that the information regarding the main subject area referred to when determining the correction processing condition is the presence or absence of the main subject area.
請求項1〜5のいずれか一項に記載の画像処理方法において、
前記撮影時の配光条件には、逆光状態、フラッシュ光利用状態、アンダー状態のうち少なくとも1以上が含まれることを特徴とする画像処理方法。
In the image processing method according to any one of claims 1 to 5,
The image processing method according to claim 1, wherein the light distribution condition at the time of photographing includes at least one of a backlight state, a flash light utilization state, and an under state.
複数の撮影画像データに補正処理を施し、補正画像を生成する画像処理装置において、
撮影時の配光条件に関する情報に基づいて、前記複数の撮影画像データをグループ化するグループ化手段と、
2以上の撮影画像データが含まれるグループについては、当該グループにおける基準補正処理条件及び/又は補正対象となる撮影画像データの主要被写体領域に関する情報に基づいて、前記補正対象となる撮影画像データの補正処理条件を決定する補正処理条件決定手段と、
を備えたことを特徴とする画像処理装置。
In an image processing apparatus that performs correction processing on a plurality of captured image data and generates a corrected image,
Grouping means for grouping the plurality of photographed image data based on information on light distribution conditions at the time of photographing;
For a group including two or more photographed image data, the correction of the photographed image data to be corrected is performed based on the reference correction processing condition in the group and / or information on the main subject region of the photographed image data to be corrected. Correction processing condition determining means for determining processing conditions;
An image processing apparatus comprising:
複数の撮影画像データに補正処理を施し、補正画像を生成する画像処理装置において、
撮影時の配光条件に関する情報及び主要被写体領域に関する情報に基づいて、前記複数の撮影画像データをグループ化するグループ化手段と、
2以上の撮影画像データが含まれるグループについては、当該グループにおける基準補正処理条件及び/又は補正対象となる撮影画像データの主要被写体領域に関する情報に基づいて、前記補正対象となる撮影画像データの補正処理条件を決定する補正処理条件決定手段と、
を備えたことを特徴とする画像処理装置。
In an image processing apparatus that performs correction processing on a plurality of captured image data and generates a corrected image,
Grouping means for grouping the plurality of photographed image data based on information on light distribution conditions at the time of photographing and information on a main subject area;
For a group including two or more photographed image data, the correction of the photographed image data to be corrected is performed based on the reference correction processing condition in the group and / or information on the main subject region of the photographed image data to be corrected. Correction processing condition determining means for determining processing conditions;
An image processing apparatus comprising:
請求項7又は8に記載の画像処理装置において、
前記グループ化手段は、さらに、撮影順序が連続している撮影画像データを同一グループとすることを特徴とする画像処理装置。
The image processing apparatus according to claim 7 or 8,
The image processing apparatus according to claim 1, wherein the grouping unit further groups the captured image data in which the imaging order is continuous into the same group.
請求項7〜9のいずれか一項に記載の画像処理装置において、
前記主要被写体領域は、人物の顔領域であることを特徴とする画像処理装置。
In the image processing device according to any one of claims 7 to 9,
The image processing apparatus according to claim 1, wherein the main subject area is a human face area.
請求項7〜10のいずれか一項に記載の画像処理装置において、
前記補正処理条件を決定する際に参照する主要被写体領域に関する情報は、前記主要被写体領域の有無であることを特徴とする画像処理装置。
In the image processing device according to any one of claims 7 to 10,
The image processing apparatus according to claim 1, wherein the information on the main subject area referred to when determining the correction processing condition is the presence or absence of the main subject area.
請求項7〜11のいずれか一項に記載の画像処理装置において、
前記撮影時の配光条件には、逆光状態、フラッシュ光利用状態、アンダー状態のうち少なくとも1以上が含まれることを特徴とする画像処理装置。
In the image processing device according to any one of claims 7 to 11,
The image processing apparatus according to claim 1, wherein the light distribution condition at the time of photographing includes at least one of a backlight state, a flash light utilization state, and an under state.
コンピュータに、複数の撮影画像データに補正処理を施し、補正画像を生成する機能を実現させるための画像処理プログラムにおいて、
前記コンピュータに、
撮影時の配光条件に関する情報に基づいて、前記複数の撮影画像データをグループ化するグループ化機能と、
2以上の撮影画像データが含まれるグループについては、当該グループにおける基準補正処理条件及び/又は補正対象となる撮影画像データの主要被写体領域に関する情報に基づいて、前記補正対象となる撮影画像データの補正処理条件を決定する補正処理条件決定機能と、
を実現させることを特徴とする画像処理プログラム。
In an image processing program for realizing a function of performing correction processing on a plurality of captured image data and generating a corrected image on a computer,
In the computer,
A grouping function for grouping the plurality of photographed image data based on information on light distribution conditions at the time of photographing;
For a group including two or more photographed image data, the correction of the photographed image data to be corrected is performed based on the reference correction processing condition in the group and / or information on the main subject region of the photographed image data to be corrected. Correction processing condition determination function for determining processing conditions;
An image processing program characterized by realizing the above.
コンピュータに、複数の撮影画像データに補正処理を施し、補正画像を生成する機能を実現させるための画像処理プログラムにおいて、
前記コンピュータに、
撮影時の配光条件に関する情報及び主要被写体領域に関する情報に基づいて、前記複数の撮影画像データをグループ化するグループ化機能と、
2以上の撮影画像データが含まれるグループについては、当該グループにおける基準補正処理条件及び/又は補正対象となる撮影画像データの主要被写体領域に関する情報に基づいて、前記補正対象となる撮影画像データの補正処理条件を決定する補正処理条件決定機能と、
を実現させることを特徴とする画像処理プログラム。
In an image processing program for realizing a function of performing correction processing on a plurality of captured image data and generating a corrected image on a computer,
In the computer,
A grouping function for grouping the plurality of photographed image data based on information on light distribution conditions at the time of photographing and information on a main subject area;
For a group including two or more photographed image data, the correction of the photographed image data to be corrected is performed based on the reference correction processing condition in the group and / or information on the main subject region of the photographed image data to be corrected. Correction processing condition determination function for determining processing conditions;
An image processing program characterized by realizing the above.
請求項13又は14に記載の画像処理プログラムにおいて、
前記グループ化機能を実現させる際に、さらに、撮影順序が連続している撮影画像データを同一グループとすることを特徴とする画像処理プログラム。
The image processing program according to claim 13 or 14,
An image processing program characterized in that, when realizing the grouping function, photographed image data in which the photographing order is continued are made into the same group.
請求項13〜15のいずれか一項に記載の画像処理プログラムにおいて、
前記主要被写体領域は、人物の顔領域であることを特徴とする画像処理プログラム。
In the image processing program as described in any one of Claims 13-15,
An image processing program characterized in that the main subject area is a human face area.
請求項13〜16のいずれか一項に記載の画像処理プログラムにおいて、
前記補正処理条件を決定する際に参照する主要被写体領域に関する情報は、前記主要被写体領域の有無であることを特徴とする画像処理プログラム。
The image processing program according to any one of claims 13 to 16,
An image processing program characterized in that the information on the main subject area referred to when determining the correction processing condition is the presence or absence of the main subject area.
請求項13〜17のいずれか一項に記載の画像処理プログラムにおいて、
前記撮影時の配光条件には、逆光状態、フラッシュ光利用状態、アンダー状態のうち少なくとも1以上が含まれることを特徴とする画像処理プログラム。
In the image processing program as described in any one of Claims 13-17,
The image processing program characterized in that the light distribution condition at the time of photographing includes at least one of a backlight condition, a flash light utilization condition, and an under condition.
JP2005116917A 2005-04-14 2005-04-14 Image processing method, image processing apparatus, and image processing program Pending JP2006293898A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005116917A JP2006293898A (en) 2005-04-14 2005-04-14 Image processing method, image processing apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005116917A JP2006293898A (en) 2005-04-14 2005-04-14 Image processing method, image processing apparatus, and image processing program

Publications (1)

Publication Number Publication Date
JP2006293898A true JP2006293898A (en) 2006-10-26

Family

ID=37414376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005116917A Pending JP2006293898A (en) 2005-04-14 2005-04-14 Image processing method, image processing apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP2006293898A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008288767A (en) * 2007-05-16 2008-11-27 Sony Corp Information processor, method, and program
JP2009038498A (en) * 2007-07-31 2009-02-19 Canon Inc Unit and method for processing image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008288767A (en) * 2007-05-16 2008-11-27 Sony Corp Information processor, method, and program
US8311267B2 (en) 2007-05-16 2012-11-13 Sony Corporation Information processing apparatus and method, and program
JP2009038498A (en) * 2007-07-31 2009-02-19 Canon Inc Unit and method for processing image
US8290259B2 (en) 2007-07-31 2012-10-16 Canon Kabushiki Kaisha Device adaptively switching color emphasis processing for image

Similar Documents

Publication Publication Date Title
US8170364B2 (en) Image processing method, image processing device, and image processing program
JP2005190435A (en) Image processing method, image processing apparatus and image recording apparatus
JP2006325015A (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP2005026800A (en) Image processing method, imaging apparatus, image processing apparatus, and image recording apparatus
JPWO2005112428A1 (en) Image processing method, image processing apparatus, image recording apparatus, and image processing program
JP2006318255A (en) Image processing method, image processor and image processing program
JP2005192162A (en) Image processing method, image processing apparatus, and image recording apparatus
JP2006203566A (en) Imaging apparatus, image processing apparatus and image processing method
WO2006033235A1 (en) Image processing method, image processing device, imaging device, and image processing program
JP2006039666A (en) Image processing method, image processor and image processing program
US20040036892A1 (en) Image processing method, image processing apparatus, image recording apparatus and recording medium
JP2006293898A (en) Image processing method, image processing apparatus, and image processing program
WO2006033236A1 (en) Image processing method, image processing device, imaging device, and image processing program
JP2003250040A (en) Image processing method, image processing apparatus, image recording apparatus, and recording medium
US6801296B2 (en) Image processing method, image processing apparatus and image recording apparatus
JP4449619B2 (en) Image processing method, image processing apparatus, and image processing program
JP2007293686A (en) Imaging apparatus, image processing apparatus, image processing method and image processing program
JP2005192158A (en) Image processing method, image processing apparatus, and image recording apparatus
JP2006094000A (en) Image processing method, image processing apparatus, and image processing program
JP2006203573A (en) Imaging apparatus, image processor, and image recording apparatus
JP2005332054A (en) Image processing method, image processor, image recording device and image processing program
JP2004096508A (en) Image processing method, image processing apparatus, image recording apparatus, program, and recording medium
WO2006033234A1 (en) Image processing method, image processing device, imaging device, and image processing program
JP2001346043A (en) Image processor and image processing method
JP2005209012A (en) Image processing method, apparatus and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070827

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080221