JP4449619B2 - Image processing method, image processing apparatus, and image processing program - Google Patents

Image processing method, image processing apparatus, and image processing program Download PDF

Info

Publication number
JP4449619B2
JP4449619B2 JP2004214669A JP2004214669A JP4449619B2 JP 4449619 B2 JP4449619 B2 JP 4449619B2 JP 2004214669 A JP2004214669 A JP 2004214669A JP 2004214669 A JP2004214669 A JP 2004214669A JP 4449619 B2 JP4449619 B2 JP 4449619B2
Authority
JP
Japan
Prior art keywords
face
image data
light distribution
determining
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004214669A
Other languages
Japanese (ja)
Other versions
JP2006039670A (en
Inventor
千鶴子 池田
庄一 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Opto Inc
Original Assignee
Konica Minolta Opto Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Opto Inc filed Critical Konica Minolta Opto Inc
Priority to JP2004214669A priority Critical patent/JP4449619B2/en
Publication of JP2006039670A publication Critical patent/JP2006039670A/en
Application granted granted Critical
Publication of JP4449619B2 publication Critical patent/JP4449619B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮影画像データに対して画像処理を施す画像処理方法、画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing method, an image processing apparatus, and an image processing program for performing image processing on captured image data.

近年、デジタルスチルカメラ(玩具用、携帯電話やラップトップパソコン等の機器に組み込まれたもの、一般ユーザ用の汎用用途、高機能なプロ用途のカメラを含む。以下、DSCと略称する。)が広く普及し、DSCで撮影された画像が、カラー写真フィルムと同様に、ハードコピー画像として出力されたり、CRT(Cathode Ray Tube)等の出力媒体に表示されたりして鑑賞されている。   In recent years, digital still cameras (including toys, cameras incorporated in devices such as mobile phones and laptop computers, general-purpose applications for general users, and high-functional professional cameras. Hereinafter, abbreviated as DSC). Widely used and images taken by DSC are viewed as being output as hard copy images or displayed on output media such as CRT (Cathode Ray Tube), as with color photographic film.

また、カラー写真フィルム上に形成された画像を、CCD(Charge Coupled Device)センサ等で光電的に読みとって画像信号に変換する技術が広く用いられている。このような画像信号は、ネガポジ反転、輝度調整、カラーバランス調整、粒状除去、鮮鋭性強調に代表される種々の画像処理が施された後に、CD−R(CD-Recordable)、CD−RW(CD-ReWritable)、フロッピー(登録商標)ディスク、メモリーカード等の記録媒体に記録されたり、インターネット経由で配布され、銀塩印画紙、インクジェットプリンタ、サーマルプリンタ等でハードコピーとして出力されたり、CRT、液晶ディスプレイ、プラズマディスプレイ等の出力媒体に表示されたりして鑑賞される。   In addition, a technique is widely used in which an image formed on a color photographic film is photoelectrically read by a CCD (Charge Coupled Device) sensor or the like and converted into an image signal. Such an image signal is subjected to various image processing represented by negative / positive reversal, luminance adjustment, color balance adjustment, grain removal, and sharpness enhancement, and then CD-R (CD-Recordable), CD-RW ( CD-ReWritable), floppy (registered trademark) disk, memory card, or other recording media, distributed via the Internet, and output as a hard copy on silver halide photographic paper, inkjet printers, thermal printers, etc. It can be viewed on an output medium such as a liquid crystal display or plasma display.

ところで、どのような出力形態であっても、鑑賞者の着目度が高く、その評価基準が厳しいのは、人物が被写体として撮影されたシーンであり、特に顔部が注目される。しかしながら、実際の画像撮影では、人物の顔が適正な色、明るさ、鮮鋭感、ノイズ感、立体感を有する画像として撮影される環境になっていないのが一般的である。このような背景を受けて、人物を含むシーンについて高い品質の画像とするために、撮影画像データから顔領域を抽出して補正処理を施す技術が必要とされており、顔領域の抽出・判定技術や、顔判定処理の判定精度を向上させる技術が開示されている。   By the way, in any output form, the viewer's attention is high and the evaluation standard is strict in a scene in which a person is photographed as a subject, and in particular, the face is focused. However, in actual image shooting, it is common that a person's face is not in an environment where it is shot as an image having an appropriate color, brightness, sharpness, noise, and stereoscopic effect. In order to obtain a high-quality image for a scene including a person in response to such a background, a technique for extracting a face area from captured image data and performing a correction process is required. Techniques and techniques for improving the determination accuracy of face determination processing are disclosed.

例えば、特許文献1には、撮影画像データから、人物の顔の形状に相当する顔候補領域を決定し、顔候補領域内の特徴量を基に所定の閾値等を利用して顔領域を決定する技術が開示されている。この特許文献1では、特徴量の一つとして「目」に着目しており、顔候補領域の明度ヒストグラムが、高明度の肌部と、低明度の目に対応する2つのピークで構成されるとし、低明度のピークが「目」に相当するものと推察している。そして、顔候補領域全体の画素数に対する低明度のピークを構成する画素数をもって目画素の出現率とし、この目画素の出現率を特徴量としている。また、目の抽出については、テンプレートマッチングの手法も例示されている。   For example, in Patent Document 1, a face candidate area corresponding to the shape of a person's face is determined from photographed image data, and a face area is determined using a predetermined threshold value or the like based on a feature amount in the face candidate area. Techniques to do this are disclosed. In Patent Document 1, attention is paid to “eyes” as one of the feature amounts, and the brightness histogram of the face candidate region is composed of a high brightness skin portion and two peaks corresponding to low brightness eyes. It is assumed that the low lightness peak corresponds to “eyes”. Then, the number of pixels constituting a low brightness peak with respect to the number of pixels in the entire face candidate region is used as the appearance rate of the eye pixel, and the appearance rate of the eye pixel is used as the feature amount. Further, a template matching method is also exemplified for eye extraction.

また、特許文献2には、顔領域の抽出精度を補償するために、撮影時の光源状態(配光条件)の判別を行う方法が記載されている。特許文献2に記載の方法は、まず、撮影画像データから人物の顔候補領域を抽出し、抽出した顔候補領域の平均輝度の画像全体に対する偏りを算出し、偏倚量の大きさに応じて、光源状態(逆光撮影かストロボ近接撮影か)の判別を行い、顔領域としての判断基準の許容幅を調整する。特許文献2には、顔候補領域の抽出方法として、特開平6−67320号公報に記載の、色相と彩度の2次元ヒストグラムを用いる方法、特開平8−122944号公報、特開平8−184925号公報及び特開平9−138471号公報に記載のパターンマッチング、特開平9−138471号公報に記載のパターン検索方法などが引用されている。   Patent Document 2 describes a method for determining a light source state (light distribution condition) at the time of photographing in order to compensate for the extraction accuracy of a face region. In the method described in Patent Document 2, first, a human face candidate area is extracted from captured image data, a bias of the average luminance of the extracted face candidate area with respect to the entire image is calculated, and depending on the magnitude of the bias amount, The light source state (backlight shooting or flash close-up shooting) is determined, and the allowable range of the determination criterion for the face area is adjusted. Japanese Patent Laid-Open No. 6-67320 discloses a method of using a two-dimensional histogram of hue and saturation, Japanese Patent Laid-Open No. 8-122944, and Japanese Patent Laid-Open No. 8-184925. The pattern matching described in Japanese Patent Laid-Open No. 9-138471 and the pattern search method described in Japanese Patent Laid-Open No. 9-138471 are cited.

更に、特許文献2には、顔以外の背景領域の除去方法として、特開平8−122944号公報及び特開平8−184925号公報に記載の、直線部分の比率、線対象性、画面外縁との接触率、濃度コントラスト、濃度変化のパターンや周期性を用いて判別する方法が引用されている。また、光源状態(配光条件)の判別には、明度の1次元ヒストグラムを用いる方法が記載されている。この方法は、逆光の場合は顔領域が暗く背景領域が明るい、ストロボ近接撮影の場合は顔領域が明るく背景領域が暗い、という経験則に基づいている。
特開平8−63597号公報 特開2000−148980号公報
Further, in Patent Document 2, as a method for removing a background area other than the face, the ratio of the straight line portion, the line object property, and the outer edge of the screen described in JP-A-8-122944 and JP-A-8-184925 are described. A method of determining using a contact rate, density contrast, density change pattern and periodicity is cited. In addition, a method using a one-dimensional histogram of brightness is described for determining the light source state (light distribution condition). This method is based on an empirical rule that the face area is dark and the background area is bright in the case of backlight, and the face area is bright and the background area is dark in the case of close-up flash photography.
JP-A-8-63597 JP 2000-148980 A

一般ユーザにより撮影された自然画像には、光源種や露光状態等の撮影環境が種々であるため、たとえ被写体が同一であっても、輝度分布、即ち、明度ヒストグラムの特性が変化してしまう。しかしながら、特許文献1に記載の技術は、撮影環境によって輝度分布が変化する点を考慮しておらず、その結果、顔の判別精度が十分ではないという問題があった。また、特許文献2に記載の技術は、典型的な逆光やストロボ近接撮影の場合には、顔領域の特定を補償する効果を達成することができるが、典型的な構図に当てはまらないと、補償効果が得られなくなるという問題があった。   A natural image taken by a general user has various shooting environments such as a light source type and an exposure state. Therefore, even if the subject is the same, the luminance distribution, that is, the characteristic of the brightness histogram changes. However, the technique described in Patent Document 1 does not take into account the fact that the luminance distribution changes depending on the shooting environment, and as a result, there is a problem that the face discrimination accuracy is not sufficient. In addition, the technique described in Patent Document 2 can achieve the effect of compensating for the identification of the face area in the case of typical backlighting or close-up flash photography, but if it does not apply to the typical composition, There was a problem that the effect could not be obtained.

本発明の課題は、撮影環境に関わらず、撮影画像データにおける顔の判別精度を向上させることである。   An object of the present invention is to improve face discrimination accuracy in photographed image data regardless of the photographing environment.

上記課題を解決するため、請求項1に記載の発明は、撮影画像データから画像信号を取得する取得工程と、前記取得された画像信号に基づいて、前記撮影画像データを所定の明度と色相の組み合わせからなる領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出する占有率算出工程と、前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別工程と、前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定工程と、前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別工程と、を含むことを特徴としている。   In order to solve the above-described problem, the invention according to claim 1 is an acquisition step of acquiring an image signal from captured image data, and the captured image data is converted to a predetermined brightness and hue based on the acquired image signal. An occupancy ratio calculating step of dividing the area into a combination area and calculating an occupancy ratio indicating a ratio of the entire captured image data for each of the divided areas, and the occupancy ratio of each of the calculated areas. A light distribution condition determining step for determining a light distribution condition at the time of shooting by performing an operation of multiplying a coefficient set in advance according to the above, and a person from the captured image data according to the determined light distribution condition A determination step of determining a processing condition for determining the face of the person, and a face determination step of performing a process of determining a person's face from the captured image data according to the determined processing condition. There.

請求項2に記載の発明は、撮影画像データから画像信号を取得する取得工程と、前記取得された画像信号に基づいて、前記撮影画像データを、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出する占有率算出工程と、前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別工程と、前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定工程と、前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別工程と、を含むことを特徴としている。   The invention according to claim 2 is an acquisition step of acquiring an image signal from the captured image data, and based on the acquired image signal, the captured image data is converted to a distance from the outer edge of the screen of the captured image data. An occupancy ratio calculating step for dividing an area into light intensity combinations and calculating an occupancy ratio indicating a ratio of the entire captured image data for each of the divided areas, and the calculated occupancy ratio of each area A light distribution condition determining step for determining a light distribution condition at the time of photographing by performing an operation of multiplying a coefficient set in advance according to the photographing condition, and the photographing according to the determined light distribution condition. A determination step for determining a processing condition for determining a person's face from image data; and a face determination step for performing a process for determining a person's face from the captured image data according to the determined processing condition. It is characterized by a door.

請求項3に記載の発明は、撮影画像データから画像信号を取得する取得工程と、前記取得された画像信号に基づいて、撮影画像データを、所定の明度と色相の組み合わせからなる領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す第1の占有率を算出するとともに、撮影画像データを、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す第2の占有率を算出する占有率算出工程と、前記算出された第1の占有率及び第2の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別工程と、前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定工程と、前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別工程と、を含むことを特徴としている。   According to a third aspect of the present invention, an acquisition step of acquiring an image signal from the captured image data, and the captured image data is divided into regions composed of combinations of predetermined brightness and hue based on the acquired image signal. For each of the divided areas, a first occupancy ratio indicating the ratio of the entire captured image data is calculated, and the captured image data is calculated from a combination of the distance from the outer edge of the captured image data and the brightness. An occupancy ratio calculating step of calculating a second occupancy ratio indicating the ratio of the entire captured image data for each of the divided areas, and the calculated first occupancy ratio and A light distribution condition determining step for determining a light distribution condition at the time of photographing by performing an operation of multiplying the second occupation ratio by a coefficient set in advance according to the photographing conditions, and the determined light distribution condition. Depending on A determination step of determining a processing condition for determining a person's face from the captured image data; and a face determination step of performing a process of determining a person's face from the captured image data according to the determined processing condition. It is characterized by including.

請求項4に記載の発明は、請求項1〜3の何れか一項に記載の画像処理方法において、前記配光条件判別工程では、前記演算を行うことにより、配光条件を特定するための指標が算出され、その算出された指標に基づいて配光条件が判別され、前記決定工程では、前記算出された指標の値に応じて、顔判別処理の処理条件の切り替え及び/又は調整が行われることを特徴としている。   According to a fourth aspect of the present invention, in the image processing method according to any one of the first to third aspects, in the light distribution condition determining step, the light distribution condition is specified by performing the calculation. An index is calculated, and a light distribution condition is determined based on the calculated index. In the determination step, processing conditions for face determination processing are switched and / or adjusted according to the calculated index value. It is characterized by being.

請求項5に記載の発明は、請求項1〜4の何れか一項に記載の画像処理方法において、前記顔判別工程における判別結果及び/又は配光条件に応じて、前記撮影画像データに所定の画像処理を施す画像処理工程を含むことを特徴としている。   According to a fifth aspect of the present invention, in the image processing method according to any one of the first to fourth aspects, the captured image data is predetermined according to a determination result in the face determination step and / or a light distribution condition. And an image processing step for performing the image processing.

請求項6に記載の発明は、請求項1〜5の何れか一項に記載の画像処理方法において、前記決定工程では、前記判別された配光条件に応じて、前記撮影画像データから人物の顔候補領域を抽出するための抽出条件が決定され、前記顔判別工程では、前記決定された顔候補領域の抽出条件に従って、前記撮影画像データから人物の顔候補領域が抽出され、その抽出された顔候補領域に対して顔判別処理が行われることを特徴としている。   According to a sixth aspect of the present invention, in the image processing method according to any one of the first to fifth aspects, in the determining step, a person's image is determined from the captured image data according to the determined light distribution condition. An extraction condition for extracting a face candidate area is determined, and in the face determination step, a human face candidate area is extracted from the photographed image data in accordance with the determined face candidate area extraction condition, and the extracted face candidate area is extracted. It is characterized in that face discrimination processing is performed on the face candidate area.

請求項7に記載の発明は、請求項6に記載の画像処理方法において、前記決定工程では、前記判別された配光条件に応じて、前記顔候補領域から抽出する特徴量の抽出条件が決定され、前記顔判別工程では、前記決定された特徴量の抽出条件に従って、前記顔候補領域から特徴量が抽出され、その抽出された特徴量に基づいて顔判別処理が行われることを特徴としている。   According to a seventh aspect of the present invention, in the image processing method according to the sixth aspect, in the determining step, an extraction condition for the feature amount extracted from the face candidate region is determined according to the determined light distribution condition. In the face discrimination step, a feature quantity is extracted from the face candidate area according to the determined feature quantity extraction condition, and a face discrimination process is performed based on the extracted feature quantity. .

請求項8に記載の発明は、請求項7に記載の画像処理方法において、前記決定工程では、前記判別された配光条件に応じて、前記顔候補領域から抽出する特徴量が決定されることを特徴としている。   According to an eighth aspect of the present invention, in the image processing method according to the seventh aspect, in the determining step, a feature amount to be extracted from the face candidate region is determined according to the determined light distribution condition. It is characterized by.

請求項9に記載の発明は、請求項7又は8に記載の画像処理方法において、前記決定工程では、前記判別された配光条件に応じて、前記特徴量に基づいて前記顔候補領域が人物の顔であるか否かを判定するための顔判定処理条件が決定され、前記顔判別工程では、前記決定された顔判定処理条件に従って顔判別処理が行われることを特徴としている。   According to a ninth aspect of the present invention, in the image processing method according to the seventh or eighth aspect, in the determination step, the face candidate region is a person based on the feature amount according to the determined light distribution condition. A face determination process condition for determining whether or not the face is determined is determined, and in the face determination step, face determination processing is performed according to the determined face determination process condition.

請求項10に記載の発明は、請求項1〜9の何れか一項に記載の画像処理方法において、前記顔判別工程では、ニューラルネットワークを用いて顔判別処理が行われることを特徴としている。   According to a tenth aspect of the present invention, in the image processing method according to any one of the first to ninth aspects, the face discrimination process is performed using a neural network in the face discrimination step.

請求項11に記載の発明は、撮影画像データから画像信号を取得する取得手段と、前記取得された画像信号に基づいて、前記撮影画像データを所定の明度と色相の組み合わせからなる領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出する占有率算出手段と、前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別手段と、前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定手段と、前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別手段と、を備えることを特徴としている。   According to an eleventh aspect of the present invention, an acquisition unit that acquires an image signal from captured image data, and the captured image data are divided into regions including combinations of predetermined brightness and hue based on the acquired image signal. An occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of the entire captured image data for each of the divided areas, and the calculated occupancy ratio of each area are set in advance according to the imaging conditions. A light distribution condition determining means for determining a light distribution condition at the time of shooting by performing an operation of multiplying by a coefficient, and for determining a person's face from the captured image data according to the determined light distribution condition; The image processing apparatus includes: a determination unit that determines a processing condition; and a face determination unit that performs a process of determining a person's face from the captured image data according to the determined processing condition.

請求項12に記載の発明は、撮影画像データから画像信号を取得する取得手段と、前記取得された画像信号に基づいて、前記撮影画像データを、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出する占有率算出手段と、前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別手段と、前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定手段と、前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別手段と、を備えることを特徴としている。   According to a twelfth aspect of the present invention, an acquisition unit that acquires an image signal from captured image data, and based on the acquired image signal, the captured image data is converted into a distance from an outer edge of a screen of the captured image data. Occupancy rate calculating means that divides into predetermined regions each consisting of a combination of brightness and calculates an occupancy rate indicating the proportion of the entire captured image data for each of the divided regions, and the calculated occupancy rate of each region And a light distribution condition determining means for determining a light distribution condition at the time of shooting by performing an operation of multiplying a preset coefficient according to the shooting condition, and the shooting according to the determined light distribution condition. Determining means for determining processing conditions for determining a person's face from image data; and face determining means for performing processing for determining a person's face from the captured image data according to the determined processing conditions. It is characterized in Rukoto.

請求項13に記載の発明は、撮影画像データから画像信号を取得する取得手段と、前記取得された画像信号に基づいて、撮影画像データを、所定の明度と色相の組み合わせからなる領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す第1の占有率を算出するとともに、撮影画像データを、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す第2の占有率を算出する占有率算出手段と、前記算出された第1の占有率及び第2の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別手段と、前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定手段と、前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別手段と、を備えることを特徴としている。   According to the thirteenth aspect of the present invention, the acquisition means for acquiring the image signal from the captured image data, and the captured image data are divided into regions composed of combinations of predetermined brightness and hue based on the acquired image signal. For each of the divided areas, a first occupancy ratio indicating the ratio of the entire captured image data is calculated, and the captured image data is calculated from a combination of the distance from the outer edge of the captured image data and the brightness. Occupancy ratio calculating means for calculating a second occupancy ratio indicating the ratio of the entire captured image data for each of the divided areas, and the calculated first occupancy ratio and A light distribution condition determining unit that determines a light distribution condition at the time of photographing by performing an operation of multiplying the second occupation ratio by a coefficient set in advance according to the photographing condition, and the determined light distribution condition. According Determining means for determining processing conditions for determining a person's face from the captured image data; and face determining means for performing processing for determining a person's face from the captured image data according to the determined processing conditions; It is characterized by having.

請求項14に記載の発明は、請求項11〜13の何れか一項に記載の画像処理装置において、前記配光条件判別手段は、前記演算を行うことにより、配光条件を特定するための指標を算出し、その算出された指標に基づいて配光条件を判別し、前記決定手段は、前記算出された指標の値に応じて、顔判別処理の処理条件の切り替え及び/又は調整を行うことを特徴としている。   The invention according to claim 14 is the image processing apparatus according to any one of claims 11 to 13, wherein the light distribution condition determining means performs the calculation to identify the light distribution condition. An index is calculated, the light distribution condition is determined based on the calculated index, and the determination unit switches and / or adjusts the processing condition of the face determination process according to the calculated index value. It is characterized by that.

請求項15に記載の発明は、請求項11〜14の何れか一項に記載の画像処理装置において、前記顔判別手段による判別結果及び/又は配光条件に応じて、前記撮影画像データに所定の画像処理を施す画像処理手段を備えることを特徴としている。   According to a fifteenth aspect of the present invention, in the image processing device according to any one of the eleventh to fourteenth aspects, the captured image data is predetermined according to a determination result by the face determination unit and / or a light distribution condition. The image processing means for performing the image processing is provided.

請求項16に記載の発明は、請求項11〜15の何れか一項に記載の画像処理装置において、前記決定手段は、前記判別された配光条件に応じて、前記撮影画像データから人物の顔候補領域を抽出するための抽出条件を決定し、前記顔判別手段は、前記決定された顔候補領域の抽出条件に従って、前記撮影画像データから人物の顔候補領域を抽出し、その抽出された顔候補領域に対して顔判別処理を行うことを特徴としている。   According to a sixteenth aspect of the present invention, in the image processing device according to any one of the eleventh to fifteenth aspects, the determining unit is configured to detect a person from the captured image data according to the determined light distribution condition. An extraction condition for extracting a face candidate area is determined, and the face discriminating means extracts a human face candidate area from the photographed image data in accordance with the determined face candidate area extraction condition, and the extracted It is characterized in that face discrimination processing is performed on the face candidate area.

請求項17に記載の発明は、請求項16に記載の画像処理装置において、前記決定手段は、前記判別された配光条件に応じて、前記顔候補領域から抽出する特徴量の抽出条件を決定し、前記顔判別手段は、前記決定された特徴量の抽出条件に従って、前記顔候補領域から特徴量を抽出し、その抽出された特徴量に基づいて顔判別処理を行うことを特徴としている。   According to a seventeenth aspect of the present invention, in the image processing apparatus according to the sixteenth aspect, the determination unit determines a feature amount extraction condition to be extracted from the face candidate region in accordance with the determined light distribution condition. The face discriminating means extracts a feature amount from the face candidate region in accordance with the determined feature amount extraction condition, and performs face discrimination processing based on the extracted feature amount.

請求項18に記載の発明は、請求項17に記載の画像処理装置において、前記決定手段は、前記判別された配光条件に応じて、前記顔候補領域から抽出する特徴量を決定することを特徴としている。   According to an eighteenth aspect of the present invention, in the image processing apparatus according to the seventeenth aspect, the determining unit determines a feature amount to be extracted from the face candidate region according to the determined light distribution condition. It is a feature.

請求項19に記載の発明は、請求項17又は18に記載の画像処理装置において、前記決定手段は、前記判別された配光条件に応じて、前記特徴量に基づいて前記顔候補領域が人物の顔であるか否かを判定するための顔判定処理条件を決定し、前記顔判別手段は、前記決定された顔判定処理条件に従って顔判別処理を行うことを特徴としている。   According to a nineteenth aspect of the present invention, in the image processing apparatus according to the seventeenth or eighteenth aspect, the determining unit determines that the face candidate region is a person based on the feature amount according to the determined light distribution condition. A face determination process condition for determining whether or not the face is determined is determined, and the face determination unit performs a face determination process according to the determined face determination process condition.

請求項20に記載の発明は、請求項11〜19の何れか一項に記載の画像処理装置において、前記顔判別手段は、ニューラルネットワークを用いて顔判別処理を行うことを特徴としている。   According to a twentieth aspect of the present invention, in the image processing device according to any one of the eleventh to nineteenth aspects, the face discrimination means performs a face discrimination process using a neural network.

請求項21に記載の発明は、画像処理を実行するコンピュータに、撮影画像データから画像信号を取得する取得機能と、前記取得された画像信号に基づいて、前記撮影画像データを所定の明度と色相の組み合わせからなる領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出する占有率算出機能と、前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別機能と、前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定機能と、前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別機能と、を実現させるための画像処理プログラムである。   According to a twenty-first aspect of the present invention, an acquisition function for acquiring an image signal from captured image data is transmitted to a computer that executes image processing, and the captured image data is converted into predetermined brightness and hue based on the acquired image signal. An occupancy ratio calculation function for calculating an occupancy ratio indicating a ratio of the entire captured image data for each of the divided areas, and the calculated occupancy ratio of each area. A light distribution condition determining function for determining a light distribution condition at the time of photographing by performing an operation of multiplying a coefficient set in advance according to the condition, and from the photographed image data according to the determined light distribution condition A determination function for determining a processing condition for determining a person's face and a face determination function for performing a process of determining a person's face from the captured image data according to the determined processing condition are realized. Is because image processing program.

請求項22に記載の発明は、画像処理を実行するコンピュータに、撮影画像データから画像信号を取得する取得機能と、前記取得された画像信号に基づいて、前記撮影画像データを、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出する占有率算出機能と、前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別機能と、前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定機能と、前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別機能と、を実現させるための画像処理プログラムである。   According to a twenty-second aspect of the present invention, in a computer that executes image processing, an acquisition function for acquiring an image signal from captured image data, and the captured image data is converted into the captured image data based on the acquired image signal. An occupancy ratio calculating function that divides the predetermined area composed of a combination of the distance from the outer edge of the screen and brightness and calculates an occupancy ratio indicating the ratio of the entire captured image data for each of the divided areas; and A light distribution condition determining function for determining a light distribution condition at the time of photographing by performing an operation of multiplying the calculated occupancy of each area by a coefficient set in advance according to the photographing condition, and the determined distribution A determination function for determining a processing condition for determining a person's face from the photographed image data according to light conditions, and a person's face from the photographed image data according to the determined processing condition. A face discrimination function for performing a process of an image processing program for realizing.

請求項23に記載の発明は、画像処理を実行するコンピュータに、撮影画像データから画像信号を取得する取得機能と、前記取得された画像信号に基づいて、撮影画像データを、所定の明度と色相の組み合わせからなる領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す第1の占有率を算出するとともに、撮影画像データを、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す第2の占有率を算出する占有率算出機能と、前記算出された第1の占有率及び第2の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別機能と、前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定機能と、前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別機能と、を実現させるための画像処理プログラムである。   According to a twenty-third aspect of the present invention, an acquisition function for acquiring an image signal from captured image data is transmitted to a computer that executes image processing, and the captured image data is converted into predetermined brightness and hue based on the acquired image signal. And a first occupancy ratio indicating the ratio of the entire captured image data for each of the divided regions is calculated, and the captured image data is converted into an outer edge of the screen of the captured image data. An occupancy ratio calculation function that divides a predetermined area composed of a combination of a distance from the image and a brightness and calculates a second occupancy ratio indicating the ratio of the entire captured image data for each of the divided areas; A light distribution condition discriminator for determining a light distribution condition at the time of photographing by performing an operation of multiplying the first occupancy ratio and the second occupancy ratio by a coefficient set in advance according to the photographing condition. And a determination function for determining a processing condition for determining a person's face from the photographed image data according to the determined light distribution condition, and a person's character from the photographed image data according to the determined processing condition. An image processing program for realizing a face discrimination function for performing face discrimination processing.

請求項24に記載の発明は、請求項21〜23の何れか一項に記載の画像処理プログラムにおいて、前記配光条件判別機能を実現させる際に、前記演算を行うことにより、配光条件を特定するための指標を算出し、その算出された指標に基づいて配光条件を判別し、前記決定機能を実現させる際に、前記算出された指標の値に応じて、顔判別処理の処理条件の切り替え及び/又は調整を行うことを特徴としている。   According to a twenty-fourth aspect of the present invention, in the image processing program according to any one of the twenty-first to twenty-third aspects, the light distribution condition is determined by performing the calculation when the light distribution condition determining function is realized. An index for identification is calculated, a light distribution condition is determined based on the calculated index, and when realizing the determination function, the processing condition of the face determination process according to the calculated index value Switching and / or adjustment.

請求項25に記載の発明は、請求項21〜24の何れか一項に記載の画像処理プログラムにおいて、前記顔判別機能による判別結果及び/又は配光条件に応じて、前記撮影画像データに所定の画像処理を施す画像処理機能を実現することを特徴としている。   According to a twenty-fifth aspect of the present invention, in the image processing program according to any one of the twenty-first to twenty-fourth aspects, the captured image data is predetermined according to a determination result by the face determination function and / or a light distribution condition. It is characterized by realizing an image processing function for performing the image processing.

請求項26に記載の発明は、請求項21〜25の何れか一項に記載の画像処理プログラムにおいて、前記決定機能を実現させる際に、前記判別された配光条件に応じて、前記撮影画像データから人物の顔候補領域を抽出するための抽出条件を決定し、前記顔判別機能を実現させる際に、前記決定された顔候補領域の抽出条件に従って、前記撮影画像データから人物の顔候補領域を抽出し、その抽出された顔候補領域に対して顔判別処理を行うことを特徴としている。   According to a twenty-sixth aspect of the present invention, in the image processing program according to any one of the twenty-first to twenty-fifth aspects, when the determination function is realized, the captured image is selected according to the determined light distribution condition. When an extraction condition for extracting a human face candidate area from data is determined and the face discrimination function is realized, the human face candidate area is extracted from the photographed image data according to the determined face candidate area extraction condition. Is extracted, and face discrimination processing is performed on the extracted face candidate region.

請求項27に記載の発明は、請求項26に記載の画像処理プログラムにおいて、前記決定機能を実現させる際に、前記判別された配光条件に応じて、前記顔候補領域から抽出する特徴量の抽出条件を決定し、前記顔判別機能を実現させる際に、前記決定された特徴量の抽出条件に従って、前記顔候補領域から特徴量を抽出し、その抽出された特徴量に基づいて顔判別処理を行うことを特徴としている。   According to a twenty-seventh aspect of the present invention, in the image processing program according to the twenty-sixth aspect, the feature amount extracted from the face candidate region according to the determined light distribution condition when the determination function is realized. When an extraction condition is determined and the face discrimination function is realized, a feature quantity is extracted from the face candidate region according to the determined feature quantity extraction condition, and a face discrimination process is performed based on the extracted feature quantity. It is characterized by performing.

請求項28に記載の発明は、請求項27に記載の画像処理プログラムにおいて、前記決定機能を実現させる際に、前記判別された配光条件に応じて、前記顔候補領域から抽出する特徴量を決定することを特徴としている。   According to a twenty-eighth aspect of the present invention, in the image processing program according to the twenty-seventh aspect, when the determination function is realized, a feature amount to be extracted from the face candidate region according to the determined light distribution condition is calculated. It is characterized by deciding.

請求項29に記載の発明は、請求項27又は28に記載の画像処理プログラムにおいて、前記決定機能を実現させる際に、前記判別された配光条件に応じて、前記特徴量に基づいて前記顔候補領域が人物の顔であるか否かを判定するための顔判定処理条件を決定し、前記顔判別機能を実現させる際に、前記決定された顔判定処理条件に従って顔判別処理を行うことを特徴としている。   According to a twenty-ninth aspect of the present invention, in the image processing program according to the twenty-seventh or twenty-eighth aspect, when the determination function is realized, the face is based on the feature amount according to the determined light distribution condition. Determining a face determination processing condition for determining whether or not the candidate region is a person's face, and performing the face determination processing according to the determined face determination processing condition when realizing the face determination function It is a feature.

請求項30に記載の発明は、請求項21〜29の何れか一項に記載の画像処理プログラムにおいて、前記顔判別機能を実現させる際に、ニューラルネットワークを用いて顔判別処理を行うことを特徴としている。   The invention according to claim 30 is the image processing program according to any one of claims 21 to 29, wherein the face discrimination function is performed using a neural network when the face discrimination function is realized. It is said.

請求項1、11、21に記載の発明によれば、撮影画像データから撮影時の配光条件を判別し、判別された配光条件に応じて、撮影画像データから人物の顔を判別するための処理条件を決定するようにしたことにより、顔の判別精度を向上させることができる。特に、撮影画像データの明度と色相の分布状態から配光条件を判別することにより、カラー画像における配光条件の判別精度を向上させることができる。   According to the first, eleventh, and twenty-first aspects of the present invention, the light distribution condition at the time of shooting is determined from the captured image data, and the person's face is determined from the captured image data according to the determined light distribution condition. By determining the processing conditions, it is possible to improve the face discrimination accuracy. In particular, by determining the light distribution condition from the brightness and hue distribution state of the captured image data, it is possible to improve the determination accuracy of the light distribution condition in the color image.

請求項2、12、22に記載の発明によれば、撮影画像データから撮影時の配光条件を判別し、判別された配光条件に応じて、撮影画像データから人物の顔を判別するための処理条件を決定するようにしたことにより、顔の判別精度を向上させることができる。特に、撮影画像データの明度の分布位置による構図的な特徴から配光条件を判別することにより、撮影画像データがモノクロ画像であっても、配光条件の判別精度を向上させることができる。   According to the second, twelfth, and twenty-second aspects of the present invention, the light distribution condition at the time of shooting is determined from the captured image data, and the person's face is determined from the captured image data according to the determined light distribution condition. By determining the processing conditions, it is possible to improve the face discrimination accuracy. In particular, by determining the light distribution condition from the compositional feature of the brightness distribution position of the photographed image data, it is possible to improve the determination accuracy of the light distribution condition even if the photographed image data is a monochrome image.

請求項3、13、23に記載の発明によれば、撮影画像データから撮影時の配光条件を判別し、判別された配光条件に応じて、撮影画像データから人物の顔を判別するための処理条件を決定するようにしたことにより、顔の判別精度を向上させることができる。特に、撮影画像データの明度と色相の分布状態及び撮影画像データの明度の分布位置による構図的な特徴から配光条件を判別することにより、撮影画像データがカラー画像、モノクロ画像の何れであっても、配光条件の判別精度を向上させることができる。   According to the third, thirteenth and twenty-third aspects of the invention, the light distribution condition at the time of photographing is determined from the photographed image data, and the person's face is determined from the photographed image data according to the determined light distribution condition. By determining the processing conditions, it is possible to improve the face discrimination accuracy. In particular, the photographic image data is either a color image or a monochrome image by discriminating the light distribution conditions from the compositional characteristics of the brightness and hue distribution state of the photographic image data and the lightness distribution position of the photographic image data. In addition, it is possible to improve the discrimination accuracy of the light distribution condition.

請求項4、14、24に記載の発明によれば、配光条件を特定するための指標を算出し、その算出された指標の値に応じて、顔判別処理の処理条件を段階的又は連続的に調整可能にしたことにより、より木目細かい顔判別処理を行うことができるため、顔の判別精度を向上させることができる。   According to the invention described in claims 4, 14, and 24, an index for specifying the light distribution condition is calculated, and the processing condition of the face discrimination process is stepwise or continuous according to the calculated index value. By making the adjustment possible, it is possible to perform a finer face discrimination process, thereby improving the face discrimination accuracy.

請求項5、15、25に記載の発明によれば、高精度に判別された顔の判別結果及び/又は配光条件に応じて、撮影画像データに対して所定の画像処理が施されるため、高画質の画像を得ることができる。   According to the fifth, fifteenth and twenty-fifth aspects of the present invention, predetermined image processing is performed on the photographed image data in accordance with the face discrimination result and / or the light distribution condition discriminated with high accuracy. High-quality images can be obtained.

請求項6、16、26に記載の発明によれば、撮影画像データから配光条件に応じて顔候補領域を抽出し、抽出された顔候補領域が人物の顔であるか否かを判定することにより、配光条件に適した顔候補領域から顔を判定することができるため、顔候補領域の抽出精度を向上させるとともに、顔の判別精度を向上させることができる。   According to the invention described in claims 6, 16, and 26, a face candidate area is extracted from photographed image data according to a light distribution condition, and it is determined whether or not the extracted face candidate area is a human face. Thus, since the face can be determined from the face candidate area suitable for the light distribution condition, the face candidate area extraction accuracy can be improved and the face discrimination accuracy can be improved.

請求項7、17、27に記載の発明によれば、撮影時の配光条件に応じて、顔候補領域から抽出する特徴量の抽出条件を決定することにより、配光条件に適した抽出条件に従って、顔候補領域から特徴量を高精度に抽出することが可能である。これにより、顔の判別精度を向上させることができる。   According to the invention described in claims 7, 17 and 27, the extraction condition suitable for the light distribution condition is determined by determining the extraction condition of the feature amount extracted from the face candidate region according to the light distribution condition at the time of photographing. Accordingly, it is possible to extract the feature amount from the face candidate region with high accuracy. Thereby, the discrimination accuracy of a face can be improved.

請求項8、18、28に記載の発明によれば、撮影時の配光条件に応じて、顔候補領域から抽出する特徴量を決定することにより、配光条件に適した特徴量を高精度に抽出することが可能である。これにより、顔の判別精度を向上させることができる。   According to the invention described in claims 8, 18, and 28, the feature amount extracted from the face candidate region is determined according to the light distribution condition at the time of photographing, so that the feature amount suitable for the light distribution condition can be obtained with high accuracy. Can be extracted. Thereby, the discrimination accuracy of a face can be improved.

請求項9、19、29に記載の発明によれば、撮影時の配光条件に応じて、顔候補領域が顔であるか否かを判定するための顔判定処理条件を決定することにより、顔の判別精度を一層向上させることができる。   According to the invention described in claims 9, 19 and 29, by determining the face determination processing condition for determining whether or not the face candidate region is a face according to the light distribution condition at the time of shooting, The face discrimination accuracy can be further improved.

請求項10、20、30に記載の発明によれば、ニューラルネットワークを用いて顔判別処理を行うことにより、処理負荷が低く、簡易な手段で顔判別処理を実現することができる。   According to the tenth, twentieth and thirty aspects of the present invention, by performing the face discrimination process using a neural network, the face discrimination process can be realized with simple means with a low processing load.

以下、図面を参照して、本発明の実施形態を詳細に説明する。
まず、本実施形態における構成について説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
First, the configuration in the present embodiment will be described.

〈画像処理装置1の外観構成〉
図1は、本発明の実施形態における画像処理装置1の外観構成を示す斜視図である。図1に示すように、画像処理装置1には、筐体2の一側面に、感光材料を装填するためのマガジン装填部3が設けられている。筐体2の内側には、感光材料に露光する露光処理部4と、露光された感光材料を現像処理して乾燥し、プリントを作成するプリント作成部5が設けられている。プリント作成部5で作成されたプリントは、筐体2の他側面に設けられたトレー6に排出される。
<Appearance Configuration of Image Processing Apparatus 1>
FIG. 1 is a perspective view showing an external configuration of an image processing apparatus 1 according to an embodiment of the present invention. As shown in FIG. 1, the image processing apparatus 1 is provided with a magazine loading unit 3 for loading a photosensitive material on one side of a housing 2. An exposure processing unit 4 that exposes the photosensitive material and a print creation unit 5 that develops the exposed photosensitive material, dries it, and creates a print are provided inside the housing 2. The print created by the print creation unit 5 is discharged to a tray 6 provided on the other side of the housing 2.

また、筐体2の上部には、表示装置としてのCRT(Cathode Ray Tube)8、透過原稿を読み込む装置であるフィルムスキャナ部9、反射原稿入力装置10、操作部11が備えられている。さらに、筐体2には、各種記録媒体に記録された画像データを読み取り可能な画像読込部14、各種記録媒体に画像データを書き込み(記録)可能な画像書込部15が備えられている。また、筐体2の内部には、これらの各部を集中制御する制御部7が備えられている。   In addition, a CRT (Cathode Ray Tube) 8 serving as a display device, a film scanner unit 9 serving as a device for reading a transparent document, a reflective document input device 10, and an operation unit 11 are provided on the upper portion of the housing 2. The housing 2 further includes an image reading unit 14 that can read image data recorded on various recording media, and an image writing unit 15 that can write (record) image data on various recording media. In addition, a control unit 7 that centrally controls these units is provided inside the housing 2.

画像読込部14には、PCカード用アダプタ14a、フロッピー(登録商標)ディスク用アダプタ14bが備えられ、それぞれ、PCカード13a、フロッピー(登録商標)ディスク13bが差し込み可能になっている。PCカード13aには、例えば、デジタルカメラで撮像された画像データが記録されている。フロッピー(登録商標)ディスク13bには、例えば、デジタルカメラで撮像された画像データが記録されている。その他、画像データが記録可能な記録媒体としては、マルチメディアカード(登録商標)、メモリースティック(登録商標)、MD(Mini Disc)、CD−ROM(Compact Disc Read Only Memory)等が挙げられる。   The image reading unit 14 is provided with a PC card adapter 14a and a floppy (registered trademark) disk adapter 14b, and a PC card 13a and a floppy (registered trademark) disk 13b can be respectively inserted therein. For example, image data captured by a digital camera is recorded on the PC card 13a. For example, image data captured by a digital camera is recorded on the floppy (registered trademark) disk 13b. In addition, examples of the recording medium capable of recording image data include a multimedia card (registered trademark), a memory stick (registered trademark), an MD (Mini Disc), and a CD-ROM (Compact Disc Read Only Memory).

画像書込部15には、フロッピー(登録商標)ディスク用アダプタ15a、MO用アダプタ15b、光ディスク用アダプタ15cが備えられ、画像データが記録可能な記録媒体として、それぞれ、フロッピー(登録商標)ディスク16a、MO16b、光ディスク16cが差し込み可能になっている。光ディスク16cとしては、CD−R(Compact Disc-Recordable)、DVD−R(Digital Versatile Disk-Recordable)等がある。   The image writing unit 15 includes a floppy (registered trademark) disk adapter 15a, an MO adapter 15b, and an optical disk adapter 15c. A floppy (registered trademark) disk 16a is used as a recording medium capable of recording image data. , MO 16b and optical disc 16c can be inserted. Examples of the optical disk 16c include a CD-R (Compact Disc-Recordable), a DVD-R (Digital Versatile Disk-Recordable), and the like.

なお、図1では、操作部11、CRT8、フィルムスキャナ部9、反射原稿入力装置10、画像読込部14が、筐体2に一体的に備えられた構造となっているが、これらのいずれか1つ以上を別体として設けるようにしてもよい。   In FIG. 1, the operation unit 11, the CRT 8, the film scanner unit 9, the reflection original input device 10, and the image reading unit 14 are integrally provided in the housing 2. One or more may be provided separately.

また、図1に示した画像処理装置1では、感光材料に露光して現像してプリントを作成するものが例示されているが、プリント作成方式はこれに限定されず、例えば、インクジェット方式、電子写真方式、感熱方式、昇華方式等の方式を用いてもよい。   Further, in the image processing apparatus 1 shown in FIG. 1, there is exemplified an apparatus that creates a print by exposing to a photosensitive material and developing it, but the print creation system is not limited to this, for example, an inkjet system, an electronic system, etc. A method such as a photographic method, a thermal method, or a sublimation method may be used.

〈画像処理装置1の内部構成〉
図2に、画像処理装置1内部の主要部構成を示す。画像処理装置1は、図2に示すように、制御部7、露光処理部4、プリント作成部5、CRT8、フィルムスキャナ部9、反射原稿入力装置10、操作部11、画像読込部14、画像書込部15、通信手段(入力)32、通信手段(出力)33、データ蓄積手段71から構成される。
<Internal Configuration of Image Processing Apparatus 1>
FIG. 2 shows a main part configuration inside the image processing apparatus 1. As shown in FIG. 2, the image processing apparatus 1 includes a control unit 7, an exposure processing unit 4, a print creation unit 5, a CRT 8, a film scanner unit 9, a reflective original input device 10, an operation unit 11, an image reading unit 14, and an image. The writing unit 15 includes a communication unit (input) 32, a communication unit (output) 33, and a data storage unit 71.

制御部7は、マイクロコンピュータにより構成され、ROM(Read Only Memory)等の記憶部(図示略)に記憶されている画像処理プログラム等の各種制御プログラムと、CPU(Central Processing Unit)(図示略)との協働により、画像処理装置1を構成する各部の動作を統括的に制御する。   The control unit 7 includes a microcomputer, and various control programs such as an image processing program stored in a storage unit (not shown) such as a ROM (Read Only Memory), and a CPU (Central Processing Unit) (not shown). The operation of each part constituting the image processing apparatus 1 is comprehensively controlled in cooperation with the above.

制御部7は、画像処理部70を有し、操作部11からの入力信号(指令情報)に基づいて、フィルムスキャナ部9や反射原稿入力装置10により取得した画像データ、画像読込部14から読み込まれた画像データ、外部機器から通信手段(入力)32を介して入力された画像データに対して、所定の画像処理を施して出力用画像データを生成し、露光処理部4に出力する。また、画像処理部70は、画像処理された画像データに対して出力形態に応じた変換処理を施して出力する。画像処理部70の出力先としては、CRT8、画像書込部15、通信手段(出力)33等がある。   The control unit 7 includes an image processing unit 70, and reads image data acquired by the film scanner unit 9 or the reflection original input device 10 from the image reading unit 14 based on an input signal (command information) from the operation unit 11. The image data and the image data input from the external device via the communication means (input) 32 are subjected to predetermined image processing to generate output image data, which are output to the exposure processing unit 4. Further, the image processing unit 70 performs a conversion process corresponding to the output form on the image processed image data, and outputs the converted image data. Output destinations of the image processing unit 70 include the CRT 8, the image writing unit 15, the communication means (output) 33, and the like.

露光処理部4は、感光材料に画像の露光を行い、露光された感光材料をプリント作成部5に出力する。プリント作成部5は、露光された感光材料を現像処理して乾燥し、プリントP1、P2、P3を作成する。プリントP1は、サービスサイズ、ハイビジョンサイズ、パノラマサイズ等のプリントであり、プリントP2は、A4サイズのプリントであり、プリントP3は、名刺サイズのプリントである。   The exposure processing unit 4 exposes an image on the photosensitive material, and outputs the exposed photosensitive material to the print creating unit 5. The print creating unit 5 develops and exposes the exposed photosensitive material to create prints P1, P2, and P3. The print P1 is a service size, high-definition size, panoramic size print, the print P2 is an A4 size print, and the print P3 is a business card size print.

フィルムスキャナ部9は、アナログカメラにより撮像された現像済みのネガフィルムNやリバーサルフィルム等の透過原稿に記録された画像を読み取る。   The film scanner unit 9 reads an image recorded on a transparent original such as a developed negative film N or a reversal film taken by an analog camera.

反射原稿入力装置10は、フラットベッドスキャナ(図示略)により、プリントP(写真プリント、書画、各種の印刷物)に形成された画像を読み取る。   The reflection original input device 10 reads an image formed on a print P (photo print, document, various printed materials) by a flat bed scanner (not shown).

操作部11は、情報入力手段12を有する。情報入力手段12は、例えば、タッチパネル等により構成されており、情報入力手段12の押下信号を制御部7に出力する。なお、操作部11は、キーボードやマウス等を備えて構成するようにしてもよい。CRT8は、制御部7から入力された表示制御信号に従って、所要の表示処理を行う。   The operation unit 11 includes information input means 12. The information input unit 12 is configured by a touch panel, for example, and outputs a pressing signal of the information input unit 12 to the control unit 7. Note that the operation unit 11 may be configured to include a keyboard, a mouse, and the like. The CRT 8 performs a required display process according to the display control signal input from the control unit 7.

画像読込部14は、画像転送手段30として、PCカード用アダプタ14a、フロッピー(登録商標)ディスク用アダプタ14b等を有し、PCカード用アダプタ14aに差し込まれたPCカード13aや、フロッピー(登録商標)ディスク用アダプタ14bに差し込まれたフロッピー(登録商標)ディスク13bに記録された画像データを読み出して制御部7に転送する。PCカード用アダプタ14aとしては、例えばPCカードリーダやPCカードスロット等が用いられる。   The image reading unit 14 includes, as the image transfer means 30, a PC card adapter 14a, a floppy (registered trademark) disk adapter 14b, and the like, and the PC card 13a inserted into the PC card adapter 14a or a floppy (registered trademark). ) Image data recorded on the floppy (registered trademark) disk 13b inserted into the disk adapter 14b is read out and transferred to the control unit 7. For example, a PC card reader or a PC card slot is used as the PC card adapter 14a.

画像書込部15は、画像搬送部31として、フロッピー(登録商標)ディスク用アダプタ15a、MO用アダプタ15b、光ディスク用アダプタ15cを備えている。画像書込部15は、制御部7から入力される書込信号に従って、フロッピー(登録商標)ディスク用アダプタ15aに差し込まれたフロッピー(登録商標)ディスク16a、MO用アダプタ15bに差し込まれたMO16b、光ディスク用アダプタ15cに差し込まれた光ディスク16cに、生成された画像データを書き込む。   The image writing unit 15 includes, as the image conveying unit 31, a floppy (registered trademark) disk adapter 15a, an MO adapter 15b, and an optical disk adapter 15c. In accordance with a write signal input from the control unit 7, the image writing unit 15 includes a floppy (registered trademark) disk 16a inserted into the floppy (registered trademark) disk adapter 15a, an MO 16b inserted into the MO adapter 15b, The generated image data is written to the optical disk 16c inserted into the optical disk adapter 15c.

通信手段(入力)32は、画像処理装置1が設置された施設内の別のコンピュータや、インターネット等を介して接続された遠方のコンピュータから、撮像画像を表す画像データやプリント命令信号を受信する。   The communication means (input) 32 receives image data representing a captured image and a print command signal from another computer in the facility where the image processing apparatus 1 is installed, or a distant computer connected via the Internet or the like. .

通信手段(出力)33は、画像処理を施した後の撮影画像を表す画像データと注文情報を、画像処理装置1が設置された施設内の他のコンピュータや、インターネット等を介して接続された遠方のコンピュータに対して送信する。   The communication means (output) 33 is connected to the image data representing the photographed image after the image processing and the order information via another computer in the facility where the image processing apparatus 1 is installed, the Internet, or the like. Send to a remote computer.

データ蓄積手段71は、画像データとそれに対応する注文情報(どの駒の画像から何枚プリントを作成するかの情報、プリントサイズの情報等)とを記憶し、順次蓄積する。   The data storage means 71 stores and sequentially stores image data and corresponding order information (information about how many prints are to be created from images of which frames, information on print sizes, etc.).

〈画像処理部70の構成〉
図3に、画像処理部70内部の主要部構成を示す。画像処理部70は、図3に示すように、フィルムスキャンデータ処理部701、反射原稿スキャンデータ処理部702、画像データ書式解読処理部703、画像調整処理部704、CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708から構成される。
<Configuration of Image Processing Unit 70>
FIG. 3 shows a main part configuration inside the image processing unit 70. As shown in FIG. 3, the image processing unit 70 includes a film scan data processing unit 701, a reflection original scan data processing unit 702, an image data format decoding processing unit 703, an image adjustment processing unit 704, a CRT specific processing unit 705, a printer specific A processing unit (1) 706, a printer specific processing unit (2) 707, and an image data format creation processing unit 708 are configured.

フィルムスキャンデータ処理部701は、フィルムスキャナ部9から入力された画像データに対し、フィルムスキャナ部9固有の校正操作、ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、粒状ノイズ除去、鮮鋭化強調等を施し、画像調整処理部704に出力する。また、フィルムスキャンデータ処理部701は、フィルムサイズ、ネガポジ種別、フィルムに光学的或いは磁気的に記録されたISO(International Organization for Standardization)感度、メーカー名、主要被写体に関わる情報・撮影条件に関する情報(例えばAPS(Advanced Photo System)の記載情報内容)等も併せて画像調整処理部704に出力する。   A film scan data processing unit 701 performs a calibration operation specific to the film scanner unit 9, negative / positive reversal in the case of a negative document, dust flaw removal, gray balance adjustment, contrast adjustment, and granular noise for the image data input from the film scanner unit 9. Removal, sharpening, and the like are performed, and the result is output to the image adjustment processing unit 704. The film scan data processing unit 701 also includes information on film size, negative / positive type, ISO (International Organization for Standardization) sensitivity recorded on the film optically or magnetically, manufacturer name, information on main subject, and shooting conditions ( For example, the description information content of APS (Advanced Photo System) is also output to the image adjustment processing unit 704.

反射原稿スキャンデータ処理部702は、反射原稿入力装置10から入力された画像データに対し、反射原稿入力装置10固有の校正操作、ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、ノイズ除去、鮮鋭化強調等を施し、画像調整処理部704に出力する。   The reflection document scan data processing unit 702 performs a calibration operation unique to the reflection document input device 10, negative / positive reversal in the case of a negative document, dust flaw removal, gray balance adjustment, and contrast adjustment for the image data input from the reflection document input device 10. , Noise removal, sharpening enhancement, and the like, and output to the image adjustment processing unit 704.

画像データ書式解読処理部703は、画像転送手段30、通信手段(入力)32から入力された画像データのデータ書式に従って、圧縮符号の復元、色データの表現方法の変換等を行い、画像処理部70内の演算に適したデータ形式に変換し、画像調整処理部704に出力する。   An image data format decoding processing unit 703 performs compression code restoration, color data expression method conversion, and the like according to the data format of the image data input from the image transfer unit 30 and the communication unit (input) 32, and the image processing unit The data is converted into a data format suitable for the calculation in 70 and output to the image adjustment processing unit 704.

画像調整処理部704は、操作部11又は制御部7から入力される指令情報に基づいて、フィルムスキャナ部9、反射原稿入力装置10、画像転送手段30、通信手段(入力)32から受け取った画像データに対して各種画像処理を行い、CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708、データ蓄積手段71へ処理済みの画像データを出力する。本実施形態の画像調整処理部704で実行される画像処理については、後に図4〜図18を参照して詳細に説明する。   The image adjustment processing unit 704 receives the image received from the film scanner unit 9, the reflective original input device 10, the image transfer unit 30, and the communication unit (input) 32 based on the command information input from the operation unit 11 or the control unit 7. Various image processing is performed on the data, and the CRT specific processing unit 705, the printer specific processing unit (1) 706, the printer specific processing unit (2) 707, the image data format creation processing unit 708, and the data storage unit 71 have been processed. Output image data. Image processing executed by the image adjustment processing unit 704 of the present embodiment will be described in detail later with reference to FIGS.

CRT固有処理部705は、画像調整処理部704から入力された画像データに対して、画素数変更やカラーマッチング等の処理を施し、制御情報等の表示が必要な情報及び合成した表示用の画像データをCRT8に出力する。   The CRT specific processing unit 705 performs processing such as changing the number of pixels and color matching on the image data input from the image adjustment processing unit 704, and information that needs to be displayed, such as control information, and a combined display image. Data is output to CRT8.

プリンタ固有処理部(1)706は、画像調整処理部704から入力された画像データに対して、プリンタ固有の校正処理、カラーマッチング、画素数変更等を行い、露光処理部4に出力する。   A printer-specific processing unit (1) 706 performs printer-specific calibration processing, color matching, pixel number change, and the like on the image data input from the image adjustment processing unit 704, and outputs the result to the exposure processing unit 4.

画像処理装置1に、大判インクジェットプリンタ等の外部プリンタ34が接続されている場合には、接続されたプリンタ毎にプリンタ固有処理部(2)707が設けられている。このプリンタ固有処理部(2)707は、画像調整処理部704から入力された画像データに対して、適正なプリンタ固有の校正処理、カラーマッチング、画素数変更等を行い、外部プリンタ34に出力する。   When an external printer 34 such as a large-format ink jet printer is connected to the image processing apparatus 1, a printer specific processing unit (2) 707 is provided for each connected printer. The printer-specific processing unit (2) 707 performs appropriate printer-specific calibration processing, color matching, pixel number change, and the like on the image data input from the image adjustment processing unit 704, and outputs the result to the external printer 34. .

画像データ書式作成処理部708は、画像調整処理部704から入力された画像データに対して、JPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、Exif(Exchangeable Image File Format)等に代表される各種の汎用画像フォーマットへの変換を行い、画像搬送部31、通信手段(出力)33に出力する。   The image data format creation processing unit 708 is represented by JPEG (Joint Photographic Experts Group), TIFF (Tagged Image File Format), Exif (Exchangeable Image File Format) and the like for the image data input from the image adjustment processing unit 704. Are converted into various general-purpose image formats, and output to the image transport unit 31 and the communication means (output) 33.

なお、フィルムスキャンデータ処理部701、反射原稿スキャンデータ処理部702、画像データ書式解読処理部703、画像調整処理部704、CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708という区分は、画像処理部70の機能の理解を助けるために設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば、単一のCPUにおけるソフトウエア処理の種類の区分として実現されてもよい。また、本実施形態における画像処理装置1は、上述の構成に限定されるものではなく、デジタルフォトプリンタ、プリンタドライバ、各種の画像処理ソフトのプラグイン等、種々の形態に適用することができる。   A film scan data processing unit 701, a reflection original scan data processing unit 702, an image data format decoding processing unit 703, an image adjustment processing unit 704, a CRT specific processing unit 705, a printer specific processing unit (1) 706, a printer specific processing unit. (2) The category 707 and the image data format creation processing unit 708 are provided to help understanding of the function of the image processing unit 70, and need not be realized as a physically independent device. Alternatively, it may be realized as a type of software processing in a single CPU. Further, the image processing apparatus 1 in the present embodiment is not limited to the above-described configuration, and can be applied to various forms such as a digital photo printer, a printer driver, and various image processing software plug-ins.

次に、本実施形態における動作について説明する。
まず、図4のフローチャートを参照して、画像調整処理部704において実行される画像処理全体の流れを説明する。
Next, the operation in this embodiment will be described.
First, the overall flow of image processing executed by the image adjustment processing unit 704 will be described with reference to the flowchart of FIG.

まず、フィルムスキャナ部9、反射原稿入力装置10、画像転送手段30、通信手段(入力)32等を介して、画像処理対象の撮影画像データの画像信号が取得される(ステップS1)。次いで、ステップS1で取得された画像信号に基づいて、撮影画像データが所定の画像領域に分割され、各分割領域が撮影画像データ全体に占める割合を示す占有率を算出する占有率算出処理が行われる(ステップS2)。ステップS2の占有率算出処理については、後に図5及び図11を参照して詳細に説明する。   First, an image signal of photographic image data to be image processed is acquired via the film scanner unit 9, the reflective original input device 10, the image transfer means 30, the communication means (input) 32, and the like (step S1). Next, based on the image signal acquired in step S1, the captured image data is divided into predetermined image areas, and an occupation ratio calculation process is performed to calculate an occupation ratio indicating the ratio of each divided area to the entire captured image data. (Step S2). The occupation rate calculation process in step S2 will be described in detail later with reference to FIGS.

次いで、ステップS2において算出された占有率と、撮影条件に応じて予め設定された係数に基づいて、配光条件(光源状態)を特定するための指標(指標1〜5)が算出され、その算出された指標に基づいて撮影時の配光条件(順光、逆光、ストロボの何れか)が判別される(ステップS3)。ここで、配光条件を特定するための指標とは、撮影時の配光条件を定量的に表す数値である。ステップS3における指標算出処理及び配光条件の判別処理は、後に詳細に説明する。   Next, based on the occupation ratio calculated in step S2 and a coefficient set in advance according to the shooting conditions, an index (index 1 to 5) for specifying the light distribution condition (light source state) is calculated. Based on the calculated index, a light distribution condition (any one of forward light, backlight, strobe) at the time of photographing is determined (step S3). Here, the index for specifying the light distribution condition is a numerical value that quantitatively represents the light distribution condition at the time of photographing. The index calculation process and the light distribution condition determination process in step S3 will be described in detail later.

次いで、ステップS3で判別された配光条件に応じて、撮影画像データから人物の顔を判別する顔判別処理の処理条件が決定され(ステップS4)、その決定された処理条件に従って顔判別処理が行われる(ステップS5)。ステップS4における処理条件の決定については、後に詳細に説明する。また、ステップS5の顔判別処理については、後に図17及び図18を参照して詳細に説明する。   Next, in accordance with the light distribution conditions determined in step S3, processing conditions for face determination processing for determining a person's face from the captured image data are determined (step S4), and face determination processing is performed in accordance with the determined processing conditions. Performed (step S5). The determination of the processing conditions in step S4 will be described in detail later. In addition, the face discrimination process in step S5 will be described in detail later with reference to FIGS.

〈占有率算出処理〉
次に、図5のフローチャートを参照して、図4のステップS2に示した占有率算出処理について詳細に説明する。
<Occupancy rate calculation process>
Next, the occupation rate calculation process shown in step S2 of FIG. 4 will be described in detail with reference to the flowchart of FIG.

まず、撮影画像データのRGB値がHSV表色系に変換される(ステップS10)。図6は、RGBからHSV表色系に変換することにより色相値、彩度値、明度値を得る変換プログラム(HSV変換プログラム)の一例を、プログラムコード(c言語)により示したものである。図6に示すHSV変換プログラムでは、入力画像データであるデジタル画像データの値を、InR、InG、InBと定義し、算出された色相値をOutHとし、スケールを0〜360と定義し、彩度値をOutS、明度値をOutVとし、単位を0〜255と定義している。   First, the RGB values of the photographed image data are converted into the HSV color system (step S10). FIG. 6 shows an example of a conversion program (HSV conversion program) that obtains a hue value, a saturation value, and a lightness value by converting from RGB to the HSV color system using program code (c language). In the HSV conversion program shown in FIG. 6, the values of the digital image data as the input image data are defined as InR, InG, and InB, the calculated hue value is defined as OutH, the scale is defined as 0 to 360, and the saturation The value is OutS, the brightness value is OutV, and the unit is defined as 0 to 255.

次いで、撮影画像データが、所定の明度と色相の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS11)。以下、撮影画像データの領域分割について詳細に説明する。   Next, the photographed image data is divided into regions composed of combinations of predetermined brightness and hue, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S11). Hereinafter, the area division of the captured image data will be described in detail.

明度(V)は、明度値が0〜25(v1)、26-50(v2)、51〜84(v3)、85〜169(v4)、170〜199(v5)、200〜224(v6)、225〜255(v7)の7つの領域に分割される。色相(H)は、色相値が0〜39、330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。なお、赤色色相領域(H5)は、配光条件の判別への寄与が少ないとの知見から、以下の計算では用いていない。肌色色相領域は、更に、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39、330〜359)のうち、下記の式(1)を満たす色相'(H)を肌色領域(H1)とし、式(1)を満たさない領域を(H2)とする。
10 < 彩度(S) <175、
色相'(H) = 色相(H) + 60 (0 ≦ 色相(H) < 300のとき)、
色相'(H) = 色相(H) - 300 (300 ≦ 色相(H) < 360のとき)、
輝度Y = InR × 0.30 + InG × 0.59 + InB × 0.11
として、
色相'(H)/輝度(Y) < 3.0 ×(彩度(S)/255)+0.7 (1)
従って、撮影画像データの分割領域の数は4×7=28個となる。なお、式(1)において明度(V)を用いることも可能である。
The lightness value (V) is 0-25 (v1), 26-50 (v2), 51-84 (v3), 85-169 (v4), 170-199 (v5), 200-224 (v6) , 225 to 255 (v7). Hue (H) is a skin hue hue area (H1 and H2) with a hue value of 0 to 39, 330 to 359, a green hue area (H3) with a hue value of 40 to 160, and a blue hue area with a hue value of 161 to 250 It is divided into four areas (H4) and a red hue area (H5). Note that the red hue region (H5) is not used in the following calculation because it is known that the contribution to the determination of the light distribution condition is small. The flesh-color hue area is further divided into a flesh-color area (H1) and other areas (H2). Hereinafter, among the flesh-colored hue regions (H = 0 to 39, 330 to 359), the hue '(H) that satisfies the following equation (1) is defined as the flesh-colored region (H1), and the region that does not satisfy the equation (1) is ( H2).
10 <Saturation (S) <175,
Hue '(H) = Hue (H) + 60 (when 0 ≤ Hue (H) <300),
Hue '(H) = Hue (H)-300 (when 300 ≤ Hue (H) <360),
Luminance Y = InR × 0.30 + InG × 0.59 + InB × 0.11
As
Hue '(H) / Luminance (Y) <3.0 × (Saturation (S) / 255) +0.7 (1)
Therefore, the number of divided areas of the captured image data is 4 × 7 = 28. In addition, it is also possible to use the brightness (V) in the formula (1).

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第1の占有率が算出され(ステップS12)、本占有率算出処理が終了する。明度領域vi、色相領域Hjの組み合わせからなる分割領域において算出された第1の占有率をRijとすると、各分割領域における第1の占有率は表1のように表される。

Figure 0004449619
When the two-dimensional histogram is created, a first occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S12), and the main occupancy ratio calculation is performed. The process ends. Assuming that the first occupancy ratio calculated in the divided area composed of the combination of the lightness area vi and the hue area Hj is Rij, the first occupancy ratio in each divided area is expressed as shown in Table 1.
Figure 0004449619

次に、指標1及び指標2の算出方法について説明する。
表2に、判別分析により得られた、ストロボ撮影としての確度、即ち、ストロボ撮影時の顔領域の明度状態を定量的に示す指標1を算出するために必要な第1の係数を分割領域別に示す。表2に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数である。

Figure 0004449619
Next, a method for calculating the index 1 and the index 2 will be described.
Table 2 shows the first coefficient necessary for calculating the index 1 that quantitatively indicates the accuracy of strobe shooting obtained by discriminant analysis, that is, the lightness state of the face area at the time of strobe shooting. Show. The coefficient of each divided area shown in Table 2 is a weighting coefficient by which the first occupation ratio Rij of each divided area shown in Table 1 is multiplied.
Figure 0004449619

図7に、明度(v)−色相(H)平面を示す。表2によると、図7において高明度の肌色色相領域に分布する領域(r1)から算出される第1の占有率には、正(+)の係数が用いられ、それ以外の色相である青色色相領域(r2)から算出される第1の占有率には、負(-)の係数が用いられる。図9は、肌色領域(H1)における第1の係数と、その他の領域(緑色色相領域(H3))における第1の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表2及び図9によると、高明度(V=170〜224)の領域では、肌色領域(H1)における第1の係数の符号は正(+)であり、その他の領域(例えば、緑色色相領域(H3))における第1の係数の符号は負(-)であり、両者の符号が異なっていることがわかる。   FIG. 7 shows a lightness (v) -hue (H) plane. According to Table 2, a positive (+) coefficient is used for the first occupancy calculated from the region (r1) distributed in the skin color hue region of high brightness in FIG. A negative (−) coefficient is used for the first occupancy calculated from the hue region (r2). FIG. 9 shows the first coefficient in the skin color area (H1) and the first coefficient in the other area (green hue area (H3)) as a curve (coefficient curve) that continuously changes over the entire brightness. It is shown. According to Table 2 and FIG. 9, in the area of high brightness (V = 170 to 224), the sign of the first coefficient in the skin color area (H1) is positive (+), and other areas (for example, the green hue area) The sign of the first coefficient in (H3)) is negative (-), and it can be seen that the signs of the two are different.

明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1を算出するためのHk領域の和は、式(2)のように定義される。

Figure 0004449619
従って、H1〜H4領域の和は、下記の式(2-1)〜式(2-4)のように表される。
H1領域の和=R11×(-44.0)+R21×(-16.0)+(中略)...+R71×(-11.3) (2-1)
H2領域の和=R12×0.0+R22×8.6+(中略)... +R72×(-11.1) (2-2)
H3領域の和=R13×0.0+R23×(-6.3)+(中略)...+R73×(-10.0) (2-3)
H4領域の和=R14×0.0+R24×(-1.8)+(中略)...+R74×(-14.6) (2-4) When the first coefficient in the lightness region vi and the hue region Hj is Cij, the sum of the Hk regions for calculating the index 1 is defined as in Expression (2).
Figure 0004449619
Accordingly, the sum of the H1 to H4 regions is expressed by the following formulas (2-1) to (2-4).
H1 area sum = R11 x (-44.0) + R21 x (-16.0) + (omitted) ... + R71 x (-11.3) (2-1)
Sum of H2 area = R12 x 0.0 + R22 x 8.6 + (omitted) ... + R72 x (-11.1) (2-2)
Sum of H3 area = R13 x 0.0 + R23 x (-6.3) + (omitted) ... + R73 x (-10.0) (2-3)
Sum of H4 area = R14 x 0.0 + R24 x (-1.8) + (omitted) ... + R74 x (-14.6) (2-4)

指標1は、式(2-1)〜(2-4)で示されたH1〜H4領域の和を用いて、式(3)のように定義される。
指標1=H1領域の和+H2領域の和+H3領域の和+H4領域の和+4.424 (3)
The index 1 is defined as Expression (3) using the sum of the H1 to H4 regions shown in Expressions (2-1) to (2-4).
Index 1 = sum of H1 area + sum of H2 area + sum of H3 area + sum of H4 area + 4.424 (3)

表3に、判別分析により得られた、逆光撮影としての確度、即ち、逆光撮影時の顔領域の明度状態を定量的に示す指標2を算出するために必要な第2の係数を分割領域別に示す。表3に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数である。

Figure 0004449619
Table 3 shows, for each divided region, the second coefficient necessary for calculating the index 2 that quantitatively indicates the accuracy of backlight photographing obtained by discriminant analysis, that is, the brightness state of the face region at the time of backlight photographing. Show. The coefficient of each divided area shown in Table 3 is a weighting coefficient that is multiplied by the first occupation ratio Rij of each divided area shown in Table 1.
Figure 0004449619

図8に、明度(v)−色相(H)平面を示す。表3によると、図8において肌色色相領域の中間明度に分布する領域(r4)から算出される占有率には負(-)の係数が用いられ、肌色色相領域の低明度(シャドー)領域(r3)から算出される占有率には正(+)の係数が用いられる。図10は、肌色領域(H1)における第2の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表3及び図10によると、肌色色相領域の、明度値が85〜169(v4)の中間明度領域の第2の係数の符号は負(-)であり、明度値が26〜84(v2,v3)の低明度(シャドー)領域の第2の係数の符号は正(+)であり、両領域での係数の符号が異なっていることがわかる。   FIG. 8 shows a lightness (v) -hue (H) plane. According to Table 3, a negative (-) coefficient is used for the occupancy calculated from the region (r4) distributed in the intermediate lightness of the flesh color hue region in FIG. 8, and the low lightness (shadow) region ( A positive (+) coefficient is used for the occupation ratio calculated from r3). FIG. 10 shows the second coefficient in the skin color area (H1) as a curve (coefficient curve) that continuously changes over the entire brightness. According to Table 3 and FIG. 10, the sign of the second coefficient of the intermediate lightness area of the flesh color hue area having the lightness value of 85 to 169 (v4) is negative (−), and the lightness value is 26 to 84 (v2, It can be seen that the sign of the second coefficient in the low brightness (shadow) region of v3) is positive (+), and the sign of the coefficient in both regions is different.

明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2を算出するためのHk領域の和は、式(4)のように定義される。

Figure 0004449619
従って、H1〜H4領域の和は、下記の式(4-1)〜式(4-4)のように表される。
H1領域の和=R11×(-27.0)+R21×4.5+(中略)...+R71×(-24.0) (4-1)
H2領域の和=R12×0.0+R22×4.7+(中略)... +R72×(-8.5) (4-2)
H3領域の和=R13×0.0+R23×0.0+(中略)...+R73×0.0 (4-3)
H4領域の和=R14×0.0+R24×(-5.1)+(中略)...+R74×7.2 (4-4) When the second coefficient in the lightness area vi and the hue area Hj is Dij, the sum of the Hk areas for calculating the index 2 is defined as in Expression (4).
Figure 0004449619
Therefore, the sum of the H1 to H4 regions is expressed by the following formulas (4-1) to (4-4).
H1 area sum = R11 x (-27.0) + R21 x 4.5 + (omitted) ... + R71 x (-24.0) (4-1)
Sum of H2 area = R12 x 0.0 + R22 x 4.7 + (omitted) ... + R72 x (-8.5) (4-2)
Sum of H3 area = R13 x 0.0 + R23 x 0.0 + (omitted) ... + R73 x 0.0 (4-3)
H4 area sum = R14 x 0.0 + R24 x (-5.1) + (omitted) ... + R74 x 7.2 (4-4)

指標2は、式(4-1)〜(4-4)で示されたH1〜H4領域の和を用いて、式(5)のように定義される。
指標2=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.554 (5)
指標1及び指標2は、撮影画像データの明度と色相の分布量に基づいて算出されるため、撮影画像データがカラー画像である場合の配光条件の判別に有効である。
The index 2 is defined as in Expression (5) using the sum of the H1 to H4 regions shown in Expressions (4-1) to (4-4).
Index 2 = sum of H1 area + sum of H2 area + sum of H3 area + sum of H4 area + 1.554 (5)
Since the index 1 and the index 2 are calculated based on the brightness of the captured image data and the distribution amount of the hue, it is effective for determining the light distribution condition when the captured image data is a color image.

次に、図11のフローチャートを参照して、指標3を算出するための占有率算出処理(図4のステップS2)について詳細に説明する。   Next, the occupation rate calculation process (step S2 in FIG. 4) for calculating the index 3 will be described in detail with reference to the flowchart in FIG.

まず、撮影画像データのRGB値がHSV表色系に変換される(ステップS20)。次いで、撮影画像データが、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS21)。以下、撮影画像データの領域分割について詳細に説明する。   First, the RGB values of the photographed image data are converted into the HSV color system (step S20). Next, the photographed image data is divided into regions each composed of a combination of the distance from the outer edge of the photographed image screen and the brightness, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S21). Hereinafter, the area division of the captured image data will be described in detail.

図12(a)〜(d)に、撮影画像データの画面の外縁からの距離に応じて分割された4つの領域n1〜n4を示す。図12(a)に示す領域n1が外枠であり、図12(b)に示す領域n2が、外枠の内側の領域であり、図12(c)に示す領域n3が、領域n2の更に内側の領域であり、図12(d)に示す領域n4が、撮影画像画面の中心部の領域である。また、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。従って、撮影画像データを、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割した場合の分割領域の数は4×7=28個となる。   FIGS. 12A to 12D show four regions n1 to n4 divided according to the distance from the outer edge of the screen of the captured image data. A region n1 shown in FIG. 12A is an outer frame, a region n2 shown in FIG. 12B is a region inside the outer frame, and a region n3 shown in FIG. A region n4 shown in FIG. 12D is an inner region and is a central region of the captured image screen. Further, the lightness is divided into seven regions v1 to v7 as described above. Therefore, when the captured image data is divided into regions composed of combinations of the distance from the outer edge of the captured image screen and the brightness, the number of divided regions is 4 × 7 = 28.

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第2の占有率が算出され(ステップS22)、本占有率算出処理が終了する。明度領域vi、画面領域njの組み合わせからなる分割領域において算出された第2の占有率をQijとすると、各分割領域における第2の占有率は表4のように表される。

Figure 0004449619
When the two-dimensional histogram is created, a second occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S22), and the main occupancy ratio calculation is performed. The process ends. If the second occupancy calculated in the divided area composed of the combination of the brightness area vi and the screen area nj is Qij, the second occupancy in each divided area is expressed as shown in Table 4.
Figure 0004449619

次に、指標3の算出方法について説明する。
表5に、指標3を算出するために必要な第3の係数を分割領域別に示す。表5に示された各分割領域の係数は、表4に示した各分割領域の第2の占有率Qijに乗算する重み係数であり、判別分析により得られる。

Figure 0004449619
図13は、画面領域n1〜n4における第3の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。 Next, a method for calculating the index 3 will be described.
Table 5 shows the third coefficient necessary for calculating the index 3 for each divided region. The coefficient of each divided area shown in Table 5 is a weighting coefficient by which the second occupancy Qij of each divided area shown in Table 4 is multiplied, and is obtained by discriminant analysis.
Figure 0004449619
FIG. 13 shows the third coefficient in the screen areas n1 to n4 as a curve (coefficient curve) that continuously changes over the entire brightness.

明度領域vi、画面領域njにおける第3の係数をEijとすると、指標3を算出するためのnk領域(画面領域nk)の和は、式(6)のように定義される。

Figure 0004449619
従って、n1〜n4領域の和は、下記の式(6-1)〜式(6-4)のように表される。
n1領域の和=Q11×40.1+Q21×37.0+(中略)...+Q71×22.0 (6-1)
n2領域の和=Q12×(-14.8)+Q22×(-10.5)+(中略)...+Q72×0.0 (6-2)
n3領域の和=Q13×24.6+Q23×12.1+(中略)...+Q73×10.1 (6-3)
n4領域の和=Q14×1.5+Q24×(-32.9)+(中略)...+Q74×(-52.2) (6-4) If the third coefficient in the brightness area vi and the screen area nj is Eij, the sum of the nk area (screen area nk) for calculating the index 3 is defined as in Expression (6).
Figure 0004449619
Accordingly, the sum of the n1 to n4 regions is expressed as the following formulas (6-1) to (6-4).
n1 area sum = Q11 x 40.1 + Q21 x 37.0 + (omitted) ... + Q71 x 22.0 (6-1)
Sum of n2 area = Q12 x (-14.8) + Q22 x (-10.5) + (omitted) ... + Q72 x 0.0 (6-2)
n3 area sum = Q13 x 24.6 + Q23 x 12.1 + (omitted) ... + Q73 x 10.1 (6-3)
n4 area sum = Q14 x 1.5 + Q24 x (-32.9) + (omitted) ... + Q74 x (-52.2) (6-4)

指標3は、式(6-1)〜(6-4)で示されたN1〜H4領域の和を用いて、式(7)のように定義される。
指標3=n1領域の和+n2領域の和+n3領域の和+n4領域の和−12.6201 (7)
指標3は、撮影画像データの明度の分布位置による構図的な特徴(撮影画像データの画面の外縁からの距離)に基づいて算出されるため、カラー画像だけでなくモノクロ画像の配光条件を判別するのにも有効である。
The index 3 is defined as in Expression (7) using the sum of the N1 to H4 regions shown in Expressions (6-1) to (6-4).
Index 3 = sum of n1 regions + sum of n2 regions + sum of n3 regions + sum of n4 regions−12.6201 (7)
The index 3 is calculated on the basis of compositional characteristics (distance from the outer edge of the screen of the photographed image data) based on the lightness distribution position of the photographed image data, so that the light distribution condition of the monochrome image as well as the color image is discriminated. It is also effective to do.

指標4は、指標1及び指標3を用いて式(8)のように定義され、指標5は、指標1〜3を用いて式(9)のように定義される。
指標4=0.565×指標1+0.565×指標3+0.457 (8)
指標5=(-0.121)×指標1+0.91×指標2+0.113×指標3−0.072 (9)
ここで、式(8)及び式(9)において各指標に乗算される重み係数は、撮影条件に応じて予め設定されている。
The index 4 is defined as Expression (8) using the indices 1 and 3, and the index 5 is defined as Expression (9) using the indices 1 to 3.
Index 4 = 0.565 x Index 1 + 0.565 x Index 3 + 0.457 (8)
Indicator 5 = (-0.121) x Indicator 1 + 0.91 x Indicator 2 + 0.113 x Indicator 3-0.072 (9)
Here, the weighting coefficient by which each index is multiplied in Expression (8) and Expression (9) is set in advance according to the shooting conditions.

〈配光条件の判別方法〉
次に、配光条件の判別方法(図4のステップS3)について説明する。
図14は、順光、逆光、ストロボの各配光条件で60枚ずつ撮影し、合計180枚のデジタル画像データについて、指標4、5を算出し、各配光条件での指標4、5の値をプロットしたものである。図14によれば、指標4の値が0.5より大きい場合、ストロボシーンが多く、指標4の値が0.5以下で、指標5の値が−0.5より大きい場合、逆光シーンが多いことがわかる。表6に、指標4、5の値による配光条件の判別内容を示す。

Figure 0004449619
このように指標4、5の値により配光条件を定量的に判別することができる。 <Determination method of light distribution conditions>
Next, a method for determining light distribution conditions (step S3 in FIG. 4) will be described.
In FIG. 14, 60 images are taken under each light distribution condition of forward light, backlight, and strobe, and indexes 4 and 5 are calculated for a total of 180 digital image data, and the indexes 4 and 5 under each light distribution condition are calculated. The values are plotted. According to FIG. 14, when the value of index 4 is greater than 0.5, there are many strobe scenes, and when the value of index 4 is 0.5 or less and the value of index 5 is greater than −0.5, the backlight scene is I understand that there are many. Table 6 shows the determination contents of the light distribution conditions based on the values of the indexes 4 and 5.
Figure 0004449619
Thus, the light distribution condition can be determined quantitatively based on the values of the indexes 4 and 5.

〈顔判別処理の処理条件の決定〉
次に、図4のステップS4で示した、顔判別処理の処理条件の決定方法について詳細に説明する。
<Determination of processing conditions for face discrimination processing>
Next, the method for determining the processing conditions for the face discrimination process shown in step S4 in FIG. 4 will be described in detail.

撮影時の配光条件に応じて実行される顔判別処理の処理条件の決定は、顔判別処理の判別精度を向上させるために行われるものである。顔判別処理の処理方法としては、撮影画像データから顔候補領域を抽出し、抽出された顔候補領域が人物の顔であるか否かを判定する方法、顔候補領域内に人物の顔が含まれているか否かを判定する方法等がある。このような方法を用いる場合、顔判別処理の判別精度には、顔候補領域の抽出精度と、顔候補領域が人物の顔であるか否か(若しくは顔候補領域内に顔が含まれているか否か)を判定する判定精度の双方が寄与するため、顔判別処理の処理条件を決定する際には、顔候補領域の抽出条件、顔候補領域から人物の顔を判定する処理の処理条件の何れか一方又は双方を、配光条件の判別結果に応じて決定することが好ましい。   The determination of the processing condition of the face discrimination process executed according to the light distribution condition at the time of shooting is performed in order to improve the discrimination accuracy of the face discrimination process. As a processing method of face discrimination processing, a face candidate area is extracted from captured image data, a method for determining whether or not the extracted face candidate area is a human face, and a human face is included in the face candidate area For example, there is a method for determining whether or not it is. When such a method is used, the discrimination accuracy of the face discrimination process includes the extraction accuracy of the face candidate region and whether or not the face candidate region is a human face (or whether a face is included in the face candidate region). Both of the determination accuracy contribute to determining whether or not the processing conditions of the face discrimination process are determined, the extraction conditions of the face candidate area, and the processing conditions of the process of determining a person's face from the face candidate area It is preferable to determine either one or both in accordance with the determination result of the light distribution condition.

以下では、撮影画像データから顔候補領域を抽出する処理と、抽出された顔候補領域が人物の顔であるか否かを判定する処理を併せて「顔判別処理」と呼び、顔判別処理のうち、顔候補領域が人物の顔であるか否かを判定する処理の部分を「顔判定処理」と呼ぶことにする。   Hereinafter, the process of extracting a face candidate area from captured image data and the process of determining whether or not the extracted face candidate area is a person's face will be referred to as a “face discrimination process”. Of these, the part of the process for determining whether or not the face candidate area is a person's face is referred to as “face determination process”.

まず、顔候補領域の抽出条件の決定方法について説明する。
顔候補領域の抽出方法として、撮影画像データから肌色に相当する初期点を探索し、単純領域拡張法を用いて肌色領域を顔候補領域として抽出する手法を用いることができる。単純領域拡張法とは、画素間のデータ差が閾値以下の互いに隣接する画素を同一画像領域に属するものとして当該領域を拡張していくことにより特定の画像領域の抽出を行う画像処理方法である。即ち、単純領域拡張法は、指定された特定条件に合致する初期画素から出発し、当該初期画素に対して隣接する画素(4連結、8連結の何れでも可)のデータ差が閾値以下である場合に当該隣接画素と初期画素とを同一画像領域に属するものとし、更に、当該同一画素に属するとした画素に対し隣接する画素についても同様の判定を行う。このようにして、初期画素から出発して、同一の画像領域を除々に拡張させることによって特定の画像領域の抽出が行われる。本実施形態では、更に、画像中のエッジ成分を抽出し、画像エッジに達した場合に単純領域拡張を終了することで、顔候補領域を確定する処理を用いることが好ましい。
First, a method for determining the extraction condition of the face candidate area will be described.
As a method for extracting a face candidate area, a method can be used in which an initial point corresponding to a skin color is searched from captured image data, and a skin color area is extracted as a face candidate area using a simple area expansion method. The simple area expansion method is an image processing method for extracting a specific image area by expanding adjacent areas with pixels adjacent to each other whose data difference between pixels is equal to or less than a threshold value belonging to the same image area. . In other words, the simple area expansion method starts from an initial pixel that matches a specified condition, and a data difference between adjacent pixels (either 4-connected or 8-connected) is equal to or less than a threshold value. In this case, it is assumed that the adjacent pixel and the initial pixel belong to the same image area, and the same determination is performed for a pixel adjacent to the pixel that belongs to the same pixel. In this manner, starting from the initial pixel, a specific image region is extracted by gradually expanding the same image region. In the present embodiment, it is preferable to further use a process for extracting a face component region by extracting an edge component in an image and ending simple region expansion when the image edge is reached.

顔候補領域として肌色領域を抽出する場合、被写体が同一人物であっても、撮影時の配光条件に応じて、肌色領域の色味は著しく異なる。例えば、順光で撮影された画像の肌色を基準とすると、ストロボ撮影では、肌色の色味が(特に、近接であればあるほど)白くとび気味になり、逆光下での撮影であれば、肌色の色味が暗くなる。このような状況を踏まえ、初期画素の探索条件を、配光条件の判別結果に応じて切り替える及び/又は(段階的若しくは連続的に)調整することが好ましい。   When a skin color area is extracted as the face candidate area, even if the subject is the same person, the color of the skin color area is significantly different depending on the light distribution conditions at the time of shooting. For example, based on the skin color of an image taken in front light, the skin tone becomes whiter (especially the closer it is) in strobe shooting, and if it is shooting in backlight, Skin tone becomes darker. In consideration of such a situation, it is preferable to switch and / or adjust (stepwise or continuously) the search condition for the initial pixel according to the determination result of the light distribution condition.

例えば、初期画素を探索するための所定の基本探索条件に対し、配光条件が「順光」であればその基本探索条件を用い、配光条件が「ストロボ」であれば、基本探索条件から輝度を高く(明るく)補正した探索条件を用い、配光条件が「逆光」であれば、基本探索条件から輝度を低く(暗く)補正した探索条件を用いればよい。このように、単純領域拡張法を用いて顔候補領域を抽出する際、撮影時の配光条件に応じて、初期画素の探索条件を切り替えればよい。また、配光条件によって単純領域拡張を終了させるエッジ強度は異なるため、単純領域拡張を終了させるためのエッジ抽出条件も配光条件に応じて調整することが好ましい。   For example, for a predetermined basic search condition for searching for an initial pixel, if the light distribution condition is “forward light”, the basic search condition is used. If the light distribution condition is “strobe”, the basic search condition is used. If the search condition with high (brighter) correction is used and the light distribution condition is “backlight”, the search condition with lower (darker) correction from the basic search condition may be used. As described above, when extracting a face candidate area using the simple area expansion method, the search condition for the initial pixel may be switched according to the light distribution condition at the time of photographing. Moreover, since the edge intensity | strength which complete | finishes simple area expansion changes with light distribution conditions, it is preferable to adjust the edge extraction conditions for ending simple area expansion according to light distribution conditions.

配光条件の判別結果が、ストロボ度、逆光度等のように、配光条件を段階的又は連続的に示す指標(指標4、5)として得られる場合、得られた指標の値に応じて、輝度を高くする度合い(ストロボの場合)、輝度を低くする度合い(逆光の場合)を調整することにより、初期画素の探索条件を決定すればよい。従って、このような初期画素の探索条件を用いた単純領域拡張法を、顔候補領域の抽出条件として決定することができる。   When the determination result of the light distribution condition is obtained as an index (index 4, 5) indicating the light distribution condition stepwise or continuously, such as strobe degree, backlight intensity, etc., depending on the value of the obtained index The search condition for the initial pixel may be determined by adjusting the degree of increasing the brightness (in the case of a strobe) and the degree of decreasing in the brightness (in the case of backlight). Therefore, the simple region expansion method using the initial pixel search condition can be determined as the extraction condition for the face candidate region.

なお、上述では、配光条件に応じて肌色領域に輝度差が生じることを利用して、初期画素の探索条件を補正する例を示したが、輝度に限らず、彩度を利用するなどして、探索条件の補正要件を増やすようにしてもよい。例えば、ストロボ、フラッシュ撮影であれば、順光の場合より低彩度になる。また、初期画素の探索条件だけでなく、領域拡張条件を補正するようにしてもよい。更に、顔候補領域を抽出するための様々な処理条件について、配光条件毎に得られる肌色領域の特性の違いを反映して、初期画素の探索条件、領域拡張条件を補正するのが好ましい。   In the above description, the example in which the search condition for the initial pixel is corrected using the fact that the brightness difference is generated in the skin color area according to the light distribution condition is shown. However, not only the brightness but also saturation is used. Thus, the search condition correction requirement may be increased. For example, with flash and flash photography, the saturation is lower than with direct light. Further, not only the initial pixel search condition but also the area expansion condition may be corrected. Furthermore, it is preferable to correct the initial pixel search condition and the area expansion condition for various processing conditions for extracting the face candidate area, reflecting the difference in the characteristics of the skin color area obtained for each light distribution condition.

次に、顔候補領域から顔を判定するための顔判定処理条件の決定方法について説明する。以下では、顔候補領域から特徴量を抽出し、その抽出された特徴量に基づいてニューラルネットワークを用いて顔判定処理を行う場合の顔判定処理条件の決定方法について説明する。   Next, a method for determining a face determination processing condition for determining a face from a face candidate area will be described. In the following, a method for determining a face determination processing condition when a feature amount is extracted from a face candidate region and face determination processing is performed using a neural network based on the extracted feature amount will be described.

まず、顔判定処理条件の決定方法の具体的な説明に先立って、顔判定処理で用いられるニューラルネットワークについて簡単に説明する。このニューラルネットワークは、図15に示すように、入力層、中間層及び出力層を有する階層型のニューラルネットワーク(以下、単にニューラルネットワークという。)である。ニューラルネットワークは、デジタルニューラルネットワークチップを利用することが望ましいが、汎用のDSP(Digital Signal Processor)と専用のエミュレートプログラムを用いても実現することができるし、通常のCPUとエミュレートプログラムを用いても構わない。   First, prior to a specific description of a method for determining face determination processing conditions, a neural network used in face determination processing will be briefly described. As shown in FIG. 15, this neural network is a hierarchical neural network having an input layer, an intermediate layer, and an output layer (hereinafter simply referred to as a neural network). The neural network preferably uses a digital neural network chip, but can also be realized by using a general-purpose DSP (Digital Signal Processor) and a dedicated emulation program, or using a normal CPU and an emulation program. It doesn't matter.

ニューラルネットワークの各層は、ニューロンと呼ばれる構成単位からなっている。入力層を除けば、任意のニューロンは、図16に示すように、シナプスと呼ばれる入力を多数受け取り、各々の入力値xiに対して結合強度と呼ばれる所定の重みwiを掛けてその総和を求め、それを所定の出力関数fで評価した結果を出力yとして与える機能素子として機能する。出力関数fは、式(10)のように表される。

Figure 0004449619
ここで、f(x)は一般に式(11)に示すような非線形のシグモイド関数が用いられるが、必ずしもこれに限定されるわけではない。
Figure 0004449619
Each layer of the neural network is composed of structural units called neurons. Except for the input layer, as shown in FIG. 16, an arbitrary neuron receives a large number of inputs called synapses, and multiplies each input value x i by a predetermined weight w i called connection strength to sum up the sum. It functions as a functional element that obtains and evaluates a result obtained by evaluating it with a predetermined output function f as output y. The output function f is expressed as in Expression (10).
Figure 0004449619
Here, f (x) is generally a non-linear sigmoid function as shown in Equation (11), but is not necessarily limited thereto.
Figure 0004449619

ここで、各ニューロンの入力の重みwiはニューラルネットワークの入力・出力の関係、言い替えればニューラルネットワークの動作を決定する重要な情報であり、ニューラルネットワークに対して学習作業を行うことによって決定する。なお、図15では中間層は1層のみ記してあるが、これは1以上の任意の階層の構成とすることができる。階層型ネットワークでは、中間層は1層あれば、合成可能な任意の関数を実現できることが知られているが、中間層を多くした方が学習効率や、ニューロンの個数の点から有利であることが知られている。 Here, the input weight w i of each neuron is important information for determining the relationship between the input and output of the neural network, in other words, the operation of the neural network, and is determined by performing a learning operation on the neural network. In FIG. 15, only one intermediate layer is shown, but this may have a configuration of one or more arbitrary hierarchies. Hierarchical networks are known to be able to achieve any function that can be synthesized if there is only one intermediate layer, but increasing the number of intermediate layers is advantageous in terms of learning efficiency and the number of neurons. It has been known.

ニューラルネットワークは以下のような特徴を有している。
(1)比較的単純な構成でありながら、多入力・多出力の非線形システムを実現できる。(2)各層内の各ニューロンは独立して動作させることができ、並列処理によって高速な動作が期待できる。
(3)適切な教師データを与えて学習させることにより、任意の入出力関係を実現させることができる。
(4)系として汎化能力がある。すなわち、必ずしも教師データとして与えていない、未学習の入力パターンに対しても、おおむね正しい出力を与える能力がある。
The neural network has the following characteristics.
(1) A multi-input / multi-output nonlinear system can be realized with a relatively simple configuration. (2) Each neuron in each layer can be operated independently, and high-speed operation can be expected by parallel processing.
(3) Arbitrary input / output relations can be realized by providing appropriate teacher data for learning.
(4) The system has generalization ability. That is, there is an ability to give a generally correct output even to an unlearned input pattern that is not necessarily given as teacher data.

ここで、教師データとは、入力パターンと、その入力パターンに対する望ましい出力パターンの対であり、通常複数個用意する。特定の入力パターンに対して望ましい出力パターンを決定する作業は、一般に熟練者の主観的な判断に頼って決定する。ニューラルネットワークの主な応用としては(a)非線形の関数近似、(b)クラスタリング(識別、認識、分類)が挙げられる。   Here, the teacher data is a pair of an input pattern and a desired output pattern for the input pattern, and a plurality of teacher data are usually prepared. The operation of determining a desired output pattern for a specific input pattern is generally determined by relying on the subjective judgment of an expert. Major applications of neural networks include (a) nonlinear function approximation and (b) clustering (identification, recognition, classification).

一般に非線形関数近似は実現が容易であり、汎化能力も高い系を得やすい。一方、クラスタリングへの応用は教師データへの依存性が高く、かつ複雑な入力に関しては、複数の教師データ相互の間に矛盾関係が存在する可能性が高い。このため、クラスタリングへ応用した場合には、入力が非常に簡単な場合を除けば、結果的に汎化能力が低いのみならず、特定の教師データに対する適合性という意味でも不満足な系しか得られないことも少なくない。   In general, nonlinear function approximation is easy to implement and it is easy to obtain a system with high generalization ability. On the other hand, application to clustering is highly dependent on teacher data, and there is a high possibility that there is a contradiction between a plurality of teacher data for complex input. For this reason, when applied to clustering, unless the input is very simple, the result is not only a low generalization ability, but also an unsatisfactory system in terms of suitability for specific teacher data. There are many things that are not.

次に、ニューラルネットワークに対する教師データを用いた学習方法について説明する。p番目の入力パターンに対する、第L層のi番目のニューロンの状態を式(12)及び式(13)のように表現する。

Figure 0004449619
Figure 0004449619
ここで、式(12)の関数f(x)は、式(11)に示した非線形のシグモイド関数、YiLはニューロンの出力、UiLはニューロンの内部状態、Yi<L−1>はL−1層のニューロンの出力=L層のニューロンの入力、wij<L>は結合強度である。 Next, a learning method using teacher data for the neural network will be described. The state of the i-th neuron in the L-th layer with respect to the p-th input pattern is expressed as Equation (12) and Equation (13).
Figure 0004449619
Figure 0004449619
Here, the function f (x) in Expression (12) is the nonlinear sigmoid function shown in Expression (11), Y iL is the output of the neuron, U iL is the internal state of the neuron, and Y i <L−1> is L-1 layer neuron output = L layer neuron input, w ij <L> is the connection strength.

このように定義した場合に、広く用いられている誤差逆伝搬学習法(バックプロパゲーション学習法、以下BP法と略す。)では、誤差評価関数として平均自乗誤差を用いて、以下のようにエラーEを定義する。

Figure 0004449619
ただしkは出力層の番号であり、Ti(p)はp番目の入力パターンに対する望ましい出力パターンである。 In such a definition, the widely used error back propagation learning method (back propagation learning method, hereinafter referred to as BP method) uses the mean square error as an error evaluation function, and the error Define E.
Figure 0004449619
Where k is the output layer number and T i (p) is the desired output pattern for the pth input pattern.

この場合、BP法に基づく各結合強度の修正量Δwは次式で定められる。

Figure 0004449619
ここで、∂は偏微分記号(ラウンド)、ηは学習率を表す係数である。Δwij<L>を各々のwij<L>に加算することによって学習が進む。なお、この形式のBP法では学習が進んだ結果、教師データとの誤差の絶対値が小さくなってくると、Δwの絶対値も小さくなり、学習が進まなくなるという現象が指摘されており、その問題点を回避するために、種々の改良が提案されている。 In this case, the correction amount Δw of each bond strength based on the BP method is determined by the following equation.
Figure 0004449619
Here, ∂ is a partial differential symbol (round), and η is a coefficient representing a learning rate. Learning proceeds by adding Δw ij <L> to each w ij <L>. In addition, as a result of learning progressed in the BP method of this form, if the absolute value of the error from the teacher data becomes small, the absolute value of Δw also becomes small, and the phenomenon that learning does not progress has been pointed out. Various improvements have been proposed in order to avoid problems.

例えば、Δwの定義を次のように変更するという提案がある。

Figure 0004449619
式(16)の第二項は慣性項(モーメンタム項)と呼ばれ、現在の修正量だけでなく、過去の修正量も考慮することで収束時の振動を抑え、学習を高速化する効果がある。安定化定数αは1.0以下の正の実数で、過去の修正量の考慮の度合いを規定する係数である。 For example, there is a proposal to change the definition of Δw as follows.
Figure 0004449619
The second term in equation (16) is called an inertial term (momentum term), and has the effect of suppressing the vibration at the time of convergence by considering not only the current correction amount but also the past correction amount, and speeding up learning. is there. The stabilization constant α is a positive real number of 1.0 or less, and is a coefficient that defines the degree of consideration of past correction amounts.

あるいは、学習率ηを学習回数nに応じて、次式を満たすように動的に変化させるという提案もある。

Figure 0004449619
Alternatively, there is also a proposal of dynamically changing the learning rate η so as to satisfy the following expression according to the number of learnings n.
Figure 0004449619

更には、エラーの評価を平均自乗誤差ではなく、シグモイド関数の導関数を打ち消すような形式にするという提案もある。いずれにせよ、BP法を用いて十分な回数学習作業を施すことにより、教師データに対して近似した出力を得ることができるようになる。   Furthermore, there is also a proposal that the error evaluation is in a form that cancels out the derivative of the sigmoid function instead of the mean square error. In any case, an output approximate to the teacher data can be obtained by performing the learning operation a sufficient number of times using the BP method.

次に、顔判定処理条件の決定方法について具体的に説明する。配光条件が異なるのに同一の顔判定処理条件を用いると、顔の判定精度に差異が生じる。これは、配光条件毎に、顔の判定処理に寄与する特徴量が異なっていたり、特徴量を最適に抽出する抽出条件が異なっていることによる。従って、配光条件に応じて顔判定処理条件を決定するのが好ましい。   Next, a method for determining the face determination processing condition will be specifically described. If the same face determination processing conditions are used even though the light distribution conditions are different, a difference occurs in the face determination accuracy. This is because the feature amount contributing to the face determination process is different for each light distribution condition, and the extraction condition for optimally extracting the feature amount is different. Therefore, it is preferable to determine the face determination processing condition according to the light distribution condition.

具体的には、配光条件に応じて、ニューラルネットワークの設計、顔判定処理に用いるニューラルネットワークの学習結果を決定することが好ましい。ここで、ニューラルネットワークの設計とは、例えば、ニューラルネットワークの入力パラメータの種類や数、中間層の数等を設計することを示す。入力パラメータには、顔候補領域から抽出される特徴量が含まれる。また、ニューラルネットワークの学習結果とは、ニューラルネットワークを構成する各ニューロンに割り振られる重み(Weight値)、シグモイド関数の傾き値等を表す。   Specifically, it is preferable to determine the learning result of the neural network used for the design of the neural network and the face determination process according to the light distribution condition. Here, the design of the neural network indicates, for example, designing the type and number of input parameters of the neural network, the number of intermediate layers, and the like. The input parameter includes a feature amount extracted from the face candidate region. The learning result of the neural network represents a weight (Weight value) assigned to each neuron constituting the neural network, a slope value of the sigmoid function, and the like.

ニューラルネットワークの入力パラメータとして使用する特徴量の性質及び配光条件に関わらず、同一の抽出条件で顔候補領域から特徴量を抽出すると、抽出精度に差異が生じる。また、特徴量の性質によっては、人物の顔と顔以外の部分の分別性に、配光条件に応じて差異が生じる。このようなことから、配光条件に応じて、顔候補領域から抽出する特徴量、特徴量の抽出条件を変えるのが好ましい。   Regardless of the nature of the feature quantity used as the input parameter of the neural network and the light distribution condition, if the feature quantity is extracted from the face candidate region under the same extraction condition, a difference occurs in the extraction accuracy. In addition, depending on the light distribution conditions, there is a difference in the distinguishability between a person's face and a portion other than the face depending on the nature of the feature amount. For this reason, it is preferable to change the feature amount extracted from the face candidate region and the feature amount extraction condition in accordance with the light distribution condition.

例えば、特徴量として、目や口等の顔を構成する部位を用い、特徴量の抽出条件として、肌と目や口の色味の違い(肌色と略黒色、肌色と赤み)や部位の輪郭のエッジを利用した抽出条件を用いた場合、順光と逆光では、逆光の方が、特徴量の抽出精度が低くなる傾向がある。即ち、逆光では、人物の顔全体が、順光に比べて暗く撮影されるために、肌と部位の色値の差が小さいとともに、順光に比べて輪郭のエッジの抽出が困難になる。   For example, using features that make up the face such as eyes and mouth as feature values, and extraction conditions for feature values, differences in skin and eyes or mouth color (skin color and almost black, skin color and redness) and contours of parts In the case of using the extraction condition using the edge of the backlight, there is a tendency for the backlight to be backlit and the backlight to be less accurate in extracting feature quantities. That is, in the backlight, the entire face of the person is photographed darker than the normal light, so that the difference between the color values of the skin and the part is small, and the edge of the contour is difficult to extract compared to the normal light.

このように、配光条件に応じて、特徴量の抽出条件を切り替えたり、ニューラルネットワークの入力パラメータの種類や数を変更したりすればよい。また、算出された指標の値(ストロボ度、逆光度等)に応じて、特徴量の抽出条件を段階的又は連続的に調整するようにしてもよい。また、入力パラメータの数に応じて、ニューラルネットワークの中間層の数、ニューロン数も変更することが好ましい。   In this way, the feature quantity extraction conditions may be switched or the type and number of input parameters of the neural network may be changed according to the light distribution conditions. Further, the feature quantity extraction condition may be adjusted stepwise or continuously in accordance with the calculated index value (strobe degree, backlight intensity, etc.). It is also preferable to change the number of intermediate layers and the number of neurons in the neural network according to the number of input parameters.

また、顔判定処理条件を決定する際、順光、ストロボ、逆光の各々の画像群で予め学習されたニューラルネットワークを、配光条件に応じて切り替えることが好ましい。また、配光条件の判別結果が、ストロボ度、逆光度等のように、配光条件が段階的又は連続的に示す指標として得られるシステムであれば、ニューラルネットワークを、強度のストロボ用、弱度のストロボ用、強度の逆光用、弱度の逆光用等のように、配光条件の程度に合わせて段階的に用意しておくと、顔判定処理の判定精度を向上させることができる。また、自己学習型ニューラルネットワークのバージョンアップ法を使用し適宜更新してシステム運営することが好ましい。   Further, when determining the face determination processing conditions, it is preferable to switch the neural network learned in advance for each of the forward light, strobe, and backlight images according to the light distribution conditions. In addition, if the result of determining the light distribution condition is a system in which the light distribution condition is obtained as an index indicating stepwise or continuously, such as strobe degree, backlight intensity, etc., the neural network is used for the intensity strobe, weak If it is prepared step by step according to the degree of the light distribution condition, such as for the strobe for light, for the strong backlight, for the weak backlight, etc., the determination accuracy of the face determination process can be improved. In addition, it is preferable to operate the system by appropriately updating it using a version upgrade method of the self-learning neural network.

〈顔判別処理〉
次に、図17のフローチャートを参照して、図4のステップS5に示した顔判別処理について詳細に説明する。
<Face detection process>
Next, the face discrimination process shown in step S5 of FIG. 4 will be described in detail with reference to the flowchart of FIG.

まず、図4のステップS4で決定された顔候補領域の抽出条件に従って、撮影画像データから顔候補領域が抽出され(ステップS30)、撮影画像データの中に顔候補領域があるか否かが判定される(ステップS31)。   First, a face candidate area is extracted from the photographed image data according to the face candidate area extraction condition determined in step S4 of FIG. 4 (step S30), and it is determined whether or not there is a face candidate area in the photographed image data. (Step S31).

ステップS31において、撮影画像データの中に顔候補領域がないと判定された場合(ステップS31;NO)、本顔判別処理が終了する。ステップS31において、撮影画像データの中に顔候補領域があると判定された場合(ステップS31;YES)、ステップS30で抽出された顔候補領域が人物の顔であるか否かを判定する顔判定処理が行われ(ステップS32)、本顔判別処理が終了する。ステップS32の顔判定処理については、後に図18を参照して詳細に説明する。   If it is determined in step S31 that there is no face candidate area in the captured image data (step S31; NO), the face discrimination process ends. If it is determined in step S31 that there is a face candidate area in the captured image data (step S31; YES), face determination is performed to determine whether the face candidate area extracted in step S30 is a human face. Processing is performed (step S32), and the face discrimination processing ends. The face determination process in step S32 will be described in detail later with reference to FIG.

なお、上述では、顔候補領域の抽出処理の一例として単純領域拡張法を用いる場合を示したが、顔候補領域の抽出方法はこれに限定されない。例えば、撮影画像データからエッジを抽出し、ハフ変換やテンプレートマッチング等の手法を利用して楕円等の特定の形状パターンを抽出する方法を用いることができる。   In the above description, the simple area expansion method is used as an example of the face candidate area extraction process. However, the face candidate area extraction method is not limited to this. For example, it is possible to use a method of extracting an edge from photographed image data and extracting a specific shape pattern such as an ellipse using a technique such as Hough transform or template matching.

更に、特開平4−346332号公報に開示されているように、元画像(撮影画像データ)を多数画素に分割し、各画素のRGB値から、色相値と彩度値のヒストグラムを作成し、その形状からヒストグラムを分割し、その分割された各部位に相当する各画素で構成される領域に画像を分割し、その分割された各領域から人物の顔に相当する領域を推定する方法を用いることができる。   Furthermore, as disclosed in JP-A-4-346332, an original image (photographed image data) is divided into a large number of pixels, and a histogram of hue values and saturation values is created from the RGB values of each pixel, A method is used in which a histogram is divided from the shape, an image is divided into areas composed of pixels corresponding to the divided parts, and an area corresponding to a human face is estimated from the divided areas. be able to.

また、特開平6−309433号公報、特開平6−67320号公報、特開平5−158164号公報、特開平5−165120号公報に開示されているように、色相値、彩度値、輝度値等のヒストグラムに基づいて肌色領域を決定し、この肌色領域を顔候補領域とする方法を用いることができる。更に、特開平8−221567号公報、特開2000−20694号公報、特開2000−32272号公報、特開2000−201358号公報、特開2000−207569号公報に開示されているようなラインプロセス法を用いて顔候補領域を抽出することができる。   Further, as disclosed in JP-A-6-309433, JP-A-6-67320, JP-A-5-158164, and JP-A-5-165120, a hue value, a saturation value, and a luminance value are disclosed. A method of determining a skin color area based on a histogram such as the above and using the skin color area as a face candidate area can be used. Further, a line process as disclosed in JP-A-8-221567, JP-A-2000-20694, JP-A-2000-32272, JP-A-2000-201158, and JP-A-2000-20769. The face candidate region can be extracted using the method.

また、カラーデジタル画像からエッジと低周波画像を生成し、所定のパラメータ(例えば、彩度値、色相値、明度値の各値)が所定の初期条件(各所定範囲の値)と合致する初期画素を抽出し、低周波画像に対して、抽出された初期画素から単純領域拡張を行い、画像エッジに到達した場合に単純領域拡張を強制的に終了させて、顔候補領域を抽出するようにしてもよい。   In addition, an edge and a low frequency image are generated from a color digital image, and predetermined parameters (for example, saturation value, hue value, and lightness value) are initially matched with predetermined initial conditions (values in each predetermined range). Extract a pixel, perform simple area expansion from the extracted initial pixel for the low-frequency image, and forcibly end simple area expansion when the image edge is reached to extract a face candidate area May be.

次に、図18のフローチャートを参照して、図17のステップS32に示した顔判定処理について説明する。   Next, the face determination process shown in step S32 of FIG. 17 will be described with reference to the flowchart of FIG.

まず、図4のステップS4で決定された特徴量及びその抽出条件に従って、顔候補領域から特徴量が抽出される(ステップS40)。次いで、ステップS40で抽出された特徴量を入力信号(入力パラメータ)、顔らしさを表すパラメータを出力信号とした、配光条件に応じて決定されたニューラルネットワーク(例えば、配光条件が逆光の場合、逆光用に学習されたニューラルネットワーク)を用いて、顔候補領域が人物の顔であるか否かが判定され(ステップS41)、本顔判定処理が終了する。   First, a feature value is extracted from the face candidate region according to the feature value determined in step S4 of FIG. 4 and its extraction condition (step S40). Next, a neural network determined according to the light distribution condition (for example, when the light distribution condition is backlight), using the feature amount extracted in step S40 as an input signal (input parameter) and a parameter representing facialness as an output signal. The neural network learned for backlighting is used to determine whether the face candidate area is a human face (step S41), and the face determination process ends.

顔判定処理が終了すると、顔判定の判定結果及び/又は配光条件に応じて、撮影画像データに、画像を高画質化するための所定の画像処理が施される。例えば、顔候補領域が人物の顔であると判定された場合、人物の顔に適した濃度補正、色補正が行われる。また、配光条件がストロボである場合、撮影画像データの顔領域が白くなっているため、色味を加える処理が行われる。また、配光条件が逆光である場合、顔領域を明るく、背景領域を暗くするような補正が施される。   When the face determination process ends, predetermined image processing for improving the image quality of the image is performed on the captured image data in accordance with the determination result of the face determination and / or the light distribution condition. For example, when it is determined that the face candidate area is a person's face, density correction and color correction suitable for the person's face are performed. When the light distribution condition is a strobe, the face area of the photographed image data is white, so that a process for adding color is performed. When the light distribution condition is backlight, correction is performed to brighten the face area and darken the background area.

以上のように、本実施形態の画像処理装置1によれば、撮影画像データから撮影時の配光条件を判別し、判別された配光条件に応じて、撮影画像データから人物の顔を判別するための処理条件を決定するようにしたことにより、顔の判別精度を向上させることができる。   As described above, according to the image processing apparatus 1 of the present embodiment, the light distribution condition at the time of shooting is determined from the captured image data, and the person's face is determined from the captured image data according to the determined light distribution condition. By determining the processing conditions for this, the face discrimination accuracy can be improved.

特に、撮影画像データの明度と色相の分布状態から、配光条件を特定するための指標を算出し、その指標に基づいて配光条件を判別することにより、カラー画像における配光条件の判別精度を向上させることができる。更に、撮影画像データの明度の分布位置(構図的な特徴)から、配光条件を特定するための指標を算出し、その指標に基づいて配光条件を判別することにより、撮影画像データがモノクロ画像であっても、配光条件の判別精度を向上させることができる。   In particular, by calculating the index for specifying the light distribution condition from the brightness and hue distribution state of the captured image data, and determining the light distribution condition based on the index, the accuracy of determining the light distribution condition in the color image Can be improved. Further, an index for specifying the light distribution condition is calculated from the distribution position (compositional feature) of the brightness of the photographed image data, and the photographed image data is obtained by determining the light distribution condition based on the index. Even in the case of an image, it is possible to improve the light distribution condition discrimination accuracy.

また、配光条件を特定するための指標の値に応じて、顔判別処理の処理条件を段階的又は連続的に調整可能にしたことにより、より木目細かい顔判別処理を行うことができるため、顔の判別精度を一層向上させることができる。   In addition, according to the value of the index for specifying the light distribution condition, by making it possible to adjust the processing conditions of the face discrimination process stepwise or continuously, it is possible to perform a finer face discrimination process, The face discrimination accuracy can be further improved.

更に、撮影画像データから配光条件に応じて顔候補領域を抽出し、抽出された顔候補領域が人物の顔であるか否かを判定するようにしたことにより、配光条件に適した顔候補領域から顔を判定することができるため、顔候補領域の抽出精度を向上させるとともに、顔の判別精度(判定精度)を一層向上させることができる。   Furthermore, a face candidate area is extracted from the captured image data according to the light distribution condition, and it is determined whether or not the extracted face candidate area is a human face. Since the face can be determined from the candidate area, the accuracy of extracting the face candidate area can be improved and the face discrimination accuracy (determination accuracy) can be further improved.

また、顔候補領域から配光条件に応じて特徴量を抽出し、その抽出された特徴量に基づいて顔判定を行うようにしたことにより、特徴量の抽出精度を向上させるとともに、顔の判別精度(判定精度)をより一層向上させることができる。   In addition, by extracting feature values from the face candidate region according to the light distribution conditions and performing face determination based on the extracted feature values, the feature amount extraction accuracy is improved and face discrimination is performed. The accuracy (judgment accuracy) can be further improved.

特に、抽出された特徴量を入力信号(入力パラメータ)としたニューラルネットワークを用いて顔判別処理を行うようにしたことにより、処理負荷が低く、簡易な手段で顔判別処理を実現することができる。また、配光条件に応じて使用するニューラルネットワークが決定されていることにより、顔の判別精度(判定精度)をより一層向上させることができる。   In particular, the face discrimination process is performed using a neural network using the extracted feature quantity as an input signal (input parameter), so that the face discrimination process can be realized with a simple means with a low processing load. . Further, since the neural network to be used is determined according to the light distribution condition, the face discrimination accuracy (determination accuracy) can be further improved.

また、高精度に判別された顔の判別結果及び/又は配光条件に応じて、撮影画像データに対して所定の画像処理が施されるため、高画質の画像を得ることができる。   Further, since predetermined image processing is performed on the captured image data in accordance with the face discrimination result and / or the light distribution condition determined with high accuracy, a high-quality image can be obtained.

なお、本実施形態における記述内容は、本発明の趣旨を逸脱しない範囲で適宜変更可能である。   Note that the description in the present embodiment can be changed as appropriate without departing from the spirit of the present invention.

例えば、本実施形態では、顔判定処理にニューラルネットワークを用いる例を示したが、顔判定処理の方法はこれに限定されない。例えば、顔候補領域を二値化した画像についてテンプレートマッチングを用いて顔判定を行う方法や、顔候補領域から目や口等、顔を特徴付ける特徴部位を抽出し、顔候補領域及び特徴部位の位置関係に基づいて顔判定を行う方法等、あらゆる方法を採用することができる。   For example, in this embodiment, an example in which a neural network is used for the face determination process has been described, but the method of the face determination process is not limited to this. For example, a method of performing face determination using template matching for an image obtained by binarizing a face candidate area, or extracting a feature part characterizing a face such as an eye or a mouth from the face candidate area, and the position of the face candidate area and feature part Any method such as a method of performing face determination based on the relationship can be employed.

また、本実施形態では、顔判別処理において、撮影画像データから顔候補領域を抽出し、抽出された顔候補領域が顔であるか否かを判定するようにしたが、顔候補領域を抽出せずに顔を判別することが可能である。例えば、撮影画像データの画像領域中を所定の顔テンプレートでスキャンし、適合する箇所があれば、その箇所に人物の顔があると判定する処理を適用することができる。   In this embodiment, in the face discrimination process, the face candidate area is extracted from the captured image data, and it is determined whether or not the extracted face candidate area is a face. It is possible to discriminate the face without the need. For example, it is possible to apply a process of scanning the image area of the photographed image data with a predetermined face template and determining that there is a person's face at that location if there is a matching location.

本発明の実施形態における画像処理装置の外観構成を示す斜視図。1 is a perspective view showing an external configuration of an image processing apparatus according to an embodiment of the present invention. 本実施形態の画像処理装置の主要部構成を示すブロック図。FIG. 2 is a block diagram showing the main configuration of the image processing apparatus according to the present embodiment. 図2の画像処理部の主要部構成を示すブロック図。The block diagram which shows the principal part structure of the image processing part of FIG. 本実施形態の画像調整処理部において実行される画像処理全体の流れを示すフローチャート。6 is a flowchart showing the overall flow of image processing executed in the image adjustment processing unit of the present embodiment. 明度・色相の領域毎に第1の占有率を算出する占有率算出処理を示すフローチャート。The flowchart which shows the occupation rate calculation process which calculates the 1st occupation rate for every area | region of brightness and hue. RGBからHSV表色系に変換するプログラムの一例を示す図。The figure which shows an example of the program which converts from RGB to HSV color system. 明度(V)−色相(H)平面と、V−H平面上の領域r1及び領域r2を示す図。The figure which shows the brightness | luminance (V) -hue (H) plane, and the area | region r1 and the area | region r2 on a VH plane. 明度(V)−色相(H)平面と、V−H平面上の領域r3及び領域r4を示す図。The figure which shows the brightness | luminance (V) -hue (H) plane, and the area | region r3 and the area | region r4 on a VH plane. 指標1を算出するための、第1の占有率に乗算する第1の係数を表す曲線を示す図。The figure which shows the curve showing the 1st coefficient by which the 1st occupation rate for calculating the parameter | index 1 is multiplied. 指標2を算出するための、第1の占有率に乗算する第2の係数を表す曲線を示す図。The figure which shows the curve showing the 2nd coefficient by which the 1st occupation rate for calculating the parameter | index 2 is multiplied. 撮影画像データの構図に基づいて第2の占有率を算出する占有率算出処理を示すフローチャート。The flowchart which shows the occupation rate calculation process which calculates a 2nd occupation rate based on the composition of picked-up image data. 撮影画像データの画面の外縁からの距離に応じて決定される領域n1〜n4を示す図。The figure which shows the area | regions n1-n4 determined according to the distance from the outer edge of the screen of picked-up image data. 指標3を算出するための、第2の占有率に乗算する第3の係数を表す曲線を領域別(n1〜n4)に示す図。The figure which shows the curve showing the 3rd coefficient for multiplying the 2nd occupation rate for calculating the parameter | index 3 according to area | region (n1-n4). 配光条件(順光、ストロボ、逆光)別に算出された指標4及び指標5のプロット図。The plot figure of the parameter | index 4 and the parameter | index 5 calculated according to light distribution conditions (forward light, strobe, backlight). 階層型ニューラルネットワークの構造を模式的に示す図。The figure which shows the structure of a hierarchical neural network typically. ニューラルネットワークを構成するニューロンの構造を示す図。The figure which shows the structure of the neuron which comprises a neural network. 顔判別処理を示すフローチャート。The flowchart which shows a face discrimination | determination process. 顔判定処理を示すフローチャート。The flowchart which shows a face determination process.

符号の説明Explanation of symbols

1 画像処理装置
4 露光処理部
5 プリント作成部
7 制御部
8 CRT
9 フィルムスキャナ部
10 反射原稿入力装置
11 操作部
14 画像読込部
15 画像書込部
30 画像転送手段
31 画像搬送部
32 通信手段(入力)
33 通信手段(出力)
34 外部プリンタ
70 画像処理部
701 フィルムスキャンデータ処理部
702 反射原稿スキャンデータ処理部
703 画像データ書式解読処理部
704 画像調整処理部
705 CRT固有処理部
706 プリンタ固有処理部(1)
707 プリンタ固有処理部(2)
708 画像データ書式作成処理部
71 データ蓄積手段
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 4 Exposure processing part 5 Print preparation part 7 Control part 8 CRT
DESCRIPTION OF SYMBOLS 9 Film scanner part 10 Reflective original input device 11 Operation part 14 Image reading part 15 Image writing part 30 Image transfer means 31 Image conveyance part 32 Communication means (input)
33 Communication means (output)
34 External Printer 70 Image Processing Unit 701 Film Scan Data Processing Unit 702 Reflected Original Scan Data Processing Unit 703 Image Data Format Decoding Processing Unit 704 Image Adjustment Processing Unit 705 CRT Specific Processing Unit 706 Printer Specific Processing Unit (1)
707 Printer-specific processing unit (2)
708 Image data format creation processing unit 71 Data storage means

Claims (30)

撮影画像データから画像信号を取得する取得工程と、
前記取得された画像信号に基づいて、前記撮影画像データを所定の明度と色相の組み合わせからなる領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出する占有率算出工程と、
前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別工程と、
前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定工程と、
前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別工程と、
を含むことを特徴とする画像処理方法。
An acquisition step of acquiring an image signal from the captured image data;
Based on the acquired image signal, the photographed image data is divided into areas composed of a combination of predetermined brightness and hue, and an occupation ratio indicating a ratio of the whole photographed image data is obtained for each of the divided areas. An occupancy calculation step to calculate,
A light distribution condition determining step of determining a light distribution condition at the time of photographing by performing an operation of multiplying the calculated occupation ratio of each region by a coefficient set in advance according to the photographing condition;
A determination step for determining processing conditions for determining a person's face from the captured image data in accordance with the determined light distribution conditions;
A face discrimination step for performing a process of discriminating a person's face from the captured image data in accordance with the determined processing conditions;
An image processing method comprising:
撮影画像データから画像信号を取得する取得工程と、
前記取得された画像信号に基づいて、前記撮影画像データを、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出する占有率算出工程と、
前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別工程と、
前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定工程と、
前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別工程と、
を含むことを特徴とする画像処理方法。
An acquisition step of acquiring an image signal from the captured image data;
Based on the acquired image signal, the photographed image data is divided into predetermined regions composed of a combination of the distance from the outer edge of the screen of the photographed image data and brightness, and the photographing is performed for each of the divided regions. An occupancy ratio calculating step for calculating an occupancy ratio indicating the ratio of the entire image data;
A light distribution condition determining step of determining a light distribution condition at the time of photographing by performing an operation of multiplying the calculated occupation ratio of each region by a coefficient set in advance according to the photographing condition;
A determination step for determining processing conditions for determining a person's face from the captured image data in accordance with the determined light distribution conditions;
A face discrimination step for performing a process of discriminating a person's face from the captured image data in accordance with the determined processing conditions;
An image processing method comprising:
撮影画像データから画像信号を取得する取得工程と、
前記取得された画像信号に基づいて、撮影画像データを、所定の明度と色相の組み合わせからなる領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す第1の占有率を算出するとともに、撮影画像データを、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す第2の占有率を算出する占有率算出工程と、
前記算出された第1の占有率及び第2の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別工程と、
前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定工程と、
前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別工程と、
を含むことを特徴とする画像処理方法。
An acquisition step of acquiring an image signal from the captured image data;
Based on the acquired image signal, the photographed image data is divided into regions composed of a combination of a predetermined brightness and hue, and a first ratio indicating a ratio of the entire photographed image data for each divided region. The occupancy ratio is calculated, and the captured image data is divided into a predetermined area composed of a combination of the distance from the outer edge of the screen of the captured image data and the brightness, and for each of the divided areas, the entire captured image data is divided. An occupancy ratio calculating step of calculating a second occupancy ratio indicating the occupying ratio;
A light distribution condition determining step of determining a light distribution condition at the time of photographing by performing an operation of multiplying the calculated first occupancy and second occupancy by a coefficient set in advance according to the photographing condition. When,
A determination step for determining processing conditions for determining a person's face from the captured image data in accordance with the determined light distribution conditions;
A face discrimination step for performing a process of discriminating a person's face from the captured image data in accordance with the determined processing conditions;
An image processing method comprising:
前記配光条件判別工程では、前記演算を行うことにより、配光条件を特定するための指標が算出され、その算出された指標に基づいて配光条件が判別され、
前記決定工程では、前記算出された指標の値に応じて、顔判別処理の処理条件の切り替え及び/又は調整が行われることを特徴とする請求項1〜3の何れか一項に記載の画像処理方法。
In the light distribution condition determining step, an index for specifying the light distribution condition is calculated by performing the calculation, and the light distribution condition is determined based on the calculated index.
The image according to any one of claims 1 to 3, wherein in the determination step, switching and / or adjustment of processing conditions for face discrimination processing is performed according to the calculated index value. Processing method.
前記顔判別工程における判別結果及び/又は配光条件に応じて、前記撮影画像データに所定の画像処理を施す画像処理工程を含むことを特徴とする請求項1〜4の何れか一項に記載の画像処理方法。   5. The image processing step according to claim 1, further comprising an image processing step of performing predetermined image processing on the captured image data in accordance with a determination result and / or a light distribution condition in the face determination step. Image processing method. 前記決定工程では、前記判別された配光条件に応じて、前記撮影画像データから人物の顔候補領域を抽出するための抽出条件が決定され、
前記顔判別工程では、前記決定された顔候補領域の抽出条件に従って、前記撮影画像データから人物の顔候補領域が抽出され、その抽出された顔候補領域に対して顔判別処理が行われることを特徴とする請求項1〜5の何れか一項に記載の画像処理方法。
In the determining step, an extraction condition for extracting a human face candidate region from the captured image data is determined according to the determined light distribution condition,
In the face discrimination step, a human face candidate area is extracted from the captured image data in accordance with the determined face candidate area extraction condition, and a face discrimination process is performed on the extracted face candidate area. The image processing method according to claim 1, wherein the image processing method is characterized.
前記決定工程では、前記判別された配光条件に応じて、前記顔候補領域から抽出する特徴量の抽出条件が決定され、
前記顔判別工程では、前記決定された特徴量の抽出条件に従って、前記顔候補領域から特徴量が抽出され、その抽出された特徴量に基づいて顔判別処理が行われることを特徴とする請求項6に記載の画像処理方法。
In the determination step, an extraction condition for a feature amount to be extracted from the face candidate area is determined according to the determined light distribution condition,
The feature determination is characterized in that, in the face discrimination step, a feature quantity is extracted from the face candidate region according to the determined feature quantity extraction condition, and a face discrimination process is performed based on the extracted feature quantity. 6. The image processing method according to 6.
前記決定工程では、前記判別された配光条件に応じて、前記顔候補領域から抽出する特徴量が決定されることを特徴とする請求項7に記載の画像処理方法。   The image processing method according to claim 7, wherein in the determination step, a feature amount extracted from the face candidate region is determined according to the determined light distribution condition. 前記決定工程では、前記判別された配光条件に応じて、前記特徴量に基づいて前記顔候補領域が人物の顔であるか否かを判定するための顔判定処理条件が決定され、
前記顔判別工程では、前記決定された顔判定処理条件に従って顔判別処理が行われることを特徴とする請求項7又は8に記載の画像処理方法。
In the determining step, a face determination processing condition for determining whether or not the face candidate region is a person's face based on the feature amount is determined according to the determined light distribution condition,
The image processing method according to claim 7 or 8, wherein in the face discrimination step, face discrimination processing is performed according to the determined face determination processing conditions.
前記顔判別工程では、ニューラルネットワークを用いて顔判別処理が行われることを特徴とする請求項1〜9の何れか一項に記載の画像処理方法。   The image processing method according to claim 1, wherein in the face discrimination step, face discrimination processing is performed using a neural network. 撮影画像データから画像信号を取得する取得手段と、
前記取得された画像信号に基づいて、前記撮影画像データを所定の明度と色相の組み合わせからなる領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出する占有率算出手段と、
前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別手段と、
前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定手段と、
前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別手段と、
を備えることを特徴とする画像処理装置。
Acquisition means for acquiring an image signal from captured image data;
Based on the acquired image signal, the photographed image data is divided into areas composed of a combination of predetermined brightness and hue, and an occupation ratio indicating a ratio of the whole photographed image data is obtained for each of the divided areas. Occupancy ratio calculating means for calculating;
A light distribution condition determining means for determining a light distribution condition at the time of photographing by performing an operation of multiplying the calculated occupancy of each region by a coefficient set in advance according to the photographing condition;
Determining means for determining a processing condition for discriminating a person's face from the photographed image data in accordance with the discriminated light distribution condition;
Face discriminating means for performing processing for discriminating a person's face from the captured image data in accordance with the determined processing conditions;
An image processing apparatus comprising:
撮影画像データから画像信号を取得する取得手段と、
前記取得された画像信号に基づいて、前記撮影画像データを、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出する占有率算出手段と、
前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別手段と、
前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定手段と、
前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別手段と、
を備えることを特徴とする画像処理装置。
Acquisition means for acquiring an image signal from captured image data;
Based on the acquired image signal, the photographed image data is divided into predetermined regions composed of a combination of the distance from the outer edge of the screen of the photographed image data and brightness, and the photographing is performed for each of the divided regions. An occupancy ratio calculating means for calculating an occupancy ratio indicating the ratio of the entire image data;
A light distribution condition determining means for determining a light distribution condition at the time of photographing by performing an operation of multiplying the calculated occupancy of each region by a coefficient set in advance according to the photographing condition;
Determining means for determining a processing condition for discriminating a person's face from the photographed image data in accordance with the discriminated light distribution condition;
Face discriminating means for performing processing for discriminating a person's face from the captured image data in accordance with the determined processing conditions;
An image processing apparatus comprising:
撮影画像データから画像信号を取得する取得手段と、
前記取得された画像信号に基づいて、撮影画像データを、所定の明度と色相の組み合わせからなる領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す第1の占有率を算出するとともに、撮影画像データを、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す第2の占有率を算出する占有率算出手段と、
前記算出された第1の占有率及び第2の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別手段と、
前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定手段と、
前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別手段と、
を備えることを特徴とする画像処理装置。
Acquisition means for acquiring an image signal from captured image data;
Based on the acquired image signal, the photographed image data is divided into regions composed of a combination of a predetermined brightness and hue, and a first ratio indicating a ratio of the entire photographed image data for each divided region. The occupancy ratio is calculated, and the captured image data is divided into a predetermined area composed of a combination of the distance from the outer edge of the screen of the captured image data and the brightness, and for each of the divided areas, the entire captured image data is divided. An occupancy ratio calculating means for calculating a second occupancy ratio indicating the occupying ratio;
Light distribution condition determining means for determining the light distribution condition at the time of photographing by performing an operation of multiplying the calculated first occupancy and second occupancy by a coefficient set in advance according to the photographing condition. When,
Determining means for determining a processing condition for discriminating a person's face from the photographed image data in accordance with the discriminated light distribution condition;
Face discriminating means for performing processing for discriminating a person's face from the captured image data in accordance with the determined processing conditions;
An image processing apparatus comprising:
前記配光条件判別手段は、前記演算を行うことにより、配光条件を特定するための指標を算出し、その算出された指標に基づいて配光条件を判別し、
前記決定手段は、前記算出された指標の値に応じて、顔判別処理の処理条件の切り替え及び/又は調整を行うことを特徴とする請求項11〜13の何れか一項に記載の画像処理装置。
The light distribution condition determining means calculates the index for specifying the light distribution condition by performing the calculation, determines the light distribution condition based on the calculated index,
The image processing according to any one of claims 11 to 13, wherein the determination unit performs switching and / or adjustment of processing conditions for face discrimination processing according to the calculated index value. apparatus.
前記顔判別手段による判別結果及び/又は配光条件に応じて、前記撮影画像データに所定の画像処理を施す画像処理手段を備えることを特徴とする請求項11〜14の何れか一項に記載の画像処理装置。   15. The image processing device according to claim 11, further comprising an image processing unit configured to perform predetermined image processing on the captured image data in accordance with a determination result by the face determination unit and / or a light distribution condition. Image processing apparatus. 前記決定手段は、前記判別された配光条件に応じて、前記撮影画像データから人物の顔候補領域を抽出するための抽出条件を決定し、
前記顔判別手段は、前記決定された顔候補領域の抽出条件に従って、前記撮影画像データから人物の顔候補領域を抽出し、その抽出された顔候補領域に対して顔判別処理を行うことを特徴とする請求項11〜15の何れか一項に記載の画像処理装置。
The determining means determines an extraction condition for extracting a human face candidate region from the captured image data according to the determined light distribution condition,
The face discriminating means extracts a human face candidate area from the captured image data in accordance with the determined face candidate area extraction condition, and performs face discrimination processing on the extracted face candidate area. The image processing apparatus according to any one of claims 11 to 15.
前記決定手段は、前記判別された配光条件に応じて、前記顔候補領域から抽出する特徴量の抽出条件を決定し、
前記顔判別手段は、前記決定された特徴量の抽出条件に従って、前記顔候補領域から特徴量を抽出し、その抽出された特徴量に基づいて顔判別処理を行うことを特徴とする請求項16に記載の画像処理装置。
The determining unit determines an extraction condition for a feature amount to be extracted from the face candidate region according to the determined light distribution condition,
The face discrimination means extracts a feature quantity from the face candidate region according to the determined feature quantity extraction condition, and performs face discrimination processing based on the extracted feature quantity. An image processing apparatus according to 1.
前記決定手段は、前記判別された配光条件に応じて、前記顔候補領域から抽出する特徴量を決定することを特徴とする請求項17に記載の画像処理装置。   The image processing apparatus according to claim 17, wherein the determining unit determines a feature amount to be extracted from the face candidate region according to the determined light distribution condition. 前記決定手段は、前記判別された配光条件に応じて、前記特徴量に基づいて前記顔候補領域が人物の顔であるか否かを判定するための顔判定処理条件を決定し、
前記顔判別手段は、前記決定された顔判定処理条件に従って顔判別処理を行うことを特徴とする請求項17又は18に記載の画像処理装置。
The determining means determines a face determination processing condition for determining whether the face candidate region is a human face based on the feature amount according to the determined light distribution condition,
The image processing apparatus according to claim 17, wherein the face determination unit performs a face determination process according to the determined face determination processing condition.
前記顔判別手段は、ニューラルネットワークを用いて顔判別処理を行うことを特徴とする請求項11〜19の何れか一項に記載の画像処理装置。   The image processing apparatus according to claim 11, wherein the face determination unit performs a face determination process using a neural network. 画像処理を実行するコンピュータに、
撮影画像データから画像信号を取得する取得機能と、
前記取得された画像信号に基づいて、前記撮影画像データを所定の明度と色相の組み合わせからなる領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出する占有率算出機能と、
前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別機能と、
前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定機能と、
前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別機能と、
を実現させるための画像処理プログラム。
On the computer that performs image processing,
An acquisition function for acquiring image signals from captured image data;
Based on the acquired image signal, the photographed image data is divided into areas composed of a combination of predetermined brightness and hue, and an occupation ratio indicating a ratio of the whole photographed image data is obtained for each of the divided areas. Occupancy rate calculation function to calculate,
A light distribution condition determining function for determining a light distribution condition at the time of photographing by performing an operation of multiplying the calculated occupation ratio of each region by a coefficient set in advance according to the photographing condition;
A determination function for determining a processing condition for determining a person's face from the photographed image data in accordance with the determined light distribution condition;
A face discrimination function for performing a process of discriminating a person's face from the captured image data in accordance with the determined processing conditions;
An image processing program for realizing
画像処理を実行するコンピュータに、
撮影画像データから画像信号を取得する取得機能と、
前記取得された画像信号に基づいて、前記撮影画像データを、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出する占有率算出機能と、
前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別機能と、
前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定機能と、
前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別機能と、
を実現させるための画像処理プログラム。
On the computer that performs image processing,
An acquisition function for acquiring image signals from captured image data;
Based on the acquired image signal, the photographed image data is divided into predetermined regions composed of a combination of the distance from the outer edge of the screen of the photographed image data and brightness, and the photographing is performed for each of the divided regions. An occupancy ratio calculation function for calculating an occupancy ratio indicating the ratio of the entire image data;
A light distribution condition determining function for determining a light distribution condition at the time of photographing by performing an operation of multiplying the calculated occupation ratio of each region by a coefficient set in advance according to the photographing condition;
A determination function for determining a processing condition for determining a person's face from the photographed image data in accordance with the determined light distribution condition;
A face discrimination function for performing a process of discriminating a person's face from the captured image data in accordance with the determined processing conditions;
An image processing program for realizing
画像処理を実行するコンピュータに、
撮影画像データから画像信号を取得する取得機能と、
前記取得された画像信号に基づいて、撮影画像データを、所定の明度と色相の組み合わせからなる領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す第1の占有率を算出するとともに、撮影画像データを、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める割合を示す第2の占有率を算出する占有率算出機能と、
前記算出された第1の占有率及び第2の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光条件を判別する配光条件判別機能と、
前記判別された配光条件に応じて、前記撮影画像データから人物の顔を判別するための処理条件を決定する決定機能と、
前記決定された処理条件に従って、前記撮影画像データから人物の顔を判別する処理を行う顔判別機能と、
を実現させるための画像処理プログラム。
On the computer that performs image processing,
An acquisition function for acquiring image signals from captured image data;
Based on the acquired image signal, the photographed image data is divided into regions composed of a combination of a predetermined brightness and hue, and a first ratio indicating a ratio of the entire photographed image data for each divided region. The occupancy ratio is calculated, and the captured image data is divided into a predetermined area composed of a combination of the distance from the outer edge of the screen of the captured image data and the brightness, and for each of the divided areas, the entire captured image data is divided. An occupancy ratio calculating function for calculating a second occupancy ratio indicating the occupying ratio;
A light distribution condition determining function for determining the light distribution condition at the time of photographing by performing an operation of multiplying the calculated first occupancy and second occupancy by a coefficient set in advance according to the photographing condition. When,
A determination function for determining a processing condition for determining a person's face from the photographed image data in accordance with the determined light distribution condition;
A face discrimination function for performing a process of discriminating a person's face from the captured image data in accordance with the determined processing conditions;
An image processing program for realizing
前記配光条件判別機能を実現させる際に、前記演算を行うことにより、配光条件を特定するための指標を算出し、その算出された指標に基づいて配光条件を判別し、
前記決定機能を実現させる際に、前記算出された指標の値に応じて、顔判別処理の処理条件の切り替え及び/又は調整を行うことを特徴とする請求項21〜23の何れか一項に記載の画像処理プログラム。
When realizing the light distribution condition determination function, by performing the calculation, an index for specifying the light distribution condition is calculated, the light distribution condition is determined based on the calculated index,
24. When realizing the determination function, switching and / or adjustment of processing conditions of face discrimination processing is performed according to the calculated index value. The image processing program described.
前記顔判別機能による判別結果及び/又は配光条件に応じて、前記撮影画像データに所定の画像処理を施す画像処理機能を実現することを特徴とする請求項21〜24の何れか一項に記載の画像処理プログラム。   The image processing function for performing predetermined image processing on the captured image data according to a determination result by the face determination function and / or a light distribution condition is realized. The image processing program described. 前記決定機能を実現させる際に、前記判別された配光条件に応じて、前記撮影画像データから人物の顔候補領域を抽出するための抽出条件を決定し、
前記顔判別機能を実現させる際に、前記決定された顔候補領域の抽出条件に従って、前記撮影画像データから人物の顔候補領域を抽出し、その抽出された顔候補領域に対して顔判別処理を行うことを特徴とする請求項21〜25の何れか一項に記載の画像処理プログラム。
When realizing the determination function, in accordance with the determined light distribution condition, determine an extraction condition for extracting a human face candidate region from the captured image data,
When realizing the face discrimination function, a human face candidate region is extracted from the captured image data in accordance with the determined face candidate region extraction condition, and face discrimination processing is performed on the extracted face candidate region. The image processing program according to any one of claims 21 to 25, wherein the image processing program is executed.
前記決定機能を実現させる際に、前記判別された配光条件に応じて、前記顔候補領域から抽出する特徴量の抽出条件を決定し、
前記顔判別機能を実現させる際に、前記決定された特徴量の抽出条件に従って、前記顔候補領域から特徴量を抽出し、その抽出された特徴量に基づいて顔判別処理を行うことを特徴とする請求項26に記載の画像処理プログラム。
When realizing the determination function, in accordance with the determined light distribution condition, to determine a feature amount extraction condition to be extracted from the face candidate region,
When realizing the face discrimination function, a feature amount is extracted from the face candidate region according to the determined feature amount extraction condition, and face discrimination processing is performed based on the extracted feature amount. The image processing program according to claim 26.
前記決定機能を実現させる際に、前記判別された配光条件に応じて、前記顔候補領域から抽出する特徴量を決定することを特徴とする請求項27に記載の画像処理プログラム。   28. The image processing program according to claim 27, wherein when the determination function is realized, a feature amount extracted from the face candidate region is determined according to the determined light distribution condition. 前記決定機能を実現させる際に、前記判別された配光条件に応じて、前記特徴量に基づいて前記顔候補領域が人物の顔であるか否かを判定するための顔判定処理条件を決定し、
前記顔判別機能を実現させる際に、前記決定された顔判定処理条件に従って顔判別処理を行うことを特徴とする請求項27又は28に記載の画像処理プログラム。
When realizing the determination function, a face determination processing condition for determining whether or not the face candidate region is a person's face is determined based on the feature amount according to the determined light distribution condition. And
The image processing program according to claim 27 or 28, wherein when the face discrimination function is realized, face discrimination processing is performed according to the determined face determination processing conditions.
前記顔判別機能を実現させる際に、ニューラルネットワークを用いて顔判別処理を行うことを特徴とする請求項21〜29の何れか一項に記載の画像処理プログラム。   The image processing program according to any one of claims 21 to 29, wherein a face discrimination process is performed using a neural network when the face discrimination function is realized.
JP2004214669A 2004-07-22 2004-07-22 Image processing method, image processing apparatus, and image processing program Expired - Fee Related JP4449619B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004214669A JP4449619B2 (en) 2004-07-22 2004-07-22 Image processing method, image processing apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004214669A JP4449619B2 (en) 2004-07-22 2004-07-22 Image processing method, image processing apparatus, and image processing program

Publications (2)

Publication Number Publication Date
JP2006039670A JP2006039670A (en) 2006-02-09
JP4449619B2 true JP4449619B2 (en) 2010-04-14

Family

ID=35904642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004214669A Expired - Fee Related JP4449619B2 (en) 2004-07-22 2004-07-22 Image processing method, image processing apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP4449619B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006319714A (en) * 2005-05-13 2006-11-24 Konica Minolta Photo Imaging Inc Method, apparatus, and program for processing image
JP5354842B2 (en) * 2006-05-26 2013-11-27 キヤノン株式会社 Image processing method and image processing apparatus
JP4884118B2 (en) * 2006-07-27 2012-02-29 富士フイルム株式会社 Data correction method, apparatus and program
JP6089476B2 (en) * 2012-07-20 2017-03-08 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program

Also Published As

Publication number Publication date
JP2006039670A (en) 2006-02-09

Similar Documents

Publication Publication Date Title
US8170364B2 (en) Image processing method, image processing device, and image processing program
US8285059B2 (en) Method for automatic enhancement of images containing snow
US8194992B2 (en) System and method for automatic enhancement of seascape images
AU2011254014B2 (en) Image processing apparatus, image processing method, and program
JP2005190435A (en) Image processing method, image processing apparatus and image recording apparatus
JP2005202562A (en) Image processing method, image processor and image processing program
JP2006325015A (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
US20050259282A1 (en) Image processing method, image processing apparatus, image recording apparatus, and image processing program
JP2007184888A (en) Imaging apparatus, image processor, image processing method, and image processing program
JP2006031440A (en) Image processing method, image processing apparatus, image processing program and image processing system
JP2007193590A (en) Image processing method, image processing device, reception terminal, and image processing program
JP2006318255A (en) Image processing method, image processor and image processing program
JP2006039666A (en) Image processing method, image processor and image processing program
JP2005192162A (en) Image processing method, image processing apparatus, and image recording apparatus
JP4449619B2 (en) Image processing method, image processing apparatus, and image processing program
WO2006033235A1 (en) Image processing method, image processing device, imaging device, and image processing program
JP2007193592A (en) Image processing apparatus, image processing method and image processing program
JP2007193587A (en) Image processing device, image processing method, and image processing program
WO2006033236A1 (en) Image processing method, image processing device, imaging device, and image processing program
JP7382834B2 (en) Image processing device, image processing method, and program
JP2007293686A (en) Imaging apparatus, image processing apparatus, image processing method and image processing program
JP2007221678A (en) Imaging apparatus, image processor, image processing method and image processing program
JP2006039657A (en) Image processing method, image processor and image processing program
JP2006094000A (en) Image processing method, image processing apparatus, and image processing program
JP2006293898A (en) Image processing method, image processing apparatus, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070614

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070827

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100118

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees