JP4798446B2 - Photographed image correction method and photographed image correction module - Google Patents

Photographed image correction method and photographed image correction module

Info

Publication number
JP4798446B2
JP4798446B2 JP2006236571A JP2006236571A JP4798446B2 JP 4798446 B2 JP4798446 B2 JP 4798446B2 JP 2006236571 A JP2006236571 A JP 2006236571A JP 2006236571 A JP2006236571 A JP 2006236571A JP 4798446 B2 JP4798446 B2 JP 4798446B2
Authority
JP
Japan
Prior art keywords
image
feature
input
density value
average
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006236571A
Other languages
Japanese (ja)
Other versions
JP2008060989A (en
Inventor
猛 村井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Precision Co Ltd
Original Assignee
NK Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NK Works Co Ltd filed Critical NK Works Co Ltd
Priority to JP2006236571A priority Critical patent/JP4798446B2/en
Publication of JP2008060989A publication Critical patent/JP2008060989A/en
Application granted granted Critical
Publication of JP4798446B2 publication Critical patent/JP4798446B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、入力撮影画像の撮影シーンを考慮して前記入力撮影画像を補正するための撮影画像補正技術に関する。   The present invention relates to a captured image correction technique for correcting an input captured image in consideration of a captured scene of the input captured image.

現在、デジタルカメラによって取得されたデジタル撮影画像のみならず、ネガフィルム、リバーサルフィルム等の写真フィルムに形成された撮影画像もフィルムスキャナを通じてデジタル画像化され、デジタルデータに基づいてプリントヘッドから発せられる光ビームやインク滴を制御し、この制御された光ビームやインク滴によって感光材料や記録紙をプリント走査して画像を形成し、写真プリントを出力する写真プリント装置が広まっている。なお、ここでは、特別に区別する必要がある場合を除いて、デジタルデータとしての撮影画像データやこの撮影画像データに基づくプリント撮影画像やモニタ表示撮影画像を単に撮影画像という語句で総称している。このような写真プリント装置では、デジタルデータ化された撮影画像に対しては最終的に高品位な画像形成を実現するために濃度補正やコントラスト補正など補正処理が行われる。例えば、デジタル化され入力された撮影画像に対する濃度補正技術として、RGB各色についての全画素の画素値(濃度値;輝度値)を平均したときにグレー(灰色)となるように、RGB各色成分のヒストグラムを補正する方法が知られている。この方法は、「一般的な戸外の風景を撮影した場合に、その画像に記録されている色を全て混ぜ合わせると灰色に近くなる」というエバンスの定理に基づいている。しかしながらこの従来の撮影画像補正技術では、例えば、明るい背景に対してストロボを用いずに人物を撮影した画像や暗い背景に対してフラッシュを用いて人物を撮影した画像、あるいは逆光で人物を撮影した画像など、画面全体で濃度に偏りがある撮影画像を上記技術により濃度補正した場合、背景の影響を受けて主要被写体である人物が適正に補正されないと言う問題点が生じていた。   Currently, not only digitally photographed images acquired by digital cameras but also photographed images formed on photographic films such as negative films and reversal films are converted into digital images through film scanners, and light emitted from the print head based on the digital data 2. Description of the Related Art Photo printing apparatuses that control beams and ink droplets, print and scan photosensitive materials and recording paper with the controlled light beams and ink droplets to form images, and output photographic prints have become widespread. Note that, here, unless otherwise specifically required, the captured image data as digital data, the print captured image based on the captured image data, and the monitor display captured image are collectively referred to simply as a captured image. . In such a photographic printing apparatus, correction processing such as density correction and contrast correction is performed on a photographic image converted into digital data in order to finally realize high-quality image formation. For example, as a density correction technique for a digitized and inputted photographed image, each RGB component of the RGB color components is grayed out when the pixel values (density values; luminance values) of all the pixels for each RGB color are averaged. A method for correcting a histogram is known. This method is based on Evans' theorem that "when a general outdoor landscape is photographed, all the colors recorded in the image are combined to become gray". However, with this conventional captured image correction technique, for example, an image of a person photographed without using a strobe against a bright background, an image of a person photographed using a flash against a dark background, or a person photographed with backlight When a photographic image such as an image having a biased density on the entire screen is subjected to density correction by the above technique, there has been a problem that a person who is a main subject is not properly corrected due to the influence of the background.

上記問題を解決するためには、補正対象としての撮影画像の撮影時の状況である撮影シーン(例えば、逆光撮影、ストロボ撮影など)を判定し、判定された撮影シーンに応じて適切な補正のやり方(補正度)を決定し、その決定された補正度に基づいて撮影画像を補正することで、逆光撮影であっても、あるいはストロボ撮影であっても主要被写体が適正に表現されることになる。このようなことから、複数の画素データで構成された画像データを用いてモニタ画面上に画像を再生する画像再生手段と、モニタ画面上に再生された画像のうち特定の範囲を選択する範囲選択手段と、モニタ画面上に再生された画像が逆光又は逆光に近い状態である場合に逆光条件を設定する逆光設定手段と、逆光条件が設定された場合に、選択された範囲に含まれる画素データのうち輝度の低い方から所定の割合の画素データを抽出し、逆光条件が設定されていない場合に、選択された範囲に含まれる画素データのうち輝度の高い方から所定の割合の画素データを抽出する画素データ抽出手段と、前記画素データ抽出手段により抽出された画素データを用いて、選択された範囲の輝度の平均値を演算する平均輝度演算手段と、求められた輝度の平均値をあらかじめ設定された所定の輝度値に補正するための補正量を演算により求める補正量演算手段と、求められた補正量を用いて全画素データを補正する画像データ補正手段と、補正された画像データを用いて画像を形成する画像形成手段とを備えた画像形成装置が知られている(例えば、特許文献1参照)。しかしながら、この従来技術では、前記逆光設定部は、マウスやキーボード、CPU、ROM、RAMなどで構成され、ディスプレイ上に再生されているプレスキャン画像が逆光又は逆光に近い状態であるとオペレータやユーザが判断した場合に、マウスやキーボードを操作して、逆光状態に対応する所定の信号を入力するものであり、撮影シーンの判定がオペレータやユーザの経験や知識に頼るものであり、取り扱いに熟練を要するという問題がある。   In order to solve the above problem, a shooting scene (for example, backlight shooting, flash shooting, etc.) that is a situation at the time of shooting of a shot image as a correction target is determined, and appropriate correction is performed according to the determined shooting scene. By determining the method (degree of correction) and correcting the captured image based on the determined degree of correction, the main subject can be expressed appropriately in both backlight shooting and flash shooting. Become. For this reason, image reproduction means for reproducing an image on a monitor screen using image data composed of a plurality of pixel data, and range selection for selecting a specific range among images reproduced on the monitor screen Means, a backlight setting means for setting a backlight condition when the image reproduced on the monitor screen is in a backlight or a state close to backlight, and pixel data included in the selected range when the backlight condition is set When a predetermined ratio of pixel data is extracted from the lower luminance of the pixel, and the backlight condition is not set, the predetermined percentage of pixel data from the higher luminance of the pixel data included in the selected range is extracted. Pixel data extracting means for extracting, average luminance calculating means for calculating the average value of the luminance in the selected range using the pixel data extracted by the pixel data extracting means, and the obtained brightness Correction amount calculation means for calculating a correction amount for correcting the average value of the predetermined value to a predetermined luminance value set in advance, image data correction means for correcting all pixel data using the calculated correction amount, and correction There is known an image forming apparatus including an image forming unit that forms an image using the image data thus obtained (see, for example, Patent Document 1). However, in this prior art, the backlight setting unit is composed of a mouse, a keyboard, a CPU, a ROM, a RAM, and the like. If the prescan image reproduced on the display is in a backlight or a state close to backlight, an operator or user If a judgment is made, the mouse or keyboard is operated to input a predetermined signal corresponding to the backlight state. The judgment of the shooting scene depends on the experience and knowledge of the operator and the user, and is skilled in handling. There is a problem that requires.

逆光撮影等の撮影シーンを自動判定するため、ニューラルネットワークを採用することも提案されている。例えば、入力層の各非線形素子に正規化された濃度分布ヒストグラムにおいて定められたサンプリング濃度値における頻度値(正規化された値)がそれぞれ入力されるとともに、出力パターンとして「適正露光」、「アンダー露光」、「オーバ露光」、「逆光」が設定されているニューラルネットワークを構築し、このニューラルネットワークの出力結果に基づき、画像補正演算処理の決定に利用される参照濃度値を適正に抽出することで、多階調画像の露光状態(撮影シーン)に拘わらず適正な画像処理が行なわれる画像処理装置が知られている(例えば、特許文献2参照)。しかしながら、ヒストグラムから得られる画像特徴量を入力として4つの撮影シーンを判定する単一のニューラルネットワークでは、同じ撮影シーンでも種々のヒストグラム形態が生じることや、人物を被写体とした場合には人物を最優先した画像補正が要求されることから、撮影画像によっては十分な出力精度が得られないという問題がある。   It has also been proposed to employ a neural network in order to automatically determine a shooting scene such as backlight shooting. For example, frequency values (normalized values) of sampling density values determined in a normalized density distribution histogram are input to each nonlinear element of the input layer, and “proper exposure” and “under” are output patterns. Build a neural network with “exposure”, “overexposure”, and “backlight” settings, and properly extract the reference density value used to determine image correction calculation processing based on the output result of this neural network Thus, an image processing apparatus that performs appropriate image processing regardless of the exposure state (shooting scene) of a multi-tone image is known (for example, see Patent Document 2). However, in a single neural network that determines four photographic scenes using image feature values obtained from the histogram as input, various histogram forms occur even in the same photographic scene, and when a person is the subject, the person is the best. Since prioritized image correction is required, there is a problem that sufficient output accuracy cannot be obtained depending on the captured image.

特開2002−185793号公報(段落番号0006、0024、図3)JP 2002-185793 (paragraph numbers 0006, 0024, FIG. 3) 特開平11−154235号公報(段落番号0054−0057、図7)JP-A-11-154235 (paragraph numbers 0054-0057, FIG. 7)

上記実状に鑑み、本発明の課題は、入力撮影画像の撮影シーンをニュートラルネットワークを用いて高い精度で推定し、その推定結果に基づいて前記入力撮影画像を精度よく補正することを可能とする撮影画像補正技術を提供することである。   In view of the above situation, an object of the present invention is to provide a shooting that enables a shooting scene of an input shooting image to be estimated with high accuracy using a neutral network, and that the input shooting image can be accurately corrected based on the estimation result. It is to provide image correction technology.

入力撮影画像の撮影シーンを考慮して前記入力撮影画像を補正するための撮影画像補正方法において上記課題を解決するための、本発明による撮影画像補正方法は、前記入力撮影画像のヒストグラムから画像特徴量としての種々のヒストグラム特徴量を求めるステップと、前記入力撮影画像に設定された領域からこの領域に依存する画像特徴量としての種々の領域依存濃度特徴量を求めるステップと、前記入力撮影画像から画像特徴量としての種々の色特徴量を求めるステップと、記画像特徴量としての前記種々のヒストグラム特徴量と前記種々の領域依存濃度特徴量と前記種々の色特徴量との集合を画像特徴量セットとし、当該画像特徴量セットから選択されるとともに少なくとも部分的には互いに異なる画像特徴量を含む複数の画像特徴量サブセットのそれぞれを入力とする複数のニューラルネットワーク部によって撮影シーンに関する出力を算出するステップと、前記複数のニューラルネットワーク部からの出力を用いて前記入力撮影画像の撮影シーンを推定する推定値を算出するステップとからなる。 In order to solve the above-described problem in the captured image correction method for correcting the input captured image in consideration of the captured scene of the input captured image, the captured image correction method according to the present invention includes an image feature based on a histogram of the input captured image. A step of obtaining various histogram feature amounts as quantities, a step of obtaining various region-dependent density feature amounts as image feature amounts depending on the region from the region set in the input photographed image, and the input photographed image image determining a variety of color feature as an image feature amount, the set of the various histogram feature amounts and the various regions dependent density feature quantity and the variety of color characteristic amounts as a pre-outs image feature quantity characterized quantity set, a plurality of images JP to encompass different image feature quantity is at least partially while being selected from the image characteristic quantity set A step of calculating an output relating to a photographic scene by a plurality of neural network units each receiving each of the quantity subsets, and an estimation value for estimating a photographic scene of the input photographic image using the outputs from the plurality of neural network units Step.

また、入力撮影画像の撮影シーンを考慮して前記入力撮影画像を補正するための撮影画像補正モジュールにおいて上記課題を解決するための、本発明による撮影画像補正モジュールは、前記入力撮影画像のヒストグラムから画像特徴量としての種々のヒストグラム特徴量を求めるヒストグラム特徴量演算部と、前記入力撮影画像に設定された領域からこの領域に依存する画像特徴量としての種々の領域依存濃度特徴量を求める領域依存濃度特徴量演算部と、前記入力撮影画像から画像特徴量としての種々の色特徴量を求める色特徴量演算部と、記画像特徴量としての前記種々のヒストグラム特徴量と前記種々の領域依存濃度特徴量と前記種々の色特徴量との集合を画像特徴量セットとし、当該画像特徴量セットから選択されるとともに少なくとも部分的には互いに異なる画像特徴量を含む複数の画像特徴量サブセットのそれぞれを入力として撮影シーンに関する出力を算出する複数のニューラルネットワーク部と、前記複数のニューラルネットワーク部からの出力を用いて前記入力撮影画像の撮影シーンを推定する推定値を算出する出力処理部とを備えている。 In addition, a captured image correction module according to the present invention for solving the above problem in a captured image correction module for correcting the input captured image in consideration of a captured scene of the input captured image is based on a histogram of the input captured image. Histogram feature amount calculation unit for obtaining various histogram feature amounts as image feature amounts, and region dependence for obtaining various region-dependent density feature amounts as image feature amounts depending on this region from the region set in the input photographed image a density feature quantity calculation section, various color feature calculation unit for obtaining a color feature, the various regions and the various histogram feature amounts of the front Kiga image feature amount of an image feature quantity from the input captured image a set of dependent density feature quantity and the variety of color feature data and image feature amount set small with is selected from the image characteristic quantity set In addition, a plurality of neural network units that calculate outputs related to a shooting scene using each of a plurality of image feature amount subsets including image feature amounts that are partially different from each other, and using outputs from the plurality of neural network units, And an output processing unit that calculates an estimated value for estimating a captured scene of the input captured image.

このような本発明の特徴構成によれば、処理対象撮影画像から得られた複数種の画像特徴量を入力として処理対象撮影画像の撮影シーンを推定するための結論を出力する複数のニューラルネットワーク部が用意されることになり、しかもそれぞれのニューラルネットワーク部に入力される画像特徴量サブセットはその内容が少なくとも部分的には異なっているので、各ニューラルネットワーク部がそれぞれ独立したアルゴリズムで撮影シーンに関する結論を出力することができる。そして、この複数のニューラルネットワーク部から出力された複数の結論から最終的な撮影画像の撮影シーンを推定する推定値を算出するので、この推定値は一種の合議制による結論であり、かなり極端な撮影条件で撮影された撮影画像であっても極端に異なった推定値を算出するという不都合は抑制される。正確な撮影シーンの推定値が得られることにより、処理対象となっている入力撮影画像に対する正確な補正度を決定することが可能となる。   According to such a feature configuration of the present invention, a plurality of neural network units for outputting a conclusion for estimating a shooting scene of a processing target shooting image by using a plurality of types of image feature amounts obtained from the processing target shooting image In addition, the image feature quantity subsets input to the respective neural network units are at least partially different in content, so each neural network unit has an independent algorithm and a conclusion about the shooting scene. Can be output. Since an estimated value for estimating the shooting scene of the final captured image is calculated from a plurality of conclusions output from the plurality of neural network units, this estimated value is a conclusion based on a kind of collaborative system, which is quite extreme. Even if it is a photographed image photographed under photographing conditions, the disadvantage of calculating extremely different estimated values is suppressed. By obtaining an accurate estimated value of the shooting scene, it is possible to determine an accurate correction degree for the input captured image to be processed.

用いられるニューラルネットワーク部の数は、最終的な結論の信頼度とニューラルネットワーク部の構築コストなどの条件から決定されるが、好適な実施形態として、本発明では、3つの異なるニューラルネットワーク部を用意することが提案される。つまり、前記画像特徴量セットから選択された画像特徴量からなる第1画像特徴量サブセットを入力とする第1ニューラルネットワーク部によって撮影シーンに関する第1出力を算出し、前記画像特徴量セットから選択されるとともに少なくとも部分的には前記第1画像特徴量サブセットに含まれる画像特徴量とは異なる画像特徴量からなる第2画像特徴量サブセットを入力とする第2ニューラルネットワーク部によって撮影シーンに関する第2出力を算出し、前記画像特徴量セットから選択されるとともに少なくとも部分的には前記第1画像特徴量サブセット及び前記第2画像特徴量サブセットに含まれる画像特徴量とは異なる画像特徴量からなる第3画像特徴量サブセットを入力とする第3ニューラルネットワーク部によって撮影シーンに関する第3出力を算出するように構成される。このように3つのニューラルネットワーク構成は、それぞれの結論である第1・第2・第3出力から推定値を算出する際に、全一致の法則や多数決の法則を組み込むことができるという利点も得られる。 The number of neural network units used is determined based on conditions such as the reliability of the final conclusion and the construction cost of the neural network unit. As a preferred embodiment, the present invention provides three different neural network units. Proposed to do. That is, before calculating the first output related to a shooting scene by the first neural network unit which receives the first image characteristic amount subset of selected image features from Kiga image characteristic quantity set, before Kiga image feature quantity A shooting scene by a second neural network unit that receives a second image feature quantity subset that is selected from the set and at least partially comprises an image feature quantity different from the image feature quantity included in the first image feature quantity subset. second calculating output differs from the image feature amount is at least partially included in the first image characteristic amount subset and the second image characteristic amount subset with are selected from pre-outs image characteristic quantity set image related A scene shot by a third neural network unit that receives a third image feature subset consisting of features Configured to calculate a third output related. In this way, the three neural network configurations have the advantage of being able to incorporate all-matching rules and majority rules when calculating the estimated values from the first, second, and third outputs that are the respective conclusions. It is done.

発明の好適な実施形態では、記各画像特徴量サブセットには必ずヒストグラム特徴量と領域依存濃度特徴量と色特徴量が含まれるようにすることにより、前記入力撮影画像を画像全体の濃度特性と画像特定領域の濃度特性と画像の色特性といった観点から入力撮影画像の撮影シーンを推定することができる。このことは、最重要な撮影シーンである逆光撮影シーンが画像全体の濃度値と中央領域の濃度値及び肌色の分布をパラメータとして良好な推測が可能であるということを考慮すると、効果的な画像特徴量の選択である。従って、逆光撮影シーンやストロボ撮影シーンを推定すべき撮影シーンとする場合、本発明の好適な実施形態では、前記ヒストグラム特徴量として、濃度階調を複数の区域に分割して求められた各区域の平均濃度値が用いられ、かつ前記領域依存濃度特徴量として、前記入力撮影画像の中央領域での平均濃度値である中央平均濃度値と、前記中央領域より拡大された拡大領域での平均濃度値である拡大中央平均濃度値と、全領域での平均濃度値である全域平均濃度値と、全領域での濃度値標準偏差である濃度標準偏差とが用いられ、かつ前記色特徴量として、前記入力撮影画像の平均彩度と、前記入力撮影画像の平均濃度値以上の濃度値をもつ画素の平均彩度である高濃度平均彩度と、前記入力撮影画像の平均濃度値未満の濃度値をもつ画素の平均彩度である低濃度平均彩度と、前記入力撮影画像の平均濃度値以上の濃度値をもつ肌色の画素数である肌色画素数とが用いられる。 Preferred embodiment, by to include pre-Symbol always histogram feature amount and the area-dependent density features and the color feature in each image feature amount subset, the concentration of the input captured image the whole image of the present invention The shooting scene of the input shot image can be estimated from the viewpoints of the characteristics, the density characteristics of the image specific area, and the color characteristics of the image. This is an effective image considering that the backlight scene, which is the most important shooting scene, can be well estimated using the density value of the entire image, the density value of the central area, and the skin color distribution as parameters. This is the selection of feature quantities. Therefore, when the photographic scene to be estimated backlit scenes, flash photography scene, in a preferred embodiment of the present invention, as a pre Kihi Sutoguramu feature amount, obtained by dividing the density gradation into a plurality of zones average density value of each region is used, and as the pre-Symbol area dependent density feature quantity, and the center average density value is the average density value in the central area of the input captured image, enlarged region in which the magnified from the central region mean is the concentration value of at expansion and the center average density value, and the entire average density value is the average density value of the entire region, and the concentration standard deviation is the concentration value standard deviation of the entire region is used, and prior Symbol As the color feature amount, the average saturation of the input photographed image, the high density average saturation which is the average saturation of pixels having a density value equal to or higher than the average density value of the input photographed image, and the average density of the input photographed image Pixel with density value less than the value A lightly doped average saturation is an average saturation, and skin color pixel number is the number of pixels skin color with an average density value or density value of the input captured image is used.

撮影時の撮影シーン(逆光撮影シーン、ストロボ撮影シーン、ノーマル撮影シーンなど)を考慮して入力撮影画像を補正、特に濃度調整補正をするために用いられる、本発明による撮影シーン別撮影画像補正モジュールの基本構成が図1に示されている。この撮影シーン別撮影画像補正モジュール60の特徴は、複数のニューラルネットワーク部を有する又は複数のニューラルネットワーク部を作り出すニューラルネットワークモジュール62を備えていることである。各ニューラルネットワーク部の入力層の素子群には、入力された撮影画像から画像特徴量演算部61によって求められた複数種の画像特徴量から前もって選択されたいくつかの画像特徴量が入力される。その際、各ニューラルネットワーク部の入力層に与えられる画像特徴量のセット、つまり画像特徴量サブセットの中身の少なくとも1つは他のニューラルネットワーク部の入力層に与えられる画像特徴量サブセットとは異なる画像特徴量をもっている。さらに、撮影シーン別撮影画像補正モジュール60は、各ニューラルネットワーク部からの出力を用いて入力撮影画像の撮影シーンを推定する推定値を算出する出力処理部63と、この出力処理部63によって算出された推定値に基づいて入力撮影画像に対する補正度を決定する補正度決定部64とが備えられている。各ニューラルネットワーク部から出力される出力値は、入力撮影画像の撮影シーンが予め定義されている撮影シーンの1つである確度といった数値であるので、例えば出力処理部63によって複数のニューラルネットワーク部から出力される出力値を単純平均したり、重み付き平均したりすることで、入力撮影画像に対して割り当てられた特定の撮影シーン毎の推定値が算出される。例えば、ある入力撮影画像に対して、その撮影シーンが逆光撮影シーンである確率が何パーセントで、ストロボ撮影シーンである確率が何パーセントであるといった推定値(推定ベクトル)が算出されるのである。後は、そのような推定値から、多くの実験結果等で得られた知識に基づいて補正度決定部64が補正度を決定する。補正度決定部64で決定された補正度は、従来からガンマ補正やコントラスト補正を行っている画像補正部70で利用され、そこで撮影シーンも考慮した画像補正が行われる。   A photographic image correction module for each photographic scene according to the present invention, which is used to correct an input photographic image in consideration of a photographic scene at the time of shooting (backlight photographic scene, strobe photographic scene, normal photographic scene, etc.), particularly density adjustment correction. The basic configuration is shown in FIG. The feature of this photographed scene correction module 60 is that it includes a neural network module 62 having a plurality of neural network sections or creating a plurality of neural network sections. In the element group of the input layer of each neural network unit, several image feature amounts selected in advance from a plurality of types of image feature amounts obtained by the image feature amount calculation unit 61 from the input photographed image are input. . At that time, at least one of the set of image feature values given to the input layer of each neural network unit, that is, the contents of the image feature value subset is different from the image feature value subset given to the input layer of the other neural network unit. Has features. Furthermore, the photographic image correction module 60 for each photographic scene is calculated by an output processing unit 63 that calculates an estimated value for estimating a photographic scene of the input photographic image using the output from each neural network unit, and the output processing unit 63. A correction degree determination unit 64 that determines a correction degree for the input photographed image based on the estimated value. Since the output value output from each neural network unit is a numerical value such as the probability that the shooting scene of the input shot image is one of the predefined shooting scenes, for example, the output processing unit 63 outputs a plurality of neural network units. By simply averaging the output values to be output or averaging the weighted values, an estimated value for each specific shooting scene assigned to the input shot image is calculated. For example, with respect to a certain input photographed image, an estimated value (estimated vector) is calculated such that what is the probability that the photographed scene is a backlight photographed scene and what is the probability that the photographed scene is a flash photographed scene. After that, from the estimated value, the correction degree determination unit 64 determines the correction degree based on knowledge obtained from many experimental results and the like. The correction degree determined by the correction degree determination unit 64 is used in the image correction unit 70 that has conventionally performed gamma correction and contrast correction, and image correction is performed in consideration of the shooting scene.

次に、上述した撮影シーン別撮影画像補正モジュール60を搭載した写真プリント装置を説明する。図2はその写真プリント装置を示す外観図であり、この写真プリント装置は、印画紙Pに対して露光処理と現像処理とを行う写真プリンタとしてのプリントステーション1Bと、現像済み写真フィルム2aやデジタルカメラ用メモリカード2bなどの画像入力メディアから取り込んだ撮影画像を処理してプリントステーション1Bで使用されるプリントデータの生成・転送などを行う操作ステーション1Aとから構成されている。   Next, a photographic printing apparatus equipped with the above-described photographic image correction module 60 for each photographic scene will be described. FIG. 2 is an external view showing the photographic printing apparatus. This photographic printing apparatus includes a printing station 1B as a photographic printer that performs exposure processing and development processing on the photographic paper P, and a developed photographic film 2a and digital The operation station 1A is configured to process a captured image taken from an image input medium such as a camera memory card 2b and generate / transfer print data used in the print station 1B.

この写真プリント装置はデジタルミニラボとも称せられるものであり、図3からよく理解できるように、プリントステーション1Bは2つの印画紙マガジン11に納めたロール状の印画紙Pを引き出してシートカッター12でプリントサイズに切断すると共に、このように切断された印画紙Pに対し、バックプリント部13で色補正情報やコマ番号などのプリント処理情報を印画紙Pの裏面に印字するとともに、プリント露光部14で印画紙Pの表面に撮影画像の露光を行い、この露光後の印画紙Pを複数の現像処理槽を有した処理槽ユニット15に送り込んで現像処理する。乾燥の後に装置上部の横送りコンベア16からソータ17に送られた印画紙P、つまり写真プリントPは、このソータ17の複数のトレイにオーダ単位で仕分けられた状態で集積される(図2参照)。   This photo printing apparatus is also called a digital minilab. As can be understood from FIG. 3, the printing station 1B pulls out the roll-shaped printing paper P stored in the two printing paper magazines 11 and prints it with the sheet cutter 12. The back print unit 13 prints print processing information such as color correction information and frame number on the back side of the photographic paper P, and the print exposure unit 14 cuts the print paper P into the size. A photographed image is exposed on the surface of the photographic paper P, and the exposed photographic paper P is sent to a processing tank unit 15 having a plurality of development processing tanks for development processing. After drying, the photographic paper P, that is, the photographic prints P, sent to the sorter 17 from the transverse feed conveyor 16 at the upper part of the apparatus, is collected in a plurality of trays of the sorter 17 in a state of being sorted in order units (see FIG. 2). ).

上述した印画紙Pに対する各種処理に合わせた搬送速度で印画紙Pを搬送するために印画紙搬送機構18が敷設されている。印画紙搬送機構18は、印画紙搬送方向に関してプリント露光部14の前後に配置されたチャッカー式印画紙搬送ユニット18aを含む複数の挟持搬送ローラ対から構成されている。   A photographic paper transport mechanism 18 is laid to transport the photographic paper P at a transport speed in accordance with various processes for the photographic paper P described above. The photographic paper transport mechanism 18 is composed of a plurality of nipping and transporting roller pairs including a chucker type photographic paper transport unit 18a disposed before and after the print exposure unit 14 in the photographic paper transport direction.

プリント露光部14には、副走査方向に搬送される印画紙Pに対して、主走査方向に沿って操作ステーション1Aからのプリントデータに基づいてR(赤)、G(緑)、B(青)の3原色のレーザ光線の照射を行うライン露光ヘッドが設けられている。処理槽ユニット15は、発色現像処理液を貯留する発色現像槽15aと、漂白定着処理液を貯留する漂白定着槽15bと、安定処理液を貯留する安定槽15cを備えている。   The print exposure unit 14 applies R (red), G (green), and B (blue) to the printing paper P conveyed in the sub-scanning direction based on print data from the operation station 1A along the main scanning direction. A line exposure head for irradiating laser beams of the three primary colors (1) is provided. The processing tank unit 15 includes a color developing tank 15a for storing a color developing processing liquid, a bleach-fixing tank 15b for storing a bleach-fixing processing liquid, and a stabilizing tank 15c for storing a stable processing liquid.

前記操作ステーション1Aのデスク状コンソールの上部位置には、写真フィルム2aの撮影画像コマから撮影画像データ(以下単に画像データ又は撮影画像と略称する)を2000dpiを超える解像度でもって取得することができるフィルムスキャナ20が配置されており、デジタルカメラ等に装着される撮影画像記録媒体2bとして用いられている各種半導体メモリやCD−Rなどから画像データを取得するメディアリーダ21は、この写真プリント装置のコントローラ3として機能する汎用パソコンに組み込まれている。この汎用パソコンには、さらに各種情報を表示するモニタ23、各種設定や調整を行う際に用いる操作入力部として利用される操作入力デバイスとしてのキーボード24やマウス25も接続されている。   At the upper position of the desk-like console of the operation station 1A, a film capable of acquiring photographed image data (hereinafter simply referred to as image data or photographed image) from a photographed image frame of the photographic film 2a with a resolution exceeding 2000 dpi. A media reader 21 that is provided with a scanner 20 and obtains image data from various semiconductor memories, CD-Rs, and the like used as a photographic image recording medium 2b mounted on a digital camera or the like is a controller of this photographic printing apparatus. It is built in a general-purpose personal computer that functions as 3. The general-purpose personal computer is also connected with a monitor 23 for displaying various information, and a keyboard 24 and a mouse 25 as operation input devices used as an operation input unit used for various settings and adjustments.

この写真プリント装置のコントローラ3は、CPUを中核部材として、写真プリント装置の種々の動作を行うための機能部をハードウエア又はソフトウエアあるいはその両方で構築しているが、図4に示されているように、本発明に特に関係する機能部としては、フィルムスキャナ20やメディアリーダ21によって読み取られた画像データを取り込んで次の処理のために必要な前処理を行う画像入力部31と、各種ウインドウや各種操作ボタンなどを含むグラフィック操作画面の作成やそのようなグラフィック操作画面を通じてのユーザ操作入力(キーボード24やマウス25などによる)から制御コマンドを生成するグラフィックユーザインターフェース(以下GUIと略称する)を構築するGUI部33と、GUI部33から送られてきた制御コマンドや直接キーボード24等から入力された操作命令に基づいて所望のプリントデータを生成するために画像入力部31からメモリ30に転送された画像データに対する画像処理等を行うプリント管理部32と、色補正等のプレジャッジプリント作業時にプリントソース画像や予想仕上がりプリント画像としてのシミュレート画像さらにはGUI部33から送られてきたグラフィックデータをモニタ23に表示させるためのビデオ信号を生成するビデオ制御部35と、画像処理が完了した処理済み画像データに基づいてプリントステーション1Bに装備されているプリント露光部14に適したプリントデータを生成するプリントデータ生成部36と、顧客の要望に応じて生の画像データや画像処理が完了した処理済み画像データなどをCD−Rに書き込むための形式にフォーマットするフォーマッタ部37などが挙げられる。   The controller 3 of this photographic printing apparatus uses a CPU as a core member and constructs a functional unit for performing various operations of the photographic printing apparatus by hardware and / or software, as shown in FIG. As described above, the functional unit particularly related to the present invention includes an image input unit 31 that takes in image data read by the film scanner 20 and the media reader 21 and performs preprocessing necessary for the next processing, Graphic user interface (hereinafter abbreviated as GUI) that generates a control command from creation of a graphic operation screen including a window, various operation buttons, and the like, and user operation input through such a graphic operation screen (using the keyboard 24, mouse 25, etc.) Sent from the GUI unit 33 and the GUI unit 33 A print management unit 32 that performs image processing on the image data transferred from the image input unit 31 to the memory 30 in order to generate desired print data based on a control command or an operation command directly input from the keyboard 24 or the like. Video control for generating a video signal for causing the monitor 23 to display graphic data sent from the GUI source 33, a simulated image as a print source image, an expected finished print image, and a pre-judge print operation such as color correction A print data generation unit 36 for generating print data suitable for the print exposure unit 14 installed in the print station 1B based on the processed image data for which image processing has been completed, Image data or processed image data that has been processed Etc. etc. formatter 37 that formats the format for writing to CD-R can be mentioned a.

画像入力部31は、撮影画像記録媒体がフィルム2aの場合プレスキャンモードと本スキャンモードとのスキャンデータを別々にメモリ30に送り込み、それぞれの目的に合わせた前処理を行う。また、撮影画像記録媒体がメモリカード2bの場合取り込んだ画像データにサムネイル画像データ(低解像度データ)が含まれている場合はモニタ23での一覧表示などの目的で使用するため撮影画像の本データ(高解像度データ)とは別にメモリ30に送り込むが、もしサムネイル画像データが含まれていない場合は本データから縮小画像を作り出してサムネイル画像データとしてメモリ30に送り込む。さらには、入力された撮影画像に対する各種補正条件や補正位置などを高速に求めるために入力された撮影画像をより小さな画像サイズをもつ補正処理用撮影画像(例えば、256×384画素)に変換する機能も有する。   When the photographic image recording medium is the film 2a, the image input unit 31 separately sends the scan data for the pre-scan mode and the main scan mode to the memory 30, and performs preprocessing according to each purpose. Further, when the captured image recording medium is the memory card 2b, when the captured image data includes thumbnail image data (low resolution data), the actual data of the captured image is used for the purpose of displaying a list on the monitor 23. Separately from (high resolution data), it is sent to the memory 30, but if thumbnail image data is not included, a reduced image is created from this data and sent to the memory 30 as thumbnail image data. Further, the input captured image is converted into a correction processing captured image (for example, 256 × 384 pixels) having a smaller image size in order to obtain various correction conditions and correction positions for the input captured image at high speed. It also has a function.

プリント管理部32は、プリントサイズやプリント枚数などを管理するプリント注文処理ユニット40、メモリ30に展開された撮影画像に対して各種画像処理を施す画像処理ユニット50を備えている。   The print management unit 32 includes a print order processing unit 40 that manages the print size, the number of prints, and the like, and an image processing unit 50 that performs various types of image processing on the captured image developed in the memory 30.

画像処理ユニット50には、メモリ30に展開された補正用撮影画像から特定の撮影シーン毎の推定値を算出するとともにその撮影シーン推定値から補正度を決定する撮影画像補正モジュール60と、決定された補正度を利用してプリント目的に用いられる高解像度の撮影画像を補正する画像補正部70と、それ自体は公知な画像処理アルゴリズムに従って撮影画像の部分的又は全面的な補正を行うフォトレタッチモジュール80が基本的にはプログラムの形で実装されている。   The image processing unit 50 is determined with a captured image correction module 60 that calculates an estimated value for each specific captured scene from the corrected captured image developed in the memory 30 and determines a correction degree from the estimated captured scene value. An image correction unit 70 that corrects a high-resolution captured image used for printing purposes by using the degree of correction, and a photo retouch module that performs partial or full correction of the captured image according to a known image processing algorithm. 80 is basically implemented in the form of a program.

この撮影画像補正モジュール60に実装されている画像特徴量演算部61は、図5に示すように、画像入力部31によって適切な処理サイズに変換されメモリ30に展開されている補正処理用撮影画像からヒストグラム特徴量を求めるヒストグラム特徴量演算部61aと、補正処理用撮影画像に設定された領域からこの領域に依存する種々の領域依存濃度特徴量を求める領域依存濃度特徴量演算部61bと、補正処理用撮影画像から種々の色特徴量を求める色特徴量演算部61cとを備えている。   As shown in FIG. 5, the image feature amount calculation unit 61 mounted in the captured image correction module 60 is converted into an appropriate processing size by the image input unit 31 and developed in the memory 30. A histogram feature amount calculation unit 61a for obtaining a histogram feature amount from the region, a region-dependent density feature amount calculation unit 61b for obtaining various region-dependent density feature amounts depending on this region from the region set in the correction processing photographed image, and correction A color feature amount calculation unit 61c that obtains various color feature amounts from the processing photographed image.

この実施形態のヒストグラム特徴量演算部61aで求められるヒストグラム特徴量は、図6に示すように、濃度ヒストグラムの横軸である頻度を5つの区域(第1区域、第2区域、第3区域、第4区域、第5区域)に分割して求められた各区域の平均濃度値(第1区域平均濃度値:D1、第2区域平均濃度値:D2、第3区域平均濃度値:D3、第4区域平均濃度値:D4、第5区域平均濃度値:D5)である。また、図7から理解できるように、領域依存濃度特徴量演算部61bで求められる領域依存濃度特徴量は、補正処理用撮影画像(256×384画素)の菱形中央領域(長径:128×短径:192画素程度)での平均濃度値である中央平均濃度値:E1と、前記菱形中央領域より拡大された拡大領域(長径:256×短径:384画素程度)での平均濃度値である拡大中央平均濃度値:E2と、全領域での平均濃度値である全域平均濃度値:E3と、全領域での濃度値標準偏差である濃度標準偏差:E4とである。   As shown in FIG. 6, the histogram feature amount obtained by the histogram feature amount calculation unit 61 a of this embodiment has five areas (first area, second area, third area, Average density value of each area obtained by dividing into 4th area and 5th area (first area average density value: D1, second area average density value: D2, third area average density value: D3, first 4 zone average density value: D4, 5 zone average density value: D5). Further, as can be understood from FIG. 7, the region-dependent density feature amount obtained by the region-dependent density feature amount calculation unit 61b is a rhombus central region (major axis: 128 × minor axis) of the correction processing photographed image (256 × 384 pixels). Center average density value: E1 which is an average density value at about 192 pixels) and an enlargement which is an average density value in an enlarged area (major axis: 256 × minor axis: about 384 pixels) enlarged from the rhombus central area The central average density value: E2, the whole area average density value: E3, which is the average density value in all areas, and the density standard deviation: E4, which is the density value standard deviation in all areas.

さらに、色特徴量演算部61cで求められる色特徴量は、彩度と色相に関する特徴量であり、この特徴量を求めるために、前もってRGB色空間で表現されている補正処理用撮影画像をPQ色空間(色相円の一種)で表現される形に変換される。このRGB/PQ変換を以下に説明する。
まず、R・G・B色空間の値からPQ色空間のPQ座標値への変換式は以下に示すマトリックス演算によって求めることができる。

Figure 0004798446
このRGB/PQ変換によって作り出されるPQ色空間は図8に示すように、縦軸がQ軸で、横軸がP軸となっている。このPQ座標で決定されるPQ色空間は、極座標で考察すると理解し易い。極座標で考察すると、その角度で色相が表され、原点からの距離で彩度が表される。つまり、原点領域が無彩色領域となり、π/6の角度(位相角)がシアン、π/2の角度が青、5π/6の角度がマゼンタ、−5π/6の角度が赤、−π/2の角度が黄、−π/6の角度が緑となっているので、PQ値から簡単に彩度と色相を求めることができる。例えば、写真撮影における重要な被写体である人物の肌色の領域は、図8で斜線で示しているように、角度が−5π/6〜−2π/3の領域となる。 Further, the color feature value obtained by the color feature value computing unit 61c is a feature value related to saturation and hue. In order to obtain this feature value, the captured image for correction processing expressed in the RGB color space is converted into PQ in advance. It is converted into a form expressed in a color space (a kind of hue circle). This RGB / PQ conversion will be described below.
First, a conversion formula from a value in the R, G, B color space to a PQ coordinate value in the PQ color space can be obtained by the matrix calculation shown below.
Figure 0004798446
In the PQ color space created by this RGB / PQ conversion, the vertical axis is the Q axis and the horizontal axis is the P axis, as shown in FIG. The PQ color space determined by the PQ coordinates is easy to understand when considered in polar coordinates. When considered in polar coordinates, hue is represented by the angle, and saturation is represented by the distance from the origin. That is, the origin region is an achromatic region, the angle of π / 6 (phase angle) is cyan, the angle of π / 2 is blue, the angle of 5π / 6 is magenta, the angle of −5π / 6 is red, −π / Since the angle 2 is yellow and the angle −π / 6 is green, saturation and hue can be easily obtained from the PQ value. For example, the skin color area of a person who is an important subject in photography is an area having an angle of −5π / 6 to −2π / 3 as shown by hatching in FIG.

この実施形態の色特徴量演算部61cで求められる色特徴量は、撮影画像全体の平均彩度である全平均彩度:S1、平均濃度値以上の濃度値を有する画素の平均彩度である高濃度平均彩度:S2、平均濃度値未満の濃度値を有する画素の平均彩度である低濃度平均彩度:S3、平均濃度値以上の濃度値を有する肌色の画素数である肌色画素数:S4である。   The color feature amount calculated by the color feature amount calculation unit 61c of this embodiment is the total saturation of the average chromaticity of the entire captured image: S1, and the average saturation of pixels having a density value equal to or higher than the average density value. High density average saturation: S2, the average density of pixels having a density value less than the average density value, low density average saturation: S3, the number of skin color pixels, the number of skin color pixels having a density value greater than or equal to the average density value : S4.

ニューラルネットワークモジュール62は、図5に示すように、この実施形態では、第1ニューラルネットワーク部62aと第2ニューラルネットワーク部62bと第3ニューラルネットワーク部62cの3つが稼働する。なお、各ニューラルネットワーク部自体はよく知られた構成を採用しており、教師信号はGUI部33を介して与えられ、この教師信号を用いてニューラルネットワーク管理部62zがそれ自体公知であるアルゴリズムを用いて各要素の重み係数を導出する。   As shown in FIG. 5, the neural network module 62 operates in this embodiment by a first neural network unit 62 a, a second neural network unit 62 b, and a third neural network unit 62 c. Each neural network unit itself employs a well-known configuration, and a teacher signal is given through the GUI unit 33, and the neural network management unit 62z uses an algorithm known per se using this teacher signal. To derive the weighting factor for each element.

第1ニューラルネットワーク部62aは、図9に示すように、9個の入力要素を有する入力層と5つの中間要素を有する中間層と3個の出力要素を有する出力層からなる。入力層の各要素には、ヒストグラム特徴量演算部61aから第1区域平均濃度値:D1と第2区域平均濃度値:D2と第3区域平均濃度値:D3と第4区域平均濃度値:D4と第5区域平均濃度値:D5とが与えられ、領域依存濃度特徴量演算部61bから中央平均濃度値:E1と拡大中央平均濃度値:E2と全域平均濃度値:E3とが与えられ、色特徴量演算部61cから全平均彩度:S1が与えられる。出力層の各要素からは、撮影シーンがストロボ撮影シーンである可能性を示すストロボ度:α1と、撮影シーンが逆光撮影シーンである可能性を示す逆光度:β1と、撮影シーンがノーマル撮影シーンである可能性を示すノーマル度:γ1とが出力される。α1、β1、γ1は0から10までの数値で表され、数値が大きくなるほどその可能性が高いことを示している。   As shown in FIG. 9, the first neural network unit 62a includes an input layer having nine input elements, an intermediate layer having five intermediate elements, and an output layer having three output elements. Each element of the input layer includes a first zone average density value: D1, a second zone average density value: D2, a third zone average density value: D3, and a fourth zone average density value: D4. And the fifth area average density value: D5, and the area-dependent density feature amount calculation unit 61b gives the central average density value: E1, the enlarged central average density value: E2, and the entire area average density value: E3, and the color. The total average saturation: S1 is given from the feature amount calculation unit 61c. From each element of the output layer, the strobe degree indicating that the shooting scene is a strobe shooting scene: α1, the backlighting degree indicating that the shooting scene is a backlight shooting scene: β1, and the shooting scene is a normal shooting scene The normality indicating the possibility of γ1 is output. α1, β1, and γ1 are represented by numerical values from 0 to 10, and the larger the numerical value, the higher the possibility.

第2ニューラルネットワーク部62bは、図10に示すように、10個の入力要素を有する入力層と5つの中間要素を有する中間層と3個の出力要素を有する出力層からなる。入力層の各要素には、ヒストグラム特徴量演算部61aから第1区域平均濃度値:D1と第2区域平均濃度値:D2と第3区域平均濃度値:D3と第4区域平均濃度値:D4と第5区域平均濃度値:D5とが与えられ、領域依存濃度特徴量演算部61bから中央平均濃度値:E1と拡大中央平均濃度値:E2と全域平均濃度値:E3とが与えられ、色特徴量演算部61cから全平均彩度:S1と肌色画素数:S4とが与えられる。出力層の各要素からは、第1ニューラルネットワーク部62aと同様で、ストロボ度:α2と逆光度:β2とノーマル度:γ2とが出力される。   As shown in FIG. 10, the second neural network unit 62b includes an input layer having ten input elements, an intermediate layer having five intermediate elements, and an output layer having three output elements. Each element of the input layer includes a first zone average density value: D1, a second zone average density value: D2, a third zone average density value: D3, and a fourth zone average density value: D4. And the fifth area average density value: D5, and the area-dependent density feature amount calculation unit 61b gives the central average density value: E1, the enlarged central average density value: E2, and the entire area average density value: E3, and the color. The feature amount calculation unit 61c gives the total average saturation: S1 and the number of skin color pixels: S4. Each element in the output layer outputs the strobe degree: α2, the backlight intensity: β2, and the normality: γ2 as in the first neural network unit 62a.

第3ニューラルネットワーク部62cは、図11に示すように、12個の入力要素を有する入力層と6つの中間要素を有する中間層と3個の出力要素を有する出力層からなる。入力層の各要素には、ヒストグラム特徴量演算部61aから第1区域平均濃度値:D1と第2区域平均濃度値:D2と第3区域平均濃度値:D3と第4区域平均濃度値:D4と第5区域平均濃度値:D5とが与えられ、領域依存濃度特徴量演算部61bから中央平均濃度値:E1と拡大中央平均濃度値:E2と全域平均濃度値:E3と濃度標準偏差:E4とが与えられ、色特徴量演算部61cから高濃度平均彩度:S2と低濃度平均彩度:S3と肌色画素数:S4とが与えられる。出力層の各要素からは、第1ニューラルネットワーク部62aと同様で、ストロボ度:α3と逆光度:β3とノーマル度:γ3とが出力される。   As shown in FIG. 11, the third neural network unit 62c includes an input layer having 12 input elements, an intermediate layer having 6 intermediate elements, and an output layer having 3 output elements. Each element of the input layer includes a first zone average density value: D1, a second zone average density value: D2, a third zone average density value: D3, and a fourth zone average density value: D4. And the fifth area average density value: D5, and the area-dependent density feature value calculation unit 61b gives the central average density value: E1, the enlarged central average density value: E2, the whole area average density value: E3, and the density standard deviation: E4. And the color feature amount calculation unit 61c provides high density average saturation: S2, low density average saturation: S3, and the number of skin color pixels: S4. Each element of the output layer outputs the strobe degree: α3, the backlight intensity: β3, and the normality: γ3, similarly to the first neural network unit 62a.

以上の説明から明らかなように、ニューラルネットワークモジュール62からは、3つの演算結果、つまり第1演算結果(出力)として〔α1,β1,γ1〕、第2演算結果(出力)として〔α2,β2,γ2〕、第3演算結果(出力)として〔α3,β3,γ3〕が出力される。出力処理部63は、これらの3つの演算結果に基づいて、最終的な入力撮影画像の撮影シーンを推定する推定値(推定ベクトル)〔α,β,γ〕を算出する。ここで、αはストロボ撮影シーンの推定値、βは逆光撮影シーンの推定値、γが逆光撮影シーンの推定値であり、0から10までの数値をとる。例えば、〔9,1,1〕なら処理対象となっている撮影画像はほぼ100%の確率でストロボ撮影シーンであると推定される。最も簡単には、3つの演算結果を算術平均することによって最終的な推定値を得ることができるが、より好ましくは、撮影画像の統計学的な画像特性(平均濃度値や濃度中間値など)に応じて設定された重みを用いた重み付け平均を行うことである。例えば、ストロボ撮影シーンを判定しにくいような平均濃度値をもつ撮影画像に対してはストロボ撮影シーンの演算結果であるαに対する重みを小さくしβやγに対する重みを大きくした重み平均を行うことになる。   As is apparent from the above description, the neural network module 62 outputs three calculation results, that is, [α1, β1, γ1] as the first calculation result (output) and [α2, β2 as the second calculation result (output). , γ2] and [α3, β3, γ3] are output as the third calculation result (output). The output processing unit 63 calculates estimated values (estimated vectors) [α, β, γ] for estimating the shooting scene of the final input shot image based on these three calculation results. Here, α is the estimated value of the flash photography scene, β is the estimated value of the backlight photography scene, γ is the estimated value of the backlight photography scene, and takes a numerical value from 0 to 10. For example, if [9,1,1], it is estimated that the photographed image to be processed is a strobe photographing scene with a probability of almost 100%. In the simplest case, the final estimated value can be obtained by arithmetically averaging the three calculation results, but more preferably, the statistical image characteristics of the photographed image (such as the average density value and the density intermediate value). The weighted average using the weight set in accordance with is performed. For example, for a photographed image having an average density value that makes it difficult to determine the flash photography scene, the weighted average is performed by reducing the weight for α which is the calculation result of the flash photography scene and increasing the weight for β and γ. Become.

このように算出された撮影シーン推定値〔α,β,γ〕を参照して、補正度決定部64はこの撮影画像に対する補正度を決定する。補正度決定部64で決定された補正度が画像補正部70に送られると、画像補正部70はこの補正度を利用して基準の補正曲線の傾きやシフトあるいは部分的な補正曲線の変形を行って、実際のプリントに用いられる高解像度の撮影画像を補正する。   With reference to the photographed scene estimated values [α, β, γ] calculated in this way, the correction degree determination unit 64 determines the correction degree for the photographed image. When the correction degree determined by the correction degree determination unit 64 is sent to the image correction unit 70, the image correction unit 70 uses this correction degree to perform inclination or shift of the reference correction curve or partial deformation of the correction curve. Then, a high-resolution captured image used for actual printing is corrected.

このように、入力層に設定される画像特徴量が異なる複数のニューラルネットワーク部を用いてそれぞれから撮影シーンを推定する演算結果が出力され、これら複数の演算結果に基づいて、いわゆる合議制で、最終的な撮影シーン推定値を算出するので、従来技術より信頼性の高い撮影シーンの特定が可能となり、結果的に高品質の顧客に喜ばれる写真プリントを作り出すことができる撮影画像の補正が実現する。   In this way, a calculation result for estimating a shooting scene is output from each using a plurality of neural network units having different image feature values set in the input layer, and based on these calculation results, a so-called consensus system is used. Since the final shooting scene estimation value is calculated, it is possible to identify shooting scenes that are more reliable than the conventional technology, and as a result, it is possible to correct shot images that can produce photographic prints that will please high-quality customers. To do.

上述した実施形態の説明では、本発明による撮影画像補正技術が、DPショップに設置されているミニラボと呼ばれている写真プリント装置に組み込まれた例を取り上げたが、コンビニやDPショップの店頭に設置されているセルフサービス式の写真プリント装置など、種々の写真プリント装置に組み込んでもよいし、画像処理ソフトウエアの撮影画像補正機能の1つとして、この画像処理ソフトウエアのプログラムに組み込んでもよい。つまり、本発明の権利範囲は、上述した撮影画像補正方法をコンピュータに実行させる撮影画像補正プログラムにも及ぶものである。   In the description of the embodiment described above, an example in which the photographed image correction technique according to the present invention is incorporated in a photo printing apparatus called a minilab installed in a DP shop has been taken up. It may be incorporated into various photographic printing apparatuses such as an installed self-service photographic printing apparatus, or may be incorporated into a program of the image processing software as one of the photographed image correction functions of the image processing software. That is, the scope of rights of the present invention extends to a captured image correction program that causes a computer to execute the above-described captured image correction method.

なお、上述した実施の形態では、画像出力手段としてのプリントステーション1Bは、印画紙Pに対し、レーザ式露光エンジンを備えたプリント露光部14で撮影画像の露光を行い、この露光後の印画紙Pを複数の現像処理する、いわゆる銀塩写真プリント方式を採用していたが、もちろん、本発明によって補正された撮影画像のプリント方式は、このような方式に限定されるわけではなく、例えば、フィルムや紙にインクを吐出して画像を形成するインクジェットプリント方式や感熱転写シートを用いた熱転写方式など、種々の写真プリント方式にも及ぶものである。   In the above-described embodiment, the print station 1B as the image output means exposes the photographic image to the photographic paper P by the print exposure unit 14 equipped with a laser exposure engine, and the photographic paper after the exposure. A so-called silver salt photographic printing method in which P is subjected to a plurality of development processings has been adopted. Of course, the printing method of a photographed image corrected by the present invention is not limited to such a method. The present invention extends to various photographic printing methods such as an ink jet printing method in which an image is formed by ejecting ink onto a film or paper and a thermal transfer method using a thermal transfer sheet.

本発明による撮影シーンを考慮して入力撮影画像を補正するための補正度を算出する撮影画像補正モジュールの原理を説明する説明図Explanatory drawing explaining the principle of the picked-up image correction module which calculates the correction degree for correct | amending an input picked-up image in consideration of the picked-up scene by this invention. 本発明による撮影画像補正モジュールを搭載した写真プリント装置の外観図1 is an external view of a photographic printing apparatus equipped with a photographic image correction module according to the present invention. 写真プリント装置のプリントステーションの構成を模式的に示す模式図Schematic diagram schematically showing the configuration of the print station of the photo printing device 写真プリント装置のコントローラ内に構築される機能要素を説明する機能ブロック図Functional block diagram explaining the functional elements built in the controller of the photo printing device 本発明の撮影画像補正モジュールの1つの実施形態における機能構成を示す機能ブロック図The functional block diagram which shows the function structure in one Embodiment of the picked-up image correction module of this invention. ヒストグラム特徴量を説明する説明図Explanatory drawing explaining the histogram feature amount 領域依存濃度特徴量を説明する説明図Explanatory drawing explaining area dependent density feature quantity 色特徴量を説明する説明図Explanatory drawing explaining color feature amount 第1ニューラルネットワーク部の構成を示す模式図Schematic diagram showing the configuration of the first neural network section 第2ニューラルネットワーク部の構成を示す模式図Schematic diagram showing the configuration of the second neural network section 第3ニューラルネットワーク部の構成を示す模式図Schematic diagram showing the configuration of the third neural network section

符号の説明Explanation of symbols

31:画像入力部
60:撮影画像補正モジュール
61:画像特徴量演算部
61a:ヒストグラム特徴量演算部
61b:領域依存濃度特徴量演算部
61c:色特徴量演算部
62:ニューラルネットワークモジュール(ニューラルネットワーク部)
62a:第1ニューラルネットワーク部
62b:第2ニューラルネットワーク部
62c:第3ニューラルネットワーク部
63:出力処理部
64:補正度決定部
70:画像補正部
31: Image input unit 60: Captured image correction module 61: Image feature amount calculation unit 61a: Histogram feature amount calculation unit 61b: Region-dependent density feature amount calculation unit 61c: Color feature amount calculation unit 62: Neural network module (neural network unit) )
62a: first neural network unit 62b: second neural network unit 62c: third neural network unit 63: output processing unit 64: correction degree determining unit 70: image correcting unit

Claims (8)

入力撮影画像の撮影シーンを考慮して前記入力撮影画像を補正するための撮影画像補正方法において、
前記入力撮影画像のヒストグラムから画像特徴量としての種々のヒストグラム特徴量を求めるステップと、
前記入力撮影画像に設定された領域からこの領域に依存する画像特徴量としての種々の領域依存濃度特徴量を求めるステップと、
前記入力撮影画像から画像特徴量としての種々の色特徴量を求めるステップと、
記画像特徴量としての前記種々のヒストグラム特徴量と前記種々の領域依存濃度特徴量と前記種々の色特徴量との集合を画像特徴量セットとし、当該画像特徴量セットから選択されるとともに少なくとも部分的には互いに異なる画像特徴量を含む複数の画像特徴量サブセットのそれぞれを入力とする複数のニューラルネットワーク部によって撮影シーンに関する出力を算出するステップと、
前記複数のニューラルネットワーク部からの出力を用いて前記入力撮影画像の撮影シーンを推定する推定値を算出するステップと、
からなることを特徴とする撮影画像補正方法。
In the captured image correction method for correcting the input captured image in consideration of the captured scene of the input captured image,
Obtaining various histogram feature values as image feature values from the histogram of the input photographed image;
Obtaining various region-dependent density feature amounts as image feature amounts depending on the region from the region set in the input photographed image;
Obtaining various color feature values as image feature values from the input photographed image;
A set of said various histogram feature amounts and the various regions dependent density feature quantity and the variety of color characteristic amounts as a pre-outs image feature amount and the image feature quantity set, together are selected from the image characteristic quantity set Calculating an output relating to a photographic scene by a plurality of neural network units each receiving a plurality of image feature amount subsets including at least partially different image feature amounts;
Calculating an estimated value for estimating a captured scene of the input captured image using outputs from the plurality of neural network units;
A photographed image correction method comprising:
前記撮影シーンに関する出力を算出するステップには、
記画像特徴量セットから選択された画像特徴量からなる第1画像特徴量サブセットを入力とする第1ニューラルネットワーク部によって撮影シーンに関する第1出力を算出するステップと、
記画像特徴量セットから選択されるとともに少なくとも部分的には前記第1画像特徴量サブセットに含まれる画像特徴量とは異なる画像特徴量からなる第2画像特徴量サブセットを入力とする第2ニューラルネットワーク部によって撮影シーンに関する第2出力を算出するステップと、
記画像特徴量セットから選択されるとともに少なくとも部分的には前記第1画像特徴量サブセット及び前記第2画像特徴量サブセットに含まれる画像特徴量とは異なる画像特徴量からなる第3画像特徴量サブセットを入力とする第3ニューラルネットワーク部によって撮影シーンに関する第3出力を算出するステップと、
が含まれていることを特徴とする請求項1に記載の撮影画像補正方法。
In the step of calculating the output related to the shooting scene,
Calculating a first output for the photographic scene by the first neural network unit which receives the first image characteristic amount subset of the previous image feature quantities selected from Kiga image characteristic quantity set,
The second to at least partially together are selected from pre-outs image feature amount set as an input the second image characteristic amount subset of different image feature quantity from the image feature amount included in the first image characteristic amount subset Calculating a second output related to the photographic scene by the neural network unit;
Third image features of different image feature quantity from the image feature amount is at least partially included in the first image characteristic amount subset and the second image characteristic amount subset with are selected from pre-outs image characteristic quantity set Calculating a third output related to the photographic scene by a third neural network unit having the quantity subset as input;
The captured image correction method according to claim 1, wherein:
記各画像特徴量サブセットにはヒストグラム特徴量と領域依存濃度特徴量と色特徴量が含まれていることを特徴とする請求項1又は2に記載の撮影画像補正方法。 Captured image correction method according to claim 1 or 2, characterized in that before Symbol respective image feature amount subset contains histogram feature amount and the area-dependent density features and the color feature. 記ヒストグラム特徴量として、濃度階調を複数の区域に分割して求められた各区域の平均濃度値が用いられ、かつ
記領域依存濃度特徴量として、前記入力撮影画像の中央領域での平均濃度値である中央平均濃度値と、前記中央領域より拡大された拡大領域での平均濃度値である拡大中央平均濃度値と、全領域での平均濃度値である全域平均濃度値と、全領域での濃度値標準偏差である濃度標準偏差とが用いられ、かつ
記色特徴量として、前記入力撮影画像の平均彩度と、前記入力撮影画像の平均濃度値以上の濃度値をもつ画素の平均彩度である高濃度平均彩度と、前記入力撮影画像の平均濃度値未満の濃度値をもつ画素の平均彩度である低濃度平均彩度と、前記入力撮影画像の平均濃度値以上の濃度値をもつ肌色の画素数である肌色画素数とが用いられる、
ことを特徴とする請求項1からのいずれか一項に記載の撮影画像補正方法。
As before Kihi Sutoguramu feature amount, the average density value of each zone obtained by dividing the density gradation into a plurality of zones are used, and as the pre-Symbol area dependent density feature quantity, the central region of the input captured image A central average density value that is an average density value in the area, an enlarged central average density value that is an average density value in an enlarged area that is enlarged from the central area, and an overall average density value that is an average density value in all areas. , a density standard deviation is the concentration value standard deviation of the entire region is used, and as the pre-Symbol color feature, the average and saturation of the input captured image, an average density value or density value of the input captured image A high density average saturation which is an average saturation of pixels having a low density average saturation which is an average saturation of pixels having a density value less than the average density value of the input photographed image, and an average density of the input photographed image Skin color, which is the number of skin color pixels with density value greater than or equal to And a prime number is used,
The method for correcting a photographed image according to any one of claims 1 to 3 , wherein:
入力撮影画像の撮影シーンを考慮して前記入力撮影画像を補正するための撮影画像補正モジュールにおいて、
前記入力撮影画像のヒストグラムから画像特徴量としての種々のヒストグラム特徴量を求めるヒストグラム特徴量演算部と、
前記入力撮影画像に設定された領域からこの領域に依存する画像特徴量としての種々の領域依存濃度特徴量を求める領域依存濃度特徴量演算部と、
前記入力撮影画像から画像特徴量としての種々の色特徴量を求める色特徴量演算部と、
記画像特徴量としての前記種々のヒストグラム特徴量と前記種々の領域依存濃度特徴量と前記種々の色特徴量との集合を画像特徴量セットとし、当該画像特徴量セットから選択されるとともに少なくとも部分的には互いに異なる画像特徴量を含む複数の画像特徴量サブセットのそれぞれを入力として撮影シーンに関する出力を算出する複数のニューラルネットワーク部と、
前記複数のニューラルネットワーク部からの出力を用いて前記入力撮影画像の撮影シーンを推定する推定値を算出する出力処理部と、
からなることを特徴とする撮影画像補正モジュール。
In the captured image correction module for correcting the input captured image in consideration of the captured scene of the input captured image,
A histogram feature amount calculation unit for obtaining various histogram feature amounts as image feature amounts from the histogram of the input photographed image;
A region-dependent density feature amount calculating unit for obtaining various region-dependent density feature amounts as image feature amounts depending on the region from the region set in the input photographed image;
A color feature quantity computing unit for obtaining various color feature quantities as image feature quantities from the input photographed image;
A set of said various histogram feature amounts and the various regions dependent density feature quantity and the variety of color characteristic amounts as a pre-outs image feature amount and the image feature quantity set, together are selected from the image characteristic quantity set A plurality of neural network units for calculating an output relating to a shooting scene by inputting each of a plurality of image feature amount subsets including at least partially different image feature amounts;
An output processing unit that calculates an estimated value for estimating a shooting scene of the input captured image using outputs from the plurality of neural network units;
A photographed image correction module comprising:
複数のニューラルネットワーク部には、
記画像特徴量セットから選択された画像特徴量からなる第1画像特徴量サブセットを入力として撮影シーンに関する第1出力を算出する第1ニューラルネットワーク部と、
記画像特徴量セットから選択されるとともに少なくとも部分的には前記第1画像特徴量サブセットに含まれる画像特徴量とは異なる画像特徴量からなる第2画像特徴量サブセットを入力として撮影シーンに関する第2出力を算出する第2ニューラルネットワーク部と、
記画像特徴量セットから選択されるとともに少なくとも部分的には前記第1画像特徴量サブセット及び前記第2画像特徴量サブセットに含まれる画像特徴量とは異なる画像特徴量からなる第3画像特徴量サブセットを入力として撮影シーンに関する第3出力を算出する第3ニューラルネットワーク部と、
が含まれていることを特徴とする請求項5に記載の撮影画像補正モジュール。
The front Symbol multiple of the neural network unit,
A first neural network unit for calculating a first output for the photographic scene a first image characteristic amount subset of front Kiga image characteristic quantity set image feature quantities selected from the input,
Related to a shooting scene as input a second image characteristic amount subset of different image feature quantity is the image feature amount and the at least partially included in the first image characteristic amount subset with are selected from pre-outs image characteristic quantity set A second neural network unit for calculating a second output;
Third image features of different image feature quantity from the image feature amount is at least partially included in the first image characteristic amount subset and the second image characteristic amount subset with are selected from pre-outs image characteristic quantity set A third neural network unit for calculating a third output related to the shooting scene with the quantity subset as an input;
The photographed image correction module according to claim 5, wherein:
記各画像特徴量サブセットにはヒストグラム特徴量と領域依存濃度特徴量と色特徴量が含まれていることを特徴とする請求項5又は6に記載の撮影画像補正モジュール。 Photographed image correction module according to claim 5 or 6, characterized in that it contains the histogram feature amount and the area-dependent density features and the color feature before Symbol respective image feature amount subset. 記ヒストグラム特徴量として、濃度階調を複数の区域に分割して求められた各区域の平均濃度値が用いられ、かつ
記領域依存濃度特徴量として、前記入力撮影画像の中央領域での平均濃度値である中央平均濃度値と、前記中央領域より拡大された拡大領域での平均濃度値である拡大中央平均濃度値と、全領域での平均濃度値である全域平均濃度値と、全領域での濃度値標準偏差である濃度標準偏差とが用いられ、かつ
記色特徴量として、前記入力撮影画像の平均彩度と、前記入力撮影画像の平均濃度値以上の濃度値をもつ画素の平均彩度である高濃度平均彩度と、前記入力撮影画像の平均濃度値未満の濃度値をもつ画素の平均彩度である低濃度平均彩度と、前記入力撮影画像の平均濃度値以上の濃度値をもつ肌色の画素数である肌色画素数とが用いられる、
ことを特徴とする請求項5からのいずれか一項に記載の撮影画像補正モジュール。
As before Kihi Sutoguramu feature amount, the average density value of each zone obtained by dividing the density gradation into a plurality of zones are used, and as the pre-Symbol area dependent density feature quantity, the central region of the input captured image A central average density value that is an average density value in the area, an enlarged central average density value that is an average density value in an enlarged area that is enlarged from the central area, and an overall average density value that is an average density value in all areas. , a density standard deviation is the concentration value standard deviation of the entire region is used, and as the pre-Symbol color feature, the average and saturation of the input captured image, an average density value or density value of the input captured image A high density average saturation which is an average saturation of pixels having a low density average saturation which is an average saturation of pixels having a density value less than the average density value of the input photographed image, and an average density of the input photographed image Skin color, which is the number of skin color pixels with density value greater than or equal to And a prime number is used,
The photographed image correction module according to any one of claims 5 to 7 , wherein
JP2006236571A 2006-08-31 2006-08-31 Photographed image correction method and photographed image correction module Expired - Fee Related JP4798446B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006236571A JP4798446B2 (en) 2006-08-31 2006-08-31 Photographed image correction method and photographed image correction module

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006236571A JP4798446B2 (en) 2006-08-31 2006-08-31 Photographed image correction method and photographed image correction module

Publications (2)

Publication Number Publication Date
JP2008060989A JP2008060989A (en) 2008-03-13
JP4798446B2 true JP4798446B2 (en) 2011-10-19

Family

ID=39243220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006236571A Expired - Fee Related JP4798446B2 (en) 2006-08-31 2006-08-31 Photographed image correction method and photographed image correction module

Country Status (1)

Country Link
JP (1) JP4798446B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020053837A1 (en) * 2018-09-13 2020-03-19 Spectrum Optix Inc. Photographic underexposure correction using a neural network
JP7353847B2 (en) 2019-07-29 2023-10-02 キヤノン株式会社 Information processing device, imaging device, control method and program
CN115696027A (en) * 2021-07-22 2023-02-03 中兴通讯股份有限公司 Photographing method, photographing apparatus, controller, device, and computer-readable storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03294983A (en) * 1990-04-12 1991-12-26 Toshiba Corp Character recognizing device
JP3367975B2 (en) * 1992-01-14 2003-01-20 シャープ株式会社 Auto iris circuit
JPH0937145A (en) * 1995-07-24 1997-02-07 Matsushita Electric Ind Co Ltd Automatic exposure adjusting device, automatic gradation adjusting device and video camera

Also Published As

Publication number Publication date
JP2008060989A (en) 2008-03-13

Similar Documents

Publication Publication Date Title
JP2005310068A (en) Method for correcting white of eye, and device for executing the method
JP4496465B2 (en) Red-eye correction method, program, and apparatus for implementing the method
JP4655210B2 (en) Density correction curve generation method and density correction curve generation module
JP4441876B2 (en) Photographed image processing method, photographed image processing program, and photographed image processing apparatus
JP4798446B2 (en) Photographed image correction method and photographed image correction module
JP2006107329A (en) Photographed image processor
JP2007249802A (en) Image processor and image processing method
JP2005148915A (en) Proper face discrimination method and apparatus for implementing the method
JP4591784B2 (en) Method for creating conversion table for photographed image correction and photo printing apparatus for implementing this method
JP2008227976A (en) Image processor and image processing method
JP4441853B2 (en) Face selection method for density correction and apparatus for carrying out this method
JP2005159387A (en) Method of determining density characteristic curve and density correction management apparatus for executing this method
JP4793648B2 (en) Image correction unit and image correction program
JP4655211B2 (en) Generation method, generation program and generation module of correction characteristics used for contrast correction
JP4731202B2 (en) Color correction processing method and color correction processing apparatus using the same
JP2009027254A (en) Image correcting method and image correcting device
JP4284604B2 (en) Contrast adjustment method and contrast adjustment apparatus for implementing the method
JP2006072743A (en) Catch light composition method and device
JP4396648B2 (en) Photo processing apparatus and photo processing program
JP2006074742A (en) Photographing scene correcting method, program, and photographing scene correction processing system implementing the method
JP4775289B2 (en) Image processing apparatus and image processing method
JP4378611B2 (en) A tilt correction method, a tilt correction program, and a photo printing apparatus with a tilt correction function
JP2006301675A (en) Image processor and image processing method
JP2009016940A (en) Uniformity correction processing apparatus and uniformity correction processing method of frame image
JP2006059162A (en) Tooth image correction method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110217

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20110223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110707

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110720

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees