JP4798446B2 - Photographed image correction method and photographed image correction module - Google Patents
Photographed image correction method and photographed image correction moduleInfo
- Publication number
- JP4798446B2 JP4798446B2 JP2006236571A JP2006236571A JP4798446B2 JP 4798446 B2 JP4798446 B2 JP 4798446B2 JP 2006236571 A JP2006236571 A JP 2006236571A JP 2006236571 A JP2006236571 A JP 2006236571A JP 4798446 B2 JP4798446 B2 JP 4798446B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- input
- density value
- average
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003702 image correction Methods 0.000 title claims description 37
- 238000000034 method Methods 0.000 title claims description 25
- 238000013528 artificial neural network Methods 0.000 claims description 60
- 238000012545 processing Methods 0.000 claims description 38
- 238000004364 calculation method Methods 0.000 claims description 34
- 230000001419 dependent effect Effects 0.000 claims description 24
- 238000012937 correction Methods 0.000 description 46
- 238000007639 printing Methods 0.000 description 25
- 230000015654 memory Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000007788 liquid Substances 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000007723 transport mechanism Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001035 drying Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000007641 inkjet printing Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- GGCZERPQGJTIQP-UHFFFAOYSA-N sodium;9,10-dioxoanthracene-2-sulfonic acid Chemical compound [Na+].C1=CC=C2C(=O)C3=CC(S(=O)(=O)O)=CC=C3C(=O)C2=C1 GGCZERPQGJTIQP-UHFFFAOYSA-N 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
Images
Description
本発明は、入力撮影画像の撮影シーンを考慮して前記入力撮影画像を補正するための撮影画像補正技術に関する。 The present invention relates to a captured image correction technique for correcting an input captured image in consideration of a captured scene of the input captured image.
現在、デジタルカメラによって取得されたデジタル撮影画像のみならず、ネガフィルム、リバーサルフィルム等の写真フィルムに形成された撮影画像もフィルムスキャナを通じてデジタル画像化され、デジタルデータに基づいてプリントヘッドから発せられる光ビームやインク滴を制御し、この制御された光ビームやインク滴によって感光材料や記録紙をプリント走査して画像を形成し、写真プリントを出力する写真プリント装置が広まっている。なお、ここでは、特別に区別する必要がある場合を除いて、デジタルデータとしての撮影画像データやこの撮影画像データに基づくプリント撮影画像やモニタ表示撮影画像を単に撮影画像という語句で総称している。このような写真プリント装置では、デジタルデータ化された撮影画像に対しては最終的に高品位な画像形成を実現するために濃度補正やコントラスト補正など補正処理が行われる。例えば、デジタル化され入力された撮影画像に対する濃度補正技術として、RGB各色についての全画素の画素値(濃度値;輝度値)を平均したときにグレー(灰色)となるように、RGB各色成分のヒストグラムを補正する方法が知られている。この方法は、「一般的な戸外の風景を撮影した場合に、その画像に記録されている色を全て混ぜ合わせると灰色に近くなる」というエバンスの定理に基づいている。しかしながらこの従来の撮影画像補正技術では、例えば、明るい背景に対してストロボを用いずに人物を撮影した画像や暗い背景に対してフラッシュを用いて人物を撮影した画像、あるいは逆光で人物を撮影した画像など、画面全体で濃度に偏りがある撮影画像を上記技術により濃度補正した場合、背景の影響を受けて主要被写体である人物が適正に補正されないと言う問題点が生じていた。
Currently, not only digitally photographed images acquired by digital cameras but also photographed images formed on photographic films such as negative films and reversal films are converted into digital images through film scanners, and light emitted from the print head based on the
上記問題を解決するためには、補正対象としての撮影画像の撮影時の状況である撮影シーン(例えば、逆光撮影、ストロボ撮影など)を判定し、判定された撮影シーンに応じて適切な補正のやり方(補正度)を決定し、その決定された補正度に基づいて撮影画像を補正することで、逆光撮影であっても、あるいはストロボ撮影であっても主要被写体が適正に表現されることになる。このようなことから、複数の画素データで構成された画像データを用いてモニタ画面上に画像を再生する画像再生手段と、モニタ画面上に再生された画像のうち特定の範囲を選択する範囲選択手段と、モニタ画面上に再生された画像が逆光又は逆光に近い状態である場合に逆光条件を設定する逆光設定手段と、逆光条件が設定された場合に、選択された範囲に含まれる画素データのうち輝度の低い方から所定の割合の画素データを抽出し、逆光条件が設定されていない場合に、選択された範囲に含まれる画素データのうち輝度の高い方から所定の割合の画素データを抽出する画素データ抽出手段と、前記画素データ抽出手段により抽出された画素データを用いて、選択された範囲の輝度の平均値を演算する平均輝度演算手段と、求められた輝度の平均値をあらかじめ設定された所定の輝度値に補正するための補正量を演算により求める補正量演算手段と、求められた補正量を用いて全画素データを補正する画像データ補正手段と、補正された画像データを用いて画像を形成する画像形成手段とを備えた画像形成装置が知られている(例えば、特許文献1参照)。しかしながら、この従来技術では、前記逆光設定部は、マウスやキーボード、CPU、ROM、RAMなどで構成され、ディスプレイ上に再生されているプレスキャン画像が逆光又は逆光に近い状態であるとオペレータやユーザが判断した場合に、マウスやキーボードを操作して、逆光状態に対応する所定の信号を入力するものであり、撮影シーンの判定がオペレータやユーザの経験や知識に頼るものであり、取り扱いに熟練を要するという問題がある。 In order to solve the above problem, a shooting scene (for example, backlight shooting, flash shooting, etc.) that is a situation at the time of shooting of a shot image as a correction target is determined, and appropriate correction is performed according to the determined shooting scene. By determining the method (degree of correction) and correcting the captured image based on the determined degree of correction, the main subject can be expressed appropriately in both backlight shooting and flash shooting. Become. For this reason, image reproduction means for reproducing an image on a monitor screen using image data composed of a plurality of pixel data, and range selection for selecting a specific range among images reproduced on the monitor screen Means, a backlight setting means for setting a backlight condition when the image reproduced on the monitor screen is in a backlight or a state close to backlight, and pixel data included in the selected range when the backlight condition is set When a predetermined ratio of pixel data is extracted from the lower luminance of the pixel, and the backlight condition is not set, the predetermined percentage of pixel data from the higher luminance of the pixel data included in the selected range is extracted. Pixel data extracting means for extracting, average luminance calculating means for calculating the average value of the luminance in the selected range using the pixel data extracted by the pixel data extracting means, and the obtained brightness Correction amount calculation means for calculating a correction amount for correcting the average value of the predetermined value to a predetermined luminance value set in advance, image data correction means for correcting all pixel data using the calculated correction amount, and correction There is known an image forming apparatus including an image forming unit that forms an image using the image data thus obtained (see, for example, Patent Document 1). However, in this prior art, the backlight setting unit is composed of a mouse, a keyboard, a CPU, a ROM, a RAM, and the like. If the prescan image reproduced on the display is in a backlight or a state close to backlight, an operator or user If a judgment is made, the mouse or keyboard is operated to input a predetermined signal corresponding to the backlight state. The judgment of the shooting scene depends on the experience and knowledge of the operator and the user, and is skilled in handling. There is a problem that requires.
逆光撮影等の撮影シーンを自動判定するため、ニューラルネットワークを採用することも提案されている。例えば、入力層の各非線形素子に正規化された濃度分布ヒストグラムにおいて定められたサンプリング濃度値における頻度値(正規化された値)がそれぞれ入力されるとともに、出力パターンとして「適正露光」、「アンダー露光」、「オーバ露光」、「逆光」が設定されているニューラルネットワークを構築し、このニューラルネットワークの出力結果に基づき、画像補正演算処理の決定に利用される参照濃度値を適正に抽出することで、多階調画像の露光状態(撮影シーン)に拘わらず適正な画像処理が行なわれる画像処理装置が知られている(例えば、特許文献2参照)。しかしながら、ヒストグラムから得られる画像特徴量を入力として4つの撮影シーンを判定する単一のニューラルネットワークでは、同じ撮影シーンでも種々のヒストグラム形態が生じることや、人物を被写体とした場合には人物を最優先した画像補正が要求されることから、撮影画像によっては十分な出力精度が得られないという問題がある。 It has also been proposed to employ a neural network in order to automatically determine a shooting scene such as backlight shooting. For example, frequency values (normalized values) of sampling density values determined in a normalized density distribution histogram are input to each nonlinear element of the input layer, and “proper exposure” and “under” are output patterns. Build a neural network with “exposure”, “overexposure”, and “backlight” settings, and properly extract the reference density value used to determine image correction calculation processing based on the output result of this neural network Thus, an image processing apparatus that performs appropriate image processing regardless of the exposure state (shooting scene) of a multi-tone image is known (for example, see Patent Document 2). However, in a single neural network that determines four photographic scenes using image feature values obtained from the histogram as input, various histogram forms occur even in the same photographic scene, and when a person is the subject, the person is the best. Since prioritized image correction is required, there is a problem that sufficient output accuracy cannot be obtained depending on the captured image.
上記実状に鑑み、本発明の課題は、入力撮影画像の撮影シーンをニュートラルネットワークを用いて高い精度で推定し、その推定結果に基づいて前記入力撮影画像を精度よく補正することを可能とする撮影画像補正技術を提供することである。 In view of the above situation, an object of the present invention is to provide a shooting that enables a shooting scene of an input shooting image to be estimated with high accuracy using a neutral network, and that the input shooting image can be accurately corrected based on the estimation result. It is to provide image correction technology.
入力撮影画像の撮影シーンを考慮して前記入力撮影画像を補正するための撮影画像補正方法において上記課題を解決するための、本発明による撮影画像補正方法は、前記入力撮影画像のヒストグラムから画像特徴量としての種々のヒストグラム特徴量を求めるステップと、前記入力撮影画像に設定された領域からこの領域に依存する画像特徴量としての種々の領域依存濃度特徴量を求めるステップと、前記入力撮影画像から画像特徴量としての種々の色特徴量を求めるステップと、前記画像特徴量としての前記種々のヒストグラム特徴量と前記種々の領域依存濃度特徴量と前記種々の色特徴量との集合を画像特徴量セットとし、当該画像特徴量セットから選択されるとともに少なくとも部分的には互いに異なる画像特徴量を含む複数の画像特徴量サブセットのそれぞれを入力とする複数のニューラルネットワーク部によって撮影シーンに関する出力を算出するステップと、前記複数のニューラルネットワーク部からの出力を用いて前記入力撮影画像の撮影シーンを推定する推定値を算出するステップとからなる。 In order to solve the above-described problem in the captured image correction method for correcting the input captured image in consideration of the captured scene of the input captured image, the captured image correction method according to the present invention includes an image feature based on a histogram of the input captured image. A step of obtaining various histogram feature amounts as quantities, a step of obtaining various region-dependent density feature amounts as image feature amounts depending on the region from the region set in the input photographed image, and the input photographed image image determining a variety of color feature as an image feature amount, the set of the various histogram feature amounts and the various regions dependent density feature quantity and the variety of color characteristic amounts as a pre-outs image feature quantity characterized quantity set, a plurality of images JP to encompass different image feature quantity is at least partially while being selected from the image characteristic quantity set A step of calculating an output relating to a photographic scene by a plurality of neural network units each receiving each of the quantity subsets, and an estimation value for estimating a photographic scene of the input photographic image using the outputs from the plurality of neural network units Step.
また、入力撮影画像の撮影シーンを考慮して前記入力撮影画像を補正するための撮影画像補正モジュールにおいて上記課題を解決するための、本発明による撮影画像補正モジュールは、前記入力撮影画像のヒストグラムから画像特徴量としての種々のヒストグラム特徴量を求めるヒストグラム特徴量演算部と、前記入力撮影画像に設定された領域からこの領域に依存する画像特徴量としての種々の領域依存濃度特徴量を求める領域依存濃度特徴量演算部と、前記入力撮影画像から画像特徴量としての種々の色特徴量を求める色特徴量演算部と、前記画像特徴量としての前記種々のヒストグラム特徴量と前記種々の領域依存濃度特徴量と前記種々の色特徴量との集合を画像特徴量セットとし、当該画像特徴量セットから選択されるとともに少なくとも部分的には互いに異なる画像特徴量を含む複数の画像特徴量サブセットのそれぞれを入力として撮影シーンに関する出力を算出する複数のニューラルネットワーク部と、前記複数のニューラルネットワーク部からの出力を用いて前記入力撮影画像の撮影シーンを推定する推定値を算出する出力処理部とを備えている。 In addition, a captured image correction module according to the present invention for solving the above problem in a captured image correction module for correcting the input captured image in consideration of a captured scene of the input captured image is based on a histogram of the input captured image. Histogram feature amount calculation unit for obtaining various histogram feature amounts as image feature amounts, and region dependence for obtaining various region-dependent density feature amounts as image feature amounts depending on this region from the region set in the input photographed image a density feature quantity calculation section, various color feature calculation unit for obtaining a color feature, the various regions and the various histogram feature amounts of the front Kiga image feature amount of an image feature quantity from the input captured image a set of dependent density feature quantity and the variety of color feature data and image feature amount set small with is selected from the image characteristic quantity set In addition, a plurality of neural network units that calculate outputs related to a shooting scene using each of a plurality of image feature amount subsets including image feature amounts that are partially different from each other, and using outputs from the plurality of neural network units, And an output processing unit that calculates an estimated value for estimating a captured scene of the input captured image.
このような本発明の特徴構成によれば、処理対象撮影画像から得られた複数種の画像特徴量を入力として処理対象撮影画像の撮影シーンを推定するための結論を出力する複数のニューラルネットワーク部が用意されることになり、しかもそれぞれのニューラルネットワーク部に入力される画像特徴量サブセットはその内容が少なくとも部分的には異なっているので、各ニューラルネットワーク部がそれぞれ独立したアルゴリズムで撮影シーンに関する結論を出力することができる。そして、この複数のニューラルネットワーク部から出力された複数の結論から最終的な撮影画像の撮影シーンを推定する推定値を算出するので、この推定値は一種の合議制による結論であり、かなり極端な撮影条件で撮影された撮影画像であっても極端に異なった推定値を算出するという不都合は抑制される。正確な撮影シーンの推定値が得られることにより、処理対象となっている入力撮影画像に対する正確な補正度を決定することが可能となる。 According to such a feature configuration of the present invention, a plurality of neural network units for outputting a conclusion for estimating a shooting scene of a processing target shooting image by using a plurality of types of image feature amounts obtained from the processing target shooting image In addition, the image feature quantity subsets input to the respective neural network units are at least partially different in content, so each neural network unit has an independent algorithm and a conclusion about the shooting scene. Can be output. Since an estimated value for estimating the shooting scene of the final captured image is calculated from a plurality of conclusions output from the plurality of neural network units, this estimated value is a conclusion based on a kind of collaborative system, which is quite extreme. Even if it is a photographed image photographed under photographing conditions, the disadvantage of calculating extremely different estimated values is suppressed. By obtaining an accurate estimated value of the shooting scene, it is possible to determine an accurate correction degree for the input captured image to be processed.
用いられるニューラルネットワーク部の数は、最終的な結論の信頼度とニューラルネットワーク部の構築コストなどの条件から決定されるが、好適な実施形態として、本発明では、3つの異なるニューラルネットワーク部を用意することが提案される。つまり、前記画像特徴量セットから選択された画像特徴量からなる第1画像特徴量サブセットを入力とする第1ニューラルネットワーク部によって撮影シーンに関する第1出力を算出し、前記画像特徴量セットから選択されるとともに少なくとも部分的には前記第1画像特徴量サブセットに含まれる画像特徴量とは異なる画像特徴量からなる第2画像特徴量サブセットを入力とする第2ニューラルネットワーク部によって撮影シーンに関する第2出力を算出し、前記画像特徴量セットから選択されるとともに少なくとも部分的には前記第1画像特徴量サブセット及び前記第2画像特徴量サブセットに含まれる画像特徴量とは異なる画像特徴量からなる第3画像特徴量サブセットを入力とする第3ニューラルネットワーク部によって撮影シーンに関する第3出力を算出するように構成される。このように3つのニューラルネットワーク構成は、それぞれの結論である第1・第2・第3出力から推定値を算出する際に、全一致の法則や多数決の法則を組み込むことができるという利点も得られる。 The number of neural network units used is determined based on conditions such as the reliability of the final conclusion and the construction cost of the neural network unit. As a preferred embodiment, the present invention provides three different neural network units. Proposed to do. That is, before calculating the first output related to a shooting scene by the first neural network unit which receives the first image characteristic amount subset of selected image features from Kiga image characteristic quantity set, before Kiga image feature quantity A shooting scene by a second neural network unit that receives a second image feature quantity subset that is selected from the set and at least partially comprises an image feature quantity different from the image feature quantity included in the first image feature quantity subset. second calculating output differs from the image feature amount is at least partially included in the first image characteristic amount subset and the second image characteristic amount subset with are selected from pre-outs image characteristic quantity set image related A scene shot by a third neural network unit that receives a third image feature subset consisting of features Configured to calculate a third output related. In this way, the three neural network configurations have the advantage of being able to incorporate all-matching rules and majority rules when calculating the estimated values from the first, second, and third outputs that are the respective conclusions. It is done.
本発明の好適な実施形態では、前記各画像特徴量サブセットには必ずヒストグラム特徴量と領域依存濃度特徴量と色特徴量が含まれるようにすることにより、前記入力撮影画像を画像全体の濃度特性と画像特定領域の濃度特性と画像の色特性といった観点から入力撮影画像の撮影シーンを推定することができる。このことは、最重要な撮影シーンである逆光撮影シーンが画像全体の濃度値と中央領域の濃度値及び肌色の分布をパラメータとして良好な推測が可能であるということを考慮すると、効果的な画像特徴量の選択である。従って、逆光撮影シーンやストロボ撮影シーンを推定すべき撮影シーンとする場合、本発明の好適な実施形態では、前記ヒストグラム特徴量として、濃度階調を複数の区域に分割して求められた各区域の平均濃度値が用いられ、かつ前記領域依存濃度特徴量として、前記入力撮影画像の中央領域での平均濃度値である中央平均濃度値と、前記中央領域より拡大された拡大領域での平均濃度値である拡大中央平均濃度値と、全領域での平均濃度値である全域平均濃度値と、全領域での濃度値標準偏差である濃度標準偏差とが用いられ、かつ前記色特徴量として、前記入力撮影画像の平均彩度と、前記入力撮影画像の平均濃度値以上の濃度値をもつ画素の平均彩度である高濃度平均彩度と、前記入力撮影画像の平均濃度値未満の濃度値をもつ画素の平均彩度である低濃度平均彩度と、前記入力撮影画像の平均濃度値以上の濃度値をもつ肌色の画素数である肌色画素数とが用いられる。 Preferred embodiment, by to include pre-Symbol always histogram feature amount and the area-dependent density features and the color feature in each image feature amount subset, the concentration of the input captured image the whole image of the present invention The shooting scene of the input shot image can be estimated from the viewpoints of the characteristics, the density characteristics of the image specific area, and the color characteristics of the image. This is an effective image considering that the backlight scene, which is the most important shooting scene, can be well estimated using the density value of the entire image, the density value of the central area, and the skin color distribution as parameters. This is the selection of feature quantities. Therefore, when the photographic scene to be estimated backlit scenes, flash photography scene, in a preferred embodiment of the present invention, as a pre Kihi Sutoguramu feature amount, obtained by dividing the density gradation into a plurality of zones average density value of each region is used, and as the pre-Symbol area dependent density feature quantity, and the center average density value is the average density value in the central area of the input captured image, enlarged region in which the magnified from the central region mean is the concentration value of at expansion and the center average density value, and the entire average density value is the average density value of the entire region, and the concentration standard deviation is the concentration value standard deviation of the entire region is used, and prior Symbol As the color feature amount, the average saturation of the input photographed image, the high density average saturation which is the average saturation of pixels having a density value equal to or higher than the average density value of the input photographed image, and the average density of the input photographed image Pixel with density value less than the value A lightly doped average saturation is an average saturation, and skin color pixel number is the number of pixels skin color with an average density value or density value of the input captured image is used.
撮影時の撮影シーン(逆光撮影シーン、ストロボ撮影シーン、ノーマル撮影シーンなど)を考慮して入力撮影画像を補正、特に濃度調整補正をするために用いられる、本発明による撮影シーン別撮影画像補正モジュールの基本構成が図1に示されている。この撮影シーン別撮影画像補正モジュール60の特徴は、複数のニューラルネットワーク部を有する又は複数のニューラルネットワーク部を作り出すニューラルネットワークモジュール62を備えていることである。各ニューラルネットワーク部の入力層の素子群には、入力された撮影画像から画像特徴量演算部61によって求められた複数種の画像特徴量から前もって選択されたいくつかの画像特徴量が入力される。その際、各ニューラルネットワーク部の入力層に与えられる画像特徴量のセット、つまり画像特徴量サブセットの中身の少なくとも1つは他のニューラルネットワーク部の入力層に与えられる画像特徴量サブセットとは異なる画像特徴量をもっている。さらに、撮影シーン別撮影画像補正モジュール60は、各ニューラルネットワーク部からの出力を用いて入力撮影画像の撮影シーンを推定する推定値を算出する出力処理部63と、この出力処理部63によって算出された推定値に基づいて入力撮影画像に対する補正度を決定する補正度決定部64とが備えられている。各ニューラルネットワーク部から出力される出力値は、入力撮影画像の撮影シーンが予め定義されている撮影シーンの1つである確度といった数値であるので、例えば出力処理部63によって複数のニューラルネットワーク部から出力される出力値を単純平均したり、重み付き平均したりすることで、入力撮影画像に対して割り当てられた特定の撮影シーン毎の推定値が算出される。例えば、ある入力撮影画像に対して、その撮影シーンが逆光撮影シーンである確率が何パーセントで、ストロボ撮影シーンである確率が何パーセントであるといった推定値(推定ベクトル)が算出されるのである。後は、そのような推定値から、多くの実験結果等で得られた知識に基づいて補正度決定部64が補正度を決定する。補正度決定部64で決定された補正度は、従来からガンマ補正やコントラスト補正を行っている画像補正部70で利用され、そこで撮影シーンも考慮した画像補正が行われる。
A photographic image correction module for each photographic scene according to the present invention, which is used to correct an input photographic image in consideration of a photographic scene at the time of shooting (backlight photographic scene, strobe photographic scene, normal photographic scene, etc.), particularly density adjustment correction. The basic configuration is shown in FIG. The feature of this photographed
次に、上述した撮影シーン別撮影画像補正モジュール60を搭載した写真プリント装置を説明する。図2はその写真プリント装置を示す外観図であり、この写真プリント装置は、印画紙Pに対して露光処理と現像処理とを行う写真プリンタとしてのプリントステーション1Bと、現像済み写真フィルム2aやデジタルカメラ用メモリカード2bなどの画像入力メディアから取り込んだ撮影画像を処理してプリントステーション1Bで使用されるプリントデータの生成・転送などを行う操作ステーション1Aとから構成されている。
Next, a photographic printing apparatus equipped with the above-described photographic
この写真プリント装置はデジタルミニラボとも称せられるものであり、図3からよく理解できるように、プリントステーション1Bは2つの印画紙マガジン11に納めたロール状の印画紙Pを引き出してシートカッター12でプリントサイズに切断すると共に、このように切断された印画紙Pに対し、バックプリント部13で色補正情報やコマ番号などのプリント処理情報を印画紙Pの裏面に印字するとともに、プリント露光部14で印画紙Pの表面に撮影画像の露光を行い、この露光後の印画紙Pを複数の現像処理槽を有した処理槽ユニット15に送り込んで現像処理する。乾燥の後に装置上部の横送りコンベア16からソータ17に送られた印画紙P、つまり写真プリントPは、このソータ17の複数のトレイにオーダ単位で仕分けられた状態で集積される(図2参照)。
This photo printing apparatus is also called a digital minilab. As can be understood from FIG. 3, the
上述した印画紙Pに対する各種処理に合わせた搬送速度で印画紙Pを搬送するために印画紙搬送機構18が敷設されている。印画紙搬送機構18は、印画紙搬送方向に関してプリント露光部14の前後に配置されたチャッカー式印画紙搬送ユニット18aを含む複数の挟持搬送ローラ対から構成されている。
A photographic
プリント露光部14には、副走査方向に搬送される印画紙Pに対して、主走査方向に沿って操作ステーション1Aからのプリントデータに基づいてR(赤)、G(緑)、B(青)の3原色のレーザ光線の照射を行うライン露光ヘッドが設けられている。処理槽ユニット15は、発色現像処理液を貯留する発色現像槽15aと、漂白定着処理液を貯留する漂白定着槽15bと、安定処理液を貯留する安定槽15cを備えている。
The
前記操作ステーション1Aのデスク状コンソールの上部位置には、写真フィルム2aの撮影画像コマから撮影画像データ(以下単に画像データ又は撮影画像と略称する)を2000dpiを超える解像度でもって取得することができるフィルムスキャナ20が配置されており、デジタルカメラ等に装着される撮影画像記録媒体2bとして用いられている各種半導体メモリやCD−Rなどから画像データを取得するメディアリーダ21は、この写真プリント装置のコントローラ3として機能する汎用パソコンに組み込まれている。この汎用パソコンには、さらに各種情報を表示するモニタ23、各種設定や調整を行う際に用いる操作入力部として利用される操作入力デバイスとしてのキーボード24やマウス25も接続されている。
At the upper position of the desk-like console of the
この写真プリント装置のコントローラ3は、CPUを中核部材として、写真プリント装置の種々の動作を行うための機能部をハードウエア又はソフトウエアあるいはその両方で構築しているが、図4に示されているように、本発明に特に関係する機能部としては、フィルムスキャナ20やメディアリーダ21によって読み取られた画像データを取り込んで次の処理のために必要な前処理を行う画像入力部31と、各種ウインドウや各種操作ボタンなどを含むグラフィック操作画面の作成やそのようなグラフィック操作画面を通じてのユーザ操作入力(キーボード24やマウス25などによる)から制御コマンドを生成するグラフィックユーザインターフェース(以下GUIと略称する)を構築するGUI部33と、GUI部33から送られてきた制御コマンドや直接キーボード24等から入力された操作命令に基づいて所望のプリントデータを生成するために画像入力部31からメモリ30に転送された画像データに対する画像処理等を行うプリント管理部32と、色補正等のプレジャッジプリント作業時にプリントソース画像や予想仕上がりプリント画像としてのシミュレート画像さらにはGUI部33から送られてきたグラフィックデータをモニタ23に表示させるためのビデオ信号を生成するビデオ制御部35と、画像処理が完了した処理済み画像データに基づいてプリントステーション1Bに装備されているプリント露光部14に適したプリントデータを生成するプリントデータ生成部36と、顧客の要望に応じて生の画像データや画像処理が完了した処理済み画像データなどをCD−Rに書き込むための形式にフォーマットするフォーマッタ部37などが挙げられる。
The
画像入力部31は、撮影画像記録媒体がフィルム2aの場合プレスキャンモードと本スキャンモードとのスキャンデータを別々にメモリ30に送り込み、それぞれの目的に合わせた前処理を行う。また、撮影画像記録媒体がメモリカード2bの場合取り込んだ画像データにサムネイル画像データ(低解像度データ)が含まれている場合はモニタ23での一覧表示などの目的で使用するため撮影画像の本データ(高解像度データ)とは別にメモリ30に送り込むが、もしサムネイル画像データが含まれていない場合は本データから縮小画像を作り出してサムネイル画像データとしてメモリ30に送り込む。さらには、入力された撮影画像に対する各種補正条件や補正位置などを高速に求めるために入力された撮影画像をより小さな画像サイズをもつ補正処理用撮影画像(例えば、256×384画素)に変換する機能も有する。
When the photographic image recording medium is the
プリント管理部32は、プリントサイズやプリント枚数などを管理するプリント注文処理ユニット40、メモリ30に展開された撮影画像に対して各種画像処理を施す画像処理ユニット50を備えている。
The
画像処理ユニット50には、メモリ30に展開された補正用撮影画像から特定の撮影シーン毎の推定値を算出するとともにその撮影シーン推定値から補正度を決定する撮影画像補正モジュール60と、決定された補正度を利用してプリント目的に用いられる高解像度の撮影画像を補正する画像補正部70と、それ自体は公知な画像処理アルゴリズムに従って撮影画像の部分的又は全面的な補正を行うフォトレタッチモジュール80が基本的にはプログラムの形で実装されている。
The
この撮影画像補正モジュール60に実装されている画像特徴量演算部61は、図5に示すように、画像入力部31によって適切な処理サイズに変換されメモリ30に展開されている補正処理用撮影画像からヒストグラム特徴量を求めるヒストグラム特徴量演算部61aと、補正処理用撮影画像に設定された領域からこの領域に依存する種々の領域依存濃度特徴量を求める領域依存濃度特徴量演算部61bと、補正処理用撮影画像から種々の色特徴量を求める色特徴量演算部61cとを備えている。
As shown in FIG. 5, the image feature
この実施形態のヒストグラム特徴量演算部61aで求められるヒストグラム特徴量は、図6に示すように、濃度ヒストグラムの横軸である頻度を5つの区域(第1区域、第2区域、第3区域、第4区域、第5区域)に分割して求められた各区域の平均濃度値(第1区域平均濃度値:D1、第2区域平均濃度値:D2、第3区域平均濃度値:D3、第4区域平均濃度値:D4、第5区域平均濃度値:D5)である。また、図7から理解できるように、領域依存濃度特徴量演算部61bで求められる領域依存濃度特徴量は、補正処理用撮影画像(256×384画素)の菱形中央領域(長径:128×短径:192画素程度)での平均濃度値である中央平均濃度値:E1と、前記菱形中央領域より拡大された拡大領域(長径:256×短径:384画素程度)での平均濃度値である拡大中央平均濃度値:E2と、全領域での平均濃度値である全域平均濃度値:E3と、全領域での濃度値標準偏差である濃度標準偏差:E4とである。
As shown in FIG. 6, the histogram feature amount obtained by the histogram feature
さらに、色特徴量演算部61cで求められる色特徴量は、彩度と色相に関する特徴量であり、この特徴量を求めるために、前もってRGB色空間で表現されている補正処理用撮影画像をPQ色空間(色相円の一種)で表現される形に変換される。このRGB/PQ変換を以下に説明する。
まず、R・G・B色空間の値からPQ色空間のPQ座標値への変換式は以下に示すマトリックス演算によって求めることができる。
First, a conversion formula from a value in the R, G, B color space to a PQ coordinate value in the PQ color space can be obtained by the matrix calculation shown below.
この実施形態の色特徴量演算部61cで求められる色特徴量は、撮影画像全体の平均彩度である全平均彩度:S1、平均濃度値以上の濃度値を有する画素の平均彩度である高濃度平均彩度:S2、平均濃度値未満の濃度値を有する画素の平均彩度である低濃度平均彩度:S3、平均濃度値以上の濃度値を有する肌色の画素数である肌色画素数:S4である。
The color feature amount calculated by the color feature
ニューラルネットワークモジュール62は、図5に示すように、この実施形態では、第1ニューラルネットワーク部62aと第2ニューラルネットワーク部62bと第3ニューラルネットワーク部62cの3つが稼働する。なお、各ニューラルネットワーク部自体はよく知られた構成を採用しており、教師信号はGUI部33を介して与えられ、この教師信号を用いてニューラルネットワーク管理部62zがそれ自体公知であるアルゴリズムを用いて各要素の重み係数を導出する。
As shown in FIG. 5, the
第1ニューラルネットワーク部62aは、図9に示すように、9個の入力要素を有する入力層と5つの中間要素を有する中間層と3個の出力要素を有する出力層からなる。入力層の各要素には、ヒストグラム特徴量演算部61aから第1区域平均濃度値:D1と第2区域平均濃度値:D2と第3区域平均濃度値:D3と第4区域平均濃度値:D4と第5区域平均濃度値:D5とが与えられ、領域依存濃度特徴量演算部61bから中央平均濃度値:E1と拡大中央平均濃度値:E2と全域平均濃度値:E3とが与えられ、色特徴量演算部61cから全平均彩度:S1が与えられる。出力層の各要素からは、撮影シーンがストロボ撮影シーンである可能性を示すストロボ度:α1と、撮影シーンが逆光撮影シーンである可能性を示す逆光度:β1と、撮影シーンがノーマル撮影シーンである可能性を示すノーマル度:γ1とが出力される。α1、β1、γ1は0から10までの数値で表され、数値が大きくなるほどその可能性が高いことを示している。
As shown in FIG. 9, the first
第2ニューラルネットワーク部62bは、図10に示すように、10個の入力要素を有する入力層と5つの中間要素を有する中間層と3個の出力要素を有する出力層からなる。入力層の各要素には、ヒストグラム特徴量演算部61aから第1区域平均濃度値:D1と第2区域平均濃度値:D2と第3区域平均濃度値:D3と第4区域平均濃度値:D4と第5区域平均濃度値:D5とが与えられ、領域依存濃度特徴量演算部61bから中央平均濃度値:E1と拡大中央平均濃度値:E2と全域平均濃度値:E3とが与えられ、色特徴量演算部61cから全平均彩度:S1と肌色画素数:S4とが与えられる。出力層の各要素からは、第1ニューラルネットワーク部62aと同様で、ストロボ度:α2と逆光度:β2とノーマル度:γ2とが出力される。
As shown in FIG. 10, the second
第3ニューラルネットワーク部62cは、図11に示すように、12個の入力要素を有する入力層と6つの中間要素を有する中間層と3個の出力要素を有する出力層からなる。入力層の各要素には、ヒストグラム特徴量演算部61aから第1区域平均濃度値:D1と第2区域平均濃度値:D2と第3区域平均濃度値:D3と第4区域平均濃度値:D4と第5区域平均濃度値:D5とが与えられ、領域依存濃度特徴量演算部61bから中央平均濃度値:E1と拡大中央平均濃度値:E2と全域平均濃度値:E3と濃度標準偏差:E4とが与えられ、色特徴量演算部61cから高濃度平均彩度:S2と低濃度平均彩度:S3と肌色画素数:S4とが与えられる。出力層の各要素からは、第1ニューラルネットワーク部62aと同様で、ストロボ度:α3と逆光度:β3とノーマル度:γ3とが出力される。
As shown in FIG. 11, the third
以上の説明から明らかなように、ニューラルネットワークモジュール62からは、3つの演算結果、つまり第1演算結果(出力)として〔α1,β1,γ1〕、第2演算結果(出力)として〔α2,β2,γ2〕、第3演算結果(出力)として〔α3,β3,γ3〕が出力される。出力処理部63は、これらの3つの演算結果に基づいて、最終的な入力撮影画像の撮影シーンを推定する推定値(推定ベクトル)〔α,β,γ〕を算出する。ここで、αはストロボ撮影シーンの推定値、βは逆光撮影シーンの推定値、γが逆光撮影シーンの推定値であり、0から10までの数値をとる。例えば、〔9,1,1〕なら処理対象となっている撮影画像はほぼ100%の確率でストロボ撮影シーンであると推定される。最も簡単には、3つの演算結果を算術平均することによって最終的な推定値を得ることができるが、より好ましくは、撮影画像の統計学的な画像特性(平均濃度値や濃度中間値など)に応じて設定された重みを用いた重み付け平均を行うことである。例えば、ストロボ撮影シーンを判定しにくいような平均濃度値をもつ撮影画像に対してはストロボ撮影シーンの演算結果であるαに対する重みを小さくしβやγに対する重みを大きくした重み平均を行うことになる。
As is apparent from the above description, the
このように算出された撮影シーン推定値〔α,β,γ〕を参照して、補正度決定部64はこの撮影画像に対する補正度を決定する。補正度決定部64で決定された補正度が画像補正部70に送られると、画像補正部70はこの補正度を利用して基準の補正曲線の傾きやシフトあるいは部分的な補正曲線の変形を行って、実際のプリントに用いられる高解像度の撮影画像を補正する。
With reference to the photographed scene estimated values [α, β, γ] calculated in this way, the correction
このように、入力層に設定される画像特徴量が異なる複数のニューラルネットワーク部を用いてそれぞれから撮影シーンを推定する演算結果が出力され、これら複数の演算結果に基づいて、いわゆる合議制で、最終的な撮影シーン推定値を算出するので、従来技術より信頼性の高い撮影シーンの特定が可能となり、結果的に高品質の顧客に喜ばれる写真プリントを作り出すことができる撮影画像の補正が実現する。 In this way, a calculation result for estimating a shooting scene is output from each using a plurality of neural network units having different image feature values set in the input layer, and based on these calculation results, a so-called consensus system is used. Since the final shooting scene estimation value is calculated, it is possible to identify shooting scenes that are more reliable than the conventional technology, and as a result, it is possible to correct shot images that can produce photographic prints that will please high-quality customers. To do.
上述した実施形態の説明では、本発明による撮影画像補正技術が、DPショップに設置されているミニラボと呼ばれている写真プリント装置に組み込まれた例を取り上げたが、コンビニやDPショップの店頭に設置されているセルフサービス式の写真プリント装置など、種々の写真プリント装置に組み込んでもよいし、画像処理ソフトウエアの撮影画像補正機能の1つとして、この画像処理ソフトウエアのプログラムに組み込んでもよい。つまり、本発明の権利範囲は、上述した撮影画像補正方法をコンピュータに実行させる撮影画像補正プログラムにも及ぶものである。 In the description of the embodiment described above, an example in which the photographed image correction technique according to the present invention is incorporated in a photo printing apparatus called a minilab installed in a DP shop has been taken up. It may be incorporated into various photographic printing apparatuses such as an installed self-service photographic printing apparatus, or may be incorporated into a program of the image processing software as one of the photographed image correction functions of the image processing software. That is, the scope of rights of the present invention extends to a captured image correction program that causes a computer to execute the above-described captured image correction method.
なお、上述した実施の形態では、画像出力手段としてのプリントステーション1Bは、印画紙Pに対し、レーザ式露光エンジンを備えたプリント露光部14で撮影画像の露光を行い、この露光後の印画紙Pを複数の現像処理する、いわゆる銀塩写真プリント方式を採用していたが、もちろん、本発明によって補正された撮影画像のプリント方式は、このような方式に限定されるわけではなく、例えば、フィルムや紙にインクを吐出して画像を形成するインクジェットプリント方式や感熱転写シートを用いた熱転写方式など、種々の写真プリント方式にも及ぶものである。
In the above-described embodiment, the
31:画像入力部
60:撮影画像補正モジュール
61:画像特徴量演算部
61a:ヒストグラム特徴量演算部
61b:領域依存濃度特徴量演算部
61c:色特徴量演算部
62:ニューラルネットワークモジュール(ニューラルネットワーク部)
62a:第1ニューラルネットワーク部
62b:第2ニューラルネットワーク部
62c:第3ニューラルネットワーク部
63:出力処理部
64:補正度決定部
70:画像補正部
31: Image input unit 60: Captured image correction module 61: Image feature
62a: first
Claims (8)
前記入力撮影画像のヒストグラムから画像特徴量としての種々のヒストグラム特徴量を求めるステップと、
前記入力撮影画像に設定された領域からこの領域に依存する画像特徴量としての種々の領域依存濃度特徴量を求めるステップと、
前記入力撮影画像から画像特徴量としての種々の色特徴量を求めるステップと、
前記画像特徴量としての前記種々のヒストグラム特徴量と前記種々の領域依存濃度特徴量と前記種々の色特徴量との集合を画像特徴量セットとし、当該画像特徴量セットから選択されるとともに少なくとも部分的には互いに異なる画像特徴量を含む複数の画像特徴量サブセットのそれぞれを入力とする複数のニューラルネットワーク部によって撮影シーンに関する出力を算出するステップと、
前記複数のニューラルネットワーク部からの出力を用いて前記入力撮影画像の撮影シーンを推定する推定値を算出するステップと、
からなることを特徴とする撮影画像補正方法。 In the captured image correction method for correcting the input captured image in consideration of the captured scene of the input captured image,
Obtaining various histogram feature values as image feature values from the histogram of the input photographed image;
Obtaining various region-dependent density feature amounts as image feature amounts depending on the region from the region set in the input photographed image;
Obtaining various color feature values as image feature values from the input photographed image;
A set of said various histogram feature amounts and the various regions dependent density feature quantity and the variety of color characteristic amounts as a pre-outs image feature amount and the image feature quantity set, together are selected from the image characteristic quantity set Calculating an output relating to a photographic scene by a plurality of neural network units each receiving a plurality of image feature amount subsets including at least partially different image feature amounts;
Calculating an estimated value for estimating a captured scene of the input captured image using outputs from the plurality of neural network units;
A photographed image correction method comprising:
前記画像特徴量セットから選択された画像特徴量からなる第1画像特徴量サブセットを入力とする第1ニューラルネットワーク部によって撮影シーンに関する第1出力を算出するステップと、
前記画像特徴量セットから選択されるとともに少なくとも部分的には前記第1画像特徴量サブセットに含まれる画像特徴量とは異なる画像特徴量からなる第2画像特徴量サブセットを入力とする第2ニューラルネットワーク部によって撮影シーンに関する第2出力を算出するステップと、
前記画像特徴量セットから選択されるとともに少なくとも部分的には前記第1画像特徴量サブセット及び前記第2画像特徴量サブセットに含まれる画像特徴量とは異なる画像特徴量からなる第3画像特徴量サブセットを入力とする第3ニューラルネットワーク部によって撮影シーンに関する第3出力を算出するステップと、
が含まれていることを特徴とする請求項1に記載の撮影画像補正方法。 In the step of calculating the output related to the shooting scene,
Calculating a first output for the photographic scene by the first neural network unit which receives the first image characteristic amount subset of the previous image feature quantities selected from Kiga image characteristic quantity set,
The second to at least partially together are selected from pre-outs image feature amount set as an input the second image characteristic amount subset of different image feature quantity from the image feature amount included in the first image characteristic amount subset Calculating a second output related to the photographic scene by the neural network unit;
Third image features of different image feature quantity from the image feature amount is at least partially included in the first image characteristic amount subset and the second image characteristic amount subset with are selected from pre-outs image characteristic quantity set Calculating a third output related to the photographic scene by a third neural network unit having the quantity subset as input;
The captured image correction method according to claim 1, wherein:
前記領域依存濃度特徴量として、前記入力撮影画像の中央領域での平均濃度値である中央平均濃度値と、前記中央領域より拡大された拡大領域での平均濃度値である拡大中央平均濃度値と、全領域での平均濃度値である全域平均濃度値と、全領域での濃度値標準偏差である濃度標準偏差とが用いられ、かつ
前記色特徴量として、前記入力撮影画像の平均彩度と、前記入力撮影画像の平均濃度値以上の濃度値をもつ画素の平均彩度である高濃度平均彩度と、前記入力撮影画像の平均濃度値未満の濃度値をもつ画素の平均彩度である低濃度平均彩度と、前記入力撮影画像の平均濃度値以上の濃度値をもつ肌色の画素数である肌色画素数とが用いられる、
ことを特徴とする請求項1から3のいずれか一項に記載の撮影画像補正方法。 As before Kihi Sutoguramu feature amount, the average density value of each zone obtained by dividing the density gradation into a plurality of zones are used, and as the pre-Symbol area dependent density feature quantity, the central region of the input captured image A central average density value that is an average density value in the area, an enlarged central average density value that is an average density value in an enlarged area that is enlarged from the central area, and an overall average density value that is an average density value in all areas. , a density standard deviation is the concentration value standard deviation of the entire region is used, and as the pre-Symbol color feature, the average and saturation of the input captured image, an average density value or density value of the input captured image A high density average saturation which is an average saturation of pixels having a low density average saturation which is an average saturation of pixels having a density value less than the average density value of the input photographed image, and an average density of the input photographed image Skin color, which is the number of skin color pixels with density value greater than or equal to And a prime number is used,
The method for correcting a photographed image according to any one of claims 1 to 3 , wherein:
前記入力撮影画像のヒストグラムから画像特徴量としての種々のヒストグラム特徴量を求めるヒストグラム特徴量演算部と、
前記入力撮影画像に設定された領域からこの領域に依存する画像特徴量としての種々の領域依存濃度特徴量を求める領域依存濃度特徴量演算部と、
前記入力撮影画像から画像特徴量としての種々の色特徴量を求める色特徴量演算部と、
前記画像特徴量としての前記種々のヒストグラム特徴量と前記種々の領域依存濃度特徴量と前記種々の色特徴量との集合を画像特徴量セットとし、当該画像特徴量セットから選択されるとともに少なくとも部分的には互いに異なる画像特徴量を含む複数の画像特徴量サブセットのそれぞれを入力として撮影シーンに関する出力を算出する複数のニューラルネットワーク部と、
前記複数のニューラルネットワーク部からの出力を用いて前記入力撮影画像の撮影シーンを推定する推定値を算出する出力処理部と、
からなることを特徴とする撮影画像補正モジュール。 In the captured image correction module for correcting the input captured image in consideration of the captured scene of the input captured image,
A histogram feature amount calculation unit for obtaining various histogram feature amounts as image feature amounts from the histogram of the input photographed image;
A region-dependent density feature amount calculating unit for obtaining various region-dependent density feature amounts as image feature amounts depending on the region from the region set in the input photographed image;
A color feature quantity computing unit for obtaining various color feature quantities as image feature quantities from the input photographed image;
A set of said various histogram feature amounts and the various regions dependent density feature quantity and the variety of color characteristic amounts as a pre-outs image feature amount and the image feature quantity set, together are selected from the image characteristic quantity set A plurality of neural network units for calculating an output relating to a shooting scene by inputting each of a plurality of image feature amount subsets including at least partially different image feature amounts;
An output processing unit that calculates an estimated value for estimating a shooting scene of the input captured image using outputs from the plurality of neural network units;
A photographed image correction module comprising:
前記画像特徴量セットから選択された画像特徴量からなる第1画像特徴量サブセットを入力として撮影シーンに関する第1出力を算出する第1ニューラルネットワーク部と、
前記画像特徴量セットから選択されるとともに少なくとも部分的には前記第1画像特徴量サブセットに含まれる画像特徴量とは異なる画像特徴量からなる第2画像特徴量サブセットを入力として撮影シーンに関する第2出力を算出する第2ニューラルネットワーク部と、
前記画像特徴量セットから選択されるとともに少なくとも部分的には前記第1画像特徴量サブセット及び前記第2画像特徴量サブセットに含まれる画像特徴量とは異なる画像特徴量からなる第3画像特徴量サブセットを入力として撮影シーンに関する第3出力を算出する第3ニューラルネットワーク部と、
が含まれていることを特徴とする請求項5に記載の撮影画像補正モジュール。 The front Symbol multiple of the neural network unit,
A first neural network unit for calculating a first output for the photographic scene a first image characteristic amount subset of front Kiga image characteristic quantity set image feature quantities selected from the input,
Related to a shooting scene as input a second image characteristic amount subset of different image feature quantity is the image feature amount and the at least partially included in the first image characteristic amount subset with are selected from pre-outs image characteristic quantity set A second neural network unit for calculating a second output;
Third image features of different image feature quantity from the image feature amount is at least partially included in the first image characteristic amount subset and the second image characteristic amount subset with are selected from pre-outs image characteristic quantity set A third neural network unit for calculating a third output related to the shooting scene with the quantity subset as an input;
The photographed image correction module according to claim 5, wherein:
前記領域依存濃度特徴量として、前記入力撮影画像の中央領域での平均濃度値である中央平均濃度値と、前記中央領域より拡大された拡大領域での平均濃度値である拡大中央平均濃度値と、全領域での平均濃度値である全域平均濃度値と、全領域での濃度値標準偏差である濃度標準偏差とが用いられ、かつ
前記色特徴量として、前記入力撮影画像の平均彩度と、前記入力撮影画像の平均濃度値以上の濃度値をもつ画素の平均彩度である高濃度平均彩度と、前記入力撮影画像の平均濃度値未満の濃度値をもつ画素の平均彩度である低濃度平均彩度と、前記入力撮影画像の平均濃度値以上の濃度値をもつ肌色の画素数である肌色画素数とが用いられる、
ことを特徴とする請求項5から7のいずれか一項に記載の撮影画像補正モジュール。 As before Kihi Sutoguramu feature amount, the average density value of each zone obtained by dividing the density gradation into a plurality of zones are used, and as the pre-Symbol area dependent density feature quantity, the central region of the input captured image A central average density value that is an average density value in the area, an enlarged central average density value that is an average density value in an enlarged area that is enlarged from the central area, and an overall average density value that is an average density value in all areas. , a density standard deviation is the concentration value standard deviation of the entire region is used, and as the pre-Symbol color feature, the average and saturation of the input captured image, an average density value or density value of the input captured image A high density average saturation which is an average saturation of pixels having a low density average saturation which is an average saturation of pixels having a density value less than the average density value of the input photographed image, and an average density of the input photographed image Skin color, which is the number of skin color pixels with density value greater than or equal to And a prime number is used,
The photographed image correction module according to any one of claims 5 to 7 , wherein
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006236571A JP4798446B2 (en) | 2006-08-31 | 2006-08-31 | Photographed image correction method and photographed image correction module |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006236571A JP4798446B2 (en) | 2006-08-31 | 2006-08-31 | Photographed image correction method and photographed image correction module |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008060989A JP2008060989A (en) | 2008-03-13 |
JP4798446B2 true JP4798446B2 (en) | 2011-10-19 |
Family
ID=39243220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006236571A Expired - Fee Related JP4798446B2 (en) | 2006-08-31 | 2006-08-31 | Photographed image correction method and photographed image correction module |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4798446B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020053837A1 (en) * | 2018-09-13 | 2020-03-19 | Spectrum Optix Inc. | Photographic underexposure correction using a neural network |
JP7353847B2 (en) | 2019-07-29 | 2023-10-02 | キヤノン株式会社 | Information processing device, imaging device, control method and program |
CN115696027A (en) * | 2021-07-22 | 2023-02-03 | 中兴通讯股份有限公司 | Photographing method, photographing apparatus, controller, device, and computer-readable storage medium |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03294983A (en) * | 1990-04-12 | 1991-12-26 | Toshiba Corp | Character recognizing device |
JP3367975B2 (en) * | 1992-01-14 | 2003-01-20 | シャープ株式会社 | Auto iris circuit |
JPH0937145A (en) * | 1995-07-24 | 1997-02-07 | Matsushita Electric Ind Co Ltd | Automatic exposure adjusting device, automatic gradation adjusting device and video camera |
-
2006
- 2006-08-31 JP JP2006236571A patent/JP4798446B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008060989A (en) | 2008-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005310068A (en) | Method for correcting white of eye, and device for executing the method | |
JP4496465B2 (en) | Red-eye correction method, program, and apparatus for implementing the method | |
JP4655210B2 (en) | Density correction curve generation method and density correction curve generation module | |
JP4441876B2 (en) | Photographed image processing method, photographed image processing program, and photographed image processing apparatus | |
JP4798446B2 (en) | Photographed image correction method and photographed image correction module | |
JP2006107329A (en) | Photographed image processor | |
JP2007249802A (en) | Image processor and image processing method | |
JP2005148915A (en) | Proper face discrimination method and apparatus for implementing the method | |
JP4591784B2 (en) | Method for creating conversion table for photographed image correction and photo printing apparatus for implementing this method | |
JP2008227976A (en) | Image processor and image processing method | |
JP4441853B2 (en) | Face selection method for density correction and apparatus for carrying out this method | |
JP2005159387A (en) | Method of determining density characteristic curve and density correction management apparatus for executing this method | |
JP4793648B2 (en) | Image correction unit and image correction program | |
JP4655211B2 (en) | Generation method, generation program and generation module of correction characteristics used for contrast correction | |
JP4731202B2 (en) | Color correction processing method and color correction processing apparatus using the same | |
JP2009027254A (en) | Image correcting method and image correcting device | |
JP4284604B2 (en) | Contrast adjustment method and contrast adjustment apparatus for implementing the method | |
JP2006072743A (en) | Catch light composition method and device | |
JP4396648B2 (en) | Photo processing apparatus and photo processing program | |
JP2006074742A (en) | Photographing scene correcting method, program, and photographing scene correction processing system implementing the method | |
JP4775289B2 (en) | Image processing apparatus and image processing method | |
JP4378611B2 (en) | A tilt correction method, a tilt correction program, and a photo printing apparatus with a tilt correction function | |
JP2006301675A (en) | Image processor and image processing method | |
JP2009016940A (en) | Uniformity correction processing apparatus and uniformity correction processing method of frame image | |
JP2006059162A (en) | Tooth image correction method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110217 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20110223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110707 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110720 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140812 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |