JP2006031440A - Image processing method, image processing apparatus, image processing program and image processing system - Google Patents

Image processing method, image processing apparatus, image processing program and image processing system Download PDF

Info

Publication number
JP2006031440A
JP2006031440A JP2004209959A JP2004209959A JP2006031440A JP 2006031440 A JP2006031440 A JP 2006031440A JP 2004209959 A JP2004209959 A JP 2004209959A JP 2004209959 A JP2004209959 A JP 2004209959A JP 2006031440 A JP2006031440 A JP 2006031440A
Authority
JP
Japan
Prior art keywords
image
neural network
correction
information
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004209959A
Other languages
Japanese (ja)
Inventor
Shoichi Nomura
庄一 野村
Chizuko Ikeda
千鶴子 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2004209959A priority Critical patent/JP2006031440A/en
Publication of JP2006031440A publication Critical patent/JP2006031440A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To realize image processing adaptable to various preferences about photographic printing. <P>SOLUTION: An image processing apparatus 200 calculates predetermined characteristic values from image information acquired by an image information acquisition part 4, and calculates tone correction parameters by using a first neural network whose input signals are the calculated characteristic values and whose output signals are the tone correction parameters of tone conversion of the image information. According to the calculated tone correction parameters, the image information is tone-converted to create a corrected image. If an operator operates a command input part 9 to command a correction to the created corrected image, a neuro-learning part 7 executes learning of the first neural network, using levels of correction to the created corrected image as teacher data, and recalculates the tone correction parameters by using the learned first neural network. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像情報に対して画像処理を施す画像処理方法、画像処理装置、画像処理プログラム及び画像処理システムに関する。   The present invention relates to an image processing method, an image processing apparatus, an image processing program, and an image processing system that perform image processing on image information.

近年、銀塩フィルムやデジタルスチルカメラ(以下、DSCという。)等の撮影手段により得られた画像情報(撮影画像)から、写真焼付機やデジタルプリンタを用いて写真プリントを得る手法が広く普及している。一般に、撮影画像は、そのままでは写真プリントとして好ましい画像品位を有するものではないため、撮影画像に対して様々な画質調整を施し、好ましい画像を生成する必要がある。   In recent years, a technique for obtaining a photographic print using a photographic printing machine or a digital printer from image information (photographed image) obtained by photographing means such as a silver salt film or a digital still camera (hereinafter referred to as DSC) has been widely spread. ing. In general, a captured image does not have a preferable image quality as a photographic print as it is, and therefore it is necessary to perform various image quality adjustments on the captured image to generate a preferable image.

実際の画質調整は、例えば、写真焼付機の場合、印画紙に現像済みフィルムの画像を焼き付ける際の露光量(露光時間、露光強度、露光光源の色調)を調整し、その調整された露光量で印画紙に焼き付けることで行われる。また、DSCによる撮影で得られた撮影画像や、現像済み銀塩フィルムをフィルムスキャナで読み取って得られた撮影画像に、所定の画像処理を施すことによって、画質調整が行われる。画質調整が施された撮影画像は、デジタルプリンタ等でプリント出力されたり、メモリーカード等の記録メディアに保存されたりする。   For example, in the case of a photographic printer, the actual image quality adjustment is performed by adjusting the exposure amount (exposure time, exposure intensity, color tone of the exposure light source) when printing the developed film image on photographic paper, and adjusting the exposure amount. This is done by printing on photographic paper. Further, image quality adjustment is performed by applying predetermined image processing to a photographed image obtained by photographing with DSC or a photographed image obtained by reading a developed silver salt film with a film scanner. The captured image that has undergone image quality adjustment is printed out by a digital printer or the like, or stored in a recording medium such as a memory card.

画質調整に際し、どのように調整したら好ましい画像が得られるかの情報、即ち、画像調整条件を取得する必要がある。画像調整条件を自動的に取得するために、種々の方法が提案されている。例えば、特許文献1には、撮影画像から肌色領域に関する情報を取得し、その取得された肌色領域情報の中から人物の顔に相当する領域の検出を行って、その検出された顔に相当する領域の画像を所定の色調に仕上げるための階調変換を行う画像処理技術が開示されている。   In the image quality adjustment, it is necessary to acquire information on how to adjust to obtain a preferable image, that is, an image adjustment condition. Various methods have been proposed for automatically acquiring the image adjustment conditions. For example, Patent Document 1 acquires information on a skin color area from a photographed image, detects an area corresponding to a human face from the acquired skin color area information, and corresponds to the detected face. An image processing technique for performing gradation conversion for finishing an image of a region to a predetermined color tone is disclosed.

以下、図27のフローチャートを参照して、従来の画像処理について説明する。
まず、画像処理装置に入力された画像情報が取得される(ステップT1)。次いで、ステップT1で取得された画像情報から肌色領域が抽出され、その抽出された肌色領域により人物の顔が抽出される(ステップT2)。
Hereinafter, conventional image processing will be described with reference to the flowchart of FIG.
First, image information input to the image processing apparatus is acquired (step T1). Next, a skin color area is extracted from the image information acquired in step T1, and a human face is extracted from the extracted skin color area (step T2).

次いで、ステップT2で抽出された人物の顔領域の特性値(例えば、画素信号値の平均、分散等の統計値)が算出され(ステップT3)、その算出された特性値に基づいて、入力された画像情報に対して階調補正が施される(ステップT4)。次いで、画像情報に対する追加補正値が設定される(ステップT5)。この追加補正値の初期値は0であり、オペレータによって入力された値が追加補正値として設定される。   Next, a characteristic value of the person's face area extracted in step T2 (for example, a statistical value such as an average or variance of pixel signal values) is calculated (step T3) and input based on the calculated characteristic value. Gradation correction is performed on the obtained image information (step T4). Next, an additional correction value for the image information is set (step T5). The initial value of this additional correction value is 0, and the value input by the operator is set as the additional correction value.

次いで、ステップT5で設定された追加補正値に従って、補正画像が作成され(ステップT6)、作成された補正画像が表示部(モニタ)に表示される(ステップT7)。オペレータは、表示部に表示された補正画像を見て、補正結果が良好であるか否かを判断し、その判断結果を入力する。   Next, a corrected image is created according to the additional correction value set in step T5 (step T6), and the created corrected image is displayed on the display unit (monitor) (step T7). The operator looks at the correction image displayed on the display unit, determines whether or not the correction result is good, and inputs the determination result.

補正画像の補正結果が良好であるという判断結果が入力された場合(ステップT8;YES)、本画像処理が終了する。補正画像の補正結果が良好ではない場合(ステップT8;NO)、オペレータにより追加補正値が入力され(ステップT9)、その入力された追加補正値が設定され(ステップT5)、ステップT6〜T8の処理が繰り返される。
特開平6−67320号公報
When a determination result indicating that the correction result of the correction image is good is input (step T8; YES), the image processing ends. When the correction result of the corrected image is not good (step T8; NO), an additional correction value is input by the operator (step T9), the input additional correction value is set (step T5), and steps T6 to T8 are performed. The process is repeated.
JP-A-6-67320

しかしながら、従来の画像処理技術では、自動画像処理により、顔画像を均一の階調に仕上げることはできても、被写体のおかれた環境や、被写体個人の特徴を無視した画一的な仕上がり画像しか得られないという問題があった。特に、特許文献1に記載された技術を写真プリントサービスに適用した場合、写真プリントサービスを提供する店舗によって、好ましいプリントに関する嗜好が異なっているため、各店舗に適用した画像処理を行うのが困難であった。一方、画像処理の改良に伴って画像調整結果が劇的に変化する場合、写真プリントサービスを提供する店舗、顧客に混乱を招く恐れがあった。   However, with the conventional image processing technology, the face image can be finished to a uniform gradation by automatic image processing, but a uniform finished image ignoring the subject's environment and the individual characteristics of the subject There was a problem that it could only be obtained. In particular, when the technique described in Patent Document 1 is applied to a photo print service, it is difficult to perform image processing applied to each store because the preference for preferred printing differs depending on the store providing the photo print service. Met. On the other hand, if the image adjustment result changes dramatically with the improvement of image processing, there is a risk of confusion for stores and customers that provide photo print services.

本発明の課題は、写真プリントに関する様々な嗜好に適合可能な画像処理を実現することである。   An object of the present invention is to realize image processing that can be adapted to various preferences relating to photographic prints.

上記課題を解決するため、請求項1に記載の発明は、入力された画像情報から所定の特性値を算出する特性値算出工程と、前記算出された特性値を入力信号とし、画像情報に対する階調変換の程度を示す階調補正パラメータを出力信号とする第1のニューラルネットワークを用いて階調補正パラメータを算出する補正パラメータ算出工程と、前記算出された階調補正パラメータに基づいて前記画像情報を階調変換することによって補正画像を作成する補正画像作成工程と、前記作成された補正画像に対する補正が指示された場合、当該作成された補正画像に対する補正量を教師データとして前記第1のニューラルネットワークの学習を実施する第1の学習工程と、を含むことを特徴としている。   In order to solve the above problem, the invention according to claim 1 is a characteristic value calculating step for calculating a predetermined characteristic value from the input image information, and the calculated characteristic value is used as an input signal, and a step for the image information is calculated. A correction parameter calculating step of calculating a gradation correction parameter using a first neural network having a gradation correction parameter indicating a degree of tone conversion as an output signal; and the image information based on the calculated gradation correction parameter. A correction image generation step of generating a correction image by performing tone conversion, and when the correction for the generated correction image is instructed, the correction amount for the generated correction image is used as teacher data for the first neural network. And a first learning step for performing network learning.

請求項2に記載の発明は、請求項1に記載の画像処理方法において、前記入力された画像情報から、人物の顔領域を検出する顔領域検出工程を含み、前記特性値算出工程では、前記検出された顔領域に関する特性値が算出されることを特徴としている。   The invention according to claim 2 includes a face area detection step of detecting a face area of a person from the input image information in the image processing method according to claim 1, wherein the characteristic value calculation step includes: A characteristic value relating to the detected face area is calculated.

請求項3に記載の発明は、請求項2に記載の画像処理方法において、前記入力された画像情報から、人物の顔の可能性がある顔候補領域を抽出する顔候補領域抽出工程を含み、前記顔領域検出工程では、人物の顔検出処理を学習した第2のニューラルネットワークを用いて、前記抽出された顔候補領域から顔領域が検出され、前記特性値算出工程では、前記抽出された顔候補領域が顔領域である可能性を示す、前記第2のニューラルネットワークの出力信号の反応強度及び/又は前記検出された顔領域の特性値が算出されることを特徴としている。   The invention according to claim 3 includes a face candidate area extracting step of extracting a face candidate area having a possibility of a human face from the input image information in the image processing method according to claim 2, In the face area detection step, a face area is detected from the extracted face candidate areas using a second neural network that has learned human face detection processing, and in the characteristic value calculation step, the extracted face The response intensity of the output signal of the second neural network and / or the characteristic value of the detected face area, which indicates the possibility that the candidate area is a face area, is calculated.

請求項4に記載の発明は、請求項1〜3の何れか一項に記載の画像処理方法において、前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得工程と、前記第1のニューラルネットワークの出力信号を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習工程と、前記学習された第3のニューラルネットワークの学習結果が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換工程と、を含むことを特徴としている。   According to a fourth aspect of the present invention, in the image processing method according to any one of the first to third aspects, an acquisition step of acquiring a third neural network having a configuration different from the first neural network; The second learning step of learning the third neural network using the output signal of the first neural network as teacher data, and the learning result of the learned third neural network satisfy a predetermined condition A replacement step of replacing the first neural network with the third neural network.

請求項5に記載の発明は、請求項1〜3の何れか一項に記載の画像処理方法において、前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得工程と、前記第1のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を更に補正するための第1の補正値を入力する入力工程と、前記第1の補正値に基づいて、第3のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を補正するための第2の補正値を算出する補正値算出工程と、前記算出された第2の補正値を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習工程と、前記第1の補正値と、前記学習された第3のニューラルネットワークを用いて算出された第2の補正値の関係が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換工程と、を含むことを特徴としている。   According to a fifth aspect of the present invention, in the image processing method according to any one of the first to third aspects, an acquisition step of acquiring a third neural network having a configuration different from the first neural network; An input step of inputting a first correction value for further correcting the corrected image created based on the gradation correction parameter calculated by the first neural network, and based on the first correction value A correction value calculating step of calculating a second correction value for correcting the corrected image created based on the gradation correction parameter calculated by the third neural network, and the calculated second correction value , Learning data of the third neural network as teacher data, the first correction value, the learned third neural network If the relationship of the second correction value calculated by using a predetermined condition is satisfied, and characterized in that it comprises a replacement step of replacing the first neural network to the third neural network.

請求項6に記載の発明は、請求項1〜5の何れか一項に記載の画像処理方法において、前記特性値算出工程では、前記入力された画像が撮影された時の配光条件を示す値が算出されることを特徴としている。   A sixth aspect of the present invention is the image processing method according to any one of the first to fifth aspects, wherein the characteristic value calculating step indicates a light distribution condition when the input image is photographed. It is characterized in that a value is calculated.

請求項7に記載の発明は、請求項6に記載の画像処理方法において、前記配光条件には、逆光状態及び/又はフラッシュ光利用状態が含まれることを特徴としている。   The invention according to claim 7 is the image processing method according to claim 6, wherein the light distribution condition includes a backlight state and / or a flash light utilization state.

請求項8に記載の発明は、請求項1〜7の何れか一項に記載の画像処理方法において、前記入力された画像情報はカラー画像であり、前記補正パラメータ算出工程において算出された階調補正パラメータを所定の比率で分割し、第1の補正パラメータ及び第2の補正パラメータを算出する分割パラメータ算出工程を含み、前記補正画像作成工程では、前記入力された画像情報を輝度−色差情報で表現した場合の輝度情報に対して前記第1の補正パラメータを作用させることによって当該輝度情報が階調変換されるとともに、前記入力された画像情報をRGB情報で表現した場合の各々の色情報に対して前記第2の補正パラメータを作用させることによって当該色情報が階調変換されることを特徴としている。   The invention according to claim 8 is the image processing method according to any one of claims 1 to 7, wherein the input image information is a color image, and the gradation calculated in the correction parameter calculation step. A division parameter calculation step of dividing the correction parameter at a predetermined ratio and calculating the first correction parameter and the second correction parameter; and in the correction image creation step, the input image information is converted into luminance-color difference information. By applying the first correction parameter to the luminance information when expressed, the luminance information is subjected to gradation conversion, and each input color information is expressed as RGB information. On the other hand, the color information is subjected to gradation conversion by applying the second correction parameter.

請求項9に記載の発明は、請求項1〜8の何れか一項に記載の画像処理方法において、前記補正画像作成工程では、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報が変換されることを特徴としている。   According to a ninth aspect of the present invention, in the image processing method according to any one of the first to eighth aspects, the correction image creating step uses a correction coefficient set in advance based on a shading characteristic in a negative positive method. The image information is converted.

請求項10に記載の発明は、請求項1〜8の何れか一項に記載の画像処理方法において、前記画像情報の属性情報を取得する属性情報取得工程と、前記取得された属性情報に基づいて、前記画像情報が、撮影により得られた自然画像であるか否かを判定する判定工程と、を含み、
前記判定工程において、前記画像情報が自然画像であると判定された場合、前記補正画像作成工程では、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報が変換されることを特徴としている。
The invention according to claim 10 is the image processing method according to any one of claims 1 to 8, based on an attribute information acquisition step of acquiring attribute information of the image information, and the acquired attribute information. Determining whether the image information is a natural image obtained by photographing, and
If it is determined in the determination step that the image information is a natural image, the correction information creation step converts the image information using a correction coefficient set in advance based on a shading characteristic in a negative-positive method. It is characterized by that.

請求項11に記載の発明は、入力された画像情報から所定の特性値を算出する特性値算出手段と、前記算出された特性値を入力信号とし、画像情報に対する階調変換の程度を示す階調補正パラメータを出力信号とする第1のニューラルネットワークを用いて階調補正パラメータを算出する補正パラメータ算出手段と、前記算出された階調補正パラメータに基づいて前記画像情報を階調変換することによって補正画像を作成する補正画像作成手段と、前記作成された補正画像に対する補正が指示された場合、当該作成された補正画像に対する補正量を教師データとして前記第1のニューラルネットワークの学習を実施する第1の学習手段と、を備えることを特徴としている。   The invention according to claim 11 is a characteristic value calculating means for calculating a predetermined characteristic value from the input image information, and a level indicating the degree of gradation conversion with respect to the image information using the calculated characteristic value as an input signal. A correction parameter calculation means for calculating a gradation correction parameter using a first neural network having a tone correction parameter as an output signal, and gradation conversion of the image information based on the calculated gradation correction parameter. When a correction image generation unit for generating a correction image and correction for the generated correction image are instructed, the first neural network is learned using the correction amount for the generated correction image as teacher data. 1 learning means.

請求項12に記載の発明は、請求項11に記載の画像処理装置において、前記入力された画像情報から、人物の顔領域を検出する顔領域検出手段を備え、前記特性値算出手段は、前記検出された顔領域に関する特性値を算出することを特徴としている。   A twelfth aspect of the present invention is the image processing apparatus according to the eleventh aspect, further comprising face area detection means for detecting a face area of a person from the input image information, wherein the characteristic value calculation means A characteristic value related to the detected face area is calculated.

請求項13に記載の発明は、請求項12に記載の画像処理装置において、前記入力された画像情報から、人物の顔の可能性がある顔候補領域を抽出する顔候補領域抽出手段を備え、前記顔領域検出手段は、人物の顔検出処理を学習した第2のニューラルネットワークを用いて、前記抽出された顔候補領域から顔領域を検出し、前記特性値算出手段は、前記抽出された顔候補領域が顔領域である可能性を示す、前記第2のニューラルネットワークの出力信号の反応強度及び/又は前記検出された顔領域の特性値を算出することを特徴としている。   The invention according to claim 13 is the image processing apparatus according to claim 12, further comprising face candidate region extraction means for extracting a face candidate region that may be a human face from the input image information. The face area detecting means detects a face area from the extracted face candidate areas using a second neural network that has learned human face detection processing, and the characteristic value calculating means is configured to detect the extracted face. It is characterized in that the response intensity of the output signal of the second neural network and / or the characteristic value of the detected face area, which indicates the possibility that the candidate area is a face area, is calculated.

請求項14に記載の発明は、請求項11〜13の何れか一項に記載の画像処理装置において、前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得手段と、前記第1のニューラルネットワークの出力信号を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習手段と、前記学習された第3のニューラルネットワークの学習結果が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換手段と、を備えることを特徴としている。   According to a fourteenth aspect of the present invention, in the image processing device according to any one of the eleventh to thirteenth aspects, an acquisition unit that acquires a third neural network having a configuration different from that of the first neural network; , Second learning means for performing learning of the third neural network using the output signal of the first neural network as teacher data, and a learning result of the learned third neural network satisfying a predetermined condition In this case, a replacement means for replacing the first neural network with the third neural network is provided.

請求項15に記載の発明は、請求項11〜13の何れか一項に記載の画像処理装置において、前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得手段と、前記第1のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を更に補正するための第1の補正値を入力する入力手段と、前記第1の補正値に基づいて、第3のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を補正するための第2の補正値を算出する補正値算出手段と、前記算出された第2の補正値を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習手段と、前記第1の補正値と、前記学習された第3のニューラルネットワークを用いて算出された第2の補正値の関係が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換手段と、を備えることを特徴としている。   According to a fifteenth aspect of the present invention, in the image processing apparatus according to any one of the eleventh to thirteenth aspects, the acquisition means acquires a third neural network having a configuration different from the first neural network. , Input means for inputting a first correction value for further correcting a correction image created based on the gradation correction parameter calculated by the first neural network, and based on the first correction value Correction value calculating means for calculating a second correction value for correcting the corrected image created based on the gradation correction parameter calculated by the third neural network, and the calculated second correction value Using the second learning means for learning the third neural network as teacher data, the first correction value, and the learned third neural network. If the relationship of the second correction value calculated by using the work satisfies a predetermined condition, is characterized by and a replacement means for replacing the first neural network to the third neural network.

請求項16に記載の発明は、請求項11〜15の何れか一項に記載の画像処理装置において、前記特性値算出手段は、前記入力された画像が撮影された時の配光条件を示す値を算出することを特徴としている。   According to a sixteenth aspect of the present invention, in the image processing apparatus according to any one of the eleventh to fifteenth aspects, the characteristic value calculating means indicates a light distribution condition when the input image is taken. It is characterized by calculating a value.

請求項17に記載の発明は、請求項16に記載の画像処理装置において、前記配光条件には、逆光状態及び/又はフラッシュ光利用状態が含まれることを特徴としている。   According to a seventeenth aspect of the present invention, in the image processing apparatus according to the sixteenth aspect, the light distribution condition includes a backlight state and / or a flash light utilization state.

請求項18に記載の発明は、請求項11〜17の何れか一項に記載の画像処理装置において、前記入力された画像情報はカラー画像であり、前記補正パラメータ算出手段において算出された階調補正パラメータを所定の比率で分割し、第1の補正パラメータ及び第2の補正パラメータを算出する分割パラメータ算出手段を備え、前記補正画像作成手段は、前記入力された画像情報を輝度−色差情報で表現した場合の輝度情報に対して前記第1の補正パラメータを作用させることによって当該輝度情報を階調変換するとともに、前記入力された画像情報をRGB情報で表現した場合の各々の色情報に対して前記第2の補正パラメータを作用させることによって当該色情報を階調変換することを特徴としている。   According to an eighteenth aspect of the present invention, in the image processing device according to any one of the eleventh to eleventh aspects, the input image information is a color image, and the gradation calculated by the correction parameter calculating unit. Division parameter calculation means is provided for dividing the correction parameter at a predetermined ratio and calculating the first correction parameter and the second correction parameter, and the correction image creation means converts the input image information into luminance-color difference information. By applying the first correction parameter to the luminance information when expressed, the luminance information is subjected to gradation conversion, and for each color information when the input image information is expressed by RGB information. In this case, the color information is subjected to gradation conversion by applying the second correction parameter.

請求項19に記載の発明は、請求項11〜18の何れか一項に記載の画像処理装置において、前記補正画像作成手段は、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報を変換することを特徴としている。   According to a nineteenth aspect of the present invention, in the image processing device according to any one of the eleventh to eleventh aspects, the correction image creating means uses a correction coefficient that is set in advance based on a shading characteristic in a negative positive system. The image information is converted.

請求項20に記載の発明は、請求項11〜18の何れか一項に記載の画像処理装置において、前記画像情報の属性情報を取得する属性情報取得手段と、前記取得された属性情報に基づいて、前記画像情報が、撮影により得られた自然画像であるか否かを判定する判定手段と、を備え、前記判定手段により、前記画像情報が自然画像であると判定された場合、前記補正画像作成手段は、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報を変換することを特徴としている。   According to a twentieth aspect of the present invention, in the image processing device according to any one of the eleventh to eleventh aspects, an attribute information acquisition unit that acquires attribute information of the image information and the acquired attribute information. Determining means for determining whether or not the image information is a natural image obtained by photographing, and if the determination means determines that the image information is a natural image, the correction The image creating means converts the image information using a correction coefficient set in advance based on the shading characteristics in the negative-positive method.

請求項21に記載の発明は、画像処理を実行するコンピュータに、入力された画像情報から所定の特性値を算出する特性値算出機能と、前記算出された特性値を入力信号とし、画像情報に対する階調変換の程度を示す階調補正パラメータを出力信号とする第1のニューラルネットワークを用いて階調補正パラメータを算出する補正パラメータ算出機能と、前記算出された階調補正パラメータに基づいて前記画像情報を階調変換することによって補正画像を作成する補正画像作成機能と、前記作成された補正画像に対する補正が指示された場合、当該作成された補正画像に対する補正量を教師データとして前記第1のニューラルネットワークの学習を実施する第1の学習機能と、を実現させる。   According to a twenty-first aspect of the present invention, a computer that executes image processing has a characteristic value calculation function for calculating a predetermined characteristic value from input image information, and the calculated characteristic value is used as an input signal. A correction parameter calculation function for calculating a gradation correction parameter using a first neural network that uses a gradation correction parameter indicating the degree of gradation conversion as an output signal, and the image based on the calculated gradation correction parameter When a correction image generation function for generating a corrected image by gradation conversion of information and correction for the generated correction image are instructed, the correction amount for the generated correction image is used as teacher data as the first data. And a first learning function for performing learning of a neural network.

請求項22に記載の発明は、請求項21に記載の画像処理プログラムにおいて、前記入力された画像情報から、人物の顔領域を検出する顔領域検出機能を実現させ、前記特性値算出機能を実現させる際に、前記検出された顔領域に関する特性値を算出することを特徴としている。   According to a twenty-second aspect of the present invention, in the image processing program according to the twenty-first aspect, a face area detecting function for detecting a human face area from the input image information is realized, and the characteristic value calculating function is realized. When performing, a characteristic value related to the detected face area is calculated.

請求項23に記載の発明は、請求項22に記載の画像処理プログラムにおいて、前記入力された画像情報から、人物の顔の可能性がある顔候補領域を抽出する顔候補領域抽出機能を実現させ、前記顔領域検出機能を実現させる際に、人物の顔検出処理を学習した第2のニューラルネットワークを用いて、前記抽出された顔候補領域から顔領域を検出し、前記特性値算出機能を実現させる際に、前記抽出された顔候補領域が顔領域である可能性を示す、前記第2のニューラルネットワークの出力信号の反応強度及び/又は前記検出された顔領域の特性値を算出することを特徴としている。   According to a twenty-third aspect of the present invention, in the image processing program according to the twenty-second aspect, a face candidate area extracting function for extracting a face candidate area having a possibility of a human face from the input image information is realized. When the face area detection function is realized, the characteristic value calculation function is realized by detecting a face area from the extracted face candidate areas using a second neural network that has learned human face detection processing. Calculating the reaction intensity of the output signal of the second neural network and / or the characteristic value of the detected face area, which indicates the possibility that the extracted face candidate area is a face area. It is a feature.

請求項24に記載の発明は、請求項21〜23の何れか一項に記載の画像処理プログラムにおいて、前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得機能と、前記第1のニューラルネットワークの出力信号を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習機能と、前記学習された第3のニューラルネットワークの学習結果が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換機能と、を実現させる。   According to a twenty-fourth aspect of the present invention, in the image processing program according to any one of the twenty-first to twenty-third aspects, an acquisition function for acquiring a third neural network having a configuration different from the first neural network; The second learning function for performing learning of the third neural network using the output signal of the first neural network as teacher data, and the learning result of the learned third neural network satisfy a predetermined condition In this case, a replacement function for replacing the first neural network with the third neural network is realized.

請求項25に記載の発明は、請求項21〜23の何れか一項に記載の画像処理プログラムにおいて、前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得機能と、前記第1のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を更に補正するための第1の補正値を入力する入力機能と、前記第1の補正値に基づいて、第3のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を補正するための第2の補正値を算出する補正値算出機能と、前記算出された第2の補正値を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習機能と、前記第1の補正値と、前記学習された第3のニューラルネットワークを用いて算出された第2の補正値の関係が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換機能と、を実現させる。   According to a twenty-fifth aspect of the present invention, in the image processing program according to any one of the twenty-first to twenty-third aspects, an acquisition function for acquiring a third neural network having a configuration different from the first neural network; An input function for inputting a first correction value for further correcting a correction image created based on the gradation correction parameter calculated by the first neural network, and based on the first correction value A correction value calculation function for calculating a second correction value for correcting the corrected image created based on the gradation correction parameter calculated by the third neural network, and the calculated second correction value , The second learning function for performing learning of the third neural network using the teacher data as the training data, the first correction value, and the learned third neural network. If the relationship of the second correction value calculated by using the network satisfies a predetermined condition, to realize a replacement function to replace the first neural network to the third neural network.

請求項26に記載の発明は、請求項21〜25の何れか一項に記載の画像処理プログラムにおいて、前記特性値算出機能を実現させる際に、前記入力された画像が撮影された時の配光条件を示す値を算出することを特徴としている。   According to a twenty-sixth aspect of the present invention, in the image processing program according to any one of the twenty-first to twenty-fifth aspects, when the characteristic value calculation function is realized, an arrangement when the input image is taken is provided. It is characterized by calculating a value indicating the light condition.

請求項27に記載の発明は、請求項26に記載の画像処理プログラムにおいて、前記配光条件には、逆光状態及び/又はフラッシュ光利用状態が含まれることを特徴としている。   According to a twenty-seventh aspect of the present invention, in the image processing program according to the twenty-sixth aspect, the light distribution condition includes a backlight state and / or a flash light utilization state.

請求項28に記載の発明は、請求項21〜27の何れか一項に記載の画像処理プログラムにおいて、前記入力された画像情報はカラー画像であり、前記補正パラメータ算出機能において算出された階調補正パラメータを所定の比率で分割し、第1の補正パラメータ及び第2の補正パラメータを算出する分割パラメータ算出機能を実現させ、前記補正画像作成機能を実現させる際に、前記入力された画像情報を輝度−色差情報で表現した場合の輝度情報に対して前記第1の補正パラメータを作用させることによって当該輝度情報を階調変換するとともに、前記入力された画像情報をRGB情報で表現した場合の各々の色情報に対して前記第2の補正パラメータを作用させることによって当該色情報を階調変換することを特徴としている。   The invention according to claim 28 is the image processing program according to any one of claims 21 to 27, wherein the input image information is a color image, and the gradation calculated by the correction parameter calculation function. When the correction parameter is divided at a predetermined ratio, the division parameter calculation function for calculating the first correction parameter and the second correction parameter is realized, and the correction image creation function is realized, the input image information is Each of the cases where the first correction parameter is applied to the luminance information when expressed by luminance-chrominance information to perform gradation conversion of the luminance information, and the input image information is expressed by RGB information. The color information is subjected to gradation conversion by applying the second correction parameter to the color information.

請求項29に記載の発明は、請求項21〜28の何れか一項に記載の画像処理プログラムにおいて、前記補正画像作成機能を実現させる際に、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報を変換することを特徴としている。   According to a twenty-ninth aspect of the present invention, in the image processing program according to any one of the twenty-first to twenty-eighth aspects, when the correction image creation function is realized, the image processing program is preset based on a shading characteristic in a negative positive method. The image information is converted using a correction coefficient.

請求項30に記載の発明は、請求項21〜28の何れか一項に記載の画像処理プログラムにおいて、前記画像情報の属性情報を取得する属性情報取得機能と、前記取得された属性情報に基づいて、前記画像情報が、撮影により得られた自然画像であるか否かを判定する判定機能と、を実現させ、前記補正画像作成機能を実現させる際に、前記判定機能により、前記画像情報が自然画像であると判定された場合、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報を変換することを特徴としている。   A thirty-third aspect of the invention is the image processing program according to any one of the twenty-first to twenty-eighth aspects, based on an attribute information acquisition function for acquiring attribute information of the image information and the acquired attribute information. A determination function for determining whether or not the image information is a natural image obtained by photographing, and when the correction image creation function is realized, the determination function allows the image information to be When it is determined that the image is a natural image, the image information is converted using a correction coefficient set in advance based on a shading characteristic in the negative-positive method.

請求項31に記載の発明は、画像処理対象の画像情報を入力する画像入力装置と、前記入力された画像情報に対して各種の画像処理を施す画像処理装置と、前記画像処理が施された画像情報を出力する画像出力装置から構成される画像処理システムであって、前記画像処理装置は、前記画像入力装置から入力された画像情報から所定の特性値を算出する特性値算出手段と、前記算出された特性値を入力信号とし、画像情報に対する階調変換の程度を示す階調補正パラメータを出力信号とする第1のニューラルネットワークを用いて階調補正パラメータを算出する補正パラメータ算出手段と、前記算出された階調補正パラメータに基づいて前記画像情報を階調変換することによって補正画像を作成する補正画像作成手段と、前記作成された補正画像に対する補正が指示された場合、当該作成された補正画像に対する補正量を教師データとして前記第1のニューラルネットワークの学習を実施する第1の学習手段と、を備えることを特徴としている。   The invention described in claim 31 is an image input device for inputting image information to be processed, an image processing device for performing various image processing on the input image information, and the image processing. An image processing system including an image output device that outputs image information, wherein the image processing device includes a characteristic value calculation unit that calculates a predetermined characteristic value from image information input from the image input device; Correction parameter calculation means for calculating a gradation correction parameter using a first neural network having the calculated characteristic value as an input signal and a gradation correction parameter indicating the degree of gradation conversion for image information as an output signal; A corrected image creating means for creating a corrected image by gradation-converting the image information based on the calculated gradation correction parameter; and the created correction If correction for the image is instructed, it is characterized by comprising a first learning means for performing learning of the first neural network a correction amount for the created corrected image as teacher data.

請求項32に記載の発明は、請求項31に記載の画像処理システムにおいて、前記画像処理装置は、前記入力された画像情報から、人物の顔領域を検出する顔領域検出手段を備え、前記特性値算出手段は、前記検出された顔領域に関する特性値を算出することを特徴としている。   According to a thirty-second aspect of the present invention, in the image processing system according to the thirty-first aspect, the image processing device includes a face area detecting unit that detects a face area of a person from the input image information, and the characteristic The value calculating means calculates a characteristic value related to the detected face area.

請求項33に記載の発明は、請求項32に記載の画像処理システムにおいて、前記画像処理装置は、前記入力された画像情報から、人物の顔の可能性がある顔候補領域を抽出する顔候補領域抽出手段を備え、前記顔領域検出手段は、人物の顔検出処理を学習した第2のニューラルネットワークを用いて、前記抽出された顔候補領域から顔領域を検出し、前記特性値算出手段は、前記抽出された顔候補領域が顔領域である可能性を示す、前記第2のニューラルネットワークの出力信号の反応強度及び/又は前記検出された顔領域の特性値を算出することを特徴としている。   According to a thirty-third aspect of the present invention, in the image processing system according to the thirty-second aspect, the image processing device extracts a face candidate region that may be a human face from the input image information. The face area detecting means detects a face area from the extracted face candidate areas using a second neural network that has learned human face detection processing, and the characteristic value calculating means includes: , Calculating the reaction intensity of the output signal of the second neural network and / or the characteristic value of the detected face area, which indicates the possibility that the extracted face candidate area is a face area. .

請求項34に記載の発明は、請求項31〜33の何れか一項に記載の画像処理システムにおいて、前記画像処理装置は、前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得手段と、前記第1のニューラルネットワークの出力信号を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習手段と、前記学習された第3のニューラルネットワークの学習結果が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換手段と、を備えることを特徴としている。   The invention according to claim 34 is the image processing system according to any one of claims 31 to 33, wherein the image processing device has a configuration different from that of the first neural network. , Second learning means for learning the third neural network using the output signal of the first neural network as teacher data, and a learning result of the learned third neural network And a replacement means for replacing the first neural network with the third neural network when a predetermined condition is satisfied.

請求項35に記載の発明は、請求項31〜33の何れか一項に記載の画像処理システムにおいて、前記画像処理装置は、前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得手段と、前記第1のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を更に補正するための第1の補正値を入力する入力手段と、前記第1の補正値に基づいて、第3のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を補正するための第2の補正値を算出する補正値算出手段と、前記算出された第2の補正値を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習手段と、前記第1の補正値と、前記学習された第3のニューラルネットワークを用いて算出された第2の補正値の関係が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換手段と、を備えることを特徴としている。   The invention according to claim 35 is the image processing system according to any one of claims 31 to 33, wherein the image processing apparatus has a configuration different from that of the first neural network. Acquisition means for acquiring the first correction value, input means for inputting a first correction value for further correcting the correction image created based on the gradation correction parameter calculated by the first neural network, and the first Correction value calculation means for calculating a second correction value for correcting a correction image created based on the tone correction parameter calculated by the third neural network based on the correction value of Second learning means for performing learning of the third neural network using the second correction value as teacher data, the first correction value, and the learning value. Replacement means for replacing the first neural network with the third neural network when the relationship between the second correction values calculated using the third neural network satisfies a predetermined condition. It is characterized by.

請求項36に記載の発明は、請求項31〜35の何れか一項に記載の画像処理システムにおいて、前記特性値算出手段は、前記入力された画像が撮影された時の配光条件を示す値を算出することを特徴としている。   A thirty-sixth aspect of the present invention is the image processing system according to any one of the thirty-first to thirty-fifth aspects, wherein the characteristic value calculating means indicates a light distribution condition when the input image is taken. It is characterized by calculating a value.

請求項37に記載の発明は、請求項36に記載の画像処理システムにおいて、前記配光条件には、逆光状態及び/又はフラッシュ光利用状態が含まれることを特徴としている。   A thirty-seventh aspect of the present invention is the image processing system according to the thirty-sixth aspect, wherein the light distribution condition includes a backlight state and / or a flash light utilization state.

請求項38に記載の発明は、請求項31〜37の何れか一項に記載の画像処理システムにおいて、前記入力された画像情報はカラー画像であり、前記画像処理装置は、前記補正パラメータ算出手段において算出された階調補正パラメータを所定の比率で分割し、第1の補正パラメータ及び第2の補正パラメータを算出する分割パラメータ算出手段を備え、前記補正画像作成手段は、前記入力された画像情報を輝度−色差情報で表現した場合の輝度情報に対して前記第1の補正パラメータを作用させることによって当該輝度情報を階調変換するとともに、前記入力された画像情報をRGB情報で表現した場合の各々の色情報に対して前記第2の補正パラメータを作用させることによって当該色情報を階調変換することを特徴としている。   According to a thirty-eighth aspect of the present invention, in the image processing system according to any one of the thirty-first to thirty-seventh aspects, the input image information is a color image, and the image processing apparatus includes the correction parameter calculating unit. And a division parameter calculation unit that divides the gradation correction parameter calculated in step 1 at a predetermined ratio and calculates a first correction parameter and a second correction parameter, and the correction image creation unit includes the input image information When the first correction parameter is applied to the luminance information when the image is expressed by luminance-color difference information, the luminance information is subjected to gradation conversion, and the input image information is expressed by RGB information. The color information is subjected to gradation conversion by applying the second correction parameter to each color information.

請求項39に記載の発明は、請求項31〜38の何れか一項に記載の画像処理システムにおいて、前記補正画像作成手段は、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報を変換することを特徴としている。   According to a thirty-ninth aspect of the present invention, in the image processing system according to any one of the thirty-first to thirty-eighth aspects, the correction image creating means uses a correction coefficient that is set in advance based on a shading characteristic in a negative positive system. The image information is converted.

請求項40に記載の発明は、請求項31〜38の何れか一項に記載の画像処理システムにおいて、前記画像処理装置は、前記画像情報の属性情報を取得する属性情報取得手段と、前記取得された属性情報に基づいて、前記画像情報が、撮影により得られた自然画像であるか否かを判定する判定手段と、を備え、前記判定手段により、前記画像情報が自然画像であると判定された場合、前記補正画像作成手段は、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報を変換することを特徴としている。   The invention according to claim 40 is the image processing system according to any one of claims 31 to 38, wherein the image processing apparatus acquires attribute information acquisition means for acquiring attribute information of the image information, and the acquisition Determination means for determining whether the image information is a natural image obtained by photographing based on the attribute information thus obtained, and the determination means determines that the image information is a natural image. In this case, the corrected image creating means converts the image information using a correction coefficient set in advance based on the shading characteristic in the negative-positive method.

本発明によれば、作成された補正画像に対する補正が指示された場合、当該作成された補正画像に対する補正量を第1のニューラルネットワークの教師データとして学習するようにしたため、この学習した第1のニューラルネットワークを用いて画像情報を補正することにより、オペレータの嗜好に合った画像を得ることができる。   According to the present invention, when the correction for the created corrected image is instructed, the correction amount for the created corrected image is learned as the teacher data of the first neural network. By correcting the image information using a neural network, an image that suits the operator's preference can be obtained.

また、入力画像情報に含まれる人物の顔の検出処理を学習した第2のニューラルネットワークを用いて人物の顔領域の特性値及び第2のニューラルネットワークの反応強度を算出し、算出された顔領域の特性値及び反応強度を第1のニューラルネットワークの入力信号とすることにより、より高品質で、オペレータの嗜好に合った画像を得ることができる。   Further, the characteristic value of the person's face area and the reaction intensity of the second neural network are calculated using the second neural network that has learned the process of detecting the face of the person included in the input image information, and the calculated face area By using the characteristic value and the reaction intensity as input signals of the first neural network, it is possible to obtain an image with higher quality and suitable for the operator's preference.

更に、新たな構成を有する第3のニューラルネットワークを使用する前に、オペレータの嗜好に合わせて学習された第1のニューラルネットワークの出力信号を用いて第3のニューラルネットワークの学習を実施するようにしたため、オペレータの嗜好に合った新しいニューラルネットワークへ円滑に移行することができる。   Further, before using the third neural network having the new configuration, the third neural network is learned using the output signal of the first neural network learned according to the preference of the operator. Therefore, it is possible to smoothly shift to a new neural network that matches the operator's preference.

また、入力画像情報から画像撮影時の配光条件を判別し、判別結果を第1のニューラルネットワークへの入力信号の一つとすることにより、配光条件に適した階調補正パラメータを得ることができ、より一層高品質の画像を得ることができる。   Further, by determining the light distribution condition at the time of image capturing from the input image information and making the determination result one of the input signals to the first neural network, it is possible to obtain gradation correction parameters suitable for the light distribution condition. And a higher quality image can be obtained.

更に、第1のニューラルネットワークにより算出された階調補正パラメータを2つの補正パラメータに分割し、第1の補正パラメータを補正対象画像の輝度情報に作用させて階調変換し、第2の補正パラメータを補正対象画像のRGB各々の色情報に対して作用させて階調変換することにより、階調変化に伴う彩度(画像の鮮やかさ)の変化が軽減され、オペレータの指示による追加補正が容易になる。   Further, the gradation correction parameter calculated by the first neural network is divided into two correction parameters, the first correction parameter is applied to the luminance information of the correction target image, and gradation conversion is performed. The second correction parameter Is applied to the RGB color information of the image to be corrected to convert the gradation, thereby reducing the change in saturation (image vividness) that accompanies the change in gradation and facilitating additional correction according to operator instructions. become.

また、補正画像の作成処理では、ネガポジ方式におけるプリント焼付け時のシェーディング特性を再現する処理を行うことにより、ネガポジ方式のプリントに近似した補正画像を得ることができるため、オペレータによる追加補正が容易になる。   In addition, in the correction image creation process, it is possible to obtain a correction image that approximates negative-positive printing by performing processing that reproduces the shading characteristics at the time of printing in the negative-positive method, so that additional correction by the operator is easy. Become.

以下、図面を参照して、本発明の実施形態を詳細に説明する。
まず、本実施形態における構成について説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
First, the configuration in the present embodiment will be described.

図1に、本発明の実施形態に係る画像処理装置100の構成を示す。画像処理装置100は、フィルムに撮影され、現像された画像を印画紙に光学焼付けする写真プリントシステムであり、図1に示すように、光源部1、撮像部2、露光制御部3、画像情報取得部4、画像判定部5、追加補正データ記憶部6、ニューロ学習部7、画像処理部8、指示入力部9、表示部10により構成される。   FIG. 1 shows a configuration of an image processing apparatus 100 according to an embodiment of the present invention. The image processing apparatus 100 is a photographic print system that optically prints a developed image photographed on a film on photographic paper. As shown in FIG. 1, a light source unit 1, an imaging unit 2, an exposure control unit 3, and image information. The acquisition unit 4, the image determination unit 5, the additional correction data storage unit 6, the neuro learning unit 7, the image processing unit 8, the instruction input unit 9, and the display unit 10 are configured.

光源部1で発した光は、色調整フィルタ(Y、M、C)を透過して色調の調整がなされ、光拡散部材の中を乱反射して均質化され、フィルムに照射される。フィルムを透過した光はレンズを通り、印画紙上にフィルム上の画像を結像し、露光制御部3の制御により露光される。露光された印画紙は、現像処理装置(図示略)で現像処理され、写真が出来上がる。フィルムを透過した光は、可動ミラーによって適宜撮像部2に導かれる。撮像部2は、可動ミラーから入力された光画像を採取し、フィルム画像情報として画像情報取得部4に出力する。   The light emitted from the light source unit 1 is transmitted through the color adjustment filters (Y, M, C), and the color tone is adjusted. The light is diffusely reflected in the light diffusing member, homogenized, and irradiated onto the film. The light transmitted through the film passes through the lens, forms an image on the film on the photographic paper, and is exposed under the control of the exposure control unit 3. The exposed photographic paper is developed by a development processing device (not shown) to produce a photograph. The light transmitted through the film is appropriately guided to the imaging unit 2 by a movable mirror. The imaging unit 2 collects the optical image input from the movable mirror and outputs it to the image information acquisition unit 4 as film image information.

露光制御部3は、画像判定部5で算出された階調補正パラメータ(階調変換の程度を示すパラメータ)、指示入力部9により入力された追加補正値を画像処理部8から受け、これら階調補正パラメータ及び追加補正値に基づいてフィルムの露光時間、光源のカラーバランスを決定し、その決定された露光時間及びカラーバランスに従って、色調整フィルタ及びシャッタを制御する。   The exposure control unit 3 receives the gradation correction parameter (parameter indicating the degree of gradation conversion) calculated by the image determination unit 5 and the additional correction value input by the instruction input unit 9 from the image processing unit 8, The exposure time of the film and the color balance of the light source are determined based on the tone correction parameter and the additional correction value, and the color adjustment filter and the shutter are controlled according to the determined exposure time and color balance.

画像情報取得部4は、撮像部2から入力された画像情報を取得し、画像判定部5に出力する。   The image information acquisition unit 4 acquires the image information input from the imaging unit 2 and outputs it to the image determination unit 5.

画像判定部5は、画像情報取得部4から取得された画像情報から各種の特性値(画素信号値の平均、分散等の統計値、レンズ焦点距離、合焦位置等の付加情報、配光条件等)を算出し、算出された特性値を入力信号とし、画像情報を階調変換するための階調補正パラメータを出力信号とする第1の階層型ニューラルネットワークをニューロ学習部7から取得し、当該第1の階層型ニューラルネットワークを用いて階調補正パラメータを算出する。画像判定部5において実行される処理については、後に図5を参照して詳細に説明する。   The image determination unit 5 determines various characteristic values from the image information acquired from the image information acquisition unit 4 (additional information such as average pixel signal values, statistical values such as dispersion, lens focal length, focus position, etc., light distribution conditions) Etc.), a first hierarchical neural network having the calculated characteristic value as an input signal and a tone correction parameter for tone conversion of image information as an output signal is acquired from the neuro-learning unit 7, A gradation correction parameter is calculated using the first hierarchical neural network. The processing executed in the image determination unit 5 will be described in detail later with reference to FIG.

追加補正データ記憶部6は、指示入力部9により入力された追加補正値(補正量)を含む、ニューラルネットワークの学習に必要な教師データ(後述)を記憶する。   The additional correction data storage unit 6 stores teacher data (described later) necessary for learning of the neural network, including the additional correction value (correction amount) input by the instruction input unit 9.

ニューロ学習部7は、追加補正データ記憶部6に記憶された追加補正値(補正量)を教師データとして第1の階層型ニューラルネットワークの学習を実施する。また、ニューロ学習部7は、第1の階層型ニューラルネットワークとは異なる構成の第3の階層型ニューラルネットワーク(後述)の学習を実施する。更に、ニューロ学習部7は、第1の階層型ニューラルネットワークを、新たな構成の第3の階層型ニューラルネットワークに置換するニューロ置換処理を実行する(図18及び図19参照)。本実施形態で適用される階層型ニューラルネットワークについては、後に図3及び図4を参照して説明する。   The neuro learning unit 7 learns the first hierarchical neural network using the additional correction value (correction amount) stored in the additional correction data storage unit 6 as teacher data. In addition, the neuro-learning unit 7 performs learning of a third hierarchical neural network (described later) having a configuration different from that of the first hierarchical neural network. Further, the neuro-learning unit 7 executes a neuro replacement process for replacing the first hierarchical neural network with the newly configured third hierarchical neural network (see FIGS. 18 and 19). The hierarchical neural network applied in this embodiment will be described later with reference to FIGS.

画像処理部8は、画像判定部5で算出された階調補正パラメータ及び/又は指示入力部9により入力された追加補正値に基づいて、補正対象の画像情報を階調変換することによって補正画像を作成し、作成された補正画像を表示部10に出力する。また、補正画像のプリント出力指示があった場合、画像処理部8は、補正画像情報(階調補正パラメータ、追加補正値の情報等)を露光制御部3に出力する。補正画像の作成処理については、後に図21〜図25を参照して詳細に説明する。   The image processing unit 8 performs gradation conversion on the image information to be corrected based on the gradation correction parameter calculated by the image determination unit 5 and / or the additional correction value input by the instruction input unit 9, thereby correcting the corrected image. And the generated corrected image is output to the display unit 10. When there is an instruction to output a corrected image, the image processing unit 8 outputs corrected image information (tone correction parameter, additional correction value information, etc.) to the exposure control unit 3. The correction image creation process will be described in detail later with reference to FIGS.

指示入力部9は、キーボードやマウス等の入力デバイスを備え、入力デバイスの操作による操作信号を画像処理部8に出力する。なお、指示入力部9は、表示部10の表示画面を覆うように重畳して設けられたタッチパネルを備えていてもよい。タッチパネルは、電磁誘導式、磁気歪式、感圧式等の読み取り原理によって、タッチ指示された座標を検出し、検出した座標を位置信号として画像処理部8に出力する。   The instruction input unit 9 includes an input device such as a keyboard and a mouse, and outputs an operation signal generated by operating the input device to the image processing unit 8. The instruction input unit 9 may include a touch panel that is provided so as to cover the display screen of the display unit 10. The touch panel detects coordinates instructed by a touch based on a reading principle such as an electromagnetic induction type, a magnetostriction type, and a pressure sensitive type, and outputs the detected coordinates to the image processing unit 8 as a position signal.

表示部10は、LCD(Liquid Crystal Display)等の表示画面を有し、画像処理部8から入力される表示制御信号に従って、所要の表示を行う。   The display unit 10 has a display screen such as an LCD (Liquid Crystal Display), and performs a required display according to a display control signal input from the image processing unit 8.

なお、本発明が適用される画像処理装置は、図1に示したような、光学焼付けする写真プリントシステムである画像処理装置100に限定されるものではない。図2に、本発明が適用される画像処理装置の他の例として、画像処理装置200の構成を示す。以下では、画像処理装置200において、図1の画像処理装置100と同一の構成要素には同一の符号を付し、機能が同一である構成要素については、その機能説明を省略する。   The image processing apparatus to which the present invention is applied is not limited to the image processing apparatus 100 that is a photo print system for optical printing as shown in FIG. FIG. 2 shows a configuration of an image processing apparatus 200 as another example of the image processing apparatus to which the present invention is applied. Hereinafter, in the image processing apparatus 200, the same components as those of the image processing apparatus 100 of FIG. 1 are denoted by the same reference numerals, and the description of the functions of the components having the same functions is omitted.

画像処理装置200は、図2に示すように、画像情報取得部4、画像判定部5、追加補正データ記憶部6、ニューロ学習部7、画像処理部8、指示入力部9、表示部10、縮小画像作成部11、DSC(デジタルスチルカメラ)12、原稿スキャナ13、記録メディアドライバ14、通信制御部15、画像情報出力部16、プリンタ部17、記録メディア書き込み部18により構成される。   As shown in FIG. 2, the image processing apparatus 200 includes an image information acquisition unit 4, an image determination unit 5, an additional correction data storage unit 6, a neuro learning unit 7, an image processing unit 8, an instruction input unit 9, a display unit 10, A reduced image creation unit 11, a DSC (digital still camera) 12, a document scanner 13, a recording media driver 14, a communication control unit 15, an image information output unit 16, a printer unit 17, and a recording media writing unit 18 are configured.

画像情報取得部4は、DSC12、原稿スキャナ13、記録メディアドライバ14、通信制御部15を介して入力されたデジタル画像情報を取得し、縮小画像作成部11又は画像処理部8に出力する。   The image information acquisition unit 4 acquires digital image information input via the DSC 12, the document scanner 13, the recording media driver 14, and the communication control unit 15, and outputs the digital image information to the reduced image creation unit 11 or the image processing unit 8.

画像処理部8は、画像判定部5で算出された階調補正パラメータ及び/又は指示入力部9により入力された追加補正値に基づいて、補正対象の画像情報を階調変換することによって補正画像を作成し、作成された補正画像を表示部10に出力する。また、補正画像のプリント出力指示があった場合、画像処理部8は、指定された出力先に対応する補正画像を作成し、画像情報出力部16に出力する。   The image processing unit 8 performs gradation conversion on the image information to be corrected based on the gradation correction parameter calculated by the image determination unit 5 and / or the additional correction value input by the instruction input unit 9, thereby correcting the corrected image. And the generated corrected image is output to the display unit 10. If there is an instruction to output a corrected image, the image processing unit 8 creates a corrected image corresponding to the designated output destination and outputs the corrected image to the image information output unit 16.

縮小画像作成部11は、必要に応じて(例えば、オペレータから指示があった場合に)画像情報取得部4から取得された画像情報から縮小画像(サムネイル画像)を作成し、画像判定部5に出力する。   The reduced image creating unit 11 creates a reduced image (thumbnail image) from the image information acquired from the image information acquiring unit 4 as necessary (for example, when an instruction is given from the operator), and sends it to the image determining unit 5. Output.

DSC12は、フォーカシングレンズ、ズームレンズ、シャッタ、絞り等を含む撮影用の光学レンズユニット、CCD(Charge Coupled Device)等の撮像素子を含む光電変換ユニット等により構成されており、被写体の撮影によって得られた撮影画像を光電変換してデジタル画像信号を取得し、取得されたデジタル画像信号を、画像情報取得部4に出力する。   The DSC 12 includes an optical lens unit for photographing including a focusing lens, a zoom lens, a shutter, a diaphragm, a photoelectric conversion unit including an imaging element such as a CCD (Charge Coupled Device), and the like, and is obtained by photographing a subject. The captured image is photoelectrically converted to acquire a digital image signal, and the acquired digital image signal is output to the image information acquisition unit 4.

原稿スキャナ13は、光源、CCD(Charge-Coupled Device)、A/Dコンバータ等により構成され、原稿台に載置された写真プリント等の原稿に光源の光を照射し、その反射光をCCDにより電気信号(アナログ信号)に変換し、A/Dコンバータにより、このアナログ信号をデジタル信号に変換することによってデジタル画像信号を取得し、取得されたデジタル画像信号を画像情報取得部4に出力する。   The document scanner 13 includes a light source, a CCD (Charge-Coupled Device), an A / D converter, and the like. The document scanner 13 irradiates a document such as a photographic print placed on a document table with light from the light source, and reflects the reflected light by the CCD. The digital image signal is converted into an electrical signal (analog signal), and the analog signal is converted into a digital signal by an A / D converter to acquire a digital image signal, and the acquired digital image signal is output to the image information acquisition unit 4.

記録メディアドライバ14は、CD−R、メモリスティック(登録商標)、スマートメディア(登録商標)、コンパクトフラッシュ(登録商標)、マルチメディアカード(登録商標)、SDメモリカード(登録商標)等の各種記録メディアが装着可能な構成となっており、これらの記録メディアに記録された画像信号を読み取り、読み取り結果を画像情報取得部4に出力する。   The recording media driver 14 is a CD-R, a memory stick (registered trademark), a smart media (registered trademark), a compact flash (registered trademark), a multimedia card (registered trademark), an SD memory card (registered trademark), and the like. It is configured to be able to mount media, reads image signals recorded on these recording media, and outputs the read results to the image information acquisition unit 4.

通信制御部15は、LAN(Local Area Network)、インターネット等の通信ネットワークNに接続された外部装置と画像処理装置200との間の通信を制御する。具体的には、通信制御部15は、外部装置から受信された画像情報を画像情報取得部4に出力するための制御を行ったり、画像情報出力部16から取得された画像情報を指定されたアドレスに送信するための制御を行う。   The communication control unit 15 controls communication between an image processing apparatus 200 and an external device connected to a communication network N such as a LAN (Local Area Network) or the Internet. Specifically, the communication control unit 15 performs control for outputting the image information received from the external device to the image information acquisition unit 4, or the image information acquired from the image information output unit 16 is designated. Control to send to address.

画像情報出力部16は、画像処理部8で処理された画像情報を、指定された出力先(通信制御部15、プリンタ部17、記憶メディア書き込み部18の何れか)に出力する。   The image information output unit 16 outputs the image information processed by the image processing unit 8 to a designated output destination (any one of the communication control unit 15, the printer unit 17, and the storage medium writing unit 18).

プリンタ部17は、画像情報出力部16から入力された画像情報に基づいて感光材料に露光し、露光された感光材料を現像処理して乾燥し、写真プリントを作成する。
記憶メディア書き込み部18は、各種の記録メディアが装着可能な構成となっており、画像処理部8で処理された画像情報を、装着された記録メディアに記録する。
The printer unit 17 exposes the photosensitive material based on the image information input from the image information output unit 16, develops the exposed photosensitive material, and dries it to create a photographic print.
The storage medium writing unit 18 is configured to be able to mount various recording media, and records the image information processed by the image processing unit 8 on the mounted recording medium.

〈ニューラルネットワーク〉
次に、本実施形態の画像処理において使用されるニューラルネットワークについて簡単に説明する。このニューラルネットワークは、図3に示すように、入力層、中間層、及び出力層を有する階層型のニューラルネットワーク(以下、単にニューラルネットワークという。)である。ニューラルネットワークは、デジタルニューラルネットワークチップを利用することが望ましいが、汎用のDSP(Digital Signal Processor)と専用のエミュレートプログラムを用いても実現することができるし、通常のCPUとエミュレートプログラムを用いても構わない。
<neural network>
Next, the neural network used in the image processing of this embodiment will be briefly described. As shown in FIG. 3, this neural network is a hierarchical neural network (hereinafter simply referred to as a neural network) having an input layer, an intermediate layer, and an output layer. The neural network preferably uses a digital neural network chip, but can also be realized by using a general-purpose DSP (Digital Signal Processor) and a dedicated emulation program, or using a normal CPU and an emulation program. It doesn't matter.

ニューラルネットワークの各層は、ニューロンと呼ばれる構成単位からなっている。入力層を除けば、任意のニューロンは図4に示すようにシナプスと呼ばれる入力を多数受け取り、各々の入力値xiに対して結合強度と呼ばれる所定の重みwiを掛けてその総和を求め、それを所定の出力関数fで評価した結果を出力yとして与える機能素子として機能する。出力関数fは、式(1)のように表される。

Figure 2006031440
ここで、f(x)は一般に式(2)に示すような非線形のシグモイド関数が用いられるが、必ずしもこれに限定されるわけではない。
Figure 2006031440
Each layer of the neural network is composed of structural units called neurons. Except for the input layer, an arbitrary neuron receives a large number of inputs called synapses as shown in FIG. 4 and multiplies each input value x i by a predetermined weight w i called bond strength to obtain the sum, It functions as a functional element that gives the output y as a result of evaluating it with a predetermined output function f. The output function f is expressed as Equation (1).
Figure 2006031440
Here, f (x) is generally a non-linear sigmoid function as shown in Equation (2), but is not necessarily limited thereto.
Figure 2006031440

ここで、各ニューロンの入力の重みwiはニューラルネットワークの入力・出力の関係、言い替えればニューラルネットワークの動作を決定する重要な情報であり、ニューラルネットワークに対して学習作業を行うことによって決定する。なお、図3では中間層は1層のみ記してあるが、これは1以上の任意の階層の構成とすることができる。階層型ネットワークでは、中間層は1層あれば、合成可能な任意の関数を実現できることが知られているが、中間層を多くした方が学習効率や、ニューロンの個数の点から有利であることが知られている。 Here, the input weight w i of each neuron is important information for determining the relationship between the input and output of the neural network, in other words, the operation of the neural network, and is determined by performing a learning operation on the neural network. In FIG. 3, only one intermediate layer is shown, but this can be configured in one or more arbitrary layers. Hierarchical networks are known to be able to achieve any function that can be synthesized if there is only one intermediate layer, but increasing the number of intermediate layers is advantageous in terms of learning efficiency and the number of neurons. It has been known.

ニューラルネットワークは以下のような特徴を有している。
(1)比較的単純な構成でありながら、多入力・多出力の非線形システムを実現できる。(2)各層内の各ニューロンは独立して動作させることができ、並列処理によって高速な動作が期待できる。
(3)適切な教師データを与えて学習させることにより、任意の入出力関係を実現させることができる。
(4)系として汎化能力がある。すなわち、必ずしも教師データとして与えていない、未学習の入力パターンに対しても、おおむね正しい出力を与える能力がある。
The neural network has the following characteristics.
(1) A multi-input / multi-output nonlinear system can be realized with a relatively simple configuration. (2) Each neuron in each layer can be operated independently, and high-speed operation can be expected by parallel processing.
(3) Arbitrary input / output relations can be realized by providing appropriate teacher data for learning.
(4) The system has generalization ability. That is, there is an ability to give a generally correct output even to an unlearned input pattern that is not necessarily given as teacher data.

ここで、教師データとは、入力パターンと、その入力パターンに対する望ましい出力パターンの対であり、通常複数個用意する。特定の入力パターンに対して望ましい出力パターンを決定する作業は、一般に熟練者の主観的な判断に頼って決定する。ニューラルネットワークの主な応用としては(a)非線形の関数近似、(b)クラスタリング(識別、認識、分類)が挙げられる。   Here, the teacher data is a pair of an input pattern and a desired output pattern for the input pattern, and a plurality of teacher data are usually prepared. The operation of determining a desired output pattern for a specific input pattern is generally determined by relying on the subjective judgment of an expert. Major applications of neural networks include (a) nonlinear function approximation and (b) clustering (identification, recognition, classification).

次に、ニューラルネットワークに対する教師データを用いた学習方法について説明する。p番目の入力パターンに対する、第L層のi番目のニューロンの状態を式(3)及び式(4)のように表現する。

Figure 2006031440
Figure 2006031440
ここで、式(3)の関数f(x)は、式(2)に示した非線形のシグモイド関数、YiLはニューロンの出力、UiLはニューロンの内部状態、Yi<L−1>はL−1層のニューロンの出力=L層のニューロンの入力、wij<L>は結合強度である。 Next, a learning method using teacher data for the neural network will be described. The state of the i-th neuron in the L-th layer with respect to the p-th input pattern is expressed as Equation (3) and Equation (4).
Figure 2006031440
Figure 2006031440
Here, the function f (x) in Expression (3) is the nonlinear sigmoid function shown in Expression (2), Y iL is the output of the neuron, U iL is the internal state of the neuron, and Y i <L−1> is L-1 layer neuron output = L layer neuron input, w ij <L> is the connection strength.

このように定義した場合に、広く用いられている誤差逆伝搬学習法(バックプロパゲーション学習法、以下BP法と略す。)では、誤差評価関数として平均自乗誤差を用いて、以下のようにエラーEを定義する。

Figure 2006031440
ただしkは出力層の番号であり、Ti(p)はp番目の入力パターンに対する望ましい出力パターンである。 In such a definition, the widely used error back propagation learning method (back propagation learning method, hereinafter referred to as BP method) uses the mean square error as an error evaluation function, and the error Define E.
Figure 2006031440
Where k is the output layer number and T i (p) is the desired output pattern for the pth input pattern.

この場合、BP法に基づく各結合強度の修正量Δwは次式で定められる。

Figure 2006031440
ここで、∂は偏微分記号(ラウンド)、ηは学習率を表す係数である。Δwij<L>を各々のwij<L>に加算することによって学習が進む。なお、この形式のBP法では学習が進んだ結果、教師データとの誤差の絶対値が小さくなってくると、Δwの絶対値も小さくなり、学習が進まなくなるという現象が指摘されており、その問題点を回避するために、種々の改良が提案されている。 In this case, the correction amount Δw of each bond strength based on the BP method is determined by the following equation.
Figure 2006031440
Here, ∂ is a partial differential symbol (round), and η is a coefficient representing a learning rate. Learning proceeds by adding Δw ij <L> to each w ij <L>. In addition, as a result of learning progressed in the BP method of this form, if the absolute value of the error from the teacher data becomes small, the absolute value of Δw also becomes small, and the phenomenon that learning does not progress has been pointed out. Various improvements have been proposed in order to avoid problems.

例えば、Δwの定義を次のように変更するという提案がある。

Figure 2006031440
式(7)の第二項は慣性項(モーメンタム項)と呼ばれ、現在の修正量だけでなく、過去の修正量も考慮することで収束時の振動を抑え、学習を高速化する効果がある。安定化定数αは1.0以下の正の実数で、過去の修正量の考慮の度合いを規定する係数である。 For example, there is a proposal to change the definition of Δw as follows.
Figure 2006031440
The second term in equation (7) is called the inertial term (momentum term), and it has the effect of suppressing the vibration at the time of convergence by considering not only the current correction amount but also the past correction amount, and speeding up learning. is there. The stabilization constant α is a positive real number of 1.0 or less, and is a coefficient that defines the degree of consideration of past correction amounts.

あるいは、学習率ηを学習回数nに応じて、次式を満たすように動的に変化させるという提案もある。

Figure 2006031440
Alternatively, there is also a proposal of dynamically changing the learning rate η so as to satisfy the following expression according to the number of learnings n.
Figure 2006031440

更には、エラーの評価を平均自乗誤差ではなく、シグモイド関数の導関数を打ち消すような形式にするという提案もある。いずれにせよ、BP法を用いて十分な回数学習作業を施すことにより、教師データに対して近似した出力を得ることができるようになる。   Furthermore, there is also a proposal that the error evaluation is in a form that cancels out the derivative of the sigmoid function instead of the mean square error. In any case, an output approximate to the teacher data can be obtained by performing the learning operation a sufficient number of times using the BP method.

次に、本実施形態における動作について説明する。
まず、図5のフローチャートを参照して、画像処理装置100又は200において実行される画像処理全体の流れを説明する。
Next, the operation in this embodiment will be described.
First, the overall flow of image processing executed in the image processing apparatus 100 or 200 will be described with reference to the flowchart of FIG.

まず、画像情報取得部4に入力された画像情報(以下、入力画像情報という。)が取得される(ステップS1)。次いで、画像判定部5において、ステップS1で取得された画像情報から、各種の特性値が算出されるとともに(ステップS2)、人物の顔候補領域(肌色色相領域)が抽出される(ステップS4)。ステップS2では、例えば、画素信号値の平均、分散等の統計値が算出されるとともに、レンズ焦点距離、合焦位置、撮影時の光源情報等の付加情報が取得される。   First, image information input to the image information acquisition unit 4 (hereinafter referred to as input image information) is acquired (step S1). Next, the image determination unit 5 calculates various characteristic values from the image information acquired in step S1 (step S2), and extracts a human face candidate region (skin color hue region) (step S4). . In step S2, for example, statistical values such as average and variance of pixel signal values are calculated, and additional information such as lens focal length, in-focus position, and light source information at the time of photographing is acquired.

入力画像情報の特性値が算出されると、入力画像情報から、画像撮影時の配光条件(光源状態)を判別する配光条件判別処理が行われる(ステップS3)。撮影時の配光条件には、順光、逆光、ストロボ(フラッシュ光利用状態)が含まれる。ステップS3の配光条件判別処理については、後に図7を参照して詳細に説明する。   When the characteristic value of the input image information is calculated, a light distribution condition determination process for determining a light distribution condition (light source state) at the time of image capturing is performed from the input image information (step S3). The light distribution conditions at the time of photographing include forward light, backlight, and strobe (flash light use state). The light distribution condition determination process in step S3 will be described in detail later with reference to FIG.

人物の顔候補領域が抽出されると、その顔候補領域を示す信号を入力信号として、人物の顔検出処理を学習した第2の階層型ニューラルネットワーク(以下、階層型ニューラルネットワークを「ニューロ」と略称する。)を用いることにより、当該抽出された顔候補領域から顔領域を検出するための処理が行われる(ステップS5)。顔検出のために、例えば、肌色色相領域の形態を表す[領域面積/周囲長]や、[最短径/最長径]、画素信号値の分散等の各種特性値が、ステップS4で抽出された各々の顔候補領域について算出される。また、ステップS5では、第2のニューロの反応強度も算出され、反応強度が所定値より大きい場合に「顔」であると判断される。   When a human face candidate area is extracted, a signal indicating the face candidate area is used as an input signal, and a second hierarchical neural network that has learned human face detection processing (hereinafter referred to as “neural”). By using (abbreviated), a process for detecting a face area from the extracted face candidate area is performed (step S5). For the face detection, for example, various characteristic values such as [area area / peripheral length] representing the form of the skin color hue area, [shortest diameter / longest diameter], and dispersion of pixel signal values are extracted in step S4. It is calculated for each face candidate region. In step S5, the reaction intensity of the second neuron is also calculated. If the reaction intensity is greater than a predetermined value, it is determined that the face is a “face”.

次いで、ステップS5で検出された顔領域の特性値が取得されるとともに(ステップS6)、その検出された顔領域に対する第2のニューロの反応強度が取得される(ステップS7)。   Next, the characteristic value of the face area detected in step S5 is acquired (step S6), and the second neuronal reaction intensity with respect to the detected face area is acquired (step S7).

次いで、図6に示すように、ステップS2で算出された特性値、ステップS3の判別結果、ステップS6で取得された特性値、ステップS7で取得された反応強度を入力信号(入力パラメータ)とし、階調補正パラメータを出力信号とした第1のニューロを用いて階調補正パラメータが算出される(ステップS8)。   Next, as shown in FIG. 6, the characteristic value calculated in step S2, the determination result in step S3, the characteristic value acquired in step S6, and the reaction intensity acquired in step S7 are input signals (input parameters). The gradation correction parameter is calculated using the first neuron having the gradation correction parameter as an output signal (step S8).

図6では、第1のニューロの出力信号である階調補正パラメータが、明るさ補正パラメータ及びコントラスト補正パラメータである場合を示している。図1に示す画像処理装置100の場合、第1のニューロにより算出された明るさ補正パラメータにより、シャッタの開閉時間が制御される。また、図2に示す画像処理装置200の場合は、第1のニューロにより算出された明るさ補正パラメータ及び/又はコントラスト補正パラメータに基づいて、後に図20で説明するような信号値変換特性の制御がなされ、画像情報の階調補正が施される。   FIG. 6 shows a case where the gradation correction parameters that are the output signals of the first neuron are the brightness correction parameter and the contrast correction parameter. In the case of the image processing apparatus 100 shown in FIG. 1, the opening / closing time of the shutter is controlled by the brightness correction parameter calculated by the first neuro. In the case of the image processing apparatus 200 shown in FIG. 2, control of signal value conversion characteristics as will be described later with reference to FIG. 20 based on the brightness correction parameter and / or contrast correction parameter calculated by the first neuron. And gradation correction of the image information is performed.

なお、第1のニューロで算出された階調補正パラメータは、明るさ補正パラメータ、コントラスト補正パラメータの何れか一方又は他の階調補正パラメータであってもよく、出力される階調補正パラメータの数に従って、出力層のニューロンの個数が調整される。   Note that the gradation correction parameter calculated in the first neuro may be either the brightness correction parameter, the contrast correction parameter, or another gradation correction parameter, and the number of gradation correction parameters to be output. Accordingly, the number of neurons in the output layer is adjusted.

次いで、ステップS8で算出された階調補正パラメータに基づいて、入力画像情報に対する追加補正値が設定され(ステップS9)、その設定された補正値に基づいて入力画像情報に階調変換処理を施すことにより、補正画像が作成される(ステップS10)。なお、追加補正値の初期設定は0である。ステップS10の補正画像の作成処理(階調変換処理)については、後に図20〜図25を参照して詳細に説明する。   Next, an additional correction value for the input image information is set based on the tone correction parameter calculated in step S8 (step S9), and tone conversion processing is performed on the input image information based on the set correction value. As a result, a corrected image is created (step S10). The initial setting of the additional correction value is 0. The correction image creation process (gradation conversion process) in step S10 will be described in detail later with reference to FIGS.

次いで、ステップS10で作成された補正画像が表示部10に表示される(ステップS11)。オペレータは、表示部10に表示された補正画像を観察し、補正結果が良好であるか否かを判断し、その判断結果を指示入力部9により入力する。   Next, the corrected image created in step S10 is displayed on the display unit 10 (step S11). The operator observes the correction image displayed on the display unit 10, determines whether or not the correction result is good, and inputs the determination result through the instruction input unit 9.

補正画像の補正結果が良好ではない場合(ステップS12;NO)、オペレータによる指示入力部9の操作により、追加補正値が入力され(ステップS13)、ステップS9に戻り、その入力された追加補正値が設定され(ステップS9)、ステップS10〜S12の処理が繰り返される。   When the correction result of the corrected image is not good (step S12; NO), an additional correction value is input by the operation of the instruction input unit 9 by the operator (step S13), and the process returns to step S9 and the input additional correction value is input. Is set (step S9), and the processes of steps S10 to S12 are repeated.

補正画像の補正結果が良好であるという判断結果が入力された場合(ステップS12;YES)、追加補正量が0であるか否かが判定される(ステップS14)。ステップS14において、追加補正量が0でないと判定された場合(ステップS14;NO)、階調補正パラメータと追加補正量の加算値(仮に「補正量」と呼ぶ。)を教師データとして追加補正データ記憶部6に蓄積される(ステップS15)。なお、上述のように、教師データは、ニューロ出力の望ましい値(即ち、ステップS15における補正量)と、対応する入力信号群(即ち、ステップS2、S3、S6及びS7で算出される各種信号値)の対であり、ステップS15においては、これら入力信号群も追加補正データ記憶部6に記憶される。   When the determination result that the correction result of the correction image is good is input (step S12; YES), it is determined whether or not the additional correction amount is 0 (step S14). If it is determined in step S14 that the additional correction amount is not 0 (step S14; NO), the additional correction data is added with the gradation correction parameter and the additional correction amount (referred to as “correction amount”) as teacher data. Accumulated in the storage unit 6 (step S15). As described above, the teacher data includes the desired value of the neuro output (that is, the correction amount in step S15) and the corresponding input signal group (that is, various signal values calculated in steps S2, S3, S6, and S7). In step S15, these input signal groups are also stored in the additional correction data storage unit 6.

追加補正データ記憶部6に蓄積された教師データの数が所定数を超えた場合、これらの教師データを基に第1のニューロの学習が実施され(ステップS16)、学習された第1のニューロを用いてステップS8の処理が行われる。ステップS16における学習は、定期的に行うようにしてもよい。   When the number of teacher data accumulated in the additional correction data storage unit 6 exceeds a predetermined number, learning of the first neuro is performed based on these teacher data (step S16), and the learned first neuro The process of step S8 is performed using. The learning in step S16 may be performed periodically.

ステップS14において、追加補正量が0であると判定された場合(ステップS14;YES)、本画像処理が終了する。   In step S14, when it is determined that the additional correction amount is 0 (step S14; YES), the main image processing ends.

次に、図7のフローチャートを参照して、図5のステップS3に示した配光条件判別処理について説明する。   Next, the light distribution condition determination process shown in step S3 of FIG. 5 will be described with reference to the flowchart of FIG.

まず、撮影画像データが所定の画像領域に分割され、各分割領域が撮影画像データ全体に占める割合を示す占有率を算出する占有率算出処理が行われる(ステップS20)。占有率算出処理については、後に図8及び図14を参照して詳細に説明する。   First, the captured image data is divided into predetermined image areas, and an occupancy ratio calculation process is performed to calculate an occupancy ratio indicating the ratio of each divided area to the entire captured image data (step S20). The occupation rate calculation process will be described in detail later with reference to FIGS.

次いで、ステップS20において算出された占有率と、撮影条件に応じて予め設定された係数に基づいて、配光条件を特定する(光源状態を定量的に表す)指標(指標1〜5)が算出される(ステップS21)。ステップS21における指標算出処理は、後に詳細に説明する。   Next, based on the occupation ratio calculated in step S20 and a coefficient set in advance according to the imaging condition, an index (indicator 1 to 5) that specifies the light distribution condition (quantitatively represents the light source state) is calculated. (Step S21). The index calculation process in step S21 will be described in detail later.

次いで、ステップS21において算出された指標に基づいて撮影画像データの配光条件が判別され(ステップS22)、本配光条件判別処理が終了する。配光条件の判別方法は、後に詳細に説明する。   Next, the light distribution condition of the captured image data is determined based on the index calculated in step S21 (step S22), and the main light distribution condition determination process ends. A method for determining the light distribution condition will be described in detail later.

次に、図8のフローチャートを参照して、図7のステップS20に示した占有率算出処理について詳細に説明する。   Next, the occupation rate calculation process shown in step S20 of FIG. 7 will be described in detail with reference to the flowchart of FIG.

まず、撮影画像データのRGB値がHSV表色系に変換される(ステップS30)。図9は、RGBからHSV表色系に変換することにより色相値、彩度値、明度値を得る変換プログラム(HSV変換プログラム)の一例を、プログラムコード(c言語)により示したものである。図9に示すHSV変換プログラムでは、入力画像データであるデジタル画像データの値を、InR、InG、InBと定義し、算出された色相値をOutHとし、スケールを0〜360と定義し、彩度値をOutS、明度値をOutVとし、単位を0〜255と定義している。   First, the RGB values of the photographed image data are converted into the HSV color system (step S30). FIG. 9 shows an example of a conversion program (HSV conversion program) that obtains a hue value, a saturation value, and a lightness value by converting from RGB to the HSV color system using program code (c language). In the HSV conversion program shown in FIG. 9, the values of the digital image data as the input image data are defined as InR, InG, and InB, the calculated hue value is defined as OutH, the scale is defined as 0 to 360, and the saturation The value is OutS, the brightness value is OutV, and the unit is defined as 0 to 255.

次いで、撮影画像データが、所定の明度と色相の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS31)。以下、撮影画像データの領域分割について詳細に説明する。   Next, the photographed image data is divided into regions composed of combinations of predetermined brightness and hue, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S31). Hereinafter, the area division of the captured image data will be described in detail.

明度(V)は、明度値が0〜25(v1)、26-50(v2)、51〜84(v3)、85〜169(v4)、170〜199(v5)、200〜224(v6)、225〜255(v7)の7つの領域に分割される。色相(H)は、色相値が0〜39、330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。なお、赤色色相領域(H5)は、配光条件の判別への寄与が少ないとの知見から、以下の計算では用いていない。肌色色相領域は、更に、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39、330〜359)のうち、下記の式(9)を満たす色相'(H)を肌色領域(H1)とし、式(9)を満たさない領域を(H2)とする。
10 < 彩度(S) <175、
色相'(H) = 色相(H) + 60 (0 ≦ 色相(H) < 300のとき)、
色相'(H) = 色相(H) - 300 (300 ≦ 色相(H) < 360のとき)、
輝度Y = InR × 0.30 + InG × 0.59 + InB × 0.11
として、
色相'(H)/輝度(Y) < 3.0 ×(彩度(S)/255)+0.7 (9)
従って、撮影画像データの分割領域の数は4×7=28個となる。なお、式(9)において明度(V)を用いることも可能である。
The lightness value (V) is 0-25 (v1), 26-50 (v2), 51-84 (v3), 85-169 (v4), 170-199 (v5), 200-224 (v6) , 225 to 255 (v7). Hue (H) is a skin hue hue area (H1 and H2) with a hue value of 0 to 39, 330 to 359, a green hue area (H3) with a hue value of 40 to 160, and a blue hue area with a hue value of 161 to 250 It is divided into four areas (H4) and a red hue area (H5). Note that the red hue region (H5) is not used in the following calculation because it is known that the contribution to the determination of the light distribution condition is small. The flesh-color hue area is further divided into a flesh-color area (H1) and other areas (H2). Hereinafter, among the flesh color hue regions (H = 0 to 39, 330 to 359), a hue color '(H) that satisfies the following equation (9) is defined as a flesh color region (H1), and a region that does not satisfy the equation (9) is ( H2).
10 <Saturation (S) <175,
Hue '(H) = Hue (H) + 60 (when 0 ≤ Hue (H) <300),
Hue '(H) = Hue (H)-300 (when 300 ≤ Hue (H) <360),
Luminance Y = InR × 0.30 + InG × 0.59 + InB × 0.11
As
Hue '(H) / Luminance (Y) <3.0 × (Saturation (S) / 255) +0.7 (9)
Therefore, the number of divided areas of the captured image data is 4 × 7 = 28. Note that brightness (V) can also be used in equation (9).

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第1の占有率が算出され(ステップS32)、本占有率算出処理が終了する。明度領域vi、色相領域Hjの組み合わせからなる分割領域において算出された第1の占有率をRijとすると、各分割領域における第1の占有率は表1のように表される。

Figure 2006031440
When the two-dimensional histogram is created, a first occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S32), and the main occupancy ratio calculation is performed. The process ends. Assuming that the first occupancy ratio calculated in the divided area composed of the combination of the lightness area vi and the hue area Hj is Rij, the first occupancy ratio in each divided area is expressed as shown in Table 1.
Figure 2006031440

次に、指標1及び指標2の算出方法について説明する。
表2に、判別分析により得られた、ストロボ撮影としての確度、即ち、ストロボ撮影時の顔領域の明度状態を定量的に示す指標1を算出するために必要な第1の係数を分割領域別に示す。表2に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数である。

Figure 2006031440
Next, a method for calculating the index 1 and the index 2 will be described.
Table 2 shows the first coefficient necessary for calculating the index 1 that quantitatively indicates the accuracy of strobe shooting obtained by discriminant analysis, that is, the lightness state of the face area at the time of strobe shooting. Show. The coefficient of each divided area shown in Table 2 is a weighting coefficient by which the first occupation ratio Rij of each divided area shown in Table 1 is multiplied.
Figure 2006031440

図10に、明度(v)−色相(H)平面を示す。表2によると、図10において高明度の肌色色相領域に分布する領域(r1)から算出される第1の占有率には、正(+)の係数が用いられ、それ以外の色相である青色色相領域(r2)から算出される第1の占有率には、負(-)の係数が用いられる。図12は、肌色領域(H1)における第1の係数と、その他の領域(緑色色相領域(H3))における第1の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表2及び図12によると、高明度(V=170〜224)の領域では、肌色領域(H1)における第1の係数の符号は正(+)であり、その他の領域(例えば、緑色色相領域(H3))における第1の係数の符号は負(-)であり、両者の符号が異なっていることがわかる。   FIG. 10 shows the lightness (v) -hue (H) plane. According to Table 2, a positive (+) coefficient is used for the first occupancy calculated from the region (r1) distributed in the skin color hue region of high brightness in FIG. 10, and blue other than that is blue. A negative (−) coefficient is used for the first occupancy calculated from the hue region (r2). FIG. 12 shows a first coefficient in the skin color area (H1) and a first coefficient in the other area (green hue area (H3)) as a curve (coefficient curve) that continuously changes over the entire brightness. It is shown. According to Table 2 and FIG. 12, in the region of high brightness (V = 170 to 224), the sign of the first coefficient in the skin color region (H1) is positive (+), and other regions (for example, the green hue region) The sign of the first coefficient in (H3)) is negative (-), and it can be seen that the signs of the two are different.

明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1を算出するためのHk領域の和は、式(10)のように定義される。

Figure 2006031440
従って、H1〜H4領域の和は、下記の式(10-1)〜式(10-4)のように表される。
H1領域の和=R11×(-44.0)+R21×(-16.0)+(中略)...+R71×(-11.3) (10-1)
H2領域の和=R12×0.0+R22×8.6+(中略)... +R72×(-11.1) (10-2)
H3領域の和=R13×0.0+R23×(-6.3)+(中略)...+R73×(-10.0) (10-3)
H4領域の和=R14×0.0+R24×(-1.8)+(中略)...+R74×(-14.6) (10-4) When the first coefficient in the lightness region vi and the hue region Hj is Cij, the sum of the Hk regions for calculating the index 1 is defined as in Expression (10).
Figure 2006031440
Therefore, the sum of the H1 to H4 regions is expressed by the following formulas (10-1) to (10-4).
Sum of H1 area = R11 x (-44.0) + R21 x (-16.0) + (omitted) ... + R71 x (-11.3) (10-1)
Sum of H2 area = R12 x 0.0 + R22 x 8.6 + (omitted) ... + R72 x (-11.1) (10-2)
Sum of H3 area = R13 x 0.0 + R23 x (-6.3) + (omitted) ... + R73 x (-10.0) (10-3)
Sum of H4 area = R14 x 0.0 + R24 x (-1.8) + (omitted) ... + R74 x (-14.6) (10-4)

指標1は、式(10-1)〜(10-4)で示されたH1〜H4領域の和を用いて、式(11)のように定義される。
指標1=H1領域の和+H2領域の和+H3領域の和+H4領域の和+4.424 (11)
The index 1 is defined as in Expression (11) using the sum of the H1 to H4 regions shown in Expressions (10-1) to (10-4).
Index 1 = sum of H1 region + sum of H2 region + sum of H3 region + sum of H4 region + 4.424 (11)

表3に、判別分析により得られた、逆光撮影としての確度、即ち、逆光撮影時の顔領域の明度状態を定量的に示す指標2を算出するために必要な第2の係数を分割領域別に示す。表3に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗
算する重み係数である。

Figure 2006031440
Table 3 shows, for each divided region, the second coefficient necessary for calculating the index 2 that quantitatively indicates the accuracy of backlight photographing obtained by discriminant analysis, that is, the brightness state of the face region at the time of backlight photographing. Show. The coefficient of each divided area shown in Table 3 is a weighting coefficient that is multiplied by the first occupation ratio Rij of each divided area shown in Table 1.
Figure 2006031440

図11に、明度(v)−色相(H)平面を示す。表3によると、図11において肌色色相領域の中間明度に分布する領域(r4)から算出される占有率には負(-)の係数が用いられ、肌色色相領域の低明度(シャドー)領域(r3)から算出される占有率には正(+)の係数が用いられる。図13は、肌色領域(H1)における第2の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表3及び図13によると、肌色色相領域の、明度値が85〜169(v4)の中間明度領域の第2の係数の符号は負(-)であり、明度値が26〜84(v2,v3)の低明度(シャドー)領域の第2の係数の符号は正(+)であり、両領域での係数の符号が異なっていることがわかる。   FIG. 11 shows a lightness (v) -hue (H) plane. According to Table 3, a negative (-) coefficient is used for the occupation ratio calculated from the region (r4) distributed in the intermediate lightness of the flesh color hue region in FIG. 11, and the low lightness (shadow) region ( A positive (+) coefficient is used for the occupation ratio calculated from r3). FIG. 13 shows the second coefficient in the skin color region (H1) as a curve (coefficient curve) that continuously changes over the entire brightness. According to Table 3 and FIG. 13, the sign of the second coefficient of the intermediate lightness region of the flesh color hue region having the lightness value of 85 to 169 (v4) is negative (−), and the lightness value is 26 to 84 (v2, It can be seen that the sign of the second coefficient in the low brightness (shadow) region of v3) is positive (+), and the sign of the coefficient in both regions is different.

明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2を算出するためのHk領域の和は、式(12)のように定義される。

Figure 2006031440
従って、H1〜H4領域の和は、下記の式(12-1)〜式(12-4)のように表される。
H1領域の和=R11×(-27.0)+R21×4.5+(中略)...+R71×(-24.0) (12-1)
H2領域の和=R12×0.0+R22×4.7+(中略)... +R72×(-8.5) (12-2)
H3領域の和=R13×0.0+R23×0.0+(中略)...+R73×0.0 (12-3)
H4領域の和=R14×0.0+R24×(-5.1)+(中略)...+R74×7.2 (12-4) When the second coefficient in the lightness region vi and the hue region Hj is Dij, the sum of the Hk regions for calculating the index 2 is defined as in Expression (12).
Figure 2006031440
Therefore, the sum of the H1 to H4 regions is expressed by the following formulas (12-1) to (12-4).
H1 area sum = R11 x (-27.0) + R21 x 4.5 + (omitted) ... + R71 x (-24.0) (12-1)
Sum of H2 area = R12 x 0.0 + R22 x 4.7 + (omitted) ... + R72 x (-8.5) (12-2)
Sum of H3 area = R13 x 0.0 + R23 x 0.0 + (omitted) ... + R73 x 0.0 (12-3)
H4 area sum = R14 x 0.0 + R24 x (-5.1) + (omitted) ... + R74 x 7.2 (12-4)

指標2は、式(12-1)〜(12-4)で示されたH1〜H4領域の和を用いて、式(13)のように定義される。
指標2=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.554 (13)
指標1及び指標2は、撮影画像データの明度と色相の分布量に基づいて算出されるため、撮影画像データがカラー画像である場合の配光条件の判別に有効である。
The index 2 is defined as in Expression (13) using the sum of the H1 to H4 regions shown in Expressions (12-1) to (12-4).
Index 2 = sum of H1 area + sum of H2 area + sum of H3 area + sum of H4 area + 1.554 (13)
Since the index 1 and the index 2 are calculated based on the brightness of the captured image data and the distribution amount of the hue, it is effective for determining the light distribution condition when the captured image data is a color image.

次に、図14のフローチャートを参照して、指標3を算出するための占有率算出処理(図7のステップS20)について詳細に説明する。   Next, the occupation rate calculation process (step S20 in FIG. 7) for calculating the index 3 will be described in detail with reference to the flowchart in FIG.

まず、撮影画像データのRGB値がHSV表色系に変換される(ステップS40)。次いで、撮影画像データが、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS41)。以下、撮影画像データの領域分割について詳細に説明する。   First, the RGB values of the photographed image data are converted into the HSV color system (step S40). Next, the photographed image data is divided into regions each composed of a combination of the distance from the outer edge of the photographed image screen and brightness, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S41). Hereinafter, the area division of the captured image data will be described in detail.

図15(a)〜(d)に、撮影画像データの画面の外縁からの距離に応じて分割された4つの領域n1〜n4を示す。図15(a)に示す領域n1が外枠であり、図15(b)に示す領域n2が、外枠の内側の領域であり、図15(c)に示す領域n3が、領域n2の更に内側の領域であり、図15(d)に示す領域n4が、撮影画像画面の中心部の領域である。また、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。従って、撮影画像データを、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割した場合の分割領域の数は4×7=28個となる。   FIGS. 15A to 15D show four regions n1 to n4 divided according to the distance from the outer edge of the screen of the captured image data. A region n1 shown in FIG. 15A is an outer frame, a region n2 shown in FIG. 15B is a region inside the outer frame, and a region n3 shown in FIG. A region n4 shown in FIG. 15D is an inner region and is a central region of the captured image screen. Further, the lightness is divided into seven regions v1 to v7 as described above. Therefore, when the captured image data is divided into regions composed of combinations of the distance from the outer edge of the captured image screen and the brightness, the number of divided regions is 4 × 7 = 28.

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第2の占有率が算出され(ステップS42)、本占有率算出処理が終了する。明度領域vi、画面領域njの組み合わせからなる分割領域において算出された第2の占有率をQijとすると、各分割領域における第2の占有率は表4のように表される。

Figure 2006031440
When the two-dimensional histogram is created, a second occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S42), and this occupancy ratio calculation is performed. The process ends. If the second occupancy calculated in the divided area composed of the combination of the brightness area vi and the screen area nj is Qij, the second occupancy in each divided area is expressed as shown in Table 4.
Figure 2006031440

次に、指標3の算出方法について説明する。
表5に、指標3を算出するために必要な第3の係数を分割領域別に示す。表5に示された各分割領域の係数は、表4に示した各分割領域の第2の占有率Qijに乗算する重み係数であり、判別分析により得られる。

Figure 2006031440
図16は、画面領域n1〜n4における第3の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。 Next, a method for calculating the index 3 will be described.
Table 5 shows the third coefficient necessary for calculating the index 3 for each divided region. The coefficient of each divided area shown in Table 5 is a weighting coefficient by which the second occupancy Qij of each divided area shown in Table 4 is multiplied, and is obtained by discriminant analysis.
Figure 2006031440
FIG. 16 shows the third coefficient in the screen areas n1 to n4 as a curve (coefficient curve) that continuously changes over the entire brightness.

明度領域vi、画面領域njにおける第3の係数をEijとすると、指標3を算出するためのnk領域(画面領域nk)の和は、式(14)のように定義される。

Figure 2006031440
従って、n1〜n4領域の和は、下記の式(14-1)〜式(14-4)のように表される。
n1領域の和=Q11×40.1+Q21×37.0+(中略)...+Q71×22.0 (14-1)
n2領域の和=Q12×(-14.8)+Q22×(-10.5)+(中略)...+Q72×0.0 (14-2)
n3領域の和=Q13×24.6+Q23×12.1+(中略)...+Q73×10.1 (14-3)
n4領域の和=Q14×1.5+Q24×(-32.9)+(中略)...+Q74×(-52.2) (14-4) If the third coefficient in the brightness area vi and the screen area nj is Eij, the sum of the nk area (screen area nk) for calculating the index 3 is defined as in Expression (14).
Figure 2006031440
Therefore, the sum of the n1 to n4 regions is expressed by the following formulas (14-1) to (14-4).
n1 area sum = Q11 x 40.1 + Q21 x 37.0 + (omitted) ... + Q71 x 22.0 (14-1)
Sum of n2 areas = Q12 x (-14.8) + Q22 x (-10.5) + (omitted) ... + Q72 x 0.0 (14-2)
n3 area sum = Q13 x 24.6 + Q23 x 12.1 + (omitted) ... + Q73 x 10.1 (14-3)
n4 area sum = Q14 x 1.5 + Q24 x (-32.9) + (omitted) ... + Q74 x (-52.2) (14-4)

指標3は、式(14-1)〜(14-4)で示されたN1〜H4領域の和を用いて、式(15)のように定義される。
指標3=n1領域の和+n2領域の和+n3領域の和+n4領域の和−12.6201 (15)
指標3は、撮影画像データの明度の分布位置による構図的な特徴(撮影画像データの画面の外縁からの距離)に基づいて算出されるため、カラー画像だけでなくモノクロ画像の配光条件を判別するのにも有効である。
The index 3 is defined as in Expression (15) using the sum of the N1 to H4 regions shown in Expressions (14-1) to (14-4).
Index 3 = sum of n1 regions + sum of n2 regions + sum of n3 regions + sum of n4 regions−12.6201 (15)
The index 3 is calculated on the basis of compositional characteristics (distance from the outer edge of the screen of the photographed image data) based on the lightness distribution position of the photographed image data. It is also effective to do.

指標4は、指標1及び指標3を用いて式(16)のように定義され、指標5は、指標1〜3を用いて式(17)のように定義される。
指標4=0.565×指標1+0.565×指標3+0.457 (16)
指標5=(-0.121)×指標1+0.91×指標2+0.113×指標3−0.072 (17)
ここで、式(16)及び式(17)において各指標に乗算される重み係数は、撮影条件に応じて予め設定されている。
The index 4 is defined as Expression (16) using the indices 1 and 3, and the index 5 is defined as Expression (17) using the indices 1 to 3.
Index 4 = 0.565 x Index 1 + 0.565 x Index 3 + 0.457 (16)
Indicator 5 = (-0.121) x Indicator 1 + 0.91 x Indicator 2 + 0.113 x Indicator 3-0.072 (17)
Here, the weighting coefficient by which each index is multiplied in Expression (16) and Expression (17) is set in advance according to the shooting conditions.

〈配光条件の判別方法〉
次に、配光条件の判別方法について説明する。
図17は、順光、逆光、ストロボの各配光条件で60枚ずつ撮影し、合計180枚のデジタル画像データについて、指標4、5を算出し、各光源条件での指標4、5の値をプロットしたものである。図17によれば、指標4の値が0.5より大きい場合、ストロボシーンが多く、指標4の値が0.5以下で、指標5の値が−0.5より大きい場合、逆光シーンが多いことがわかる。表6に、指標4、5の値による配光条件の判別内容を示す。

Figure 2006031440
このように指標4、5の値により配光条件を定量的に判別することができる。 <Determination method of light distribution conditions>
Next, a method for determining light distribution conditions will be described.
FIG. 17 shows 60 images taken under each light distribution condition of forward light, backlight, and strobe, and indexes 4 and 5 are calculated for a total of 180 digital image data, and the values of indexes 4 and 5 under each light source condition are calculated. Are plotted. According to FIG. 17, when the value of the index 4 is larger than 0.5, there are many strobe scenes, and when the value of the index 4 is 0.5 or less and the value of the index 5 is larger than −0.5, the backlight scene is I understand that there are many. Table 6 shows the determination contents of the light distribution conditions based on the values of the indexes 4 and 5.
Figure 2006031440
Thus, the light distribution condition can be determined quantitatively based on the values of the indices 4 and 5.

次に、図18及び図19のフローチャートを参照して、第1のニューロ(以下、旧ニューロという。)を、第1のニューロとは異なる新たな構成の第3のニューロ(以下、新ニューロという。)に置き換えるニューロ置換処理について説明する。本実施形態では、二通りのニューロ置換処理について説明する。   Next, referring to the flowcharts of FIGS. 18 and 19, the first neuron (hereinafter referred to as the old neuron) is changed to a third neuron having a new configuration different from the first neuron (hereinafter referred to as the new neuron). The neuro replacement process to be replaced with.) Will be described. In this embodiment, two types of neuro replacement processing will be described.

まず、図18のフローチャートを参照して、ニューロ学習部7において実行されるニューロ置換処理1について説明する。
まず、新ニューロが取得され(ステップS50)、旧ニューロが取得される(ステップS51)。次いで、新ニューロ及び旧ニューロの出力結果の判定に用いる判定用画像情報が取得される(ステップS52)。
First, the neuro replacement process 1 executed in the neuro learning unit 7 will be described with reference to the flowchart of FIG.
First, a new neuro is acquired (step S50), and an old neuro is acquired (step S51). Next, determination image information used to determine the output results of the new neuron and the old neuron is acquired (step S52).

次いで、ステップS52で取得された判定用画像情報について、新ニューロを用いて階調補正パラメータが取得されるとともに、旧ニューロを用いて階調補正パラメータが取得され、新ニューロと旧ニューロから出力された階調補正パラメータの差分情報が取得される(ステップS53)。   Next, for the determination image information acquired in step S52, the tone correction parameter is acquired using the new neuron, the tone correction parameter is acquired using the old neuron, and is output from the new neuron and the old neuron. The difference information of the tone correction parameters obtained is acquired (step S53).

次いで、過去所定シーン数の差分情報の平均値が算出され(ステップS54)、前回算出された平均値と、今回算出された平均値の変化量が比較され(ステップS55)、差分情報の平均値の変化量が収斂したか否かが判定される(ステップS56)。   Next, the average value of the difference information of the predetermined number of past scenes is calculated (step S54), the average value calculated last time is compared with the amount of change of the average value calculated this time (step S55), and the average value of the difference information It is determined whether or not the amount of change has converged (step S56).

ステップS56において、差分情報の平均値の変化量が収斂していないと判定された場合(ステップS56;NO)、旧ニューロの階調補正パラメータを新ニューロの出力信号の望ましい値として用いた教師データを用いて、新ニューロの学習が実施される(ステップS58)。そして、ステップS58の学習実施により微修正された新ニューロがセットされ(ステップS59)、ステップS52に戻り、このセットされた新ニューロについて、ステップS52〜S56の処理が繰り返される。   In step S56, when it is determined that the change amount of the average value of the difference information has not converged (step S56; NO), the teacher data using the old neuron gradation correction parameter as a desirable value of the output signal of the new neuron Is used to learn new neuro (step S58). Then, a new neuro that is finely corrected by the execution of learning in step S58 is set (step S59), and the process returns to step S52, and the processes in steps S52 to S56 are repeated for the set new neuro.

ステップS56において、差分情報の平均値の変化量が収斂したと判定された場合(ステップS56;YES)、旧ニューロが新ニューロに置き換えられ(ステップS57)、本ニューロ置換処理1が終了する。   If it is determined in step S56 that the change amount of the average value of the difference information has converged (step S56; YES), the old neuron is replaced with the new neuron (step S57), and the present neuroreplacement process 1 ends.

次に、図19のフローチャートを参照して、ニューロ学習部7において実行されるニューロ置換処理2について説明する。
まず、新ニューロが取得され(ステップS60)、旧ニューロが取得される(ステップS61)。次いで、新ニューロ及び旧ニューロの出力結果の判定に用いる判定用画像情報が取得される(ステップS62)。
Next, the neuro replacement process 2 executed in the neuro learning unit 7 will be described with reference to the flowchart of FIG.
First, a new neuro is acquired (step S60), and an old neuro is acquired (step S61). Next, determination image information used to determine the output results of the new neuron and the old neuron is acquired (step S62).

次いで、ステップS52で取得された判定用画像情報について、新ニューロを用いて階調補正パラメータが取得されるとともに、旧ニューロを用いて階調補正パラメータが取得される(ステップS63)。次いで、旧ニューロの階調補正パラメータを元に判定用画像情報が修正され(ステップS64)、修正画像が表示部10に表示される(ステップS65)。   Next, for the determination image information acquired in step S52, the tone correction parameter is acquired using the new neuron, and the tone correction parameter is acquired using the old neuron (step S63). Next, the image information for determination is corrected based on the old neuron gradation correction parameters (step S64), and the corrected image is displayed on the display unit 10 (step S65).

オペレータは、表示部10に表示された修正画像を観察し、補正が必要であると判断した場合、指示入力部9の操作により、第1の補正値が入力される(ステップS66)。次いで、式(18)に示すように、旧ニューロの階調補正パラメータと第1の補正値を加算することにより、補正の正解値が算出される(ステップS67)。
(補正の正解値)=(旧ニューロの階調補正パラメータ)+(第1の補正値) (18)
When the operator observes the corrected image displayed on the display unit 10 and determines that correction is necessary, the operator inputs the first correction value by operating the instruction input unit 9 (step S66). Next, as shown in Expression (18), the correct value for correction is calculated by adding the old neurotone correction parameter and the first correction value (step S67).
(Correct correction value) = (old neurotone gradation correction parameter) + (first correction value) (18)

次いで、補正の正解値、新ニューロの階調補正パラメータに基づいて、オペレータが入力する第2の補正値の予測値が算出される(ステップS68)。第2の補正値の算出式を式(19)に示す。
(第2の補正値)=(補正の正解値)−(新ニューロの階調補正パラメータ) (19)
Next, a predicted value of the second correction value input by the operator is calculated based on the correct correction value and the new neurotone correction parameter (step S68). A formula for calculating the second correction value is shown in Formula (19).
(Second correction value) = (correction correct value) − (new neurotone correction parameter) (19)

次いで、過去所定シーン数の第1の補正値の平均値及び第2の補正値の平均値が算出され(ステップS69)、第1の補正値の平均値が第2の補正値の平均値より大きいか否かが判定される(ステップS70)。   Next, an average value of the first correction values and an average value of the second correction values for the past predetermined number of scenes are calculated (step S69), and the average value of the first correction values is calculated based on the average value of the second correction values. It is determined whether it is larger (step S70).

ステップS70において、第1の補正値の平均値が第2の補正値の平均値以下であると判定された場合(ステップS70;NO)、補正の正解値を新ニューロの出力信号の望ましい値として用いた教師データを用いて、新ニューロの学習が実施される(ステップS72)。そして、ステップS72の学習実施により微修正された新ニューロがセットされ(ステップS73)、ステップS62に戻り、このセットされた新ニューロについて、ステップS62〜S70の処理が繰り返される。   In step S70, when it is determined that the average value of the first correction value is equal to or less than the average value of the second correction value (step S70; NO), the correct value of the correction is set as a desirable value of the output signal of the new neuron. New neuro learning is performed using the teacher data used (step S72). Then, a new neuro that is finely corrected by the execution of learning in step S72 is set (step S73), and the process returns to step S62, and the processes in steps S62 to S70 are repeated for the set new neuro.

ステップS70において、第1の補正値の平均値が第2の補正値の平均値より大きいと判定された場合(ステップS70;YES)、旧ニューロが新ニューロに置き換えられ(ステップS71)、本ニューロ置換処理2が終了する。   In Step S70, when it is determined that the average value of the first correction value is larger than the average value of the second correction value (Step S70; YES), the old neuron is replaced with the new neuron (Step S71), and the current neuron. The replacement process 2 ends.

なお、図18のニューロ置換処理1と図19のニューロ置換処理2を連結した処理を実行するようにしてもよい。この場合、図18のステップS56において、差分情報の平均値が収斂したら(ステップS56;YES)、図19のニューロ置換処理2に移行し、ニューロ置換処理2では、新ニューロとして、ニューロ置換処理1で学習済みの新ニューロが取得される。このように、ニューロ置換処理1とニューロ置換処理2を組み合わせると、ニューロ置換処理1で高速に大体の学習を終了し、ニューロ置換処理2では、僅かな量の、より高度な学習を実施すればよいため、ニューロ置換時の高度な学習を短時間で実施することができる。   Note that a process obtained by connecting the neuro replacement process 1 in FIG. 18 and the neuro replacement process 2 in FIG. 19 may be executed. In this case, when the average value of the difference information is converged in step S56 in FIG. 18 (step S56; YES), the process proceeds to the neuro replacement process 2 in FIG. 19, and in the neuro replacement process 2, the neuro replacement process 1 is performed as a new neuro. A new neuron that has already been learned is acquired. As described above, when the neuro replacement process 1 and the neuro replacement process 2 are combined, the neuro replacement process 1 completes a large amount of learning at a high speed. In the neuro replacement process 2, a small amount of more advanced learning is performed. Therefore, advanced learning at the time of neuro replacement can be performed in a short time.

〈補正画像作成処理〉
次に、図20〜図25を参照して、図5のステップS10に示した補正画像作成処理(階調変換処理)について説明する。
<Correction image creation process>
Next, with reference to FIGS. 20 to 25, the corrected image creation process (gradation conversion process) shown in step S10 of FIG. 5 will be described.

デジタル画像では、例えば、図20(a)に示すトーンカーブ(階調変換曲線)により、明るさが補正され、図20(b)に示すトーンカーブによりコントラストが補正される。表示部10で画像を観察し、追加補正を指示するオペレータにとっては、追加補正を単純に行うことが好ましい。   In the digital image, for example, brightness is corrected by a tone curve (tone conversion curve) shown in FIG. 20A, and contrast is corrected by a tone curve shown in FIG. For an operator who observes an image on the display unit 10 and instructs additional correction, it is preferable to simply perform additional correction.

例えば、コントラストの補正結果は、コントラストを確実に調整しているとともに、画像の鮮やかさ(彩度)等の他の要素には主観的な変化がないことが好ましい。しかしながら、実際の補正では、例えば、コントラストを高める補正を行った場合、RGBカラー画像のRGB各々の要素に、図20(b)の「コントラスト高く」のトーンカーブを適用すると、同時に彩度も高くなって観察されてしまい、更に彩度を調整する必要が生じる。同様に、例えば、L*a*b*カラー画像のL*情報に、図20(b)の「コントラスト高く」のトーンカーブを適用すると、今度は彩度が低く観察されてしまい、更に彩度を調整する必要が生じる。   For example, it is preferable that the contrast correction result reliably adjusts the contrast and that there is no subjective change in other elements such as image vividness (saturation). However, in actual correction, for example, when correction for increasing the contrast is performed, applying the tone curve of “high contrast” in FIG. 20B to each of the RGB elements of the RGB color image simultaneously increases the saturation. It is necessary to adjust the saturation further. Similarly, for example, when the tone curve of “high contrast” in FIG. 20B is applied to the L * information of the L * a * b * color image, the saturation is observed to be low, and the saturation is further increased. Need to be adjusted.

このような不具合により、オペレータの追加補正の精度が低下すると、ニューロの学習効率が低下し、オペレータの嗜好に適合した性能に達するまでの時間が長くなってしまうため、階調変化に伴う彩度の変化を軽減させる必要がある。このような階調変換処理の一例を図21に示す。   Due to these problems, if the accuracy of additional correction by the operator decreases, the learning efficiency of the neuron decreases, and it takes longer to reach performance that matches the operator's preference. It is necessary to mitigate changes. An example of such gradation conversion processing is shown in FIG.

まず、図5のステップS8で算出された階調補正パラメータ(例えば、コントラスト補正パラメータ)が取得される(ステップS80)。次いで、その取得された階調補正パラメータが所定の比率で2つの補正パラメータ(第1の補正パラメータ、第2の補正パラメータ)に分割される(ステップS81)。ステップS80で取得された階調補正パラメータと、ステップS81で分割された2つの補正パラメータには、下記の(20−1)及び(20−2)の関係が成り立つ。
(第1の補正パラメータ)=P1×(階調補正パラメータ) (20−1)
(第2の補正パラメータ)=P2×(階調補正パラメータ) (20−1)
ここで、P1+P2=1 (例えば、P1=P2=0.5)
First, the tone correction parameter (for example, contrast correction parameter) calculated in step S8 of FIG. 5 is acquired (step S80). Next, the acquired gradation correction parameter is divided into two correction parameters (first correction parameter and second correction parameter) at a predetermined ratio (step S81). The following relationships (20-1) and (20-2) are established between the gradation correction parameter acquired in step S80 and the two correction parameters divided in step S81.
(First correction parameter) = P1 × (gradation correction parameter) (20-1)
(Second correction parameter) = P2 × (gradation correction parameter) (20-1)
Here, P1 + P2 = 1 (for example, P1 = P2 = 0.5)

また、補正対象の画像情報が取得され(ステップS82)、当該画像情報がL*a*b*色空間に座標変換される(ステップS83)。次いで、第1の補正パラメータをL*情報に作用させることにより、L*情報の階調変換が行われる(ステップS84)。   Further, image information to be corrected is acquired (step S82), and the image information is coordinate-converted into the L * a * b * color space (step S83). Next, gradation conversion of the L * information is performed by applying the first correction parameter to the L * information (step S84).

次いで、補正対象の画像情報がRGB色空間に座標変換され(ステップS85)、第2の補正パラメータをRGBの各々の色情報に作用させることにより、各々の色情報の階調変換が行われ(ステップS86)、本階調変換処理が終了する。なお、図21では、L*情報の階調変換の後に、RGB情報の階調変換を行うようにしたが、これら2つの階調変換変換の順番はこれに限定されず、RGB情報の階調変換の後にL*情報の階調変換を行うようにしてもよい。   Next, the image information to be corrected is coordinate-converted into the RGB color space (step S85), and the second correction parameter is applied to each of the RGB color information, whereby gradation conversion of each color information is performed ( Step S86), the gradation conversion process ends. In FIG. 21, the gradation conversion of RGB information is performed after the gradation conversion of L * information. However, the order of these two gradation conversion conversions is not limited to this, and the gradation of RGB information is not limited to this. You may make it perform the gradation conversion of L * information after conversion.

このように、各階調補正パラメータについて、図21に示す階調変換処理を行うと、階調変化に伴う彩度の変化が軽減されるため、オペレータによる追加補正が容易になり、第1のニューロの学習効率が高くなる。   As described above, when the tone conversion process shown in FIG. 21 is performed for each tone correction parameter, the change in saturation due to the tone change is reduced, so that additional correction by the operator is facilitated, and the first neuron is corrected. The learning efficiency of.

次に、図22〜図25を参照して、補正画像作成処理の他の例としてシェーディング補正について説明する。   Next, shading correction will be described as another example of the corrected image creation processing with reference to FIGS.

デジタル画像情報のプリント出力は、目的に応じた専用のデジタルプリンタで行う場合が多いが、これらのプリンタはコンピュータグラフィックスなどのデジタル信号を正確にプリント出力するために、一般に高精度のシェーディング補正が行われている。図1に示す画像処理装置100(光学焼付け装置)では、例えば、フィルム面の光源照射強度やレンズのシェーディング特性(Cos4乗則や、口径食による開口効率の変化)により、一般に、画像の中心から周辺に向かって緩やかなシェーディング誤差があり、印画紙への照射光量が周辺でなだらかに減少する特性を示す。   In many cases, digital image information is printed out using dedicated digital printers according to the purpose. In order to print out digital signals such as computer graphics accurately, these printers generally perform high-precision shading correction. Has been done. In the image processing apparatus 100 (optical printing apparatus) shown in FIG. 1, for example, generally from the center of the image due to the light source irradiation intensity of the film surface and the shading characteristics of the lens (Cos 4 power law or change in opening efficiency due to vignetting). There is a gradual shading error toward the periphery, and the amount of light applied to the photographic paper gradually decreases around the periphery.

ネガポジ方式の一般的な写真では、周辺が明るくなり、画面の明るさ、軽さを演出し、ポジポジ方式では、周辺が暗くなり、画面が暗く、重厚感を演出し、効果的に作図にも用いられてきた。このような特性を再現すると、画像の見栄えが向上し、オペレータによる追加補正が容易になるものと期待される。以下、光学焼付けシェーディング特性の再現処理について二通りの方法(図22及び図24)を説明する。   With a negative-positive method, the surroundings become brighter, producing a brighter and lighter screen. With the positive-positive method, the surroundings become darker, the screen is darker, producing a profound feeling and effective drawing. Has been used. Reproducing such characteristics is expected to improve the appearance of the image and facilitate additional correction by the operator. In the following, two methods (FIGS. 22 and 24) for reproducing the optical printing shading characteristics will be described.

まず、図22のフローチャートを参照して、光学焼付けシェーディング特性の再現処理の一例を説明する。   First, an example of the optical printing shading characteristic reproduction process will be described with reference to the flowchart of FIG.

まず、補正対象の画像情報が取得される(ステップS90)。次いで、ステップS90で取得された画像情報のうち、補正対象の1画素分の画素信号値xが取得される(ステップS91)。次いで、ステップS91で取得された画素信号値xの中心からの距離dが算出される(ステップS92)。   First, image information to be corrected is acquired (step S90). Next, the pixel signal value x for one pixel to be corrected is acquired from the image information acquired in step S90 (step S91). Next, the distance d from the center of the pixel signal value x acquired in step S91 is calculated (step S92).

次いで、ネガポジ方式におけるシェーディング特性に基づいて予め設定された第1の補正係数f(d)及び第2の補正係数g(x)を用いて、式(21)に示すように、画素補正値が算出される(ステップS93)。
(画素補正値)=1/{g(x)×f(d)+(1−g(x))} (21)
ここで、第1の補正係数f(d)は、中心からの距離dの関数であり、図23(a)に示すような特性を有する。また、第2の補正係数g(x)は、画素信号値xの関数であり、図23(b)に示すような特性を有する。
Next, using the first correction coefficient f (d) and the second correction coefficient g (x) set in advance based on the shading characteristics in the negative-positive method, the pixel correction value is expressed as shown in Expression (21). Calculated (step S93).
(Pixel correction value) = 1 / {g (x) × f (d) + (1−g (x))} (21)
Here, the first correction coefficient f (d) is a function of the distance d from the center, and has characteristics as shown in FIG. The second correction coefficient g (x) is a function of the pixel signal value x and has characteristics as shown in FIG.

次いで、ステップS93で算出された画素補正値と画素信号値xの積をとることにより修正補正値(画素信号値xを修正した値)が算出される(ステップS94)。次いで、ステップS91〜S94の処理が補正対象の全ての画素について行われたか否かが判定される(ステップS95)。   Next, a corrected correction value (a value obtained by correcting the pixel signal value x) is calculated by taking the product of the pixel correction value calculated in step S93 and the pixel signal value x (step S94). Next, it is determined whether or not the processing in steps S91 to S94 has been performed for all the pixels to be corrected (step S95).

ステップS95において、全画素に対する処理が終了していないと判定された場合(ステップS95;NO)、補正対象の次の画素の計算処理へ移行し(ステップS96)、該当する画素についてステップS91〜S94の処理が繰り返される。ステップS95において、全画素に対する処理が終了したと判定された場合(ステップS95;YES)、本光学焼付けシェーディング特性の再現処理が終了する。   If it is determined in step S95 that the processing has not been completed for all the pixels (step S95; NO), the process proceeds to calculation processing for the next pixel to be corrected (step S96), and steps S91 to S94 are performed for the corresponding pixel. The process is repeated. If it is determined in step S95 that the processing for all the pixels has been completed (step S95; YES), the reproduction process for the present optical printing shading characteristic is completed.

次に、図24のフローチャートを参照して、光学焼付けシェーディング特性の再現処理の他の例を説明する。   Next, another example of the optical printing shading characteristic reproduction process will be described with reference to the flowchart of FIG.

まず、補正対象の画像情報から、画像属性情報が取得される(ステップS100)。ここで、画像属性情報とは、画像の生成手段に関する情報や、利用目的、仕上がり嗜好に関する情報である。次いで、補正対象の画像情報が、撮影によって得られた自然画像であるか否かが判定される(ステップS101)。コンピュータグラフィックス画像やデザイン画像、テキスト画像等は、シェーディング特性の付加は不要であるため、自然画像でないものとみなされる。   First, image attribute information is acquired from the image information to be corrected (step S100). Here, the image attribute information is information relating to image generation means, information on the purpose of use, and finish preference. Next, it is determined whether or not the image information to be corrected is a natural image obtained by photographing (step S101). Computer graphics images, design images, text images, and the like do not require the addition of shading characteristics and are therefore considered not natural images.

ステップS101において、補正対象の画像情報が自然画像でないと判定された場合(ステップS101;NO)、本光学焼付けシェーディング特性の再現処理が終了する。ステップS101において、補正対象の画像情報が自然画像であると判定された場合(ステップS101;YES)、ネガプリント調が選択(指定)されているか否かが判定される(ステップS102)。   In step S101, when it is determined that the image information to be corrected is not a natural image (step S101; NO), the reproduction process of the optical printing shading characteristics is completed. If it is determined in step S101 that the image information to be corrected is a natural image (step S101; YES), it is determined whether or not a negative print tone is selected (designated) (step S102).

ステップS102において、ネガプリント調が選択されている場合(ステップS102;YES)、ネガプリント調の補正係数として、図23に示す第1の補正係数f(d)及び第2の補正係数g(x)が選択され(ステップS103)、これらの補正係数を用いて、図22に示す光学焼付けシェーディング特性の再現処理が実行される(ステップS105)。   When the negative print tone is selected in step S102 (step S102; YES), the first correction coefficient f (d) and the second correction coefficient g (x) shown in FIG. 23 are used as the negative print tone correction coefficients. ) Is selected (step S103), and the reproduction process of the optical printing shading characteristics shown in FIG. 22 is executed using these correction coefficients (step S105).

ステップS102において、ポジプリント調が選択(指定)されている場合(ステップS102;NO)、ポジプリント調の補正係数としての第1の補正係数f'(d)及び第2の補正係数g'(x)が選択される(ステップS104)。この第1の補正係数f'(d)及び第2の補正係数g'(x)は、ポジポジ方式におけるシェーディング特性に基づいて予め設定されており、それぞれ、図25(a)、(b)に示すような特性を有する。第1の補正係数f'(d)は、ネガプリント調で適用される第1の補正係数f(d)とは異なり、中心からの距離が大きくなるにつれて1.0から増加する単調増加関数となっている。   When the positive print tone is selected (designated) in step S102 (step S102; NO), the first correction coefficient f ′ (d) and the second correction coefficient g ′ (positive print tone correction coefficient) are used. x) is selected (step S104). The first correction coefficient f ′ (d) and the second correction coefficient g ′ (x) are set in advance based on the shading characteristics in the positive / positive system, and are respectively shown in FIGS. 25 (a) and 25 (b). It has the following characteristics. Unlike the first correction coefficient f (d) applied in the negative print tone, the first correction coefficient f ′ (d) is a monotonically increasing function that increases from 1.0 as the distance from the center increases. It has become.

ポジプリント調の補正係数が選択されると、その補正係数を用いて、図22に示す光学焼付けシェーディング特性の再現処理が実行される(ステップS105)。この場合、式(21)の画素補正値の算出式において、f(d)→f'(d)、g(x)→g'(x)のように置き換わる。   When the positive print tone correction coefficient is selected, the reproduction process of the optical printing shading characteristic shown in FIG. 22 is executed using the correction coefficient (step S105). In this case, in the calculation formula of the pixel correction value of Expression (21), f (d) → f ′ (d) and g (x) → g ′ (x) are replaced.

以上のように、本実施形態の画像処理装置によれば、オペレータにより指示された追加補正値を第1のニューロの教師データとして学習し、この学習した第1のニューロを用いて画像情報を補正するようにしたため、オペレータの嗜好に合った画像を得ることができる。   As described above, according to the image processing apparatus of this embodiment, the additional correction value instructed by the operator is learned as the first neuro teacher data, and the image information is corrected using the learned first neuro. As a result, an image suitable for the operator's preference can be obtained.

また、入力画像情報に含まれる人物の顔の検出処理を学習した第2のニューロを用いて人物の顔領域の特性値及び第2のニューロの反応強度を算出し、算出された顔領域の特性値及び反応強度を第1のニューロの入力信号とすることにより、より高品質で、オペレータの嗜好に合った画像を得ることができる。   The characteristic value of the person's face area and the response intensity of the second neuron are calculated using the second neuron that has learned the human face detection process included in the input image information, and the calculated characteristic of the face area is calculated. By using the value and the reaction intensity as the input signal of the first neuron, it is possible to obtain an image that matches the preference of the operator with higher quality.

更に、新たな構成を有する第3のニューロを使用する前に、オペレータの嗜好に合わせて学習された第1のニューロの出力信号を用いて第3のニューロの学習を実施するようにしたため、オペレータの嗜好に合った新しいニューロへ円滑に移行することができる。   Further, since the third neuro learning is performed using the output signal of the first neuro learned according to the operator's preference before using the third neuro having the new configuration, the operator It is possible to make a smooth transition to a new neuro that suits the taste of people.

また、入力画像情報から画像撮影時の配光条件を判別し、判別結果を第1のニューロへの入力信号の一つとすることにより、配光条件に適した階調補正パラメータを得ることができ、一層高品質の画像を得ることができる。   Also, by determining the light distribution condition at the time of image capturing from the input image information and making the determination result one of the input signals to the first neuron, it is possible to obtain a gradation correction parameter suitable for the light distribution condition. A higher quality image can be obtained.

更に、補正対象の画像情報をL*a*b*色空間に座標変換するとともに、RGB色空間に座標変換し、第1のニューロにより算出された階調補正パラメータを2つの補正パラメータに分割し、第1の補正パラメータを輝度情報(L*)に作用させて階調変換し、第2の補正パラメータをRGBの単位色の各々に対して作用させて階調変換することにより、階調変化に伴う彩度(画像の鮮やかさ)の変化が軽減され、オペレータの指示による追加補正が容易になる。   Further, the image information to be corrected is coordinate-converted to the L * a * b * color space and coordinate-converted to the RGB color space, and the gradation correction parameter calculated by the first neuro is divided into two correction parameters. The gradation change is performed by applying the first correction parameter to the luminance information (L *) to perform gradation conversion, and applying the second correction parameter to each of the RGB unit colors to perform gradation conversion. The change in the saturation (the vividness of the image) that accompanies is reduced, and additional correction according to an instruction from the operator becomes easy.

また、補正画像の作成処理では、ネガポジ方式におけるプリント焼付け時のシェーディング特性を再現する処理を行うことにより、ネガポジ方式のプリントに近似した補正画像を得ることができるため、オペレータによる追加補正が容易になる。   In addition, in the correction image creation process, it is possible to obtain a correction image that approximates negative-positive printing by performing processing that reproduces the shading characteristics at the time of printing in the negative-positive method, so that additional correction by the operator is easy. Become.

なお、本実施形態における記述内容は、本発明の趣旨を逸脱しない範囲で適宜変更可能である。   Note that the description in the present embodiment can be changed as appropriate without departing from the spirit of the present invention.

例えば、本実施形態の画像処理装置100又は200では、各構成要素が一つの筐体に収められているが、例えば、画像処理装置200を複数のブロックに分割し、各ブロックが物理的に独立した装置(デバイス)となったシステムにおいても本実施形態を適用することが可能である。   For example, in the image processing apparatus 100 or 200 of the present embodiment, each component is housed in a single housing. For example, the image processing apparatus 200 is divided into a plurality of blocks, and each block is physically independent. The present embodiment can also be applied to a system that is an apparatus (device).

図26に、物理的に独立した複数の装置から構成される画像処理システム300の構成を示す。画像処理システム300は、図26に示すように、画像入力装置20、画像処理装置21、画像出力装置22、システム制御装置23、通信制御部15により構成される。なお、図26において、図2の画像処理装置200と同一の構成要素には同一の符号を付し、機能が同一の構成要素については、その機能説明を省略する。   FIG. 26 shows a configuration of an image processing system 300 including a plurality of physically independent devices. As shown in FIG. 26, the image processing system 300 includes an image input device 20, an image processing device 21, an image output device 22, a system control device 23, and a communication control unit 15. In FIG. 26, the same components as those in the image processing apparatus 200 in FIG. 2 are denoted by the same reference numerals, and the description of the functions of the components having the same functions is omitted.

画像入力装置20は、画像情報取得部4、DSC12、原稿スキャナ13、記録メディアドライバ14により構成される。   The image input device 20 includes an image information acquisition unit 4, a DSC 12, a document scanner 13, and a recording media driver 14.

画像処理装置21は、画像判定部5、追加補正データ記憶部6、ニューロ学習部7、指示入力部9、表示部10、縮小画像作成部11、画像処理部24により構成される。画像処理部24は、画像判定部5で算出された階調補正パラメータ及び/又は指示入力部9から入力された追加補正値に基づいて、表示部10に表示するための階調変換を行って補正画像を作成し、作成された補正画像を表示部10に出力する。   The image processing device 21 includes an image determination unit 5, an additional correction data storage unit 6, a neuro learning unit 7, an instruction input unit 9, a display unit 10, a reduced image creation unit 11, and an image processing unit 24. The image processing unit 24 performs gradation conversion for display on the display unit 10 based on the gradation correction parameter calculated by the image determination unit 5 and / or the additional correction value input from the instruction input unit 9. A corrected image is created, and the created corrected image is output to the display unit 10.

画像出力装置21は、画像情報出力部16、プリンタ部17、記録メディア書き込み部18、画像処理部25により構成される。画像処理部25は、システム制御装置23から入力された制御信号に従って、画像判定部5で算出された階調補正パラメータ及び/又は指示入力部9から入力された追加補正値に基づいて、指定された出力先に出力するための階調変換を行って補正画像を作成し、作成された補正画像を画像情報出力部16に出力する。   The image output device 21 includes an image information output unit 16, a printer unit 17, a recording medium writing unit 18, and an image processing unit 25. The image processing unit 25 is designated based on the gradation correction parameter calculated by the image determination unit 5 and / or the additional correction value input from the instruction input unit 9 according to the control signal input from the system control device 23. The tone conversion for output to the output destination is performed to create a corrected image, and the generated corrected image is output to the image information output unit 16.

システム制御装置23は、通信制御部15、画像入力装置20、画像処理装置21における各種処理を統括的に制御する。   The system control device 23 comprehensively controls various processes in the communication control unit 15, the image input device 20, and the image processing device 21.

なお、画像入力装置20、画像処理装置21、画像出力装置2の各々は、必要に応じて複数配置されていてもよい。例えば、システム全体の画像処理能力に対し、画像入力装置20の処理能力が劣る場合には、画像入力装置20を複数配置し、システム制御装置23の制御の基で並列動作させることができる。   Note that a plurality of each of the image input device 20, the image processing device 21, and the image output device 2 may be arranged as necessary. For example, when the processing capability of the image input device 20 is inferior to the image processing capability of the entire system, a plurality of image input devices 20 can be arranged and operated in parallel under the control of the system control device 23.

本発明の実施形態における画像処理装置の構成の一例を示すブロック図。1 is a block diagram illustrating an example of a configuration of an image processing apparatus according to an embodiment of the present invention. 本発明の実施形態における画像処理装置の他の構成例を示すブロック図。The block diagram which shows the other structural example of the image processing apparatus in embodiment of this invention. 階層型ニューラルネットワークの構造を模式的に示す図。The figure which shows the structure of a hierarchical neural network typically. ニューラルネットワークを構成するニューロンの構造を示す図。The figure which shows the structure of the neuron which comprises a neural network. 本実施形態の画像処理装置において実行される画像処理を示すフローチャート。6 is a flowchart showing image processing executed in the image processing apparatus according to the present embodiment. 本実施形態で適用される第1の階層型ニューラルネットワーク及び第3の階層型ニューラルネットワークを示す図。The figure which shows the 1st hierarchical neural network and 3rd hierarchical neural network applied by this embodiment. 配光条件判別処理を示すフローチャート。The flowchart which shows a light distribution condition discrimination | determination process. 明度・色相の領域毎に第1の占有率を算出する占有率算出処理を示すフローチャート。The flowchart which shows the occupation rate calculation process which calculates the 1st occupation rate for every area | region of brightness and hue. RGBからHSV表色系に変換するプログラムの一例を示す図。The figure which shows an example of the program which converts from RGB to HSV color system. 明度(V)−色相(H)平面と、V−H平面上の領域r1及び領域r2を示す図。The figure which shows the brightness | luminance (V) -hue (H) plane, and the area | region r1 and the area | region r2 on a VH plane. 明度(V)−色相(H)平面と、V−H平面上の領域r3及び領域r4を示す図。The figure which shows the brightness | luminance (V) -hue (H) plane, and the area | region r3 and the area | region r4 on a VH plane. 指標1を算出するための、第1の占有率に乗算する第1の係数を表す曲線を示す図。The figure which shows the curve showing the 1st coefficient by which the 1st occupation rate for calculating the parameter | index 1 is multiplied. 指標2を算出するための、第1の占有率に乗算する第2の係数を表す曲線を示す図。The figure which shows the curve showing the 2nd coefficient by which the 1st occupation rate for calculating the parameter | index 2 is multiplied. 撮影画像データの構図に基づいて第2の占有率を算出する占有率算出処理を示すフローチャート。The flowchart which shows the occupation rate calculation process which calculates a 2nd occupation rate based on the composition of picked-up image data. 撮影画像データの画面の外縁からの距離に応じて決定される領域n1〜n4を示す図。The figure which shows the area | regions n1-n4 determined according to the distance from the outer edge of the screen of picked-up image data. 指標3を算出するための、第2の占有率に乗算する第3の係数を表す曲線を領域別(n1〜n4)に示す図。The figure which shows the curve showing the 3rd coefficient for multiplying the 2nd occupation rate for calculating the parameter | index 3 according to area | region (n1-n4). 配光条件(順光、ストロボ、逆光)別に算出された指標4及び指標5のプロット図。The plot figure of the parameter | index 4 and the parameter | index 5 calculated according to light distribution conditions (forward light, strobe, backlight). 第1の階層型ニューラルネットワークを第3の階層型ニューラルネットワークに置き換えるニューロ置換処理1を示すフローチャート。The flowchart which shows the neuro replacement | exchange process 1 which replaces a 1st hierarchical neural network with a 3rd hierarchical neural network. 第1の階層型ニューラルネットワークを第3の階層型ニューラルネットワークに置き換えるニューロ置換処理2を示すフローチャート。The flowchart which shows the neuro replacement | exchange process 2 which replaces a 1st hierarchical neural network with a 3rd hierarchical neural network. 明るさ補正を示す階調変換曲線(a)と、コントラスト補正を示す階調変換曲線(b)を示す図。The figure which shows the gradation conversion curve (a) which shows brightness correction, and the gradation conversion curve (b) which shows contrast correction. 階調変換処理を示すフローチャート。The flowchart which shows a gradation conversion process. 光学焼付けシェーディング特性の再現処理を示すフローチャート。The flowchart which shows the reproduction process of an optical printing shading characteristic. 図22の光学焼付けシェーディング特性の再現処理で用いる第1の補正係数f(d)及び第2の補正係数g(x)の特性を示す図。The figure which shows the characteristic of 1st correction coefficient f (d) and 2nd correction coefficient g (x) used by the reproduction process of the optical printing shading characteristic of FIG. 画像属性に応じた光学焼付けシェーディング特性の再現処理を示す図。The figure which shows the reproduction process of the optical printing shading characteristic according to an image attribute. 撮影画像データがポジプリント調である場合に用いられる第1の補正係数f'(d)及び第2の補正係数g'(x)の特性を示す図。The figure which shows the characteristic of 1st correction coefficient f '(d) and 2nd correction coefficient g' (x) used when picked-up image data is a positive print tone. 図2の画像処理装置の変形例を示す図。The figure which shows the modification of the image processing apparatus of FIG. 従来の画像処理を示すフローチャート。The flowchart which shows the conventional image processing.

符号の説明Explanation of symbols

1 光源部
2 撮像部
3 露光制御部
4 画像情報取得部
5 画像判定部
6 追加補正データ記憶部
7 ニューロ学習部
8 画像処理部
9 指示入力部
10 表示部
11 縮小画像作成部
12 DSC
13 原稿スキャナ
14 記録メディアドライバ
15 通信制御部
16 画像情報出力部
17 プリンタ部
18 記録メディア書き込み部
20 画像入力装置
21 画像処理装置
22 画像出力装置
23 システム制御装置
24、25 画像処理部
100、200 画像処理装置
300 画像処理システム
N 通信ネットワーク
DESCRIPTION OF SYMBOLS 1 Light source part 2 Imaging part 3 Exposure control part 4 Image information acquisition part 5 Image determination part 6 Additional correction data storage part 7 Neuro learning part 8 Image processing part 9 Instruction input part 10 Display part 11 Reduced image creation part 12 DSC
13 Document Scanner 14 Recording Media Driver 15 Communication Control Unit 16 Image Information Output Unit 17 Printer Unit 18 Recording Media Writing Unit 20 Image Input Device 21 Image Processing Device 22 Image Output Device 23 System Control Devices 24 and 25 Image Processing Units 100 and 200 Images Processing device 300 Image processing system N Communication network

Claims (40)

入力された画像情報から所定の特性値を算出する特性値算出工程と、
前記算出された特性値を入力信号とし、画像情報に対する階調変換の程度を示す階調補正パラメータを出力信号とする第1のニューラルネットワークを用いて階調補正パラメータを算出する補正パラメータ算出工程と、
前記算出された階調補正パラメータに基づいて前記画像情報を階調変換することによって補正画像を作成する補正画像作成工程と、
前記作成された補正画像に対する補正が指示された場合、当該作成された補正画像に対する補正量を教師データとして前記第1のニューラルネットワークの学習を実施する第1の学習工程と、
を含むことを特徴とする画像処理方法。
A characteristic value calculating step for calculating a predetermined characteristic value from the input image information;
A correction parameter calculating step of calculating a gradation correction parameter using a first neural network having the calculated characteristic value as an input signal and a gradation correction parameter indicating a degree of gradation conversion for image information as an output signal; ,
A corrected image creating step of creating a corrected image by gradation-converting the image information based on the calculated gradation correction parameter;
A first learning step of performing learning of the first neural network using, as teacher data, a correction amount for the created corrected image when an instruction to correct the created corrected image is given;
An image processing method comprising:
前記入力された画像情報から、人物の顔領域を検出する顔領域検出工程を含み、
前記特性値算出工程では、前記検出された顔領域に関する特性値が算出されることを特徴とする請求項1に記載の画像処理方法。
A face area detection step of detecting a face area of a person from the input image information,
The image processing method according to claim 1, wherein in the characteristic value calculation step, a characteristic value related to the detected face area is calculated.
前記入力された画像情報から、人物の顔の可能性がある顔候補領域を抽出する顔候補領域抽出工程を含み、
前記顔領域検出工程では、人物の顔検出処理を学習した第2のニューラルネットワークを用いて、前記抽出された顔候補領域から顔領域が検出され、
前記特性値算出工程では、前記抽出された顔候補領域が顔領域である可能性を示す、前記第2のニューラルネットワークの出力信号の反応強度及び/又は前記検出された顔領域の特性値が算出されることを特徴とする請求項2に記載の画像処理方法。
A face candidate area extracting step of extracting a face candidate area that may be a human face from the input image information,
In the face area detection step, a face area is detected from the extracted face candidate areas using a second neural network that has learned human face detection processing;
In the characteristic value calculating step, a reaction intensity of the output signal of the second neural network and / or a characteristic value of the detected face area, which indicates the possibility that the extracted face candidate area is a face area, is calculated. The image processing method according to claim 2, wherein:
前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得工程と、
前記第1のニューラルネットワークの出力信号を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習工程と、
前記学習された第3のニューラルネットワークの学習結果が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換工程と、
を含むことを特徴とする請求項1〜3の何れか一項に記載の画像処理方法。
An acquisition step of acquiring a third neural network having a configuration different from that of the first neural network;
A second learning step of performing learning of the third neural network using the output signal of the first neural network as teacher data;
A replacement step of replacing the first neural network with the third neural network when a learning result of the learned third neural network satisfies a predetermined condition;
The image processing method according to claim 1, further comprising:
前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得工程と、
前記第1のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を更に補正するための第1の補正値を入力する入力工程と、
前記第1の補正値に基づいて、第3のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を補正するための第2の補正値を算出する補正値算出工程と、
前記算出された第2の補正値を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習工程と、
前記第1の補正値と、前記学習された第3のニューラルネットワークを用いて算出された第2の補正値の関係が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換工程と、
を含むことを特徴とする請求項1〜3の何れか一項に記載の画像処理方法。
An acquisition step of acquiring a third neural network having a configuration different from that of the first neural network;
An input step of inputting a first correction value for further correcting the corrected image created based on the gradation correction parameter calculated by the first neural network;
A correction value calculation step of calculating a second correction value for correcting a correction image created based on the gradation correction parameter calculated by the third neural network based on the first correction value;
A second learning step of performing learning of the third neural network using the calculated second correction value as teacher data;
When the relationship between the first correction value and the second correction value calculated using the learned third neural network satisfies a predetermined condition, the first neural network is changed to the third neural network. A replacement step to replace with a neural network;
The image processing method according to claim 1, further comprising:
前記特性値算出工程では、前記入力された画像が撮影された時の配光条件を示す値が算出されることを特徴とする請求項1〜5の何れか一項に記載の画像処理方法。   The image processing method according to claim 1, wherein in the characteristic value calculation step, a value indicating a light distribution condition when the input image is taken is calculated. 前記配光条件には、逆光状態及び/又はフラッシュ光利用状態が含まれることを特徴とする請求項6に記載の画像処理方法。   The image processing method according to claim 6, wherein the light distribution condition includes a backlight state and / or a flash light utilization state. 前記入力された画像情報はカラー画像であり、
前記補正パラメータ算出工程において算出された階調補正パラメータを所定の比率で分割し、第1の補正パラメータ及び第2の補正パラメータを算出する分割パラメータ算出工程を含み、
前記補正画像作成工程では、前記入力された画像情報を輝度−色差情報で表現した場合の輝度情報に対して前記第1の補正パラメータを作用させることによって当該輝度情報が階調変換されるとともに、前記入力された画像情報をRGB情報で表現した場合の各々の色情報に対して前記第2の補正パラメータを作用させることによって当該色情報が階調変換されることを特徴とする請求項1〜7の何れか一項に記載の画像処理方法。
The input image information is a color image,
A division parameter calculation step of dividing the gradation correction parameter calculated in the correction parameter calculation step by a predetermined ratio and calculating a first correction parameter and a second correction parameter;
In the corrected image creating step, the luminance information is gradation-converted by applying the first correction parameter to the luminance information when the input image information is expressed by luminance-color difference information. The color information is subjected to gradation conversion by applying the second correction parameter to each color information when the inputted image information is expressed by RGB information. 8. The image processing method according to any one of 7.
前記補正画像作成工程では、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報が変換されることを特徴とする請求項1〜8の何れか一項に記載の画像処理方法。   The said correction | amendment image creation process converts the said image information using the correction coefficient preset based on the shading characteristic in a negative positive system, The Claim 1 characterized by the above-mentioned. Image processing method. 前記画像情報の属性情報を取得する属性情報取得工程と、
前記取得された属性情報に基づいて、前記画像情報が、撮影により得られた自然画像であるか否かを判定する判定工程と、を含み、
前記判定工程において、前記画像情報が自然画像であると判定された場合、前記補正画像作成工程では、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報が変換されることを特徴とする請求項1〜8の何れか一項に記載の画像処理方法。
An attribute information acquisition step of acquiring attribute information of the image information;
A determination step of determining whether the image information is a natural image obtained by photographing based on the acquired attribute information,
If it is determined in the determination step that the image information is a natural image, the correction information creation step converts the image information using a correction coefficient set in advance based on a shading characteristic in a negative-positive method. The image processing method according to claim 1, wherein the image processing method is an image processing method.
入力された画像情報から所定の特性値を算出する特性値算出手段と、
前記算出された特性値を入力信号とし、画像情報に対する階調変換の程度を示す階調補正パラメータを出力信号とする第1のニューラルネットワークを用いて階調補正パラメータを算出する補正パラメータ算出手段と、
前記算出された階調補正パラメータに基づいて前記画像情報を階調変換することによって補正画像を作成する補正画像作成手段と、
前記作成された補正画像に対する補正が指示された場合、当該作成された補正画像に対する補正量を教師データとして前記第1のニューラルネットワークの学習を実施する第1の学習手段と、
を備えることを特徴とする画像処理装置。
Characteristic value calculation means for calculating a predetermined characteristic value from the input image information;
Correction parameter calculation means for calculating a gradation correction parameter using a first neural network having the calculated characteristic value as an input signal and a gradation correction parameter indicating the degree of gradation conversion for image information as an output signal; ,
A corrected image creating means for creating a corrected image by gradation-converting the image information based on the calculated gradation correction parameter;
A first learning means for performing learning of the first neural network using a correction amount for the generated corrected image as teacher data when an instruction to correct the generated corrected image is given;
An image processing apparatus comprising:
前記入力された画像情報から、人物の顔領域を検出する顔領域検出手段を備え、
前記特性値算出手段は、前記検出された顔領域に関する特性値を算出することを特徴とする請求項11に記載の画像処理装置。
A face area detecting means for detecting a face area of a person from the input image information;
The image processing apparatus according to claim 11, wherein the characteristic value calculation unit calculates a characteristic value related to the detected face area.
前記入力された画像情報から、人物の顔の可能性がある顔候補領域を抽出する顔候補領域抽出手段を備え、
前記顔領域検出手段は、人物の顔検出処理を学習した第2のニューラルネットワークを用いて、前記抽出された顔候補領域から顔領域を検出し、
前記特性値算出手段は、前記抽出された顔候補領域が顔領域である可能性を示す、前記第2のニューラルネットワークの出力信号の反応強度及び/又は前記検出された顔領域の特性値を算出することを特徴とする請求項12に記載の画像処理装置。
Face candidate area extraction means for extracting a face candidate area that may be a human face from the input image information,
The face area detection means detects a face area from the extracted face candidate areas using a second neural network that has learned human face detection processing;
The characteristic value calculation means calculates a reaction intensity of the output signal of the second neural network and / or a characteristic value of the detected face area, which indicates the possibility that the extracted face candidate area is a face area. The image processing apparatus according to claim 12, wherein:
前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得手段と、
前記第1のニューラルネットワークの出力信号を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習手段と、
前記学習された第3のニューラルネットワークの学習結果が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換手段と、
を備えることを特徴とする請求項11〜13の何れか一項に記載の画像処理装置。
Obtaining means for obtaining a third neural network having a configuration different from that of the first neural network;
Second learning means for performing learning of the third neural network using the output signal of the first neural network as teacher data;
Replacement means for replacing the first neural network with the third neural network when a learning result of the learned third neural network satisfies a predetermined condition;
The image processing apparatus according to claim 11, further comprising:
前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得手段と、
前記第1のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を更に補正するための第1の補正値を入力する入力手段と、
前記第1の補正値に基づいて、第3のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を補正するための第2の補正値を算出する補正値算出手段と、
前記算出された第2の補正値を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習手段と、
前記第1の補正値と、前記学習された第3のニューラルネットワークを用いて算出された第2の補正値の関係が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換手段と、
を備えることを特徴とする請求項11〜13の何れか一項に記載の画像処理装置。
Obtaining means for obtaining a third neural network having a configuration different from that of the first neural network;
Input means for inputting a first correction value for further correcting a correction image created based on the gradation correction parameter calculated by the first neural network;
Correction value calculation means for calculating a second correction value for correcting a correction image created based on the gradation correction parameter calculated by the third neural network based on the first correction value;
Second learning means for performing learning of the third neural network using the calculated second correction value as teacher data;
When the relationship between the first correction value and the second correction value calculated using the learned third neural network satisfies a predetermined condition, the first neural network is changed to the third neural network. Replacement means to replace with a neural network;
The image processing apparatus according to claim 11, further comprising:
前記特性値算出手段は、前記入力された画像が撮影された時の配光条件を示す値を算出することを特徴とする請求項11〜15の何れか一項に記載の画像処理装置。   The image processing apparatus according to claim 11, wherein the characteristic value calculation unit calculates a value indicating a light distribution condition when the input image is taken. 前記配光条件には、逆光状態及び/又はフラッシュ光利用状態が含まれることを特徴とする請求項16に記載の画像処理装置。   The image processing apparatus according to claim 16, wherein the light distribution condition includes a backlight state and / or a flash light use state. 前記入力された画像情報はカラー画像であり、
前記補正パラメータ算出手段において算出された階調補正パラメータを所定の比率で分割し、第1の補正パラメータ及び第2の補正パラメータを算出する分割パラメータ算出手段を備え、
前記補正画像作成手段は、前記入力された画像情報を輝度−色差情報で表現した場合の輝度情報に対して前記第1の補正パラメータを作用させることによって当該輝度情報を階調変換するとともに、前記入力された画像情報をRGB情報で表現した場合の各々の色情報に対して前記第2の補正パラメータを作用させることによって当該色情報を階調変換することを特徴とする請求項11〜17の何れか一項に記載の画像処理装置。
The input image information is a color image,
A division parameter calculation unit that divides the gradation correction parameter calculated by the correction parameter calculation unit at a predetermined ratio, and calculates a first correction parameter and a second correction parameter;
The corrected image creating means performs gradation conversion of the luminance information by applying the first correction parameter to luminance information when the input image information is expressed by luminance-color difference information, and 18. The color information is subjected to gradation conversion by applying the second correction parameter to each color information when the input image information is expressed by RGB information. The image processing apparatus according to any one of the above.
前記補正画像作成手段は、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報を変換することを特徴とする請求項11〜18の何れか一項に記載の画像処理装置。   The image according to any one of claims 11 to 18, wherein the corrected image creating means converts the image information using a correction coefficient set in advance based on a shading characteristic in a negative-positive method. Processing equipment. 前記画像情報の属性情報を取得する属性情報取得手段と、
前記取得された属性情報に基づいて、前記画像情報が、撮影により得られた自然画像であるか否かを判定する判定手段と、を備え、
前記判定手段により、前記画像情報が自然画像であると判定された場合、前記補正画像作成手段は、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報を変換することを特徴とする請求項11〜18の何れか一項に記載の画像処理装置。
Attribute information acquisition means for acquiring attribute information of the image information;
Determination means for determining whether the image information is a natural image obtained by photographing based on the acquired attribute information,
When the determination unit determines that the image information is a natural image, the correction image creation unit converts the image information using a correction coefficient set in advance based on shading characteristics in a negative-positive method. The image processing apparatus according to claim 11, wherein the image processing apparatus is an image processing apparatus.
画像処理を実行するコンピュータに、
入力された画像情報から所定の特性値を算出する特性値算出機能と、
前記算出された特性値を入力信号とし、画像情報に対する階調変換の程度を示す階調補正パラメータを出力信号とする第1のニューラルネットワークを用いて階調補正パラメータを算出する補正パラメータ算出機能と、
前記算出された階調補正パラメータに基づいて前記画像情報を階調変換することによって補正画像を作成する補正画像作成機能と、
前記作成された補正画像に対する補正が指示された場合、当該作成された補正画像に対する補正量を教師データとして前記第1のニューラルネットワークの学習を実施する第1の学習機能と、
を実現させるための画像処理プログラム。
On the computer that performs image processing,
A characteristic value calculation function for calculating a predetermined characteristic value from the input image information;
A correction parameter calculation function for calculating a gradation correction parameter using a first neural network having the calculated characteristic value as an input signal and a gradation correction parameter indicating the degree of gradation conversion for image information as an output signal; ,
A corrected image creation function for creating a corrected image by gradation-converting the image information based on the calculated gradation correction parameter;
A first learning function for performing learning of the first neural network using, as teacher data, a correction amount for the created corrected image when an instruction to correct the created corrected image is given;
An image processing program for realizing
前記入力された画像情報から、人物の顔領域を検出する顔領域検出機能を実現させ、
前記特性値算出機能を実現させる際に、前記検出された顔領域に関する特性値を算出することを特徴とする請求項21に記載の画像処理プログラム。
Realizing a face area detection function for detecting a human face area from the input image information,
The image processing program according to claim 21, wherein a characteristic value related to the detected face area is calculated when the characteristic value calculation function is realized.
前記入力された画像情報から、人物の顔の可能性がある顔候補領域を抽出する顔候補領域抽出機能を実現させ、
前記顔領域検出機能を実現させる際に、人物の顔検出処理を学習した第2のニューラルネットワークを用いて、前記抽出された顔候補領域から顔領域を検出し、
前記特性値算出機能を実現させる際に、前記抽出された顔候補領域が顔領域である可能性を示す、前記第2のニューラルネットワークの出力信号の反応強度及び/又は前記検出された顔領域の特性値を算出することを特徴とする請求項22に記載の画像処理プログラム。
Realizing a face candidate area extraction function that extracts a face candidate area that may be a human face from the input image information;
When realizing the face area detection function, a face area is detected from the extracted face candidate areas using a second neural network that has learned human face detection processing;
When realizing the characteristic value calculation function, the response intensity of the output signal of the second neural network and / or the detected face area indicating the possibility that the extracted face candidate area is a face area. The image processing program according to claim 22, wherein a characteristic value is calculated.
前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得機能と、
前記第1のニューラルネットワークの出力信号を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習機能と、
前記学習された第3のニューラルネットワークの学習結果が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換機能と、
を実現させる請求項21〜23の何れか一項に記載の画像処理プログラム。
An acquisition function for acquiring a third neural network having a configuration different from that of the first neural network;
A second learning function for performing learning of the third neural network using the output signal of the first neural network as teacher data;
A replacement function for replacing the first neural network with the third neural network when a learning result of the learned third neural network satisfies a predetermined condition;
24. The image processing program according to any one of claims 21 to 23, wherein:
前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得機能と、
前記第1のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を更に補正するための第1の補正値を入力する入力機能と、
前記第1の補正値に基づいて、第3のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を補正するための第2の補正値を算出する補正値算出機能と、
前記算出された第2の補正値を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習機能と、
前記第1の補正値と、前記学習された第3のニューラルネットワークを用いて算出された第2の補正値の関係が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換機能と、
を実現させる請求項21〜23の何れか一項に記載の画像処理プログラム。
An acquisition function for acquiring a third neural network having a configuration different from that of the first neural network;
An input function for inputting a first correction value for further correcting the corrected image created based on the gradation correction parameter calculated by the first neural network;
A correction value calculation function for calculating a second correction value for correcting a correction image created based on the gradation correction parameter calculated by the third neural network based on the first correction value;
A second learning function for performing learning of the third neural network using the calculated second correction value as teacher data;
When the relationship between the first correction value and the second correction value calculated using the learned third neural network satisfies a predetermined condition, the first neural network is changed to the third neural network. Replacement function to replace with neural network,
24. The image processing program according to any one of claims 21 to 23, wherein:
前記特性値算出機能を実現させる際に、前記入力された画像が撮影された時の配光条件を示す値を算出することを特徴とする請求項21〜25の何れか一項に記載の画像処理プログラム。   The image according to any one of claims 21 to 25, wherein when the characteristic value calculation function is realized, a value indicating a light distribution condition when the input image is photographed is calculated. Processing program. 前記配光条件には、逆光状態及び/又はフラッシュ光利用状態が含まれることを特徴とする請求項26に記載の画像処理プログラム。   27. The image processing program according to claim 26, wherein the light distribution condition includes a backlight state and / or a flash light utilization state. 前記入力された画像情報はカラー画像であり、
前記補正パラメータ算出機能において算出された階調補正パラメータを所定の比率で分割し、第1の補正パラメータ及び第2の補正パラメータを算出する分割パラメータ算出機能を実現させ、
前記補正画像作成機能を実現させる際に、前記入力された画像情報を輝度−色差情報で表現した場合の輝度情報に対して前記第1の補正パラメータを作用させることによって当該輝度情報を階調変換するとともに、前記入力された画像情報をRGB情報で表現した場合の各々の色情報に対して前記第2の補正パラメータを作用させることによって当該色情報を階調変換することを特徴とする請求項21〜27の何れか一項に記載の画像処理プログラム。
The input image information is a color image,
Dividing the gradation correction parameter calculated in the correction parameter calculation function at a predetermined ratio to realize a division parameter calculation function for calculating the first correction parameter and the second correction parameter;
When the corrected image creation function is realized, the luminance information is converted into gradation by applying the first correction parameter to the luminance information when the input image information is expressed by luminance-color difference information. In addition, the color information is subjected to gradation conversion by applying the second correction parameter to each color information when the input image information is expressed by RGB information. The image processing program according to any one of 21 to 27.
前記補正画像作成機能を実現させる際に、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報を変換することを特徴とする請求項21〜28の何れか一項に記載の画像処理プログラム。   29. The image information is converted by using a correction coefficient set in advance based on a shading characteristic in a negative-positive method when the correction image creation function is realized. The image processing program described in 1. 前記画像情報の属性情報を取得する属性情報取得機能と、
前記取得された属性情報に基づいて、前記画像情報が、撮影により得られた自然画像であるか否かを判定する判定機能と、を実現させ、
前記補正画像作成機能を実現させる際に、前記判定機能により、前記画像情報が自然画像であると判定された場合、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報を変換することを特徴とする請求項21〜28の何れか一項に記載の画像処理プログラム。
An attribute information acquisition function for acquiring attribute information of the image information;
A determination function for determining whether the image information is a natural image obtained by photographing based on the acquired attribute information; and
When realizing the corrected image creation function, if the image information is determined to be a natural image by the determination function, the image is calculated using a correction coefficient set in advance based on a shading characteristic in a negative-positive method. The image processing program according to any one of claims 21 to 28, wherein information is converted.
画像処理対象の画像情報を入力する画像入力装置と、前記入力された画像情報に対して各種の画像処理を施す画像処理装置と、前記画像処理が施された画像情報を出力する画像出力装置から構成される画像処理システムであって、
前記画像処理装置は、
前記画像入力装置から入力された画像情報から所定の特性値を算出する特性値算出手段と、
前記算出された特性値を入力信号とし、画像情報に対する階調変換の程度を示す階調補正パラメータを出力信号とする第1のニューラルネットワークを用いて階調補正パラメータを算出する補正パラメータ算出手段と、
前記算出された階調補正パラメータに基づいて前記画像情報を階調変換することによって補正画像を作成する補正画像作成手段と、
前記作成された補正画像に対する補正が指示された場合、当該作成された補正画像に対する補正量を教師データとして前記第1のニューラルネットワークの学習を実施する第1の学習手段と、
を備えることを特徴とする画像処理システム。
An image input device that inputs image information to be processed, an image processing device that performs various types of image processing on the input image information, and an image output device that outputs the image information subjected to the image processing An image processing system comprising:
The image processing apparatus includes:
A characteristic value calculating means for calculating a predetermined characteristic value from the image information input from the image input device;
Correction parameter calculation means for calculating a gradation correction parameter using a first neural network having the calculated characteristic value as an input signal and a gradation correction parameter indicating the degree of gradation conversion for image information as an output signal; ,
A corrected image creating means for creating a corrected image by gradation-converting the image information based on the calculated gradation correction parameter;
A first learning means for performing learning of the first neural network using a correction amount for the generated corrected image as teacher data when an instruction to correct the generated corrected image is given;
An image processing system comprising:
前記画像処理装置は、
前記入力された画像情報から、人物の顔領域を検出する顔領域検出手段を備え、
前記特性値算出手段は、前記検出された顔領域に関する特性値を算出することを特徴とする請求項31に記載の画像処理システム。
The image processing apparatus includes:
A face area detecting means for detecting a face area of a person from the input image information;
32. The image processing system according to claim 31, wherein the characteristic value calculation unit calculates a characteristic value related to the detected face area.
前記画像処理装置は、
前記入力された画像情報から、人物の顔の可能性がある顔候補領域を抽出する顔候補領域抽出手段を備え、
前記顔領域検出手段は、人物の顔検出処理を学習した第2のニューラルネットワークを用いて、前記抽出された顔候補領域から顔領域を検出し、
前記特性値算出手段は、前記抽出された顔候補領域が顔領域である可能性を示す、前記第2のニューラルネットワークの出力信号の反応強度及び/又は前記検出された顔領域の特性値を算出することを特徴とする請求項32に記載の画像処理システム。
The image processing apparatus includes:
Face candidate area extraction means for extracting a face candidate area that may be a human face from the input image information,
The face area detection means detects a face area from the extracted face candidate areas using a second neural network that has learned human face detection processing;
The characteristic value calculation means calculates a reaction intensity of the output signal of the second neural network and / or a characteristic value of the detected face area, which indicates the possibility that the extracted face candidate area is a face area. The image processing system according to claim 32, wherein:
前記画像処理装置は、
前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得手段と、
前記第1のニューラルネットワークの出力信号を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習手段と、
前記学習された第3のニューラルネットワークの学習結果が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換手段と、
を備えることを特徴とする請求項31〜33の何れか一項に記載の画像処理システム。
The image processing apparatus includes:
Obtaining means for obtaining a third neural network having a configuration different from that of the first neural network;
Second learning means for performing learning of the third neural network using the output signal of the first neural network as teacher data;
Replacement means for replacing the first neural network with the third neural network when a learning result of the learned third neural network satisfies a predetermined condition;
The image processing system according to any one of claims 31 to 33, comprising:
前記画像処理装置は、
前記第1のニューラルネットワークとは異なる構成を有する第3のニューラルネットワークを取得する取得手段と、
前記第1のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を更に補正するための第1の補正値を入力する入力手段と、
前記第1の補正値に基づいて、第3のニューラルネットワークで算出された階調補正パラメータに基づいて作成された補正画像を補正するための第2の補正値を算出する補正値算出手段と、
前記算出された第2の補正値を教師データとして前記第3のニューラルネットワークの学習を実施する第2の学習手段と、
前記第1の補正値と、前記学習された第3のニューラルネットワークを用いて算出された第2の補正値の関係が所定の条件を満たす場合に、前記第1のニューラルネットワークを当該第3のニューラルネットワークに置き換える置換手段と、
を備えることを特徴とする請求項31〜33の何れか一項に記載の画像処理システム。
The image processing apparatus includes:
Obtaining means for obtaining a third neural network having a configuration different from that of the first neural network;
Input means for inputting a first correction value for further correcting a correction image created based on the gradation correction parameter calculated by the first neural network;
Correction value calculation means for calculating a second correction value for correcting a correction image created based on the gradation correction parameter calculated by the third neural network based on the first correction value;
Second learning means for performing learning of the third neural network using the calculated second correction value as teacher data;
When the relationship between the first correction value and the second correction value calculated using the learned third neural network satisfies a predetermined condition, the first neural network is changed to the third neural network. Replacement means to replace with a neural network;
The image processing system according to any one of claims 31 to 33, comprising:
前記特性値算出手段は、前記入力された画像が撮影された時の配光条件を示す値を算出することを特徴とする請求項31〜35の何れか一項に記載の画像処理システム。   36. The image processing system according to claim 31, wherein the characteristic value calculation unit calculates a value indicating a light distribution condition when the input image is taken. 前記配光条件には、逆光状態及び/又はフラッシュ光利用状態が含まれることを特徴とする請求項36に記載の画像処理システム。   The image processing system according to claim 36, wherein the light distribution condition includes a backlight state and / or a flash light utilization state. 前記入力された画像情報はカラー画像であり、
前記画像処理装置は、
前記補正パラメータ算出手段において算出された階調補正パラメータを所定の比率で分割し、第1の補正パラメータ及び第2の補正パラメータを算出する分割パラメータ算出手段を備え、
前記補正画像作成手段は、前記入力された画像情報を輝度−色差情報で表現した場合の輝度情報に対して前記第1の補正パラメータを作用させることによって当該輝度情報を階調変換するとともに、前記入力された画像情報をRGB情報で表現した場合の各々の色情報に対して前記第2の補正パラメータを作用させることによって当該色情報を階調変換することを特徴とする請求項31〜37の何れか一項に記載の画像処理システム。
The input image information is a color image,
The image processing apparatus includes:
A division parameter calculation unit that divides the gradation correction parameter calculated by the correction parameter calculation unit at a predetermined ratio, and calculates a first correction parameter and a second correction parameter;
The corrected image creating means performs gradation conversion of the luminance information by applying the first correction parameter to luminance information when the input image information is expressed by luminance-color difference information, and 38. The tone conversion of the color information is performed by applying the second correction parameter to each color information when the input image information is expressed by RGB information. The image processing system according to any one of claims.
前記補正画像作成手段は、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報を変換することを特徴とする請求項31〜38の何れか一項に記載の画像処理システム。   The image according to any one of claims 31 to 38, wherein the corrected image creating means converts the image information using a correction coefficient set in advance based on a shading characteristic in a negative-positive method. Processing system. 前記画像処理装置は、
前記画像情報の属性情報を取得する属性情報取得手段と、
前記取得された属性情報に基づいて、前記画像情報が、撮影により得られた自然画像であるか否かを判定する判定手段と、を備え、
前記判定手段により、前記画像情報が自然画像であると判定された場合、前記補正画像作成手段は、ネガポジ方式におけるシェーディング特性に基づいて予め設定された補正係数を用いて、前記画像情報を変換することを特徴とする請求項31〜38の何れか一項に記載の画像処理システム。
The image processing apparatus includes:
Attribute information acquisition means for acquiring attribute information of the image information;
Determination means for determining whether the image information is a natural image obtained by photographing based on the acquired attribute information,
When the determination unit determines that the image information is a natural image, the correction image creation unit converts the image information using a correction coefficient set in advance based on shading characteristics in a negative-positive method. The image processing system according to any one of claims 31 to 38.
JP2004209959A 2004-07-16 2004-07-16 Image processing method, image processing apparatus, image processing program and image processing system Pending JP2006031440A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004209959A JP2006031440A (en) 2004-07-16 2004-07-16 Image processing method, image processing apparatus, image processing program and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004209959A JP2006031440A (en) 2004-07-16 2004-07-16 Image processing method, image processing apparatus, image processing program and image processing system

Publications (1)

Publication Number Publication Date
JP2006031440A true JP2006031440A (en) 2006-02-02

Family

ID=35897699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004209959A Pending JP2006031440A (en) 2004-07-16 2004-07-16 Image processing method, image processing apparatus, image processing program and image processing system

Country Status (1)

Country Link
JP (1) JP2006031440A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008306365A (en) * 2007-06-06 2008-12-18 Noritsu Koki Co Ltd Image correction method and image correction device
JP2009004888A (en) * 2007-06-19 2009-01-08 Noritsu Koki Co Ltd Image correction method and image correction device
JP2009027254A (en) * 2007-07-17 2009-02-05 Noritsu Koki Co Ltd Image correcting method and image correcting device
JP2009134433A (en) * 2007-11-29 2009-06-18 Noritsu Koki Co Ltd Image correction method and image correction device
JP2009151350A (en) * 2007-12-18 2009-07-09 Nec Corp Image correction method and device
CN101916366A (en) * 2010-08-09 2010-12-15 黑龙江八一农垦大学 Brooding-before clear egg distinguishing method and device thereof
JP2011090413A (en) * 2009-10-20 2011-05-06 Canon Inc Image recognition apparatus, processing method thereof, and program
JP2011159207A (en) * 2010-02-03 2011-08-18 Canon Inc Image processing apparatus and program
JP2014153866A (en) * 2013-02-07 2014-08-25 Canon Inc Image processing system, control method and control program of the same
JP2015087826A (en) * 2013-10-28 2015-05-07 大日本印刷株式会社 Information processing program, mobile terminal, and host server
WO2018084473A1 (en) * 2016-11-07 2018-05-11 삼성전자 주식회사 Method for processing input on basis of neural network learning and apparatus therefor
CN110929756A (en) * 2019-10-23 2020-03-27 广物智钢数据服务(广州)有限公司 Deep learning-based steel size and quantity identification method, intelligent device and storage medium
CN112132172A (en) * 2020-08-04 2020-12-25 绍兴埃瓦科技有限公司 Model training method, device, equipment and medium based on image processing
US10963738B2 (en) 2016-11-07 2021-03-30 Samsung Electronics Co., Ltd. Method for processing input on basis of neural network learning and apparatus therefor
US11074479B2 (en) 2019-03-28 2021-07-27 International Business Machines Corporation Learning of detection model using loss function
US11257189B2 (en) 2019-05-02 2022-02-22 Samsung Electronics Co., Ltd. Electronic apparatus and image processing method thereof

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008306365A (en) * 2007-06-06 2008-12-18 Noritsu Koki Co Ltd Image correction method and image correction device
JP2009004888A (en) * 2007-06-19 2009-01-08 Noritsu Koki Co Ltd Image correction method and image correction device
JP2009027254A (en) * 2007-07-17 2009-02-05 Noritsu Koki Co Ltd Image correcting method and image correcting device
JP2009134433A (en) * 2007-11-29 2009-06-18 Noritsu Koki Co Ltd Image correction method and image correction device
JP2009151350A (en) * 2007-12-18 2009-07-09 Nec Corp Image correction method and device
JP2011090413A (en) * 2009-10-20 2011-05-06 Canon Inc Image recognition apparatus, processing method thereof, and program
JP2011159207A (en) * 2010-02-03 2011-08-18 Canon Inc Image processing apparatus and program
CN101916366A (en) * 2010-08-09 2010-12-15 黑龙江八一农垦大学 Brooding-before clear egg distinguishing method and device thereof
JP2014153866A (en) * 2013-02-07 2014-08-25 Canon Inc Image processing system, control method and control program of the same
JP2015087826A (en) * 2013-10-28 2015-05-07 大日本印刷株式会社 Information processing program, mobile terminal, and host server
WO2018084473A1 (en) * 2016-11-07 2018-05-11 삼성전자 주식회사 Method for processing input on basis of neural network learning and apparatus therefor
US10963738B2 (en) 2016-11-07 2021-03-30 Samsung Electronics Co., Ltd. Method for processing input on basis of neural network learning and apparatus therefor
US11074479B2 (en) 2019-03-28 2021-07-27 International Business Machines Corporation Learning of detection model using loss function
US11120305B2 (en) 2019-03-28 2021-09-14 International Business Machines Corporation Learning of detection model using loss function
US11257189B2 (en) 2019-05-02 2022-02-22 Samsung Electronics Co., Ltd. Electronic apparatus and image processing method thereof
US11861809B2 (en) 2019-05-02 2024-01-02 Samsung Electronics Co., Ltd. Electronic apparatus and image processing method thereof
CN110929756A (en) * 2019-10-23 2020-03-27 广物智钢数据服务(广州)有限公司 Deep learning-based steel size and quantity identification method, intelligent device and storage medium
CN110929756B (en) * 2019-10-23 2022-09-06 广物智钢数据服务(广州)有限公司 Steel size and quantity identification method based on deep learning, intelligent equipment and storage medium
CN112132172A (en) * 2020-08-04 2020-12-25 绍兴埃瓦科技有限公司 Model training method, device, equipment and medium based on image processing

Similar Documents

Publication Publication Date Title
JP2006301779A (en) Image processing system, image processing method, and image processing program
CN101527860B (en) White balance control apparatus, control method therefor, and image sensing apparatus
CN102984448B (en) Utilize color digital picture to revise the method for controlling to action as acutance
JP2006031440A (en) Image processing method, image processing apparatus, image processing program and image processing system
CN106165390A (en) Image processing apparatus, photographic attachment, image processing method and program
US20110043666A1 (en) Image processing apparatus, image processing method, and computer program storage medium
CN105453539B (en) Image processing apparatus, photographic device and image processing method
CN107534727A (en) Image processing apparatus, camera device, image processing method and image processing program
CN108024054A (en) Image processing method, device and equipment
CN107563976A (en) U.S. face parameter acquiring method, device, readable storage medium storing program for executing and computer equipment
JP2006325015A (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
CN109005343A (en) Control method, device, imaging device, electronic equipment and readable storage medium storing program for executing
JP2009151350A (en) Image correction method and device
JP7443030B2 (en) Learning method, program, learning device, and method for manufacturing learned weights
JP2007311895A (en) Imaging apparatus, image processor, image processing method and image processing program
JP2007221678A (en) Imaging apparatus, image processor, image processing method and image processing program
JP2007293686A (en) Imaging apparatus, image processing apparatus, image processing method and image processing program
JP2007312294A (en) Imaging apparatus, image processor, method for processing image, and image processing program
JP2006039666A (en) Image processing method, image processor and image processing program
JP2007094787A (en) Portrait image correction device, portrait image correction method and portrait image correction program
JP4449619B2 (en) Image processing method, image processing apparatus, and image processing program
JP2007081550A (en) Imaging apparatus, and image processing unit, method, and program
WO2006077703A1 (en) Imaging device, image processing device, and image recording device
JP2008278333A (en) Image processing device and method
JP2006203571A (en) Imaging apparatus, image processing apparatus, and image recording apparatus