JP2006146646A - Method and apparatus for processing photographic image - Google Patents

Method and apparatus for processing photographic image Download PDF

Info

Publication number
JP2006146646A
JP2006146646A JP2004337037A JP2004337037A JP2006146646A JP 2006146646 A JP2006146646 A JP 2006146646A JP 2004337037 A JP2004337037 A JP 2004337037A JP 2004337037 A JP2004337037 A JP 2004337037A JP 2006146646 A JP2006146646 A JP 2006146646A
Authority
JP
Japan
Prior art keywords
area
image
region
lut
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004337037A
Other languages
Japanese (ja)
Inventor
Kenji Murakami
謙二 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Koki Co Ltd
Original Assignee
Noritsu Koki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Koki Co Ltd filed Critical Noritsu Koki Co Ltd
Priority to JP2004337037A priority Critical patent/JP2006146646A/en
Publication of JP2006146646A publication Critical patent/JP2006146646A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographic image processor capable of suitably executing correction processing for the whole area of an input image while utilizing the effects of a lookup table which can be used for high-speed processing and capable of obtaining an output image of high quality. <P>SOLUTION: The photographic image processor for generating an output image by correcting an inputted original image is provided with: an area division means 50a for dividing the original image into a first area including a main subject and a second area other than the first area; an LUT selection means 50d for selecting an optimum LUT based on an image characteristic of each divided area; and an LUT processing means 50c for executing correction processing by using LUTs respectively selected for the first area and the second area. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、現像済みの銀塩写真フィルムからフィルムスキャナによって読み込まれた原画像や、デジタルスチルカメラにより撮影された原画像に対して階調性等を補正処理する写真画像処理方法及び写真画像処理装置に関する。   The present invention relates to a photographic image processing method and photographic image processing for correcting gradation and the like on an original image read by a film scanner from a developed silver halide photographic film or an original image taken by a digital still camera. Relates to the device.

デジタル信号として入力された画像情報を感光材料や印画紙等に出力する場合において、高品質な出力画像を得るためには、入力画像に対して少なからず補正処理を施す必要がある。例えば、コントラスト調整や、シャープ感の強調といったものである。この補正処理には、LUT(ルックアップテーブル)処理やフィルタ処理等が用いられる。   In the case where image information input as a digital signal is output to a photosensitive material, photographic paper, or the like, in order to obtain a high-quality output image, it is necessary to perform at least correction processing on the input image. For example, contrast adjustment and sharpness enhancement. For this correction processing, LUT (look-up table) processing, filter processing, or the like is used.

前記フィルタ処理による補正処理は、補正対象データの周辺の複数のデータをも用いてその補正値を算出するため、高度な補正処理技術には非常に有効であり、主にシャープ感の強調等に好適であるが、複数の画素データに対する複雑な行列演算処理を行なう必要があるために、その算出速度に時間がかかり、補正処理速度の向上が課題となっている。   Since the correction processing by the filter processing calculates the correction value using a plurality of data around the correction target data, it is very effective for advanced correction processing technology, mainly for enhancing sharpness and the like. Although it is preferable, since it is necessary to perform complex matrix calculation processing for a plurality of pixel data, the calculation speed takes time, and improvement of the correction processing speed is a problem.

一方、LUT処理による補正処理は、個々に補正対象データの入力値に対する出力値を決定付けたLUTに基づいて変換処理を行なうだけのため、処理速度が速く、簡単な補正処理に有効であり、主に濃度やコントラストの調整に好適であるが、補正対象データの周辺データとの関連性を持たないために、高度な補正処理技術には不向きである。   On the other hand, the correction process by the LUT process is effective only for a simple correction process because the conversion process is performed simply based on the LUT in which the output value for the input value of the correction target data is individually determined. Although it is mainly suitable for adjustment of density and contrast, it is not suitable for advanced correction processing technology because it is not related to peripheral data of correction target data.

例えば、入力画像が、暗い環境下でストロボを用いて撮影した写真画像の場合、濃度及びコントラスト調整を行なうべく被写体の濃度とコントラストが適切となるLUTデータを用いて補正処理を行なうと背景は黒く潰れてしまう場合があり、逆に、背景の濃度とコントラストが適切となるLUTデータを用いて補正処理を行なうと被写体は白く飛んでしまう場合がある。また、被写体と背景の濃度が適切となるLUTデータを設定すると、全体のコントラストが弱く、低品質な出力画像となる場合がある。また、逆光シーンでも同様の問題があり、投影露光方式の写真処理装置では、被写体及び背景の双方の濃度とコントラストを適切に調整すべく覆い焼きが行なわれていた。   For example, when the input image is a photographic image taken with a strobe in a dark environment, the background becomes black when correction processing is performed using LUT data in which the density and contrast of the subject are appropriate for density and contrast adjustment. On the contrary, if the correction process is performed using LUT data in which the background density and contrast are appropriate, the subject may fly white. Also, if LUT data with appropriate subject and background densities is set, the overall contrast may be weak, resulting in a low-quality output image. Further, there is a similar problem even in a backlight scene. In a projection exposure type photographic processing apparatus, dodging is performed to appropriately adjust the density and contrast of both the subject and the background.

さらに、医用画像診断装置においては、画像を格納する画像メモリと、この画像メモリの画像をルックアップテーブルを用いて任意の階調に変換する手段と、この階調変換手段で階調が変換された画像を表示する表示制御装置と、この表示制御装置に表示された画像とこの画像に対応する画像メモリの特定領域を入力する操作卓を備えてなる画像処理装置において、該操作卓で入力された特定領域の表示制御装置の画面上の画像階調変換に用いるルックアップテーブルと、全体の画像の階調変換に用いるルックアップテーブルと、これらルックアップテーブルを合成する手段を具備し、この合成したルックアップテーブルを用いた階調変換を行う技術が提案されている。
特開平06−259543号公報
Further, in the medical image diagnostic apparatus, the image memory for storing the image, the means for converting the image in the image memory into an arbitrary gradation using a lookup table, and the gradation conversion means convert the gradation. An image processing apparatus comprising: a display control device for displaying a displayed image; and an operation console for inputting an image displayed on the display control device and a specific area of an image memory corresponding to the image. A look-up table used for image tone conversion on the screen of the display control device for the specific area, a look-up table used for tone conversion of the entire image, and a means for synthesizing these look-up tables. A technique for performing gradation conversion using the look-up table has been proposed.
Japanese Patent Laid-Open No. 06-259543

上述した従来技術では、ルックアップテーブルを合成するものでは、入力指示された特定領域に対しては適切な階調変換が可能であるが、その他の領域では十分な階調性が確保されず、様々な条件の下で撮影される一般の写真画像に対して適用するのは困難であるという問題があった。   In the above-described prior art, in the composition of the look-up table, appropriate gradation conversion is possible for the specific area designated for input, but sufficient gradation is not ensured in other areas, There is a problem that it is difficult to apply to a general photographic image taken under various conditions.

本発明は、上述した従来の問題点に鑑み、高速処理が可能なルックアップテーブルの良さを生かしながら、入力画像の全領域において適切に補正処理が行なえ、高品位な出力画像を得ることができる写真画像処理方法及びその装置を提供することを目的とする。   In view of the above-described conventional problems, the present invention can appropriately perform correction processing in the entire area of an input image while taking advantage of a good look-up table capable of high-speed processing, and can obtain a high-quality output image. It is an object of the present invention to provide a photographic image processing method and apparatus.

上述の目的を達成するため、本発明による写真画像処理方法の第一の特徴構成は、特許請求の範囲の書類の請求項1に記載した通り、入力された原画像を補正処理して出力画像を生成する写真画像処理方法であって、前記原画像を主要被写体を含む第一領域とそれ以外の第二領域に領域分割する領域分割工程と、前記第一領域と前記第二領域に夫々異なるLUTを用いて補正処理を行なうLUT処理工程とを備えてなる点にある。   In order to achieve the above-mentioned object, the first characteristic configuration of the photographic image processing method according to the present invention is that the input original image is corrected and output as described in claim 1 of the claims. A photographic image processing method for generating an image, wherein the original image is divided into a first region including a main subject and a second region other than the first region, and the first region and the second region are different. And a LUT processing step for performing correction processing using the LUT.

上述の構成によれば、領域分割工程で原画像から検出された主要被写体を含む第一領域とそれ以外の第二領域の夫々に異なるLUTを用いて高速に補正処理が行なえ、各分割領域に適切なLUTを用いて補正処理を行なうことにより、第一領域と第二領域双方ともに適切な補正がなされ、その結果、高品位の出力画像を得ることができるようになるのである。   According to the above-described configuration, correction processing can be performed at high speed using different LUTs for the first region including the main subject detected from the original image in the region dividing step and the second region other than the first region. By performing the correction process using an appropriate LUT, both the first area and the second area are appropriately corrected, and as a result, a high-quality output image can be obtained.

同第二の特徴構成は、同請求項2に記載した通り、上述の第一特徴構成に加えて、前記LUT処理工程は、各分割領域の画像特性に対応するLUTに基づいて補正処理する点にあり、領域分割工程で分割された領域毎に適用されるLUTをその領域の画像特性に応じて決定することにより、常に適切な画像補正が可能になるのである。   In the second feature configuration, as described in claim 2, in addition to the first feature configuration described above, the LUT processing step performs a correction process based on an LUT corresponding to an image characteristic of each divided region. Therefore, by determining the LUT applied to each area divided in the area dividing step according to the image characteristics of the area, appropriate image correction can always be performed.

同第三の特徴構成は、同請求項3に記載した通り、上述の第一または第二の特徴構成に加えて、前記LUTは、予め設定されている複数のLUTから選択されるものである点にあり、特性の異なる複数の原画像に対応したLUTを予め準備しておけば、分割領域の画像特性に応じて適切なLUTを迅速に選択でき、直ちに処理することができるようになる。   In the third feature configuration, as described in claim 3, in addition to the first or second feature configuration described above, the LUT is selected from a plurality of preset LUTs. If an LUT corresponding to a plurality of original images having different characteristics is prepared in advance, an appropriate LUT can be quickly selected according to the image characteristics of the divided area and can be immediately processed.

同第四の特徴構成は、同請求項4に記載した通り、上述の第一または第二の特徴構成に加えて、前記LUTは、各分割領域の画像特性に基づいて生成されるものである点にあり、このように構成することにより、画像を補正するためのLUTを分割領域毎に最も適切な値に生成することができるようになるのである。   In the fourth feature configuration, in addition to the first or second feature configuration described above, the LUT is generated based on the image characteristics of each divided region. With this configuration, the LUT for correcting an image can be generated to the most appropriate value for each divided region.

同第五の特徴構成は、同請求項5に記載した通り、上述の第一から第四の何れかの特徴構成に加えて、前記領域分割工程は、原画像の画素データの相関関係に基づいて領域分割する点にあり、主要被写体を含む第一領域とその他の第二領域とを領域分割するに際しては、互いに相関関係の強い画素群の集合と、相関関係の弱い画素群の集合とを分割することによって適切に領域分割することができるのである。   In the fifth feature configuration, as described in claim 5, in addition to any of the first to fourth feature configurations described above, the region dividing step is based on a correlation of pixel data of an original image. When dividing the first area including the main subject and the other second area, a set of pixel groups having a strong correlation and a set of pixel groups having a weak correlation are obtained. By dividing, the area can be appropriately divided.

同第六の特徴構成は、同請求項6に記載した通り、上述の第一から第四の何れかの特徴構成に加えて、前記領域分割工程は、原画像からニューラルネットワークを利用したパターン認識により検出された領域を前記第一領域として分割する点にあり、主要被写体を含む第一領域とその他の第二領域とを領域分割するに際しては、ニューラルネットワークを利用したパターン認識によって主要被写体を含む第一領域を正確に抽出することができる。   In the sixth feature configuration, as described in claim 6, in addition to any one of the first to fourth feature configurations described above, the region dividing step performs pattern recognition using a neural network from an original image. The region detected by the step is divided as the first region, and when the first region including the main subject and the other second region are divided into regions, the main subject is included by pattern recognition using a neural network. The first region can be accurately extracted.

同第七の特徴構成は、同請求項7に記載した通り、上述の第一から第四の何れかの特徴構成に加えて、前記領域分割工程は、原画像から人物の顔領域を検出し、検出された顔領域を含む領域を前記第一領域として分割する点にあり、主要被写体が人物である場合に、顔領域を含む領域を検出することによって容易に領域分割することができるのである。ここに、顔領域を検出するためには、肌の色や唇の色を認識する色検出方法、肌色領域の輪郭形状を検出するパターン認識方法、その他、様々な公知の手法を用いることができる。   In the seventh feature configuration, as described in claim 7, in addition to any of the first to fourth feature configurations described above, the region dividing step detects a human face region from the original image. The area including the detected face area is divided as the first area, and when the main subject is a person, the area can be easily divided by detecting the area including the face area. . Here, in order to detect the face area, a color detection method for recognizing skin color or lip color, a pattern recognition method for detecting the contour shape of the skin color area, and various other known techniques can be used. .

同第八の特徴構成は、同請求項8に記載した通り、上述の第一から第七の何れかの特徴構成に加えて、前記LUT処理工程の後に、前記第一領域及び前記第二領域の境界領域にスムージング処理を行なうスムージング処理工程を備える点にあり、夫々異なるLUTで補正処理された領域の境界に生じる不自然なエッジを除去することができるようになる。   In the eighth feature configuration, in addition to any one of the first to seventh feature configurations described above, the first region and the second region are provided after the LUT processing step. The smoothing process step for performing the smoothing process on the boundary area of each of them is provided, and unnatural edges generated at the boundaries of the areas corrected by different LUTs can be removed.

本発明による写真画像処理装置の第一の特徴構成は、同請求項9に記載した通り、入力された原画像を補正処理して出力画像を生成する写真画像処理装置であって、前記原画像を主要被写体を含む第一領域とそれ以外の第二領域に領域分割する領域分割手段と、前記第一領域と前記第二領域に夫々異なるLUTを用いて補正処理を行なうLUT処理手段とを備えてなる点にある。   The first characteristic configuration of the photographic image processing apparatus according to the present invention is the photographic image processing apparatus for generating an output image by correcting the input original image, as described in claim 9, Area dividing means for dividing the image into a first area including a main subject and a second area other than that, and LUT processing means for performing correction processing using different LUTs for the first area and the second area, respectively. It is in the point.

同第二の特徴構成は、同請求項10に記載した通り、上述の第一特徴構成に加えて、前記LUT処理手段は、各分割領域の画像特性に対応するLUTに基づいて補正処理する点にある。   In the second feature configuration, as described in claim 10, in addition to the first feature configuration described above, the LUT processing unit performs correction processing based on an LUT corresponding to an image characteristic of each divided region. It is in.

同第三の特徴構成は、同請求項11に記載した通り、上述の第一または第二の特徴構成に加えて、前記領域分割手段は、原画像からニューラルネットワークを利用したパターン認識により検出された領域を前記第一領域として分割する点にある。   In the third feature configuration, as described in claim 11, in addition to the first or second feature configuration described above, the region dividing unit is detected from the original image by pattern recognition using a neural network. In other words, the area is divided as the first area.

同第四の特徴構成は、同請求項12に記載した通り、上述の第一または第二の特徴構成に加えて、前記領域分割手段は、原画像から人物の顔領域を検出し、検出された顔領域を含む領域を前記第一領域として分割する点にある。   In the fourth feature configuration, as described in claim 12, in addition to the first or second feature configuration described above, the region dividing unit detects a human face region from an original image, and is detected. An area including the face area is divided as the first area.

同第五の特徴構成は、同請求項13に記載した通り、上述の第一から第四の何れかの特徴構成に加えて、前記LUT処理手段により処理された画像のうち、前記第一領域及び前記第二領域の境界領域にスムージング処理を行なうスムージング処理手段を備える点にある。   The fifth feature configuration includes the first region of the image processed by the LUT processing means in addition to any one of the first to fourth feature configurations described above. And smoothing processing means for performing a smoothing process on the boundary region of the second region.

以上説明した通り、本発明によれば、高速処理が可能なルックアップテーブルの良さを生かしながら、入力画像の全領域において適切に補正処理が行なえ、高品位な出力画像を得ることができる写真画像処理方法及びその装置を提供することができるようになった。   As described above, according to the present invention, a photographic image capable of appropriately performing a correction process in the entire area of the input image and obtaining a high-quality output image while taking advantage of a lookup table capable of high-speed processing. A processing method and apparatus thereof can be provided.

以下に本発明による写真画像処理装置を説明する。デジタル方式の写真画像処理装置は、図1及び図2に示すように、撮影済みのネガフィルム(以下、単に「フィルム」と記す。)F等から写真画像を読み取るフィルムスキャナ1aや、デジタルスチルカメラによる撮影画像データが格納されたSDカードやメモリスティック等の各種のカード型メモリM等に対応したメディアドライバ1bを備えた画像データ入力部1と、入力された画像データを格納するハードディスク等でなる画像データ記憶部2と、前記画像データに基づいて画像を表示するモニタ3と、キーボードやマウスを備えた操作入力部4と、前記モニタ3に表示された画像に対する前記操作入力部4を介した各種操作に基づいて、前記画像データを編集処理する画像処理部5と、画像処理後のデータに基づいて印画紙Pを露光して写真プリントを生成する写真プリンタ6と、上述の各ブロックをシステムとして制御するシステムコントローラ7(以下、「コントローラ7」と記す。)を備えて構成される。   The photographic image processing apparatus according to the present invention will be described below. As shown in FIGS. 1 and 2, the digital photographic image processing apparatus includes a film scanner 1a that reads a photographic image from a filmed negative film (hereinafter simply referred to as “film”) F, and a digital still camera. The image data input unit 1 includes a media driver 1b corresponding to various card-type memories M such as an SD card or a memory stick in which captured image data is stored, and a hard disk or the like that stores the input image data. An image data storage unit 2, a monitor 3 for displaying an image based on the image data, an operation input unit 4 having a keyboard and a mouse, and the operation input unit 4 for the image displayed on the monitor 3 The image processing unit 5 that edits the image data based on various operations, and the photographic paper P is exposed based on the data after the image processing. A photographic printer 6 for generating a photographic print Te, the system controller 7 controls the individual blocks of the above as a system (hereinafter referred to as "the controller 7".) Configured with a.

前記フィルムスキャナ1aは、前記フィルムFに読取用の照明光を照射する照明光学系10と、前記フィルムFを搬送するフィルム搬送部11と、当該フィルム搬送部11により搬送されたフィルムFに記録されたコマ画像を読み取る画像読取部12と、前記照明光学系10、前記フィルム搬送部11及び前記画像読取部12による画像読取プロセスを制御するスキャナ制御部13を備えて構成される。   The film scanner 1 a is recorded on the illumination optical system 10 that irradiates the illumination light for reading onto the film F, the film transport unit 11 that transports the film F, and the film F transported by the film transport unit 11. An image reading unit 12 for reading the frame image, and a scanner control unit 13 for controlling an image reading process by the illumination optical system 10, the film transport unit 11, and the image reading unit 12.

前記照明光学系10は、前記フィルムFの搬送方向である副走査方向(図2で矢印で示す)に直交する主走査方向に沿って配置した棒状のハロゲンランプ10aと、前記ハロゲンランプ10aからの光線束の色分布を調整する調光フィルタ10bと、同光線束をスリット状に集光するシリンドリカルレンズ10cと、強度分布を均一にする拡散板10dと、幅狭のスリット10eを備えて構成される。   The illumination optical system 10 includes a rod-shaped halogen lamp 10a arranged along a main scanning direction orthogonal to a sub-scanning direction (indicated by an arrow in FIG. 2) that is a conveyance direction of the film F, and A light control filter 10b that adjusts the color distribution of the light beam, a cylindrical lens 10c that collects the light beam in a slit shape, a diffusion plate 10d that makes the intensity distribution uniform, and a narrow slit 10e are configured. The

前記フィルム搬送部11は、図外の搬送モータにより駆動され、長尺のフィルムFを前記スリット10eの直下のフィルム投影部に向けて所定速度で搬送する複数の搬送ローラ対11aを備えて構成される。   The film transport unit 11 is driven by a transport motor (not shown), and includes a plurality of transport roller pairs 11a that transport the long film F toward the film projection unit directly below the slit 10e at a predetermined speed. The

前記画像読取部12は、集光レンズ、CCDラインセンサ、サンプルホールド回路、A/D変換器等を備えて構成してあり、前記フィルムFを透過した前記照明光学系10からのスリット光が集光レンズによりCCDラインセンサ上に結像され、CCDラインセンサにより読み取られたアナログ信号がA/D変換器によりデジタルデータに変換されるように構成されている。前記CCDラインセンサは、フィルム透過光のR成分、G成分、B成分の各成分の光を選択的に通過させるカラーフィルタが夫々設けられた3列のラインセンサで構成され、以ってフィルム上の各コマ画像がフィルムFの搬送に伴って、R成分、G成分、B成分の各色成分に分解して読み込まれる。   The image reading unit 12 includes a condenser lens, a CCD line sensor, a sample hold circuit, an A / D converter, and the like, and slit light from the illumination optical system 10 that has passed through the film F is collected. An analog signal formed on the CCD line sensor by the optical lens and read by the CCD line sensor is converted to digital data by the A / D converter. The CCD line sensor is composed of three lines of line sensors each provided with a color filter that selectively transmits light of each of the R component, G component, and B component of the transmitted light of the film. As the film F is conveyed, each frame image is separated into R component, G component, and B component color components and read.

前記写真プリンタ6は、ロール状の印画紙Pが収容されたペーパーマガジン60と、前記ペーパーマガジン60から印画紙Pを引き出して搬送する複数の印画紙搬送ローラ61と、搬送ローラ61を駆動するモータ62と、搬送される印画紙Pの感光面を露光する蛍光ビーム方式のプリントヘッド63と、露光済みの印画紙Pに現像、漂白、定着の各処理を施す現像処理部64と、現像処理された印画紙Pを乾燥しながら搬送する乾燥部65と、乾燥された印画紙Pを最終のプリントとして排出する排出部66とを備えて構成され、前記ペーパーマガジン60から引き出された印画紙Pは現像処理の前後何れかに配置されたカッター(図示せず)によって所定のプリントサイズにカットされて排出部66に出力される。   The photographic printer 6 includes a paper magazine 60 in which roll-shaped photographic paper P is accommodated, a plurality of photographic paper transport rollers 61 that pull out and transport the photographic paper P from the paper magazine 60, and a motor that drives the transport roller 61. 62, a fluorescent beam type print head 63 that exposes the photosensitive surface of the conveyed photographic paper P, a development processing unit 64 that performs development, bleaching, and fixing processes on the exposed photographic paper P, and development processing. The photographic paper P drawn out from the paper magazine 60 includes a drying unit 65 that transports the photographic paper P while drying, and a discharge unit 66 that discharges the dried photographic paper P as a final print. The paper is cut into a predetermined print size by a cutter (not shown) disposed either before or after the development processing and output to the discharge unit 66.

前記プリントヘッド63は、グリッド電圧の調節により発光が制御される蛍光体にレンズとカラーフィルタを装着した蛍光体素子を主走査方向に並べた赤色発光ブロックと緑色発光ブロックと青色発光ブロックの三列で構成され、前記フィルムスキャナ1a等を介して読み取られ編集処理された画像データのR成分、G成分、B成分の各画素データに基づいて駆動制御することにより印画紙P上に写真画像が露光される。   The print head 63 includes three rows of a red light emission block, a green light emission block, and a blue light emission block in which phosphor elements each having a lens and a color filter mounted on a phosphor whose light emission is controlled by adjusting a grid voltage are arranged in the main scanning direction. The photographic image is exposed on the photographic paper P by controlling the driving based on the R component, G component, and B component pixel data of the image data read and edited through the film scanner 1a and the like. Is done.

前記コントローラ7は、CPU、ROM、データ処理領域として使用されるRAM、画像データ編集のために使用されるRAM、及び、周辺回路を備えてなるハードウェア、及び、前記ROMに格納され前記CPUで実行されるプログラムでなるソフトウェアを備えて構成され、本発明に関連する機能ブロックに分割して説明すると、図3に示すように、前記モニタ3に表示されたウィンドウ上のソフトスイッチ等を含むグラフィック操作画面の表示や当該グラフィック操作画面を介した前記操作入力部4によるユーザー操作に対応した制御コマンドを生成するグラフィックユーザーインターフェース部(以下、「GUI部」と記す。)7aと、前記モニタ3への表示データが格納されるビデオメモリ7bと、前記画像データ記憶部2から読み出された画像がロードされ、各種の画像処理が施される画像処理メモリ7dと、処理後の画像データをCD−R等のメディアに書き込むための画像ファイルに編集する画像ファイル編集部7cと、画像処理後のデータを前記写真プリンタ6に対応した出力データに変換するプリントデータ変換部7e等を備えて構成される。   The controller 7 includes a CPU, a ROM, a RAM used as a data processing area, a RAM used for image data editing, hardware including peripheral circuits, and a CPU stored in the ROM. If it is divided into functional blocks related to the present invention and is composed of software consisting of programs to be executed, as shown in FIG. 3, a graphic including soft switches and the like on a window displayed on the monitor 3 A graphic user interface unit (hereinafter referred to as “GUI unit”) 7 a that generates a control command corresponding to a user operation by the operation input unit 4 via the operation screen display or the graphic operation screen, and the monitor 3 Are read from the video memory 7b and the image data storage unit 2. An image processing memory 7d to which the output image is loaded and subjected to various types of image processing; an image file editing unit 7c for editing the processed image data into an image file for writing to a medium such as a CD-R; A print data conversion unit 7e for converting the image processed data into output data corresponding to the photo printer 6 is provided.

前記画像処理部5は、所定のアルゴリズムで対象画像を編集処理するソフトウェアと、画像処理プロセッサを備えたハードウェアで構成され、前記画像処理メモリ7dにロードされた画像データに対して濃度や階調補正を行なう階調補正処理手段50と、鮮鋭化処理を行なう鮮鋭化処理手段51と、濃度や階調補正、或いは鮮鋭化処理された画像データに対してカラーバランスを調整するカラー補正手段52とを備えて構成されている。   The image processing unit 5 includes software that edits the target image with a predetermined algorithm and hardware including an image processor. The image processing unit 5 performs density and gradation on the image data loaded in the image processing memory 7d. Gradation correction processing means 50 that performs correction, sharpening processing means 51 that performs sharpening processing, color correction means 52 that adjusts color balance for density, gradation correction, or sharpened image data It is configured with.

前記階調補正処理手段50は、画像処理メモリ7dに展開された各コマの原画像から主要被写体(例えば人物)を含む第一領域を検出し、前記第一領域とそれ以外の第二領域(例えば、背景画像領域)を分割する領域分割手段50aと、分割された第一領域と第二領域の夫々についてその画像特性を示す領域情報を生成する領域情報生成手段50bと、階調補正のための複数のLUTデータが格納されているLUTデータ記憶手段50fと、前記LUTデータ記憶手段50fから前記夫々の領域情報に適合するLUTを選択するLUT選択手段50eと、必要に応じてLUTデータを生成するLUTデータ生成手段50fと、前記第一領域と前記第二領域に対してそれぞれLUT処理を行なうLUT処理手段50cと、前記LUT処理後の第一領域と第二領域との境界領域をスムージング処理するスムージング処理手段50gとを備えて構成されている。   The gradation correction processing means 50 detects the first area including the main subject (for example, a person) from the original image of each frame developed in the image processing memory 7d, and the first area and the other second area ( For example, an area dividing unit 50a for dividing a background image area), an area information generating unit 50b for generating area information indicating image characteristics of each of the divided first area and second area, and for gradation correction LUT data storage means 50f storing a plurality of LUT data, LUT selection means 50e for selecting an LUT suitable for the respective area information from the LUT data storage means 50f, and generating LUT data as necessary LUT data generation means 50f for performing the LUT processing for the first area and the second area, and a LUT processing means 50c for performing the LUT processing after the LUT processing. It is constituted by a smoothing processing unit 50g for smoothing the boundary area between the region and the second region.

前記コントローラ7からフィルム読取指令が送られると、前記スキャナ制御部13は、前記ハロゲンランプ10aを点灯させた後に、前記フィルム搬送部11を駆動して前記フィルムFを副走査方向に所定速度で搬送し、前記画像読取部12によりフィルム上に記録されたコマ画像を順次読み取り、読み取った画像データを前記コントローラ7に送信し、スキャナ制御部から送信された画像データが前記画像データ記憶部2に記憶される。   When a film reading command is sent from the controller 7, the scanner control unit 13 turns on the halogen lamp 10a and then drives the film transport unit 11 to transport the film F at a predetermined speed in the sub-scanning direction. Then, the frame images recorded on the film are sequentially read by the image reading unit 12, the read image data is transmitted to the controller 7, and the image data transmitted from the scanner control unit is stored in the image data storage unit 2. Is done.

また、前記コントローラ7による制御の下で、前記メディアドライバ1bにメディアが挿入されると、当該メディアに記憶されている画像データが読み込まれて前記画像データ記憶部2に記憶される。   When a medium is inserted into the media driver 1 b under the control of the controller 7, image data stored in the medium is read and stored in the image data storage unit 2.

前記画像データ記憶部2に記憶された画像データは、前記画像処理部5により所定の画像処理が施され、前記プリントデータ変換部7eにより変換されたプリントデータが前記写真プリンタ6に出力される。前記写真プリンタ6では、入力されたプリントデータに基づいて前記プリントヘッド63が駆動され、前記プリントヘッド63により露光された印画紙Pが現像処理されて写真プリントとして出力される。   The image data stored in the image data storage unit 2 is subjected to predetermined image processing by the image processing unit 5, and the print data converted by the print data conversion unit 7 e is output to the photo printer 6. In the photo printer 6, the print head 63 is driven based on the input print data, and the photographic paper P exposed by the print head 63 is developed and output as a photo print.

詳述すると、前記写真画像処理装置では、前記フィルムスキャナ1aから入力される画像に基づいて写真プリントを生成する場合、先ずプレスキャン動作によりフィルム画像が低解像度で読み込まれて前記モニタ3に表示され、表示されたコマ画像に対してオペレータによる前記操作入力部4を介したプリントサイズやプリント枚数の設定処理とともに、各コマ画像の画質が検定され、必要に応じて階調補正やカラー補正等の画像補正処理が行なわれる。   More specifically, in the photographic image processing apparatus, when a photographic print is generated based on an image input from the film scanner 1a, a film image is first read at a low resolution by a pre-scan operation and displayed on the monitor 3. The image quality of each frame image is verified together with the setting processing of the print size and the number of prints by the operator via the operation input unit 4 for the displayed frame image, and gradation correction, color correction, etc. are performed as necessary. Image correction processing is performed.

この検定作業は、前記コントローラ7とオペレータによる対話形式で進められ、上述したプリント枚数の設定の他に前記画像処理部5による画像処理条件が決定される一連の作業で、鮮鋭化処理、カラー補正処理、階調補正処理等の一連の画像処理が予め定められた条件で自動的に実行され、その補正結果が適切であるか否かがオペレータにより評価され、階調補正が不十分であったり、カラーフェリアが発生する等種々の不都合が生じる場合には、マニュアル操作で階調補正やカラー補正等が行なわれ、その補正条件が内部メモリに記憶される。   This verification operation is carried out in an interactive manner between the controller 7 and the operator, and in addition to the setting of the number of prints described above, a series of operations in which the image processing conditions are determined by the image processing unit 5, sharpening processing, color correction A series of image processing such as processing and gradation correction processing is automatically executed under predetermined conditions, and whether or not the correction result is appropriate is evaluated by an operator, and gradation correction is insufficient. When various inconveniences such as the occurrence of color failure occur, gradation correction and color correction are performed manually, and the correction conditions are stored in the internal memory.

上述の検定作業が終了して写真プリントを出力する際に、本スキャン、つまり、前記フィルムスキャナ1aを介した高解像度でのフィルム画像の読込み処理が行なわれ、本スキャンによる画像データに対して、上述した補正条件に基づいて各種の画像処理が実行され、その後、前記プリントデータ変換部7eで変換処理されたプリントデータが前記写真プリンタ6に出力される。   When the above-described verification operation is completed and a photographic print is output, a main scan, that is, a film image reading process at a high resolution via the film scanner 1a is performed. Various image processes are executed based on the correction conditions described above, and then the print data converted by the print data converter 7e is output to the photo printer 6.

尚、上述のプレスキャン動作は、上述の検定作業時に行なわれる画像処理の処理対象画素数を減らして高速化するために設けられた動作で、デジタルスチルカメラによる撮影画像に対しては、読み込まれる画像ファイルに添付されたサムネイル画像に対して検定作業が実行され、サムネイル画像が無いときには、入力された画像を間引き処理して生成されたサムネイル画像に対して検定作業が実行される。   The above-described pre-scan operation is an operation provided to reduce the number of pixels subject to image processing performed during the above-described verification operation and increase the speed, and is read for an image captured by a digital still camera. The verification operation is performed on the thumbnail image attached to the image file, and when there is no thumbnail image, the verification operation is performed on the thumbnail image generated by thinning the input image.

以下、上述の検定作業で実行される階調補正処理を、図4に示すフローチャートに基づいて詳述する。前記画像データ入力部1から入力され、前記画像データ記憶部2に格納された画像データは、読み込まれたコマ画像単位の順番にRGB点順次RAW形式またはRGB面順次RAW形式で前記画像処理メモリ7dに展開され(S1)、前記領域分割手段50aにより主要被写体領域が第一領域として検出され(S2)、それ以外の背景領域が第二領域として領域分割される(S3)。   Hereinafter, the tone correction processing executed in the above-described verification operation will be described in detail based on the flowchart shown in FIG. The image data input from the image data input unit 1 and stored in the image data storage unit 2 is the image processing memory 7d in the RGB dot sequential RAW format or the RGB plane sequential RAW format in the order of the read frame image unit. (S1), the area dividing means 50a detects the main subject area as the first area (S2), and the other background area is divided as the second area (S3).

前記第一領域として分割される主要被写体は、当該コマ画像に撮影されている人物、動物その他の中心要素であり、前記領域分割手段50aによる主要被写体検出アルゴリズムとしては、様々な公知のアルゴリズムを用いて実現することが可能である。例えば、主要被写体が人物であるときには、原画像から抽出された濃度エッジやカラーエッジに基づく輪郭が、顔領域の輪郭、目、鼻、口、耳等の配置パターンを教師信号として学習されたニューラルネットワークによって顔領域であるとパターン認識されたときに、その領域を前記第一領域として分割することができる。   The main subject divided as the first region is a person, animal or other central element captured in the frame image, and various known algorithms are used as the main subject detection algorithm by the region dividing means 50a. Can be realized. For example, when the main subject is a person, the outline based on the density edge and color edge extracted from the original image is learned by using the facial area outline, the arrangement pattern of eyes, nose, mouth, ears, etc. as a teacher signal. When a pattern is recognized as a face area by the network, the area can be divided as the first area.

また、原画像から人物の顔領域を検出し、検出された顔領域を含む領域を前記第一領域として分割することも可能で、顔領域を検出するために、肌の色や唇の色を抽出して人物を抽出する色検出方法、肌色領域の輪郭形状を検出するパターン認識方法、その他、様々な公知の手法を用いることができる。例えば、各画素のBGR値から、明度、色相、彩度、色度、(B−R)、(G−R)といった色の特徴量を求め、これらの色の特徴量が予め定めた範囲内に入っていれば、対象画素が肌色であると判定し、肌色と判定された画素から成る画像に対してエッジ抽出を行ない、予め設定されたサイズ、長軸/短軸(la/lb)の比率の異なる複数の楕円あるいは円形の顔テンプレート(顔テンプレートは、楕円ないしは円の輪郭か否かで2値化されている)と、抽出されたエッジ画像のマッチング度を求め、マッチング度が予め定めた閾値以上であるときに顔候補領域であると判定し、その領域を包含する最小面積の矩形領域としてその一対の対角座標P1,P2を出力する特開平08−63597号公報に開示されるような手法を利用することも可能である。   It is also possible to detect a human face area from the original image and divide the area including the detected face area as the first area. In order to detect the face area, the skin color and the lip color are set. Various known methods such as a color detection method for extracting and extracting a person, a pattern recognition method for detecting a contour shape of a skin color region, and the like can be used. For example, color feature values such as brightness, hue, saturation, chromaticity, (BR), and (GR) are obtained from the BGR value of each pixel, and the feature values of these colors are within a predetermined range. If it is, the target pixel is determined to be a skin color, edge extraction is performed on an image composed of pixels determined to be a skin color, and a predetermined size and a long axis / short axis (la / lb) are set. The degree of matching between a plurality of ellipse or circular face templates with different ratios (the face template is binarized depending on whether it is an ellipse or a contour of a circle) and the extracted edge image is determined in advance. Disclosed in Japanese Patent Application Laid-Open No. 08-63597 that determines that the face candidate area is equal to or greater than the threshold value and outputs the pair of diagonal coordinates P1 and P2 as a rectangular area having the minimum area including the area. Such as It is also possible.

さらに、原画像の画素データの相関関係に基づいて領域分割することも可能である。例えば、原画像を複数の小領域に分割して分割小領域毎にヒストグラムを生成し、互いのヒストグラムが類似する領域を相関の強い領域、互いのヒストグラムが著しく異なる領域を相関の弱い領域として認識し、相関の強い領域を相関の弱い領域と分離することも可能である。   Further, it is possible to divide the region based on the correlation of the pixel data of the original image. For example, the original image is divided into a plurality of small areas and a histogram is generated for each divided small area. Areas with similar histograms are recognized as highly correlated areas and areas with significantly different histograms are recognized as weakly correlated areas. It is also possible to separate a strongly correlated region from a weakly correlated region.

さらにまた、図5(a)に示すように、前記モニタ3に表示された原画像データから顔領域を包含する最小面積の矩形領域の対角座標P1,P2をマウス等のポインティングデバイスで指定することにより当該矩形領域を第一領域として他の領域と分割処理するものであってもよい。   Furthermore, as shown in FIG. 5A, the diagonal coordinates P1, P2 of the rectangular area having the minimum area including the face area are designated by the pointing device such as a mouse from the original image data displayed on the monitor 3. Thus, the rectangular area may be divided into other areas as the first area.

このようにして、前記領域分割手段50aにより、図5(b)に示すように、原画像から第一領域と第二領域との境界データが生成され、または、第一領域と第二領域とが前記画像処理メモリ7dの異なるレイヤに分離して格納される(S3)。   In this way, the area dividing means 50a generates boundary data between the first area and the second area from the original image, as shown in FIG. 5B, or the first area and the second area. Are stored separately in different layers of the image processing memory 7d (S3).

前記領域情報生成手段50cは、前記第一領域及び第二領域夫々の画像特性を示す領域情報、例えば、領域毎の平均濃度、領域毎の最大及び最小濃度、領域毎の濃度ヒストグラム等を演算導出する(S4,S5)。これらは、RGB成分等各色に算出することも可能であるし、RGBデータから輝度データに変換して算出することも可能である。   The area information generating unit 50c calculates and derives area information indicating image characteristics of the first area and the second area, for example, average density for each area, maximum and minimum density for each area, density histogram for each area, and the like. (S4, S5). These can be calculated for each color such as RGB components, or can be calculated by converting RGB data into luminance data.

次に、前記主要被写体を含む第一領域と、背景の第二画像領域のそれぞれに対応した適切なLUTが前記LUT記憶手段50eに存在しているか否かを判断し(S6)、適切なLUTが格納されている場合には、前記LUT選択手段50dにより夫々の領域に対応したLUTが選択される(S7、S8)。ここで、それぞれの領域に対応したLUTデータは、前記領域情報生成手段50bにより得られた各領域の領域情報に基づいて選択される。例えば、最大及び最小濃度範囲が狭い領域であれば階調範囲が広くなるようなLUTが選択されるというように、変換後の階調性が適切な範囲に移行するようなLUTが選択されるのである。最適なLUTは、各領域の平均濃度、各領域の最大濃度及び最小濃度、各領域の濃度ヒストグラム等の画像特性のうちの単一またはそれらの組合せの画像特性に基づいて選択される。   Next, it is determined whether or not an appropriate LUT corresponding to each of the first area including the main subject and the second background image area exists in the LUT storage means 50e (S6), and an appropriate LUT is determined. Is stored, the LUT selection means 50d selects the LUT corresponding to each area (S7, S8). Here, the LUT data corresponding to each area is selected based on the area information of each area obtained by the area information generating means 50b. For example, if the maximum and minimum density ranges are narrow, the LUT is selected so that the gradation range is widened, such that the gradation range is widened. It is. The optimum LUT is selected based on the image characteristics of a single or a combination of image characteristics such as the average density of each area, the maximum density and minimum density of each area, and the density histogram of each area.

特殊な領域情報を示す画像領域であって、前記LUT記憶手段50eに適切なLUTが格納されていない場合や、予め複数のLUTが前記LUTデータ記憶手段50eに格納されていないときには(S6)、前記領域特性に基づいて前記LUTデータ生成手段50fによりLUTが生成される(S9、S10)。このとき作成されたLUTデータは、対応する領域情報とともにLUTデータ記憶手段50fに逐一格納しておくことにより、再度、同様な画像を補正処理するときに、有効に再利用できるようになる。   When the image area indicates special area information and an appropriate LUT is not stored in the LUT storage unit 50e, or when a plurality of LUTs are not stored in the LUT data storage unit 50e in advance (S6), An LUT is generated by the LUT data generation means 50f based on the region characteristics (S9, S10). The LUT data created at this time is stored one by one in the LUT data storage unit 50f together with the corresponding area information, so that it can be effectively reused when a similar image is corrected again.

前記LUTデータ生成手段50fは、新たなLUTデータを前記領域特性のうちの濃度ヒストグラムに基づいて好ましい階調性が表現されるように生成される。前記濃度ヒストグラムは、個々の画素データの積み上げであるため、それぞれの領域における画像情報を最も多く含む領域情報であるため、目標とする階調性を実現することが容易となるためである。但し、これに限定されるものではなく、前述した各領域の平均濃度、各領域の最大濃度及び最小濃度等の指標に基づいて作成されるものであってもよい。   The LUT data generation unit 50f generates new LUT data so that a preferable gradation is expressed based on a density histogram of the region characteristics. This is because the density histogram is an accumulation of individual pixel data, and is area information including the most image information in each area, so that it is easy to achieve the target gradation. However, the present invention is not limited to this, and it may be created based on the above-mentioned indexes such as the average density of each area, the maximum density and the minimum density of each area.

尚、前記領域特性の一つである濃度ヒストグラムは分割された領域を構成する画素データに基づいて濃度(階調)とその濃度を示す画素数(度数)との関係を表したものであるため、分割された画像領域毎に最適なLUTデータを生成することは困難である。また、補正処理の都度LUTデータを新規に生成することは、LUT処理の元来有する補正処理の高速化を妨げる一因となり得る。このため、前記LUT記憶手段50eには、複数の代表的なリファレンス濃度ヒストグラムに対応するLUTデータを予め格納しておき、前記LUT選択手段50dにより、リファレンス濃度ヒストグラムに実際の濃度ヒストグラムを重ね合わせ、最も近似するリファレンス濃度ヒストグラムに相当するLUTデータを選択するように構成することが好ましい。   The density histogram, which is one of the area characteristics, represents the relationship between the density (gradation) and the number of pixels (frequency) indicating the density based on the pixel data constituting the divided area. It is difficult to generate optimal LUT data for each divided image area. In addition, newly generating LUT data for each correction process may be a factor that hinders the speedup of the correction process inherent in the LUT process. For this reason, LUT data corresponding to a plurality of typical reference density histograms is stored in advance in the LUT storage means 50e, and the actual density histogram is superimposed on the reference density histogram by the LUT selection means 50d. It is preferable that the LUT data corresponding to the closest reference density histogram is selected.

前記LUT処理手段50dは、前記LUT選択手段50dにより選択され、または前記LUTデータ生成手段50fにより生成された最適なLUTデータに基づいて、前記領域分割手段50aによって生成された境界データで区画された領域またはレイヤに分離格納された領域毎に変換処理を実行することにより階調変換処理を実行する(S11、S12)。このようにして変換された画像の濃度ヒストグラムの例が図5(c)に示される。   The LUT processing unit 50d is partitioned by the boundary data generated by the region dividing unit 50a based on the optimum LUT data selected by the LUT selection unit 50d or generated by the LUT data generation unit 50f. The gradation conversion process is executed by executing the conversion process for each area separately stored in the area or layer (S11, S12). An example of the density histogram of the image thus converted is shown in FIG.

前記LUT処理手段50dにより変換処理された画像は前記画像処理メモリ7dの同一レイヤに展開され(S13)、前記スムージング処理手段50gによって境界領域が滑らかに表されるようにスムージング処理される(S14)。このとき、主要被写体の境界部位の階調性が損なわれることの無いように、前記第一領域と前記第二領域の境界画素群のうち、背景領域である前記第二領域側の境界画素群に対して前記第一領域の境界と滑らかに、つまり、緩やかな階調勾配となるように変換処理される。   The image converted by the LUT processing unit 50d is developed on the same layer of the image processing memory 7d (S13), and smoothed by the smoothing processing unit 50g so that the boundary region is smoothly expressed (S14). . At this time, the boundary pixel group on the second area side which is the background area among the boundary pixel groups of the first area and the second area so that the gradation of the boundary part of the main subject is not impaired. On the other hand, conversion processing is performed smoothly with the boundary of the first region, that is, with a gentle gradation gradient.

前記階調補正処理手段50によって階調補正処理された画像は、次に前記鮮鋭化処理手段52により鮮鋭化処理される。鮮鋭化処理は、例えば、ラプラシアンフィルタ処理により粒状ノイズ等のざらつきが目立つ領域を選択的に抽出して平滑化すること等により行なわれる。   The image subjected to the gradation correction processing by the gradation correction processing means 50 is then sharpened by the sharpening processing means 52. The sharpening process is performed, for example, by selectively extracting and smoothing a region where graininess or the like is conspicuous by Laplacian filter processing.

また、カラー補正手段51によりカラー補正が行なわれる。カラー補正処理としては、例えば、平均的な戸外の被写体は、ネガ全体の色を混ぜ合わせると灰色に近くなるというエバンスの説に基づいて、色に偏りが見られる場合は、ネガフィルムを透過したRGBの積算光が印画紙上でグレーに再現されるようにRGBの各露光量を調節するための処理で、入力された画像データの平均値を各画素のRGB毎に演算導出し、RGB各平均値がそれぞれグレーに対応する所定の値となるように調整する処理である。   Further, color correction is performed by the color correction means 51. As color correction processing, for example, based on Evans's theory that an average outdoor subject becomes close to gray when the color of the entire negative is mixed, it passes through the negative film when there is a bias in color. In the process to adjust each RGB exposure amount so that the RGB integrated light is reproduced in gray on the photographic paper, the average value of the input image data is calculated and derived for each RGB of each pixel, and each RGB average This is a process of adjusting the values so as to become predetermined values corresponding to gray.

このような検定作業時になされた補正条件が記憶され、本スキャン時に得られる高解像度画像に対して当該補正条件に基づいた補正処理が実行され、画像処理後のデータが前記プリントデータ変換部7eでプリントデータに変換されて出力される。   The correction conditions made during such verification work are stored, correction processing based on the correction conditions is executed on the high-resolution image obtained during the main scan, and the data after image processing is processed by the print data converter 7e. It is converted into print data and output.

以下、別実施形態を説明する。上述の実施形態では、主要被写体を含む第一領域が1つである場合について説明を行なったが、主要被写体が複数あり、第一領域が複数分割されてもよく、夫々について最適なLUTデータが選択され、または生成されるように構成してもよい。   Hereinafter, another embodiment will be described. In the above-described embodiment, the case where there is one first region including the main subject has been described. However, there may be a plurality of main subjects, and the first region may be divided into a plurality of portions. It may be configured to be selected or generated.

原画像の画素データの相関関係に基づいて領域分割する場合には、図6(a)に示すように、例えば、原画像を複数の小領域に分割して分割小領域毎にヒストグラムを生成し、互いのヒストグラムが類似する領域を相関の強い領域、互いのヒストグラムが著しく異なる領域を相関の弱い領域として認識し、相関の強い領域を相関の弱い領域と分離することも可能である。この場合のLUT処理の結果が図6(b)に示される。   When the region is divided based on the correlation of the pixel data of the original image, as shown in FIG. 6A, for example, the original image is divided into a plurality of small regions and a histogram is generated for each divided small region. It is also possible to recognize a region where the histograms are similar to each other as a strongly correlated region, a region where the histograms are significantly different from each other as a weakly correlated region, and separate a strongly correlated region from a weakly correlated region. The result of the LUT process in this case is shown in FIG.

写真画像処理装置の外観説明図External view of photographic image processing device 画像データ処理部の機能ブロック構成図Functional block diagram of the image data processing unit 画像処理部の機能ブロック構成図Functional block diagram of the image processing unit LUT処理手順を示すフローチャートFlow chart showing the LUT processing procedure LUT処理手順を示す説明図であり、(a)は原画像から主要被写体が検出されたもの、(b)は被写体画像データと背景画像データを分割したもの、(c)は被写体画像データと背景画像データ濃度ヒストグラムであり、LUT処理前後の説明図、(d)はLUT処理された被写体画像データと背景画像データを合成したものIt is explanatory drawing which shows a LUT process sequence, (a) is what the main subject was detected from the original image, (b) is what divided subject image data and background image data, (c) is subject image data and background It is an image data density histogram, and is an explanatory view before and after the LUT processing. FIG. 9D is a composite of the subject image data and background image data subjected to the LUT processing. 別実施形態における濃度ヒストグラムの説明図であり、(a)は小領域に分割された原画像の濃度ヒストグラムの説明図、(b)は、分割した濃度ヒストグラムのLUT処理前後の説明図FIG. 10 is an explanatory diagram of a density histogram in another embodiment, (a) is an explanatory diagram of a density histogram of an original image divided into small areas, and (b) is an explanatory diagram before and after LUT processing of the divided density histogram.

符号の説明Explanation of symbols

1:画像データ入力部
1a:フィルムスキャナ
1b:メディアドライバ
2:画像データ記憶部
3:モニタ
4:操作入力部
5:画像処理部
6:写真プリンタ
7:システムコントローラ
50:階調補正処理手段
50a:分割手段
50b:領域情報生成手段
50c:LUT処理手段
50d:LUTデータ選択手段
50e:LUTデータ記憶手段
50f:LUTデータ生成手段
50g:スムージング処理手段
51:カラー補正手段
52:鮮鋭化処理手段
1: Image data input unit 1a: Film scanner 1b: Media driver 2: Image data storage unit 3: Monitor 4: Operation input unit 5: Image processing unit 6: Photo printer 7: System controller 50: Tone correction processing means 50a: Division means 50b: area information generation means 50c: LUT processing means 50d: LUT data selection means 50e: LUT data storage means 50f: LUT data generation means 50g: smoothing processing means 51: color correction means 52: sharpening processing means

Claims (13)

入力された原画像を補正処理して出力画像を生成する写真画像処理方法であって、前記原画像を主要被写体を含む第一領域とそれ以外の第二領域に領域分割する領域分割工程と、前記第一領域と前記第二領域に夫々異なるLUTを用いて補正処理を行なうLUT処理工程とを備えてなる写真画像処理方法。   A photographic image processing method for generating an output image by correcting an input original image, wherein the original image is divided into a first region including a main subject and a second region other than that, A photographic image processing method comprising: an LUT processing step of performing correction processing using different LUTs for the first area and the second area, respectively. 前記LUT処理工程は、各分割領域の画像特性に対応するLUTに基づいて補正処理する請求項1に記載の写真画像処理方法。   The photographic image processing method according to claim 1, wherein in the LUT processing step, correction processing is performed based on an LUT corresponding to an image characteristic of each divided region. 前記LUTは、予め設定されている複数のLUTから選択されるものである請求項1または2に記載の写真画像処理方法。   The photographic image processing method according to claim 1, wherein the LUT is selected from a plurality of preset LUTs. 前記LUTは、各分割領域の画像特性に基づいて生成されるものである請求項1または2に記載の写真画像処理方法。   The photographic image processing method according to claim 1, wherein the LUT is generated based on image characteristics of each divided region. 前記領域分割工程は、原画像の画素データの相関関係に基づいて領域分割する請求項1から4の何れかに記載の写真画像処理方法。   5. The photographic image processing method according to claim 1, wherein the region dividing step divides the region based on a correlation of pixel data of an original image. 前記領域分割工程は、原画像からニューラルネットワークを利用したパターン認識により検出された領域を前記第一領域として分割する請求項1から4の何れかに記載の写真画像処理方法。   5. The photographic image processing method according to claim 1, wherein the area dividing step divides an area detected from an original image by pattern recognition using a neural network as the first area. 前記領域分割工程は、原画像から人物の顔領域を検出し、検出された顔領域を含む領域を前記第一領域として分割する請求項1から4の何れかに記載の写真画像処理方法。   5. The photographic image processing method according to claim 1, wherein in the region dividing step, a human face region is detected from an original image, and a region including the detected face region is divided as the first region. 前記LUT処理工程の後に、前記第一領域及び前記第二領域の境界領域にスムージング処理を行なうスムージング処理工程を備える請求項1から7の何れかに記載の写真画像処理方法。   The photographic image processing method according to any one of claims 1 to 7, further comprising a smoothing processing step of performing a smoothing processing on a boundary region between the first region and the second region after the LUT processing step. 入力された原画像を補正処理して出力画像を生成する写真画像処理装置であって、前記原画像を主要被写体を含む第一領域とそれ以外の第二領域に領域分割する領域分割手段と、前記第一領域と前記第二領域に夫々異なるLUTを用いて補正処理を行なうLUT処理手段とを備えてなる写真画像処理装置。   A photographic image processing apparatus that corrects an input original image to generate an output image, an area dividing unit that divides the original image into a first area including a main subject and a second area other than the first area; A photographic image processing apparatus comprising LUT processing means for performing correction processing using different LUTs for the first area and the second area, respectively. 前記LUT処理手段は、各分割領域の画像特性に対応するLUTに基づいて補正処理する請求項9に記載の写真画像処理装置。   The photographic image processing apparatus according to claim 9, wherein the LUT processing unit performs correction processing based on an LUT corresponding to an image characteristic of each divided region. 前記領域分割手段は、原画像からニューラルネットワークを利用したパターン認識により検出された領域を前記第一領域として分割する請求項9または10に記載の写真画像処理装置。   The photographic image processing apparatus according to claim 9 or 10, wherein the area dividing unit divides an area detected from an original image by pattern recognition using a neural network as the first area. 前記領域分割手段は、原画像から人物の顔領域を検出し、検出された顔領域を含む領域を前記第一領域として分割する請求項9または10に記載の写真画像処理装置。   The photographic image processing apparatus according to claim 9 or 10, wherein the area dividing unit detects a human face area from an original image, and divides an area including the detected face area as the first area. 前記LUT処理手段により処理された画像のうち、前記第一領域及び前記第二領域の境界領域にスムージング処理を行なうスムージング処理手段を備える請求項9から12の何れかに記載の写真画像処理装置。   The photographic image processing apparatus according to claim 9, further comprising a smoothing processing unit configured to perform a smoothing process on a boundary region between the first region and the second region among images processed by the LUT processing unit.
JP2004337037A 2004-11-22 2004-11-22 Method and apparatus for processing photographic image Pending JP2006146646A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004337037A JP2006146646A (en) 2004-11-22 2004-11-22 Method and apparatus for processing photographic image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004337037A JP2006146646A (en) 2004-11-22 2004-11-22 Method and apparatus for processing photographic image

Publications (1)

Publication Number Publication Date
JP2006146646A true JP2006146646A (en) 2006-06-08

Family

ID=36626241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004337037A Pending JP2006146646A (en) 2004-11-22 2004-11-22 Method and apparatus for processing photographic image

Country Status (1)

Country Link
JP (1) JP2006146646A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008052566A (en) * 2006-08-25 2008-03-06 Canon Inc Image processor and image processing method
JP2011095861A (en) * 2009-10-27 2011-05-12 Canon Inc Image processing apparatus, control method and program
KR101248858B1 (en) 2009-05-28 2013-03-29 캐논 가부시끼가이샤 Image processing apparatus and image processing method
WO2017104190A1 (en) * 2015-12-14 2017-06-22 オリンパス株式会社 Endoscope system
JP2019197986A (en) * 2018-05-09 2019-11-14 凸版印刷株式会社 Image processing method, image processing apparatus, and printing system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01284981A (en) * 1988-05-11 1989-11-16 Sharp Corp Picture element data converting device
JPH1191169A (en) * 1997-09-19 1999-04-06 Fuji Photo Film Co Ltd Image processing apparatus
JPH11114258A (en) * 1997-10-14 1999-04-27 Brother Ind Ltd Embroidery data processing apparatus and recording medium
JPH11328420A (en) * 1998-05-19 1999-11-30 Haruyuki Iwata Image area specifying method
JP2001113754A (en) * 1999-10-15 2001-04-24 Riso Kagaku Corp Apparatus and method for processing image
JP2001171182A (en) * 1999-12-22 2001-06-26 Seiko Epson Corp Printing control apparatus, printing apparatus, printing method, data conversion method, and recording medium
JP2003216946A (en) * 2002-01-28 2003-07-31 Canon Inc Image processor, image processing method, program therefor and recording medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01284981A (en) * 1988-05-11 1989-11-16 Sharp Corp Picture element data converting device
JPH1191169A (en) * 1997-09-19 1999-04-06 Fuji Photo Film Co Ltd Image processing apparatus
JPH11114258A (en) * 1997-10-14 1999-04-27 Brother Ind Ltd Embroidery data processing apparatus and recording medium
JPH11328420A (en) * 1998-05-19 1999-11-30 Haruyuki Iwata Image area specifying method
JP2001113754A (en) * 1999-10-15 2001-04-24 Riso Kagaku Corp Apparatus and method for processing image
JP2001171182A (en) * 1999-12-22 2001-06-26 Seiko Epson Corp Printing control apparatus, printing apparatus, printing method, data conversion method, and recording medium
JP2003216946A (en) * 2002-01-28 2003-07-31 Canon Inc Image processor, image processing method, program therefor and recording medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008052566A (en) * 2006-08-25 2008-03-06 Canon Inc Image processor and image processing method
KR101248858B1 (en) 2009-05-28 2013-03-29 캐논 가부시끼가이샤 Image processing apparatus and image processing method
JP2011095861A (en) * 2009-10-27 2011-05-12 Canon Inc Image processing apparatus, control method and program
WO2017104190A1 (en) * 2015-12-14 2017-06-22 オリンパス株式会社 Endoscope system
JP2019197986A (en) * 2018-05-09 2019-11-14 凸版印刷株式会社 Image processing method, image processing apparatus, and printing system
JP7047583B2 (en) 2018-05-09 2022-04-05 凸版印刷株式会社 Image processing method, image processing device and printing system

Similar Documents

Publication Publication Date Title
US20050286793A1 (en) Photographic image processing method and equipment
US7289664B2 (en) Method of detecting and correcting the red eye
US7173732B2 (en) Image processing method
JP2005310068A (en) Method for correcting white of eye, and device for executing the method
JP2009060385A (en) Image processor, image processing method, and image processing program
JP2001148780A (en) Method for setting red-eye correction area and red-eye correction method
US20030072501A1 (en) Image processing apparatus
JP3733873B2 (en) Photo image processing apparatus, method, and photo processing apparatus
JP4496465B2 (en) Red-eye correction method, program, and apparatus for implementing the method
JP2005141477A (en) Image sharpening process and image processor implementing this process
JP4655210B2 (en) Density correction curve generation method and density correction curve generation module
JP2007249802A (en) Image processor and image processing method
JP2006146646A (en) Method and apparatus for processing photographic image
JP4482307B2 (en) Image processing device
JP4049986B2 (en) Output image area adjustment method
JP2005159387A (en) Method of determining density characteristic curve and density correction management apparatus for executing this method
JP2001155174A (en) Method and device for image processing
JP2007200069A (en) Photographic image processing method and device thereof
JP4496856B2 (en) Photographic image processing method and apparatus
JP4655211B2 (en) Generation method, generation program and generation module of correction characteristics used for contrast correction
JP4284604B2 (en) Contrast adjustment method and contrast adjustment apparatus for implementing the method
JP2005148916A (en) Face selection method for density correction and apparatus for implementing the method
JP2007201655A (en) Image processing apparatus
JP3895495B2 (en) Image processing apparatus, image processing method, and photo processing apparatus
JP2006011618A (en) Photographic image processing method and its device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100406

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100817