JP2017111595A - Image processing device, image processing method, image processing program and image processing system - Google Patents
Image processing device, image processing method, image processing program and image processing system Download PDFInfo
- Publication number
- JP2017111595A JP2017111595A JP2015244938A JP2015244938A JP2017111595A JP 2017111595 A JP2017111595 A JP 2017111595A JP 2015244938 A JP2015244938 A JP 2015244938A JP 2015244938 A JP2015244938 A JP 2015244938A JP 2017111595 A JP2017111595 A JP 2017111595A
- Authority
- JP
- Japan
- Prior art keywords
- image
- guide
- image processing
- input image
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 4
- 238000012545 processing Methods 0.000 title claims description 68
- 230000009467 reduction Effects 0.000 claims abstract description 31
- 238000009499 grossing Methods 0.000 claims abstract description 29
- 230000002146 bilateral effect Effects 0.000 claims description 6
- 206010000496 acne Diseases 0.000 abstract description 9
- 206010014970 Ephelides Diseases 0.000 abstract description 6
- 208000003351 Melanosis Diseases 0.000 abstract description 6
- 230000037303 wrinkles Effects 0.000 abstract description 6
- 206010040954 Skin wrinkling Diseases 0.000 abstract description 5
- 239000002932 luster Substances 0.000 abstract description 2
- 230000010365 information processing Effects 0.000 abstract 2
- 238000004321 preservation Methods 0.000 abstract 1
- 238000000034 method Methods 0.000 description 31
- 230000008569 process Effects 0.000 description 22
- 210000000056 organ Anatomy 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 238000001514 detection method Methods 0.000 description 11
- 238000005457 optimization Methods 0.000 description 10
- 208000002874 Acne Vulgaris Diseases 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 239000000203 mixture Substances 0.000 description 3
- 230000000717 retained effect Effects 0.000 description 3
- XUMBMVFBXHLACL-UHFFFAOYSA-N Melanin Chemical compound O=C1C(=O)C(C2=CNC3=C(C(C(=O)C4=C32)=O)C)=C2C4=CNC2=C1C XUMBMVFBXHLACL-UHFFFAOYSA-N 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000037311 normal skin Effects 0.000 description 2
- 239000000049 pigment Substances 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 102000001554 Hemoglobins Human genes 0.000 description 1
- 108010054147 Hemoglobins Proteins 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000000149 argon plasma sintering Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036548 skin texture Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システムに関する。 The present invention relates to an image processing apparatus, an image processing method, an image processing program, and an image processing system.
従来、人物を含む画像に対してシミ・ソバカス・シワ・ニキビ等の肌ノイズを除去する美肌処理を行い、画像中の人物の肌を美しく表現するための様々な提案がなされている。 Conventionally, various proposals have been made to beautifully express a person's skin in an image by performing skin-beautifying processing for removing skin noise such as spots, freckles, wrinkles, and acne on an image including a person.
例えば、ポインティングデバイスによってシミやそばかす、ニキビ等の位置を指定し、その指定された位置を周辺画素で置換することで肌ノイズの除去を行う手法が提案されている(例えば、特許文献1等を参照)。 For example, a method has been proposed in which skin noise is removed by designating a position such as a spot, freckles, or acne using a pointing device, and replacing the designated position with surrounding pixels (see, for example, Patent Document 1). reference).
また、事前に肌ノイズのない顔肌画像から統計モデルを構築し、構築した統計モデルに基づいて肌ノイズを除去する手法が提案されている(例えば、特許文献2等を参照)。 In addition, a method has been proposed in which a statistical model is constructed in advance from a facial skin image without skin noise, and skin noise is removed based on the constructed statistical model (see, for example, Patent Document 2).
また、信号波形に重畳された小振幅の高周波雑音成分の分離・除去するε−フィルタを応用して、輪郭等の勾配の大きいエッジは保持しつつ、シワやシミなど小振幅の勾配を平滑化する手法が提案されている(例えば、特許文献3等を参照)。 In addition, by applying an ε-filter that separates and removes high-frequency noise components with small amplitude superimposed on the signal waveform, smoothing small-gradient gradients such as wrinkles and spots while retaining edges with large gradients A technique has been proposed (see, for example, Patent Document 3).
また、顔検出サイズに応じて平滑化処理の強度を最適化することで、人物以外の領域を極力ぼかさず、肌ノイズを除去する手法が提案されている(例えば、特許文献4等を参照)。 In addition, a technique has been proposed in which skin noise is removed by optimizing the strength of the smoothing process according to the face detection size so as not to blur the area other than the person as much as possible (see, for example, Patent Document 4). .
しかしながら、特許文献1に記載の美肌処理は、手作業であり、手間がかかるという問題がある。 However, the skin beautification process described in Patent Document 1 is a manual operation and has a problem that it takes time and effort.
特許文献2に記載の美肌処理は、統計情報を利用することにより個人特有の微細凹凸を無視した平滑化処理が施され、違和感を生じさせるという問題がある。 The skin beautifying process described in Patent Document 2 has a problem that a smoothing process ignoring fine irregularities peculiar to individuals is performed by using statistical information, resulting in an uncomfortable feeling.
特許文献3、4に記載の美肌処理は、輪郭等のエッジは保持できるが、シミ等のノイズと一緒にキメ・ツヤ等の個人特有の微細凹凸も失われるという問題がある。 The skin beautification described in Patent Documents 3 and 4 can retain edges such as contours, but has a problem that fine irregularities peculiar to individuals such as texture and gloss are lost together with noise such as spots.
一方、特性の異なる2枚の画像を用いて被写体の質感を残しながらノイズを補正する参照型エッジ保存平滑化フィルタが提案されている(例えば、非特許文献1、2等を参照)。 On the other hand, a reference type edge preserving smoothing filter that corrects noise while leaving the texture of a subject using two images having different characteristics has been proposed (for example, see Non-Patent Documents 1 and 2).
非特許文献1では、ノイズを含んだ撮影画像と同一構図で撮影されたノイズの少ないフラッシュ画像を参照情報として用いることで、輪郭や微細凹凸を損なうことなく撮影画像のノイズを低減する手法が開示されている。しかし、この手法を適用するには、撮影画像と、構図が一致したもう1枚の画像とが必要であり、1ショットで実現するには特別な光学系を要したり、一般的なスナップ写真や動画に適用できないという問題がある。 Non-Patent Document 1 discloses a technique for reducing noise in a captured image without damaging the contours and fine irregularities by using, as reference information, a flash image with less noise captured with the same composition as the captured image including noise. Has been. However, in order to apply this method, a captured image and another image with the same composition are required, and a special optical system is required to achieve one shot, or a general snapshot And cannot be applied to videos.
この問題を解決するため、非特許文献2では、ノイズ画像を平滑化した画像をガイド画像として用いることで、1枚の画像から参照型エッジ保存平滑化フィルタを適用しノイズを低減する手法が提案されている。しかし、ガイド画像がすでに平滑化されているため、キメ・ツヤ等の個人特有の微細凹凸が失われるとともに、平滑化処理を反復するため処理時間がかかるという問題がある。 In order to solve this problem, Non-Patent Document 2 proposes a technique for reducing noise by applying a reference-type edge preserving smoothing filter from one image by using an image obtained by smoothing a noise image as a guide image. Has been. However, since the guide image has already been smoothed, there is a problem that fine irregularities peculiar to individuals such as texture and luster are lost and processing time is required because the smoothing process is repeated.
上述したように、従来における肌ノイズの除去のための手法には種々の問題があり、それらの解決が求められる。 As described above, there are various problems in the conventional method for removing skin noise, and solutions to these problems are required.
本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、1枚の画像から、手作業や熟練を要せず、個人特有のキメ・ツヤ等の微細凹凸を保持しながら人物画像のシミ・ソバカス・シワ・ニキビといった肌ノイズ等を自然に軽減し、好適な画像を1回の平滑化処理だけで生成することにある。 The present invention has been proposed in view of the above-described conventional problems, and its object is to make fine irregularities such as texture and gloss peculiar to an individual from one image without requiring manual work or skill. It is intended to naturally reduce skin noise such as stains, freckles, wrinkles, and acne in a human image while holding the image, and to generate a suitable image by only one smoothing process.
上記の課題を解決するため、本発明にあっては、入力画像からガイド画像を生成するガイド画像生成手段と、前記ガイド画像をもとに前記入力画像に参照型エッジ保存平滑化フィルタを適用し、処理画像を生成するノイズ低減手段とを備える。 In order to solve the above problems, in the present invention, a guide image generation unit that generates a guide image from an input image, and a reference-type edge-preserving smoothing filter is applied to the input image based on the guide image. And noise reduction means for generating a processed image.
本発明にあっては、1枚の画像から、手作業や熟練を要せず、個人特有のキメ・ツヤ等の微細凹凸を保持しながら人物画像のシミ・ソバカス・シワ・ニキビといった肌ノイズ等を自然に軽減し、好適な画像を1回の平滑化処理だけで生成することができる。 In the present invention, skin noise such as stains, freckles, wrinkles, acne, etc. of a person image is retained from a single image while maintaining fine irregularities such as texture and gloss peculiar to individuals without requiring manual work or skill. Can be reduced naturally, and a suitable image can be generated by a single smoothing process.
以下、本発明の好適な実施形態につき説明する。 Hereinafter, preferred embodiments of the present invention will be described.
<第1の実施形態>
図1は第1の実施形態にかかる画像処理装置1のハードウェア構成例を示す図である。図1において、画像処理装置1は、それぞれバスBを介して相互に接続された制御部11と主記憶部12と補助記憶部13と外部記憶装置I/F部14とネットワークI/F部15と表示部16と操作部17とを備えている。画像処理装置1は、例えばパーソナルコンピュータから構成される。
<First Embodiment>
FIG. 1 is a diagram illustrating a hardware configuration example of an image processing apparatus 1 according to the first embodiment. In FIG. 1, an image processing apparatus 1 includes a control unit 11, a main storage unit 12, an auxiliary storage unit 13, an external storage device I / F unit 14, and a network I / F unit 15 that are connected to each other via a bus B. And a display unit 16 and an operation unit 17. The image processing apparatus 1 is composed of, for example, a personal computer.
制御部11は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPU(Central Processing Unit)である。また、制御部11は、主記憶部12や補助記憶部13に記憶されたプログラムを実行する演算装置であり、入力装置や記憶装置からデータを受け取り、演算、加工した上で、出力装置や記憶装置等に出力する。 The control unit 11 is a CPU (Central Processing Unit) that performs control of each device, calculation of data, and processing in the computer. The control unit 11 is an arithmetic device that executes a program stored in the main storage unit 12 or the auxiliary storage unit 13. The control unit 11 receives data from the input device or the storage device, calculates, and processes the output device or the storage device. Output to the device.
主記憶部12は、例えばROM(Read Only Memory)やRAM(Random Access Memory)等であり、制御部11が実行する基本ソフトウェアであるOS(Operating System)やアプリケーションソフトウェア等のプログラムやデータを記憶または一時保存する記憶装置である。 The main storage unit 12 is, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), or the like, and stores programs or data such as an OS (Operating System) or application software that is basic software executed by the control unit 11 or This is a storage device for temporary storage.
補助記憶部13は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等であり、アプリケーションソフトウェア等に関連するデータを記憶する記憶装置である。 The auxiliary storage unit 13 is, for example, a hard disk drive (HDD) or a solid state drive (SSD), and is a storage device that stores data related to application software and the like.
外部記憶装置I/F部14は、例えばUSB(Universal Serial Bus)等のデータ伝送路を介して接続される例えばフラッシュメモリ等の記憶媒体18と画像処理装置1とのインターフェイスである。なお、記憶媒体18に格納されたプログラムは、外部記憶装置I/F部14を介してインストールされ、画像処理装置1により実行可能となる。 The external storage device I / F unit 14 is an interface between the image processing apparatus 1 and a storage medium 18 such as a flash memory connected via a data transmission path such as USB (Universal Serial Bus). The program stored in the storage medium 18 is installed via the external storage device I / F unit 14 and can be executed by the image processing apparatus 1.
ネットワークI/F部15は、有線および/または無線回線等のデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)等のネットワークを介して接続された通信機能を有する周辺機器と画像処理装置1とのインターフェイスである。 The network I / F unit 15 has a communication function connected via a network such as a LAN (Local Area Network) or a WAN (Wide Area Network) constructed by a data transmission path such as a wired and / or wireless line. This is an interface between the device and the image processing apparatus 1.
表示部16は、例えば、液晶や有機EL(Electro Luminescence)等のディスプレイであり、画像や操作用アイコン等を表示し、画像処理装置1が有する機能をユーザが利用する際に各種設定を行うユーザインターフェイスとして機能する装置である。 The display unit 16 is, for example, a display such as a liquid crystal or an organic EL (Electro Luminescence), displays an image, an operation icon, and the like, and performs various settings when the user uses the functions of the image processing apparatus 1. It is a device that functions as an interface.
操作部17は、例えばハードキーで構成されるキースイッチやマウス等である。また、操作部17は、表示部16の画面に重ねて設けられるタッチパネル等であってもよい。 The operation unit 17 is, for example, a key switch composed of hard keys or a mouse. Further, the operation unit 17 may be a touch panel or the like provided on the screen of the display unit 16.
図2は第1の実施形態にかかる画像処理装置1の機能構成例を示す図である。図2において、画像処理装置1は、ガイド画像生成部110とノイズ低減部120と過強調領域復元部130とを備えている。ガイド画像生成部110は、入力画像からガイド画像を生成する機能を有している。ノイズ低減部120は、ガイド画像生成部110により生成されたガイド画像をもとに、入力画像に参照型エッジ保存平滑化フィルタを適用し、処理画像を生成する機能を有している。過強調領域復元部130は、入力画像と処理画像の差分情報から、処理画像の過強調領域を復元し、出力画像を生成する機能を有している。ガイド画像生成部110とノイズ低減部120と過強調領域復元部130は、図1に示した制御部11が主記憶部12および補助記憶部13等に記憶されているプログラムを実行することで実現される機能である。 FIG. 2 is a diagram illustrating a functional configuration example of the image processing apparatus 1 according to the first embodiment. In FIG. 2, the image processing apparatus 1 includes a guide image generation unit 110, a noise reduction unit 120, and an overemphasized region restoration unit 130. The guide image generation unit 110 has a function of generating a guide image from an input image. The noise reduction unit 120 has a function of generating a processed image by applying a reference type edge preserving smoothing filter to an input image based on the guide image generated by the guide image generation unit 110. The overemphasized area restoration unit 130 has a function of restoring the overemphasized area of the processed image from the difference information between the input image and the processed image and generating an output image. The guide image generation unit 110, the noise reduction unit 120, and the overemphasized region restoration unit 130 are realized by the control unit 11 illustrated in FIG. 1 executing programs stored in the main storage unit 12, the auxiliary storage unit 13, and the like. Function.
図3は第1の実施形態における画像処理の例を示すフローチャートである。図3において、処理を開始すると、まず、ステップS11にて、ガイド画像生成部110は、画像中の肌領域が抽出された入力画像pから肌ノイズの少ないガイド画像Iを生成する。 FIG. 3 is a flowchart showing an example of image processing in the first embodiment. In FIG. 3, when the process is started, first, in step S11, the guide image generation unit 110 generates a guide image I with less skin noise from the input image p from which the skin region in the image is extracted.
続いて、ステップS12にて、ノイズ低減部120は、ガイド画像Iを参照画像として入力画像pに参照型エッジ保存平滑化フィルタを適用し、肌ノイズの少ない処理画像qを生成する。 Subsequently, in step S12, the noise reduction unit 120 applies the reference-type edge preserving smoothing filter to the input image p using the guide image I as a reference image, and generates a processed image q with less skin noise.
最後に、ステップS13にて、過強調領域復元部130は、入力画像pと処理画像qから、ステップS12のノイズ低減の処理により生じた過強調領域を特定し、処理画像qの過強調領域を復元した出力画像dを生成し、処理を終了する。 Finally, in step S13, the overemphasized region restoration unit 130 identifies the overemphasized region generated by the noise reduction processing in step S12 from the input image p and the processed image q, and determines the overemphasized region of the processed image q. The restored output image d is generated, and the process ends.
以下では、画像中の肌領域が抽出された入力画像から肌領域の修正を行う処理における各ステップの処理内容について、画像処理に使用するデータ等と併せて詳細に説明する。 Hereinafter, the processing contents of each step in the process of correcting the skin area from the input image from which the skin area in the image has been extracted will be described in detail together with data used for the image processing.
[ステップS11:ガイド画像生成]
画像処理装置1に、既存の肌領域抽出手法や物体検出手法を用いて画像中の肌領域が抽出された入力画像pが入力されると、ガイド画像生成部110は入力画像pから肌ノイズの少ないガイド画像Iを生成する。肌領域においては、長波長ほど光の直進性が高く、肌ノイズの少ない情報が記録されているため、ガイド画像Iの生成は、入力画像の最長波長のチャンネル値を抽出することで行うことができる。例えばRGB画像ならばRch(Redのチャンネル)の情報をそのまま抽出することで行うことができる。
[Step S11: Guide Image Generation]
When an input image p in which a skin region in an image is extracted using an existing skin region extraction method or an object detection method is input to the image processing apparatus 1, the guide image generation unit 110 detects skin noise from the input image p. A few guide images I are generated. In the skin region, the longer the wavelength, the higher the light straightness and the less skin noise information is recorded. Therefore, the guide image I can be generated by extracting the channel value of the longest wavelength of the input image. it can. For example, in the case of an RGB image, it can be performed by extracting Rch (Red channel) information as it is.
肌は半透明物体であり、肌内部では表面下散乱と呼ばれる複雑な光散乱が生じる。可視領域において光は長波長ほど直進性が高く、入射部の周囲に回り込みやすい。また、肌の色を左右するメラニン色素とヘモグロビン色素は、低〜中波長帯域の吸収が強く、結果として、画像のRchには光の回り込み作用によりシミやニキビといった肌ノイズが記録されにくい。そのため、ガイド画像Iとして用いることができる。なお、ガイド画像Iは入力画像pの情報を空間的に平滑化することがないため、キメ等の微細凹凸を保持することができる。 The skin is a translucent object, and complex light scattering called subsurface scattering occurs inside the skin. In the visible region, light has higher straightness as the wavelength is longer, and tends to go around the incident part. In addition, the melanin pigment and hemoglobin pigment that influence the skin color have strong absorption in the low to medium wavelength band, and as a result, skin noise such as spots and acne is hardly recorded on the Rch of the image due to the effect of light wrapping. Therefore, it can be used as the guide image I. In addition, since the guide image I does not spatially smooth the information of the input image p, fine unevenness such as texture can be maintained.
また、ガイド画像Iの生成は、例えば以下に示す式(1)により実施してもよい。 Further, the generation of the guide image I may be performed by the following formula (1), for example.
ここで、添え字のiは画像中の画素位置、添え字のcはマルチチャンネルの入力画像の各チャンネルを表し、例としてRGB画像ならば各画素におけるRch、Gch、Bchの最大値を取ることでガイド画像Iを生成する。肌領域において、ガイド画像Iは、主に長波長のRchの情報が反映されることになる。そのため、式(1)により、肌ノイズの少ないガイド画像Iを得ることができる。 Here, the subscript i represents the pixel position in the image, and the subscript c represents each channel of the multi-channel input image. For example, in the case of an RGB image, take the maximum value of Rch, Gch, and Bch in each pixel. A guide image I is generated. In the skin region, the guide image I mainly reflects information on long-wavelength Rch. Therefore, the guide image I with less skin noise can be obtained from the equation (1).
[ステップS12:ノイズ低減]
ガイド画像生成部110により入力画像pから肌ノイズの少ないガイド画像Iが生成されると、ノイズ低減部120は、ガイド画像Iを参照画像として、入力画像pに参照型エッジ保存平滑化フィルタを適用し、肌ノイズの少ない処理画像qを生成する。
[Step S12: Noise reduction]
When a guide image I with less skin noise is generated from the input image p by the guide image generation unit 110, the noise reduction unit 120 applies a reference type edge preserving smoothing filter to the input image p using the guide image I as a reference image. Then, a processed image q with less skin noise is generated.
本実施形態においては、参照型エッジ保存フィルタとして、Kaiming He, Jian Sun, and Xiaoou Tang.: Guided Image Filtering, IEEE TPAMI, Vol.35, No.6, pp.1397-1409 (2013)に開示される、ガイデッドフィルタを用いた例を説明する。 In this embodiment, the reference type edge preserving filter is disclosed in Kaiming He, Jian Sun, and Xiaoou Tang .: Guided Image Filtering, IEEE TPAMI, Vol.35, No.6, pp.1397-1409 (2013). An example using a guided filter will be described.
ガイデッドフィルタは、入力画像pの肌ノイズの少ない処理画像qがガイド画像Iの線形変換であると仮定したフィルタであり、例えば以下の式(2)で表される。 The guided filter is a filter that assumes that the processed image q with less skin noise of the input image p is a linear transformation of the guide image I, and is represented by the following equation (2), for example.
ここで、ωは画素iにおける画素iとその周囲の画素を表すカーネルであり、|ω|はカーネル内の画素数を表す。a、bは係数であり、上に横線を引いたa、bはそれらの平均である。 Here, ω is a kernel representing the pixel i in the pixel i and surrounding pixels, and | ω | represents the number of pixels in the kernel. a and b are coefficients, and a and b with a horizontal line on them are their averages.
a、bは、それぞれ式(3)、式(4)で表される。なお、ωは規定の形状・大きさに設定される。 a and b are represented by Formula (3) and Formula (4), respectively. Note that ω is set to a prescribed shape and size.
ここで、上に横線を引いたpはカーネルω内における入力画像pの画素値の平均、μおよびσはカーネルω内のガイド画像Iの画素値の平均および分散である。εはaの制御パラメータであり、規定値に設定される。 Here, p with a horizontal line drawn thereon is the average of the pixel values of the input image p in the kernel ω, and μ and σ are the average and variance of the pixel values of the guide image I in the kernel ω. ε is a control parameter of a and is set to a specified value.
本実施形態においては、肌ノイズの少ないガイド画像Iで入力画像pの各チャンネルをフィルタリングする。ガイデッドフィルタは、式(2)〜(4)に示したように、肌ノイズを含む入力画像pの勾配の代わりに、肌ノイズの少ないガイド画像Iの勾配を転写したものと捉えることができる。つまり、肌領域においては、入力画像pの明るさと整合性が取れた肌ノイズの少ない処理画像qを生成することができる。 In this embodiment, each channel of the input image p is filtered with the guide image I with less skin noise. As shown in the equations (2) to (4), the guided filter can be regarded as a transfer of the gradient of the guide image I with less skin noise instead of the gradient of the input image p including skin noise. That is, in the skin region, it is possible to generate a processed image q with less skin noise that is consistent with the brightness of the input image p.
図4(a)は、入力される肌領域(入力画像p)の一部の例を示しており、小鼻から頬にかけた部分を示している。以下の説明では、図4(b)に示すように、肌領域100の特定のシミ101と、シミ101を横断する破線部102の画素値分布に着目して、ノイズ低減の効果を説明する。 FIG. 4A shows an example of a part of an input skin region (input image p), and shows a portion from the nose to the cheek. In the following description, as shown in FIG. 4B, the effect of noise reduction will be described by paying attention to a specific spot 101 of the skin region 100 and a pixel value distribution of a broken line portion 102 that crosses the spot 101.
図5は、入力画像p、ガイド画像I、処理画像qの各画像における、図4(b)に示した破線部102の画素値分布を例示したものであり、画素値としてカラー画像の各チャンネルの値をグレー化したもの(例えば、RGBの場合、GRAY=0.299*R+0.587*G+0.114*B)を用いている。ガイド画像Iの画素値のレベルが他と異なるのは、ガイド画像Iが主に肌部でいちばん画素値の大きいRチャンネルの情報で構成されているからである。 FIG. 5 exemplifies the pixel value distribution of the broken line portion 102 shown in FIG. 4B in each of the input image p, the guide image I, and the processed image q, and each channel of the color image as a pixel value. (For example, in the case of RGB, GRAY = 0.299 * R + 0.587 * G + 0.114 * B) is used. The reason why the level of the pixel value of the guide image I is different from the other is that the guide image I is mainly composed of R channel information having the largest pixel value in the skin.
図5において、斜線で示す領域103が図4(b)のシミ101に該当する領域であり、入力画像pには急峻な勾配としてシミが記録されていることがわかる。一方、ガイド画像Iにおいて、領域103におけるシミは光の回りこみ作用により入力画像pより勾配が緩やかになっており、このガイド画像Iの勾配を転写した処理画像qは結果として入力画像pにおける急峻な勾配が軽減され、シミが除去される。 In FIG. 5, a hatched area 103 corresponds to the spot 101 in FIG. 4B, and it can be seen that the input image p is recorded with a steep gradient. On the other hand, in the guide image I, the stain in the region 103 has a gentler gradient than the input image p due to the light sneaking action, and the processed image q to which the gradient of the guide image I is transferred results in the steepness in the input image p. Smooth slopes and stains are removed.
一方、図5中、波線で示す領域104は図4の左側にある小鼻の輪郭であり、ガイド画像Iにおいて勾配が大きいため、処理画像qにおいても輪郭が保持される。さらに、ガイド画像Iはイメージセンサ(カメラ)で記録されたチャンネル情報を平滑化することなくそのまま利用するため、図5中、網点で示す領域105における本人の肌質感を示す微細凹凸も保持される。結果として、入力画像pのRchの値またはチャンネル最大値を取るガイド画像Iを参照画像として、式(2)〜(4)に示すガイデッドフィルタを入力画像pに適用することで、輪郭や微細凹凸を保持しつつ、シミ等の肌ノイズだけを除去した処理画像qを得ることができる。 On the other hand, in FIG. 5, a region 104 indicated by a wavy line is the contour of the nose on the left side of FIG. 4, and since the gradient is large in the guide image I, the contour is also retained in the processed image q. Further, since the guide image I uses the channel information recorded by the image sensor (camera) as it is without being smoothed, the fine unevenness indicating the skin texture of the person in the area 105 indicated by the halftone dots in FIG. 5 is also retained. The As a result, by applying the guided filter shown in the equations (2) to (4) to the input image p using the guide image I that takes the Rch value or the channel maximum value of the input image p as a reference image, the contours and fine irregularities It is possible to obtain a processed image q from which only skin noise such as a stain has been removed.
図6(a)は図4(a)と同じ入力画像pを示し、図6(b)は処理画像qを示している。図6(c)は、比較のために、エッジ保存平滑化フィルタであるバイラテラルフィルタによりノイズ除去を行った結果を示している。バイラテラルフィルタは、シミ等の肌ノイズを軽減し、かつ小鼻の輪郭は保持できるものの、肌の微細凹凸は平滑化処理により失われ、肌がのっぺりとすることが図6(c)からわかる。一方、本実施形態のノイズ低減部120により得られた処理画像qは、図6(b)に示したように、小鼻の輪郭だけでなく、肌の微細凹凸を保持しながら、シミ等の肌ノイズを軽減できるため、より自然な肌ノイズ除去が実現できる。 6A shows the same input image p as FIG. 4A, and FIG. 6B shows a processed image q. For comparison, FIG. 6C shows the result of noise removal using a bilateral filter that is an edge-preserving smoothing filter. It can be seen from FIG. 6C that the bilateral filter reduces skin noise such as spots and maintains the outline of the nose, but the fine unevenness of the skin is lost by the smoothing process and the skin is smooth. On the other hand, as shown in FIG. 6B, the processed image q obtained by the noise reduction unit 120 of the present embodiment is not only the outline of the nose but also the skin such as a stain while maintaining the fine unevenness of the skin. Since the noise can be reduced, more natural skin noise removal can be realized.
また、参照型エッジ保存平滑化フィルタとして、式(2)〜(4)に示したガイデッドフィルタの代わりに、非特許文献1に開示されているジョイントバイラテラルフィルタも利用することができる。ジョイントバイラテラルフィルタは、例えば以下の式(5)で表される。 Further, as the reference type edge preserving smoothing filter, a joint bilateral filter disclosed in Non-Patent Document 1 can be used instead of the guided filter shown in the equations (2) to (4). The joint bilateral filter is expressed by, for example, the following formula (5).
式(5)に示したように、ジョイントバイラテラルフィルタは2つのガウス関数によってカーネルωk内の画素混合の重みを決定する。1つ目のガウス関数は距離の近さに関する重みであり、画素iと画素jが空間的に近いほど重みが大きくなる。2つ目のガウス関数は画素値の近さに関する重みであり、ガイド画像Iにおける画素iと画素jの画素値が近いほど重みが大きくなる。2つ目のガウス関数があることで、ガイデッドフィルタと同じように、小鼻の輪郭や肌の微細凹凸を保持しながら、シミ等の肌ノイズを軽減することができる。ここで、σs、σrはそれぞれのガウス関数の重みを制御するパラメータであり、規定値に設定される。Kiは重みの正規化項であり、以下の式(6)で表される。 As shown in equation (5), the joint bilateral filter determines the weight of the pixel mixture in the kernel ω k by two Gaussian functions. The first Gaussian function is a weight related to the closeness of the distance, and the weight increases as the pixel i and the pixel j are spatially closer. The second Gaussian function is a weight related to the proximity of pixel values, and the weight increases as the pixel values of the pixel i and the pixel j in the guide image I are closer. By having the second Gaussian function, skin noise such as a stain can be reduced while maintaining the outline of the nose and the fine unevenness of the skin as in the guided filter. Here, σ s and σ r are parameters for controlling the weight of each Gaussian function, and are set to prescribed values. K i is a weight normalization term and is expressed by the following equation (6).
[ステップS13:過強調領域復元]
ノイズ低減部120により入力画像pの肌ノイズの少ない処理画像qが生成されると、最後に過強調領域復元部130が、入力画像pと処理画像qから、ノイズ低減にて生じた過強調領域を特定し、処理画像qの過強調領域を復元した出力画像dを生成する。
[Step S13: Overemphasis region restoration]
When the processed image q with less skin noise of the input image p is generated by the noise reducing unit 120, the over-emphasized region restoration unit 130 finally generates an over-emphasized region generated by noise reduction from the input image p and the processed image q. And an output image d in which the overemphasized region of the processed image q is restored is generated.
図5において示した例では、本人の肌らしさを表す微細凹凸は網点の領域105に表れるが、領域105において入力画像pより処理画像qの画素値が少し小さい。これは、ツヤ等の光沢と普通の肌部との勾配も緩やかになったガイド画像Iの勾配が転写されたことによる過強調であり、処理画像qでは本人の肌らしさを表すツヤ等の微細凹凸も軽減されてしまう。 In the example shown in FIG. 5, fine unevenness representing the skinness of the person appears in the halftone dot area 105, but the pixel value of the processed image q is slightly smaller than the input image p in the area 105. This is over-emphasis due to the transfer of the gradient of the guide image I in which the gradient between the gloss and the normal skin portion becomes gentle, and in the processed image q, the fineness such as the gloss representing the skinness of the person is displayed. Unevenness is also reduced.
同様に、ガイド画像Iの生成に式(1)を用いた場合、露出の設定ミス・照明等の影響で各チャンネルのうち1チャンネルでも画素値が局所的に飽和すると、その領域は勾配がなくなってしまうため、ノイズ低減で過強調がかかる。過強調領域復元部130は、そのようなガイド画像とノイズ低減が原因で生じた過強調領域を復元するための処理であり、以下の式(7)により、過強調領域を復元した出力画像dを生成する。 Similarly, when the expression (1) is used to generate the guide image I, if the pixel value is locally saturated even in one of the channels due to an exposure setting error or illumination, the region has no gradient. Therefore, over-emphasis is applied in reducing noise. The overemphasized region restoration unit 130 is a process for restoring such a guide image and an overemphasized region caused by noise reduction, and an output image d obtained by restoring the overemphasized region according to the following equation (7). Is generated.
式(7)において、右辺第2項が過強調領域の復元情報を示す。tは所定の閾値である。図5中、過強調領域を表す網点の領域105は入力画像pより処理画像qの方が画素値は小さい。一方、斜線の領域103に示されるようなシミ・ソバカス・ニキビ・シワ等の肌ノイズは、普通の肌部より暗く写るため、入力画像pより処理画像qの方が画素値は大きい。つまり、式(7)の右辺第二項に示すように、入力画像pから入力画像qを引くと、その差分情報には、ツヤや光沢、画素値の飽和部といった過強調領域は正、肌ノイズ領域は負として表れ、過強調領域と肌ノイズ領域を分離することができる。ここで、例えばt=0とすることで、差分情報が負でない過強調領域における入力画像pのもとの情報を抽出することができ、処理画像qに過強調領域における入力画像pのもとの情報を加算することで、過強調領域の復元が実施できる。 In Expression (7), the second term on the right side indicates the restoration information of the overemphasized region. t is a predetermined threshold value. In FIG. 5, the halftone dot region 105 representing the overemphasized region has a smaller pixel value in the processed image q than in the input image p. On the other hand, skin noise such as spots, freckles, acne, wrinkles, etc. as shown in the hatched area 103 appears darker than the normal skin part, so that the processed image q has a larger pixel value than the input image p. That is, as shown in the second term on the right side of Expression (7), when the input image q is subtracted from the input image p, the difference information includes positive and skinned areas such as gloss, gloss, and saturated pixel values. The noise region appears as negative, and the over-emphasis region and the skin noise region can be separated. Here, for example, by setting t = 0, it is possible to extract the original information of the input image p in the overemphasized region where the difference information is not negative, and the processed image q is the source of the input image p in the overemphasized region. By adding this information, the overemphasized area can be restored.
図7はノイズ低減で生じた過強調領域が復元される例を示しており、図7(a)は入力画像p、図7(b)は処理画像q、図7(c)は出力画像dを示している。図7(a)の入力画像pに対して図7(b)の処理画像qと図7(c)の出力画像dを比べると、出力画像dは、シミは除去されたまま、微細な光沢が復元されていることがわかる。 FIG. 7 shows an example in which an overemphasized region caused by noise reduction is restored. FIG. 7A shows an input image p, FIG. 7B shows a processed image q, and FIG. 7C shows an output image d. Is shown. When the processed image q in FIG. 7B and the output image d in FIG. 7C are compared with the input image p in FIG. 7A, the output image d has a fine gloss with the stains removed. It can be seen that has been restored.
過強調領域の復元に関しては式(7)に限らず、以下の式(8)も利用することができる。つまり、過強調領域と肌ノイズの画素値の分布の違いを利用し、分離・反映するものであればどのような手法でもよい。 The restoration of the overemphasized region is not limited to the equation (7), and the following equation (8) can also be used. In other words, any method may be used as long as it uses the difference between the pixel values of the overemphasized region and the skin noise to separate and reflect the difference.
本実施形態で示した画像処理によれば、本人の肌らしさを表すキメやツヤ等の微細凹凸を保持しながら、シミ・ニキビ等の肌ノイズを自然に軽減することができる。 According to the image processing shown in the present embodiment, it is possible to naturally reduce skin noise such as spots and acne while maintaining fine irregularities such as texture and gloss representing the skinness of the person.
なお、本実施形態の最終出力画像は、上述のように既存の肌領域抽出手法を用いて画像中の肌領域が抽出されたものを入力画像とした場合は、画像中の肌領域を出力画像で置換することで最終出力画像としてもよいし、既存の物体検出手法を用いて抽出された人物領域を入力画像とした場合は、画像中の人物領域を出力画像で置換することで最終出力画像としてもよい。また、画像そのものを入力画像とした場合は、得られた出力画像を最終出力画像としてもよいし、出力画像に対して既存の肌領域抽出等を行うことで得られた肌ノイズの少ない肌領域を画像に合成することで最終出力画像としてもよい。 Note that the final output image of the present embodiment is the output image of the skin area in the image when the skin area in the image extracted using the existing skin area extraction method as described above is used as the input image. May be used as the final output image, or when the human region extracted using the existing object detection method is used as the input image, the human image in the image is replaced with the output image. It is good. In addition, when the image itself is an input image, the obtained output image may be the final output image, or a skin region with less skin noise obtained by performing extraction of an existing skin region on the output image. May be combined with an image to obtain a final output image.
<第2の実施形態>
本実施形態では、被写体の像倍率によらず、適応的に肌ノイズ除去を実現する手法について説明する。すなわち、ノイズ低減の処理においては、対象とする肌ノイズの大きさに応じた適切なフィルタパラメータを設定する必要があるが、被写体の像倍率が一定でない場合には、その都度にフィルタパラメータを設定しなければならず、実用的ではない。本実施形態では、被写体の像倍率に応じてフィルタパラメータを動的に変化させることで、最適化を図っている。
<Second Embodiment>
In this embodiment, a method for adaptively realizing skin noise removal regardless of the image magnification of the subject will be described. In other words, in noise reduction processing, it is necessary to set an appropriate filter parameter according to the target skin noise level. If the subject image magnification is not constant, the filter parameter is set each time. It must be done and is not practical. In the present embodiment, optimization is achieved by dynamically changing the filter parameter according to the image magnification of the subject.
図8は第2の実施形態にかかる画像処理装置1の機能構成例を示す図である。図8において、画像処理装置1は、ガイド画像生成部110とノイズ低減部120と過強調領域復元部130とフィルタパラメータ最適化部140とを備えている。ノイズ低減部120のフィルタパラメータを入力画像に基づいて最適化するフィルタパラメータ最適化部140が新たに追加されたほかは、図2に示した構成と同様である。また、画像処理装置1のハードウェア構成については、図1に示したものと同様である。ガイド画像生成部110とノイズ低減部120と過強調領域復元部130とフィルタパラメータ最適化部140は、図1に示した制御部11が主記憶部12および補助記憶部13等に記憶されているプログラムを実行することで実現される機能である。 FIG. 8 is a diagram illustrating a functional configuration example of the image processing apparatus 1 according to the second embodiment. In FIG. 8, the image processing apparatus 1 includes a guide image generation unit 110, a noise reduction unit 120, an overemphasized region restoration unit 130, and a filter parameter optimization unit 140. The configuration is the same as that shown in FIG. 2 except that a filter parameter optimization unit 140 that optimizes the filter parameters of the noise reduction unit 120 based on the input image is newly added. The hardware configuration of the image processing apparatus 1 is the same as that shown in FIG. In the guide image generation unit 110, the noise reduction unit 120, the overemphasis region restoration unit 130, and the filter parameter optimization unit 140, the control unit 11 illustrated in FIG. 1 is stored in the main storage unit 12, the auxiliary storage unit 13, and the like. It is a function realized by executing a program.
図9は第2の実施形態における画像処理の例を示すフローチャートである。図9において、処理を開始すると、まず、ステップS21にて、ガイド画像生成部110は、画像中の肌領域が抽出された入力画像pから肌ノイズの少ないガイド画像Iを生成する。 FIG. 9 is a flowchart showing an example of image processing in the second embodiment. In FIG. 9, when the process is started, first, in step S21, the guide image generation unit 110 generates a guide image I with less skin noise from the input image p from which the skin region in the image is extracted.
続いて、ステップS22にて、画像中の肌ノイズのサイズを推定し、続くステップS23において使用する参照型エッジ強調平滑化フィルタのフィルタパラメータを決定する。 Subsequently, in step S22, the size of the skin noise in the image is estimated, and the filter parameter of the reference type edge enhancement smoothing filter used in the subsequent step S23 is determined.
続いて、ステップS23にて、ノイズ低減部120は、ガイド画像Iを参照画像として入力画像pに参照型エッジ保存平滑化フィルタを適用し、肌ノイズの少ない処理画像qを生成する。 Subsequently, in step S23, the noise reduction unit 120 applies a reference type edge preserving smoothing filter to the input image p using the guide image I as a reference image, and generates a processed image q with less skin noise.
最後に、ステップS24にて、過強調領域復元部130は、入力画像pと処理画像qから、ステップS23のノイズ低減の処理により生じた過強調領域を特定し、処理画像qの過強調領域を復元した出力画像dを生成し、処理を終了する。 Finally, in step S24, the overemphasized region restoration unit 130 identifies the overemphasized region generated by the noise reduction processing in step S23 from the input image p and the processed image q, and determines the overemphasized region of the processed image q. The restored output image d is generated, and the process ends.
以下では、画像中の肌領域が抽出された入力画像から肌領域の修正を行う処理における各ステップの処理内容について、画像処理に使用するデータ等と併せて説明する。なお、第1の実施形態と同様の処理については簡略に説明する。 Below, the processing content of each step in the process which corrects a skin area | region from the input image from which the skin area | region in the image was extracted is demonstrated with the data etc. which are used for an image process. Note that processing similar to that of the first embodiment will be briefly described.
[ステップS21:ガイド画像生成]
画像処理装置1に、既存の肌領域抽出手法や物体検出手法を用いて画像中の肌領域が抽出された入力画像pが入力されると、ガイド画像生成部110は入力画像pから肌ノイズの少ないガイド画像Iを生成する。
[Step S21: Guide Image Generation]
When an input image p in which a skin region in an image is extracted using an existing skin region extraction method or an object detection method is input to the image processing apparatus 1, the guide image generation unit 110 detects skin noise from the input image p. A few guide images I are generated.
[ステップS22:フィルタパラメータ最適化]
ガイド画像生成部110により入力画像pから肌ノイズの少ないガイド画像Iが生成されると、次に、フィルタパラメータ最適化部140は、入力画像pから肌ノイズのサイズを推定し、最適なフィルタパラメータを決定する。
[Step S22: Filter parameter optimization]
When the guide image generation unit 110 generates a guide image I with less skin noise from the input image p, the filter parameter optimization unit 140 then estimates the size of the skin noise from the input image p, and the optimal filter parameter To decide.
式(2)〜式(6)に示したガイデッドフィルタは、ガイド画像Iが持つ勾配を入力画像pのカーネルωにおける平均・分散をもとに転写するものであり、カーネルωのサイズによってフィルタ処理の効果が変わる。カーネルωが小さすぎる場合は、肌ノイズの少ないガイド画像Iを用いてもシミ等の肌ノイズを軽減する効果が弱く、カーネルωが大きすぎる場合は、肌ノイズではない毛細血管等で生じる微細な色ムラがなくなり、肌の見えの自然さが損なわれる。一方、画像中の人物の肌領域は撮影距離や画角によって見た目の大きさが変化するため、それに応じて肌領域にあるシミ等の肌ノイズの見た目の大きさも変化する。よって、肌ノイズの見た目の大きさを画像から推定し、最適なフィルタパラメータを設定することが望ましい。 The guided filters shown in the equations (2) to (6) are for transferring the gradient of the guide image I based on the average / dispersion in the kernel ω of the input image p, and filter processing is performed according to the size of the kernel ω. The effect of changes. If the kernel ω is too small, the effect of reducing skin noise such as stains is weak even if the guide image I with less skin noise is used, and if the kernel ω is too large, fine effects caused by capillaries that are not skin noise Color unevenness disappears and the natural appearance of the skin is impaired. On the other hand, since the appearance size of the skin area of a person in the image changes depending on the shooting distance and the angle of view, the appearance size of skin noise such as a stain in the skin area also changes accordingly. Therefore, it is desirable to estimate the apparent size of skin noise from the image and set the optimum filter parameters.
図10はフィルタパラメータ最適化部140によるノイズサイズの推定およびフィルタパラメータの決定(図9のステップS22)の処理例を示すフローチャートである。 FIG. 10 is a flowchart illustrating a processing example of noise size estimation and filter parameter determination (step S22 in FIG. 9) by the filter parameter optimization unit 140.
処理を開始すると、まず、ステップS221にて、画像から顔・口・鼻等の器官を検出する。器官の検出は、Paul Viola and Michael J. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, 2001.に記載の物体検出手法等を用いて行うことができる。 When the process is started, first, in step S221, organs such as a face, a mouth, and a nose are detected from the image. The detection of the organ can be performed using an object detection method described in Paul Viola and Michael J. Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features”, IEEE CVPR, 2001.
続いて、ステップS222にて、器官が検出できたかの判断によって以降の処理が分岐される。検出できなかった場合は、ステップS225にて、規定のカーネルサイズが採用される。つまり、第1の実施形態と同じ処理になる。 Subsequently, in step S222, the subsequent processing branches depending on whether or not the organ has been detected. If not detected, a prescribed kernel size is adopted in step S225. That is, the same processing as in the first embodiment is performed.
器官が検出できた場合は、続いて、ステップS223にて、予め記憶されている器官の寸法テーブルから検出器官の If the organ can be detected, then in step S223, the detected organ size is determined from the previously stored organ dimension table.
続いて、図10に戻り、ステップS223にて、検出した器官の大きさso[px](ピクセル)を、対応する器官の Subsequently, returning to FIG. 10, in step S223, the detected organ size s o [px] (pixels) is set to the corresponding organ size.
ここで、λoはカーネルサイズ決定係数であり、検出器官の寸法統計値と肌ノイズの寸法統計値の対応関係から肌ノイズを効果的に除去できるよう予め設定された係数である。なお、式(9)では検出した器官の大きさso[px]を寸法統計値で規格化しているため、器官毎にλoを設定するのではなく、1つの代表的な係数λを設定してもよい。ただし、器官の寸法統計値も各器官によって標準偏差が異なる(個人差の大きさが異なる)ため、λoは個別に設定するのが望ましい。 Here, λ o is a kernel size determination coefficient, and is a coefficient set in advance so that skin noise can be effectively removed from the correspondence relationship between the dimensional statistical value of the detection organ and the dimensional statistical value of the skin noise. In equation (9), since the detected organ size s o [px] is normalized by the dimensional statistical value, one representative coefficient λ is set instead of setting λ o for each organ. May be. However, it is desirable to set λ o individually because the dimensional statistical values of the organs also have different standard deviations depending on the organs (individual differences are different).
複数の器官が検出された場合は、個別のsωの平均や中央値を取ってもよいし、検出した器官の信頼度(検出精度や標準偏差の大きさ等)や画像における被写体の重要度(検出器官や肌領域の大きさ等)に基づいて取捨選択したsωを利用してもよい。なお、sωはカーネルωの大きさであるので、一般に正数となるよう設定される。器官が検出されなかった場合は、第1の実施形態のように規定のカーネルの大きさが利用される。 When multiple organs are detected, the average or median value of the individual sω may be taken, the reliability of the detected organs (detection accuracy, standard deviation, etc.), and the importance of the subject in the image it may be utilized with the s omega selection based on the (size of the detection organ and the skin area). Since s ω is the size of the kernel ω, it is generally set to be a positive number. When an organ is not detected, a prescribed kernel size is used as in the first embodiment.
[ステップS23:ノイズ低減]
続いて、図9に戻り、ノイズ低減部120は、ガイド画像Iを参照画像として、入力画像pに参照型エッジ保存平滑化フィルタを適用し、肌ノイズの少ない処理画像qを生成する。ここで、参照型エッジ保存平滑化フィルタのカーネルサイズはフィルタパラメータ最適化部140で得られたsωを利用する。
[Step S23: Noise Reduction]
Subsequently, returning to FIG. 9, the noise reduction unit 120 applies the reference type edge preserving smoothing filter to the input image p using the guide image I as a reference image, and generates a processed image q with less skin noise. Here, the kernel size of the reference type edge-preserving smoothing filter utilizes s omega obtained by the filter parameter optimization unit 140.
[ステップS24:過強調領域復元]
ノイズ低減部120により入力画像pの肌ノイズの少ない処理画像qが生成されると、最後に過強調領域復元部130が、入力画像pと処理画像qから、ノイズ低減にて生じた過強調領域を特定し、処理画像qの過強調領域を復元した出力画像dを生成する。
[Step S24: Restoring Overemphasized Region]
When the processed image q with less skin noise of the input image p is generated by the noise reducing unit 120, the over-emphasized region restoration unit 130 finally generates an over-emphasized region generated by noise reduction from the input image p and the processed image q. And an output image d in which the overemphasized region of the processed image q is restored is generated.
第1の実施形態とは、ステップS22のフィルタパラメータ最適化が追加された点が異なり、これにより、画像中の肌領域に応じた適応的な美肌処理を実現できる。 The first embodiment is different from the first embodiment in that the filter parameter optimization in step S22 is added, and thereby, an adaptive skin beautification process according to the skin region in the image can be realized.
なお、本実施形態の最終出力画像は、上述のように既存の肌領域抽出手法を用いて画像中の肌領域が抽出されたものを入力画像とした場合は、画像中の肌領域を出力画像で置換することで最終出力画像としてもよいし、既存の物体検出手法を用いて抽出された人物領域を入力画像とした場合は、画像中の人物領域を出力画像で置換することで最終出力画像としてもよい。また、画像そのものを入力画像とした場合は、得られた出力画像を最終出力画像としてもよいし、出力画像に対して既存の肌領域抽出等を行うことで得られた肌ノイズの少ない肌領域を画像に合成することで最終出力画像としてもよい。 Note that the final output image of the present embodiment is the output image of the skin area in the image when the skin area in the image extracted using the existing skin area extraction method as described above is used as the input image. May be used as the final output image, or when the human region extracted using the existing object detection method is used as the input image, the human image in the image is replaced with the output image. It is good. In addition, when the image itself is an input image, the obtained output image may be the final output image, or a skin region with less skin noise obtained by performing extraction of an existing skin region on the output image. May be combined with an image to obtain a final output image.
また、複数の肌領域が存在する場合は、それぞれに対して最適なカーネルの大きさsωを設定し、個別に出力画像を生成し、画像に各出力画像を合成して最終出力画像としてもよい。 If there are multiple skin regions, the optimal kernel size s ω is set for each of the skin regions, an output image is generated individually, and each output image is combined with the image as a final output image. Good.
<第3の実施形態>
本実施形態では、上述した第1および第2の実施形態における画像処理装置1を用いて画像の取得から表示・印刷等の実際上のサービスを行う構成例について説明する。
<Third Embodiment>
In the present embodiment, a configuration example in which actual services such as image acquisition, display / printing, and the like are performed using the image processing apparatus 1 in the first and second embodiments described above will be described.
図12は第3の実施形態にかかる画像処理システムの構成例を示す図である。図12において、画像処理システムは、画像処理装置1と画像生成装置2と、ネットワーク3を介して接続されたサーバ装置4と画像出力装置5とを備えている。 FIG. 12 is a diagram illustrating a configuration example of an image processing system according to the third embodiment. In FIG. 12, the image processing system includes an image processing apparatus 1, an image generation apparatus 2, a server apparatus 4 and an image output apparatus 5 connected via a network 3.
画像生成装置2は、例えば、デジタルカメラやスキャナ等であり、画像処理装置1で処理する入力画像を生成する。入力画像は、画像生成装置2のWIFI通信モジュール21やフラッシュメモリ等の記憶媒体18を介し、画像処理装置1のネットワークI/F部15(図1)や外部記憶装置I/F部14(図1)から入力される。 The image generation device 2 is, for example, a digital camera or a scanner, and generates an input image to be processed by the image processing device 1. The input image is sent to the network I / F unit 15 (FIG. 1) or the external storage device I / F unit 14 (FIG. 1) of the image processing device 1 via the storage medium 18 such as the WIFI communication module 21 of the image generation device 2 or the flash memory. Input from 1).
サーバ装置4は、画像生成装置2に代わり、画像処理装置1で処理する入力画像をインターネット等のネットワーク3を介して提供することができる。また、サーバ装置4は、画像処理装置1の出力画像をネットワーク3を介して受け付けて蓄積することができる。 The server device 4 can provide an input image to be processed by the image processing device 1 via the network 3 such as the Internet instead of the image generating device 2. Further, the server device 4 can accept and store the output image of the image processing device 1 via the network 3.
画像出力装置5は、画像処理装置1から出力された出力画像を直接に、または、サーバ装置4に蓄積された出力画像を取得して表示または印刷を行うことができる。 The image output device 5 can display or print the output image output from the image processing device 1 directly or by acquiring the output image accumulated in the server device 4.
また、画像処理装置1の機能は、画像生成装置2やサーバ装置4や画像出力装置5に組み込まれる構成としてもよい。 The functions of the image processing apparatus 1 may be configured to be incorporated in the image generation apparatus 2, the server apparatus 4, and the image output apparatus 5.
<総括>
以上説明したように、本実施形態によれば、1枚の画像から、手作業や熟練を要せず、個人特有のキメ・ツヤ等の微細凹凸を保持しながら人物画像のシミ・ソバカス・シワ・ニキビといった肌ノイズ等を自然に軽減し、好適な画像を1回の平滑化処理だけで生成することができる。
<Summary>
As described above, according to the present embodiment, from one image, it is not necessary to perform manual work or skill, and while maintaining fine irregularities such as texture and gloss peculiar to an individual, -It is possible to naturally reduce skin noise such as acne, and to generate a suitable image by only one smoothing process.
以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。 The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments, various modifications and changes may be made to the embodiments without departing from the broad spirit and scope of the invention as defined in the claims. Obviously you can. In other words, the present invention should not be construed as being limited by the details of the specific examples and the accompanying drawings.
<実施形態の用語と請求項の用語の対応>
ガイド画像生成部110は「ガイド画像生成手段」の一例である。ノイズ低減部120は「ノイズ低減手段」の一例である。過強調領域復元部130は「過強調領域復元手段」の一例である。
<Correspondence between Terms in Embodiment and Terms in Claims>
The guide image generation unit 110 is an example of “guide image generation means”. The noise reduction unit 120 is an example of “noise reduction means”. The overemphasized region restoring unit 130 is an example of “overemphasized region restoring means”.
1 画像処理装置
11 制御部
12 主記憶部
13 補助記憶部
14 外部記憶装置I/F部
15 ネットワークI/F部
16 表示部
17 操作部
18 記憶媒体
B バス
110 ガイド画像生成部
120 ノイズ低減部
130 過強調領域復元部
140 フィルタパラメータ最適化部
2 画像生成装置
3 ネットワーク
4 サーバ装置
5 画像出力装置
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 11 Control part 12 Main storage part 13 Auxiliary storage part 14 External storage apparatus I / F part 15 Network I / F part 16 Display part 17 Operation part 18 Storage medium B bus 110 Guide image generation part 120 Noise reduction part 130 Overemphasis region restoration unit 140 Filter parameter optimization unit 2 Image generation device 3 Network 4 Server device 5 Image output device
Claims (13)
前記ガイド画像をもとに前記入力画像に参照型エッジ保存平滑化フィルタを適用し、処理画像を生成するノイズ低減手段と
を備えたことを特徴とする画像処理装置。 Guide image generation means for generating a guide image from an input image;
An image processing apparatus comprising: noise reduction means for generating a processed image by applying a reference-type edge preserving smoothing filter to the input image based on the guide image.
を備えたことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising an overemphasized region restoring unit that restores an overemphasized region of the processed image from difference information between the input image and the processed image.
ことを特徴とする請求項2に記載の画像処理装置。 The overemphasized area restoring means separates the overemphasized area of the processed image from the other from the difference information between the input image and the processed image, and adds the input image information of the overemphasized area to the processed image. The image processing apparatus according to claim 2, wherein the overemphasized region is restored.
ことを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the reference type edge preserving smoothing filter is a guided filter or a joint bilateral filter.
を備えたことを特徴とする請求項1乃至4のいずれか一項に記載の画像処理装置。 5. The apparatus according to claim 1, further comprising means for estimating a magnitude of noise to be corrected and determining a filter parameter of the reference-type edge-preserving smoothing filter based on the magnitude. The image processing apparatus according to item.
ことを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the input image is a multi-channel image in which information having different wavelengths is recorded.
ことを特徴とする請求項1乃至6のいずれか一項に記載の画像処理装置。 The image according to any one of claims 1 to 6, wherein the guide image generation unit generates a guide image by selecting a channel with less noise among channels constituting the input image. Processing equipment.
ことを特徴とする請求項1乃至6のいずれか一項に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the guide image generation unit generates a guide image by selecting a maximum value of a channel in each pixel of the input image.
ことを特徴とする請求項1乃至8のいずれか一項に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the input image includes an image of a person's skin.
前記ガイド画像をもとに前記入力画像に参照型エッジ保存平滑化フィルタを適用し、処理画像を生成するノイズ低減ステップと
をコンピュータが実行することを特徴とする画像処理方法。 A guide image generation step for generating a guide image from the input image;
An image processing method, wherein a computer executes a noise reduction step of applying a reference-type edge preserving smoothing filter to the input image based on the guide image and generating a processed image.
入力画像からガイド画像を生成するガイド画像生成手段、
前記ガイド画像をもとに前記入力画像に参照型エッジ保存平滑化フィルタを適用し、処理画像を生成するノイズ低減手段
として機能させる画像処理プログラム。 Computer
Guide image generation means for generating a guide image from an input image,
An image processing program for applying a reference-type edge preserving smoothing filter to the input image based on the guide image and causing it to function as noise reduction means for generating a processed image.
前記入力画像に画像処理を行って処理画像を出力する画像処理装置と、
前記処理画像を出力する画像出力装置と
を備え、
前記画像処理装置は、
入力画像からガイド画像を生成するガイド画像生成手段と、
前記ガイド画像をもとに前記入力画像に参照型エッジ保存平滑化フィルタを適用し、処理画像を生成するノイズ低減手段と
を備えたことを特徴とする画像処理システム。 An image generation device that generates and outputs an input image; and
An image processing apparatus that performs image processing on the input image and outputs a processed image;
An image output device for outputting the processed image,
The image processing apparatus includes:
Guide image generation means for generating a guide image from an input image;
An image processing system comprising: a noise reduction unit that applies a reference-type edge preserving smoothing filter to the input image based on the guide image to generate a processed image.
を備えたことを特徴とする請求項12に記載の画像処理システム。 A server device that provides the input image to the image processing device, receives and stores the processed image from the image processing device, and provides the processed image stored in response to a request from the image output device; The image processing system according to claim 12.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015244938A JP2017111595A (en) | 2015-12-16 | 2015-12-16 | Image processing device, image processing method, image processing program and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015244938A JP2017111595A (en) | 2015-12-16 | 2015-12-16 | Image processing device, image processing method, image processing program and image processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017111595A true JP2017111595A (en) | 2017-06-22 |
Family
ID=59080217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015244938A Pending JP2017111595A (en) | 2015-12-16 | 2015-12-16 | Image processing device, image processing method, image processing program and image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017111595A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019106877A1 (en) * | 2017-11-28 | 2019-06-06 | Kddi株式会社 | Image processing device, image processing method, and program |
CN111861911A (en) * | 2020-06-29 | 2020-10-30 | 湖南傲英创视信息科技有限公司 | Method and system for enhancing stereoscopic panoramic image based on guide camera |
JP2021012131A (en) * | 2019-07-08 | 2021-02-04 | 株式会社ニューフレアテクノロジー | Inspection device and inspection method |
CN112330573A (en) * | 2020-12-01 | 2021-02-05 | 厦门美图之家科技有限公司 | Portrait-based image repairing method and device, electronic equipment and storage medium |
-
2015
- 2015-12-16 JP JP2015244938A patent/JP2017111595A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019106877A1 (en) * | 2017-11-28 | 2019-06-06 | Kddi株式会社 | Image processing device, image processing method, and program |
JP2019096264A (en) * | 2017-11-28 | 2019-06-20 | Kddi株式会社 | Image processor, method for processing image, and program |
JP2021012131A (en) * | 2019-07-08 | 2021-02-04 | 株式会社ニューフレアテクノロジー | Inspection device and inspection method |
JP7264751B2 (en) | 2019-07-08 | 2023-04-25 | 株式会社ニューフレアテクノロジー | Inspection device and inspection method |
CN111861911A (en) * | 2020-06-29 | 2020-10-30 | 湖南傲英创视信息科技有限公司 | Method and system for enhancing stereoscopic panoramic image based on guide camera |
CN111861911B (en) * | 2020-06-29 | 2024-04-16 | 湖南傲英创视信息科技有限公司 | Stereoscopic panoramic image enhancement method and system based on guiding camera |
CN112330573A (en) * | 2020-12-01 | 2021-02-05 | 厦门美图之家科技有限公司 | Portrait-based image repairing method and device, electronic equipment and storage medium |
CN112330573B (en) * | 2020-12-01 | 2024-02-06 | 厦门美图之家科技有限公司 | Portrait-based picture repairing method and device, electronic equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Guo et al. | LIME: Low-light image enhancement via illumination map estimation | |
JP4455897B2 (en) | Image processing method, apparatus, and program | |
JP5547730B2 (en) | Automatic facial and skin beautification using face detection | |
JP5864817B2 (en) | Method and apparatus for enhancing color | |
JP5095637B2 (en) | Method and apparatus for diffusion-based illumination normalization | |
Liu et al. | Single nighttime image dehazing based on image decomposition | |
JP2005515515A (en) | System and method for image enhancement, dynamic range compensation, and illumination correction | |
CN111080686B (en) | Method for highlight removal of image in natural scene | |
JP2017111595A (en) | Image processing device, image processing method, image processing program and image processing system | |
Thanh et al. | An adaptive image inpainting method based on euler's elastica with adaptive parameters estimation and the discrete gradient method | |
WO2022088976A1 (en) | Image processing method and device | |
JP2009543161A (en) | Method and apparatus for diffusion-based image relighting | |
Liu et al. | Kinect depth restoration via energy minimization with tv 21 regularization | |
CN114862729A (en) | Image processing method, image processing device, computer equipment and storage medium | |
Hu et al. | A novel retinex algorithm and its application to fog-degraded image enhancement | |
JP2009025862A (en) | Image processor, image processing method, image processing program and image display device | |
US9595082B2 (en) | Image processor and non-transitory computer readable medium for generating a reproduction image which is reproduced so that visibility of an original image is enhanced | |
JP5810384B2 (en) | Face image processing system, face image processing method, and face image processing program | |
JPWO2018220780A1 (en) | Image generation apparatus, image generation method, and program | |
JP6160425B2 (en) | Image processing apparatus and program | |
JP2011059960A (en) | Image processor, simulation device, image processing method, simulation method, and program | |
JP6631076B2 (en) | Image processing apparatus, program, and image processing method | |
JP6627530B2 (en) | Image processing device and program | |
JP2007042124A (en) | Noise removal method, device and program | |
JP6273750B2 (en) | Image processing apparatus and program |