JP2020160489A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2020160489A
JP2020160489A JP2019055930A JP2019055930A JP2020160489A JP 2020160489 A JP2020160489 A JP 2020160489A JP 2019055930 A JP2019055930 A JP 2019055930A JP 2019055930 A JP2019055930 A JP 2019055930A JP 2020160489 A JP2020160489 A JP 2020160489A
Authority
JP
Japan
Prior art keywords
image
processing
subject
subject image
acquiring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019055930A
Other languages
Japanese (ja)
Other versions
JP7383891B2 (en
JP2020160489A5 (en
Inventor
恭介 佐々木
Kyosuke Sasaki
恭介 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019055930A priority Critical patent/JP7383891B2/en
Publication of JP2020160489A publication Critical patent/JP2020160489A/en
Publication of JP2020160489A5 publication Critical patent/JP2020160489A5/ja
Priority to JP2023180705A priority patent/JP2023174917A/en
Application granted granted Critical
Publication of JP7383891B2 publication Critical patent/JP7383891B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an image processing device capable of making corrections less noticeable after correcting an object image.SOLUTION: An image processing device (image capturing device 1) comprises: acquisition means (image capturing unit 106) for acquiring an object image; texture information acquisition means (analysis unit 109) configured to obtain object texture information from the object image acquired by the acquisition means; and processing means (second image processing unit 110) configured to process the object image based on the texture information obtained by texture information acquisition means.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、顔画像を補正する技術が提案されている。例えば、特許文献1には、顔の目、鼻、口などの特徴領域をマスクした残りの肌領域に平滑化処理を施すことで細かな肌荒れを目立たなくし、なめらかな肌状態を再現した顔画像を生成することが記載されている。 Conventionally, a technique for correcting a face image has been proposed. For example, in Patent Document 1, a facial image that reproduces a smooth skin condition by applying a smoothing treatment to the remaining skin region that masks characteristic regions such as the eyes, nose, and mouth of the face to make fine rough skin inconspicuous. Is described to generate.

特開2009−70260号公報JP-A-2009-702260

しかしながら、特許文献1の技術では、周辺の肌とは異なる特異領域のみを補正することが難しい他、補正処理を施した場合、補正をしていない周辺箇所との差が目立ってしまう問題が予見される。 However, with the technique of Patent Document 1, it is difficult to correct only the singular region different from the surrounding skin, and when the correction processing is applied, it is foreseen that the difference from the uncorrected peripheral portion becomes conspicuous. Will be done.

本願発明はこのような問題点に鑑みてなされたもので、被写体画像を補正した場合の補正箇所が目立たなくなるようにすることを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to make the corrected portion inconspicuous when the subject image is corrected.

上記課題を解決するため、本発明の画像処理装置は、
被写体画像を取得する取得手段と、
前記取得手段によって取得された被写体画像から被写体の肌理情報を取得する肌理情報取得手段と、
前記肌理情報取得手段によって取得された肌理情報に基づいて、前記被写体画像を加工する加工手段と、
を備えることを特徴とする。
In order to solve the above problems, the image processing apparatus of the present invention
An acquisition method for acquiring a subject image and
The texture information acquisition means for acquiring the texture information of the subject from the subject image acquired by the acquisition means, and
A processing means for processing the subject image based on the texture information acquired by the texture information acquisition means, and
It is characterized by having.

また、本発明の画像処理装置は、
被写体画像を取得する取得手段と、
前記被写体画像から、その周辺とは異なる特異領域を検出する検出手段と、
前記検出手段によって検出された特異領域を前記周辺に対し目立たなくするよう補正する補正手段と、
前記補正手段によって目立たなくなるよう補正された特異領域に対し、前記補正手段による補正以前の前記被写体画像における被写体の表面状態を付加する加工を施すよう制御する制御手段と、
を備えたことを特徴とする。
Further, the image processing apparatus of the present invention is
An acquisition method for acquiring a subject image and
A detection means for detecting a singular region different from the surroundings from the subject image,
A correction means for correcting the singular region detected by the detection means so as to make it inconspicuous with respect to the periphery.
A control means for controlling the singular region corrected so as to be inconspicuous by the correction means so as to perform processing for adding the surface state of the subject in the subject image before the correction by the correction means.
It is characterized by being equipped with.

また、本発明の画像処理装置は、
被写体画像を取得する取得手段と、
前記取得手段によって取得された被写体画像における周辺とは異なる特異領域を検出する検出手段と、
前記検出手段によって検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域に所定の処理を夫々施す処理手段と、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記信頼性情報取得手段によって取得された信頼性情報に基づき、前記処理手段が処理した夫々のマスクデータ内の所定の処理の結果を影響度を変えて合成する合成手段と、
を備えたことを特徴とする。
Further, the image processing apparatus of the present invention is
An acquisition method for acquiring a subject image and
A detection means for detecting a singular region different from the periphery in the subject image acquired by the acquisition means, and
Using mask data of a plurality of sizes imitating a shape surrounding the singular region detected by the detection means, a processing means for performing predetermined processing on the image region including the singular region surrounded by the mask data, respectively.
A reliability information acquisition means for acquiring reliability information of each of the image regions subjected to the predetermined processing using each of the mask data of a plurality of sizes.
Based on the reliability information acquired by the reliability information acquisition means, a synthesis means for synthesizing the results of predetermined processing in each mask data processed by the processing means with different degrees of influence.
It is characterized by being equipped with.

本発明によれば、被写体画像を補正した場合の補正箇所が目立たなくなるようにすることが可能となる。 According to the present invention, it is possible to make the corrected portion inconspicuous when the subject image is corrected.

本実施形態に係る撮像装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the image pickup apparatus which concerns on this embodiment. 図1の解析部及び第2の画像処理部における処理の概略を説明するための図である。It is a figure for demonstrating the outline of the processing in the analysis part of FIG. 1 and the 2nd image processing part. 図1の解析部及び第2の画像処理部における処理の流れを示す図である。It is a figure which shows the flow of processing in the analysis part and the 2nd image processing part of FIG.

以下、添付図面を参照して本発明に係る実施形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the illustrated examples.

[撮像装置1の構成]
図1は、本実施形態に係る撮像装置1の機能的構成を示すブロック図である。図1に示すように、撮像装置1は、制御部101、記憶部102、表示部103、通信部104、操作部105、撮像部106、第1の画像処理部107、画像メモリ108、解析部109、第2の画像処理部110、点灯制御部111、発光部112等を備えて構成されている。制御部101と各部はバスにより接続されている。
[Configuration of Imaging Device 1]
FIG. 1 is a block diagram showing a functional configuration of the image pickup apparatus 1 according to the present embodiment. As shown in FIG. 1, the image pickup device 1 includes a control unit 101, a storage unit 102, a display unit 103, a communication unit 104, an operation unit 105, an image pickup unit 106, a first image processing unit 107, an image memory 108, and an analysis unit. It is configured to include 109, a second image processing unit 110, a lighting control unit 111, a light emitting unit 112, and the like. The control unit 101 and each unit are connected by a bus.

制御部101は、CPU(Central Processing Unit)、RAM(Random Access Memory)等を備えて構成され、記憶部102に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行う。 The control unit 101 is configured to include a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like, and executes various programs stored in the storage unit 102 to perform predetermined calculations and control each unit.

記憶部102は、不揮発性の半導体メモリやハードディスク等により構成される。記憶部102には、制御部101で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。 The storage unit 102 is composed of a non-volatile semiconductor memory, a hard disk, or the like. The storage unit 102 stores a system program executed by the control unit 101, various processing programs, data necessary for executing these programs, and the like.

表示部103は、LCD(Liquid Crystal Display)等により構成され、制御部101からの表示制御信号に従って、例えば、撮像部106により撮像された状態を示すライブビュー画像や、撮影指示に応じて撮像部106により取得された画像等を表示する。 The display unit 103 is composed of an LCD (Liquid Crystal Display) or the like, and according to a display control signal from the control unit 101, for example, a live view image showing a state imaged by the imaging unit 106 or an imaging unit according to a shooting instruction. The image or the like acquired by 106 is displayed.

通信部104は、外部の機器と無線又は有線によりデータ通信を行うためのインターフェースである。 The communication unit 104 is an interface for wirelessly or wired data communication with an external device.

操作部105は、シャッターキーを始めとする各種機能ボタンや表示部103に積層配置された透明なタッチパネルを備え、ユーザによる各ボタンの押下入力、タッチパネルへのタッチ、スライド操作等を受け付けてその操作情報を制御部101に出力する。 The operation unit 105 is provided with various function buttons such as a shutter key and a transparent touch panel stacked on the display unit 103, and receives and operates each button press input, touch panel touch, slide operation, etc. by the user. The information is output to the control unit 101.

撮像部106は、撮像レンズ106a、図示しないCCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等のイメージセンサ等からなる撮像素子、A/D変換回路等を備えて構成され、撮像レンズ106aを通過した光学像を撮像素子により2次元の画像信号に変換し、被写体の画像データ(RGBの画像データ)を取得する。 The image pickup unit 106 is configured to include an image pickup lens 106a, an image pickup element composed of an image sensor such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal-Oxide Semiconductor) (not shown), an A / D conversion circuit, and the like. The optical image that has passed through the 106a is converted into a two-dimensional image signal by the image sensor, and the image data (RGB image data) of the subject is acquired.

第1の画像処理部107は、撮像部106により取得されたRGBデータに画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Crからなる画像データ(Y、U、Vの各成分の画像データ)に変換する。 The first image processing unit 107 is composed of a digital value luminance signal Y and color difference signals Cb and Cr after performing color process processing including pixel interpolation processing and γ correction processing on the RGB data acquired by the imaging unit 106. It is converted into image data (image data of each component of Y, U, and V).

画像メモリ108は、例えば、フラッシュメモリ等により構成され、撮像部106により撮像され、第1の画像処理部107により処理された画像データを記録する記録手段である。 The image memory 108 is a recording means that is composed of, for example, a flash memory or the like, and records image data that has been imaged by the image capturing unit 106 and processed by the first image processing unit 107.

解析部109は、本発明に係る補正モードが予め設定されている場合に、撮像部106により取得され、第1の画像処理部107により処理された被写体の画像データ(被写体画像)を解析することによって被写体の肌の肌理情報(肌の表面情報)を取得して第2の画像処理部110に出力する。また、解析部109は、第1の画像処理部107により処理された画像データにおける、周辺の肌とは異なる特異領域(例えば、吹き出物等の異物の存在する領域)周辺の画像領域を解析することによって、第2の画像処理部110において特異領域に補正処理を施す際に用いる肌理用保護マップM11、M12及び陰影用保護マップM21、M22(図2参照)を生成する。ここで、肌理用保護マップM11、M12、陰影用保護マップM21、M22は、特異領域に補正処理を施す際に、その特異領域の周辺の画像領域のうち、補正対象外とする画像領域を保護する(マスクする)ためのマスクデータである。
解析部109は、肌理情報取得手段、エッジ成分取得手段、検出手段、解析手段、修正手段として機能する。
The analysis unit 109 analyzes the image data (subject image) of the subject acquired by the imaging unit 106 and processed by the first image processing unit 107 when the correction mode according to the present invention is set in advance. The texture information (skin surface information) of the subject's skin is acquired and output to the second image processing unit 110. Further, the analysis unit 109 analyzes the image area around the singular region (for example, the region where foreign matter such as a breakout exists) different from the surrounding skin in the image data processed by the first image processing unit 107. The second image processing unit 110 generates the texture protection maps M11 and M12 and the shadow protection maps M21 and M22 (see FIG. 2) used when the singular region is corrected. Here, the texture protection maps M11 and M12 and the shading protection maps M21 and M22 protect the image areas to be excluded from the correction target among the image areas around the singular area when the correction process is applied to the singular area. It is mask data for (masking).
The analysis unit 109 functions as a texture information acquisition means, an edge component acquisition means, a detection means, an analysis means, and a correction means.

第2の画像処理部110は、撮像部106により取得され、第1の画像処理部107により処理された画像データの特異領域に対し、解析部109により生成された肌理用保護マップM11、M12、及び陰影用保護マップM21、M22を用いて平滑化処理等の補正処理を施し、処理結果に肌理情報を付加して元の画像データ(元画像)に合成することで、補正済み画像を生成する。
第2の画像処理部110は、加工手段、処理手段として機能する。
The second image processing unit 110 has the skin protection maps M11, M12, generated by the analysis unit 109 with respect to the singular region of the image data acquired by the imaging unit 106 and processed by the first image processing unit 107. And correction processing such as smoothing processing is performed using the protection maps M21 and M22 for shading, and the corrected image is generated by adding texture information to the processing result and synthesizing it with the original image data (original image). ..
The second image processing unit 110 functions as a processing means and a processing means.

解析部109、第2の画像処理部110は、制御部101と記憶部102に記憶されているプログラムとの協働により実行されるものとするが、専用のハードウエアにより実現することとしてもよい。 The analysis unit 109 and the second image processing unit 110 are executed in cooperation with the control unit 101 and the program stored in the storage unit 102, but may be realized by dedicated hardware. ..

点灯制御部111(ドライバ)は、発光部112のLED(Light Emitting Diode)のそれぞれに接続され、制御部101からの指示に従って、発光部112の光量や点灯/消灯を制御する。 The lighting control unit 111 (driver) is connected to each of the LEDs (Light Emitting Diodes) of the light emitting unit 112, and controls the amount of light and the lighting / extinguishing of the light emitting unit 112 according to the instruction from the control unit 101.

発光部112は、LED等により構成され、被写体に光を照射する。 The light emitting unit 112 is composed of an LED or the like, and irradiates the subject with light.

[撮像装置1の動作]
次に、撮像装置1の解析部109及び第2の画像処理部110の動作について説明する。
図2は、解析部109及び第2の画像処理部110により実行される処理の概略を示す図である。図2のG1は、第1の画像処理部107で処理された画像データを元画像として、元画像における特異領域及びその周辺のY成分画像(輝度成分画像)を模式的に示した図である。図2のG1において、斜線51は特異領域を表し、ドット52は肌の肌理(キメ)を表し、陰影部53は肌にかかった陰影を表す。この陰影とは、例えば、顔の器官やしわ等による凹凸によって発生するものもあれば、髪、睫毛、眉、もしくはそれらの影によって発生するものもある。図2において、G1全体に肌理52が存在する。また特異領域51(吹き出物等の異物の画像)だけでなく、その特異領域周辺には、陰影53が存在する。
[Operation of imaging device 1]
Next, the operations of the analysis unit 109 and the second image processing unit 110 of the image pickup apparatus 1 will be described.
FIG. 2 is a diagram showing an outline of processing executed by the analysis unit 109 and the second image processing unit 110. G1 of FIG. 2 is a diagram schematically showing a Y component image (luminance component image) of a singular region in the original image and its surroundings, using the image data processed by the first image processing unit 107 as the original image. .. In G1 of FIG. 2, the diagonal line 51 represents a singular region, the dot 52 represents the texture of the skin, and the shaded portion 53 represents the shadow applied to the skin. Some of these shadows are caused by unevenness caused by facial organs and wrinkles, while others are caused by hair, eyelashes, eyebrows, or their shadows. In FIG. 2, the texture 52 exists in the entire G1. In addition to the singular region 51 (an image of a foreign substance such as a breakout), a shadow 53 exists around the singular region.

このY成分画像G1に対応する元画像において、特異領域51を目立たなくする補正処理を行うと、補正対象とした領域の肌の表面状態(肌理)まで消えてしまい、不自然な画像となってしまう。例えば、図2のG2は、特異領域の肌理が消えた例を示している。補正対象の領域を周辺まで広げると、特異領域周辺の陰影まで消えてしまい、さらに不自然な画像となる。 In the original image corresponding to the Y component image G1, if the correction process for making the singular region 51 inconspicuous is performed, the surface condition (texture) of the skin in the region to be corrected disappears, resulting in an unnatural image. It ends up. For example, G2 in FIG. 2 shows an example in which the texture of the singular region disappears. When the area to be corrected is expanded to the periphery, the shadows around the singular region disappear, resulting in a more unnatural image.

そこで、本実施形態では、まず、解析部109において、元画像から特異領域及びその周辺部におけるY成分画像G1を生成する。次いで、図2に示すように、Y成分画像G1を解析して、解析結果に基づいて肌理用保護マップM11(大)、肌理用保護マップM12(小)、陰影用保護マップM21(大)、陰影用保護マップM22(小)を生成する。そして、第2の画像処理部110において、生成した肌理用保護マップM11、M12、陰影用保護マップM21、M22を用いて元画像に特異領域を目立たなくするための補正処理を行う。図2において、補正処理後の画像をG2で示す。また、解析部109において、補正以前にY成分画像G1を解析して被写体の肌の表面状態(肌理)を示す情報(肌理情報)を取得しておき、第2の画像処理部110において、解析部109において補正以前の情報から取得した肌理情報を補正処理後の画像G2に付加する加工を施して、肌理と陰影が消えていない補正済み画像G3を生成する。 Therefore, in the present embodiment, first, the analysis unit 109 generates a Y component image G1 in the singular region and its peripheral portion from the original image. Next, as shown in FIG. 2, the Y component image G1 is analyzed, and based on the analysis results, the texture protection map M11 (large), the texture protection map M12 (small), the shadow protection map M21 (large), Generates a shadow protection map M22 (small). Then, the second image processing unit 110 uses the generated texture protection maps M11 and M12 and shadow protection maps M21 and M22 to perform correction processing to make the singular region inconspicuous in the original image. In FIG. 2, the image after the correction process is shown by G2. Further, the analysis unit 109 analyzes the Y component image G1 before the correction to acquire information (texture information) indicating the surface state (texture) of the subject's skin, and the second image processing unit 110 analyzes it. In part 109, the texture information acquired from the information before the correction is added to the image G2 after the correction process to generate the corrected image G3 in which the texture and the shadow are not erased.

ここで、元画像からの補正対象となる特異領域の検出手法は、特に限定されず、いずれの方法で行ってもよい。例えば、表示部103に表示された元画像の顔領域上からユーザが操作部105により指定した領域を特異領域として検出してもよい。あるいは、元画像から顔領域を検出し、検出された顔領域の画像を切り出して、顔領域の輪郭領域内のV成分画像データの、目、鼻、口をマスクしたデータから周囲とは異なる画素値(突発的に生じている画素値)の領域を抽出し、その領域の大きさに基づいて特異領域を検出してもよい。 Here, the method for detecting the singular region to be corrected from the original image is not particularly limited, and any method may be used. For example, a region designated by the user by the operation unit 105 may be detected as a singular region from the face area of the original image displayed on the display unit 103. Alternatively, the face region is detected from the original image, the image of the detected face region is cut out, and the V component image data in the contour region of the face region is a pixel different from the surroundings from the data masking the eyes, nose, and mouth. A region of values (suddenly occurring pixel values) may be extracted and a singular region may be detected based on the size of the region.

図3は、解析部109と第2の画像処理部110の機能構成を示すブロック図である。
図3に示すように、解析部109は、肌解析部20、保護マップデータ設定部21、低域データ生成部22、エッジ情報生成部23、領域分割部24、陰影用保護マップ生成部25、肌理用保護マップ生成部26を備えて構成されている。また、第2の画像処理部110は、保護マップ境界信頼性判定部27、補正処理部28、透過合成処理部29、合成処理部30を備えて構成されている。以下、図3を参照して、解析部109と第2の画像処理部110の処理について説明する。
FIG. 3 is a block diagram showing a functional configuration of the analysis unit 109 and the second image processing unit 110.
As shown in FIG. 3, the analysis unit 109 includes a skin analysis unit 20, a protection map data setting unit 21, a low frequency data generation unit 22, an edge information generation unit 23, an area division unit 24, and a shadow protection map generation unit 25. It is configured to include a skin protection map generation unit 26. The second image processing unit 110 includes a protection map boundary reliability determination unit 27, a correction processing unit 28, a transmission composition processing unit 29, and a composition processing unit 30. Hereinafter, the processing of the analysis unit 109 and the second image processing unit 110 will be described with reference to FIG.

まず、解析部109は、YUVの各成分を有する元画像からY(輝度)成分で構成されるY成分画像を生成し、更に、そのY成分画像の顔領域から検出された、特異領域を中央に含む所定サイズの矩形領域を切り出して、肌解析部20及びエッジ情報生成部23に入力する。 First, the analysis unit 109 generates a Y component image composed of a Y (luminance) component from an original image having each component of YUV, and further centers a singular region detected from the face region of the Y component image. A rectangular area having a predetermined size included in the above is cut out and input to the skin analysis unit 20 and the edge information generation unit 23.

肌解析部20は、入力された矩形領域内のY成分画像を解析して毛穴の画像領域を検出し、この毛穴の画像領域における毛穴のサイズデータ(size)と毛穴部分のコントラストデータ(con)を取得する。そして、取得された毛穴のサイズデータについて、毛穴サイズデータの平均データ(size_ave)及び毛穴サイズデータの標準偏差データ(size_sd)を算出し、保護マップデータ設定部21及び低域データ生成部22に出力する。また、取得された毛穴部分のコントラストデータについて、毛穴部分のコントラストデータの平均データ(con_ave)及び毛穴部分のコントラストデータの標準偏差データ(con_sd)を算出し、肌理用保護マップ生成部26に出力する。 The skin analysis unit 20 analyzes the Y component image in the input rectangular region to detect the image region of the pores, and the pore size data (size) and the contrast data (con) of the pore portion in the image region of the pores. To get. Then, for the acquired pore size data, the average data (size_ave) of the pore size data and the standard deviation data (size_sd) of the pore size data are calculated and output to the protection map data setting unit 21 and the low frequency data generation unit 22. To do. Further, with respect to the acquired contrast data of the pore portion, the average data (con_ave) of the contrast data of the pore portion and the standard deviation data (con_sd) of the contrast data of the pore portion are calculated and output to the texture protection map generation unit 26. ..

保護マップデータ設定部21は、特異領域を補正する際、それ以外の領域まで補正されることが無いよう、大きさが異なる大小2種類の楕円形状の保護除外領域61、62(図2参照)を有するマスクデータからなる保護マップM1、M2を生成し、領域分割部24、肌理用保護マップ生成部26に出力する。特異領域は、ニキビ等の吹き出物や周囲から目立つ起伏の存在するほぼ円形の領域であり、保護マップM1、M2の保護除外領域61、62は、特異領域を囲む楕円形状となっている。
例えば、保護マップデータ設定部21は、まず、記憶部102に記憶されている基本の楕円サイズの保護除外領域を有する基本の保護マップを読み出す。次いで、肌解析部20において算出された毛穴サイズデータの平均データ(size_ave)と毛穴サイズデータの標準偏差データ(size_sd)を足し合わせた値に基づいて毛穴サイズの半径を求め、求めた半径を基本の保護マップの楕円の半径に足した保護除外領域を有する保護マップM1、求めた半径を基本の保護マップの楕円の半径から引いた楕円サイズの保護除外領域を有する保護マップM2を生成する。
なお、毛穴サイズは、一般的には個人差が少ないため、予め2種類のサイズの保護マップM1、M2を生成して記憶部102に記憶することとしてもよい。また、本実施形態ではテンプレートとして2種類のサイズの保護マップM1,M2を生成することとしたが、これに限らず、サイズに応じて複数種生成してもよい。サイズが多ければ多い程、より精度の高い特異領域の補正が可能となる。
When correcting the singular region, the protection map data setting unit 21 has two types of elliptical protection exclusion regions 61 and 62 (see FIG. 2) having different sizes so that the other regions are not corrected. The protection maps M1 and M2 composed of the mask data having the above are generated and output to the area division unit 24 and the texture protection map generation unit 26. The singular region is a substantially circular region where breakouts such as acne and undulations conspicuous from the surroundings are present, and the protection exclusion regions 61 and 62 of the protection maps M1 and M2 have an elliptical shape surrounding the singular region.
For example, the protection map data setting unit 21 first reads out a basic protection map having a basic ellipse-sized protection exclusion area stored in the storage unit 102. Next, the radius of the pore size is calculated based on the sum of the average data (size_ave) of the pore size data calculated by the skin analysis unit 20 and the standard deviation data (size_sd) of the pore size data, and the calculated radius is used as the basis. A protection map M1 having a protection exclusion area added to the radius of the ellipse of the protection map of the above, and a protection map M2 having an ellipse-sized protection exclusion area obtained by subtracting the obtained radius from the radius of the ellipse of the basic protection map are generated.
Since the pore size generally has little individual difference, two types of protection maps M1 and M2 may be generated in advance and stored in the storage unit 102. Further, in the present embodiment, two types of protection maps M1 and M2 are generated as templates, but the present invention is not limited to this, and a plurality of types may be generated depending on the size. The larger the size, the more accurate the correction of the singular region becomes possible.

低域データ生成部22は、Y成分画像を肌解析部20から入力された毛穴のサイズデータの平均データ(size_ave)と毛穴のサイズデータの標準偏差データ(size_sd)を足し合わせた値をパラメータとした平均フィルタを用いて平滑化してY成分画像におけるエッジ成分を取り除き、大まかな陰影の状態を示す低域データ(低周波数帯域のデータ)を生成する。これにより、肌の陰影から毛穴の影響を取り除くことができる。低域データ生成部22は、生成した低域データをエッジ情報生成部23及び領域分割部24に出力する。 The low frequency data generation unit 22 uses a value obtained by adding the average data (size_ave) of the pore size data input from the skin analysis unit 20 and the standard deviation data (size_sd) of the pore size data as a parameter for the Y component image. The edge component in the Y component image is removed by smoothing using the average filter, and low frequency data (low frequency band data) showing a rough shadow state is generated. This makes it possible to remove the effects of pores from the shadows of the skin. The low frequency data generation unit 22 outputs the generated low frequency data to the edge information generation unit 23 and the area division unit 24.

エッジ情報生成部23は、低域データ生成部22にて生成された低域データとY成分画像との正方向の(正値の)差分データ、負方向の(負値の)差分データをそれぞれ生成・取得する。これにより、毛穴より高い周波数帯域の肌理を抽出することができる。エッジ情報生成部23は、この正方向の差分データ、負方向の差分データを肌理に対応するエッジ情報(肌理情報)として合成処理部30に出力する。 The edge information generation unit 23 generates positive (positive value) difference data and negative (negative value) difference data between the low frequency data generated by the low frequency data generation unit 22 and the Y component image, respectively. Generate / acquire. As a result, the texture in the frequency band higher than the pores can be extracted. The edge information generation unit 23 outputs the difference data in the positive direction and the difference data in the negative direction to the synthesis processing unit 30 as edge information (texture information) corresponding to the texture.

領域分割部24は、低域データ生成部22から入力された低域データに基づいて、保護マップデータ設定部21から入力された保護マップM1の楕円と保護マップM2の楕円の間の環状の領域の中で、補正を施すと陰影が消えてしまう等、本来の陰影表現に影響が出る陰影領域を特定し、これを他の領域と分割する。 The area division unit 24 is an annular region between the ellipse of the protection map M1 and the ellipse of the protection map M2 input from the protection map data setting unit 21 based on the low frequency data input from the low frequency data generation unit 22. In, the shadow area that affects the original shadow expression, such as the shadow disappearing when the correction is applied, is specified, and this is divided from other areas.

領域分割部24は、具体的には、大小の保護マップM1、M2を低域データに重ねたときに保護マップM1の楕円と保護マップM2の楕円のサイズの差となる環状の領域で画素値(低域データの画素値)のヒストグラムを算出し、このヒストグラムから最頻値(ピーク)を求め、求めた最頻値を中心に極小値が存在する範囲までの画素値の領域を陰影領域として他の領域と分割する。そして、陰影領域の情報を陰影用保護マップ生成部25に出力する。 Specifically, the region division unit 24 is a pixel value in an annular region where the size difference between the ellipse of the protection map M1 and the ellipse of the protection map M2 when the large and small protection maps M1 and M2 are superimposed on the low frequency data. A histogram of (pixel value of low frequency data) is calculated, the mode value (peak) is obtained from this histogram, and the area of the pixel value up to the range where the minimum value exists around the determined mode value is used as the shadow area. Divide with other areas. Then, the information of the shadow area is output to the shadow protection map generation unit 25.

陰影用保護マップ生成部25は、領域分割部24から入力された陰影領域の情報に基づいて、保護マップM1、M2による保護対象領域に陰影領域を足しこんで、図2に示すような陰影用保護マップM11、M12を生成する。これにより、特異領域外であるが保護マップM1、M2を用いて処理すると保護除外領域に入ってしまい、一部又は全部(多くの場合は一部)の情報が欠如して不自然となる陰影領域全体を保護対象に追加することが可能となる。すなわち、陰影用保護マップM11、M12を用いて補正処理部28に補正処理を行わせることにより、保護除外領域61、62に含まれる陰影領域を除いて補正処理を行うことが可能となる。陰影用保護マップ生成部25は、生成した陰影用保護マップM11、M12を補正処理部28及び保護マップ境界信頼性判定部27に出力する。 The shading protection map generation unit 25 adds the shadow area to the protection target area by the protection maps M1 and M2 based on the information of the shadow area input from the area division unit 24, and is for shading as shown in FIG. Generate protection maps M11 and M12. As a result, although it is outside the singular region, if it is processed using the protection maps M1 and M2, it will enter the protection exclusion region, and some or all (in many cases, part) information will be lacking, resulting in an unnatural shadow. It is possible to add the entire area to the protection target. That is, by causing the correction processing unit 28 to perform the correction processing using the shadow protection maps M11 and M12, it is possible to perform the correction processing excluding the shadow areas included in the protection exclusion areas 61 and 62. The shadow protection map generation unit 25 outputs the generated shadow protection maps M11 and M12 to the correction processing unit 28 and the protection map boundary reliability determination unit 27.

肌理用保護マップ生成部26は、肌解析部20より取得した毛穴部分のコントラストデータの平均データ(con_ave)と毛穴部分のコントラストデータの標準偏差データ(con_sd)とを足し合わせ、それより大きい強度の正方向エッジ(周囲より輝度が高いエッジ)を有する画素と負方向エッジ(周囲より輝度が低いエッジ)を有する画素とを求める。次いで、保護マップM1、M2の夫々において保護除外領域との境界上にある画素領域にある上記正方向エッジの画素と負方向エッジの画素を保護マップM1、M2の保護対象領域に足し込んで肌理用保護マップM21、M22を生成する。こうすることで、保護マップの保護対象外領域との境界に存在する毛穴以上のエッジ強度を持つ画素を補正処理対象から除外することができ、補正後の画像に残る不自然さを解消させることができる。肌理用保護マップ生成部26は、生成した肌理用保護マップM21、M22を補正処理部28及び保護マップ境界信頼性判定部27に出力する。 The skin protection map generation unit 26 adds the average data (con_ave) of the contrast data of the pore portion acquired from the skin analysis unit 20 and the standard deviation data (con_sd) of the contrast data of the pore portion, and has a higher intensity. A pixel having a positive edge (an edge having a higher brightness than the surroundings) and a pixel having a negative edge (an edge having a lower brightness than the surroundings) are obtained. Next, in each of the protection maps M1 and M2, the pixels of the positive direction edge and the pixels of the negative direction edge in the pixel area on the boundary with the protection exclusion area are added to the protection target area of the protection maps M1 and M2 to give a texture. For protection maps M21 and M22 are generated. By doing so, it is possible to exclude pixels having an edge strength equal to or higher than the pores existing at the boundary with the unprotected area of the protection map from the correction processing target, and eliminate the unnaturalness remaining in the corrected image. Can be done. The texture protection map generation unit 26 outputs the generated texture protection maps M21 and M22 to the correction processing unit 28 and the protection map boundary reliability determination unit 27.

保護マップ境界信頼性判定部27は、陰影用保護マップ生成部25及び肌理用保護マップ生成部26において生成された2つの大サイズの保護マップM11、M21を合わせた大サイズの保護マップと、2つの小サイズの保護マップM12、M22を合わせた小サイズの保護マップの夫々を用いて補正処理された画像領域の夫々の信頼性を判定する。そして、後述の透過合成処理において、信頼性の高い方の画素の影響度を高くし、信頼性の低い方の画素の影響度を低くするマップを生成して透過合成処理部29に出力する。なお、補正処理前に補正処理後の画像領域の夫々の信頼性を判定してもよい。 The protection map boundary reliability determination unit 27 includes a large-sized protection map in which two large-sized protection maps M11 and M21 generated by the shadow protection map generation unit 25 and the texture protection map generation unit 26 are combined, and 2 The reliability of each of the corrected image areas is determined by using each of the small size protection maps M12 and M22 combined. Then, in the transmission synthesis processing described later, a map that increases the influence of the pixel with higher reliability and lowers the influence of the pixel with lower reliability is generated and output to the transmission synthesis processing unit 29. Before the correction process, the reliability of each image area after the correction process may be determined.

ここで、大きい保護マップと小さい保護マップの保護対象領域が重なっている画像領域、及び双方の保護除外領域が重なっている画像領域は、大小の保護マップのいずれを用いて補正処理を行っても処理結果は同じであるため、信頼度は同じである。そこで、ここでは、主に大きい保護マップの保護除外領域との境界と、小さい保護マップの保護除外領域との境界に挟まれた画像領域の各画素について信頼度を判定する。本実施形態では、より楕円らしい領域で処理できている方を信頼度が高いと判定する。例えば、各画素に対して、境界共有率、面積共有率、境界回帰分析一致率等を算出し、算出結果に基づいて大小の保護マップの信頼度を判定する。 Here, the image area where the protection target areas of the large protection map and the protection target area of the small protection map overlap, and the image area where both protection exclusion areas overlap, can be corrected by using either the large or small protection map. Since the processing results are the same, the reliability is the same. Therefore, here, the reliability is mainly determined for each pixel of the image area sandwiched between the boundary between the protection exclusion area of the large protection map and the protection exclusion area of the small protection map. In the present embodiment, it is determined that the reliability is higher when the processing can be performed in a more elliptical region. For example, the boundary sharing rate, the area sharing rate, the boundary regression analysis match rate, etc. are calculated for each pixel, and the reliability of the large and small protection maps is determined based on the calculation results.

ここで、境界共有率は、大サイズの保護マップと小サイズの保護マップにそれぞれにおける保護除外領域との境界の長さと、大小の保護マップで保護除外領域との境界が一致している(共有している)長さの比率である。大小の保護マップにおける保護除外領域(すなわち、補正対象領域)が楕円であれば大小の保護マップの保護除外領域との境界は共有しないので、共有部分の比率が高いほど信頼度を下げる。
面積共有率は、大サイズの保護マップと小サイズの保護マップのそれぞれにおける保護マップの面積に対する保護エッジ(保護対象領域に追加された面積)の面積の割合である。保護エッジの割合が少ない方(共有率が低い方)が信頼度が高い。
境界回帰分析一致率は、大サイズの保護マップと小サイズの保護マップのそれぞれにおいて、保護除外領域との境界に回帰分析を行った場合に回帰分析結果の範囲内にどのくらい境界値があるかを示す値である。境界回帰分析一致率が少ない場合、信頼度を下げる。
なお、上述の信頼度の算出手法は例示であって、信頼度判断の考え方や具体的な方法についてはこれに限定されるものではない。
Here, the boundary sharing ratio matches the length of the boundary between the large-sized protection map and the small-sized protection map with the protection exclusion area in each, and the boundary between the large and small protection maps and the protection exclusion area (sharing). It is the ratio of the length. If the protection exclusion area (that is, the correction target area) in the large and small protection maps is elliptical, the boundary with the protection exclusion area of the large and small protection maps is not shared. Therefore, the higher the ratio of the shared portion, the lower the reliability.
The area sharing ratio is the ratio of the area of the protected edge (the area added to the protected area) to the area of the protected map in each of the large-sized protected map and the small-sized protected map. The one with a small proportion of protected edges (the one with a low sharing rate) has higher reliability.
Boundary regression analysis coincidence rate is the number of boundary values within the range of regression analysis results when regression analysis is performed on the boundary with the protection exclusion area in each of the large size protection map and the small size protection map. This is the value shown. Boundary regression analysis If the concordance rate is low, reduce the reliability.
The above-mentioned reliability calculation method is an example, and the concept and specific method of reliability determination are not limited to this.

補正処理部28は、元画像のYUV各成分の画像の特異領域を含む矩形領域に陰影用保護マップ生成部25及び肌理用保護マップ生成部26において生成された2つの大サイズの保護マップM11、M21を合わせた大サイズの保護マップを適用して、保護マップで囲まれた保護除外領域の画像領域とそれ以外の画像領域との境界や特異な状態を目立たなくする補正処理を行う。同様に、元画像のYUV各成分の画像の特異領域を含む矩形領域に陰影用保護マップ生成部25及び肌理用保護マップ生成部26において生成された2つの小サイズの保護マップM12、M22を合わせた小サイズの保護マップを適用して、保護マップで囲まれた保護除外領域の画像領域とそれ以外の画像領域との境界や特異な状態を目立たなくする補正処理を行う。
尚、上記の補正処理は、主に平滑化処理(肌状態を滑らかにする処理、透明感をもたせる処理)が用いられるが、この他、色補正処理(より自然な肌色に補正する処理)も用いる場合もある。
補正処理部28は、大サイズの保護マップで補正処理されたYUV各成分画像と、小サイズの保護マップで補正処理されたYUV各成分画像を透過合成処理部29に出力する。
The correction processing unit 28 has two large-sized protection maps M11 generated by the shadow protection map generation unit 25 and the texture protection map generation unit 26 in a rectangular region including the singular region of the image of each YUV component of the original image. A large-sized protection map including M21 is applied, and correction processing is performed to make the boundary between the image area of the protection exclusion area surrounded by the protection map and the other image areas and the peculiar state inconspicuous. Similarly, the two small-sized protection maps M12 and M22 generated by the shadow protection map generation unit 25 and the texture protection map generation unit 26 are combined with the rectangular area including the singular region of the image of each YUV component of the original image. A small-sized protection map is applied, and correction processing is performed to make the boundary and peculiar state between the image area of the protection exclusion area surrounded by the protection map and the other image areas inconspicuous.
The above correction process mainly uses a smoothing process (a process for smoothing the skin condition and a process for giving a feeling of transparency), but in addition to this, a color correction process (a process for correcting a more natural skin color) is also used. It may be used.
The correction processing unit 28 outputs the YUV component image corrected by the large-sized protection map and the YUV component image corrected by the small-sized protection map to the transmission synthesis processing unit 29.

透過合成処理部29は、保護マップ境界信頼性判定部27から出力されたマップに基づいて、大サイズの保護マップで補正処理されたYUV各成分画像と、小サイズの保護マップで補正処理されたYUV各成分画像を、2つの保護マップによって補正処理対象とされた画素ごとに、信頼性が高いと判定された方の画素の影響度が高くなるようにα値を設定して透過合成して出力する。 Based on the map output from the protection map boundary reliability determination unit 27, the transmission synthesis processing unit 29 corrected the YUV component images corrected by the large size protection map and the correction processing by the small size protection map. Each YUV component image is transparently combined by setting the α value so that the influence of the pixel judged to be highly reliable is high for each pixel targeted for correction processing by the two protection maps. Output.

合成処理部30は、透過合成処理部29で透過合成されたYUV各成分画像の補正処理対象領域にエッジ情報生成部23から入力された肌理に対応するエッジ情報を付加し、肌理の状態が付加された画像(補正後の画像)と元画像とを所定のブレンド比率でαブレンドし、補正済み画像を出力する。 The composition processing unit 30 adds the edge information corresponding to the texture input from the edge information generation unit 23 to the correction processing target area of the YUV component image transmitted and synthesized by the transmission composition processing unit 29, and adds the texture state. The corrected image (corrected image) and the original image are α-blended at a predetermined blend ratio, and the corrected image is output.

解析部109、第2の画像処理部110において以上の処理を行うことで、図2の補正済み画像G3に示すように、顔の凹凸やしわの影響による陰影や肌理の状態を保持しつつ、吹き出物のような特異領域を目立たなくする画像処理を施すことができる。 By performing the above processing in the analysis unit 109 and the second image processing unit 110, as shown in the corrected image G3 of FIG. 2, while maintaining the state of shadows and texture due to the influence of facial irregularities and wrinkles, Image processing can be performed to make singular areas such as breakouts inconspicuous.

以上説明したように、撮像装置1によれば、解析部109は、被写体画像を取得し、取得された被写体画像から被写体の表面状態情報を取得する。第2の画像処理部110は、解析部109において取得された表面状態情報に基づいて、被写体画像を加工する。
したがって、被写体の表面状態情報に基づいて、被写体の表面状態を保持した被写体画像を得ることができる。また、被写体画像を補正して被写体の表面状態が欠落するような場合に、表面状態情報に基づいて補正箇所を目立たなくすることができる。
As described above, according to the image pickup apparatus 1, the analysis unit 109 acquires the subject image and acquires the surface state information of the subject from the acquired subject image. The second image processing unit 110 processes the subject image based on the surface state information acquired by the analysis unit 109.
Therefore, it is possible to obtain a subject image that retains the surface state of the subject based on the surface state information of the subject. Further, when the surface state of the subject is lost by correcting the subject image, the corrected portion can be made inconspicuous based on the surface state information.

また、例えば、解析部109は、被写体画像の画像領域における所定の周波数帯域のエッジ成分を取得し、取得されたエッジ成分を表面状態情報として取得する。
したがって、所定の周波数帯域のエッジからなる被写体の表面状態を保持した被写体画像を得ることができる。
Further, for example, the analysis unit 109 acquires an edge component of a predetermined frequency band in the image region of the subject image, and acquires the acquired edge component as surface state information.
Therefore, it is possible to obtain a subject image that retains the surface state of the subject composed of edges in a predetermined frequency band.

また、例えば、第2の画像処理部110は、所定の処理が施された被写体画像に、取得された表面状態情報に基づいた加工を施す。したがって、所定の処理が施された被写体画像に被写体の表面状態を加えることができる。 Further, for example, the second image processing unit 110 performs processing on the subject image to which the predetermined processing has been performed based on the acquired surface state information. Therefore, it is possible to add the surface state of the subject to the subject image that has been subjected to the predetermined processing.

また、例えば、第2の画像処理部110は、被写体画像における特異領域を目立たなくする処理、例えば平滑化処理が施された場合に、解析部109によって取得された表面状態情報に基づいた加工を施す。したがって、被写体画像において特異領域を目立たなくする処理を施すことによって被写体の表面状態が欠落した場合でも、表面状態に基づく加工を施して処理を行った箇所を目立たないようにすることができる。 Further, for example, the second image processing unit 110 performs processing based on the surface state information acquired by the analysis unit 109 when a process of making a singular region in the subject image inconspicuous, for example, a smoothing process is performed. Give. Therefore, even if the surface state of the subject is lost by performing the process of making the singular region inconspicuous in the subject image, it is possible to make the processed portion inconspicuous by performing the processing based on the surface state.

また、例えば、第2の画像処理部110は、特異領域を囲む形状を模した複数種のサイズの保護マップを用いて、この保護マップによって囲まれる特異領域を含む画像領域で所定の処理を夫々施し、複数種のサイズの保護マップの夫々を用いて所定の処理が施された画像領域の夫々の信頼性情報を取得し、取得された信頼性情報に基づき、複数の保護マップによる所定の処理の結果を影響度を変えて合成する。したがって、より信頼性の高い保護マップで処理された処理結果を被写体画像に反映させることができる。 Further, for example, the second image processing unit 110 uses protection maps of a plurality of sizes imitating a shape surrounding the singular region, and performs predetermined processing in the image region including the singular region surrounded by the protection map, respectively. Obtains the reliability information of each image area that has been subjected to predetermined processing using each of the protection maps of various sizes, and based on the acquired reliability information, predetermined processing by the plurality of protection maps. The results of are synthesized with different degrees of influence. Therefore, the processing result processed by the more reliable protection map can be reflected in the subject image.

また、例えば、解析部109は、被写体画像の輝度情報を解析し、その解析結果に基づいて、複数種の保護マップの形状を修正する。したがって、被写体画像に応じたマスク形状の保護マップを用いて被写体画像の特異領域に処理を施すことができる。 Further, for example, the analysis unit 109 analyzes the luminance information of the subject image and corrects the shapes of a plurality of types of protection maps based on the analysis result. Therefore, it is possible to process a peculiar region of the subject image by using a mask-shaped protection map according to the subject image.

また、撮像装置1の解析部109及び第2の画像処理部110は、人の肌領域を含む被写体画像に上記処理を施すので、人物の肌の肌理を保持した被写体画像を得ることができる。 Further, since the analysis unit 109 and the second image processing unit 110 of the imaging device 1 perform the above processing on the subject image including the human skin region, it is possible to obtain a subject image that retains the texture of the human skin.

また、撮像装置1の第2の画像処理部110は、被写体画像における特異領域を周辺に対し目立たなくするよう補正し、補正された特異領域に対し、補正以前の被写体画像における被写体の表面状態を付加する加工を施す。したがって、被写体画像の特異領域を目立たなくする補正を行った場合に、補正箇所を目立たなくすることができる。 Further, the second image processing unit 110 of the image pickup apparatus 1 corrects the singular region in the subject image so as to make it inconspicuous with respect to the periphery, and makes the corrected singular region the surface state of the subject in the subject image before the correction. Perform additional processing. Therefore, when the correction for making the singular region of the subject image inconspicuous is performed, the corrected portion can be made inconspicuous.

なお、上記実施形態における記述内容は、本発明の好適な一例であり、これに限定されるものではない。 The description content in the above embodiment is a preferable example of the present invention, and is not limited thereto.

例えば、上記実施形態においては、本発明の画像処理装置が撮像装置に備えられている場合を例にとり説明したが、本発明の画像処理装置は撮像装置とは別体であってもよい。例えば、撮像装置から受信した画像データに対して、図2〜図3を用いて説明した処理を行う画像処理装置としてもよい。また、元画像については、記録された画像に限定されることなく、撮像部106にて逐次撮像され、表示部103に逐次表示されるライブビュー画像のようなものであってもよい。こうすることで、常に補正された結果を反映した被写体画像(顔)をユーザに提供することができる。 For example, in the above embodiment, the case where the image processing apparatus of the present invention is provided in the image pickup apparatus has been described as an example, but the image processing apparatus of the present invention may be a separate body from the image pickup apparatus. For example, it may be an image processing device that performs the processing described with reference to FIGS. 2 to 3 on the image data received from the image pickup device. Further, the original image is not limited to the recorded image, and may be a live view image that is sequentially captured by the imaging unit 106 and sequentially displayed on the display unit 103. By doing so, it is possible to provide the user with a subject image (face) that always reflects the corrected result.

また、上記実施形態においては、YUVの画像データを用いた場合を例にとり説明したが、画像データの種類は特に限定されない。 Further, in the above embodiment, the case where the image data of YUV is used has been described as an example, but the type of the image data is not particularly limited.

また上記実施形態においては、肌理と陰影の双方を保護する場合を例にとり説明したが、いずれか一方のみを保護することとしてもよい。
肌理のみを保護する場合、元画像のY成分画像に基づいて、保護除外領域のサイズの異なる複数の肌理用保護マップを生成し、複数の肌理用保護マップの夫々を用いて元画像のYUV成分画像に補正処理を施し、複数の肌理用保護マップの夫々を用いて補正処理された画像領域の夫々の信頼度を求め、信頼度に基づいて画素ごとにα値を算出して複数の肌理用保護マップの夫々を用いて補正された複数の画像の透過合成を行う。また、Y成分画像から取得した肌理情報を透過合成した画像に付加して所定のα値で元画像のYUV成分画像に合成する。
陰影のみを保護する場合、元画像のY成分画像に基づいて、保護除外領域のサイズの異なる複数の陰影用保護マップを生成し、複数の陰影用保護マップの夫々を用いて元画像のYUV成分画像に補正処理を施し、複数の陰影用保護マップの夫々を用いて補正処理された画像領域の夫々の信頼度を求め、信頼度に基づいて画素ごとにα値を算出して複数の陰影用保護マップの夫々を用いて補正された複数の画像の透過合成を行う。そして、透過合成した画像を所定のα値で元画像のYUV成分画像に合成する。
Further, in the above embodiment, the case of protecting both the texture and the shadow has been described as an example, but only one of them may be protected.
When protecting only the texture, multiple skin protection maps with different sizes of the protection exclusion area are generated based on the Y component image of the original image, and the YUV component of the original image is used using each of the multiple skin protection maps. The image is corrected, the reliability of each of the corrected image areas is obtained using each of the multiple protection maps for texture, and the α value is calculated for each pixel based on the reliability for multiple textures. Transparent composition of a plurality of corrected images is performed using each of the protection maps. Further, the texture information acquired from the Y component image is added to the transparently synthesized image and combined with the YUV component image of the original image at a predetermined α value.
When protecting only the shading, multiple shading protection maps with different sizes of the protection exclusion area are generated based on the Y component image of the original image, and the YUV component of the original image is used using each of the multiple shading protection maps. The image is corrected, the reliability of each of the corrected image areas is obtained using each of the multiple shadow protection maps, and the α value is calculated for each pixel based on the reliability for multiple shadows. Transparent composition of a plurality of corrected images is performed using each of the protection maps. Then, the transmitted-combined image is combined with the YUV component image of the original image at a predetermined α value.

また、例えば、上記の説明では、本発明に係るプログラムのコンピュータ読み取り可能な媒体としてハードディスクや半導体の不揮発性メモリ等を使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、CD−ROM等の可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も適用される。 Further, for example, in the above description, an example in which a hard disk, a non-volatile memory of a semiconductor, or the like is used as a computer-readable medium of the program according to the present invention has been disclosed, but the present invention is not limited to this example. As another computer-readable medium, a portable recording medium such as a CD-ROM can be applied. A carrier wave is also applied as a medium for providing data of the program according to the present invention via a communication line.

その他、撮像装置を構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。 In addition, the detailed configuration and detailed operation of each device constituting the image pickup device can be appropriately changed without departing from the spirit of the invention.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
被写体画像を取得する取得手段と、
前記取得手段によって取得された被写体画像から被写体の肌理情報を取得する肌理情報取得手段と、
前記肌理情報取得手段によって取得された肌理情報に基づいて、前記被写体画像を加工する加工手段と、
を備えることを特徴とする画像処理装置。
<請求項2>
前記被写体画像の画像領域における所定の周波数帯域のエッジ成分を取得するエッジ成分取得手段を備え、
前記肌理情報取得手段は、このエッジ成分取得手段によって取得されたエッジ成分を前記肌理情報として取得することを特徴とする請求項1記載の画像処理装置。
<請求項3>
前記被写体画像に所定の画像処理を施す処理手段をさらに備え、
前記加工手段は、前記処理手段によって所定の処理が施された被写体画像に、前記肌理情報取得手段によって取得された肌理情報に基づいた加工を施すことを特徴とする請求項1又は2記載の画像処理装置。
<請求項4>
前記被写体画像において、周辺とは異なる特異領域を検出する検出手段をさらに備え、
前記所定の処理は、前記被写体画像における前記特異領域を目立たなくする処理である請求項3記載の画像処理装置。
<請求項5>
前記処理手段は、
前記特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で前記所定の処理を夫々施し、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記信頼性情報取得手段によって取得された信頼性情報に基づき、前記処理手段が処理した夫々のマスクデータ内の所定の処理の結果を影響度を変えて合成する合成手段と、
をさらに備えることを特徴とする請求項4記載の画像処理装置。
<請求項6>
前記被写体画像の輝度情報を解析する解析手段と、
前記解析手段による解析結果に基づいて、前記複数種のマスクデータの形状を修正する修正手段と、
をさらに備えることを特徴とする請求項5記載の画像処理装置。
<請求項7>
前記所定の処理は、平滑化処理であることを特徴とする請求項4に記載の画像処理装置。
<請求項8>
前記被写体画像は、人の肌領域を含む画像であることを特徴とする請求項1〜7のいずれか一項に記載の画像処理装置。
<請求項9>
被写体画像を取得する取得手段と、
前記被写体画像から、その周辺とは異なる特異領域を検出する検出手段と、
前記検出手段によって検出された特異領域を前記周辺に対し目立たなくするよう補正する補正手段と、
前記補正手段によって目立たなくなるよう補正された特異領域に対し、前記補正手段による補正以前の前記被写体画像における被写体の表面状態を付加する加工を施すよう制御する制御手段と、
を備えたことを特徴とする画像処理装置。
<請求項10>
被写体画像を取得する取得手段と、
前記取得手段によって取得された被写体画像における周辺とは異なる特異領域を検出する検出手段と、
前記検出手段によって検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域に所定の処理を夫々施す処理手段と、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記信頼性情報取得手段によって取得された信頼性情報に基づき、前記処理手段が処理した夫々のマスクデータ内の所定の処理の結果を影響度を変えて合成する合成手段と、
を備えたことを特徴とする画像処理装置。
<請求項11>
画像処理装置における画像処理方法であって、
被写体画像を取得する工程と、
前記取得された被写体画像から被写体の肌理情報を取得する工程と、
前記取得された肌理情報に基づいて、前記被写体画像を加工する工程と、
を含むことを特徴とする画像処理方法。
<請求項12>
画像処理装置における画像処理方法であって、
被写体画像を取得する工程と、
前記被写体画像から、その周辺とは異なる特異領域を検出する工程と、
前記検出された特異領域を前記周辺に対し目立たなくするよう補正する工程と、
前記目立たなくなるよう補正された特異領域に対し、前記補正以前の前記被写体画像における被写体の表面状態を付加する加工を施す工程と
を含むことを特徴とする画像処理方法。
<請求項13>
画像処理装置における画像処理方法であって、
被写体画像を取得する工程と、
前記取得された被写体画像における周辺とは異なる特異領域を検出する工程と、
前記検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の処理を夫々施す工程と、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する工程と、
前記取得された信頼性情報に基づき、前記夫々のマスクデータ内の前記所定の処理の結果を影響度を変えて合成する合成手段と、
を含むことを特徴とする画像処理方法。
<請求項14>
コンピュータを、
被写体画像を取得する取得手段、
前記取得手段によって取得された被写体画像から被写体の肌理情報を取得する肌理情報取得手段、
前記肌理情報取得手段によって取得された肌理情報に基づいて、前記被写体画像を加工する加工手段、
として機能させるためのプログラム。
<請求項15>
コンピュータを、
被写体画像を取得する取得手段、
前記被写体画像から、その周辺とは異なる特異領域を検出する検出手段、
前記検出手段によって検出された特異領域を前記周辺に対し目立たなくするよう補正する補正手段、
前記補正手段によって目立たなくなるよう補正された特異領域に対し、前記補正手段による補正以前の前記被写体画像における被写体の表面状態を付加する加工を施すよう制御する制御手段、
として機能させるためのプログラム。
<請求項16>
コンピュータを、
被写体画像を取得する取得手段、
前記取得手段によって取得された被写体画像における周辺とは異なる特異領域を検出する検出手段、
前記検出手段によって検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の処理を夫々施す処理手段、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段、
前記信頼性情報取得手段によって取得された信頼性情報に基づき、前記処理手段が処理した夫々のマスクデータ内の所定の処理の結果を影響度を変えて合成する合成手段、
として機能させるためのプログラム。
Although some embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and the equivalent scope thereof.
The inventions described in the claims originally attached to the application of this application are added below. The item number of the claim described in the appendix is the scope of the claims originally attached to the application of this application.
[Additional Notes]
<Claim 1>
An acquisition method for acquiring a subject image and
The texture information acquisition means for acquiring the texture information of the subject from the subject image acquired by the acquisition means, and
A processing means for processing the subject image based on the texture information acquired by the texture information acquisition means, and
An image processing device characterized by comprising.
<Claim 2>
An edge component acquisition means for acquiring an edge component of a predetermined frequency band in an image region of the subject image is provided.
The image processing apparatus according to claim 1, wherein the texture information acquisition means acquires the edge component acquired by the edge component acquisition means as the texture information.
<Claim 3>
Further provided with a processing means for performing a predetermined image processing on the subject image,
The image according to claim 1 or 2, wherein the processing means performs processing on a subject image that has been subjected to predetermined processing by the processing means based on the texture information acquired by the texture information acquisition means. Processing equipment.
<Claim 4>
Further, a detection means for detecting a singular region different from the periphery in the subject image is provided.
The image processing apparatus according to claim 3, wherein the predetermined process is a process for making the singular region inconspicuous in the subject image.
<Claim 5>
The processing means
Using mask data of a plurality of sizes that imitates the shape surrounding the singular region, the predetermined processing is performed on the image region including the singular region surrounded by the mask data, respectively.
A reliability information acquisition means for acquiring reliability information of each of the image regions subjected to the predetermined processing using each of the mask data of a plurality of sizes.
Based on the reliability information acquired by the reliability information acquisition means, a synthesis means for synthesizing the results of predetermined processing in each mask data processed by the processing means with different degrees of influence.
4. The image processing apparatus according to claim 4, further comprising.
<Claim 6>
An analysis means for analyzing the luminance information of the subject image and
Based on the analysis result by the analysis means, the correction means for correcting the shape of the plurality of types of mask data, and the correction means.
5. The image processing apparatus according to claim 5, further comprising.
<Claim 7>
The image processing apparatus according to claim 4, wherein the predetermined process is a smoothing process.
<Claim 8>
The image processing apparatus according to any one of claims 1 to 7, wherein the subject image is an image including a human skin region.
<Claim 9>
An acquisition method for acquiring a subject image and
A detection means for detecting a singular region different from the surroundings from the subject image,
A correction means for correcting the singular region detected by the detection means so as to make it inconspicuous with respect to the periphery.
A control means for controlling the singular region corrected so as to be inconspicuous by the correction means so as to perform processing for adding the surface state of the subject in the subject image before the correction by the correction means.
An image processing device characterized by being equipped with.
<Claim 10>
An acquisition method for acquiring a subject image and
A detection means for detecting a singular region different from the periphery in the subject image acquired by the acquisition means, and
Using mask data of a plurality of sizes imitating a shape surrounding the singular region detected by the detection means, a processing means for performing predetermined processing on the image region including the singular region surrounded by the mask data, respectively.
A reliability information acquisition means for acquiring reliability information of each of the image regions subjected to the predetermined processing using each of the mask data of a plurality of sizes.
Based on the reliability information acquired by the reliability information acquisition means, a synthesis means for synthesizing the results of predetermined processing in each mask data processed by the processing means with different degrees of influence.
An image processing device characterized by being equipped with.
<Claim 11>
This is an image processing method in an image processing device.
The process of acquiring the subject image and
The process of acquiring the texture information of the subject from the acquired subject image and
The process of processing the subject image based on the acquired texture information, and
An image processing method characterized by including.
<Claim 12>
This is an image processing method in an image processing device.
The process of acquiring the subject image and
A step of detecting a singular region different from the surroundings from the subject image, and
A step of correcting the detected singular region so as to be inconspicuous with respect to the periphery, and
An image processing method comprising a step of adding a process of adding a surface state of a subject in the subject image before the correction to the singular region corrected so as to be inconspicuous.
<Claim 13>
This is an image processing method in an image processing device.
The process of acquiring the subject image and
A step of detecting a singular region different from the periphery in the acquired subject image, and
Using mask data of a plurality of sizes that imitates the shape surrounding the detected singular region, a step of performing predetermined processing on the image region including the singular region surrounded by the mask data, respectively.
A step of acquiring reliability information of each of the image regions subjected to the predetermined processing by using each of the mask data of a plurality of types of sizes, and
Based on the acquired reliability information, a synthesis means for synthesizing the results of the predetermined processing in each of the mask data with different degrees of influence, and
An image processing method characterized by including.
<Claim 14>
Computer,
Acquisition method for acquiring subject images,
A texture information acquisition means for acquiring the texture information of a subject from the subject image acquired by the acquisition means,
A processing means for processing the subject image based on the texture information acquired by the texture information acquisition means,
A program to function as.
<Claim 15>
Computer,
Acquisition method for acquiring subject images,
A detection means for detecting a singular region different from the surroundings from the subject image,
A correction means for correcting a singular region detected by the detection means so as to make it inconspicuous with respect to the periphery.
A control means for controlling a singular region corrected so as to be inconspicuous by the correction means so as to perform processing for adding the surface state of the subject in the subject image before the correction by the correction means.
A program to function as.
<Claim 16>
Computer,
Acquisition method for acquiring subject images,
A detection means for detecting a singular region different from the periphery in the subject image acquired by the acquisition means,
A processing means for performing predetermined processing in an image region including the singular region surrounded by the mask data using mask data of a plurality of sizes imitating a shape surrounding the singular region detected by the detecting means.
A reliability information acquisition means for acquiring reliability information of each of the image regions subjected to the predetermined processing using each of the mask data of a plurality of sizes.
A synthesis means for synthesizing the results of predetermined processing in each mask data processed by the processing means with different degrees of influence based on the reliability information acquired by the reliability information acquisition means.
A program to function as.

1 撮像装置
101 制御部
102 記憶部
103 表示部
104 通信部
105 操作部
106 撮像部
106a 撮像レンズ
107 第1の画像処理部
108 画像メモリ
109 解析部
20 肌解析部
21 保護マップデータ設定部
22 低域データ生成部
23 エッジ情報生成部
24 領域分割部
25 陰影用保護マップ生成部
26 肌理用保護マップ生成部
27 保護マップ境界信頼性判定部
110 第2の画像処理部
28 補正処理部
29 透過合成処理部
30 合成処理部
111 点灯制御部
112 発光部
1 Image pickup device 101 Control unit 102 Storage unit 103 Display unit 104 Communication unit 105 Operation unit 106 Image pickup unit 106a Image pickup lens 107 First image processing unit 108 Image memory 109 Analysis unit 20 Skin analysis unit 21 Protection map data setting unit 22 Low frequency Data generation unit 23 Edge information generation unit 24 Area division unit 25 Shading protection map generation unit 26 Texture protection map generation unit 27 Protection map boundary reliability judgment unit 110 Second image processing unit 28 Correction processing unit 29 Transmission synthesis processing unit 30 Synthesis processing unit 111 Lighting control unit 112 Light emitting unit

Claims (16)

被写体画像を取得する取得手段と、
前記取得手段によって取得された被写体画像から被写体の肌理情報を取得する肌理情報取得手段と、
前記肌理情報取得手段によって取得された肌理情報に基づいて、前記被写体画像を加工する加工手段と、
を備えることを特徴とする画像処理装置。
An acquisition method for acquiring a subject image and
The texture information acquisition means for acquiring the texture information of the subject from the subject image acquired by the acquisition means, and
A processing means for processing the subject image based on the texture information acquired by the texture information acquisition means, and
An image processing device characterized by comprising.
前記被写体画像の画像領域における所定の周波数帯域のエッジ成分を取得するエッジ成分取得手段を備え、
前記肌理情報取得手段は、このエッジ成分取得手段によって取得されたエッジ成分を前記肌理情報として取得することを特徴とする請求項1記載の画像処理装置。
An edge component acquisition means for acquiring an edge component of a predetermined frequency band in an image region of the subject image is provided.
The image processing apparatus according to claim 1, wherein the texture information acquisition means acquires the edge component acquired by the edge component acquisition means as the texture information.
前記被写体画像に所定の画像処理を施す処理手段をさらに備え、
前記加工手段は、前記処理手段によって所定の処理が施された被写体画像に、前記肌理情報取得手段によって取得された肌理情報に基づいた加工を施すことを特徴とする請求項1又は2記載の画像処理装置。
Further provided with a processing means for performing a predetermined image processing on the subject image,
The image according to claim 1 or 2, wherein the processing means performs processing on a subject image that has been subjected to predetermined processing by the processing means based on the texture information acquired by the texture information acquisition means. Processing equipment.
前記被写体画像において、周辺とは異なる特異領域を検出する検出手段をさらに備え、
前記所定の処理は、前記被写体画像における前記特異領域を目立たなくする処理である請求項3記載の画像処理装置。
Further, a detection means for detecting a singular region different from the periphery in the subject image is provided.
The image processing apparatus according to claim 3, wherein the predetermined process is a process for making the singular region inconspicuous in the subject image.
前記処理手段は、
前記特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で前記所定の処理を夫々施し、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記信頼性情報取得手段によって取得された信頼性情報に基づき、前記処理手段が処理した夫々のマスクデータ内の所定の処理の結果を影響度を変えて合成する合成手段と、
をさらに備えることを特徴とする請求項4記載の画像処理装置。
The processing means
Using mask data of a plurality of sizes that imitates the shape surrounding the singular region, the predetermined processing is performed on the image region including the singular region surrounded by the mask data, respectively.
A reliability information acquisition means for acquiring reliability information of each of the image regions subjected to the predetermined processing using each of the mask data of a plurality of sizes.
Based on the reliability information acquired by the reliability information acquisition means, a synthesis means for synthesizing the results of predetermined processing in each mask data processed by the processing means with different degrees of influence.
4. The image processing apparatus according to claim 4, further comprising.
前記被写体画像の輝度情報を解析する解析手段と、
前記解析手段による解析結果に基づいて、前記複数種のマスクデータの形状を修正する修正手段と、
をさらに備えることを特徴とする請求項5記載の画像処理装置。
An analysis means for analyzing the luminance information of the subject image and
Based on the analysis result by the analysis means, the correction means for correcting the shape of the plurality of types of mask data, and the correction means.
5. The image processing apparatus according to claim 5, further comprising.
前記所定の処理は、平滑化処理であることを特徴とする請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the predetermined process is a smoothing process. 前記被写体画像は、人の肌領域を含む画像であることを特徴とする請求項1〜7のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 7, wherein the subject image is an image including a human skin region. 被写体画像を取得する取得手段と、
前記被写体画像から、その周辺とは異なる特異領域を検出する検出手段と、
前記検出手段によって検出された特異領域を前記周辺に対し目立たなくするよう補正する補正手段と、
前記補正手段によって目立たなくなるよう補正された特異領域に対し、前記補正手段による補正以前の前記被写体画像における被写体の表面状態を付加する加工を施すよう制御する制御手段と、
を備えたことを特徴とする画像処理装置。
An acquisition method for acquiring a subject image and
A detection means for detecting a singular region different from the surroundings from the subject image,
A correction means for correcting the singular region detected by the detection means so as to make it inconspicuous with respect to the periphery.
A control means for controlling the singular region corrected so as to be inconspicuous by the correction means so as to perform processing for adding the surface state of the subject in the subject image before the correction by the correction means.
An image processing device characterized by being equipped with.
被写体画像を取得する取得手段と、
前記取得手段によって取得された被写体画像における周辺とは異なる特異領域を検出する検出手段と、
前記検出手段によって検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域に所定の処理を夫々施す処理手段と、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記信頼性情報取得手段によって取得された信頼性情報に基づき、前記処理手段が処理した夫々のマスクデータ内の所定の処理の結果を影響度を変えて合成する合成手段と、
を備えたことを特徴とする画像処理装置。
An acquisition method for acquiring a subject image and
A detection means for detecting a singular region different from the periphery in the subject image acquired by the acquisition means, and
Using mask data of a plurality of sizes imitating a shape surrounding the singular region detected by the detection means, a processing means for performing predetermined processing on the image region including the singular region surrounded by the mask data, respectively.
A reliability information acquisition means for acquiring reliability information of each of the image regions subjected to the predetermined processing using each of the mask data of a plurality of sizes.
Based on the reliability information acquired by the reliability information acquisition means, a synthesis means for synthesizing the results of predetermined processing in each mask data processed by the processing means with different degrees of influence.
An image processing device characterized by being equipped with.
画像処理装置における画像処理方法であって、
被写体画像を取得する工程と、
前記取得された被写体画像から被写体の肌理情報を取得する工程と、
前記取得された肌理情報に基づいて、前記被写体画像を加工する工程と、
を含むことを特徴とする画像処理方法。
This is an image processing method in an image processing device.
The process of acquiring the subject image and
The process of acquiring the texture information of the subject from the acquired subject image and
The process of processing the subject image based on the acquired texture information, and
An image processing method characterized by including.
画像処理装置における画像処理方法であって、
被写体画像を取得する工程と、
前記被写体画像から、その周辺とは異なる特異領域を検出する工程と、
前記検出された特異領域を前記周辺に対し目立たなくするよう補正する工程と、
前記目立たなくなるよう補正された特異領域に対し、前記補正以前の前記被写体画像における被写体の表面状態を付加する加工を施す工程と
を含むことを特徴とする画像処理方法。
This is an image processing method in an image processing device.
The process of acquiring the subject image and
A step of detecting a singular region different from the surroundings from the subject image, and
A step of correcting the detected singular region so as to be inconspicuous with respect to the periphery, and
An image processing method comprising a step of adding a process of adding a surface state of a subject in the subject image before the correction to the singular region corrected so as to be inconspicuous.
画像処理装置における画像処理方法であって、
被写体画像を取得する工程と、
前記取得された被写体画像における周辺とは異なる特異領域を検出する工程と、
前記検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の処理を夫々施す工程と、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する工程と、
前記取得された信頼性情報に基づき、前記夫々のマスクデータ内の前記所定の処理の結果を影響度を変えて合成する合成手段と、
を含むことを特徴とする画像処理方法。
This is an image processing method in an image processing device.
The process of acquiring the subject image and
A step of detecting a singular region different from the periphery in the acquired subject image, and
Using mask data of a plurality of sizes that imitates the shape surrounding the detected singular region, a step of performing predetermined processing on the image region including the singular region surrounded by the mask data, respectively.
A step of acquiring reliability information of each of the image regions subjected to the predetermined processing by using each of the mask data of a plurality of types of sizes, and
Based on the acquired reliability information, a synthesis means for synthesizing the results of the predetermined processing in each of the mask data with different degrees of influence, and
An image processing method characterized by including.
コンピュータを、
被写体画像を取得する取得手段、
前記取得手段によって取得された被写体画像から被写体の肌理情報を取得する肌理情報取得手段、
前記肌理情報取得手段によって取得された肌理情報に基づいて、前記被写体画像を加工する加工手段、
として機能させるためのプログラム。
Computer,
Acquisition method for acquiring subject images,
A texture information acquisition means for acquiring the texture information of a subject from the subject image acquired by the acquisition means,
A processing means for processing the subject image based on the texture information acquired by the texture information acquisition means,
A program to function as.
コンピュータを、
被写体画像を取得する取得手段、
前記被写体画像から、その周辺とは異なる特異領域を検出する検出手段、
前記検出手段によって検出された特異領域を前記周辺に対し目立たなくするよう補正する補正手段、
前記補正手段によって目立たなくなるよう補正された特異領域に対し、前記補正手段による補正以前の前記被写体画像における被写体の表面状態を付加する加工を施すよう制御する制御手段、
として機能させるためのプログラム。
Computer,
Acquisition method for acquiring subject images,
A detection means for detecting a singular region different from the surroundings from the subject image,
A correction means for correcting a singular region detected by the detection means so as to make it inconspicuous with respect to the periphery.
A control means for controlling a singular region corrected so as to be inconspicuous by the correction means so as to perform processing for adding the surface state of the subject in the subject image before the correction by the correction means.
A program to function as.
コンピュータを、
被写体画像を取得する取得手段、
前記取得手段によって取得された被写体画像における周辺とは異なる特異領域を検出する検出手段、
前記検出手段によって検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の処理を夫々施す処理手段、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段、
前記信頼性情報取得手段によって取得された信頼性情報に基づき、前記処理手段が処理した夫々のマスクデータ内の所定の処理の結果を影響度を変えて合成する合成手段、
として機能させるためのプログラム。
Computer,
Acquisition method for acquiring subject images,
A detection means for detecting a singular region different from the periphery in the subject image acquired by the acquisition means,
A processing means for performing predetermined processing in an image region including the singular region surrounded by the mask data using mask data of a plurality of sizes imitating a shape surrounding the singular region detected by the detecting means.
A reliability information acquisition means for acquiring reliability information of each of the image regions subjected to the predetermined processing using each of the mask data of a plurality of sizes.
A synthesis means for synthesizing the results of predetermined processing in each mask data processed by the processing means with different degrees of influence based on the reliability information acquired by the reliability information acquisition means.
A program to function as.
JP2019055930A 2019-03-25 2019-03-25 Image processing device, image processing method, and program Active JP7383891B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019055930A JP7383891B2 (en) 2019-03-25 2019-03-25 Image processing device, image processing method, and program
JP2023180705A JP2023174917A (en) 2019-03-25 2023-10-20 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019055930A JP7383891B2 (en) 2019-03-25 2019-03-25 Image processing device, image processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023180705A Division JP2023174917A (en) 2019-03-25 2023-10-20 Image processing device, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2020160489A true JP2020160489A (en) 2020-10-01
JP2020160489A5 JP2020160489A5 (en) 2022-03-23
JP7383891B2 JP7383891B2 (en) 2023-11-21

Family

ID=72643238

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019055930A Active JP7383891B2 (en) 2019-03-25 2019-03-25 Image processing device, image processing method, and program
JP2023180705A Pending JP2023174917A (en) 2019-03-25 2023-10-20 Image processing device, image processing method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023180705A Pending JP2023174917A (en) 2019-03-25 2023-10-20 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (2) JP7383891B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118064A (en) * 1999-10-20 2001-04-27 Nippon Hoso Kyokai <Nhk> Image processor
JP2004303193A (en) * 2003-03-20 2004-10-28 Omron Corp Image processor
JP2006018467A (en) * 2004-06-30 2006-01-19 Canon Inc Image processing apparatus and image processing method
JP2006180971A (en) * 2004-12-27 2006-07-13 Dds:Kk Skin evaluation method and device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4753415B2 (en) 2005-03-29 2011-08-24 株式会社国際電気通信基礎技術研究所 Face image operation device and face image operation program
CN108230331A (en) 2017-09-30 2018-06-29 深圳市商汤科技有限公司 Image processing method and device, electronic equipment, computer storage media

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118064A (en) * 1999-10-20 2001-04-27 Nippon Hoso Kyokai <Nhk> Image processor
JP2004303193A (en) * 2003-03-20 2004-10-28 Omron Corp Image processor
JP2006018467A (en) * 2004-06-30 2006-01-19 Canon Inc Image processing apparatus and image processing method
JP2006180971A (en) * 2004-12-27 2006-07-13 Dds:Kk Skin evaluation method and device

Also Published As

Publication number Publication date
JP2023174917A (en) 2023-12-08
JP7383891B2 (en) 2023-11-21

Similar Documents

Publication Publication Date Title
JP4214420B2 (en) Pupil color correction apparatus and program
JP5949331B2 (en) Image generating apparatus, image generating method, and program
JP4739870B2 (en) Sunglasses detection device and face center position detection device
JP6859611B2 (en) Image processing equipment, image processing methods and programs
CN109191393B (en) Three-dimensional model-based beauty method
US20170154437A1 (en) Image processing apparatus for performing smoothing on human face area
US10891464B2 (en) Image processing apparatus, image processing method, and recording medium
JP2019106045A (en) Image processing device, method, and program
CN111526279B (en) Image processing apparatus, image processing method, and recording medium
KR20160110038A (en) Image processing apparatus and image processing method
JP2018106720A (en) Apparatus and method for image processing
JP7114335B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD FOR IMAGE PROCESSING DEVICE, AND PROGRAM
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
JP7292905B2 (en) Image processing device, image processing method, and imaging device
JP7383891B2 (en) Image processing device, image processing method, and program
JP4742068B2 (en) Image processing method, image processing system, and image processing program
JP7400198B2 (en) Image processing device, image processing method, and program
US20190114466A1 (en) Image processing device, image processing method, and recording medium
JP2009050035A (en) Image processing method, image processing system, and image processing program
JP2015184701A (en) Image processing apparatus, image processing method, and program
CN111083345B (en) Apparatus and method for generating a unique illumination and non-volatile computer readable medium thereof
CN111047520B (en) Image processing apparatus, image processing method, and recording medium
JP7414496B2 (en) Image processing method
JP7015009B2 (en) Image processing equipment, image processing methods and programs
JP2010199866A (en) Image processing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R150 Certificate of patent or registration of utility model

Ref document number: 7383891

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150