JP7383891B2 - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP7383891B2
JP7383891B2 JP2019055930A JP2019055930A JP7383891B2 JP 7383891 B2 JP7383891 B2 JP 7383891B2 JP 2019055930 A JP2019055930 A JP 2019055930A JP 2019055930 A JP2019055930 A JP 2019055930A JP 7383891 B2 JP7383891 B2 JP 7383891B2
Authority
JP
Japan
Prior art keywords
image
processing
acquisition means
acquiring
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019055930A
Other languages
Japanese (ja)
Other versions
JP2020160489A5 (en
JP2020160489A (en
Inventor
恭介 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019055930A priority Critical patent/JP7383891B2/en
Publication of JP2020160489A publication Critical patent/JP2020160489A/en
Publication of JP2020160489A5 publication Critical patent/JP2020160489A5/ja
Priority to JP2023180705A priority patent/JP2023174917A/en
Application granted granted Critical
Publication of JP7383891B2 publication Critical patent/JP7383891B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.

従来、顔画像を補正する技術が提案されている。例えば、特許文献1には、顔の目、鼻、口などの特徴領域をマスクした残りの肌領域に平滑化処理を施すことで細かな肌荒れを目立たなくし、なめらかな肌状態を再現した顔画像を生成することが記載されている。 Conventionally, techniques for correcting facial images have been proposed. For example, Patent Document 1 describes a face image in which a smooth skin condition is reproduced by masking characteristic areas such as the eyes, nose, and mouth and applying smoothing processing to the remaining skin areas to make small rough skin less noticeable. It is described that it generates.

特開2009-70260号公報Japanese Patent Application Publication No. 2009-70260

しかしながら、特許文献1の技術では、周辺の肌とは異なる特異領域のみを補正することが難しい他、補正処理を施した場合、補正をしていない周辺箇所との差が目立ってしまう問題が予見される。 However, with the technology of Patent Document 1, it is difficult to correct only specific areas that are different from the surrounding skin, and when correction processing is applied, there is a foreseeable problem that the difference from the surrounding areas that have not been corrected becomes noticeable. be done.

本願発明はこのような問題点に鑑みてなされたもので、被写体画像を補正した場合の補正箇所が目立たなくなるようにすることを目的とする。 The present invention has been made in view of these problems, and an object of the present invention is to make the corrected area less noticeable when a subject image is corrected.

上記課題を解決するため、本発明の画像処理装置は、
被写体画像を取得する取得手段と、
前記取得手段によって取得された前記被写体画像の画像領域における所定の周波数帯域のエッジ成分を取得するエッジ成分取得手段と、
前記エッジ成分取得手段によって取得されたエッジ成分を肌理情報として取得する肌理情報取得手段と、
前記被写体画像において、周辺とは異なる特異領域を検出する検出手段と、
前記被写体画像における前記特異領域を目立たなくする補正処理を施す処理手段と、
前記肌理情報取得手段によって取得された肌理情報に基づいて、前記処理手段によって前記補正処理が施された前記被写体画像を加工する加工手段と、
を備え、
前記処理手段は、
前記特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の画像処理を夫々施し、前記複数種のサイズのマスクデータの夫々を用いて前記所定の画像処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記所定の画像処理が施された画像領域を、前記信頼性情報取得手段によって取得された信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する合成手段と、
を備えることを特徴とする。
In order to solve the above problems, the image processing device of the present invention includes:
an acquisition means for acquiring a subject image;
edge component acquisition means for acquiring edge components in a predetermined frequency band in the image region of the subject image acquired by the acquisition means;
Texture information acquisition means for acquiring the edge component acquired by the edge component acquisition means as texture information;
Detection means for detecting a unique region different from the surrounding area in the subject image;
processing means that performs a correction process to make the specific area in the subject image less noticeable ;
processing means for processing the subject image subjected to the correction processing by the processing means, based on the texture information acquired by the texture information acquisition means;
Equipped with
The processing means includes:
Using mask data of a plurality of sizes imitating the shape surrounding the singular region, predetermined image processing is performed on the image area including the singular region surrounded by the mask data, and the mask data of the plurality of sizes are obtained. reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined image processing using each of the above;
compositing means for composing the image regions subjected to the predetermined image processing so that the degree of influence of the image region for which reliability information acquired by the reliability information acquisition means is determined to be higher is higher;
It is characterized by having the following.

また、本発明の画像処理装置は、
被写体画像を取得する取得手段と、
前記取得手段によって取得された被写体画像における周辺とは異なる特異領域を検出する検出手段と、
前記検出手段によって検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域に所定の処理を夫々施す処理手段と、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記処理手段によって前記所定の処理が施された画像領域を、前記信頼性情報取得手段によって取得された信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する合成手段と、
を備えことを特徴とする。
Further, the image processing device of the present invention includes:
an acquisition means for acquiring a subject image;
detection means for detecting a unique region different from the surrounding area in the subject image acquired by the acquisition means;
processing means for applying predetermined processing to image regions including the singular region surrounded by the mask data using mask data of a plurality of sizes imitating shapes surrounding the singular region detected by the detection means;
Reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of types of sizes;
Synthesis of image regions subjected to the predetermined processing by the processing means so that the degree of influence of the image region determined to have higher reliability information acquired by the reliability information acquisition means is higher. means and
It is characterized by having the following .

本発明によれば、被写体画像を補正した場合の補正箇所が目立たなくなるようにすることが可能となる。 According to the present invention, it is possible to make a corrected part less noticeable when a subject image is corrected.

本実施形態に係る撮像装置の機能的構成を示すブロック図である。FIG. 1 is a block diagram showing the functional configuration of an imaging device according to the present embodiment. 図1の解析部及び第2の画像処理部における処理の概略を説明するための図である。FIG. 2 is a diagram for explaining an outline of processing in an analysis section and a second image processing section in FIG. 1; 図1の解析部及び第2の画像処理部における処理の流れを示す図である。FIG. 2 is a diagram showing the flow of processing in an analysis section and a second image processing section in FIG. 1;

以下、添付図面を参照して本発明に係る実施形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Note that the present invention is not limited to the illustrated example.

[撮像装置1の構成]
図1は、本実施形態に係る撮像装置1の機能的構成を示すブロック図である。図1に示すように、撮像装置1は、制御部101、記憶部102、表示部103、通信部104、操作部105、撮像部106、第1の画像処理部107、画像メモリ108、解析部109、第2の画像処理部110、点灯制御部111、発光部112等を備えて構成されている。制御部101と各部はバスにより接続されている。
[Configuration of imaging device 1]
FIG. 1 is a block diagram showing the functional configuration of an imaging device 1 according to this embodiment. As shown in FIG. 1, the imaging device 1 includes a control section 101, a storage section 102, a display section 103, a communication section 104, an operation section 105, an imaging section 106, a first image processing section 107, an image memory 108, and an analysis section. 109, a second image processing section 110, a lighting control section 111, a light emitting section 112, and the like. The control section 101 and each section are connected by a bus.

制御部101は、CPU(Central Processing Unit)、RAM(Random Access Memory)等を備えて構成され、記憶部102に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行う。 The control unit 101 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like, and executes various programs stored in the storage unit 102 to perform predetermined calculations and control each unit.

記憶部102は、不揮発性の半導体メモリやハードディスク等により構成される。記憶部102には、制御部101で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。 The storage unit 102 is composed of a nonvolatile semiconductor memory, a hard disk, or the like. The storage unit 102 stores system programs and various processing programs executed by the control unit 101, data necessary for executing these programs, and the like.

表示部103は、LCD(Liquid Crystal Display)等により構成され、制御部101からの表示制御信号に従って、例えば、撮像部106により撮像された状態を示すライブビュー画像や、撮影指示に応じて撮像部106により取得された画像等を表示する。 The display unit 103 is configured with an LCD (Liquid Crystal Display) or the like, and displays, for example, a live view image showing the state imaged by the imaging unit 106 according to a display control signal from the control unit 101, or displays the image captured by the imaging unit in accordance with a shooting instruction. The image etc. acquired by 106 are displayed.

通信部104は、外部の機器と無線又は有線によりデータ通信を行うためのインターフェースである。 The communication unit 104 is an interface for wirelessly or wired data communication with external equipment.

操作部105は、シャッターキーを始めとする各種機能ボタンや表示部103に積層配置された透明なタッチパネルを備え、ユーザによる各ボタンの押下入力、タッチパネルへのタッチ、スライド操作等を受け付けてその操作情報を制御部101に出力する。 The operation unit 105 includes various function buttons such as a shutter key, and a transparent touch panel stacked on the display unit 103, and receives inputs from the user by pressing each button, touching the touch panel, sliding operations, etc., and performs the operations. The information is output to the control unit 101.

撮像部106は、撮像レンズ106a、図示しないCCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等のイメージセンサ等からなる撮像素子、A/D変換回路等を備えて構成され、撮像レンズ106aを通過した光学像を撮像素子により2次元の画像信号に変換し、被写体の画像データ(RGBの画像データ)を取得する。 The imaging unit 106 includes an imaging lens 106a, an imaging element such as an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) (not shown), an A/D conversion circuit, etc. The optical image that has passed through 106a is converted into a two-dimensional image signal by an image sensor, and image data (RGB image data) of the subject is obtained.

第1の画像処理部107は、撮像部106により取得されたRGBデータに画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Crからなる画像データ(Y、U、Vの各成分の画像データ)に変換する。 The first image processing unit 107 performs color process processing including pixel interpolation processing and γ correction processing on the RGB data acquired by the imaging unit 106, and then generates a digital luminance signal Y and color difference signals Cb and Cr. Convert to image data (image data of each component of Y, U, and V).

画像メモリ108は、例えば、フラッシュメモリ等により構成され、撮像部106により撮像され、第1の画像処理部107により処理された画像データを記録する記録手段である。 The image memory 108 is configured by, for example, a flash memory or the like, and is a recording unit that records image data captured by the imaging unit 106 and processed by the first image processing unit 107.

解析部109は、本発明に係る補正モードが予め設定されている場合に、撮像部106により取得され、第1の画像処理部107により処理された被写体の画像データ(被写体画像)を解析することによって被写体の肌の肌理情報(肌の表面情報)を取得して第2の画像処理部110に出力する。また、解析部109は、第1の画像処理部107により処理された画像データにおける、周辺の肌とは異なる特異領域(例えば、吹き出物等の異物の存在する領域)周辺の画像領域を解析することによって、第2の画像処理部110において特異領域に補正処理を施す際に用いる肌理用保護マップM11、M12及び陰影用保護マップM21、M22(図2参照)を生成する。ここで、肌理用保護マップM11、M12、陰影用保護マップM21、M22は、特異領域に補正処理を施す際に、その特異領域の周辺の画像領域のうち、補正対象外とする画像領域を保護する(マスクする)ためのマスクデータである。
解析部109は、肌理情報取得手段、エッジ成分取得手段、検出手段、解析手段、修正手段として機能する。
The analysis unit 109 analyzes the image data of the subject (subject image) acquired by the imaging unit 106 and processed by the first image processing unit 107 when the correction mode according to the present invention is set in advance. acquires skin texture information (skin surface information) of the subject and outputs it to the second image processing unit 110. The analysis unit 109 also analyzes image areas around specific areas different from the surrounding skin (for example, areas where foreign objects such as pimples are present) in the image data processed by the first image processing unit 107. As a result, texture protection maps M11 and M12 and shadow protection maps M21 and M22 (see FIG. 2) are generated, which are used when the second image processing unit 110 performs correction processing on the unique region. Here, the texture protection maps M11 and M12 and the shadow protection maps M21 and M22 protect image areas that are not subject to correction among the image areas surrounding the specific area when performing correction processing on the specific area. This is mask data for masking.
The analysis unit 109 functions as a texture information acquisition means, an edge component acquisition means, a detection means, an analysis means, and a correction means.

第2の画像処理部110は、撮像部106により取得され、第1の画像処理部107により処理された画像データの特異領域に対し、解析部109により生成された肌理用保護マップM11、M12、及び陰影用保護マップM21、M22を用いて平滑化処理等の補正処理を施し、処理結果に肌理情報を付加して元の画像データ(元画像)に合成することで、補正済み画像を生成する。
第2の画像処理部110は、加工手段、処理手段として機能する。
The second image processing unit 110 generates texture protection maps M11, M12, which are generated by the analysis unit 109 for the unique region of the image data acquired by the imaging unit 106 and processed by the first image processing unit 107, A corrected image is generated by performing correction processing such as smoothing processing using the and shadow protection maps M21 and M22, adding texture information to the processing result, and combining it with the original image data (original image). .
The second image processing section 110 functions as a processing means and a processing means.

解析部109、第2の画像処理部110は、制御部101と記憶部102に記憶されているプログラムとの協働により実行されるものとするが、専用のハードウエアにより実現することとしてもよい。 The analysis unit 109 and the second image processing unit 110 are assumed to be executed in cooperation with the control unit 101 and the program stored in the storage unit 102, but may also be realized by dedicated hardware. .

点灯制御部111(ドライバ)は、発光部112のLED(Light Emitting Diode)のそれぞれに接続され、制御部101からの指示に従って、発光部112の光量や点灯/消灯を制御する。 The lighting control unit 111 (driver) is connected to each of the LEDs (Light Emitting Diodes) of the light emitting unit 112, and controls the light amount and turning on/off of the light emitting unit 112 according to instructions from the control unit 101.

発光部112は、LED等により構成され、被写体に光を照射する。 The light emitting unit 112 is composed of an LED or the like, and irradiates the subject with light.

[撮像装置1の動作]
次に、撮像装置1の解析部109及び第2の画像処理部110の動作について説明する。
図2は、解析部109及び第2の画像処理部110により実行される処理の概略を示す図である。図2のG1は、第1の画像処理部107で処理された画像データを元画像として、元画像における特異領域及びその周辺のY成分画像(輝度成分画像)を模式的に示した図である。図2のG1において、斜線51は特異領域を表し、ドット52は肌の肌理(キメ)を表し、陰影部53は肌にかかった陰影を表す。この陰影とは、例えば、顔の器官やしわ等による凹凸によって発生するものもあれば、髪、睫毛、眉、もしくはそれらの影によって発生するものもある。図2において、G1全体に肌理52が存在する。また特異領域51(吹き出物等の異物の画像)だけでなく、その特異領域周辺には、陰影53が存在する。
[Operation of imaging device 1]
Next, the operations of the analysis section 109 and the second image processing section 110 of the imaging device 1 will be explained.
FIG. 2 is a diagram schematically showing processing executed by the analysis unit 109 and the second image processing unit 110. G1 in FIG. 2 is a diagram schematically showing the unique region and the surrounding Y component image (luminance component image) in the original image, using the image data processed by the first image processing unit 107 as the original image. . In G1 of FIG. 2, a diagonal line 51 represents a unique region, a dot 52 represents the texture of the skin, and a shaded area 53 represents a shadow on the skin. This shadow may be caused by unevenness caused by facial organs or wrinkles, for example, or may be caused by hair, eyelashes, eyebrows, or their shadows. In FIG. 2, a texture 52 exists throughout G1. In addition to the unique region 51 (an image of a foreign object such as a pimple), a shadow 53 exists around the unique region.

このY成分画像G1に対応する元画像において、特異領域51を目立たなくする補正処理を行うと、補正対象とした領域の肌の表面状態(肌理)まで消えてしまい、不自然な画像となってしまう。例えば、図2のG2は、特異領域の肌理が消えた例を示している。補正対象の領域を周辺まで広げると、特異領域周辺の陰影まで消えてしまい、さらに不自然な画像となる。 If a correction process is performed to make the specific area 51 less noticeable in the original image corresponding to this Y component image G1, the surface condition (texture) of the skin in the area targeted for correction will also disappear, resulting in an unnatural image. Put it away. For example, G2 in FIG. 2 shows an example in which the texture of the unique region has disappeared. If the area to be corrected is extended to the periphery, even the shadows around the unique area will disappear, resulting in an even more unnatural image.

そこで、本実施形態では、まず、解析部109において、元画像から特異領域及びその周辺部におけるY成分画像G1を生成する。次いで、図2に示すように、Y成分画像G1を解析して、解析結果に基づいて肌理用保護マップM11(大)、肌理用保護マップM12(小)、陰影用保護マップM21(大)、陰影用保護マップM22(小)を生成する。そして、第2の画像処理部110において、生成した肌理用保護マップM11、M12、陰影用保護マップM21、M22を用いて元画像に特異領域を目立たなくするための補正処理を行う。図2において、補正処理後の画像をG2で示す。また、解析部109において、補正以前にY成分画像G1を解析して被写体の肌の表面状態(肌理)を示す情報(肌理情報)を取得しておき、第2の画像処理部110において、解析部109において補正以前の情報から取得した肌理情報を補正処理後の画像G2に付加する加工を施して、肌理と陰影が消えていない補正済み画像G3を生成する。 Therefore, in this embodiment, first, the analysis unit 109 generates a Y-component image G1 in the unique region and its surrounding area from the original image. Next, as shown in FIG. 2, the Y component image G1 is analyzed, and based on the analysis results, a texture protection map M11 (large), a texture protection map M12 (small), a shadow protection map M21 (large), A shadow protection map M22 (small) is generated. Then, the second image processing unit 110 performs a correction process to make the unique region less noticeable in the original image using the generated texture protection maps M11, M12 and shadow protection maps M21, M22. In FIG. 2, the image after the correction process is indicated by G2. In addition, the analysis unit 109 analyzes the Y component image G1 before correction to obtain information (texture information) indicating the surface condition (texture) of the subject's skin, and the second image processing unit 110 analyzes the image G1. In a section 109, the texture information obtained from the information before correction is added to the image G2 after the correction process, thereby generating a corrected image G3 in which the texture and shadows have not disappeared.

ここで、元画像からの補正対象となる特異領域の検出手法は、特に限定されず、いずれの方法で行ってもよい。例えば、表示部103に表示された元画像の顔領域上からユーザが操作部105により指定した領域を特異領域として検出してもよい。あるいは、元画像から顔領域を検出し、検出された顔領域の画像を切り出して、顔領域の輪郭領域内のV成分画像データの、目、鼻、口をマスクしたデータから周囲とは異なる画素値(突発的に生じている画素値)の領域を抽出し、その領域の大きさに基づいて特異領域を検出してもよい。 Here, the method for detecting the unique region to be corrected from the original image is not particularly limited, and any method may be used. For example, an area specified by the user using the operation unit 105 from the face area of the original image displayed on the display unit 103 may be detected as the unique area. Alternatively, a face area may be detected from the original image, the image of the detected face area may be cut out, and pixels different from the surrounding area may be extracted from data obtained by masking the eyes, nose, and mouth of the V component image data within the contour area of the face area. It is also possible to extract a region of values (pixel values that occur suddenly) and detect a unique region based on the size of the region.

図3は、解析部109と第2の画像処理部110の機能構成を示すブロック図である。
図3に示すように、解析部109は、肌解析部20、保護マップデータ設定部21、低域データ生成部22、エッジ情報生成部23、領域分割部24、陰影用保護マップ生成部25、肌理用保護マップ生成部26を備えて構成されている。また、第2の画像処理部110は、保護マップ境界信頼性判定部27、補正処理部28、透過合成処理部29、合成処理部30を備えて構成されている。以下、図3を参照して、解析部109と第2の画像処理部110の処理について説明する。
FIG. 3 is a block diagram showing the functional configuration of the analysis section 109 and the second image processing section 110.
As shown in FIG. 3, the analysis section 109 includes a skin analysis section 20, a protection map data setting section 21, a low frequency data generation section 22, an edge information generation section 23, a region division section 24, a shadow protection map generation section 25, It is configured to include a texture protection map generation section 26. Further, the second image processing section 110 includes a protection map boundary reliability determination section 27, a correction processing section 28, a transparent composition processing section 29, and a composition processing section 30. The processing of the analysis unit 109 and the second image processing unit 110 will be described below with reference to FIG.

まず、解析部109は、YUVの各成分を有する元画像からY(輝度)成分で構成されるY成分画像を生成し、更に、そのY成分画像の顔領域から検出された、特異領域を中央に含む所定サイズの矩形領域を切り出して、肌解析部20及びエッジ情報生成部23に入力する。 First, the analysis unit 109 generates a Y component image composed of Y (luminance) components from an original image having each YUV component, and further places a singular region detected from the face region of the Y component image in the center. A rectangular area of a predetermined size included in the area is cut out and input to the skin analysis section 20 and the edge information generation section 23.

肌解析部20は、入力された矩形領域内のY成分画像を解析して毛穴の画像領域を検出し、この毛穴の画像領域における毛穴のサイズデータ(size)と毛穴部分のコントラストデータ(con)を取得する。そして、取得された毛穴のサイズデータについて、毛穴サイズデータの平均データ(size_ave)及び毛穴サイズデータの標準偏差データ(size_sd)を算出し、保護マップデータ設定部21及び低域データ生成部22に出力する。また、取得された毛穴部分のコントラストデータについて、毛穴部分のコントラストデータの平均データ(con_ave)及び毛穴部分のコントラストデータの標準偏差データ(con_sd)を算出し、肌理用保護マップ生成部26に出力する。 The skin analysis unit 20 analyzes the Y component image within the input rectangular area to detect a pore image area, and calculates pore size data (size) and pore contrast data (con) in this pore image area. get. Then, for the acquired pore size data, the average data (size_ave) of the pore size data and the standard deviation data (size_sd) of the pore size data are calculated and output to the protection map data setting unit 21 and the low frequency data generation unit 22. do. Furthermore, regarding the acquired contrast data of the pore area, average data (con_ave) of the contrast data of the pore area and standard deviation data (con_sd) of the contrast data of the pore area are calculated and output to the texture protection map generation unit 26. .

保護マップデータ設定部21は、特異領域を補正する際、それ以外の領域まで補正されることが無いよう、大きさが異なる大小2種類の楕円形状の保護除外領域61、62(図2参照)を有するマスクデータからなる保護マップM1、M2を生成し、領域分割部24、肌理用保護マップ生成部26に出力する。特異領域は、ニキビ等の吹き出物や周囲から目立つ起伏の存在するほぼ円形の領域であり、保護マップM1、M2の保護除外領域61、62は、特異領域を囲む楕円形状となっている。
例えば、保護マップデータ設定部21は、まず、記憶部102に記憶されている基本の楕円サイズの保護除外領域を有する基本の保護マップを読み出す。次いで、肌解析部20において算出された毛穴サイズデータの平均データ(size_ave)と毛穴サイズデータの標準偏差データ(size_sd)を足し合わせた値に基づいて毛穴サイズの半径を求め、求めた半径を基本の保護マップの楕円の半径に足した保護除外領域を有する保護マップM1、求めた半径を基本の保護マップの楕円の半径から引いた楕円サイズの保護除外領域を有する保護マップM2を生成する。
なお、毛穴サイズは、一般的には個人差が少ないため、予め2種類のサイズの保護マップM1、M2を生成して記憶部102に記憶することとしてもよい。また、本実施形態ではテンプレートとして2種類のサイズの保護マップM1,M2を生成することとしたが、これに限らず、サイズに応じて複数種生成してもよい。サイズが多ければ多い程、より精度の高い特異領域の補正が可能となる。
The protection map data setting unit 21 creates two types of elliptical protection exclusion areas 61 and 62 (see FIG. 2) with different sizes so that when correcting the unique area, other areas are not corrected. Protection maps M1 and M2 consisting of mask data having the following are generated and output to the area dividing section 24 and the texture protection map generation section 26. The specific area is a substantially circular area where pimples such as acne and undulations are noticeable from the surrounding area, and the protection exclusion areas 61 and 62 of the protection maps M1 and M2 have an elliptical shape surrounding the specific area.
For example, the protection map data setting unit 21 first reads out a basic protection map having a basic ellipse-sized protection exclusion area stored in the storage unit 102 . Next, the radius of the pore size is determined based on the sum of the average data (size_ave) of the pore size data and the standard deviation data (size_sd) of the pore size data calculated by the skin analysis unit 20, and the radius is used as the basis. A protection map M1 having a protection exclusion area equal to the radius of the ellipse of the protection map M1, and a protection map M2 having a protection exclusion area having an ellipse size obtained by subtracting the calculated radius from the radius of the ellipse of the basic protection map are generated.
In addition, since there is generally little individual difference in pore size, protection maps M1 and M2 of two types of sizes may be generated in advance and stored in the storage unit 102. Further, in this embodiment, protection maps M1 and M2 of two types of sizes are generated as templates, but the invention is not limited to this, and multiple types may be generated depending on the size. The larger the size, the more accurate correction of the unique region becomes possible.

低域データ生成部22は、Y成分画像を肌解析部20から入力された毛穴のサイズデータの平均データ(size_ave)と毛穴のサイズデータの標準偏差データ(size_sd)を足し合わせた値をパラメータとした平均フィルタを用いて平滑化してY成分画像におけるエッジ成分を取り除き、大まかな陰影の状態を示す低域データ(低周波数帯域のデータ)を生成する。これにより、肌の陰影から毛穴の影響を取り除くことができる。低域データ生成部22は、生成した低域データをエッジ情報生成部23及び領域分割部24に出力する。 The low-pass data generation unit 22 uses the Y component image as a parameter, which is the sum of the average data (size_ave) of the pore size data input from the skin analysis unit 20 and the standard deviation data (size_sd) of the pore size data. Edge components in the Y-component image are removed by smoothing using the average filter, and low-frequency data (data in a low frequency band) representing a rough shading state is generated. This allows the influence of pores to be removed from skin shadows. The low frequency data generation section 22 outputs the generated low frequency data to the edge information generation section 23 and the area division section 24.

エッジ情報生成部23は、低域データ生成部22にて生成された低域データとY成分画像との正方向の(正値の)差分データ、負方向の(負値の)差分データをそれぞれ生成・取得する。これにより、毛穴より高い周波数帯域の肌理を抽出することができる。エッジ情報生成部23は、この正方向の差分データ、負方向の差分データを肌理に対応するエッジ情報(肌理情報)として合成処理部30に出力する。 The edge information generation unit 23 generates difference data in the positive direction (positive value) and difference data in the negative direction (negative value) between the low frequency data generated by the low frequency data generation unit 22 and the Y component image. Generate/obtain. This makes it possible to extract texture in a frequency band higher than that of pores. The edge information generation section 23 outputs the positive direction difference data and the negative direction difference data to the composition processing section 30 as edge information (texture information) corresponding to the texture.

領域分割部24は、低域データ生成部22から入力された低域データに基づいて、保護マップデータ設定部21から入力された保護マップM1の楕円と保護マップM2の楕円の間の環状の領域の中で、補正を施すと陰影が消えてしまう等、本来の陰影表現に影響が出る陰影領域を特定し、これを他の領域と分割する。 The area dividing unit 24 divides an annular area between the ellipse of the protection map M1 and the ellipse of the protection map M2 input from the protection map data setting unit 21 based on the low frequency data input from the low frequency data generation unit 22. Among them, a shadow area where the original shadow expression is affected, such as the shadow disappearing when correction is applied, is identified, and this area is divided from other areas.

領域分割部24は、具体的には、大小の保護マップM1、M2を低域データに重ねたときに保護マップM1の楕円と保護マップM2の楕円のサイズの差となる環状の領域で画素値(低域データの画素値)のヒストグラムを算出し、このヒストグラムから最頻値(ピーク)を求め、求めた最頻値を中心に極小値が存在する範囲までの画素値の領域を陰影領域として他の領域と分割する。そして、陰影領域の情報を陰影用保護マップ生成部25に出力する。 Specifically, the area dividing unit 24 calculates pixel values in an annular area that is the difference in size between the ellipse of the protection map M1 and the ellipse of the protection map M2 when the large and small protection maps M1 and M2 are superimposed on the low frequency data. Calculate the histogram of (pixel values of low frequency data), find the mode (peak) from this histogram, and use the area of pixel values from the found mode as the center to the range where the minimum value exists as a shaded area. Separate from other areas. Then, the information on the shadow area is output to the shadow protection map generation section 25.

陰影用保護マップ生成部25は、領域分割部24から入力された陰影領域の情報に基づいて、保護マップM1、M2による保護対象領域に陰影領域を足しこんで、図2に示すような陰影用保護マップM11、M12を生成する。これにより、特異領域外であるが保護マップM1、M2を用いて処理すると保護除外領域に入ってしまい、一部又は全部(多くの場合は一部)の情報が欠如して不自然となる陰影領域全体を保護対象に追加することが可能となる。すなわち、陰影用保護マップM11、M12を用いて補正処理部28に補正処理を行わせることにより、保護除外領域61、62に含まれる陰影領域を除いて補正処理を行うことが可能となる。陰影用保護マップ生成部25は、生成した陰影用保護マップM11、M12を補正処理部28及び保護マップ境界信頼性判定部27に出力する。 The shadow protection map generation unit 25 adds a shadow area to the area to be protected by the protection maps M1 and M2 based on the shadow area information input from the area division unit 24, and creates a shadow protection map as shown in FIG. Protection maps M11 and M12 are generated. As a result, shadows that are outside the specific area but fall into the protection exclusion area when processed using the protection maps M1 and M2, and some or all (in many cases, part) of information are missing, resulting in unnatural shadows. It becomes possible to add the entire area to protection. That is, by having the correction processing unit 28 perform the correction process using the shadow protection maps M11 and M12, it becomes possible to perform the correction process excluding the shadow areas included in the protection exclusion areas 61 and 62. The shadow protection map generation section 25 outputs the generated shadow protection maps M11 and M12 to the correction processing section 28 and the protection map boundary reliability determination section 27.

肌理用保護マップ生成部26は、肌解析部20より取得した毛穴部分のコントラストデータの平均データ(con_ave)と毛穴部分のコントラストデータの標準偏差データ(con_sd)とを足し合わせ、それより大きい強度の正方向エッジ(周囲より輝度が高いエッジ)を有する画素と負方向エッジ(周囲より輝度が低いエッジ)を有する画素とを求める。次いで、保護マップM1、M2の夫々において保護除外領域との境界上にある画素領域にある上記正方向エッジの画素と負方向エッジの画素を保護マップM1、M2の保護対象領域に足し込んで肌理用保護マップM21、M22を生成する。こうすることで、保護マップの保護対象外領域との境界に存在する毛穴以上のエッジ強度を持つ画素を補正処理対象から除外することができ、補正後の画像に残る不自然さを解消させることができる。肌理用保護マップ生成部26は、生成した肌理用保護マップM21、M22を補正処理部28及び保護マップ境界信頼性判定部27に出力する。 The texture protection map generation unit 26 adds the average data (con_ave) of the contrast data of the pore area obtained from the skin analysis unit 20 and the standard deviation data (con_sd) of the contrast data of the pore area, and calculates the value of the higher intensity. Pixels having positive edges (edges with higher luminance than the surroundings) and pixels having negative edges (edges with lower luminance than the surroundings) are determined. Next, in each of the protection maps M1 and M2, the pixels of the positive direction edge and the pixel of the negative direction edge located in the pixel region on the boundary with the protection exclusion region are added to the protection target region of the protection maps M1 and M2 to calculate the texture. protection maps M21 and M22 are generated. By doing this, it is possible to exclude from the correction process pixels that have an edge strength greater than the pores that exist on the boundary with the non-protected area of the protection map, and eliminate the unnaturalness that remains in the image after correction. Can be done. The texture protection map generation unit 26 outputs the generated texture protection maps M21 and M22 to the correction processing unit 28 and the protection map boundary reliability determination unit 27.

保護マップ境界信頼性判定部27は、陰影用保護マップ生成部25及び肌理用保護マップ生成部26において生成された2つの大サイズの保護マップM11、M21を合わせた大サイズの保護マップと、2つの小サイズの保護マップM12、M22を合わせた小サイズの保護マップの夫々を用いて補正処理された画像領域の夫々の信頼性を判定する。そして、後述の透過合成処理において、信頼性の高い方の画素の影響度を高くし、信頼性の低い方の画素の影響度を低くするマップを生成して透過合成処理部29に出力する。なお、補正処理前に補正処理後の画像領域の夫々の信頼性を判定してもよい。 The protection map boundary reliability determination unit 27 generates a large-sized protection map that is a combination of the two large-sized protection maps M11 and M21 generated in the shadow protection map generation unit 25 and the texture protection map generation unit 26; The reliability of each of the image regions subjected to correction processing is determined using each of the small-sized protection maps that are a combination of the two small-sized protection maps M12 and M22. Then, in transparent synthesis processing to be described later, a map is generated that increases the degree of influence of the more reliable pixels and lowers the degree of influence of the less reliable pixels, and outputs it to the transparent synthesis processing section 29. Note that the reliability of each image area after the correction process may be determined before the correction process.

ここで、大きい保護マップと小さい保護マップの保護対象領域が重なっている画像領域、及び双方の保護除外領域が重なっている画像領域は、大小の保護マップのいずれを用いて補正処理を行っても処理結果は同じであるため、信頼度は同じである。そこで、ここでは、主に大きい保護マップの保護除外領域との境界と、小さい保護マップの保護除外領域との境界に挟まれた画像領域の各画素について信頼度を判定する。本実施形態では、より楕円らしい領域で処理できている方を信頼度が高いと判定する。例えば、各画素に対して、境界共有率、面積共有率、境界回帰分析一致率等を算出し、算出結果に基づいて大小の保護マップの信頼度を判定する。 Here, image areas where the protection target areas of the large protection map and the small protection map overlap, and image areas where the protection exclusion areas of both overlap, can be corrected using either the large or small protection map. Since the processing results are the same, the reliability is the same. Therefore, here, the reliability is mainly determined for each pixel in the image area sandwiched between the boundary with the protection exclusion area of the large protection map and the boundary between the protection exclusion area of the small protection map. In this embodiment, it is determined that the reliability is higher if the area is more likely to be an ellipse. For example, the boundary sharing rate, area sharing rate, boundary regression analysis matching rate, etc. are calculated for each pixel, and the reliability of the large and small protection maps is determined based on the calculation results.

ここで、境界共有率は、大サイズの保護マップと小サイズの保護マップにそれぞれにおける保護除外領域との境界の長さと、大小の保護マップで保護除外領域との境界が一致している(共有している)長さの比率である。大小の保護マップにおける保護除外領域(すなわち、補正対象領域)が楕円であれば大小の保護マップの保護除外領域との境界は共有しないので、共有部分の比率が高いほど信頼度を下げる。
面積共有率は、大サイズの保護マップと小サイズの保護マップのそれぞれにおける保護マップの面積に対する保護エッジ(保護対象領域に追加された面積)の面積の割合である。保護エッジの割合が少ない方(共有率が低い方)が信頼度が高い。
境界回帰分析一致率は、大サイズの保護マップと小サイズの保護マップのそれぞれにおいて、保護除外領域との境界に回帰分析を行った場合に回帰分析結果の範囲内にどのくらい境界値があるかを示す値である。境界回帰分析一致率が少ない場合、信頼度を下げる。
なお、上述の信頼度の算出手法は例示であって、信頼度判断の考え方や具体的な方法についてはこれに限定されるものではない。
Here, the boundary sharing rate is the length of the boundary with the protection exclusion area in the large and small protection maps, and the boundary with the protection exclusion area in the large and small protection maps (shared). ) is the length ratio. If the protection exclusion area (that is, the correction target area) in the large and small protection maps is an ellipse, it does not share the boundary with the protection exclusion area of the large and small protection maps, so the higher the ratio of the shared portion, the lower the reliability.
The area sharing ratio is the ratio of the area of the protection edge (area added to the protection target area) to the area of the protection map in each of the large-sized protection map and the small-sized protection map. The lower the proportion of protected edges (the lower the sharing rate), the higher the reliability.
Boundary regression analysis concordance rate measures how many boundary values are within the range of regression analysis results when regression analysis is performed on the boundary with the protection exclusion area for both large-sized protection maps and small-sized protection maps. This is the value shown. Boundary regression analysis If the concordance rate is low, lower the confidence level.
Note that the reliability calculation method described above is an example, and the concept and specific method for determining reliability are not limited thereto.

補正処理部28は、元画像のYUV各成分の画像の特異領域を含む矩形領域に陰影用保護マップ生成部25及び肌理用保護マップ生成部26において生成された2つの大サイズの保護マップM11、M21を合わせた大サイズの保護マップを適用して、保護マップで囲まれた保護除外領域の画像領域とそれ以外の画像領域との境界や特異な状態を目立たなくする補正処理を行う。同様に、元画像のYUV各成分の画像の特異領域を含む矩形領域に陰影用保護マップ生成部25及び肌理用保護マップ生成部26において生成された2つの小サイズの保護マップM12、M22を合わせた小サイズの保護マップを適用して、保護マップで囲まれた保護除外領域の画像領域とそれ以外の画像領域との境界や特異な状態を目立たなくする補正処理を行う。
尚、上記の補正処理は、主に平滑化処理(肌状態を滑らかにする処理、透明感をもたせる処理)が用いられるが、この他、色補正処理(より自然な肌色に補正する処理)も用いる場合もある。
補正処理部28は、大サイズの保護マップで補正処理されたYUV各成分画像と、小サイズの保護マップで補正処理されたYUV各成分画像を透過合成処理部29に出力する。
The correction processing unit 28 generates two large-sized protection maps M11, which are generated by the shadow protection map generation unit 25 and the texture protection map generation unit 26, in a rectangular area including the unique area of the image of each YUV component of the original image. A large-sized protection map including M21 is applied to perform a correction process to make the boundary between the image area of the protection exclusion area surrounded by the protection map and the other image area and the peculiar state less noticeable. Similarly, the two small-sized protection maps M12 and M22 generated in the shadow protection map generation unit 25 and the texture protection map generation unit 26 are combined into a rectangular area including the unique area of the image of each YUV component of the original image. A small-sized protection map is applied to perform a correction process to make the boundary between the image area of the protection exclusion area surrounded by the protection map and the other image area and the peculiar state less noticeable.
The above correction processing mainly uses smoothing processing (processing to smooth the skin condition, processing to give transparency), but color correction processing (processing to correct the skin color to a more natural color) is also used. Sometimes used.
The correction processing section 28 outputs each YUV component image that has been corrected using the large-sized protection map and each YUV component image that has been corrected using the small-sized protection map to the transparent composition processing section 29 .

透過合成処理部29は、保護マップ境界信頼性判定部27から出力されたマップに基づいて、大サイズの保護マップで補正処理されたYUV各成分画像と、小サイズの保護マップで補正処理されたYUV各成分画像を、2つの保護マップによって補正処理対象とされた画素ごとに、信頼性が高いと判定された方の画素の影響度が高くなるようにα値を設定して透過合成して出力する。 Based on the map output from the protection map boundary reliability determination section 27, the transmission synthesis processing section 29 separates each YUV component image that has been corrected using the large-sized protection map and the YUV component image that has been corrected using the small-sized protection map. Each YUV component image is transparently synthesized by setting an α value for each pixel targeted for correction processing by two protection maps so that the influence of the pixel determined to be higher is higher. Output.

合成処理部30は、透過合成処理部29で透過合成されたYUV各成分画像の補正処理対象領域にエッジ情報生成部23から入力された肌理に対応するエッジ情報を付加し、肌理の状態が付加された画像(補正後の画像)と元画像とを所定のブレンド比率でαブレンドし、補正済み画像を出力する。 The combination processing unit 30 adds edge information corresponding to the texture input from the edge information generation unit 23 to the correction processing target area of each YUV component image transparently combined by the transmission combination processing unit 29, and adds the state of the texture. The corrected image (image after correction) and the original image are α-blended at a predetermined blending ratio, and a corrected image is output.

解析部109、第2の画像処理部110において以上の処理を行うことで、図2の補正済み画像G3に示すように、顔の凹凸やしわの影響による陰影や肌理の状態を保持しつつ、吹き出物のような特異領域を目立たなくする画像処理を施すことができる。 By performing the above processing in the analysis unit 109 and the second image processing unit 110, as shown in the corrected image G3 of FIG. Image processing can be performed to make specific areas such as pimples less noticeable.

以上説明したように、撮像装置1によれば、解析部109は、被写体画像を取得し、取得された被写体画像から被写体の表面状態情報を取得する。第2の画像処理部110は、解析部109において取得された表面状態情報に基づいて、被写体画像を加工する。
したがって、被写体の表面状態情報に基づいて、被写体の表面状態を保持した被写体画像を得ることができる。また、被写体画像を補正して被写体の表面状態が欠落するような場合に、表面状態情報に基づいて補正箇所を目立たなくすることができる。
As described above, according to the imaging device 1, the analysis unit 109 acquires a subject image and acquires surface state information of the subject from the acquired subject image. The second image processing unit 110 processes the subject image based on the surface state information acquired by the analysis unit 109.
Therefore, it is possible to obtain a subject image that maintains the surface condition of the subject based on the surface condition information of the subject. Furthermore, when a subject image is corrected and the surface state of the subject is missing, the corrected location can be made less noticeable based on the surface state information.

また、例えば、解析部109は、被写体画像の画像領域における所定の周波数帯域のエッジ成分を取得し、取得されたエッジ成分を表面状態情報として取得する。
したがって、所定の周波数帯域のエッジからなる被写体の表面状態を保持した被写体画像を得ることができる。
Further, for example, the analysis unit 109 acquires edge components in a predetermined frequency band in the image region of the subject image, and acquires the acquired edge components as surface state information.
Therefore, it is possible to obtain a subject image that maintains the surface state of the subject consisting of edges in a predetermined frequency band.

また、例えば、第2の画像処理部110は、所定の処理が施された被写体画像に、取得された表面状態情報に基づいた加工を施す。したがって、所定の処理が施された被写体画像に被写体の表面状態を加えることができる。 Further, for example, the second image processing unit 110 processes the subject image that has been subjected to predetermined processing based on the acquired surface state information. Therefore, the surface state of the subject can be added to the subject image that has been subjected to predetermined processing.

また、例えば、第2の画像処理部110は、被写体画像における特異領域を目立たなくする処理、例えば平滑化処理が施された場合に、解析部109によって取得された表面状態情報に基づいた加工を施す。したがって、被写体画像において特異領域を目立たなくする処理を施すことによって被写体の表面状態が欠落した場合でも、表面状態に基づく加工を施して処理を行った箇所を目立たないようにすることができる。 For example, the second image processing unit 110 performs processing based on the surface state information acquired by the analysis unit 109 when processing to make a unique region in the subject image less noticeable, such as smoothing processing, is performed. give Therefore, even if the surface condition of the object is missing by performing processing to make the unique region less noticeable in the object image, processing based on the surface condition can be performed to make the processed area less noticeable.

また、例えば、第2の画像処理部110は、特異領域を囲む形状を模した複数種のサイズの保護マップを用いて、この保護マップによって囲まれる特異領域を含む画像領域で所定の処理を夫々施し、複数種のサイズの保護マップの夫々を用いて所定の処理が施された画像領域の夫々の信頼性情報を取得し、取得された信頼性情報に基づき、複数の保護マップによる所定の処理の結果を影響度を変えて合成する。したがって、より信頼性の高い保護マップで処理された処理結果を被写体画像に反映させることができる。 For example, the second image processing unit 110 uses protection maps of multiple sizes that imitate the shape surrounding the unique region, and performs predetermined processing on the image region including the unique region surrounded by the protection map. The reliability information of each image area that has been subjected to predetermined processing using each of the protection maps of multiple sizes is acquired, and the predetermined processing using the multiple protection maps is performed based on the obtained reliability information. Synthesize the results by changing the degree of influence. Therefore, the processing result processed using the more reliable protection map can be reflected in the subject image.

また、例えば、解析部109は、被写体画像の輝度情報を解析し、その解析結果に基づいて、複数種の保護マップの形状を修正する。したがって、被写体画像に応じたマスク形状の保護マップを用いて被写体画像の特異領域に処理を施すことができる。 Further, for example, the analysis unit 109 analyzes the brightness information of the subject image, and corrects the shapes of the plurality of types of protection maps based on the analysis results. Therefore, it is possible to process a unique region of a subject image using a mask-shaped protection map corresponding to the subject image.

また、撮像装置1の解析部109及び第2の画像処理部110は、人の肌領域を含む被写体画像に上記処理を施すので、人物の肌の肌理を保持した被写体画像を得ることができる。 Furthermore, since the analysis unit 109 and the second image processing unit 110 of the imaging device 1 perform the above processing on the subject image including the human skin region, it is possible to obtain a subject image that retains the texture of the person's skin.

また、撮像装置1の第2の画像処理部110は、被写体画像における特異領域を周辺に対し目立たなくするよう補正し、補正された特異領域に対し、補正以前の被写体画像における被写体の表面状態を付加する加工を施す。したがって、被写体画像の特異領域を目立たなくする補正を行った場合に、補正箇所を目立たなくすることができる。 In addition, the second image processing unit 110 of the imaging device 1 corrects the unique region in the subject image to make it less noticeable with respect to the surroundings, and applies the surface state of the subject in the subject image before correction to the corrected specific region. Perform additional processing. Therefore, when a correction is performed to make a specific area of a subject image less noticeable, the corrected area can be made less noticeable.

なお、上記実施形態における記述内容は、本発明の好適な一例であり、これに限定されるものではない。 Note that the content described in the above embodiment is a preferred example of the present invention, and the present invention is not limited thereto.

例えば、上記実施形態においては、本発明の画像処理装置が撮像装置に備えられている場合を例にとり説明したが、本発明の画像処理装置は撮像装置とは別体であってもよい。例えば、撮像装置から受信した画像データに対して、図2~図3を用いて説明した処理を行う画像処理装置としてもよい。また、元画像については、記録された画像に限定されることなく、撮像部106にて逐次撮像され、表示部103に逐次表示されるライブビュー画像のようなものであってもよい。こうすることで、常に補正された結果を反映した被写体画像(顔)をユーザに提供することができる。 For example, in the above embodiments, the case where the image processing device of the present invention is included in the imaging device has been described as an example, but the image processing device of the present invention may be separate from the imaging device. For example, it may be an image processing device that performs the processing described using FIGS. 2 and 3 on image data received from an imaging device. Further, the original image is not limited to a recorded image, but may be a live view image that is sequentially captured by the imaging unit 106 and sequentially displayed on the display unit 103. By doing so, it is possible to always provide the user with a subject image (face) that reflects the corrected results.

また、上記実施形態においては、YUVの画像データを用いた場合を例にとり説明したが、画像データの種類は特に限定されない。 Further, in the above embodiment, the case where YUV image data is used is explained as an example, but the type of image data is not particularly limited.

また上記実施形態においては、肌理と陰影の双方を保護する場合を例にとり説明したが、いずれか一方のみを保護することとしてもよい。
肌理のみを保護する場合、元画像のY成分画像に基づいて、保護除外領域のサイズの異なる複数の肌理用保護マップを生成し、複数の肌理用保護マップの夫々を用いて元画像のYUV成分画像に補正処理を施し、複数の肌理用保護マップの夫々を用いて補正処理された画像領域の夫々の信頼度を求め、信頼度に基づいて画素ごとにα値を算出して複数の肌理用保護マップの夫々を用いて補正された複数の画像の透過合成を行う。また、Y成分画像から取得した肌理情報を透過合成した画像に付加して所定のα値で元画像のYUV成分画像に合成する。
陰影のみを保護する場合、元画像のY成分画像に基づいて、保護除外領域のサイズの異なる複数の陰影用保護マップを生成し、複数の陰影用保護マップの夫々を用いて元画像のYUV成分画像に補正処理を施し、複数の陰影用保護マップの夫々を用いて補正処理された画像領域の夫々の信頼度を求め、信頼度に基づいて画素ごとにα値を算出して複数の陰影用保護マップの夫々を用いて補正された複数の画像の透過合成を行う。そして、透過合成した画像を所定のα値で元画像のYUV成分画像に合成する。
Further, in the above embodiment, the case where both texture and shadow are protected is explained as an example, but it is also possible to protect only one of them.
When protecting only the texture, multiple texture protection maps with different sizes of protection exclusion areas are generated based on the Y component image of the original image, and each of the multiple texture protection maps is used to protect the YUV component of the original image. Apply correction processing to the image, calculate the reliability of each of the corrected image areas using each of the multiple texture protection maps, calculate the α value for each pixel based on the reliability, and use the multiple texture protection maps to calculate the α value for each pixel. A plurality of images corrected using each protection map are transparently synthesized. Further, the texture information acquired from the Y component image is added to the transparently synthesized image and synthesized with the YUV component image of the original image at a predetermined α value.
When protecting only shadows, multiple shadow protection maps with different sizes of protection exclusion areas are generated based on the Y component image of the original image, and each of the multiple shadow protection maps is used to protect the YUV component of the original image. Apply correction processing to the image, calculate the reliability of each corrected image area using each of the multiple shadow protection maps, calculate the α value for each pixel based on the reliability, and calculate the α value for each pixel based on the reliability. A plurality of images corrected using each protection map are transparently synthesized. The transparently synthesized image is then synthesized with the YUV component image of the original image using a predetermined α value.

また、例えば、上記の説明では、本発明に係るプログラムのコンピュータ読み取り可能な媒体としてハードディスクや半導体の不揮発性メモリ等を使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、CD-ROM等の可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も適用される。 Further, for example, in the above description, an example is disclosed in which a hard disk, a semiconductor nonvolatile memory, or the like is used as a computer-readable medium for the program according to the present invention, but the present invention is not limited to this example. As other computer-readable media, it is possible to apply a portable recording medium such as a CD-ROM. Further, a carrier wave is also applied as a medium for providing data of the program according to the present invention via a communication line.

その他、撮像装置を構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。 In addition, the detailed configuration and detailed operation of each device constituting the imaging device can be changed as appropriate without departing from the spirit of the invention.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
被写体画像を取得する取得手段と、
前記取得手段によって取得された被写体画像から被写体の肌理情報を取得する肌理情報取得手段と、
前記肌理情報取得手段によって取得された肌理情報に基づいて、前記被写体画像を加工する加工手段と、
を備えることを特徴とする画像処理装置。
<請求項2>
前記被写体画像の画像領域における所定の周波数帯域のエッジ成分を取得するエッジ成分取得手段を備え、
前記肌理情報取得手段は、このエッジ成分取得手段によって取得されたエッジ成分を前記肌理情報として取得することを特徴とする請求項1記載の画像処理装置。
<請求項3>
前記被写体画像に所定の画像処理を施す処理手段をさらに備え、
前記加工手段は、前記処理手段によって所定の処理が施された被写体画像に、前記肌理情報取得手段によって取得された肌理情報に基づいた加工を施すことを特徴とする請求項1又は2記載の画像処理装置。
<請求項4>
前記被写体画像において、周辺とは異なる特異領域を検出する検出手段をさらに備え、
前記所定の処理は、前記被写体画像における前記特異領域を目立たなくする処理である請求項3記載の画像処理装置。
<請求項5>
前記処理手段は、
前記特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で前記所定の処理を夫々施し、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記信頼性情報取得手段によって取得された信頼性情報に基づき、前記処理手段が処理した夫々のマスクデータ内の所定の処理の結果を影響度を変えて合成する合成手段と、
をさらに備えることを特徴とする請求項4記載の画像処理装置。
<請求項6>
前記被写体画像の輝度情報を解析する解析手段と、
前記解析手段による解析結果に基づいて、前記複数種のマスクデータの形状を修正する修正手段と、
をさらに備えることを特徴とする請求項5記載の画像処理装置。
<請求項7>
前記所定の処理は、平滑化処理であることを特徴とする請求項4に記載の画像処理装置。
<請求項8>
前記被写体画像は、人の肌領域を含む画像であることを特徴とする請求項1~7のいずれか一項に記載の画像処理装置。
<請求項9>
被写体画像を取得する取得手段と、
前記被写体画像から、その周辺とは異なる特異領域を検出する検出手段と、
前記検出手段によって検出された特異領域を前記周辺に対し目立たなくするよう補正する補正手段と、
前記補正手段によって目立たなくなるよう補正された特異領域に対し、前記補正手段による補正以前の前記被写体画像における被写体の表面状態を付加する加工を施すよう制御する制御手段と、
を備えたことを特徴とする画像処理装置。
<請求項10>
被写体画像を取得する取得手段と、
前記取得手段によって取得された被写体画像における周辺とは異なる特異領域を検出する検出手段と、
前記検出手段によって検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域に所定の処理を夫々施す処理手段と、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記信頼性情報取得手段によって取得された信頼性情報に基づき、前記処理手段が処理した夫々のマスクデータ内の所定の処理の結果を影響度を変えて合成する合成手段と、
を備えたことを特徴とする画像処理装置。
<請求項11>
画像処理装置における画像処理方法であって、
被写体画像を取得する工程と、
前記取得された被写体画像から被写体の肌理情報を取得する工程と、
前記取得された肌理情報に基づいて、前記被写体画像を加工する工程と、
を含むことを特徴とする画像処理方法。
<請求項12>
画像処理装置における画像処理方法であって、
被写体画像を取得する工程と、
前記被写体画像から、その周辺とは異なる特異領域を検出する工程と、
前記検出された特異領域を前記周辺に対し目立たなくするよう補正する工程と、
前記目立たなくなるよう補正された特異領域に対し、前記補正以前の前記被写体画像における被写体の表面状態を付加する加工を施す工程と
を含むことを特徴とする画像処理方法。
<請求項13>
画像処理装置における画像処理方法であって、
被写体画像を取得する工程と、
前記取得された被写体画像における周辺とは異なる特異領域を検出する工程と、
前記検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の処理を夫々施す工程と、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する工程と、
前記取得された信頼性情報に基づき、前記夫々のマスクデータ内の前記所定の処理の結果を影響度を変えて合成する合成手段と、
を含むことを特徴とする画像処理方法。
<請求項14>
コンピュータを、
被写体画像を取得する取得手段、
前記取得手段によって取得された被写体画像から被写体の肌理情報を取得する肌理情報取得手段、
前記肌理情報取得手段によって取得された肌理情報に基づいて、前記被写体画像を加工する加工手段、
として機能させるためのプログラム。
<請求項15>
コンピュータを、
被写体画像を取得する取得手段、
前記被写体画像から、その周辺とは異なる特異領域を検出する検出手段、
前記検出手段によって検出された特異領域を前記周辺に対し目立たなくするよう補正する補正手段、
前記補正手段によって目立たなくなるよう補正された特異領域に対し、前記補正手段による補正以前の前記被写体画像における被写体の表面状態を付加する加工を施すよう制御する制御手段、
として機能させるためのプログラム。
<請求項16>
コンピュータを、
被写体画像を取得する取得手段、
前記取得手段によって取得された被写体画像における周辺とは異なる特異領域を検出する検出手段、
前記検出手段によって検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の処理を夫々施す処理手段、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段、
前記信頼性情報取得手段によって取得された信頼性情報に基づき、前記処理手段が処理した夫々のマスクデータ内の所定の処理の結果を影響度を変えて合成する合成手段、
として機能させるためのプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and its equivalents.
Below, the invention described in the claims first attached to the application of this application will be added. The claim numbers listed in the supplementary notes are as in the claims originally attached to the request for this application.
[Additional notes]
<Claim 1>
an acquisition means for acquiring a subject image;
Texture information acquisition means for acquiring texture information of the subject from the subject image acquired by the acquisition means;
processing means for processing the subject image based on the texture information acquired by the texture information acquisition means;
An image processing device comprising:
<Claim 2>
comprising edge component acquisition means for acquiring edge components of a predetermined frequency band in the image area of the subject image;
2. The image processing apparatus according to claim 1, wherein the texture information acquisition means acquires an edge component acquired by the edge component acquisition means as the texture information.
<Claim 3>
further comprising processing means for performing predetermined image processing on the subject image,
The image according to claim 1 or 2, wherein the processing means processes the subject image that has been subjected to predetermined processing by the processing means, based on the texture information acquired by the texture information acquisition means. Processing equipment.
<Claim 4>
Further comprising a detection means for detecting a specific region different from the surrounding area in the subject image,
4. The image processing apparatus according to claim 3, wherein the predetermined process is a process for making the unique area in the subject image less noticeable.
<Claim 5>
The processing means includes:
Using mask data of a plurality of sizes imitating the shape surrounding the singular region, performing the predetermined processing on an image region including the peculiar region surrounded by the mask data, respectively;
Reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of types of sizes;
a synthesizing means for synthesizing the results of predetermined processing in each of the mask data processed by the processing means while changing the degree of influence, based on the reliability information acquired by the reliability information acquisition means;
The image processing apparatus according to claim 4, further comprising: an image processing apparatus according to claim 4;
<Claim 6>
analysis means for analyzing brightness information of the subject image;
correction means for correcting the shapes of the plurality of types of mask data based on the analysis results by the analysis means;
The image processing apparatus according to claim 5, further comprising:
<Claim 7>
The image processing apparatus according to claim 4, wherein the predetermined processing is smoothing processing.
<Claim 8>
The image processing apparatus according to any one of claims 1 to 7, wherein the subject image is an image including a human skin area.
<Claim 9>
an acquisition means for acquiring a subject image;
Detection means for detecting a unique region different from the surrounding area from the subject image;
correction means for correcting the specific region detected by the detection means to make it less noticeable with respect to the surroundings;
A control means for controlling the unique region corrected to be inconspicuous by the correction means to perform processing to add a surface state of the subject in the subject image before correction by the correction means;
An image processing device comprising:
<Claim 10>
an acquisition means for acquiring a subject image;
detection means for detecting a unique region different from the surrounding area in the subject image acquired by the acquisition means;
processing means for applying predetermined processing to image regions including the singular region surrounded by the mask data using mask data of a plurality of sizes imitating shapes surrounding the singular region detected by the detection means;
Reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of types of sizes;
a synthesizing means for synthesizing the results of predetermined processing in each of the mask data processed by the processing means while changing the degree of influence, based on the reliability information acquired by the reliability information acquisition means;
An image processing device comprising:
<Claim 11>
An image processing method in an image processing device, the method comprising:
a step of acquiring a subject image;
acquiring texture information of the subject from the acquired subject image;
processing the subject image based on the acquired texture information;
An image processing method characterized by comprising:
<Claim 12>
An image processing method in an image processing device, the method comprising:
a step of acquiring a subject image;
detecting a specific region different from its surroundings from the subject image;
correcting the detected specific region to make it less noticeable with respect to the surrounding area;
An image processing method comprising the step of: adding a surface state of a subject in the subject image before the correction to the specific region corrected to make it less noticeable.
<Claim 13>
An image processing method in an image processing device, the method comprising:
a step of acquiring a subject image;
detecting a unique region different from the surrounding area in the acquired subject image;
using mask data of a plurality of sizes imitating a shape surrounding the detected singular region, and performing a predetermined process on each of the image regions including the singular region surrounded by the mask data;
acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of sizes;
a synthesizing means for synthesizing the results of the predetermined processing in the respective mask data with varying degrees of influence based on the acquired reliability information;
An image processing method characterized by comprising:
<Claim 14>
computer,
an acquisition means for acquiring a subject image;
Texture information acquisition means for acquiring texture information of the subject from the subject image acquired by the acquisition means;
processing means for processing the subject image based on the texture information acquired by the texture information acquisition means;
A program to function as
<Claim 15>
computer,
an acquisition means for acquiring a subject image;
detection means for detecting a unique region different from its surroundings from the subject image;
correction means for correcting the specific region detected by the detection means to make it less noticeable with respect to the surroundings;
control means for controlling the unique region corrected by the correction means so as to be inconspicuous so as to be processed to add a surface condition of the subject in the object image before correction by the correction means;
A program to function as
<Claim 16>
computer,
an acquisition means for acquiring a subject image;
detection means for detecting a unique region different from the surroundings in the subject image acquired by the acquisition means;
processing means that uses mask data of a plurality of sizes imitating shapes surrounding the singular region detected by the detection means, and performs predetermined processing on each image region including the singular region surrounded by the mask data;
Reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of types of sizes;
a synthesizing means for synthesizing the results of predetermined processing in each of the mask data processed by the processing means while changing the degree of influence, based on the reliability information acquired by the reliability information acquisition means;
A program to function as

1 撮像装置
101 制御部
102 記憶部
103 表示部
104 通信部
105 操作部
106 撮像部
106a 撮像レンズ
107 第1の画像処理部
108 画像メモリ
109 解析部
20 肌解析部
21 保護マップデータ設定部
22 低域データ生成部
23 エッジ情報生成部
24 領域分割部
25 陰影用保護マップ生成部
26 肌理用保護マップ生成部
27 保護マップ境界信頼性判定部
110 第2の画像処理部
28 補正処理部
29 透過合成処理部
30 合成処理部
111 点灯制御部
112 発光部
1 Imaging device 101 Control section 102 Storage section 103 Display section 104 Communication section 105 Operation section 106 Imaging section 106a Imaging lens 107 First image processing section 108 Image memory 109 Analysis section 20 Skin analysis section 21 Protection map data setting section 22 Low range Data generation unit 23 Edge information generation unit 24 Area division unit 25 Shadow protection map generation unit 26 Texture protection map generation unit 27 Protection map boundary reliability determination unit 110 Second image processing unit 28 Correction processing unit 29 Transparency synthesis processing unit 30 Synthesis processing section 111 Lighting control section 112 Light emitting section

Claims (9)

被写体画像を取得する取得手段と、
前記取得手段によって取得された前記被写体画像の画像領域における所定の周波数帯域のエッジ成分を取得するエッジ成分取得手段と、
前記エッジ成分取得手段によって取得されたエッジ成分を肌理情報として取得する肌理情報取得手段と、
前記被写体画像において、周辺とは異なる特異領域を検出する検出手段と、
前記被写体画像における前記特異領域を目立たなくする補正処理を施す処理手段と、
前記肌理情報取得手段によって取得された肌理情報に基づいて、前記処理手段によって前記補正処理が施された前記被写体画像を加工する加工手段と、
を備え、
前記処理手段は、
前記特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の画像処理を夫々施し、前記複数種のサイズのマスクデータの夫々を用いて前記所定の画像処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記所定の画像処理が施された画像領域を、前記信頼性情報取得手段によって取得された信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する合成手段と、
を備えることを特徴とする画像処理装置。
an acquisition means for acquiring a subject image;
edge component acquisition means for acquiring edge components in a predetermined frequency band in the image region of the subject image acquired by the acquisition means;
Texture information acquisition means for acquiring the edge component acquired by the edge component acquisition means as texture information;
Detection means for detecting a unique region different from the surrounding area in the subject image;
processing means that performs a correction process to make the specific area in the subject image less noticeable ;
processing means for processing the subject image subjected to the correction processing by the processing means, based on the texture information acquired by the texture information acquisition means;
Equipped with
The processing means includes:
Using mask data of a plurality of sizes imitating the shape surrounding the singular region, predetermined image processing is performed on the image area including the singular region surrounded by the mask data, and the mask data of the plurality of sizes are obtained. reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined image processing using each of the above;
compositing means for composing the image regions subjected to the predetermined image processing so that the degree of influence of the image region for which reliability information acquired by the reliability information acquisition means is determined to be higher is higher;
An image processing device comprising:
前記所定の画像処理は、平滑化処理である、
ことを特徴とする請求項1に記載の画像処理装置。
the predetermined image processing is smoothing processing;
The image processing device according to claim 1, characterized in that:
被写体画像を取得する取得手段と、
前記取得手段によって取得された被写体画像における周辺とは異なる特異領域を検出する検出手段と、
前記検出手段によって検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域に所定の処理を夫々施す処理手段と、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記処理手段によって前記所定の処理が施された画像領域を、前記信頼性情報取得手段によって取得された信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する合成手段と、
を備えることを特徴とする画像処理装置。
an acquisition means for acquiring a subject image;
detection means for detecting a unique region different from the surrounding area in the subject image acquired by the acquisition means;
processing means for applying predetermined processing to image regions including the singular region surrounded by the mask data using mask data of a plurality of sizes imitating shapes surrounding the singular region detected by the detection means;
Reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of types of sizes;
Synthesis of image regions subjected to the predetermined processing by the processing means so that the degree of influence of the image region determined to have higher reliability information acquired by the reliability information acquisition means is higher. means and
An image processing device comprising :
前記被写体画像の輝度情報を解析する解析手段と、
前記解析手段による解析結果に基づいて、前記複数種のマスクデータの形状を修正する修正手段と、
を備えることを特徴とする請求項1~3のいずれか一項に記載の画像処理装置。
analysis means for analyzing brightness information of the subject image;
correction means for correcting the shapes of the plurality of types of mask data based on the analysis results by the analysis means;
The image processing device according to any one of claims 1 to 3, comprising :
前記被写体画像は、人の肌領域を含む画像である、
ことを特徴とする請求項1~4のいずれか一項に記載の画像処理装置。
The subject image is an image including a human skin area,
The image processing device according to any one of claims 1 to 4 .
画像処理装置における画像処理方法であって、An image processing method in an image processing device, the method comprising:
被写体画像を取得する取得工程と、an acquisition step of acquiring a subject image;
前記取得工程で取得された前記被写体画像の画像領域における所定の周波数帯域のエッジ成分を取得するエッジ成分取得工程と、an edge component acquisition step of acquiring an edge component of a predetermined frequency band in the image region of the subject image acquired in the acquisition step;
前記エッジ成分取得工程で取得されたエッジ成分を肌理情報として取得する肌理情報取得工程と、a texture information acquisition step of acquiring the edge component acquired in the edge component acquisition step as texture information;
前記被写体画像において、周辺とは異なる特異領域を検出する検出工程と、a detection step of detecting a specific region different from the surrounding area in the subject image;
前記被写体画像における前記特異領域を目立たなくする補正処理を施す処理工程と、a processing step of performing a correction process to make the specific region in the subject image less noticeable;
前記肌理情報取得工程で取得された肌理情報に基づいて、前記処理工程で前記補正処理が施された前記被写体画像を加工する加工工程と、a processing step of processing the subject image subjected to the correction processing in the processing step based on the texture information obtained in the texture information obtaining step;
を含み、including;
前記処理工程は、The processing step includes:
前記特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の画像処理を夫々施し、前記複数種のサイズのマスクデータの夫々を用いて前記所定の画像処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得工程と、Using mask data of a plurality of sizes imitating the shape surrounding the singular region, predetermined image processing is performed on the image area including the singular region surrounded by the mask data, and the mask data of the plurality of sizes are obtained. a reliability information acquisition step of acquiring reliability information for each of the image regions subjected to the predetermined image processing using each of the above;
前記所定の画像処理が施された画像領域を、前記信頼性情報取得工程で取得された信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する合成工程と、a compositing step of composing the image regions subjected to the predetermined image processing so that the degree of influence of the image region determined to have higher reliability information acquired in the reliability information acquisition step is higher;
を含むことを特徴とする画像処理方法。An image processing method characterized by comprising:
画像処理装置における画像処理方法であって、An image processing method in an image processing device, the method comprising:
被写体画像を取得する工程と、a step of acquiring a subject image;
取得された被写体画像における周辺とは異なる特異領域を検出する工程と、Detecting a unique region different from the surrounding area in the acquired subject image;
前記検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の処理を夫々施す工程と、using mask data of a plurality of sizes imitating a shape surrounding the detected singular region, and performing a predetermined process on each of the image regions including the singular region surrounded by the mask data;
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する工程と、acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of sizes;
前記所定の処理が施された画像領域を、前記信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する工程と、compositing the image regions subjected to the predetermined processing so that the degree of influence of the image region determined to have higher reliability information is higher;
を含むことを特徴とする画像処理方法。An image processing method characterized by comprising:
画像処理装置のコンピュータを、The computer of the image processing device,
被写体画像を取得する取得手段、an acquisition means for acquiring a subject image;
前記取得手段によって取得された前記被写体画像の画像領域における所定の周波数帯域のエッジ成分を取得するエッジ成分取得手段、edge component acquisition means for acquiring edge components of a predetermined frequency band in the image area of the subject image acquired by the acquisition means;
前記エッジ成分取得手段によって取得されたエッジ成分を肌理情報として取得する肌理情報取得手段、Texture information acquisition means for acquiring the edge component acquired by the edge component acquisition means as texture information;
前記被写体画像において、周辺とは異なる特異領域を検出する検出手段、detection means for detecting a unique region different from the surrounding area in the subject image;
前記被写体画像における前記特異領域を目立たなくする補正処理を施す処理手段、processing means for performing correction processing to make the specific region in the subject image less noticeable;
前記肌理情報取得手段によって取得された肌理情報に基づいて、前記処理手段によって前記補正処理が施された前記被写体画像を加工する加工手段、processing means for processing the subject image subjected to the correction processing by the processing means, based on the texture information acquired by the texture information acquisition means;
として機能させ、function as
前記処理手段は、The processing means includes:
前記特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の画像処理を夫々施し、前記複数種のサイズのマスクデータの夫々を用いて前記所定の画像処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段、Using mask data of a plurality of sizes imitating the shape surrounding the singular region, predetermined image processing is performed on the image area including the singular region surrounded by the mask data, and the mask data of the plurality of sizes are obtained. Reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined image processing using each of the above;
前記所定の画像処理が施された画像領域を、前記信頼性情報取得手段によって取得された信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する合成手段、compositing means for composing the image regions subjected to the predetermined image processing so that the degree of influence of the image region determined to have higher reliability information acquired by the reliability information acquisition means is higher;
として機能することを特徴とするプログラム。A program that functions as
画像処理装置のコンピュータを、The computer of the image processing device,
被写体画像を取得する取得手段、an acquisition means for acquiring a subject image;
前記取得手段によって取得された被写体画像における周辺とは異なる特異領域を検出する検出手段、detection means for detecting a unique region different from the surroundings in the subject image acquired by the acquisition means;
前記検出手段によって検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の処理を夫々施す処理手段、processing means that uses mask data of a plurality of sizes imitating shapes surrounding the singular region detected by the detection means, and performs predetermined processing on each image region including the singular region surrounded by the mask data;
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段、Reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of types of sizes;
前記処理手段によって前記所定の処理が施された画像領域を、前記信頼性情報取得手段によって取得された信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する合成手段、Synthesis of image regions subjected to the predetermined processing by the processing means so that the degree of influence of the image region determined to have higher reliability information acquired by the reliability information acquisition means is higher. means,
として機能させるためのプログラム。A program to function as
JP2019055930A 2019-03-25 2019-03-25 Image processing device, image processing method, and program Active JP7383891B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019055930A JP7383891B2 (en) 2019-03-25 2019-03-25 Image processing device, image processing method, and program
JP2023180705A JP2023174917A (en) 2019-03-25 2023-10-20 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019055930A JP7383891B2 (en) 2019-03-25 2019-03-25 Image processing device, image processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023180705A Division JP2023174917A (en) 2019-03-25 2023-10-20 Image processing device, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2020160489A JP2020160489A (en) 2020-10-01
JP2020160489A5 JP2020160489A5 (en) 2022-03-23
JP7383891B2 true JP7383891B2 (en) 2023-11-21

Family

ID=72643238

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019055930A Active JP7383891B2 (en) 2019-03-25 2019-03-25 Image processing device, image processing method, and program
JP2023180705A Pending JP2023174917A (en) 2019-03-25 2023-10-20 Image processing device, image processing method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023180705A Pending JP2023174917A (en) 2019-03-25 2023-10-20 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (2) JP7383891B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118064A (en) 1999-10-20 2001-04-27 Nippon Hoso Kyokai <Nhk> Image processor
JP2004303193A (en) 2003-03-20 2004-10-28 Omron Corp Image processor
JP2006018467A (en) 2004-06-30 2006-01-19 Canon Inc Image processing apparatus and image processing method
JP2006180971A (en) 2004-12-27 2006-07-13 Dds:Kk Skin evaluation method and device
JP2006277354A (en) 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International Face image operation device and face image operation program
CN108230331A (en) 2017-09-30 2018-06-29 深圳市商汤科技有限公司 Image processing method and device, electronic equipment, computer storage media

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118064A (en) 1999-10-20 2001-04-27 Nippon Hoso Kyokai <Nhk> Image processor
JP2004303193A (en) 2003-03-20 2004-10-28 Omron Corp Image processor
JP2006018467A (en) 2004-06-30 2006-01-19 Canon Inc Image processing apparatus and image processing method
JP2006180971A (en) 2004-12-27 2006-07-13 Dds:Kk Skin evaluation method and device
JP2006277354A (en) 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International Face image operation device and face image operation program
CN108230331A (en) 2017-09-30 2018-06-29 深圳市商汤科技有限公司 Image processing method and device, electronic equipment, computer storage media

Also Published As

Publication number Publication date
JP2023174917A (en) 2023-12-08
JP2020160489A (en) 2020-10-01

Similar Documents

Publication Publication Date Title
CN108447017B (en) Face virtual face-lifting method and device
US9135726B2 (en) Image generation apparatus, image generation method, and recording medium
KR20110033980A (en) Automatic face and skin beautification using face detection
JP6859611B2 (en) Image processing equipment, image processing methods and programs
CN109191393B (en) Three-dimensional model-based beauty method
CN108682050B (en) Three-dimensional model-based beautifying method and device
US20170154437A1 (en) Image processing apparatus for performing smoothing on human face area
CN111526279B (en) Image processing apparatus, image processing method, and recording medium
KR20160110038A (en) Image processing apparatus and image processing method
CN109639959A (en) Image processing apparatus, image processing method and recording medium
JP7114335B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD FOR IMAGE PROCESSING DEVICE, AND PROGRAM
JP2019070870A (en) Image processing device, image processing method and program
JP7292905B2 (en) Image processing device, image processing method, and imaging device
JP7383891B2 (en) Image processing device, image processing method, and program
JP7277158B2 (en) Setting device and method, program, storage medium
JP7400198B2 (en) Image processing device, image processing method, and program
JP5203159B2 (en) Image processing method, image processing system, and image processing program
JP4742068B2 (en) Image processing method, image processing system, and image processing program
JP2019074795A (en) Image processing device, image processing method and program
CN111083345B (en) Apparatus and method for generating a unique illumination and non-volatile computer readable medium thereof
JP5744945B2 (en) Image processing apparatus and method, and imaging apparatus
JP2005094452A (en) Method, system, and program for processing image
CN111047520B (en) Image processing apparatus, image processing method, and recording medium
JP2010199866A (en) Image processing device
JP2024021344A (en) Image processing device, control method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R150 Certificate of patent or registration of utility model

Ref document number: 7383891

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150