JP7383891B2 - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP7383891B2 JP7383891B2 JP2019055930A JP2019055930A JP7383891B2 JP 7383891 B2 JP7383891 B2 JP 7383891B2 JP 2019055930 A JP2019055930 A JP 2019055930A JP 2019055930 A JP2019055930 A JP 2019055930A JP 7383891 B2 JP7383891 B2 JP 7383891B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing
- acquisition means
- acquiring
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 12
- 238000004458 analytical method Methods 0.000 claims description 40
- 238000000034 method Methods 0.000 claims description 32
- 238000001514 detection method Methods 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 9
- 230000015572 biosynthetic process Effects 0.000 claims description 8
- 238000003786 synthesis reaction Methods 0.000 claims description 8
- 238000009499 grossing Methods 0.000 claims description 7
- 238000003384 imaging method Methods 0.000 description 27
- 239000011148 porous material Substances 0.000 description 21
- 230000007717 exclusion Effects 0.000 description 20
- 230000002194 synthesizing effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 206010000496 acne Diseases 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000000611 regression analysis Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 230000000873 masking effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 208000002874 Acne Vulgaris Diseases 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000036548 skin texture Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Description
本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.
従来、顔画像を補正する技術が提案されている。例えば、特許文献1には、顔の目、鼻、口などの特徴領域をマスクした残りの肌領域に平滑化処理を施すことで細かな肌荒れを目立たなくし、なめらかな肌状態を再現した顔画像を生成することが記載されている。
Conventionally, techniques for correcting facial images have been proposed. For example,
しかしながら、特許文献1の技術では、周辺の肌とは異なる特異領域のみを補正することが難しい他、補正処理を施した場合、補正をしていない周辺箇所との差が目立ってしまう問題が予見される。
However, with the technology of
本願発明はこのような問題点に鑑みてなされたもので、被写体画像を補正した場合の補正箇所が目立たなくなるようにすることを目的とする。 The present invention has been made in view of these problems, and an object of the present invention is to make the corrected area less noticeable when a subject image is corrected.
上記課題を解決するため、本発明の画像処理装置は、
被写体画像を取得する取得手段と、
前記取得手段によって取得された前記被写体画像の画像領域における所定の周波数帯域のエッジ成分を取得するエッジ成分取得手段と、
前記エッジ成分取得手段によって取得されたエッジ成分を肌理情報として取得する肌理情報取得手段と、
前記被写体画像において、周辺とは異なる特異領域を検出する検出手段と、
前記被写体画像における前記特異領域を目立たなくする補正処理を施す処理手段と、
前記肌理情報取得手段によって取得された肌理情報に基づいて、前記処理手段によって前記補正処理が施された前記被写体画像を加工する加工手段と、
を備え、
前記処理手段は、
前記特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の画像処理を夫々施し、前記複数種のサイズのマスクデータの夫々を用いて前記所定の画像処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記所定の画像処理が施された画像領域を、前記信頼性情報取得手段によって取得された信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する合成手段と、
を備えることを特徴とする。
In order to solve the above problems, the image processing device of the present invention includes:
an acquisition means for acquiring a subject image;
edge component acquisition means for acquiring edge components in a predetermined frequency band in the image region of the subject image acquired by the acquisition means;
Texture information acquisition means for acquiring the edge component acquired by the edge component acquisition means as texture information;
Detection means for detecting a unique region different from the surrounding area in the subject image;
processing means that performs a correction process to make the specific area in the subject image less noticeable ;
processing means for processing the subject image subjected to the correction processing by the processing means, based on the texture information acquired by the texture information acquisition means;
Equipped with
The processing means includes:
Using mask data of a plurality of sizes imitating the shape surrounding the singular region, predetermined image processing is performed on the image area including the singular region surrounded by the mask data, and the mask data of the plurality of sizes are obtained. reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined image processing using each of the above;
compositing means for composing the image regions subjected to the predetermined image processing so that the degree of influence of the image region for which reliability information acquired by the reliability information acquisition means is determined to be higher is higher;
It is characterized by having the following.
また、本発明の画像処理装置は、
被写体画像を取得する取得手段と、
前記取得手段によって取得された被写体画像における周辺とは異なる特異領域を検出する検出手段と、
前記検出手段によって検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域に所定の処理を夫々施す処理手段と、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記処理手段によって前記所定の処理が施された画像領域を、前記信頼性情報取得手段によって取得された信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する合成手段と、
を備えることを特徴とする。
Further, the image processing device of the present invention includes:
an acquisition means for acquiring a subject image;
detection means for detecting a unique region different from the surrounding area in the subject image acquired by the acquisition means;
processing means for applying predetermined processing to image regions including the singular region surrounded by the mask data using mask data of a plurality of sizes imitating shapes surrounding the singular region detected by the detection means;
Reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of types of sizes;
Synthesis of image regions subjected to the predetermined processing by the processing means so that the degree of influence of the image region determined to have higher reliability information acquired by the reliability information acquisition means is higher. means and
It is characterized by having the following .
本発明によれば、被写体画像を補正した場合の補正箇所が目立たなくなるようにすることが可能となる。 According to the present invention, it is possible to make a corrected part less noticeable when a subject image is corrected.
以下、添付図面を参照して本発明に係る実施形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Note that the present invention is not limited to the illustrated example.
[撮像装置1の構成]
図1は、本実施形態に係る撮像装置1の機能的構成を示すブロック図である。図1に示すように、撮像装置1は、制御部101、記憶部102、表示部103、通信部104、操作部105、撮像部106、第1の画像処理部107、画像メモリ108、解析部109、第2の画像処理部110、点灯制御部111、発光部112等を備えて構成されている。制御部101と各部はバスにより接続されている。
[Configuration of imaging device 1]
FIG. 1 is a block diagram showing the functional configuration of an
制御部101は、CPU(Central Processing Unit)、RAM(Random Access Memory)等を備えて構成され、記憶部102に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行う。
The
記憶部102は、不揮発性の半導体メモリやハードディスク等により構成される。記憶部102には、制御部101で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
The
表示部103は、LCD(Liquid Crystal Display)等により構成され、制御部101からの表示制御信号に従って、例えば、撮像部106により撮像された状態を示すライブビュー画像や、撮影指示に応じて撮像部106により取得された画像等を表示する。
The
通信部104は、外部の機器と無線又は有線によりデータ通信を行うためのインターフェースである。
The
操作部105は、シャッターキーを始めとする各種機能ボタンや表示部103に積層配置された透明なタッチパネルを備え、ユーザによる各ボタンの押下入力、タッチパネルへのタッチ、スライド操作等を受け付けてその操作情報を制御部101に出力する。
The
撮像部106は、撮像レンズ106a、図示しないCCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等のイメージセンサ等からなる撮像素子、A/D変換回路等を備えて構成され、撮像レンズ106aを通過した光学像を撮像素子により2次元の画像信号に変換し、被写体の画像データ(RGBの画像データ)を取得する。
The
第1の画像処理部107は、撮像部106により取得されたRGBデータに画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Crからなる画像データ(Y、U、Vの各成分の画像データ)に変換する。
The first
画像メモリ108は、例えば、フラッシュメモリ等により構成され、撮像部106により撮像され、第1の画像処理部107により処理された画像データを記録する記録手段である。
The
解析部109は、本発明に係る補正モードが予め設定されている場合に、撮像部106により取得され、第1の画像処理部107により処理された被写体の画像データ(被写体画像)を解析することによって被写体の肌の肌理情報(肌の表面情報)を取得して第2の画像処理部110に出力する。また、解析部109は、第1の画像処理部107により処理された画像データにおける、周辺の肌とは異なる特異領域(例えば、吹き出物等の異物の存在する領域)周辺の画像領域を解析することによって、第2の画像処理部110において特異領域に補正処理を施す際に用いる肌理用保護マップM11、M12及び陰影用保護マップM21、M22(図2参照)を生成する。ここで、肌理用保護マップM11、M12、陰影用保護マップM21、M22は、特異領域に補正処理を施す際に、その特異領域の周辺の画像領域のうち、補正対象外とする画像領域を保護する(マスクする)ためのマスクデータである。
解析部109は、肌理情報取得手段、エッジ成分取得手段、検出手段、解析手段、修正手段として機能する。
The
The
第2の画像処理部110は、撮像部106により取得され、第1の画像処理部107により処理された画像データの特異領域に対し、解析部109により生成された肌理用保護マップM11、M12、及び陰影用保護マップM21、M22を用いて平滑化処理等の補正処理を施し、処理結果に肌理情報を付加して元の画像データ(元画像)に合成することで、補正済み画像を生成する。
第2の画像処理部110は、加工手段、処理手段として機能する。
The second
The second
解析部109、第2の画像処理部110は、制御部101と記憶部102に記憶されているプログラムとの協働により実行されるものとするが、専用のハードウエアにより実現することとしてもよい。
The
点灯制御部111(ドライバ)は、発光部112のLED(Light Emitting Diode)のそれぞれに接続され、制御部101からの指示に従って、発光部112の光量や点灯/消灯を制御する。
The lighting control unit 111 (driver) is connected to each of the LEDs (Light Emitting Diodes) of the
発光部112は、LED等により構成され、被写体に光を照射する。
The
[撮像装置1の動作]
次に、撮像装置1の解析部109及び第2の画像処理部110の動作について説明する。
図2は、解析部109及び第2の画像処理部110により実行される処理の概略を示す図である。図2のG1は、第1の画像処理部107で処理された画像データを元画像として、元画像における特異領域及びその周辺のY成分画像(輝度成分画像)を模式的に示した図である。図2のG1において、斜線51は特異領域を表し、ドット52は肌の肌理(キメ)を表し、陰影部53は肌にかかった陰影を表す。この陰影とは、例えば、顔の器官やしわ等による凹凸によって発生するものもあれば、髪、睫毛、眉、もしくはそれらの影によって発生するものもある。図2において、G1全体に肌理52が存在する。また特異領域51(吹き出物等の異物の画像)だけでなく、その特異領域周辺には、陰影53が存在する。
[Operation of imaging device 1]
Next, the operations of the
FIG. 2 is a diagram schematically showing processing executed by the
このY成分画像G1に対応する元画像において、特異領域51を目立たなくする補正処理を行うと、補正対象とした領域の肌の表面状態(肌理)まで消えてしまい、不自然な画像となってしまう。例えば、図2のG2は、特異領域の肌理が消えた例を示している。補正対象の領域を周辺まで広げると、特異領域周辺の陰影まで消えてしまい、さらに不自然な画像となる。 If a correction process is performed to make the specific area 51 less noticeable in the original image corresponding to this Y component image G1, the surface condition (texture) of the skin in the area targeted for correction will also disappear, resulting in an unnatural image. Put it away. For example, G2 in FIG. 2 shows an example in which the texture of the unique region has disappeared. If the area to be corrected is extended to the periphery, even the shadows around the unique area will disappear, resulting in an even more unnatural image.
そこで、本実施形態では、まず、解析部109において、元画像から特異領域及びその周辺部におけるY成分画像G1を生成する。次いで、図2に示すように、Y成分画像G1を解析して、解析結果に基づいて肌理用保護マップM11(大)、肌理用保護マップM12(小)、陰影用保護マップM21(大)、陰影用保護マップM22(小)を生成する。そして、第2の画像処理部110において、生成した肌理用保護マップM11、M12、陰影用保護マップM21、M22を用いて元画像に特異領域を目立たなくするための補正処理を行う。図2において、補正処理後の画像をG2で示す。また、解析部109において、補正以前にY成分画像G1を解析して被写体の肌の表面状態(肌理)を示す情報(肌理情報)を取得しておき、第2の画像処理部110において、解析部109において補正以前の情報から取得した肌理情報を補正処理後の画像G2に付加する加工を施して、肌理と陰影が消えていない補正済み画像G3を生成する。
Therefore, in this embodiment, first, the
ここで、元画像からの補正対象となる特異領域の検出手法は、特に限定されず、いずれの方法で行ってもよい。例えば、表示部103に表示された元画像の顔領域上からユーザが操作部105により指定した領域を特異領域として検出してもよい。あるいは、元画像から顔領域を検出し、検出された顔領域の画像を切り出して、顔領域の輪郭領域内のV成分画像データの、目、鼻、口をマスクしたデータから周囲とは異なる画素値(突発的に生じている画素値)の領域を抽出し、その領域の大きさに基づいて特異領域を検出してもよい。
Here, the method for detecting the unique region to be corrected from the original image is not particularly limited, and any method may be used. For example, an area specified by the user using the
図3は、解析部109と第2の画像処理部110の機能構成を示すブロック図である。
図3に示すように、解析部109は、肌解析部20、保護マップデータ設定部21、低域データ生成部22、エッジ情報生成部23、領域分割部24、陰影用保護マップ生成部25、肌理用保護マップ生成部26を備えて構成されている。また、第2の画像処理部110は、保護マップ境界信頼性判定部27、補正処理部28、透過合成処理部29、合成処理部30を備えて構成されている。以下、図3を参照して、解析部109と第2の画像処理部110の処理について説明する。
FIG. 3 is a block diagram showing the functional configuration of the
As shown in FIG. 3, the
まず、解析部109は、YUVの各成分を有する元画像からY(輝度)成分で構成されるY成分画像を生成し、更に、そのY成分画像の顔領域から検出された、特異領域を中央に含む所定サイズの矩形領域を切り出して、肌解析部20及びエッジ情報生成部23に入力する。
First, the
肌解析部20は、入力された矩形領域内のY成分画像を解析して毛穴の画像領域を検出し、この毛穴の画像領域における毛穴のサイズデータ(size)と毛穴部分のコントラストデータ(con)を取得する。そして、取得された毛穴のサイズデータについて、毛穴サイズデータの平均データ(size_ave)及び毛穴サイズデータの標準偏差データ(size_sd)を算出し、保護マップデータ設定部21及び低域データ生成部22に出力する。また、取得された毛穴部分のコントラストデータについて、毛穴部分のコントラストデータの平均データ(con_ave)及び毛穴部分のコントラストデータの標準偏差データ(con_sd)を算出し、肌理用保護マップ生成部26に出力する。
The
保護マップデータ設定部21は、特異領域を補正する際、それ以外の領域まで補正されることが無いよう、大きさが異なる大小2種類の楕円形状の保護除外領域61、62(図2参照)を有するマスクデータからなる保護マップM1、M2を生成し、領域分割部24、肌理用保護マップ生成部26に出力する。特異領域は、ニキビ等の吹き出物や周囲から目立つ起伏の存在するほぼ円形の領域であり、保護マップM1、M2の保護除外領域61、62は、特異領域を囲む楕円形状となっている。
例えば、保護マップデータ設定部21は、まず、記憶部102に記憶されている基本の楕円サイズの保護除外領域を有する基本の保護マップを読み出す。次いで、肌解析部20において算出された毛穴サイズデータの平均データ(size_ave)と毛穴サイズデータの標準偏差データ(size_sd)を足し合わせた値に基づいて毛穴サイズの半径を求め、求めた半径を基本の保護マップの楕円の半径に足した保護除外領域を有する保護マップM1、求めた半径を基本の保護マップの楕円の半径から引いた楕円サイズの保護除外領域を有する保護マップM2を生成する。
なお、毛穴サイズは、一般的には個人差が少ないため、予め2種類のサイズの保護マップM1、M2を生成して記憶部102に記憶することとしてもよい。また、本実施形態ではテンプレートとして2種類のサイズの保護マップM1,M2を生成することとしたが、これに限らず、サイズに応じて複数種生成してもよい。サイズが多ければ多い程、より精度の高い特異領域の補正が可能となる。
The protection map
For example, the protection map
In addition, since there is generally little individual difference in pore size, protection maps M1 and M2 of two types of sizes may be generated in advance and stored in the
低域データ生成部22は、Y成分画像を肌解析部20から入力された毛穴のサイズデータの平均データ(size_ave)と毛穴のサイズデータの標準偏差データ(size_sd)を足し合わせた値をパラメータとした平均フィルタを用いて平滑化してY成分画像におけるエッジ成分を取り除き、大まかな陰影の状態を示す低域データ(低周波数帯域のデータ)を生成する。これにより、肌の陰影から毛穴の影響を取り除くことができる。低域データ生成部22は、生成した低域データをエッジ情報生成部23及び領域分割部24に出力する。
The low-pass
エッジ情報生成部23は、低域データ生成部22にて生成された低域データとY成分画像との正方向の(正値の)差分データ、負方向の(負値の)差分データをそれぞれ生成・取得する。これにより、毛穴より高い周波数帯域の肌理を抽出することができる。エッジ情報生成部23は、この正方向の差分データ、負方向の差分データを肌理に対応するエッジ情報(肌理情報)として合成処理部30に出力する。
The edge
領域分割部24は、低域データ生成部22から入力された低域データに基づいて、保護マップデータ設定部21から入力された保護マップM1の楕円と保護マップM2の楕円の間の環状の領域の中で、補正を施すと陰影が消えてしまう等、本来の陰影表現に影響が出る陰影領域を特定し、これを他の領域と分割する。
The
領域分割部24は、具体的には、大小の保護マップM1、M2を低域データに重ねたときに保護マップM1の楕円と保護マップM2の楕円のサイズの差となる環状の領域で画素値(低域データの画素値)のヒストグラムを算出し、このヒストグラムから最頻値(ピーク)を求め、求めた最頻値を中心に極小値が存在する範囲までの画素値の領域を陰影領域として他の領域と分割する。そして、陰影領域の情報を陰影用保護マップ生成部25に出力する。
Specifically, the
陰影用保護マップ生成部25は、領域分割部24から入力された陰影領域の情報に基づいて、保護マップM1、M2による保護対象領域に陰影領域を足しこんで、図2に示すような陰影用保護マップM11、M12を生成する。これにより、特異領域外であるが保護マップM1、M2を用いて処理すると保護除外領域に入ってしまい、一部又は全部(多くの場合は一部)の情報が欠如して不自然となる陰影領域全体を保護対象に追加することが可能となる。すなわち、陰影用保護マップM11、M12を用いて補正処理部28に補正処理を行わせることにより、保護除外領域61、62に含まれる陰影領域を除いて補正処理を行うことが可能となる。陰影用保護マップ生成部25は、生成した陰影用保護マップM11、M12を補正処理部28及び保護マップ境界信頼性判定部27に出力する。
The shadow protection
肌理用保護マップ生成部26は、肌解析部20より取得した毛穴部分のコントラストデータの平均データ(con_ave)と毛穴部分のコントラストデータの標準偏差データ(con_sd)とを足し合わせ、それより大きい強度の正方向エッジ(周囲より輝度が高いエッジ)を有する画素と負方向エッジ(周囲より輝度が低いエッジ)を有する画素とを求める。次いで、保護マップM1、M2の夫々において保護除外領域との境界上にある画素領域にある上記正方向エッジの画素と負方向エッジの画素を保護マップM1、M2の保護対象領域に足し込んで肌理用保護マップM21、M22を生成する。こうすることで、保護マップの保護対象外領域との境界に存在する毛穴以上のエッジ強度を持つ画素を補正処理対象から除外することができ、補正後の画像に残る不自然さを解消させることができる。肌理用保護マップ生成部26は、生成した肌理用保護マップM21、M22を補正処理部28及び保護マップ境界信頼性判定部27に出力する。
The texture protection
保護マップ境界信頼性判定部27は、陰影用保護マップ生成部25及び肌理用保護マップ生成部26において生成された2つの大サイズの保護マップM11、M21を合わせた大サイズの保護マップと、2つの小サイズの保護マップM12、M22を合わせた小サイズの保護マップの夫々を用いて補正処理された画像領域の夫々の信頼性を判定する。そして、後述の透過合成処理において、信頼性の高い方の画素の影響度を高くし、信頼性の低い方の画素の影響度を低くするマップを生成して透過合成処理部29に出力する。なお、補正処理前に補正処理後の画像領域の夫々の信頼性を判定してもよい。
The protection map boundary
ここで、大きい保護マップと小さい保護マップの保護対象領域が重なっている画像領域、及び双方の保護除外領域が重なっている画像領域は、大小の保護マップのいずれを用いて補正処理を行っても処理結果は同じであるため、信頼度は同じである。そこで、ここでは、主に大きい保護マップの保護除外領域との境界と、小さい保護マップの保護除外領域との境界に挟まれた画像領域の各画素について信頼度を判定する。本実施形態では、より楕円らしい領域で処理できている方を信頼度が高いと判定する。例えば、各画素に対して、境界共有率、面積共有率、境界回帰分析一致率等を算出し、算出結果に基づいて大小の保護マップの信頼度を判定する。 Here, image areas where the protection target areas of the large protection map and the small protection map overlap, and image areas where the protection exclusion areas of both overlap, can be corrected using either the large or small protection map. Since the processing results are the same, the reliability is the same. Therefore, here, the reliability is mainly determined for each pixel in the image area sandwiched between the boundary with the protection exclusion area of the large protection map and the boundary between the protection exclusion area of the small protection map. In this embodiment, it is determined that the reliability is higher if the area is more likely to be an ellipse. For example, the boundary sharing rate, area sharing rate, boundary regression analysis matching rate, etc. are calculated for each pixel, and the reliability of the large and small protection maps is determined based on the calculation results.
ここで、境界共有率は、大サイズの保護マップと小サイズの保護マップにそれぞれにおける保護除外領域との境界の長さと、大小の保護マップで保護除外領域との境界が一致している(共有している)長さの比率である。大小の保護マップにおける保護除外領域(すなわち、補正対象領域)が楕円であれば大小の保護マップの保護除外領域との境界は共有しないので、共有部分の比率が高いほど信頼度を下げる。
面積共有率は、大サイズの保護マップと小サイズの保護マップのそれぞれにおける保護マップの面積に対する保護エッジ(保護対象領域に追加された面積)の面積の割合である。保護エッジの割合が少ない方(共有率が低い方)が信頼度が高い。
境界回帰分析一致率は、大サイズの保護マップと小サイズの保護マップのそれぞれにおいて、保護除外領域との境界に回帰分析を行った場合に回帰分析結果の範囲内にどのくらい境界値があるかを示す値である。境界回帰分析一致率が少ない場合、信頼度を下げる。
なお、上述の信頼度の算出手法は例示であって、信頼度判断の考え方や具体的な方法についてはこれに限定されるものではない。
Here, the boundary sharing rate is the length of the boundary with the protection exclusion area in the large and small protection maps, and the boundary with the protection exclusion area in the large and small protection maps (shared). ) is the length ratio. If the protection exclusion area (that is, the correction target area) in the large and small protection maps is an ellipse, it does not share the boundary with the protection exclusion area of the large and small protection maps, so the higher the ratio of the shared portion, the lower the reliability.
The area sharing ratio is the ratio of the area of the protection edge (area added to the protection target area) to the area of the protection map in each of the large-sized protection map and the small-sized protection map. The lower the proportion of protected edges (the lower the sharing rate), the higher the reliability.
Boundary regression analysis concordance rate measures how many boundary values are within the range of regression analysis results when regression analysis is performed on the boundary with the protection exclusion area for both large-sized protection maps and small-sized protection maps. This is the value shown. Boundary regression analysis If the concordance rate is low, lower the confidence level.
Note that the reliability calculation method described above is an example, and the concept and specific method for determining reliability are not limited thereto.
補正処理部28は、元画像のYUV各成分の画像の特異領域を含む矩形領域に陰影用保護マップ生成部25及び肌理用保護マップ生成部26において生成された2つの大サイズの保護マップM11、M21を合わせた大サイズの保護マップを適用して、保護マップで囲まれた保護除外領域の画像領域とそれ以外の画像領域との境界や特異な状態を目立たなくする補正処理を行う。同様に、元画像のYUV各成分の画像の特異領域を含む矩形領域に陰影用保護マップ生成部25及び肌理用保護マップ生成部26において生成された2つの小サイズの保護マップM12、M22を合わせた小サイズの保護マップを適用して、保護マップで囲まれた保護除外領域の画像領域とそれ以外の画像領域との境界や特異な状態を目立たなくする補正処理を行う。
尚、上記の補正処理は、主に平滑化処理(肌状態を滑らかにする処理、透明感をもたせる処理)が用いられるが、この他、色補正処理(より自然な肌色に補正する処理)も用いる場合もある。
補正処理部28は、大サイズの保護マップで補正処理されたYUV各成分画像と、小サイズの保護マップで補正処理されたYUV各成分画像を透過合成処理部29に出力する。
The
The above correction processing mainly uses smoothing processing (processing to smooth the skin condition, processing to give transparency), but color correction processing (processing to correct the skin color to a more natural color) is also used. Sometimes used.
The
透過合成処理部29は、保護マップ境界信頼性判定部27から出力されたマップに基づいて、大サイズの保護マップで補正処理されたYUV各成分画像と、小サイズの保護マップで補正処理されたYUV各成分画像を、2つの保護マップによって補正処理対象とされた画素ごとに、信頼性が高いと判定された方の画素の影響度が高くなるようにα値を設定して透過合成して出力する。
Based on the map output from the protection map boundary
合成処理部30は、透過合成処理部29で透過合成されたYUV各成分画像の補正処理対象領域にエッジ情報生成部23から入力された肌理に対応するエッジ情報を付加し、肌理の状態が付加された画像(補正後の画像)と元画像とを所定のブレンド比率でαブレンドし、補正済み画像を出力する。
The
解析部109、第2の画像処理部110において以上の処理を行うことで、図2の補正済み画像G3に示すように、顔の凹凸やしわの影響による陰影や肌理の状態を保持しつつ、吹き出物のような特異領域を目立たなくする画像処理を施すことができる。
By performing the above processing in the
以上説明したように、撮像装置1によれば、解析部109は、被写体画像を取得し、取得された被写体画像から被写体の表面状態情報を取得する。第2の画像処理部110は、解析部109において取得された表面状態情報に基づいて、被写体画像を加工する。
したがって、被写体の表面状態情報に基づいて、被写体の表面状態を保持した被写体画像を得ることができる。また、被写体画像を補正して被写体の表面状態が欠落するような場合に、表面状態情報に基づいて補正箇所を目立たなくすることができる。
As described above, according to the
Therefore, it is possible to obtain a subject image that maintains the surface condition of the subject based on the surface condition information of the subject. Furthermore, when a subject image is corrected and the surface state of the subject is missing, the corrected location can be made less noticeable based on the surface state information.
また、例えば、解析部109は、被写体画像の画像領域における所定の周波数帯域のエッジ成分を取得し、取得されたエッジ成分を表面状態情報として取得する。
したがって、所定の周波数帯域のエッジからなる被写体の表面状態を保持した被写体画像を得ることができる。
Further, for example, the
Therefore, it is possible to obtain a subject image that maintains the surface state of the subject consisting of edges in a predetermined frequency band.
また、例えば、第2の画像処理部110は、所定の処理が施された被写体画像に、取得された表面状態情報に基づいた加工を施す。したがって、所定の処理が施された被写体画像に被写体の表面状態を加えることができる。
Further, for example, the second
また、例えば、第2の画像処理部110は、被写体画像における特異領域を目立たなくする処理、例えば平滑化処理が施された場合に、解析部109によって取得された表面状態情報に基づいた加工を施す。したがって、被写体画像において特異領域を目立たなくする処理を施すことによって被写体の表面状態が欠落した場合でも、表面状態に基づく加工を施して処理を行った箇所を目立たないようにすることができる。
For example, the second
また、例えば、第2の画像処理部110は、特異領域を囲む形状を模した複数種のサイズの保護マップを用いて、この保護マップによって囲まれる特異領域を含む画像領域で所定の処理を夫々施し、複数種のサイズの保護マップの夫々を用いて所定の処理が施された画像領域の夫々の信頼性情報を取得し、取得された信頼性情報に基づき、複数の保護マップによる所定の処理の結果を影響度を変えて合成する。したがって、より信頼性の高い保護マップで処理された処理結果を被写体画像に反映させることができる。
For example, the second
また、例えば、解析部109は、被写体画像の輝度情報を解析し、その解析結果に基づいて、複数種の保護マップの形状を修正する。したがって、被写体画像に応じたマスク形状の保護マップを用いて被写体画像の特異領域に処理を施すことができる。
Further, for example, the
また、撮像装置1の解析部109及び第2の画像処理部110は、人の肌領域を含む被写体画像に上記処理を施すので、人物の肌の肌理を保持した被写体画像を得ることができる。
Furthermore, since the
また、撮像装置1の第2の画像処理部110は、被写体画像における特異領域を周辺に対し目立たなくするよう補正し、補正された特異領域に対し、補正以前の被写体画像における被写体の表面状態を付加する加工を施す。したがって、被写体画像の特異領域を目立たなくする補正を行った場合に、補正箇所を目立たなくすることができる。
In addition, the second
なお、上記実施形態における記述内容は、本発明の好適な一例であり、これに限定されるものではない。 Note that the content described in the above embodiment is a preferred example of the present invention, and the present invention is not limited thereto.
例えば、上記実施形態においては、本発明の画像処理装置が撮像装置に備えられている場合を例にとり説明したが、本発明の画像処理装置は撮像装置とは別体であってもよい。例えば、撮像装置から受信した画像データに対して、図2~図3を用いて説明した処理を行う画像処理装置としてもよい。また、元画像については、記録された画像に限定されることなく、撮像部106にて逐次撮像され、表示部103に逐次表示されるライブビュー画像のようなものであってもよい。こうすることで、常に補正された結果を反映した被写体画像(顔)をユーザに提供することができる。
For example, in the above embodiments, the case where the image processing device of the present invention is included in the imaging device has been described as an example, but the image processing device of the present invention may be separate from the imaging device. For example, it may be an image processing device that performs the processing described using FIGS. 2 and 3 on image data received from an imaging device. Further, the original image is not limited to a recorded image, but may be a live view image that is sequentially captured by the
また、上記実施形態においては、YUVの画像データを用いた場合を例にとり説明したが、画像データの種類は特に限定されない。 Further, in the above embodiment, the case where YUV image data is used is explained as an example, but the type of image data is not particularly limited.
また上記実施形態においては、肌理と陰影の双方を保護する場合を例にとり説明したが、いずれか一方のみを保護することとしてもよい。
肌理のみを保護する場合、元画像のY成分画像に基づいて、保護除外領域のサイズの異なる複数の肌理用保護マップを生成し、複数の肌理用保護マップの夫々を用いて元画像のYUV成分画像に補正処理を施し、複数の肌理用保護マップの夫々を用いて補正処理された画像領域の夫々の信頼度を求め、信頼度に基づいて画素ごとにα値を算出して複数の肌理用保護マップの夫々を用いて補正された複数の画像の透過合成を行う。また、Y成分画像から取得した肌理情報を透過合成した画像に付加して所定のα値で元画像のYUV成分画像に合成する。
陰影のみを保護する場合、元画像のY成分画像に基づいて、保護除外領域のサイズの異なる複数の陰影用保護マップを生成し、複数の陰影用保護マップの夫々を用いて元画像のYUV成分画像に補正処理を施し、複数の陰影用保護マップの夫々を用いて補正処理された画像領域の夫々の信頼度を求め、信頼度に基づいて画素ごとにα値を算出して複数の陰影用保護マップの夫々を用いて補正された複数の画像の透過合成を行う。そして、透過合成した画像を所定のα値で元画像のYUV成分画像に合成する。
Further, in the above embodiment, the case where both texture and shadow are protected is explained as an example, but it is also possible to protect only one of them.
When protecting only the texture, multiple texture protection maps with different sizes of protection exclusion areas are generated based on the Y component image of the original image, and each of the multiple texture protection maps is used to protect the YUV component of the original image. Apply correction processing to the image, calculate the reliability of each of the corrected image areas using each of the multiple texture protection maps, calculate the α value for each pixel based on the reliability, and use the multiple texture protection maps to calculate the α value for each pixel. A plurality of images corrected using each protection map are transparently synthesized. Further, the texture information acquired from the Y component image is added to the transparently synthesized image and synthesized with the YUV component image of the original image at a predetermined α value.
When protecting only shadows, multiple shadow protection maps with different sizes of protection exclusion areas are generated based on the Y component image of the original image, and each of the multiple shadow protection maps is used to protect the YUV component of the original image. Apply correction processing to the image, calculate the reliability of each corrected image area using each of the multiple shadow protection maps, calculate the α value for each pixel based on the reliability, and calculate the α value for each pixel based on the reliability. A plurality of images corrected using each protection map are transparently synthesized. The transparently synthesized image is then synthesized with the YUV component image of the original image using a predetermined α value.
また、例えば、上記の説明では、本発明に係るプログラムのコンピュータ読み取り可能な媒体としてハードディスクや半導体の不揮発性メモリ等を使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、CD-ROM等の可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も適用される。 Further, for example, in the above description, an example is disclosed in which a hard disk, a semiconductor nonvolatile memory, or the like is used as a computer-readable medium for the program according to the present invention, but the present invention is not limited to this example. As other computer-readable media, it is possible to apply a portable recording medium such as a CD-ROM. Further, a carrier wave is also applied as a medium for providing data of the program according to the present invention via a communication line.
その他、撮像装置を構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。 In addition, the detailed configuration and detailed operation of each device constituting the imaging device can be changed as appropriate without departing from the spirit of the invention.
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
被写体画像を取得する取得手段と、
前記取得手段によって取得された被写体画像から被写体の肌理情報を取得する肌理情報取得手段と、
前記肌理情報取得手段によって取得された肌理情報に基づいて、前記被写体画像を加工する加工手段と、
を備えることを特徴とする画像処理装置。
<請求項2>
前記被写体画像の画像領域における所定の周波数帯域のエッジ成分を取得するエッジ成分取得手段を備え、
前記肌理情報取得手段は、このエッジ成分取得手段によって取得されたエッジ成分を前記肌理情報として取得することを特徴とする請求項1記載の画像処理装置。
<請求項3>
前記被写体画像に所定の画像処理を施す処理手段をさらに備え、
前記加工手段は、前記処理手段によって所定の処理が施された被写体画像に、前記肌理情報取得手段によって取得された肌理情報に基づいた加工を施すことを特徴とする請求項1又は2記載の画像処理装置。
<請求項4>
前記被写体画像において、周辺とは異なる特異領域を検出する検出手段をさらに備え、
前記所定の処理は、前記被写体画像における前記特異領域を目立たなくする処理である請求項3記載の画像処理装置。
<請求項5>
前記処理手段は、
前記特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で前記所定の処理を夫々施し、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記信頼性情報取得手段によって取得された信頼性情報に基づき、前記処理手段が処理した夫々のマスクデータ内の所定の処理の結果を影響度を変えて合成する合成手段と、
をさらに備えることを特徴とする請求項4記載の画像処理装置。
<請求項6>
前記被写体画像の輝度情報を解析する解析手段と、
前記解析手段による解析結果に基づいて、前記複数種のマスクデータの形状を修正する修正手段と、
をさらに備えることを特徴とする請求項5記載の画像処理装置。
<請求項7>
前記所定の処理は、平滑化処理であることを特徴とする請求項4に記載の画像処理装置。
<請求項8>
前記被写体画像は、人の肌領域を含む画像であることを特徴とする請求項1~7のいずれか一項に記載の画像処理装置。
<請求項9>
被写体画像を取得する取得手段と、
前記被写体画像から、その周辺とは異なる特異領域を検出する検出手段と、
前記検出手段によって検出された特異領域を前記周辺に対し目立たなくするよう補正する補正手段と、
前記補正手段によって目立たなくなるよう補正された特異領域に対し、前記補正手段による補正以前の前記被写体画像における被写体の表面状態を付加する加工を施すよう制御する制御手段と、
を備えたことを特徴とする画像処理装置。
<請求項10>
被写体画像を取得する取得手段と、
前記取得手段によって取得された被写体画像における周辺とは異なる特異領域を検出する検出手段と、
前記検出手段によって検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域に所定の処理を夫々施す処理手段と、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記信頼性情報取得手段によって取得された信頼性情報に基づき、前記処理手段が処理した夫々のマスクデータ内の所定の処理の結果を影響度を変えて合成する合成手段と、
を備えたことを特徴とする画像処理装置。
<請求項11>
画像処理装置における画像処理方法であって、
被写体画像を取得する工程と、
前記取得された被写体画像から被写体の肌理情報を取得する工程と、
前記取得された肌理情報に基づいて、前記被写体画像を加工する工程と、
を含むことを特徴とする画像処理方法。
<請求項12>
画像処理装置における画像処理方法であって、
被写体画像を取得する工程と、
前記被写体画像から、その周辺とは異なる特異領域を検出する工程と、
前記検出された特異領域を前記周辺に対し目立たなくするよう補正する工程と、
前記目立たなくなるよう補正された特異領域に対し、前記補正以前の前記被写体画像における被写体の表面状態を付加する加工を施す工程と
を含むことを特徴とする画像処理方法。
<請求項13>
画像処理装置における画像処理方法であって、
被写体画像を取得する工程と、
前記取得された被写体画像における周辺とは異なる特異領域を検出する工程と、
前記検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の処理を夫々施す工程と、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する工程と、
前記取得された信頼性情報に基づき、前記夫々のマスクデータ内の前記所定の処理の結果を影響度を変えて合成する合成手段と、
を含むことを特徴とする画像処理方法。
<請求項14>
コンピュータを、
被写体画像を取得する取得手段、
前記取得手段によって取得された被写体画像から被写体の肌理情報を取得する肌理情報取得手段、
前記肌理情報取得手段によって取得された肌理情報に基づいて、前記被写体画像を加工する加工手段、
として機能させるためのプログラム。
<請求項15>
コンピュータを、
被写体画像を取得する取得手段、
前記被写体画像から、その周辺とは異なる特異領域を検出する検出手段、
前記検出手段によって検出された特異領域を前記周辺に対し目立たなくするよう補正する補正手段、
前記補正手段によって目立たなくなるよう補正された特異領域に対し、前記補正手段による補正以前の前記被写体画像における被写体の表面状態を付加する加工を施すよう制御する制御手段、
として機能させるためのプログラム。
<請求項16>
コンピュータを、
被写体画像を取得する取得手段、
前記取得手段によって取得された被写体画像における周辺とは異なる特異領域を検出する検出手段、
前記検出手段によって検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の処理を夫々施す処理手段、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段、
前記信頼性情報取得手段によって取得された信頼性情報に基づき、前記処理手段が処理した夫々のマスクデータ内の所定の処理の結果を影響度を変えて合成する合成手段、
として機能させるためのプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and its equivalents.
Below, the invention described in the claims first attached to the application of this application will be added. The claim numbers listed in the supplementary notes are as in the claims originally attached to the request for this application.
[Additional notes]
<Claim 1>
an acquisition means for acquiring a subject image;
Texture information acquisition means for acquiring texture information of the subject from the subject image acquired by the acquisition means;
processing means for processing the subject image based on the texture information acquired by the texture information acquisition means;
An image processing device comprising:
<Claim 2>
comprising edge component acquisition means for acquiring edge components of a predetermined frequency band in the image area of the subject image;
2. The image processing apparatus according to
<Claim 3>
further comprising processing means for performing predetermined image processing on the subject image,
The image according to
<Claim 4>
Further comprising a detection means for detecting a specific region different from the surrounding area in the subject image,
4. The image processing apparatus according to claim 3, wherein the predetermined process is a process for making the unique area in the subject image less noticeable.
<Claim 5>
The processing means includes:
Using mask data of a plurality of sizes imitating the shape surrounding the singular region, performing the predetermined processing on an image region including the peculiar region surrounded by the mask data, respectively;
Reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of types of sizes;
a synthesizing means for synthesizing the results of predetermined processing in each of the mask data processed by the processing means while changing the degree of influence, based on the reliability information acquired by the reliability information acquisition means;
The image processing apparatus according to claim 4, further comprising: an image processing apparatus according to claim 4;
<Claim 6>
analysis means for analyzing brightness information of the subject image;
correction means for correcting the shapes of the plurality of types of mask data based on the analysis results by the analysis means;
The image processing apparatus according to claim 5, further comprising:
<Claim 7>
The image processing apparatus according to claim 4, wherein the predetermined processing is smoothing processing.
<Claim 8>
The image processing apparatus according to any one of
<Claim 9>
an acquisition means for acquiring a subject image;
Detection means for detecting a unique region different from the surrounding area from the subject image;
correction means for correcting the specific region detected by the detection means to make it less noticeable with respect to the surroundings;
A control means for controlling the unique region corrected to be inconspicuous by the correction means to perform processing to add a surface state of the subject in the subject image before correction by the correction means;
An image processing device comprising:
<Claim 10>
an acquisition means for acquiring a subject image;
detection means for detecting a unique region different from the surrounding area in the subject image acquired by the acquisition means;
processing means for applying predetermined processing to image regions including the singular region surrounded by the mask data using mask data of a plurality of sizes imitating shapes surrounding the singular region detected by the detection means;
Reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of types of sizes;
a synthesizing means for synthesizing the results of predetermined processing in each of the mask data processed by the processing means while changing the degree of influence, based on the reliability information acquired by the reliability information acquisition means;
An image processing device comprising:
<Claim 11>
An image processing method in an image processing device, the method comprising:
a step of acquiring a subject image;
acquiring texture information of the subject from the acquired subject image;
processing the subject image based on the acquired texture information;
An image processing method characterized by comprising:
<Claim 12>
An image processing method in an image processing device, the method comprising:
a step of acquiring a subject image;
detecting a specific region different from its surroundings from the subject image;
correcting the detected specific region to make it less noticeable with respect to the surrounding area;
An image processing method comprising the step of: adding a surface state of a subject in the subject image before the correction to the specific region corrected to make it less noticeable.
<Claim 13>
An image processing method in an image processing device, the method comprising:
a step of acquiring a subject image;
detecting a unique region different from the surrounding area in the acquired subject image;
using mask data of a plurality of sizes imitating a shape surrounding the detected singular region, and performing a predetermined process on each of the image regions including the singular region surrounded by the mask data;
acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of sizes;
a synthesizing means for synthesizing the results of the predetermined processing in the respective mask data with varying degrees of influence based on the acquired reliability information;
An image processing method characterized by comprising:
<Claim 14>
computer,
an acquisition means for acquiring a subject image;
Texture information acquisition means for acquiring texture information of the subject from the subject image acquired by the acquisition means;
processing means for processing the subject image based on the texture information acquired by the texture information acquisition means;
A program to function as
<Claim 15>
computer,
an acquisition means for acquiring a subject image;
detection means for detecting a unique region different from its surroundings from the subject image;
correction means for correcting the specific region detected by the detection means to make it less noticeable with respect to the surroundings;
control means for controlling the unique region corrected by the correction means so as to be inconspicuous so as to be processed to add a surface condition of the subject in the object image before correction by the correction means;
A program to function as
<Claim 16>
computer,
an acquisition means for acquiring a subject image;
detection means for detecting a unique region different from the surroundings in the subject image acquired by the acquisition means;
processing means that uses mask data of a plurality of sizes imitating shapes surrounding the singular region detected by the detection means, and performs predetermined processing on each image region including the singular region surrounded by the mask data;
Reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of types of sizes;
a synthesizing means for synthesizing the results of predetermined processing in each of the mask data processed by the processing means while changing the degree of influence, based on the reliability information acquired by the reliability information acquisition means;
A program to function as
1 撮像装置
101 制御部
102 記憶部
103 表示部
104 通信部
105 操作部
106 撮像部
106a 撮像レンズ
107 第1の画像処理部
108 画像メモリ
109 解析部
20 肌解析部
21 保護マップデータ設定部
22 低域データ生成部
23 エッジ情報生成部
24 領域分割部
25 陰影用保護マップ生成部
26 肌理用保護マップ生成部
27 保護マップ境界信頼性判定部
110 第2の画像処理部
28 補正処理部
29 透過合成処理部
30 合成処理部
111 点灯制御部
112 発光部
1
Claims (9)
前記取得手段によって取得された前記被写体画像の画像領域における所定の周波数帯域のエッジ成分を取得するエッジ成分取得手段と、
前記エッジ成分取得手段によって取得されたエッジ成分を肌理情報として取得する肌理情報取得手段と、
前記被写体画像において、周辺とは異なる特異領域を検出する検出手段と、
前記被写体画像における前記特異領域を目立たなくする補正処理を施す処理手段と、
前記肌理情報取得手段によって取得された肌理情報に基づいて、前記処理手段によって前記補正処理が施された前記被写体画像を加工する加工手段と、
を備え、
前記処理手段は、
前記特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の画像処理を夫々施し、前記複数種のサイズのマスクデータの夫々を用いて前記所定の画像処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記所定の画像処理が施された画像領域を、前記信頼性情報取得手段によって取得された信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する合成手段と、
を備えることを特徴とする画像処理装置。 an acquisition means for acquiring a subject image;
edge component acquisition means for acquiring edge components in a predetermined frequency band in the image region of the subject image acquired by the acquisition means;
Texture information acquisition means for acquiring the edge component acquired by the edge component acquisition means as texture information;
Detection means for detecting a unique region different from the surrounding area in the subject image;
processing means that performs a correction process to make the specific area in the subject image less noticeable ;
processing means for processing the subject image subjected to the correction processing by the processing means, based on the texture information acquired by the texture information acquisition means;
Equipped with
The processing means includes:
Using mask data of a plurality of sizes imitating the shape surrounding the singular region, predetermined image processing is performed on the image area including the singular region surrounded by the mask data, and the mask data of the plurality of sizes are obtained. reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined image processing using each of the above;
compositing means for composing the image regions subjected to the predetermined image processing so that the degree of influence of the image region for which reliability information acquired by the reliability information acquisition means is determined to be higher is higher;
An image processing device comprising:
ことを特徴とする請求項1に記載の画像処理装置。 the predetermined image processing is smoothing processing;
The image processing device according to claim 1, characterized in that:
前記取得手段によって取得された被写体画像における周辺とは異なる特異領域を検出する検出手段と、
前記検出手段によって検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域に所定の処理を夫々施す処理手段と、
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段と、
前記処理手段によって前記所定の処理が施された画像領域を、前記信頼性情報取得手段によって取得された信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する合成手段と、
を備えることを特徴とする画像処理装置。 an acquisition means for acquiring a subject image;
detection means for detecting a unique region different from the surrounding area in the subject image acquired by the acquisition means;
processing means for applying predetermined processing to image regions including the singular region surrounded by the mask data using mask data of a plurality of sizes imitating shapes surrounding the singular region detected by the detection means;
Reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of types of sizes;
Synthesis of image regions subjected to the predetermined processing by the processing means so that the degree of influence of the image region determined to have higher reliability information acquired by the reliability information acquisition means is higher. means and
An image processing device comprising :
前記解析手段による解析結果に基づいて、前記複数種のマスクデータの形状を修正する修正手段と、
を備えることを特徴とする請求項1~3のいずれか一項に記載の画像処理装置。 analysis means for analyzing brightness information of the subject image;
correction means for correcting the shapes of the plurality of types of mask data based on the analysis results by the analysis means;
The image processing device according to any one of claims 1 to 3, comprising :
ことを特徴とする請求項1~4のいずれか一項に記載の画像処理装置。 The subject image is an image including a human skin area,
The image processing device according to any one of claims 1 to 4 .
被写体画像を取得する取得工程と、an acquisition step of acquiring a subject image;
前記取得工程で取得された前記被写体画像の画像領域における所定の周波数帯域のエッジ成分を取得するエッジ成分取得工程と、an edge component acquisition step of acquiring an edge component of a predetermined frequency band in the image region of the subject image acquired in the acquisition step;
前記エッジ成分取得工程で取得されたエッジ成分を肌理情報として取得する肌理情報取得工程と、a texture information acquisition step of acquiring the edge component acquired in the edge component acquisition step as texture information;
前記被写体画像において、周辺とは異なる特異領域を検出する検出工程と、a detection step of detecting a specific region different from the surrounding area in the subject image;
前記被写体画像における前記特異領域を目立たなくする補正処理を施す処理工程と、a processing step of performing a correction process to make the specific region in the subject image less noticeable;
前記肌理情報取得工程で取得された肌理情報に基づいて、前記処理工程で前記補正処理が施された前記被写体画像を加工する加工工程と、a processing step of processing the subject image subjected to the correction processing in the processing step based on the texture information obtained in the texture information obtaining step;
を含み、including;
前記処理工程は、The processing step includes:
前記特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の画像処理を夫々施し、前記複数種のサイズのマスクデータの夫々を用いて前記所定の画像処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得工程と、Using mask data of a plurality of sizes imitating the shape surrounding the singular region, predetermined image processing is performed on the image area including the singular region surrounded by the mask data, and the mask data of the plurality of sizes are obtained. a reliability information acquisition step of acquiring reliability information for each of the image regions subjected to the predetermined image processing using each of the above;
前記所定の画像処理が施された画像領域を、前記信頼性情報取得工程で取得された信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する合成工程と、a compositing step of composing the image regions subjected to the predetermined image processing so that the degree of influence of the image region determined to have higher reliability information acquired in the reliability information acquisition step is higher;
を含むことを特徴とする画像処理方法。An image processing method characterized by comprising:
被写体画像を取得する工程と、a step of acquiring a subject image;
取得された被写体画像における周辺とは異なる特異領域を検出する工程と、Detecting a unique region different from the surrounding area in the acquired subject image;
前記検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の処理を夫々施す工程と、using mask data of a plurality of sizes imitating a shape surrounding the detected singular region, and performing a predetermined process on each of the image regions including the singular region surrounded by the mask data;
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する工程と、acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of sizes;
前記所定の処理が施された画像領域を、前記信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する工程と、compositing the image regions subjected to the predetermined processing so that the degree of influence of the image region determined to have higher reliability information is higher;
を含むことを特徴とする画像処理方法。An image processing method characterized by comprising:
被写体画像を取得する取得手段、an acquisition means for acquiring a subject image;
前記取得手段によって取得された前記被写体画像の画像領域における所定の周波数帯域のエッジ成分を取得するエッジ成分取得手段、edge component acquisition means for acquiring edge components of a predetermined frequency band in the image area of the subject image acquired by the acquisition means;
前記エッジ成分取得手段によって取得されたエッジ成分を肌理情報として取得する肌理情報取得手段、Texture information acquisition means for acquiring the edge component acquired by the edge component acquisition means as texture information;
前記被写体画像において、周辺とは異なる特異領域を検出する検出手段、detection means for detecting a unique region different from the surrounding area in the subject image;
前記被写体画像における前記特異領域を目立たなくする補正処理を施す処理手段、processing means for performing correction processing to make the specific region in the subject image less noticeable;
前記肌理情報取得手段によって取得された肌理情報に基づいて、前記処理手段によって前記補正処理が施された前記被写体画像を加工する加工手段、processing means for processing the subject image subjected to the correction processing by the processing means, based on the texture information acquired by the texture information acquisition means;
として機能させ、function as
前記処理手段は、The processing means includes:
前記特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の画像処理を夫々施し、前記複数種のサイズのマスクデータの夫々を用いて前記所定の画像処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段、Using mask data of a plurality of sizes imitating the shape surrounding the singular region, predetermined image processing is performed on the image area including the singular region surrounded by the mask data, and the mask data of the plurality of sizes are obtained. Reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined image processing using each of the above;
前記所定の画像処理が施された画像領域を、前記信頼性情報取得手段によって取得された信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する合成手段、compositing means for composing the image regions subjected to the predetermined image processing so that the degree of influence of the image region determined to have higher reliability information acquired by the reliability information acquisition means is higher;
として機能することを特徴とするプログラム。A program that functions as
被写体画像を取得する取得手段、an acquisition means for acquiring a subject image;
前記取得手段によって取得された被写体画像における周辺とは異なる特異領域を検出する検出手段、detection means for detecting a unique region different from the surroundings in the subject image acquired by the acquisition means;
前記検出手段によって検出された特異領域を囲む形状を模した複数種のサイズのマスクデータを用いて、このマスクデータによって囲まれる前記特異領域を含む画像領域で所定の処理を夫々施す処理手段、processing means that uses mask data of a plurality of sizes imitating shapes surrounding the singular region detected by the detection means, and performs predetermined processing on each image region including the singular region surrounded by the mask data;
前記複数種のサイズのマスクデータの夫々を用いて前記所定の処理が施された画像領域の夫々の信頼性情報を取得する信頼性情報取得手段、Reliability information acquisition means for acquiring reliability information for each of the image regions subjected to the predetermined processing using each of the mask data of the plurality of types of sizes;
前記処理手段によって前記所定の処理が施された画像領域を、前記信頼性情報取得手段によって取得された信頼性情報が高いと判定された方の画像領域の影響度が高くなるように合成する合成手段、Synthesis of image regions subjected to the predetermined processing by the processing means so that the degree of influence of the image region determined to have higher reliability information acquired by the reliability information acquisition means is higher. means,
として機能させるためのプログラム。A program to function as
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019055930A JP7383891B2 (en) | 2019-03-25 | 2019-03-25 | Image processing device, image processing method, and program |
JP2023180705A JP2023174917A (en) | 2019-03-25 | 2023-10-20 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019055930A JP7383891B2 (en) | 2019-03-25 | 2019-03-25 | Image processing device, image processing method, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023180705A Division JP2023174917A (en) | 2019-03-25 | 2023-10-20 | Image processing device, image processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020160489A JP2020160489A (en) | 2020-10-01 |
JP2020160489A5 JP2020160489A5 (en) | 2022-03-23 |
JP7383891B2 true JP7383891B2 (en) | 2023-11-21 |
Family
ID=72643238
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019055930A Active JP7383891B2 (en) | 2019-03-25 | 2019-03-25 | Image processing device, image processing method, and program |
JP2023180705A Pending JP2023174917A (en) | 2019-03-25 | 2023-10-20 | Image processing device, image processing method, and program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023180705A Pending JP2023174917A (en) | 2019-03-25 | 2023-10-20 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7383891B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001118064A (en) | 1999-10-20 | 2001-04-27 | Nippon Hoso Kyokai <Nhk> | Image processor |
JP2004303193A (en) | 2003-03-20 | 2004-10-28 | Omron Corp | Image processor |
JP2006018467A (en) | 2004-06-30 | 2006-01-19 | Canon Inc | Image processing apparatus and image processing method |
JP2006180971A (en) | 2004-12-27 | 2006-07-13 | Dds:Kk | Skin evaluation method and device |
JP2006277354A (en) | 2005-03-29 | 2006-10-12 | Advanced Telecommunication Research Institute International | Face image operation device and face image operation program |
CN108230331A (en) | 2017-09-30 | 2018-06-29 | 深圳市商汤科技有限公司 | Image processing method and device, electronic equipment, computer storage media |
-
2019
- 2019-03-25 JP JP2019055930A patent/JP7383891B2/en active Active
-
2023
- 2023-10-20 JP JP2023180705A patent/JP2023174917A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001118064A (en) | 1999-10-20 | 2001-04-27 | Nippon Hoso Kyokai <Nhk> | Image processor |
JP2004303193A (en) | 2003-03-20 | 2004-10-28 | Omron Corp | Image processor |
JP2006018467A (en) | 2004-06-30 | 2006-01-19 | Canon Inc | Image processing apparatus and image processing method |
JP2006180971A (en) | 2004-12-27 | 2006-07-13 | Dds:Kk | Skin evaluation method and device |
JP2006277354A (en) | 2005-03-29 | 2006-10-12 | Advanced Telecommunication Research Institute International | Face image operation device and face image operation program |
CN108230331A (en) | 2017-09-30 | 2018-06-29 | 深圳市商汤科技有限公司 | Image processing method and device, electronic equipment, computer storage media |
Also Published As
Publication number | Publication date |
---|---|
JP2023174917A (en) | 2023-12-08 |
JP2020160489A (en) | 2020-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108447017B (en) | Face virtual face-lifting method and device | |
US9135726B2 (en) | Image generation apparatus, image generation method, and recording medium | |
KR20110033980A (en) | Automatic face and skin beautification using face detection | |
JP6859611B2 (en) | Image processing equipment, image processing methods and programs | |
CN109191393B (en) | Three-dimensional model-based beauty method | |
CN108682050B (en) | Three-dimensional model-based beautifying method and device | |
US20170154437A1 (en) | Image processing apparatus for performing smoothing on human face area | |
CN111526279B (en) | Image processing apparatus, image processing method, and recording medium | |
KR20160110038A (en) | Image processing apparatus and image processing method | |
CN109639959A (en) | Image processing apparatus, image processing method and recording medium | |
JP7114335B2 (en) | IMAGE PROCESSING DEVICE, CONTROL METHOD FOR IMAGE PROCESSING DEVICE, AND PROGRAM | |
JP2019070870A (en) | Image processing device, image processing method and program | |
JP7292905B2 (en) | Image processing device, image processing method, and imaging device | |
JP7383891B2 (en) | Image processing device, image processing method, and program | |
JP7277158B2 (en) | Setting device and method, program, storage medium | |
JP7400198B2 (en) | Image processing device, image processing method, and program | |
JP5203159B2 (en) | Image processing method, image processing system, and image processing program | |
JP4742068B2 (en) | Image processing method, image processing system, and image processing program | |
JP2019074795A (en) | Image processing device, image processing method and program | |
CN111083345B (en) | Apparatus and method for generating a unique illumination and non-volatile computer readable medium thereof | |
JP5744945B2 (en) | Image processing apparatus and method, and imaging apparatus | |
JP2005094452A (en) | Method, system, and program for processing image | |
CN111047520B (en) | Image processing apparatus, image processing method, and recording medium | |
JP2010199866A (en) | Image processing device | |
JP2024021344A (en) | Image processing device, control method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220314 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220314 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230320 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231023 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7383891 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |