JP7318251B2 - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP7318251B2
JP7318251B2 JP2019054695A JP2019054695A JP7318251B2 JP 7318251 B2 JP7318251 B2 JP 7318251B2 JP 2019054695 A JP2019054695 A JP 2019054695A JP 2019054695 A JP2019054695 A JP 2019054695A JP 7318251 B2 JP7318251 B2 JP 7318251B2
Authority
JP
Japan
Prior art keywords
image
processing
skin
area
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019054695A
Other languages
Japanese (ja)
Other versions
JP2020154979A (en
Inventor
新太郎 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019054695A priority Critical patent/JP7318251B2/en
Publication of JP2020154979A publication Critical patent/JP2020154979A/en
Application granted granted Critical
Publication of JP7318251B2 publication Critical patent/JP7318251B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.

従来、画像内に含まれる人物の肌をきれいに見せる美肌処理が利用されている。
例えば、特許文献1には、人物の肌を明るく見せる処理(美白処理)の効果を容易に設定可能とする技術が開示されている。
2. Description of the Related Art Conventionally, skin beautification processing has been used to make the skin of a person included in an image look beautiful.
For example, Patent Literature 1 discloses a technique that enables easy setting of the effect of processing (whitening processing) for making the skin of a person look brighter.

特開2016-012890号公報JP 2016-012890 A

しかしながら、画像処理を用いて人物の肌をきれいに見せる場合に、より自然な画像を出力することが求められていた。 However, when image processing is used to make a person's skin look beautiful, it has been desired to output a more natural image.

本発明の課題は、美肌処理を行った上で、より自然な画像を出力する画像処理装置を提供することである。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus that outputs a more natural image after performing skin beautification processing.

上記目的を達成するため、本発明の一態様の画像処理装置は、
顔の領域を含む顔画像を取得する画像取得手段と、
前記画像取得手段が取得した顔画像に対して美肌処理を施す美肌処理手段と、
前記顔画像に対して美肌処理を行う前の画像における、美肌処理低減領域を含む領域である第1領域を特定する第1特定手段と、
前記顔画像に対して前記美肌処理を行った後の画像における、美肌処理低減領域を含む領域である第2領域を特定する第2特定手段と、
前記第1特定手段により特定された前記第1領域に対応する画像と、前記第2特定手段により特定された前記第2領域に対応する画像とをブレンドしてブレンド画像を作成するブレンド手段と、
記ブレンド手段により作成されたブレンド画像に対して前記美肌処理の効果を軽減する軽減処理を施す軽減処理手段と、
を有し、
前記軽減処理手段は、前記ブレンド画像と、前記軽減処理を施こした前記ブレンド画像とをブレンドすることを特徴とする。
In order to achieve the above object, an image processing device according to one embodiment of the present invention includes:
an image acquiring means for acquiring a face image including a face area;
a skin-beautifying means for performing skin-beautifying processing on the face image acquired by the image acquisition means;
a first identifying means for identifying a first area, which is an area including a skin beautification reduction area, in the image before skin beautification is performed on the face image;
a second identifying means for identifying a second area, which is an area including a skin beautification reduction area, in the image after performing the skin beautifying process on the face image;
Blending for creating a blended image by blending the image corresponding to the first area specified by the first specifying means and the image corresponding to the second area specified by the second specifying means. means and
a reduction processing means for performing a reduction process for reducing the effect of the skin beautifying process on the blended image created by the blending means;
has
The reduction processing means is characterized by blending the blend image and the blend image that has been subjected to the reduction processing .

本発明によれば、美肌処理を行った上で、より自然な画像を出力する画像処理装置を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus that outputs a more natural image after performing skin beautification processing.

本発明の画像処理装置の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。1 is a block diagram showing the hardware configuration of an imaging device according to an embodiment of an image processing device of the present invention; FIG. 本実施形態における美肌画像の生成を説明するための模式図である。FIG. 4 is a schematic diagram for explaining generation of a beautiful skin image according to the present embodiment; 第1のαブレンドの具体的手法の一例を示す模式図である。FIG. 4 is a schematic diagram showing an example of a specific method of the first α-blending; マスク画像の作成に用いられる器官マップの作成例を示す模式図である。FIG. 4 is a schematic diagram showing an example of creating an organ map used to create a mask image; マスク画像の作成例を示す模式図である。FIG. 10 is a schematic diagram showing an example of creating a mask image; 唇色レベルの重み付けの設定に係るヒストグラム及び唇色レベルの重み付けテーブルを示す図である。FIG. 10 is a diagram showing a histogram and a lip color level weighting table relating to setting of lip color level weighting; V補正のLUT(Look Up Table)を示す図である。It is a figure which shows LUT (Look Up Table) of V correction. 部分補正画像の作成例を示す模式図である。FIG. 10 is a schematic diagram showing an example of creating a partially corrected image; 図1の撮像装置の機能的構成のうち、美肌処理を実行するための機能的構成を示す機能ブロック図である。FIG. 2 is a functional block diagram showing a functional configuration for executing skin beautification processing among the functional configurations of the imaging apparatus of FIG. 1; 図9の機能的構成を有する図1の撮像装置が実行する美肌画像生成処理の流れを説明するフローチャートである。FIG. 10 is a flowchart for explaining the flow of beautiful skin image generation processing executed by the imaging apparatus of FIG. 1 having the functional configuration of FIG. 9; FIG. 美肌画像生成処理のうち、マスク画像作成処理の流れを説明するフローチャートである。10 is a flowchart for explaining the flow of mask image creation processing in beautiful skin image generation processing. 美肌画像生成処理のうち、部分補正画像作成処理の流れを説明するフローチャートである。10 is a flowchart for explaining the flow of partial correction image generation processing in the beautiful skin image generation processing.

以下、本発明の実施形態について、図面を用いて説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の画像処理装置の一実施形態に係る撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えば、デジタルカメラとして構成される。
FIG. 1 is a block diagram showing the hardware configuration of an imaging device 1 according to an embodiment of the image processing device of the present invention.
The imaging device 1 is configured as, for example, a digital camera.

撮像装置1は、図1に示すように、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、を備えている。 As shown in FIG. 1, the imaging device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input/output interface 15, and an imaging device. A unit 16 , an input unit 17 , an output unit 18 , a storage unit 19 , a communication unit 20 and a drive 21 are provided.

CPU11は、ROM12に記録されているプログラム、又は、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。 The CPU 11 executes various processes according to programs recorded in the ROM 12 or programs loaded from the storage unit 19 to the RAM 13 .

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。 The RAM 13 also stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、入力部17、出力部18、記憶部19、通信部20及びドライブ21が接続されている。 The CPU 11 , ROM 12 and RAM 13 are interconnected via a bus 14 . An input/output interface 15 is also connected to this bus 14 . The input/output interface 15 is connected with an imaging unit 16 , an input unit 17 , an output unit 18 , a storage unit 19 , a communication unit 20 and a drive 21 .

撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。 The imaging unit 16 includes an optical lens unit and an image sensor (not shown).

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens section is composed of a lens for condensing light, such as a focus lens and a zoom lens, in order to photograph an object.
A focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. A zoom lens is a lens that can freely change the focal length within a certain range.
The optical lens unit is also provided with peripheral circuits for adjusting setting parameters such as focus, exposure, white balance, etc., as required.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を撮像画像のデータとしてCPU11や図示しない画像処理部等に適宜供給される。
The image sensor is composed of a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens section. Therefore, the photoelectric conversion element photoelectrically converts (captures) a subject image, accumulates an image signal for a certain period of time, and sequentially supplies the accumulated image signal to the AFE as an analog signal.
The AFE executes various signal processing such as A/D (Analog/Digital) conversion processing on this analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 16 .
Such an output signal of the imaging unit 16 is appropriately supplied to the CPU 11, an image processing unit (not shown), or the like as captured image data.

入力部17は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部20は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 17 is composed of various buttons and the like, and inputs various kinds of information according to user's instruction operation.
The output unit 18 includes a display, a speaker, and the like, and outputs images and sounds.
The storage unit 19 is composed of a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores data of various images.
The communication unit 20 controls communication with another device (not shown) via a network including the Internet.

ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ21によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。 A removable medium 31 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is mounted in the drive 21 as appropriate. A program read from the removable medium 31 by the drive 21 is installed in the storage unit 19 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 19 in the same manner as the storage unit 19 .

このように構成される撮像装置1では、顔を撮影した画像に対して、肌に美肌処理が施されていると共に、肌色と色相が近く美肌処理によって色が薄くなる等の影響を受けた唇を適切に補正した画像(以下、「美肌画像」という。)を生成することができる機能を有する。即ち、撮像装置1では、顔の肌に施された美肌処理によって補正された唇の色を適切な色に補正して美肌処理の効果を復元(軽減)することにより美肌画像を生成する。 In the imaging apparatus 1 configured as described above, skin beautification processing is applied to the skin in an image obtained by photographing a face. is appropriately corrected (hereinafter referred to as “beautiful skin image”). That is, the imaging device 1 generates a beautiful skin image by correcting the lip color corrected by the skin beautifying process applied to the facial skin to an appropriate color to restore (reduce) the effect of the skin beautifying process.

即ち、美肌処理は、肌色領域に対してだけ施されるように対象箇所以外がマスクされるが、唇の色は肌色と色相が近く、肌色領域に含まれてしまうため、美肌処理が施されてしまい、唇の色が薄くなる等の影響を受けてしまう。一方、美肌処理を施す前の元画像における唇の部分を美肌処理後の唇の部分に貼り付けるのみでは、周囲との違和感が大きくなる。 That is, the skin beautifying process is performed only on the skin color area, except for the target part, which is masked. It will be affected, such as the color of the lips will become lighter. On the other hand, simply pasting the lip portion of the original image before skin beautification to the lip portion after skin beautification increases discomfort with the surroundings.

このため、本実施形態の撮像装置1では、美肌処理を施す前の画像(以下、「元画像」という。)における唇の部分と美肌処理を施した画像(以下、「全体美肌画像」という。)の唇の部分とをブレンドし、唇の部分の美肌処理を軽減した画像(以下、「第1ブレンド画像」という。)を生成する。そして、第1ブレンド画像に所定の補正処理(色補正、平滑化処理等)を施した画像(以下、「部分補正画像」という。)を生成し、部分補正画像を第1ブレンド画像とブレンドした画像(以下、「第2ブレンド画像」という。)を生成する。そして、全体美肌画像の元の位置(唇の部分)に第2ブレンド画像を貼り付けることにより、唇の色が適切な色に補正された美肌画像が生成される。 Therefore, in the imaging apparatus 1 of the present embodiment, the lip portion in the image before the skin beautification process (hereinafter referred to as the "original image") and the image after the skin beautification process (hereinafter referred to as the "whole skin beautification image"). ) is blended with the lip portion to generate an image (hereinafter referred to as “first blended image”) in which the skin beautifying process for the lip portion is reduced. Then, an image (hereinafter referred to as a "partially corrected image") is generated by performing predetermined correction processing (color correction, smoothing processing, etc.) on the first blended image, and the partially corrected image is blended with the first blended image. An image (hereinafter referred to as a "second blend image") is generated. Then, by pasting the second blend image to the original position (lip portion) of the overall beautiful skin image, a beautiful skin image in which the lip color is corrected to an appropriate color is generated.

図2は、本実施形態における美肌画像の生成を説明するための模式図である。
本実施形態の美肌画像が生成される場合、図2に示すように、元画像及び全体美肌画像それぞれから唇を含む領域が切り出され、これらが唇の領域に処理を施すためのマスク画像を用いて第1のαブレンドにより合成される。本実施形態において、第1のαブレンドでは、後述するように、画像の輝度成分及び色成分(彩度)それぞれに異なる係数を設定してαブレンドを実行する。これにより、唇の部分の美肌処理が軽減された第1ブレンド画像が生成される。そして、第1ブレンド画像における唇の色をより適切な色とするように色補正の処理を施して画像(以下、「色補正画像」という。)が作成される。さらに、色補正画像に平滑化処理を施して太い皺を抑制したり、エッジ強調処理を施して細いエッジを強調したりすることにより、部分補正画像が作成される。部分補正画像は、唇以外の領域にも色補正や平滑化或いはエッジ強調が施されているため、これらの補正処理の効果が唇のみに表れるように、唇以外をマスクするマスク画像を用いて、部分補正画像と第1ブレンド画像とが第2のαブレンドにより合成される。これにより、唇の部分の色と唇周辺の肌の色とがバランス良く色補正された第2ブレンド画像が作成される。なお、マスク画像の画素値は、αブレンドによる画像合成の際に参照されるα値となる。
その後、作成した第2ブレンド画像が全体美肌画像の元の位置(唇の部分)に貼り付けられて、美肌画像が生成される。
FIG. 2 is a schematic diagram for explaining generation of a beautiful skin image in this embodiment.
When the beautiful skin image of this embodiment is generated, as shown in FIG. 2, regions including the lips are cut out from the original image and the overall beautiful skin image, respectively, and mask images are used for processing the lip regions. is synthesized by the first α-blending. In the present embodiment, in the first α-blending, different coefficients are set for the luminance component and the color component (saturation) of the image, respectively, and α-blending is performed, as will be described later. As a result, the first blended image is generated in which the skin beautifying process for the lip portion is reduced. Then, an image (hereinafter referred to as a "color-corrected image") is created by applying color correction processing so that the color of the lips in the first blended image is made more appropriate. Furthermore, a partially corrected image is created by applying smoothing processing to the color corrected image to suppress thick wrinkles, and applying edge enhancement processing to emphasize thin edges. In the partially corrected image, color correction, smoothing, or edge enhancement has been applied to areas other than the lips, so that the effect of these correction processes appears only on the lips, a mask image that masks areas other than the lips is used. , the partially corrected image and the first blended image are synthesized by the second α-blending. As a result, a second blended image in which the color of the lip portion and the skin color around the lip are color-corrected in a well-balanced manner is created. Note that the pixel value of the mask image is the α value that is referred to when synthesizing images by α blending.
After that, the created second blend image is pasted to the original position (the lip portion) of the whole skin-beautifying image to generate a skin-beautifying image.

[第1のαブレンド]
図3は、第1のαブレンドの具体的手法の一例を示す模式図である。
本実施形態においては、元画像及び全体美肌画像それぞれから切り出された唇を含む領域が、唇の領域に処理を施すためのマスク画像を用いて第1のαブレンドにより合成される。
このとき、元画像及び全体美肌画像それぞれから切り出された唇を含む領域の画像のチャネル毎に、異なる係数を用いてαブレンドが行われる。
[First α blend]
FIG. 3 is a schematic diagram showing an example of a specific method of the first α-blending.
In the present embodiment, regions including the lips cut out from the original image and the overall beautiful skin image are combined by the first α-blending using a mask image for processing the lip region.
At this time, α-blending is performed using a different coefficient for each channel of the image of the region including the lips cut out from the original image and the overall beautiful skin image.

即ち、図3に示すように、YUV色空間で表された各画像のチャネルのうち、Y値(輝度成分)については、マスク画像の画素が表すα値に第1係数(例えば0.5)を乗算してα値が調整され、調整後のα値(第1調整値)によって、各画像のY値がαブレンドされる。また、YUV色空間で表された各画像のチャネルのうち、U値(青色系の色相及び彩度成分)及びV値(赤色系の色相及び彩度成分)については、マスク画像の画素が表すα値に第2係数(例えば0.75)を乗算してα値が調整され、調整後のα値(第2調整値)によって、各画像のU値及びV値がαブレンドされる。なお、YUV色空間で表された各画像のチャネルのうち、U値とV値とで異なるα値の調整を行うこととしてもよい。
そして、第1係数で調整されたα値(第1調整値)によって算出されたY値と、第2係数で調整されたα値(第2調整値)によって算出されたU値及びV値とをYUV色空間の各成分とする画像(第1ブレンド画像)が作成される。
That is, as shown in FIG. 3, among the channels of each image represented in the YUV color space, for the Y value (luminance component), the α value represented by the pixel of the mask image is added by a first coefficient (for example, 0.5). is multiplied by to adjust the α value, and the Y value of each image is α-blended by the adjusted α value (first adjustment value). In addition, among the channels of each image represented in the YUV color space, the U value (blue hue and saturation components) and V value (red hue and saturation components) are represented by the pixels of the mask image. The α value is adjusted by multiplying the α value by a second coefficient (eg, 0.75), and the U and V values of each image are α-blended by the adjusted α value (second adjustment value). Note that, among the channels of each image expressed in the YUV color space, different α values may be adjusted for the U value and the V value.
Then, the Y value calculated by the α value (first adjustment value) adjusted by the first coefficient, and the U value and V value calculated by the α value (second adjustment value) adjusted by the second coefficient. is created as each component of the YUV color space (first blended image).

[器官マップの作成]
図4は、マスク画像の作成に用いられる器官マップの作成例を示す模式図である。
器官マップは、被写体の顔を構成する器官(ここでは、唇)の領域を表すマップである。
本実施形態においては、元画像から被写体であるユーザの顔を検出すると共に、検出した顔において顔を構成する各器官を検出する。この顔や各器官の検出を実現する技術は、特に限定されず、既存の顔検出技術及び既存の器官検出技術を用いることができる。
そして、図4(A)に示すように、検出された各器官の中から、美肌処理を軽減する対象の器官(ここでは、唇)を特定し、唇の器官点P1を検出する。器官点P1は、上唇及び下唇のそれぞれについて複数検出される。なお、図中では、複数の器官点P1をそれぞれ白色の丸で示すが、図示の都合上、その内の1つの器官点P1に対してのみ符号を付す。
[Creation of organ map]
FIG. 4 is a schematic diagram showing an example of creating an organ map used to create a mask image.
The organ map is a map representing the area of organs (lips in this case) forming the face of the subject.
In this embodiment, the face of the user, who is the subject, is detected from the original image, and each organ that constitutes the face is detected in the detected face. Techniques for realizing detection of the face and each organ are not particularly limited, and existing face detection techniques and existing organ detection techniques can be used.
Then, as shown in FIG. 4A, among the detected organs, the target organ (here, the lip) for which the skin beautifying process is reduced is specified, and the lip organ point P1 is detected. Multiple organ points P1 are detected for each of the upper lip and the lower lip. In the drawing, each of the plurality of organ points P1 is indicated by a white circle, but only one organ point P1 among them is denoted by a reference numeral for convenience of illustration.

そして、この複数の器官点P1の位置に基づいて、唇に対応する領域が検出される。さらに、画像を処理するために用いられている座標系での、複数の器官点P1それぞれの位置を示す座標の値が全て取得され、取得された全ての座標の値の平均値に対応する位置が基準点P2として特定される。
なお、図4(A)においては、唇の色を計測するために設定される計測領域R1,R2を併せて示している。計測領域R1,R2は、後述するHUEマップの作成で用いられる。
図4(B)に示す器官マップでは、基準点P2を含んだ中央の領域を白色(即ち、α値「1」)、他の領域を黒色(即ち、α値「0」)と設定している。
しかしながら、このようにα値が設定された器官マップを、そのまま画像補正に利用すると、画像補正を行う領域と補正を一切行わない領域との境界が明確となり、画像補正が不自然となってしまう。そこで、この境界をぼかすために、唇に対応する領域の形状を、基準点P2を中心として各方向に等比率で縮小して同心状の領域を設定する。このとき、縮小比率を異ならせた同心状の領域を段階的に設定し、器官マップの中央の領域から外部の領域に近づくにつれてα値が段階的に低くなり、画像補正の度合いが抑えられるように、器官マップを修正する。
これにより、図4(C)に示すように、検出された唇に対応する領域の形状を維持すると共に、器官マップの内部から外部に近づくにつれてα値が段階的に低くなり、画像補正の度合いが抑えられるように設定された器官マップを作成することができる。なお、本実施形態においては、唇に対応する領域の形状を基準点P2を中心として各方向に等比率で縮小して同心状の領域を設定し、器官マップの中央の領域から外部の領域に近づくにつれてα値を段階的に低くしたが、それに限らず、器官検出で得られた段階の器官マップを基準点P2を中心に拡大することで同心状の領域を設定してもよい。
Then, based on the positions of the plurality of organ points P1, a region corresponding to the lips is detected. Furthermore, all the coordinate values indicating the positions of the plurality of organ points P1 in the coordinate system used for processing the image are obtained, and the position corresponding to the average value of all the obtained coordinate values is obtained. is identified as the reference point P2.
Note that FIG. 4A also shows measurement regions R1 and R2 set for measuring the color of the lips. The measurement regions R1 and R2 are used in creating a HUE map, which will be described later.
In the organ map shown in FIG. 4(B), the central area including the reference point P2 is set to white (that is, the α value is "1"), and the other areas are set to be black (that is, the α value is "0"). there is
However, if the organ map in which the α value is set in this way is used as it is for image correction, the boundary between the area where image correction is performed and the area where no correction is performed becomes clear, and the image correction becomes unnatural. . Therefore, in order to blur this boundary, the shape of the region corresponding to the lips is reduced at equal ratios in each direction around the reference point P2 to set concentric regions. At this time, concentric regions with different reduction ratios are set stepwise, and the α value decreases stepwise from the central region of the organ map toward the outer region, so that the degree of image correction is suppressed. Then, modify the organ map.
As a result, as shown in FIG. 4(C), the shape of the region corresponding to the detected lips is maintained, and the α value decreases stepwise from the inside to the outside of the organ map. It is possible to create an organ map that is set so that the Note that in this embodiment, the shape of the region corresponding to the lips is reduced at equal ratios in each direction around the reference point P2 to set concentric regions, and from the central region of the organ map to the outer region. Although the α value is decreased stepwise as it approaches, the concentric area may be set by enlarging the organ map in stages obtained by organ detection around the reference point P2.

[マスク画像の作成]
図5は、マスク画像の作成例を示す模式図である。
本実施形態においては、美肌処理により薄くなってしまった唇部分の色を再現する補正処理を施すために、唇に相当する領域に対応したマスク画像を作成する。
マスク画像は、図5に示すように、黒い部分ほど色補正画像の合成の割合が低く、白い部分ほど色補正画像の合成の割合が高いことを示している。本実施形態においては、唇の中心部分は色補正が強く施されており、唇の外縁に近い部分は、肌との影響を少なくするために色補正が弱く施されるように構成される。
[Create mask image]
FIG. 5 is a schematic diagram showing an example of creating a mask image.
In this embodiment, a mask image corresponding to a region corresponding to the lips is created in order to perform correction processing for reproducing the color of the lip portion that has become light due to the skin beautifying process.
As shown in FIG. 5, the mask image indicates that the darker the color-corrected image composition ratio is, the whiter the color-corrected image composition ratio is. In this embodiment, the center portion of the lips is strongly color-corrected, and the portion near the outer edge of the lips is configured to be weakly color-corrected in order to reduce the influence of the skin.

このようなマスク画像は、まず、顔の器官の検出によって唇の位置を特定し、特定した唇の位置を含む領域におけるHSV色空間のピークとなる色相値に基づいて作成される。本実施形態の顔の器官検出では、上述の図4に示すように、唇位置の特定等のために複数の器官点P1の位置を検出する。 Such a mask image is created based on the peak hue value of the HSV color space in the area including the identified lip position, after identifying the position of the lip by detecting facial organs. In facial organ detection according to the present embodiment, as shown in FIG. 4 described above, the positions of a plurality of organ points P1 are detected in order to specify the lip position or the like.

本実施形態においては、HSV色空間のピークとなる色相値に基づいて作成されたマスク画像に、鼻等の余計な部分を排除するために、唇の領域を表す器官マップを合成して、最終的なマスク画像を作成する。 In this embodiment, an organ map representing the lip region is combined with the mask image created based on the peak hue value of the HSV color space, in order to eliminate unnecessary portions such as the nose. to create a realistic mask image.

具体的には、本実施形態のマスク画像は、元画像から唇を含む領域を切り出した画像(以下、「切り出し画像」という。)から、HUEマップ及び器官マップを作成し、HUEマップを器官マップと合成して作成される。HUEマップと器官マップの合成では、HUEマップから空間的に不要な領域を除去したマップを作成するために、HUEマップと器官マップのα値の両者を掛け算することで本実施形態のマスク画像が作成されることとなる。 Specifically, the mask image of the present embodiment is obtained by creating a HUE map and an organ map from an image obtained by cutting out a region including lips from an original image (hereinafter referred to as a “cutout image”), and converting the HUE map into an organ map. It is created by combining with In synthesizing the HUE map and the organ map, the mask image of the present embodiment is obtained by multiplying the α values of the HUE map and the organ map in order to create a map from which spatially unnecessary regions are removed from the HUE map. will be created.

[HUEマップの作成]
HUEマップは、切り出し画像において唇の色に相当する箇所を特定したマップである。HUEマップは、まず、YUV色空間の切り出し画像をHSV(色相:Hue,彩度:Saturation・Chroma,明度:Value・Lightness・Brightness)色空間に変換する。その後、ノイズを除去するために、εフィルタでぼかした上で、HSV変換後の画像を解析(HSV解析処理)する。そして、HSV解析処理の処理結果から算出した値をHUEマップのマップ値として、HUEマップを作成する。
[Create HUE map]
A HUE map is a map that identifies a portion corresponding to the lip color in the clipped image. For the HUE map, first, the clipped image in the YUV color space is converted into the HSV (hue: Hue, saturation: Saturation/Chroma, brightness: Value/Lightness/Brightness) color space. Thereafter, in order to remove noise, the image is blurred with an ε filter and then analyzed (HSV analysis processing) after the HSV conversion. Then, a HUE map is created using the values calculated from the processing result of the HSV analysis processing as the map values of the HUE map.

HSV解析処理では、各画素におけるマップ値を決定するために、唇色レベルの重み付けを設定する。唇色レベルの重み付けは、HSVのチャネル別に作成したヒストグラムに基づいて設定される。 In the HSV analysis process, lip color level weighting is set to determine the map value at each pixel. The weighting of the lip color level is set based on histograms created for each HSV channel.

図6は、唇色レベルの重み付けの設定に係るヒストグラム及び唇色レベルの重み付けテーブルを示す図である。
唇色レベルの設定では、まず、図4に示す器官検出で検出した複数の器官点P1を基に計測領域として上下の唇の中央付近に計測領域R1,R2(図4(A)参照)を設定し、各計測領域におけるHSVそれぞれのヒストグラムを作成する。
なお、ヒストグラムの作成に係る唇における計測領域は、唇の色が取得可能な領域であれば、領域の数、種々の形状、位置、サイズであってもよい。
FIG. 6 is a diagram showing a histogram and a lip color level weighting table relating to setting of lip color level weighting.
In setting the lip color level, first, measurement regions R1 and R2 (see FIG. 4A) are set near the centers of the upper and lower lips as measurement regions based on a plurality of organ points P1 detected by the organ detection shown in FIG. Then, a histogram of each HSV in each measurement area is created.
Note that the measurement areas on the lips for generating the histogram may be the number of areas, various shapes, positions, and sizes as long as the lip color can be obtained.

そして、図6(a)に示すようなHSVそれぞれのヒストグラムの最頻値に対応して、図6(b)に示すように唇色レベルの重み付けテーブルが設定される。Hのチャネルの場合には、最頻値を基準にしてプラスとマイナスに均等に重み付けが振り分けられ、最頻値から離れるほど重み付けが低くなるように設定される。また、S(V)のチャネルの場合には、ヒストグラムの最頻値を上方の左端(右端)の基準にして、ピーク値に所定の幅があり、かつ、1段目よりも2段目の方が勾配が緩やかとなる2段階の傾きとなるように、重み付けが設定される。 Then, a lip color level weighting table is set as shown in FIG. 6(b) corresponding to the mode value of each HSV histogram as shown in FIG. 6(a). In the case of the H channel, weighting is evenly distributed to plus and minus with respect to the mode, and the weighting is set to decrease as the distance from the mode increases. In addition, in the case of the S(V) channel, the peak value has a predetermined width with the mode of the histogram as the reference at the upper left end (right end), and The weighting is set so that the two-stage gradient is gentler than the other.

その後、各画素ごとにHSVの各チャネル別に重み付けに応じて算出した唇色レベルを掛け合わせた結果をマップ値としてHUEマップを作成する。
即ち、HUEマップのマップ値は、以下の式(1)により算出される。
HUEマップのマップ値(Map)=Lh×Ls×Lv・・・(1)
なお、「Lh」はHの唇色レベルを示し、「Ls」はSの唇色レベルを示し、「Lv」はVの唇色レベルを示す。
After that, a HUE map is created using the result of multiplying each pixel by the lip color level calculated according to the weighting for each HSV channel as a map value.
That is, the map value of the HUE map is calculated by the following formula (1).
Map value (Map) of HUE map=Lh×Ls×Lv (1)
"Lh" indicates the H lip color level, "Ls" indicates the S lip color level, and "Lv" indicates the V lip color level.

[色補正画像の作成]
色補正画像は、本実施形態においては、第1ブレンド画像のV値を補正することにより作成される。
本実施形態においては、例えば、リップ等で元々の唇の色が濃い場合に、美肌処理による補正が効き過ぎないように色補正する。
[Creation of Color Corrected Image]
The color corrected image is created by correcting the V value of the first blended image in this embodiment.
In the present embodiment, for example, when the original lip color is dark, for example, the lip color is corrected so that the correction by the skin beautifying process is not too effective.

図7は、V補正のLUT(Look Up Table)を示す図である。
V補正のLUTでは、図7に示すように、唇の色が濃い部分にV補正がかかるように構成される。
FIG. 7 is a diagram showing a V correction LUT (Look Up Table).
As shown in FIG. 7, the V-correction LUT is configured to apply V-correction to dark-colored portions of the lips.

[部分補正画像の作成]
部分補正画像は、第1ブレンド画像から作成された色補正画像に平滑化処理及びエッジ強調処理を施すことにより作成される。
図8は、部分補正画像の作成例を示す模式図である。
本実施形態においては、YUV色空間で表された第2ブレンド画像のチャネルのうち、V値(赤色系の色相及び彩度成分)に補正を施すことで色補正画像が作成され、さらに、Y値(輝度成分)に平滑化処理及びエッジ強調処理を施すことにより部分補正画像が作成される。
これにより、唇の太い皺が抑制されると共に、解像感が高められた部分補正画像を作成することができる。
[Create partial correction image]
The partially corrected image is created by performing smoothing processing and edge enhancement processing on the color corrected image created from the first blended image.
FIG. 8 is a schematic diagram showing an example of creating a partially corrected image.
In this embodiment, among the channels of the second blended image expressed in the YUV color space, a color-corrected image is created by correcting the V value (red hue and saturation components). A partially corrected image is created by performing smoothing processing and edge enhancement processing on the value (luminance component).
As a result, thick wrinkles on the lips are suppressed, and a partially corrected image with enhanced resolution can be created.

[第2ブレンド画像の作成]
第2ブレンド画像は、第1ブレンド画像と、部分補正画像とを、マスク画像に基づいて、αブレンドして画像合成して作成される。作成された第2ブレンド画像を全体美肌画像の元の位置(唇の部分)に貼り付けて、美肌画像を生成する。即ち、唇の領域のみに色補正が施され、それ以外の肌の部分は美肌処理が施された部分補正画像が、同一の美肌処理の施された全体美肌画像に貼り付けられて美肌画像が生成される。
[Creation of second blend image]
The second blended image is created by alpha-blending the first blended image and the partially corrected image and synthesizing the images based on the mask image. A beautiful skin image is generated by pasting the created second blend image to the original position (lip portion) of the entire beautiful skin image. That is, a partially corrected image in which only the lip region is subjected to color correction and the other skin portion is subjected to skin beautifying processing is pasted on the entire skin beautifying image to which the same skin beautifying processing is performed to obtain a beautiful skin image. generated.

図9は、図1の撮像装置1の機能的構成のうち、美肌処理を実行するための機能的構成を示す機能ブロック図である。
美肌画像生成処理とは、撮影された人の顔を含む元画像に対して、美肌処理を施すと共に、肌に色が近似しており美肌処理の影響を受けて色が薄くなった唇を適正な色に補正して美肌画像を生成する一連の処理をいう。
FIG. 9 is a functional block diagram showing a functional configuration for executing skin beautifying processing among the functional configurations of the imaging device 1 of FIG.
Skin-beautifying image generation processing is to apply skin-beautifying processing to the original image that includes the photographed human face, and to correct the lips, which are similar in color to the skin and have been affected by the skin-beautifying processing and have become lighter in color. A series of processing to generate a beautiful skin image by correcting to a natural color.

美肌画像生成処理を実行する場合には、図7に示すように、CPU11において、画像取得部51と、顔検出部52と、画像処理部53と、マスク画像作成処理部54と、部分補正画像作成処理部55と、が機能する。 When executing the beautiful skin image generation process, as shown in FIG. The creation processing unit 55 functions.

また、記憶部19の一領域には、画像記憶部71と、マスク画像記憶部72と、が設定される。 An image storage unit 71 and a mask image storage unit 72 are set in one area of the storage unit 19 .

画像記憶部71には、撮像部16から出力された画像のデータが記憶される。
マスク画像記憶部72には、唇以外をマスクするマスク画像のデータが記憶される。
Image data output from the imaging unit 16 is stored in the image storage unit 71 .
The mask image storage unit 72 stores mask image data for masking areas other than the lips.

画像取得部51は、撮像部16により撮像された画像に現像処理が行われた撮像画像のデータ、或いは画像記憶部71から処理対象となる画像のデータを取得する。 The image acquisition unit 51 acquires data of a captured image obtained by subjecting an image captured by the imaging unit 16 to development processing, or data of an image to be processed from the image storage unit 71 .

顔検出部52は、画像から顔を検出すると共に、検出した顔において顔を構成する各器官を検出する。顔検出部52は、少なくとも、輪郭形状から、左右の瞳と、唇の器官を検出する。なお、顔検出部52は、唇に関しては、少なくとも、上唇の中央の上下の2点、下唇の中央の上下の2点、唇の左右の端の2点の合計6点の位置を器官点P1として検出する。顔検出及び各器官の検出は、既存の顔検出技術及び器官検出技術の公知の技術を用いる。また、顔検出及び各器官の検出は、輝度、輪郭抽出等、HSV色空間の色情報とは異なる情報に基づく検出方法であればその検出方法は問わない。 The face detection unit 52 detects a face from an image, and also detects each organ that constitutes the face in the detected face. The face detection unit 52 detects at least left and right pupils and lip organs from the contour shape. As for the lips, the face detection unit 52 detects at least two points above and below the center of the upper lip, two points above and below the center of the lower lip, and two points at the left and right ends of the lip. Detected as P1. Face detection and detection of each organ use known face detection technology and organ detection technology. Further, the face detection and the detection of each organ may be performed by any detection method as long as the detection method is based on information different from the color information of the HSV color space, such as luminance and contour extraction.

画像処理部53は、元画像に対して各種の画像処理を実行する。
具体的には、画像処理部53は、元画像に対して、例えば、主に、彩度低減、明度アップ、青色方向への色相回転の3点の要素の補正を行う美肌処理を実行する。その結果、全体美肌画像が作成される。また、画像処理部53は、図2に示すように、元画像及び全体美肌画像から唇を含む領域を切り出す。
また、画像処理部53は、元画像及び全体美肌画像から唇を含む領域を切り出した2つの切り出し画像を、マスク画像作成処理部54によって作成されたマスク画像に基づいて、第1のαブレンドを施すことにより画像合成する。その結果、第1ブレンド画像が作成される。
The image processing unit 53 performs various image processing on the original image.
Specifically, the image processing unit 53 performs skin beautification processing on the original image, for example, mainly by correcting three elements of saturation reduction, brightness increase, and hue rotation toward blue. As a result, an overall beautiful skin image is created. Further, the image processing unit 53 cuts out a region including the lips from the original image and the entire skin-beautifying image, as shown in FIG.
In addition, the image processing unit 53 performs the first α-blending on the two cutout images obtained by cutting out the region including the lips from the original image and the overall beautiful skin image, based on the mask image created by the mask image creation processing unit 54. The image is synthesized by applying. As a result, a first blended image is created.

本実施形態において、第1のαブレンドを施す場合、画像処理部53は、YUV色空間で表された各画像のチャネルのうち、Y値(輝度成分)については、マスク画像の画素が表すα値に第1係数(例えば0.5)を乗算してα値を調整し、調整後のα値(第1調整値)によって、各画像のY値をαブレンドする。また、画像処理部53は、YUV色空間で表された各画像のチャネルのうち、U値(青色系の色相及び彩度成分)及びV値(赤色系の色相及び彩度成分)については、マスク画像の画素が表すα値に第2係数(例えば0.75)を乗算してα値を調整し、調整後のα値(第2調整値)によって、各画像のU値及びV値をαブレンドする。なお、YUV色空間で表された各画像のチャネルのうち、U値とV値とで異なるα値の調整を行うこととしてもよい。 In the present embodiment, when performing the first α-blending, the image processing unit 53 converts the Y value (luminance component) among the channels of each image represented in the YUV color space to α The value is multiplied by a first factor (eg, 0.5) to adjust the α value, and the Y value of each image is α-blended by the adjusted α value (first adjustment value). In addition, the image processing unit 53, among the channels of each image represented in the YUV color space, for the U value (blue hue and saturation components) and V value (red hue and saturation components), The α value represented by the pixels of the mask image is multiplied by a second coefficient (for example, 0.75) to adjust the α value, and the U value and V value of each image are adjusted by the adjusted α value (second adjustment value). α blend. Note that, among the channels of each image expressed in the YUV color space, different α values may be adjusted for the U value and the V value.

そして、画像処理部53は、第1係数で調整されたα値(第1調整値)によって算出されたY値と、第2係数で調整されたα値(第2調整値)によって算出されたU値及びV値とをYUV色空間の各成分とする画像(第1ブレンド画像)を作成する。
また、画像処理部53は、第1ブレンド画像と、部分補正画像作成処理部55によって作成された部分補正画像とを、マスク画像作成処理部54によって作成されたマスク画像に基づいて、第2のαブレンドを施すことにより画像合成する。その結果、第2ブレンド画像が作成される。また、画像処理部53は、全体美肌画像の元の位置(唇の部分)に第2ブレンド画像を貼り付ける。その結果、美肌画像が生成される。
Then, the image processing unit 53 calculates the Y value calculated by the α value (first adjustment value) adjusted by the first coefficient and the α value (second adjustment value) adjusted by the second coefficient. An image (first blended image) is created in which the U value and V value are each component of the YUV color space.
Further, the image processing unit 53 converts the first blended image and the partial correction image created by the partial correction image creation processing unit 55 into a second blend image based on the mask image created by the mask image creation processing unit 54 . Images are synthesized by applying α-blending. As a result, a second blended image is created. Further, the image processing unit 53 pastes the second blend image to the original position (lip portion) of the overall beautiful skin image. As a result, a beautiful skin image is generated.

マスク画像作成処理部54は、唇の領域のみに色補正が施された画像となるように、第1のαブレンド及び第2のαブレンドに用いるマスク画像を作成する。 The mask image creation processing unit 54 creates mask images used for the first α-blending and the second α-blending so as to obtain an image in which only the lip region is subjected to color correction.

具体的には、マスク画像作成処理部54は、図4に示すように、顔検出部52によって検出された各器官の中から、美肌処理を軽減する対象の器官(ここでは、唇)を特定し、唇の器官点P1を検出する。このとき、マスク画像作成処理部54は、上唇及び下唇のそれぞれについて複数の器官点P1を検出する。そして、マスク画像作成処理部54は、この複数の器官点P1の位置に基づいて、唇に対応する領域を検出する。さらに、マスク画像作成処理部54は、画像を処理するために用いられている座標系での、複数の器官点P1それぞれの位置を示す座標の値を全て取得し、取得した全ての座標の値の平均値に対応する位置を基準点P2として特定する。そして、マスク画像作成処理部54は、唇に対応する領域の形状を、基準点P2を中心として各方向に等比率で縮小して同心状の領域を設定する。このとき、マスク画像作成処理部54は、縮小比率を異ならせた同心状の領域を段階的に設定し、器官マップの中央の領域から外部の領域に近づくにつれてα値が段階的に低くなり、画像補正の度合いが抑えられるように、器官マップを修正する。 Specifically, as shown in FIG. 4, the mask image creation processing unit 54 identifies the target organ (here, lips) for which the skin beautifying process is reduced from among the various organs detected by the face detection unit 52. , and the lip organ point P1 is detected. At this time, the mask image creation processing unit 54 detects a plurality of organ points P1 for each of the upper lip and the lower lip. Then, the mask image creation processing unit 54 detects the region corresponding to the lips based on the positions of the plurality of organ points P1. Further, the mask image creation processing unit 54 acquires all coordinate values indicating the positions of the plurality of organ points P1 in the coordinate system used for processing the image, and extracts all acquired coordinate values. A position corresponding to the average value of is specified as a reference point P2. Then, the mask image creation processing unit 54 reduces the shape of the region corresponding to the lips at equal ratios in each direction around the reference point P2 to set concentric regions. At this time, the mask image creation processing unit 54 gradually sets concentric regions with different reduction ratios, and the α value decreases step by step from the central region of the organ map toward the outer region, Modify the organ map so that the degree of image correction is reduced.

また、マスク画像作成処理部54は、元画像から唇を含む領域を切り出した切り出し画像のYUV色空間をHSV色空間に変換する。また、マスク画像作成処理部54は、ノイズ除去を目的としてεフィルタで画像をぼかす処理を行う。
そして、マスク画像作成処理部54は、HSV解析処理を実行する。HSV解析処理では、上下の唇の中央付近に設定した計測領域R1,R2(図4(A)参照)のHSVの各チャネルでヒストグラムを作成する(図6(a)参照)。そして、作成したヒストグラムから算出する唇色レベルの重み付けを作成する(図6(b)参照)。その後、作成した唇色レベルの重み付けに基づいて、上述した式(1)を用いて、各画素におけるHUEマップのマップ値を算出する。算出した各画素のマップ値からHUEマップを作成する。
Also, the mask image creation processing unit 54 converts the YUV color space of the clipped image obtained by clipping the region including the lips from the original image into the HSV color space. In addition, the mask image creation processing unit 54 performs a process of blurring the image with an ε filter for the purpose of noise removal.
Then, the mask image creation processing unit 54 executes HSV analysis processing. In the HSV analysis process, a histogram is created for each HSV channel of the measurement regions R1 and R2 (see FIG. 4A) set near the center of the upper and lower lips (see FIG. 6A). Then, the weighting of the lip color level calculated from the created histogram is created (see FIG. 6(b)). After that, based on the created lip color level weighting, the map value of the HUE map for each pixel is calculated using Equation (1) described above. A HUE map is created from the calculated map value of each pixel.

また、マスク画像作成処理部54は、図3に示すように、作成した器官マップとHUEマップとを合成する。この際、マスク画像作成処理部54は、鼻等のHUEマップから空間的な不要な領域を除去するために、HUEマップと器官マップのα値の両者を掛け算してマスク画像が作成される。マスク画像作成処理部54は、作成したマスク画像をマスク画像記憶部72に記憶する。 Also, the mask image creation processing unit 54 synthesizes the created organ map and the HUE map, as shown in FIG. At this time, the mask image creation processing unit 54 creates a mask image by multiplying both the HUE map and the α value of the organ map in order to remove spatially unnecessary regions such as the nose from the HUE map. The mask image creation processing unit 54 stores the created mask image in the mask image storage unit 72 .

部分補正画像作成処理部55は、第1ブレンド画像に対して、色補正処理を実行する。
具体的には、部分補正画像作成処理部55は、LUT(図7参照)に基づいて、第1ブレンド画像のV値に補正(色補正)を行う。その結果、第1ブレンド画像に対して色補正がされた色補正画像が作成される。
The partial correction image creation processing unit 55 executes color correction processing on the first blend image.
Specifically, the partially corrected image creation processing unit 55 performs correction (color correction) on the V value of the first blend image based on the LUT (see FIG. 7). As a result, a color-corrected image is created by performing color correction on the first blended image.

また、部分補正画像作成処理部55は、色補正画像に対して、平滑化処理及びエッジ強調処理を施す。
具体的には、部分補正画像作成処理部55は、YUV色空間で表された色補正画像のチャネルのうち、Y値(輝度成分)に平滑化処理及びエッジ強調処理を施す。その結果、部分補正画像が作成される。
Further, the partial correction image creation processing unit 55 performs smoothing processing and edge enhancement processing on the color correction image.
Specifically, the partial correction image creation processing unit 55 performs smoothing processing and edge enhancement processing on the Y value (luminance component) of the channels of the color correction image expressed in the YUV color space. As a result, a partially corrected image is created.

図10は、図9の機能的構成を有する図1の撮像装置1が実行する美肌画像生成処理の流れを説明するフローチャートである。
美肌画像生成処理は、ユーザによる入力部17への美肌画像生成処理開始の操作により開始される。
美肌画像生成処理開始の操作は、撮影指示操作であって、この撮影指示操作に応じて撮像部16により撮像された画像に、現像処理が行われた撮像画像のデータに対して、引き続き美肌画像生成処理を行ってもよく、また、画像記憶部71に記憶されている撮像画像のデータを選択し、その選択された撮像画像のデータに対する美肌画像生成処理開始の操作であってもよい。
FIG. 10 is a flowchart for explaining the flow of beautiful skin image generation processing executed by the imaging device 1 of FIG. 1 having the functional configuration of FIG.
The beautiful skin image generation process is started when the user operates the input unit 17 to start the beautiful skin image generation process.
The operation for starting the beautiful skin image generation processing is a photographing instruction operation, and the image captured by the imaging unit 16 in response to the photographing instruction operation is subjected to the development process, and the beautiful skin image is subsequently produced. The generation process may be performed, or the data of the captured image stored in the image storage unit 71 may be selected, and the beautiful skin image generation process may be started for the selected captured image data.

ステップS11において、画像取得部51は、撮像部16により撮像された画像に現像処理が行われた撮像画像のデータ、或いは画像記憶部71に記憶された処理対象となる画像のデータを元画像として取得する。 In step S<b>11 , the image acquisition unit 51 uses data of a captured image obtained by subjecting an image captured by the imaging unit 16 to development processing, or data of an image to be processed stored in the image storage unit 71 as an original image. get.

ステップS12において、顔検出部52は、元画像において顔検出を行い、顔が検出されたか否かを判定する。
顔が検出されなかった場合には、ステップS12においてNOと判定されて、美肌画像生成処理は終了する。
顔が検出された場合には、ステップS12においてYESと判定されて、処理はステップS13に進む。
In step S12, the face detection unit 52 performs face detection on the original image and determines whether or not a face has been detected.
If the face is not detected, NO is determined in step S12, and the beautiful skin image generation process ends.
If a face is detected, YES is determined in step S12, and the process proceeds to step S13.

ステップS13において、画像処理部53は、元画像に対して美肌処理を実行し、全体美肌画像を作成する。美肌処理によって、元画像は、彩度低減、明度アップ、青色方向への色相回転されたものとなる。 In step S13, the image processing unit 53 performs skin beautification processing on the original image to create an overall skin beautification image. The skin beautification process reduces the saturation of the original image, increases the brightness, and rotates the hue toward blue.

ステップS14において、顔検出部52は、元画像において、顔の器官の検出を行う。その結果、少なくとも、元画像において左右の瞳と、唇の器官の位置が検出される。 In step S14, the face detection unit 52 detects facial organs in the original image. As a result, at least the positions of the left and right pupils and the lip organs are detected in the original image.

ステップS15において、画像処理部53は、元画像において、検出した唇を含む領域を切り出すと共に、全体美肌画像において、元画像から切り出された領域と同じ領域を、唇を含む領域(切り出し画像)として切り出す。 In step S15, the image processing unit 53 cuts out a region containing the detected lips in the original image, and uses the same region as the region cut out from the original image in the whole beautiful skin image as a region containing the lips (cutout image). break the ice.

ステップS16において、マスク画像作成処理部54は、マスク画像作成処理を実行する。マスク画像作成処理の実行の結果、αブレンド用のマスク画像が作成される。マスク画像作成処理の詳細については、後述する。 In step S16, the mask image creation processing unit 54 executes mask image creation processing. As a result of executing the mask image creation process, a mask image for alpha blending is created. Details of the mask image creation process will be described later.

ステップS17において、画像処理部53は、マスク画像に基づいて、第1のαブレンドを施すことにより、元画像及び全体美肌画像から切り出した2つの切り出し画像を画像合成する。このとき、画像処理部53は、YUV色空間で表された各画像のチャネルのうち、Y値(輝度成分)については、マスク画像の画素が表すα値に第1係数(例えば0.5)を乗算して調整したα値(第1調整値)を使用してαブレンドを施し、U値(青色系の色相及び彩度成分)及びV値(赤色系の色相及び彩度成分)については、マスク画像の画素が表すα値に第2係数(例えば0.75)を乗算して調整したα値(第2調整値)を使用してαブレンドを施す。その結果、第1ブレンド画像が作成される。 In step S17, the image processing unit 53 synthesizes the two cutout images cut out from the original image and the overall beautiful skin image by applying the first α-blending based on the mask image. At this time, the image processing unit 53 adds a first coefficient (for example, 0.5) to the α value represented by the pixel of the mask image for the Y value (luminance component) among the channels of each image represented in the YUV color space. The α value (first adjustment value) adjusted by multiplying is used to perform α blending, and the U value (blue hue and saturation component) and V value (red hue and saturation component) are , α-blending is performed using an α-value (second adjustment value) adjusted by multiplying the α-value represented by the pixel of the mask image by a second coefficient (for example, 0.75). As a result, a first blended image is created.

ステップS18において、部分補正画像作成処理部55は、部分補正画像作成処理を実行する。部分補正画像作成処理の実行の結果、第1ブレンド画像に対して色補正、平滑化処理及びエッジ強調処理が行われた部分補正画像が作成される。部分補正画像作成処理の詳細については、後述する。 In step S18, the partial correction image creation processing unit 55 executes partial correction image creation processing. As a result of executing the partial correction image creation process, a partial correction image is created by performing color correction, smoothing processing, and edge enhancement processing on the first blend image. Details of the partial correction image creation processing will be described later.

ステップS19において、画像処理部53は、マスク画像に基づいて、第2のαブレンドを施すことにより第1ブレンド画像と部分補正画像とを画像合成する。その結果、第2ブレンド画像が作成される。 In step S19, the image processing unit 53 synthesizes the first blended image and the partially corrected image by applying the second α-blending based on the mask image. As a result, a second blended image is created.

ステップS20において、画像処理部53は、第2ブレンド画像を全体美肌画像の元の位置(唇の部分)に貼り付ける。その結果、肌に美肌処理が施されていると共に、唇部分は適切な色に補正された美肌画像が生成される。
その後、美肌画像生成処理が終了する。
In step S20, the image processing unit 53 pastes the second blended image to the original position (lip portion) of the overall beautiful skin image. As a result, a beautiful skin image is generated in which the skin has been subjected to skin beautification processing and the lip portion has been corrected to an appropriate color.
After that, the beautiful skin image generation process ends.

図11は、美肌画像生成処理のうち、マスク画像作成処理の流れを説明するフローチャートである。 FIG. 11 is a flowchart for explaining the flow of mask image creation processing in the beautiful skin image creation processing.

ステップS31において、マスク画像作成処理部54は、元画像から切り出した切り出し画像のYUV色空間をHSV色空間に変換する。 In step S31, the mask image creation processing unit 54 converts the YUV color space of the clipped image clipped from the original image into the HSV color space.

ステップS32において、マスク画像作成処理部54は、HSV色空間に色空間変換された切り出し画像をεフィルタでぼかす処理を行う。 In step S32, the mask image creation processing unit 54 blurs the clipped image, which has undergone color space conversion to the HSV color space, using an ε filter.

ステップS33において、マスク画像作成処理部54は、HSV解析処理を実行する。HSV解析処理では、上下の唇の中央付近に設定した計測領域R1,R2のHSVの各チャネルでヒストグラムを作成する(図4(a)参照)。そして、作成したヒストグラムから算出する唇色レベルの重み付けを設定する(図4(b)参照)。唇色レベルの重み付けは、Hのチャネルの場合には、最頻値を基準にしてプラスとマイナスに均等に重み付けが振り分けられ、最頻値から離れるほど重み付けが低くなるように設定される。また、S(V)のチャネルの場合には、ヒストグラムの最頻値を上方の左端(右端)の基準にして、ピーク値に所定の幅があり、かつ、1段目よりも2段目の方が勾配が緩やかとなる2段階の傾きとなるように、重み付けが設定される。 In step S33, the mask image creation processing unit 54 executes HSV analysis processing. In the HSV analysis process, a histogram is created for each HSV channel of the measurement regions R1 and R2 set near the center of the upper and lower lips (see FIG. 4A). Then, the weighting of the lip color level calculated from the created histogram is set (see FIG. 4(b)). The weighting of the lip color level is set such that, in the case of the H channel, the weighting is evenly distributed between plus and minus with respect to the mode, and the weighting decreases as the distance from the mode increases. In addition, in the case of the S(V) channel, the peak value has a predetermined width with the mode of the histogram as the reference at the upper left end (right end), and The weighting is set so that the two-stage gradient is gentler than the other.

ステップS34において、マスク画像作成処理部54は、HUEマップを作成する。HUEマップにおけるマップ値は、作成した唇色レベルの重み付けに基づいて、上述した式(1)を用いて算出する。 In step S34, the mask image creation processing unit 54 creates a HUE map. The map value in the HUE map is calculated using the above-described formula (1) based on the created lip color level weighting.

ステップS35において、マスク画像作成処理部54は、器官マップを作成する。このとき、マスク画像作成処理部54は、器官マップの中央の領域から外部の領域に近づくにつれてα値が段階的に低くなり、画像補正の度合いが抑えられるように器官マップを作成する。 In step S35, the mask image creation processing unit 54 creates an organ map. At this time, the mask image creation processing unit 54 creates the organ map so that the α value decreases stepwise from the central area of the organ map toward the outer area, thereby suppressing the degree of image correction.

ステップS36において、マスク画像作成処理部54は、作成した器官マップとHUEマップとを合成する。この際、マスク画像作成処理部54は、鼻等のHUEマップから空間的に不要な領域を除去するためにHUEマップと器官マップのα値の両者を掛け算してマスク画像が作成される。作成されたマスク画像は、マスク画像記憶部72に記憶される。 In step S36, the mask image creation processing unit 54 synthesizes the created organ map and the HUE map. At this time, the mask image creation processing unit 54 creates a mask image by multiplying both the HUE map and the α value of the organ map in order to remove spatially unnecessary regions such as the nose from the HUE map. The created mask image is stored in the mask image storage unit 72 .

図12は、美肌画像生成処理のうち、部分補正画像作成処理の流れを説明するフローチャートである。 FIG. 12 is a flowchart for explaining the flow of partial correction image generation processing in the beautiful skin image generation processing.

ステップS51において、部分補正画像作成処理部55は、第1ブレンド画像を色補正するためのLUT(図7参照)を読み込む。 In step S51, the partially corrected image creation processing unit 55 reads the LUT (see FIG. 7) for color correcting the first blended image.

ステップS52において、部分補正画像作成処理部55は、第1ブレンド画像に対して、LUTに基づいて色補正を行う。その結果、第1ブレンド画像に対して色補正がされた色補正画像が作成される。
ステップS53において、部分補正画像作成処理部55は、色補正画像に対して、平滑化処理及びエッジ強調処理を施す。
In step S52, the partially corrected image creation processing unit 55 performs color correction on the first blended image based on the LUT. As a result, a color-corrected image is created by performing color correction on the first blended image.
In step S53, the partially corrected image creation processing unit 55 performs smoothing processing and edge enhancement processing on the color corrected image.

種々の撮像装置では、ユーザが肌色を選択できる機能があり、例えば、顔の血色を良くする「ナチュラル」や顔の色を白くする「美肌」が選択可能に構成される。ナチュラルでは、発色が良い色の再現になるので、唇の色も発色をよくすることができる。一方で美肌では、肌色の彩度を薄くするので、唇色もそれに引きずられて、色が薄く血色の悪いものになってしまう。
そこで、本実施形態の撮像装置1においては、美肌処理を施す前の元画像から唇領域を抽出し、唇の部分の色と唇周辺の肌の色とをバランス良く補正しながら、美肌画像を作成することができる。
Various imaging devices have a function that allows the user to select a skin color, and for example, are configured to allow the user to select "natural" to improve the complexion of the face and "beautiful skin" to whiten the color of the face. The natural color gives good color reproduction, so the color of the lips can also be improved. On the other hand, for beautiful skin, the saturation of the skin color is reduced, so the lip color is also dragged by it, resulting in a pale and dull complexion.
Therefore, in the imaging apparatus 1 of the present embodiment, the lip region is extracted from the original image before the skin beautification process is performed, and the color of the lip portion and the skin color around the lip are corrected in a well-balanced manner, and the beautification image is obtained. can be created.

以上のように構成される撮像装置1は、画像取得部51と、画像処理部53と、を備える。
画像取得部51(画像取得手段)は、顔の領域を含む顔画像を取得する。
画像処理部53(美肌処理手段)は、画像取得部51が取得した顔画像に対して美肌処理を施す。
画像処理部53(第1特定手段)は、顔画像に対して美肌処理を行う前の画像における、美肌処理低減領域を含む領域である第1領域を特定する。
画像処理部53(第2特定手段)は、顔画像に対して美肌処理を行った後の画像における、美肌処理低減領域を含む領域である第2領域を特定する。
画像処理部53(第1ブレンド手段)は、特定された第1領域に対応する画像と、第2特定手段により特定された第2領域に対応する画像とをブレンドして第1ブレンド画像を作成する。
画像処理部53(軽減処理手段)は、作成された第1ブレンド画像に対して美肌処理の効果を軽減する処理を施す。
これにより、撮像装置1においては、美肌処理を行った上で、より自然な画像を出力する画像処理装置を提供することができる。
The imaging device 1 configured as described above includes an image acquisition unit 51 and an image processing unit 53 .
The image acquisition unit 51 (image acquisition means) acquires a face image including a face area.
The image processing unit 53 (skin beautification processing means) applies skin beautification processing to the face image acquired by the image acquisition unit 51 .
The image processing unit 53 (first identifying means) identifies a first area, which is an area including a skin beautification reduction area, in the image before performing the skin beautifying process on the face image.
The image processing unit 53 (second identifying means) identifies a second area, which is an area including the skin beautifying reduction area, in the image after performing the skin beautifying process on the face image.
The image processing unit 53 (first blending means) blends the image corresponding to the specified first area and the image corresponding to the second area specified by the second specifying means to create a first blended image. do.
The image processing unit 53 (reduction processing means) performs processing for reducing the effect of the skin beautification processing on the created first blend image.
Accordingly, in the imaging device 1, it is possible to provide an image processing device that outputs a more natural image after performing skin beautification processing.

また、撮像装置1は、マスク画像作成処理部54を備える。
マスク画像作成処理部54(マップ情報作成手段)は、画像処理部53により特定された第1領域の画像に基づいて画像処理の強度度合いを示すαマップを作成する。
画像処理部53は、αマップに基づいて、第1領域に対応する画像と、第2領域に対応する画像とをブレンドして第1ブレンド画像を作成する。
これにより、撮像装置1においては、美肌処理の効果を軽減する処理を適切な領域に施すことができる。
The imaging device 1 also includes a mask image creation processing unit 54 .
The mask image creation processing unit 54 (map information creation means) creates an α map indicating the degree of image processing intensity based on the image of the first region specified by the image processing unit 53 .
The image processing unit 53 creates a first blended image by blending the image corresponding to the first area and the image corresponding to the second area based on the α map.
As a result, in the imaging device 1, the processing for reducing the effect of the skin beautification processing can be applied to an appropriate region.

画像処理部53は、第1ブレンド画像と、美肌処理の効果を低減する処理を施こした第1ブレンド画像とをブレンドする。
これにより、撮像装置1においては、美肌処理を行う前後の画像をブレンドした第1ブレンド画像を基に、美肌処理の効果を低減する処理を施して、第1ブレンド画像とブレンドすることができるため、より自然な画像を出力することができる。
The image processing unit 53 blends the first blended image and the first blended image that has been subjected to the processing for reducing the effect of the skin beautification processing.
As a result, in the imaging device 1, based on the first blended image obtained by blending the images before and after performing the skin beautifying process, processing for reducing the effect of the skin beautifying process can be performed and blended with the first blended image. , can output a more natural image.

美肌処理の効果を軽減する処理は色補正処理又はエッジ補正処理を含む。
これにより、撮像装置1においては、色の補正またはエッジの補正によって、美肌処理が軽減された画像を出力することができる。
Processing for reducing the effect of skin beautification processing includes color correction processing or edge correction processing.
As a result, the imaging apparatus 1 can output an image in which the skin beautifying process is reduced by color correction or edge correction.

また、撮像装置1は、画像取得部51と、画像処理部53と、を備える。
画像取得部51(画像取得手段)は、顔の領域を含む顔画像を取得する。
画像処理部53(美肌処理手段)は、画像取得部51が取得した顔画像に対して美肌処理を施す。
画像処理部53(第1特定手段)は、顔画像に対して美肌処理を行う前の画像における、美肌処理低減領域を含む領域である第1領域を特定する。
画像処理部53(軽減処理手段)は、第1特定手段により特定された第1領域に対して後に施される美肌処理の効果を低減する処理を行う。
画像処理部53は、美肌処理の効果を低減された第1領域と美肌処理が施された画像とに基づいて美肌処理の効果を低減された顔画像を取得する。
これにより、美肌処理を行った上で、より自然な画像を出力する画像処理装置を提供することができる。
The imaging device 1 also includes an image acquisition unit 51 and an image processing unit 53 .
The image acquisition unit 51 (image acquisition means) acquires a face image including a face area.
The image processing unit 53 (skin beautification processing means) applies skin beautification processing to the face image acquired by the image acquisition unit 51 .
The image processing unit 53 (first identifying means) identifies a first area, which is an area including a skin beautification reduction area, in the image before performing the skin beautifying process on the face image.
The image processing unit 53 (reduction processing means) performs processing for reducing the effect of the skin beautifying process that will be performed later on the first region specified by the first specifying means.
The image processing unit 53 acquires a face image with the effect of the skin beautifying process reduced based on the first region with the effect of the skin beautifying process reduced and the image subjected to the skin beautifying process.
Accordingly, it is possible to provide an image processing apparatus that outputs a more natural image after performing skin beautification processing.

また、美肌処理の効果を軽減する処理は色補正処理又はエッジ補正処理を含む。
画像処理部53は、色補正処理又はエッジ補正処理が施された第1領域に対応する画像と、美肌処理手段により美肌処理が施された画像とに基づいて美肌処理の効果を低減された顔画像を取得する。
これにより、撮像装置1においては、色の補正またはエッジの補正によって、美肌処理が軽減された画像を出力することができる。
Further, the processing for reducing the effect of the skin beautification processing includes color correction processing or edge correction processing.
The image processing unit 53 performs the face beautifying effect reduced based on the image corresponding to the first region subjected to the color correction processing or the edge correction processing and the image subjected to the skin beautification processing by the skin beautification processing means. Get an image.
As a result, the imaging apparatus 1 can output an image in which the skin beautifying process is reduced by color correction or edge correction.

画像処理部53は、明るさについての第1調整値と、彩度についての第2調整値とを設定し、画像における明るさのパラメータについては第1調整値を用いてブレンドし、画像における彩度のパラメータについては第2調整値を用いてブレンドする。
これにより、撮像装置1においては、明るさと彩度とについて、それぞれ適切な調整を行ってαブレンドすることができるため、より適切な画像を出力することができる。
The image processing unit 53 sets a first adjustment value for brightness and a second adjustment value for saturation, blends the brightness parameter in the image using the first adjustment value, and adjusts the saturation in the image. The degree parameter is blended using the second adjustment value.
Accordingly, in the imaging apparatus 1, the brightness and the saturation can be appropriately adjusted and α-blended, so that a more appropriate image can be output.

マスク画像作成処理部54は、顔画像から器官を検出することにより、器官の領域に対応するαマップを作成する。
これにより、撮像装置1においては、対象とする器官の領域をより適切に特定して、美肌処理が施された顔画像に対して美肌処理を軽減させた画像を作成することができる。
The mask image creation processing unit 54 creates an α map corresponding to the region of the organ by detecting the organ from the face image.
As a result, the imaging device 1 can more appropriately specify the region of the target organ and create an image in which the skin beautifying process is reduced for the facial image that has been subjected to the beautifying process.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 It should be noted that the present invention is not limited to the above-described embodiments, and includes modifications, improvements, and the like within the scope of achieving the object of the present invention.

例えば、上述の実施形態において、唇の領域を最初に特定して、顔全体に施す美肌処理の際に、肌のマスクの領域として特定した唇の領域を指定するように構成してもよい。
また、上述の実施形態において、部分補正画像を作成する場合、色補正画像に対し、平滑化処理及びエッジ強調処理を施すものとしたが、これに限られない。例えば、元画像の顔の領域が暗い場合等には、色補正画像に対してエッジ強調処理を施すことなく、平滑化処理のみを行って、部分補正画像を作成することとしてもよい。
また、上述の実施形態において、元画像及び全体美肌画像から切り出し画像を切り出して各種処理を行うこととしたが、これに限られない。即ち、唇を含む領域に処理を行うことができれば、画像を切り出さない状態で処理することも可能であり、例えば、切り出し画像に相当するアドレスを指定して、元画像あるいは全体美肌画像の一部の領域に処理を行うこととしてもよい。
For example, in the above-described embodiment, the lip region may be specified first, and the specified lip region may be specified as the skin mask region during the skin beautifying process applied to the entire face.
Further, in the above-described embodiment, when creating a partially corrected image, the color corrected image is subjected to smoothing processing and edge enhancement processing, but the present invention is not limited to this. For example, when the face area of the original image is dark, the partial correction image may be created by performing only smoothing processing without performing edge enhancement processing on the color-corrected image.
Further, in the above-described embodiment, the cut-out image is cut out from the original image and the whole skin-beautifying image and various processes are performed, but the present invention is not limited to this. That is, if the region including the lips can be processed, it is also possible to process the image without clipping it. may be processed.

また、上述の実施形態において、マスク画像を作成する際のHUEマップと器官マップの合成では、HUEマップから空間的に不要な領域を除去したマップを作成するために、HUEマップと器官マップのα値の両者を掛け算することとしたが、これに限られない。例えば、HUEマップと器官マップの最小値をとることにより、HUEマップと器官マップを合成することとしてもよい。 In the above-described embodiment, in synthesizing the HUE map and the organ map when creating the mask image, α Although both values are multiplied, the present invention is not limited to this. For example, the HUE map and the organ map may be synthesized by taking the minimum value of the HUE map and the organ map.

また、上述の実施形態において、色補正画像を作成する場合、器官検出によって検出された元画像の左右の瞳の下方の肌領域から計測したYUV色空間のV値に応じて、補正強度を設定することにより、第1ブレンド画像に対する色補正(美肌処理の効果を軽減する色補正)を行うこととしてもよい。これにより、被写体の本来の肌の色を基準として、美肌処理の効果と唇の色の補正とのバランスをとることができる。なお、このような色補正は、図7に示すLUTを用いた補正と併せて、あるいは、単独で行うことができる。 In the above-described embodiment, when creating a color-corrected image, the correction strength is set according to the V value in the YUV color space measured from the skin regions below the left and right pupils of the original image detected by organ detection. By doing so, color correction (color correction for reducing the effect of skin beautification processing) may be performed on the first blend image. This makes it possible to balance the effect of the skin beautifying process and the correction of the lip color with the original skin color of the subject as a reference. Note that such color correction can be performed together with the correction using the LUT shown in FIG. 7 or independently.

また、上述の実施形態において、本発明の画像処理装置を、撮像機能を備える画像処理装置として実現する場合について説明したが、これに限られない。即ち、本発明の画像処理装置は、撮像機能を備える装置として実現することの他、予め取得されている画像を装置内部または外部から取得して美肌処理を行う装置(例えば、サーバ、パーソナルコンピュータ、スマートフォン等)として実現することができる。 Also, in the above-described embodiments, the case where the image processing apparatus of the present invention is implemented as an image processing apparatus having an imaging function has been described, but the present invention is not limited to this. That is, the image processing apparatus of the present invention is realized as a device having an imaging function, and is also a device (for example, a server, a personal computer, a smartphone, etc.).

また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、美肌処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
Further, in the above-described embodiment, the imaging apparatus 1 to which the present invention is applied is described as an example of a digital camera, but it is not particularly limited to this.
For example, the present invention can be applied to electronic devices in general that have a skin beautifying function. Specifically, for example, the present invention is applicable to notebook personal computers, printers, television receivers, video cameras, portable navigation devices, mobile phones, smart phones, portable game machines, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図9の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図9の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
The series of processes described above can be executed by hardware or by software.
In other words, the functional configuration of FIG. 9 is merely an example and is not particularly limited. That is, it is sufficient that the imaging apparatus 1 has a function capable of executing the above-described series of processes as a whole, and what kind of functional blocks are used to realize this function is not particularly limited to the example in FIG.
Also, one functional block may be composed of hardware alone, software alone, or a combination thereof.
The functional configuration in this embodiment is realized by a processor that executes arithmetic processing, and processors that can be used in this embodiment are composed of various single processing units such as single processors, multiprocessors, and multicore processors. In addition, it includes a combination of these various processing devices and a processing circuit such as ASIC (Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate Array).

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processes is to be executed by software, a program constituting the software is installed in a computer or the like from a network or a recording medium.
The computer may be a computer built into dedicated hardware. The computer may also be a computer capable of executing various functions by installing various programs, such as a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk),Blu-ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれるハードディスク等で構成される。 A recording medium containing such a program is not only constituted by the removable medium 31 of FIG. It consists of a recording medium, etc. provided to The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, or a magneto-optical disk. Optical discs are composed of, for example, CD-ROMs (Compact Disk-Read Only Memory), DVDs (Digital Versatile Disks), Blu-ray (registered trademark) Discs, and the like. The magneto-optical disk is composed of an MD (Mini-Disk) or the like. Also, the recording medium provided to the user in a state of being pre-installed in the apparatus main body is composed of, for example, the ROM 12 in FIG. 1 in which the program is recorded, the hard disk included in the storage section 19 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。 In this specification, the steps of writing a program recorded on a recording medium are not only processes that are performed chronologically in that order, but also processes that are not necessarily chronologically processed, and that are performed in parallel or individually. It also includes the processing to be executed.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take various other embodiments, and various modifications such as omissions and substitutions can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the scope of the invention described in the claims and equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
顔の領域を含む顔画像を取得する画像取得手段と、
前記画像取得手段が取得した顔画像に対して美肌処理を施す美肌処理手段と、
前記顔画像に対して美肌処理を行う前の画像における、美肌処理低減領域を含む領域である第1領域を特定する第1特定手段と、
前記顔画像に対して前記美肌処理を行った後の画像における、美肌処理低減領域を含む領域である第2領域を特定する第2特定手段と、
前記第1特定手段により特定された前記第1領域に対応する画像と、前記第2特定手段により特定された前記第2領域に対応する画像とをブレンドして第1ブレンド画像を作成する第1ブレンド手段と、
前記第1ブレンド手段により作成された第1ブレンド画像を用いて前記美肌処理の効果を軽減する処理を施す軽減処理手段と、
を有することを特徴とする画像処理装置。
[付記2]
前記第1特定手段により特定された第1領域の画像に基づいて画像処理の強度度合いを示すαマップを作成するマップ情報作成手段を有し、
前記第1ブレンド手段は、前記αマップに基づいて、前記第1領域に対応する画像と、前記第2領域に対応する画像とをブレンドして第1ブレンド画像を作成することを特徴とする付記1に記載の画像処理装置。
[付記3]
前記軽減処理手段は、前記第1ブレンド画像と、前記美肌処理の効果を低減する処理を施こした第1ブレンド画像とをブレンドすることを特徴とする付記1又は2に記載の画像処理装置。
[付記4]
前記美肌処理の効果を軽減する処理は色補正処理又はエッジ補正処理を含むことを特徴とする付記1乃至3の何れか1つに記載の画像処理装置。
[付記5]
顔の領域を含む顔画像を取得する画像取得手段と、
前記画像取得手段が取得した顔画像に対して美肌処理を施す美肌処理手段と、
前記顔画像に対して美肌処理を行う前の画像における、美肌処理低減領域を含む領域である第1領域を特定する第1特定手段と、
前記第1特定手段により特定された第1領域に対して後に施される美肌処理の効果を低減する処理を行う軽減処理手段と、を有し、
前記軽減処理手段は、前記美肌処理の効果を低減された第1領域と前記美肌処理手段により美肌処理が施された画像とに基づいて美肌処理の効果を低減された顔画像を取得することを特徴とする画像処理装置。
[付記6]
前記美肌処理の効果を軽減する処理は色補正処理又はエッジ補正処理を含み、
前記軽減処理手段は、前記色補正処理又はエッジ補正処理が施された前記第1領域に対応する画像と、前記美肌処理手段により美肌処理が施された画像とに基づいて美肌処理の効果を低減された顔画像を取得することを特徴とする付記5に記載の画像処理装置。
[付記7]
前記第1ブレンド手段は、明るさについての第1調整値と、彩度についての第2調整値とを設定し、画像における明るさのパラメータについては前記第1調整値を用いてブレンドし、画像における彩度のパラメータについては前記第2調整値を用いてブレンドすることを特徴とする付記1乃至4の何れか1つに記載の画像処理装置。
[付記8]
前記マップ情報作成手段は、前記顔画像から器官を検出することにより、前記器官の領域に対応する前記αマップを作成することを特徴とする付記2に記載の画像処理装置。
[付記9]
画像処理装置が実行する画像処理方法であって、
顔の領域を含む顔画像を取得する画像取得ステップと、
前記画像取得ステップにおいて取得された顔画像に対して美肌処理を施す美肌処理ステップと、
前記顔画像に対して美肌処理を行う前の画像における、美肌処理低減領域を含む領域である第1領域を特定する第1特定ステップと、
前記顔画像に対して前記美肌処理を行った後の画像における、美肌処理低減領域を含む領域である第2領域を特定する第2特定ステップと、
前記第1特定ステップにおいて特定された前記第1領域に対応する画像と、前記第2特定ステップにおいて特定された前記第2領域に対応する画像とをブレンドして第1ブレンド画像を作成する第1ブレンドステップと、
前記第1ブレンドステップにおいて作成された第1ブレンド画像を用いて前記美肌処理の効果を軽減する処理を施す軽減処理ステップと、
を含むことを特徴とする画像処理方法。
[付記10]
画像処理装置が実行する画像処理方法であって、
顔の領域を含む顔画像を取得する画像取得ステップと、
前記画像取得ステップにおいて取得された顔画像に対して美肌処理を施す美肌処理ステップと、
前記顔画像に対して美肌処理を行う前の画像における、美肌処理低減領域を含む領域である第1領域を特定する第1特定ステップと、
前記第1特定ステップにおいて特定された第1領域に対して後に施される美肌処理の効果を低減する処理を行う軽減処理ステップと、を含み、
前記軽減処理ステップでは、前記美肌処理の効果を低減された第1領域と前記美肌処理ステップにおいて美肌処理が施された画像とに基づいて美肌処理の効果を低減された顔画像を取得することを特徴とする画像処理方法。
[付記11]
コンピュータに、
顔の領域を含む顔画像を取得する画像取得機能と、
前記画像取得機能が取得した顔画像に対して美肌処理を施す美肌処理機能と、
前記顔画像に対して美肌処理を行う前の画像における、美肌処理低減領域を含む領域である第1領域を特定する第1特定機能と、
前記顔画像に対して前記美肌処理を行った後の画像における、美肌処理低減領域を含む領域である第2領域を特定する第2特定機能と、
前記第1特定機能により特定された前記第1領域に対応する画像と、前記第2特定機能により特定された前記第2領域に対応する画像とをブレンドして第1ブレンド画像を作成する第1ブレンド機能と、
前記第1ブレンド機能により作成された第1ブレンド画像を用いて前記美肌処理の効果を軽減する処理を施す軽減処理機能と、
を実現させることを特徴とするプログラム。
[付記12]
コンピュータに、
顔の領域を含む顔画像を取得する画像取得機能と、
前記画像取得機能が取得した顔画像に対して美肌処理を施す美肌処理機能と、
前記顔画像に対して美肌処理を行う前の画像における、美肌処理低減領域を含む領域である第1領域を特定する第1特定機能と、
前記第1特定機能により特定された第1領域に対して後に施される美肌処理の効果を低減する処理を行う軽減処理機能と、を実行させ、
前記軽減処理機能は、前記美肌処理の効果を低減された第1領域と前記美肌処理機能により美肌処理が施された画像とに基づいて美肌処理の効果を低減された顔画像を取得することを特徴とするプログラム。
The invention described in the scope of claims at the time of filing of the present application will be additionally described below.
[Appendix 1]
an image acquiring means for acquiring a face image including a face area;
a skin-beautifying means for performing skin-beautifying processing on the face image acquired by the image acquisition means;
a first identifying means for identifying a first area, which is an area including a skin beautification reduction area, in the image before skin beautification is performed on the face image;
a second identifying means for identifying a second area, which is an area including a skin beautification reduction area, in the image after performing the skin beautifying process on the face image;
a first blending image for creating a first blended image by blending an image corresponding to the first area specified by the first specifying means and an image corresponding to the second area specified by the second specifying means; a blending means;
reduction processing means for performing processing for reducing the effect of the skin beautifying process using the first blended image created by the first blending means;
An image processing device comprising:
[Appendix 2]
map information creating means for creating an α map indicating the degree of intensity of image processing based on the image of the first region specified by the first specifying means;
The first blending means creates a first blended image by blending an image corresponding to the first area and an image corresponding to the second area based on the α map. 1. The image processing apparatus according to 1.
[Appendix 3]
3. The image processing apparatus according to appendix 1 or 2, wherein the reduction processing unit blends the first blended image with a first blended image that has been subjected to processing for reducing the effect of the skin beautification processing.
[Appendix 4]
4. The image processing apparatus according to any one of appendices 1 to 3, wherein the processing for reducing the effects of the skin beautification processing includes color correction processing or edge correction processing.
[Appendix 5]
an image acquiring means for acquiring a face image including a face area;
a skin-beautifying means for performing skin-beautifying processing on the face image acquired by the image acquisition means;
a first identifying means for identifying a first area, which is an area including a skin beautification reduction area, in the image before skin beautification is performed on the face image;
a reduction processing means for performing a process of reducing the effect of skin beautifying treatment to be performed later on the first region identified by the first identification means;
The reduction processing means obtains a face image with a reduced skin beautifying effect based on the first region with the reduced skin beautifying effect and the image subjected to the skin beautifying process by the skin beautifying means. An image processing device characterized by:
[Appendix 6]
The processing for reducing the effect of the skin beautification processing includes color correction processing or edge correction processing,
The reduction processing means reduces the effect of the skin beautifying process based on the image corresponding to the first region subjected to the color correction process or the edge correction process and the image subjected to the skin beautifying process by the skin beautifying means. 6. The image processing device according to Supplementary Note 5, wherein the image processing apparatus obtains a face image obtained by applying a facial image.
[Appendix 7]
The first blending means sets a first adjustment value for brightness and a second adjustment value for saturation, blends a parameter of brightness in the image using the first adjustment value, and 5. The image processing apparatus according to any one of appendices 1 to 4, wherein a saturation parameter in is blended using the second adjustment value.
[Appendix 8]
3. The image processing apparatus according to Supplementary Note 2, wherein the map information creating means creates the α map corresponding to the region of the organ by detecting the organ from the face image.
[Appendix 9]
An image processing method executed by an image processing device,
an image acquisition step of acquiring a face image including a region of the face;
a skin beautifying step of performing skin beautifying processing on the face image acquired in the image acquiring step;
a first specifying step of specifying a first area, which is an area including a skin beautification reduction area, in the image before skin beautification is performed on the face image;
a second identifying step of identifying a second area, which is an area including a skin beautification reduction area, in the image after performing the skin beautifying process on the face image;
A first blending image corresponding to the first area specified in the first specifying step and an image corresponding to the second area specified in the second specifying step to create a first blended image; a blending step;
a reduction processing step of performing processing for reducing the effect of the skin beautification processing using the first blended image created in the first blending step;
An image processing method comprising:
[Appendix 10]
An image processing method executed by an image processing device,
an image acquisition step of acquiring a face image including a region of the face;
a skin beautifying step of performing skin beautifying processing on the face image acquired in the image acquiring step;
a first specifying step of specifying a first area, which is an area including a skin beautification reduction area, in the image before skin beautification is performed on the face image;
a reduction processing step that performs processing to reduce the effect of skin beautification processing that will be performed later on the first region identified in the first identification step;
In the reduction processing step, a face image with a reduced effect of the skin beautifying process is acquired based on the first region in which the effect of the skin beautifying process is reduced and the image subjected to the skin beautifying process in the skin beautifying step. An image processing method characterized by:
[Appendix 11]
to the computer,
an image acquisition function for acquiring a face image including a face area;
a skin beautification function that performs skin beautification processing on the face image acquired by the image acquisition function;
a first specifying function for specifying a first region, which is a region including a skin beautification reduction region, in the image before skin beautification processing is performed on the face image;
a second specifying function for specifying a second area, which is an area including a skin beautification reduction area, in the image after performing the skin beautification process on the face image;
a first blending image for creating a first blended image by blending an image corresponding to the first area specified by the first specifying function and an image corresponding to the second area specified by the second specifying function; blend function and
a reduction processing function that uses the first blended image created by the first blending function to reduce the effect of the skin beautifying process;
A program characterized by realizing
[Appendix 12]
to the computer,
an image acquisition function for acquiring a face image including a face area;
a skin beautification function that performs skin beautification processing on the face image acquired by the image acquisition function;
a first specifying function for specifying a first region, which is a region including a skin beautification reduction region, in the image before skin beautification processing is performed on the face image;
a reduction processing function that performs processing for reducing the effect of skin beautification processing that will be performed later on the first region specified by the first specifying function;
The reduction processing function acquires a face image with reduced skin beautifying effect based on the first area with reduced skin beautifying effect and the image subjected to skin beautifying processing by the skin beautifying function. Program characterized.

1・・・撮像装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・撮像部,17・・・入力部,18・・・出力部,19・・・記憶部,20・・・通信部,21・・・ドライブ,31・・・リムーバブルメディア,51・・・画像取得部,52・・・顔検出部,53・・・画像処理部,54・・・マスク画像作成処理部,55・・・部分補正画像作成処理部,71・・・画像記憶部,72・・・マスク画像記憶部 Reference Signs List 1 imaging device 11 CPU 12 ROM 13 RAM 14 bus 15 input/output interface 16 imaging unit 17 Input unit 18 Output unit 19 Storage unit 20 Communication unit 21 Drive 31 Removable medium 51 Image acquisition unit 52 Face Detection unit 53 Image processing unit 54 Mask image creation processing unit 55 Partial correction image creation processing unit 71 Image storage unit 72 Mask image storage unit

Claims (7)

顔の領域を含む顔画像を取得する画像取得手段と、
前記画像取得手段が取得した顔画像に対して美肌処理を施す美肌処理手段と、
前記顔画像に対して美肌処理を行う前の画像における、美肌処理低減領域を含む領域である第1領域を特定する第1特定手段と、
前記顔画像に対して前記美肌処理を行った後の画像における、美肌処理低減領域を含む領域である第2領域を特定する第2特定手段と、
前記第1特定手段により特定された前記第1領域に対応する画像と、前記第2特定手段により特定された前記第2領域に対応する画像とをブレンドしてブレンド画像を作成するブレンド手段と、
記ブレンド手段により作成されたブレンド画像に対して前記美肌処理の効果を軽減する軽減処理を施す軽減処理手段と、
を有し、
前記軽減処理手段は、前記ブレンド画像と、前記軽減処理を施こした前記ブレンド画像とをブレンドすることを特徴とする画像処理装置。
an image acquiring means for acquiring a face image including a face area;
a skin-beautifying means for performing skin-beautifying processing on the face image acquired by the image acquisition means;
a first identifying means for identifying a first area, which is an area including a skin beautification reduction area, in the image before skin beautification is performed on the face image;
a second identifying means for identifying a second area, which is an area including a skin beautification reduction area, in the image after performing the skin beautifying process on the face image;
Blending for creating a blended image by blending the image corresponding to the first area specified by the first specifying means and the image corresponding to the second area specified by the second specifying means. means and
a reduction processing means for performing a reduction process for reducing the effect of the skin beautifying process on the blended image created by the blending means;
has
The image processing device, wherein the reduction processing means blends the blended image and the blended image subjected to the reduction processing .
前記第1特定手段により特定された第1領域の画像に基づいて画像処理の強度度合いを示すαマップを作成するマップ情報作成手段を有し、
前記ブレンド手段は、前記αマップに基づいて、前記第1領域に対応する画像と、前記第2領域に対応する画像とをブレンドして前記ブレンド画像を作成することを特徴とする請求項1に記載の画像処理装置。
map information creating means for creating an α map indicating the degree of intensity of image processing based on the image of the first region specified by the first specifying means;
2. The method according to claim 1, wherein said blending means creates said blended image by blending an image corresponding to said first area and an image corresponding to said second area based on said α map. The described image processing device.
前記美肌処理の効果を軽減する処理は色補正処理又はエッジ補正処理を含むことを特徴とする請求項1又は2項に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein the processing for reducing the effect of the skin beautification processing includes color correction processing or edge correction processing. 記ブレンド手段は、明るさについての第1調整値と、彩度についての第2調整値とを設定し、画像における明るさのパラメータについては前記第1調整値を用いてブレンドし、画像における彩度のパラメータについては前記第2調整値を用いてブレンドすることを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。 The blending means sets a first adjustment value for brightness and a second adjustment value for saturation, blends a brightness parameter in the image using the first adjustment value, and 4. The image processing apparatus according to any one of claims 1 to 3 , wherein a saturation parameter in is blended using the second adjustment value. 前記マップ情報作成手段は、前記顔画像から器官を検出することにより、前記器官の領域に対応する前記αマップを作成することを特徴とする請求項2に記載の画像処理装置。 3. The image processing apparatus according to claim 2, wherein said map information creating means creates said .alpha.-map corresponding to said organ area by detecting said organ from said face image. 画像処理装置が実行する画像処理方法であって、
顔の領域を含む顔画像を取得する画像取得ステップと、
前記画像取得ステップにおいて取得された顔画像に対して美肌処理を施す美肌処理ステップと、
前記顔画像に対して美肌処理を行う前の画像における、美肌処理低減領域を含む領域である第1領域を特定する第1特定ステップと、
前記顔画像に対して前記美肌処理を行った後の画像における、美肌処理低減領域を含む領域である第2領域を特定する第2特定ステップと、
前記第1特定ステップにおいて特定された前記第1領域に対応する画像と、前記第2特定ステップにおいて特定された前記第2領域に対応する画像とをブレンドしてブレンド画像を作成するブレンドステップと、
前記ブレンドステップにおいて作成されたブレンド画像を用いて前記美肌処理の効果を軽減する軽減処理を施す軽減処理ステップと、
を含み、
前記軽減処理ステップは、前記ブレンド画像と、前記軽減処理を施こした前記ブレンド画像とをブレンドすることを特徴とする画像処理方法。
An image processing method executed by an image processing device,
an image acquisition step of acquiring a face image including a region of the face;
a skin beautifying step of performing skin beautifying processing on the face image acquired in the image acquiring step;
a first specifying step of specifying a first area, which is an area including a skin beautification reduction area, in the image before skin beautification is performed on the face image;
a second identifying step of identifying a second area, which is an area including a skin beautification reduction area, in the image after performing the skin beautifying process on the face image;
Blending for creating a blended image by blending an image corresponding to the first region identified in the first identifying step and an image corresponding to the second region identified in the second identifying step a step;
a reduction processing step of performing a reduction processing for reducing the effect of the skin beautification processing using the blended image created in the blending step;
including
The image processing method , wherein the reduction processing step blends the blend image and the blend image subjected to the reduction processing .
コンピュータに、
顔の領域を含む顔画像を取得する画像取得機能と、
前記画像取得機能が取得した顔画像に対して美肌処理を施す美肌処理機能と、
前記顔画像に対して美肌処理を行う前の画像における、美肌処理低減領域を含む領域である第1領域を特定する第1特定機能と、
前記顔画像に対して前記美肌処理を行った後の画像における、美肌処理低減領域を含む領域である第2領域を特定する第2特定機能と、
前記第1特定機能により特定された前記第1領域に対応する画像と、前記第2特定機能により特定された前記第2領域に対応する画像とをブレンドしてブレンド画像を作成するブレンド機能と、
記ブレンド機能により作成されたブレンド画像を用いて前記美肌処理の効果を軽減する軽減処理を施す軽減処理機能と、
を実現させ、
前記軽減処理機能は、前記ブレンド画像と、前記軽減処理を施こした前記ブレンド画像とをブレンドすることを特徴とするプログラム。
to the computer,
an image acquisition function for acquiring a face image including a face area;
a skin beautification function that performs skin beautification processing on the face image acquired by the image acquisition function;
a first specifying function for specifying a first region, which is a region including a skin beautification reduction region, in the image before skin beautification processing is performed on the face image;
a second specifying function for specifying a second area, which is an area including a skin beautification reduction area, in the image after performing the skin beautification process on the face image;
Blending for creating a blended image by blending an image corresponding to the first area specified by the first specifying function and an image corresponding to the second area specified by the second specifying function. function and
a reduction processing function that performs a reduction processing for reducing the effect of the skin beautification processing using the blended image created by the blending function;
to realize
A program , wherein the reduction processing function blends the blend image and the blend image subjected to the reduction processing .
JP2019054695A 2019-03-22 2019-03-22 Image processing device, image processing method and program Active JP7318251B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019054695A JP7318251B2 (en) 2019-03-22 2019-03-22 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019054695A JP7318251B2 (en) 2019-03-22 2019-03-22 Image processing device, image processing method and program

Publications (2)

Publication Number Publication Date
JP2020154979A JP2020154979A (en) 2020-09-24
JP7318251B2 true JP7318251B2 (en) 2023-08-01

Family

ID=72559383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019054695A Active JP7318251B2 (en) 2019-03-22 2019-03-22 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP7318251B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008160474A (en) 2006-12-22 2008-07-10 Canon Inc Image processor, and method thereof
JP2017097645A (en) 2015-11-25 2017-06-01 ソニー株式会社 Information processing device, information processing method, and program
JP2018049564A (en) 2016-09-23 2018-03-29 カシオ計算機株式会社 Detection device and detection method
JP2018117289A (en) 2017-01-19 2018-07-26 カシオ計算機株式会社 Image processing device, image processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008160474A (en) 2006-12-22 2008-07-10 Canon Inc Image processor, and method thereof
JP2017097645A (en) 2015-11-25 2017-06-01 ソニー株式会社 Information processing device, information processing method, and program
JP2018049564A (en) 2016-09-23 2018-03-29 カシオ計算機株式会社 Detection device and detection method
JP2018117289A (en) 2017-01-19 2018-07-26 カシオ計算機株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP2020154979A (en) 2020-09-24

Similar Documents

Publication Publication Date Title
CN109639960B (en) Image processing apparatus, image processing method, and recording medium
US8472713B2 (en) Image processor, image processing method, and computer-readable medium
JP6421794B2 (en) Image processing apparatus, image processing method, and program
CN111526279B (en) Image processing apparatus, image processing method, and recording medium
CN108337450B (en) Image processing apparatus, image processing method, and recording medium
JP2018049564A (en) Detection device and detection method
Kao High dynamic range imaging by fusing multiple raw images and tone reproduction
US10861140B2 (en) Image processing apparatus, image processing method, and recording medium
JP2019070872A (en) Image processing device, image processing method, and program
JP2018206144A (en) Image processing apparatus, image processing method and program
CN109104601B (en) Detection device, image processing device, detection method, and image processing method
JP2000242775A (en) Method and device for processing image, and recording medium
JP7318251B2 (en) Image processing device, image processing method and program
JP6795062B2 (en) Detection device, detection method and program
JP7015009B2 (en) Image processing equipment, image processing methods and programs
JP7279741B2 (en) Image processing device, image processing method and program
JP7375313B2 (en) Image processing device, image processing method, and image processing program
JP7400196B2 (en) Electronic devices, image processing methods, and image processing programs
JP2010199866A (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R150 Certificate of patent or registration of utility model

Ref document number: 7318251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150