JP6421794B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6421794B2
JP6421794B2 JP2016157491A JP2016157491A JP6421794B2 JP 6421794 B2 JP6421794 B2 JP 6421794B2 JP 2016157491 A JP2016157491 A JP 2016157491A JP 2016157491 A JP2016157491 A JP 2016157491A JP 6421794 B2 JP6421794 B2 JP 6421794B2
Authority
JP
Japan
Prior art keywords
image
bear
information
correction
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016157491A
Other languages
English (en)
Other versions
JP2018025970A5 (ja
JP2018025970A (ja
Inventor
武志 佐藤
武志 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016157491A priority Critical patent/JP6421794B2/ja
Priority to US15/671,933 priority patent/US20180047186A1/en
Priority to CN201710678359.8A priority patent/CN107730456B/zh
Publication of JP2018025970A publication Critical patent/JP2018025970A/ja
Publication of JP2018025970A5 publication Critical patent/JP2018025970A5/ja
Application granted granted Critical
Publication of JP6421794B2 publication Critical patent/JP6421794B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
従来、画像処理による美顔処理の一環として、目の下のクマを補正する処理が行われている。このような技術では、簡易な画像処理方法として、人物の目を検出し、検出した目の下の部分をぼかしたり、明度を上げたりといった処理が行われている。しかし、このような処理では、個人差や撮影条件等により位置や濃さが異なるクマを適切に補正できないという問題がある。このような問題に対して、例えば、特許文献1にように、肌色に寄与するメラニン成分、ヘモグロビン成分等の色素成分を精度高く計測することで、クマを適切に補正する技術が開示されている。
特開2002−200050号公報
しかしながら、上述した特許文献1に記載の技術では、構成、処理ともに複雑であるため、実現の面で敷居が高いという問題がある。
本発明は、このような状況に鑑みてなされたものであり、顔を撮影した画像に含まれるクマを簡易な方法で適切に補正することを目的とする。
上記目的を達成するため、本発明の一態様の画像処理装置は、
顔を撮影した画像に含まれるクマを補正する画像処理装置であって、
画像から人物の目を検出する検出手段と、
画像内における前記検出手段によって検出された前記人物の目の位置に基づき、画像内におけるクマの色情報及び基準となる肌色情報を取得し、補正を行う画像内の位置及び補正の強度を示す補正情報を生成する補正情報生成手段と、
前記補正情報生成手段によって生成された前記補正情報を使用して、画像に含まれるクマを補正する処理を行う画像処理手段と、
を備え
前記補正情報生成手段は、取得された画像内における前記クマの色情報及び前記基準となる肌色情報に基づき、画像に含まれるクマ領域の候補を含む補正情報の候補を生成し、予め用意されている画像内の位置情報である基準となるクマ領域情報を使用して、生成した候補領域を含む前記補正情報の候補の画像内における位置情報を修正して、補正を行うための前記補正情報を生成する、
ことを特徴とする。
本発明によれば、顔を撮影した画像に含まれるクマを簡易な方法で適切に補正することができる。
本発明の画像処理装置の一実施形態に係る撮像装置1のハードウェアの構成を示すブロック図である。 本実施形態のクマ補正画像の生成を説明するための模式図である。 クマ補正マップの作成を説明するための模式図である。 Hueマップの作成を説明するための模式図である。 固定マップの作成を説明するための模式図である。 図1の撮像装置1の機能的構成のうち、クマ補正画像生成処理を実行するための機能的構成を示す機能ブロック図である。 図6の機能的構成を有する図1の撮像装置1が実行するクマ補正画像生成処理の流れを説明するフローチャートである。 クマ補正画像生成処理のうち、クマ補正処理の流れを説明するフローチャートである。 クマ補正画像生成処理のうち、クマ補正マップ作成処理の流れを説明するフローチャートである。
以下、本発明の実施形態について、図面を用いて説明する。
図1は、本発明の画像処理装置の一実施形態に係る撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えば、デジタルカメラとして構成される。
撮像装置1は、図1に示すように、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、を備えている。
CPU11は、ROM12に記録されているプログラム、又は、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、入力部17、出力部18、記憶部19、通信部20及びドライブ21が接続されている。
撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、YUV色空間のディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11や図示しない画像処理部等に適宜供給される。
入力部17は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部20は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ21によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。
このように構成される撮像装置1では、顔を撮影した画像に対して、顔のクマのみを除去した画像を生成することができる機能を有する。
[クマ補正画像の生成]
クマ補正画像の生成について説明する。
図2は、本実施形態のクマ補正画像の生成を説明するための模式図である。
本実施形態のクマ補正画像の生成では、図2に示すように、まず、元画像を解析して人物の目の瞳位置を検出する。検出した左右の瞳の位置関係に応じて、予め定められている基準に基づき、処理対象となる領域を切り出す。
そして、切り出された画像の画像全体に対してクマを除去するクマ補正を施す。
クマ補正では、顔においてクマがあるであろう領域(以下、「クマ色領域」という。)R1の色を、顔において基準となるであろう肌の領域(以下、「基準肌色領域」という。)R2の色に近づける補正を行う。
また、本実施形態のクマ補正画像の生成では、クマの位置と補正の強度を示すマップ(以下、「クマ補正マップ」という。)を作成する。
クマ補正マップは、本実施形態においては、クマ補正対象となる領域を示し、かつ、補正の強度を示すマップである。αブレンドによる画像合成時に、α値となるマスク画像として機能する。
その後、切り出し画像に対して、クマ補正マップをα値とするマスク画像として、クマ補正を施した画像をαブレンドする合成を行う。
最後に、切り出した元画像の元の位置に合成した画像を貼り付けることで、顔においてクマの部分のみが除去されたクマ補正画像が生成される。
なお、図2では、左目周辺のクマを補正する場合を例として挙げているが、右目周辺のクマも同様にして補正する。
[クマ補正の方法]
ここで、クマ補正の詳細について説明する。
クマ補正では、YUV色空間において、クマ色領域R1と、基準肌色領域R2のYUVの最頻値を計測する。以下、クマ色領域R1のY,U,Vの最頻値をそれぞれYa,Ua,Vaといい、基準肌色領域R2のY,U,Vの最頻値をそれぞれYb,Ub,Vbという。
なお、クマ色領域R1及び基準肌色領域R2は、顔の大きさや瞳の位置から予め定められている基準に基づいて、左右の瞳ごとに異なる位置で同じ面積となるように設定される。
クマ補正では、画像全体に対してY,U,Vの各チャンネルの補正を行う。
Yチャンネルの補正では、補正した領域と補正していない領域の境界を目立たなくするために、YaがYbに近くなるように補正する。補正には、ガンマ(LUT:LookUpTable)が用いられる。
また、U,Vチャンネルの補正では、Ua,VaがUb,Vbに近くなるように補正する。補正には、シフト処理が用いられる。
なお、シフト処理は、以下の式(1),(2)を用いる。
Uのシフト量=Ub−Ua・・・(1)
Vのシフト量=Vb−Va・・・(2)
本実施形態においては、境界を目出させないことを前提にして、Yチャンネルについては、人が敏感に感じ取れるために、処理負担が増加してもガンマ補正を用い、U,Vについては鈍感なので処理が簡単なシフト処理を用いている。
[クマ補正マップの作成]
次に、クマ補正マップの作成の詳細について説明する。
図3は、クマ補正マップの作成を説明するための模式図である。
クマ補正マップの作成では、図3に示すように、まず、YUV色空間の切り出し画像をHSV(色相:Hue,彩度:Saturation・Chroma,明度:Value・Lightness・Brightness)色空間に変換する。次に、HSVに変換された切り出し画像を解析する。解析結果から算出した値で、画素ごとにHSVそれぞれのチャンネルで重み付けを行ってHueマップを作成する。Hueマップによって、顔において肌色で、かつ、暗めの領域が特定される。
そして、予め作成しておいた瞳に対して決まる位置に配置され、クマらしい形をした固定マップと、作成したHueマップを合成して合成マップを作成する。
合成マップの作成では、Hueマップと固定マップの最小値が取られ、クマ補正を施さない領域がカットされる。
その後、合成マップをぼかして滑らかにし、クマ補正マップを作成する。
このぼかす処理は省略してもよい。
[Hueマップの作成]
続いて、Hueマップの作成の詳細について説明する。
図4は、Hueマップの作成を説明するための模式図である。
Hueマップでは、顔において肌色で、かつ、暗めの領域を特定するマップであり、H,S,Vそれぞれのチャンネルで、クマの強さ示すクマレベルを算出し、算出した結果を掛け合わせて、各画素のHueマップ値とする。
即ち、Hueマップ値は、以下の式(3)で表される。
Hueマップ値:Map=Lh×Ls×Lv・・・(3)
なお、「Lh」は、Hチャンネルのクマレベルであり、「Ls」は、Sチャンネルのクマレベルであり、「Lv」は、Vチャンネルのクマレベルである。
Hチャンネルのクマレベルは、クマ色領域R1のHチャンネルの平均値を算出して、画素ごとの算出した平均値からの差分で決定される。平均値からの差分に応じたクマレベルは、図4(a)の例のようになり、平均値からの差分が大きくなるほど、クマレベルが低くなる。すなわちクマが弱くなる。
また、Sチャンネルのクマレベルは、クマ色領域R1のSチャンネルの平均値を算出して、画素ごとの算出した平均値からの差分で決定される。平均値からの差分に応じたクマレベルは、図4(b)の例のようになり、平均値からの差分が大きくなるほど、クマレベルが低くなる。すなわちクマが弱くなる。
これに対して、Vチャンネルのクマレベルは、クマ色領域R1と基準肌色領域R2各々のVチャンネルのヒストグラムを解析し、クマ領域とみなすレベルを算出する。Vチャンネルのクマレベルは、図4(c)の例に示すように、クマ色領域R1に対応する範囲に、クマ色領域R1と基準肌色領域R2各々の最頻度に応じて、境界がなだらかになるように設定される。すなわちクマ色領域R1と基準肌色領域R2における明度(Vチャンネルの画素レベル)とその頻度とに応じて、クマレベルが算出されることになる。
[固定マップの作成]
固定マップの作成の詳細について説明する。
図5は、固定マップの作成を説明するための模式図である。
固定マップは、一般的な顔において瞳に対するクマの位置関係と瞳の大きさに対するクマの大きさや形を模したマップで、クマ補正にあたり予め作成されているマップである。
固定マップは、図5(a)に示すように、データから縮小サイズのマップを展開する。
そして、図5(b)示すように、画像における目の輪郭情報(目頭と目尻等)から目の傾きの角度を算出して、当該角度に対応して固定マップを回転させる。
最後に、固定マップは、画像に対応するサイズに、リサイズして、使用される。
図6は、図1の撮像装置1の機能的構成のうち、クマ補正画像生成処理を実行するための機能的構成を示す機能ブロック図である。
クマ補正画像生成処理とは、人の顔を撮影した画像から、クマ領域を特定して、クマを除去するクマ補正を行ったクマ補正画像を生成する一連の処理をいう。
クマ補正画像生成処理を実行する場合には、図6に示すように、CPU11において、画像取得部51と、瞳検出部52と、画像加工部53と、クマ補正処理部54と、クマ補正マップ作成部55と、画像合成部56と、が機能する。
また、記憶部19の一領域には、画像記憶部71と、固定マップ記憶部72と、が設定される。
画像記憶部71には、人の顔を撮影した画像のデータが記憶される。
固定マップ記憶部72には、図5に示すような固定マップのデータが記憶される。
画像取得部51は、処理対象の画像を取得する。具体的には、画像取得部51は、例えば、撮像部16から出力された画像を処理対象の画像として取得する。
瞳検出部52は、画像取得部51によって取得された画像において瞳を検出する。本実施形態の瞳の検出は、既存の画像解析技術を用いて行う。
画像加工部53は、画像の切り貼り等の画像の加工を行う。具体的は、画像加工部53は、例えば、元画像から画像を切り出したり、切り出した画像を元画像の元の位置に貼り付けたりする。
クマ補正処理部54は、クマ補正処理を実行する。クマ補正処理において、クマ補正処理部54は、画像加工部53により切り出された画像に対してクマ補正処理を施す。クマ補正処理の結果、切り出された画像全体に対してクマが除去される程度の補正が施される。
クマ補正マップ作成部55は、クマ補正マップ作成処理を実行する。クマ補正マップ作成処理を実行の結果、クマ補正マップが作成される。
画像合成部56は、画像を合成する。具体的には、画像合成部56は、例えば、切り出し画像に対して、クマ補正マップをα値とするマスク画像として、クマ補正を施した画像をαブレンドする合成を行う。
図7は、図6の機能的構成を有する図1の撮像装置1が実行するクマ補正画像生成処理の流れを説明するフローチャートである。
クマ補正画像生成処理は、ユーザによる入力部17へのクマ補正画像生成処理開始の操作により開始される。
ステップS11において、画像取得部51は、撮像部16から出力された画像を処理対象の画像として取得する。
ステップS12において、瞳検出部52は、画像取得部51によって取得された画像において瞳を検出する。
ステップS13において、画像加工部53は、画像において瞳検出部52によって検出された瞳位置に応じて、処理対象となる領域を切り出す。その結果、図2に示すように、画像が切り出される。
ステップS14において、クマ補正処理部54は、画像加工部53によって切り出された画像に対してクマ補正処理を施す。クマ補正処理の結果、図2に示すように、切り出された画像全体に対してクマが除去される程度の補正が施される。クマ補正処理の詳細な流れについては、後述する。
ステップS15において、クマ補正マップ作成部55は、クマ補正マップ作成処理を実行する。クマ補正マップ作成処理の結果、図2及び図3に示すようなクマ補正マップが作成される。
ステップS16において、画像合成部56は、切り出し画像に対して、クマ補正マップをα係数とするマスク画像として、クマ補正を施した画像をαブレンドする合成を行う。図2に示すようにクマのあった箇所にクマのない切り出し画像が生成される。
ステップS17において、画像加工部53は、画像合成部56によって合成された画像を元画像の切り出した位置(元位置)に貼り付ける。その結果、図2に示すようなクマ補正画像が生成される。その後、クマ補正画像生成処理は終了する。
図8は、クマ補正画像生成処理のうち、クマ補正処理の流れを説明するフローチャートである。
ステップS31において、クマ補正処理部54は、YUV色空間において、クマ色領域R1のYUVの最頻値(Ya,Ua,Va)及び基準肌色領域R2のYUVの最頻値(Yb,Ub,Vb)を計測してYUV解析処理を実行する。
ステップS32において、クマ補正処理部54は、YaがYbに近くなるようにガンマ補正を行うY補正処理を実行する。
ステップS33において、クマ補正処理部54は、Ua,VaがUb,Vbに近くなるようにシフト処理を行うUV補正処理を実行する。なお、本実施形態においては、シフト処理において、Uのシフト量は、上述した式(1)を用い、Vのシフト量は、上述した式(2)を用いる。
このクマ補正処理では、画像加工部53によって切り出された画像全体に対して補正処理を施すめ、クマ領域以外にも補正処理が施される。
図9は、クマ補正画像生成処理のうち、クマ補正マップ作成処理の流れを説明するフローチャートである。
ステップS51において、クマ補正マップ作成部55は、HSV解析処理を実行する。
HSV解析処理では、まず、YUV色空間の切り出し画像に対して、HSV変換を行う。そして、Vチャンネルにおいてクマ色領域R1と基準肌色領域R2のヒストグラムを作成し、H,Sチャンネルの平均値を算出する。その結果、図4(a)〜図4(c)に示すように、各画素においてH,S,Vのクマレベル(Lh,Ls,Lv)が設定可能となる。
ステップS52において、クマ補正マップ作成部55は、各画素におけるH,S,Vのクマレベル(Lh,Ls,Lv)を掛け合わせてHueマップ値を算出して、図3に示すようなHueマップを作成する。
ステップS53において、クマ補正マップ作成部55は、作成したHueマップと、固定マップ記憶部72に記憶される固定マップとを合成する。合成に際して、図5に示すように、固定マップのサイズと角度を調整する。
ステップS54において、クマ補正マップ作成部55は、合成したマップをぼかして、クマ補正マップを作成する。
このクマ補正マップは、画像加工部53によって切り出された画像のうちのクマ領域を表し、αブレンドにより、画像全体にクマ補正処理が施された画像から、クマ領域だけにクマ補正処理が施された画像を生成することができるようになる。
既存のクマ補正技術は、目の下をぼかして、明るくしただけのようなものが多数である。
そこで、本実施形態のクマ補正技術では、人物撮影画像の瞳検出結果を用い、顔領域からクマ領域を抽出し、クマが軽減するように最適に補正する。クマ領域の抽出は右目、左目それぞれでHSV画像を解析し、HSV画像からクマ補正マップを作成することで行う。補正する際は、YUV画像を解析し、YUVチャンネルそれぞれで補正する。
クマ領域を抽出するために、顔の瞳検出の結果を用い、クマ色領域R1と基準肌色領域R2の2領域を計測する。そして、クマ色領域R1と基準肌色領域R2の2領域のHSVを解析することで、‘目の下の暗い肌色領域のみ’とする。クマ補正のYチャンネルは、ガンマ(LUT:LookUpTable)補正することで、補正した領域と補正していない領域の境界を目立たなくする。
したがって、画像をぼかしたりすることなく、顔のクマ領域のみをクマが目立たないように最適に補正することができる。
以上のように構成される撮像装置1は、瞳検出部52と、クマ補正マップ作成部55と、画像合成部56と、を備える。
画像処理装置は、画像に含まれる人物の顔のクマを補正する。
瞳検出部52は、画像から人物の目又は瞳を検出する。
クマ補正マップ作成部55は、画像内における瞳検出部52によって検出された人物の目又は瞳の位置に基づき、画像内におけるクマの色情報及び基準となる肌色情報を取得し、補正を行う画像内の位置及び補正の強度を示す補正情報(クマ補正マップ)を生成する。
画像合成部56は、クマ補正マップ作成部55によって生成された補正情報(クマ補正マップ)を使用して、画像に含まれる人物の顔のクマを補正する処理を行う。
これにより、撮像装置1においては、画像内の瞳の位置を検出し、その位置の下側の所定位置をクマ色領域及び基準肌色領域として特定し、各々から取得される色情報に基づき、マスクを生成する。このため、撮像装置1では、個人差や撮像状況に応じた適切なクマの色情報及び肌色情報に基づくため、適切な補正情報を生成してクマを補正することができる。よって、撮像装置1では、人物の目の下のクマを簡易な方法で適切に補正することができる。
クマ補正マップ作成部55は、画像内における検出された人物の目又は瞳の位置より下側で所定の位置関係となる位置を、各々クマの色情報及び基準となる肌色情報を取得する画像内における位置として特定し、特定された位置各々からクマの色情報及び基準となる肌色情報を取得する。
これにより、撮像装置1においては、より簡易にクマの色情報及び基準となる肌色情報を取得することができる。
クマ補正マップ作成部55は、HSV色空間のクマの色情報及び基準となる肌色情報に基づき補正情報(クマ補正マップ)を生成する。
画像合成部56は、生成された補正情報(クマ補正マップ)を使用して、YUV色空間で、画像に含まれる人物の顔のクマを補正する処理を行う。
これにより、撮像装置1においては、違和感なくクマを除去することができる。
クマ補正マップ作成部55は、取得された画像内におけるクマの色情報及び基準となる肌色情報に基づき、画像に含まれる人物の顔のクマ領域の候補を含む補正情報(Hueマップ)を生成し、予め用意されている画像内の位置情報である基準となるクマ領域情報を使用して、生成した候補領域を含む補正情報(Hueマップ)の画像内における位置情報を修正して、補正を行うための補正情報(クマ補正マップ)を生成する。
これにより、撮像装置1においては、光線により陰となる部分のようにクマと色が近く、色情報だけでは判別の困難な領域を、位置情報を併用することで排除して、より正確な位置に補正することができる。
画像合成部56は、取得されたクマの色情報により示される色を、取得された基準となる肌色情報により示される色に近づけるように補正する処理を行う。
これにより、撮像装置1においては、違和感なくクマを除去することができる。
クマ補正マップ作成部55は、画像に含まれる人物の顔のクマを補正するための補正情報であって、補正を行う画像内の位置及び補正の強度を示す補正情報(クマ補正マップ)を、HSV色空間の色情報に基づき生成する。
画像合成部56は、生成された補正情報(クマ補正マップ)を使用して、YUV色空間の色情報で画像に含まれる人物の顔のクマを補正する処理を行う。
これにより、撮像装置1においては、HSV色空間でマスクを生成し、生成したマスクを使用してYUV色空間で補正を行う。このため、撮像装置1では、補正情報(クマ補正マップ)の生成処理と、補正処理の各々で適切な色空間の色情報を使用するため、適切にクマを補正することができる。よって、撮像装置1では、人物の目の下のクマを簡易な方法で適切に補正することができる。
クマ補正マップ作成部55は、HSV色空間のうちV成分の情報を主成分とし、H成分及びS成分の情報を副成分として、補正を行う画像内の位置及び補正の強度を示す補正情報(クマ補正マップ)を生成する。
画像合成部56は、生成された補正情報を使用し、YUV色空間のうちY成分の情報を主成分とし、U成分及びV成分の情報を副成分として、画像に含まれる人物の顔のクマを補正する処理を行う。
これにより、撮像装置1においては、人の目に敏感に反応する成分を主成分とすることにより、より違和感なくクマを補正することができる。
クマ補正マップ作成部55は、HSV色空間のうちV成分の情報を主成分とし、成分及び成分の情報を副成分として、画像に含まれる人物の顔のクマ領域の候補を含む補正情報(Hueマップ)を生成し、予め用意されている画像内の位置情報である基準となるクマ領域情報を使用して、生成した候補領域を含む補正情報の画像内における位置情報を修正して、補正を行うための補正情報(クマ補正マップ)を生成する。
これにより、撮像装置1においては、光線により陰となる部分のようにクマと色が近く、色情報だけでは判別の困難な領域を、位置情報を併用することで排除して、より正確な位置に補正することができる。
クマ補正マップ作成部55は、画像内における検出された人物の目又は瞳の位置に基づき取得されるHSV色空間におけるクマの色情報及び基準となる肌色情報を使用して、補正情報(クマ補正マップ)を生成する。
これにより、撮像装置1においては、違和感なくクマを除去することができる。
画像合成部56は、画像内における検出された人物の目又は瞳の位置に基づき取得されるYUV色空間のクマの色情報及び基準となる肌色情報を使用して、当該クマの色情報により示される色を、当該基準となる肌色情報により示される色に近づけるように補正する処理を行う。
これにより、撮像装置1においては、違和感なくクマを除去することができる。
また撮像装置1は、クマ補正マップ作成部55と、画像合成部56と、を備える。
クマ補正マップ作成部55は、画像に含まれる人物の顔のクマ領域の候補となる候補領域を、画像から取得される色情報に基づいて特定する。
クマ補正マップ作成部55、予め用意されている基準となるクマ領域情報であって、画像内の位置情報を含むクマ領域情報を使用して、クマ補正マップ作成部55によって特定された候補領域の画像内における位置情報を修正して、画像に含まれる人物の顔のクマ領域を特定する。
画像合成部56は、クマ補正マップ作成部55によって特定されたクマ領域の色を補正する処理を行う。
これにより、撮像装置1においては、色情報に基づきクマ領域候補を特定し、クマとの判別が難しい光線により陰となる領域のように色が近く、色情報だけでは判別の難しい領域を、基準となる固定マップと合成することでクマ領域から除外する。このため、撮像装置1では、個人差や撮像状況に応じたクマ領域候補を基準となるクマ領域情報で修正するため、クマとの判別が難しい領域を適切に除去し、適切にクマを補正することができる。よって、撮像装置1では、人物の目の下のクマを簡易な方法で適切に補正することができる。
クマ補正マップ作成部55は、画像内における瞳検出部52によって検出された人物の目又は瞳の位置に基づき取得されるクマの色情報及び基準となる肌色情報を使用して、候補領域を特定する。
これにより、撮像装置1においては、より簡単に補正の候補領域を特定することができる。
画像合成部56は、補正を行う画像内の位置及び補正の強度を示す補正情報(クマ補正マップ)を使用して、取得されたクマの色情報により示される色を、取得された基準となる肌色情報により示される色に近づけるように補正する処理を行う。
これにより、撮像装置1においては、違和感なくクマを除去することができる。
クマ補正マップ作成部55は、HSV色空間の色情報に基づき候補領域を特定する。
クマ補正マップ作成部55は、クマ領域情報を使用して、特定された候補領域を修正して、HSV色空間の色情報に基づき画像に含まれる人物の顔のクマ領域を特定する。
画像合成部56は、YUV色空間の色情報に基づき、特定されたクマ領域を補正する処理を行う。
これにより、撮像装置1においては、より違和感なくクマの除去を行うことができる。
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
上述の実施形態では、クマ補正マップを作成するために、人物の目の瞳を検出するようにしているが、簡略に人物の目を検出するようにしてもよい。この場合、固定マップの角度調整は省略する。
また、上述の実施形態では、クマ補正に係る画像処理を位置情報と強度情報とを含む補正情報を使用して、画素ごとに画像処理を行うように構成してもよい。
また、上述の実施形態では、撮像部16での撮影によって取得した記録用の画像を処理対象としたが、画像記憶部71に記憶される画像やライブビュー画像に対して行うように構成してもよい。
また、上述の実施形態では、マップを生成する際の画像を構成する画素は、記録用の画像サイズの画素数でも、間引いたライブビュー表示用の画素で構成してもよい。
また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、クマ補正画像生成処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図6の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図6の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれるハードディスク等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
画像に含まれる人物の顔のクマを補正する画像処理装置であって、
前記画像から人物の目又は瞳を検出する検出手段と、
画像内における前記検出手段によって検出された前記人物の目又は瞳の位置に基づき、画像内におけるクマの色情報及び基準となる肌色情報を取得し、補正を行う画像内の位置及び補正の強度を示す補正情報を生成する補正情報生成手段と、
前記補正情報生成手段によって生成された前記補正情報を使用して、画像に含まれる人物の顔のクマを補正する処理を行う画像処理手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記補正情報生成手段は、画像内における検出された前記人物の目又は瞳の位置より下側で所定の位置関係となる位置を、各々クマの色情報及び基準となる肌色情報を取得する画像内における位置として特定し、特定された位置各々から前記クマの色情報及び前記基準となる肌色情報を取得する、
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記補正情報生成手段は、HSV色空間のクマの色情報及び基準となる肌色情報に基づき前記補正情報を生成し、
前記画像処理手段は、生成された前記補正情報を使用して、YUV色空間で、画像に含まれる人物の顔のクマを補正する処理を行う、
ことを特徴とする付記1又は2に記載の画像処理装置。
[付記4]
前記補正情報生成手段は、取得された画像内における前記クマの色情報及び前記基準となる肌色情報に基づき、画像に含まれる人物の顔のクマ領域の候補を含む補正情報を生成し、予め用意されている画像内の位置情報である基準となるクマ領域情報を使用して、生成した候補領域を含む補正情報の画像内における位置情報を修正して、補正を行うための前記補正情報を生成する、
ことを特徴とする付記1乃至3の何れか1つに記載の画像処理装置。
[付記5]
前記画像処理手段は、取得された前記クマの色情報により示される色を、取得された前記基準となる肌色情報により示される色に近づけるように補正する処理を行う、
ことを特徴とする付記1乃至4の何れか1つに記載の画像処理装置。
[付記6]
画像に含まれる人物の顔のクマを補正する画像処理装置であって、
画像に含まれる人物の顔のクマを補正するための補正情報であって、補正を行う画像内の位置及び補正の強度を示す補正情報を、HSV色空間の色情報に基づき生成する補正情報生成手段と、
生成された前記補正情報を使用して、YUV色空間の色情報で画像に含まれる人物の顔のクマを補正する処理を行う画像処理手段と、
を備えることを特徴とする画像処理装置。
[付記7]
前記補正情報生成手段は、HSV色空間のうちV成分の情報を主成分とし、H成分及びS成分の情報を副成分として、補正を行う画像内の位置及び補正の強度を示す補正情報を生成し、
前記画像処理手段は、生成された前記補正情報を使用し、YUV色空間のうちY成分の情報を主成分とし、U成分及びV成分の情報を副成分として、画像に含まれる人物の顔のクマを補正する処理を行う、
ことを特徴とする付記6に記載の画像処理装置。
[付記8]
前記補正情報生成手段は、HSV色空間のうちV成分の情報を主成分とし、S成分及びV成分の情報を副成分として、画像に含まれる人物の顔のクマ領域の候補を含む補正情報を生成し、予め用意されている画像内の位置情報である基準となるクマ領域情報を使用して、生成した候補領域を含む補正情報の画像内における位置情報を修正して、補正を行うための補正情報を生成する、
ことを特徴とする付記7に記載の画像処理装置。
[付記9]
画像から人物の目又は瞳を検出する検出手段を、更に備え、
前記補正情報生成手段は、画像内における検出された人物の目又は瞳の位置に基づき取得されるHSV色空間におけるクマの色情報及び基準となる肌色情報を使用して、前記補正情報を生成する、
ことを特徴とする付記6乃至8の何れか1つに記載の画像処理装置。
[付記10]
前記画像処理手段は、画像内における検出された人物の目又は瞳の位置に基づき取得されるYUV色空間のクマの色情報及び基準となる肌色情報を使用して、当該クマの色情報により示される色を、当該基準となる肌色情報により示される色に近づけるように補正する処理を行う、
ことを特徴とする付記9に記載の画像処理装置。
[付記11]
画像に含まれる人物の顔のクマを補正する画像処理装置であって、
画像に含まれる人物の顔のクマ領域の候補となる候補領域を、画像から取得される色情報に基づいて特定する候補領域特定手段と、
予め用意されている基準となるクマ領域情報であって、画像内の位置情報を含むクマ領域情報を使用して、前記候補領域特定手段によって特定された前記候補領域の画像内における位置情報を修正して、画像に含まれる人物の顔のクマ領域を特定するクマ領域特定手段と、
前記クマ領域特定手段によって特定された前記クマ領域の色を補正する処理を行う画像処理手段と、
を備えることを特徴とする画像処理装置。
[付記12]
画像から人物の目又は瞳を検出する検出手段を、更に備え、
前記候補領域特定手段は、画像内における前記検出手段によって検出された前記人物の目又は瞳の位置に基づき取得されるクマの色情報及び基準となる肌色情報を使用して、候補領域を特定する、
ことを特徴とする付記11に記載の画像処理装置。
[付記13]
前記画像処理手段は、補正を行う画像内の位置及び補正の強度を示す補正情報を使用して、取得された前記クマの色情報により示される色を、取得された前記基準となる肌色情報により示される色に近づけるように補正する処理を行う、
ことを特徴とする付記12に記載の画像処理装置。
[付記14]
前記候補領域特定手段は、HSV色空間の色情報に基づき前記候補領域を特定し、
前記クマ領域特定手段は、前記クマ領域情報を使用して、特定された前記候補領域を修正して、HSV色空間の色情報に基づき画像に含まれる人物の顔のクマ領域を特定し、
前記画像処理手段は、YUV色空間の色情報に基づき、特定されたクマ領域を補正する処理を行う、
ことを特徴とする付記11乃至13の何れか1つに記載の画像処理装置。
[付記15]
画像に含まれる人物の顔のクマを補正する画像処理装置で実行される画像処理方法であって、
画像から人物の目又は瞳を検出する検出処理と、
画像内における前記検出処理によって検出された前記人物の目又は瞳の位置に基づき、画像内におけるクマの色情報及び基準となる肌色情報を取得し、補正を行う画像内の位置及び補正の強度を示す補正情報を生成する補正情報生成処理と、
前記補正情報生成処理によって生成された前記補正情報を使用して、画像に含まれる人物の顔のクマを補正する処理を行う画像処理と、
を含むことを特徴とする画像処理方法。
[付記16]
画像に含まれる人物の顔のクマを補正する画像処理装置で実行される画像処理方法であって、
画像に含まれる人物の顔のクマを補正するための補正情報であって、補正を行う画像内の位置及び補正の強度を示す補正情報を、HSV色空間の色情報に基づき生成する補正情報生成処理と、
生成された前記補正情報を使用して、YUV色空間の色情報で画像に含まれる人物の顔のクマを補正する処理を行う画像処理と、
を含むことを特徴とする画像処理方法。
[付記17]
画像に含まれる人物の顔のクマを補正する画像処理装置で実行される画像処理方法であって、
画像に含まれる人物の顔のクマ領域の候補となる候補領域を、画像から取得される色情報に基づいて特定する候補領域特定処理と、
予め用意されている基準となるクマ領域情報であって、画像内の位置情報を含むクマ領域情報を使用して、前記候補領域特定処理によって特定された前記候補領域の画像内における位置情報を修正して、画像に含まれる人物の顔のクマ領域を特定するクマ領域特定処理と、
特定された前記クマ領域の色を補正する処理を行う画像処理と、
を含むことを特徴とする画像処理方法。
1・・・撮像装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・撮像部,17・・・入力部,18・・・出力部,19・・・記憶部,20・・・通信部,21・・・ドライブ,31・・・リムーバブルメディア,51・・・画像取得部,52・・・瞳検出部,53・・・画像加工部,54・・・クマ補正処理部,55・・・クマ補正マップ作成部,56・・・画像合成部,71・・・画像記憶部,72・・・固定マップ記憶部

Claims (6)

  1. 顔を撮影した画像に含まれるクマを補正する画像処理装置であって、
    画像から人物の目を検出する検出手段と、
    画像内における前記検出手段によって検出された前記人物の目の位置に基づき、画像内におけるクマの色情報及び基準となる肌色情報を取得し、補正を行う画像内の位置及び補正の強度を示す補正情報を生成する補正情報生成手段と、
    前記補正情報生成手段によって生成された前記補正情報を使用して、画像に含まれるクマを補正する処理を行う画像処理手段と、
    を備え
    前記補正情報生成手段は、取得された画像内における前記クマの色情報及び前記基準となる肌色情報に基づき、画像に含まれるクマ領域の候補を含む補正情報の候補を生成し、予め用意されている画像内の位置情報である基準となるクマ領域情報を使用して、生成した候補領域を含む前記補正情報の候補の画像内における位置情報を修正して、補正を行うための前記補正情報を生成する、
    ことを特徴とする画像処理装置。
  2. 前記補正情報生成手段は、画像内における検出された前記人物の目の位置より下側で所定の位置関係となる位置を、各々前記クマの色情報及び前記基準となる肌色情報を取得する画像内における位置として特定し、特定された位置各々から前記クマの色情報及び前記基準となる肌色情報を取得する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記補正情報生成手段は、HSV色空間のクマの色情報及び基準となる肌色情報に基づき前記補正情報を生成し、
    前記画像処理手段は、生成された前記補正情報を使用して、YUV色空間で、画像に含まれるクマを補正する処理を行う、
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記画像処理手段は、取得された前記クマの色情報により示される色を、取得された前記基準となる肌色情報により示される色に近づけるように補正する処理を行う、
    ことを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  5. 顔を撮影した画像に含まれるクマを補正する画像処理方法であって、
    画像から人物の目を検出する検出処理と、
    画像内における前記検出処理によって検出された前記人物の目の位置に基づき、画像内におけるクマの色情報及び基準となる肌色情報を取得し、補正を行う画像内の位置及び補正の強度を示す補正情報を生成する補正情報生成処理と、
    前記補正情報生成処理によって生成された前記補正情報を使用して、画像に含まれるクマを補正する処理を行う画像処理と、
    を含み、
    前記補正情報生成処理は、取得された画像内における前記クマの色情報及び前記基準となる肌色情報に基づき、画像に含まれるクマ領域の候補を含む補正情報の候補を生成し、予め用意されている画像内の位置情報である基準となるクマ領域情報を使用して、生成した候補領域を含む前記補正情報の候補の画像内における位置情報を修正して、補正を行うための前記補正情報を生成する、
    ことを特徴とする画像処理方法。
  6. 顔を撮影した画像に含まれるクマを補正する画像処理装置を制御するプログラムであって、
    前記画像処理装置を、
    画像から人物の目を検出する検出手段、
    画像内における前記検出手段によって検出された前記人物の目の位置に基づき、画像内におけるクマの色情報及び基準となる肌色情報を取得し、補正を行う画像内の位置及び補正の強度を示す補正情報を生成する補正情報生成手段、
    前記補正情報生成手段によって生成された前記補正情報を使用して、画像に含まれるクマを補正する処理を行う画像処理手段、
    として機能させ、
    前記補正情報生成手段は、取得された画像内における前記クマの色情報及び前記基準となる肌色情報に基づき、画像に含まれるクマ領域の候補を含む補正情報の候補を生成し、予め用意されている画像内の位置情報である基準となるクマ領域情報を使用して、生成した候補領域を含む前記補正情報の候補の画像内における位置情報を修正して、補正を行うための前記補正情報を生成する、
    ように機能させることを特徴とするプログラム。
JP2016157491A 2016-08-10 2016-08-10 画像処理装置、画像処理方法及びプログラム Active JP6421794B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016157491A JP6421794B2 (ja) 2016-08-10 2016-08-10 画像処理装置、画像処理方法及びプログラム
US15/671,933 US20180047186A1 (en) 2016-08-10 2017-08-08 Image processing method for correcting dark circle under human eye
CN201710678359.8A CN107730456B (zh) 2016-08-10 2017-08-09 图像处理方法以及图像处理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016157491A JP6421794B2 (ja) 2016-08-10 2016-08-10 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2018025970A JP2018025970A (ja) 2018-02-15
JP2018025970A5 JP2018025970A5 (ja) 2018-05-31
JP6421794B2 true JP6421794B2 (ja) 2018-11-14

Family

ID=61159194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016157491A Active JP6421794B2 (ja) 2016-08-10 2016-08-10 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US20180047186A1 (ja)
JP (1) JP6421794B2 (ja)
CN (1) CN107730456B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10699388B2 (en) * 2018-01-24 2020-06-30 Adobe Inc. Digital image fill
CN108665498B (zh) * 2018-05-15 2023-05-12 北京市商汤科技开发有限公司 图像处理方法、装置、电子设备和存储介质
CN108830184B (zh) * 2018-05-28 2021-04-16 厦门美图之家科技有限公司 黑眼圈识别方法及装置
CN109584168B (zh) * 2018-10-25 2021-05-04 北京市商汤科技开发有限公司 图像处理方法和装置、电子设备和计算机存储介质
CN111241889B (zh) * 2018-11-29 2023-05-12 荣耀终端有限公司 检测和评价黑眼圈的方法和装置
CN109919030B (zh) * 2019-01-31 2021-07-13 深圳和而泰数据资源与云技术有限公司 黑眼圈类型识别方法、装置、计算机设备和存储介质
CN111428552B (zh) * 2019-12-31 2022-07-15 深圳数联天下智能科技有限公司 黑眼圈识别方法、装置、计算机设备和存储介质
CN111428553B (zh) * 2019-12-31 2022-07-15 深圳数联天下智能科技有限公司 人脸色素斑识别方法、装置、计算机设备和存储介质
CN112070806A (zh) * 2020-09-14 2020-12-11 北京华严互娱科技有限公司 一种基于视频图像的实时瞳孔跟踪方法和系统
US11574388B2 (en) * 2020-12-29 2023-02-07 Adobe Inc. Automatically correcting eye region artifacts in digital images portraying faces

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6571003B1 (en) * 1999-06-14 2003-05-27 The Procter & Gamble Company Skin imaging and analysis systems and methods
JP3877959B2 (ja) * 2000-12-28 2007-02-07 花王株式会社 肌色測定装置および肌画像処理装置
JP2004318205A (ja) * 2003-04-10 2004-11-11 Sony Corp 画像処理装置、画像処理方法及び撮影装置
US8055066B2 (en) * 2008-04-16 2011-11-08 Omnivision Technologies, Inc. Apparatus, system, and method for skin tone detection in a CMOS image sensor
CN101854536A (zh) * 2009-04-01 2010-10-06 深圳市融创天下科技发展有限公司 一种视频编解码的图像视觉效果提升方法
US8731248B2 (en) * 2012-02-16 2014-05-20 Arcsoft (Hangzhou) Multimedia Technology Co., Ltd. Method of performing eye circle correction an image and related computing device
JP6288404B2 (ja) * 2013-02-28 2018-03-07 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
US9736443B2 (en) * 2013-03-04 2017-08-15 Intel Corporation Adaptive image management of a projector system
CN103413270A (zh) * 2013-08-15 2013-11-27 北京小米科技有限责任公司 一种图像的处理方法、装置和终端设备
US9779527B2 (en) * 2013-08-15 2017-10-03 Xiaomi Inc. Method, terminal device and storage medium for processing image
JP6288816B2 (ja) * 2013-09-20 2018-03-07 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN105787888A (zh) * 2014-12-23 2016-07-20 联芯科技有限公司 人脸图像美化方法
JP5930245B1 (ja) * 2015-01-23 2016-06-08 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US10152778B2 (en) * 2015-09-11 2018-12-11 Intel Corporation Real-time face beautification features for video images
CN105469356B (zh) * 2015-11-23 2018-12-18 小米科技有限责任公司 人脸图像处理方法及装置

Also Published As

Publication number Publication date
US20180047186A1 (en) 2018-02-15
CN107730456A (zh) 2018-02-23
CN107730456B (zh) 2021-07-27
JP2018025970A (ja) 2018-02-15

Similar Documents

Publication Publication Date Title
JP6421794B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10885616B2 (en) Image processing apparatus, image processing method, and recording medium
CN107871309B (zh) 检测方法、检测装置以及记录介质
JP6720881B2 (ja) 画像処理装置及び画像処理方法
CN111526279B (zh) 图像处理装置、图像处理方法和记录介质
JP2018206144A (ja) 画像処理装置、画像処理方法及びプログラム
US10861140B2 (en) Image processing apparatus, image processing method, and recording medium
CN109639959A (zh) 图像处理装置、图像处理方法以及记录介质
US9652822B2 (en) Image correcting apparatus, image correcting method and computer readable recording medium recording program thereon
KR102562720B1 (ko) 검출 장치, 이미지 처리 장치, 검출 방법, 및 이미지 처리 방법
JP2016127419A (ja) 画像補正装置、画像補正方法及びプログラム
JP6795062B2 (ja) 検出装置、検出方法及びプログラム
JP7375313B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP7318251B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7279741B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7015009B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6337441B2 (ja) 画像処理装置、撮像装置、画像処理方法、及び画像処理プログラム
JP6318549B2 (ja) 画像処理装置、撮像装置、画像処理方法、及び画像処理プログラム
JP7400196B2 (ja) 電子機器、画像処理方法、及び画像処理プログラム
JP6354134B2 (ja) 画像処理装置、撮像装置、画像処理方法、及び画像処理プログラム
JP2010199866A (ja) 画像処理装置
JP2015088932A (ja) 撮像レンズ、撮像装置、画像処理プログラム、及び画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180412

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180412

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180702

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181001

R150 Certificate of patent or registration of utility model

Ref document number: 6421794

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150