JP7420971B2 - 人体画像処理方法および電子機器 - Google Patents

人体画像処理方法および電子機器 Download PDF

Info

Publication number
JP7420971B2
JP7420971B2 JP2022562359A JP2022562359A JP7420971B2 JP 7420971 B2 JP7420971 B2 JP 7420971B2 JP 2022562359 A JP2022562359 A JP 2022562359A JP 2022562359 A JP2022562359 A JP 2022562359A JP 7420971 B2 JP7420971 B2 JP 7420971B2
Authority
JP
Japan
Prior art keywords
image
area
region
human body
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022562359A
Other languages
English (en)
Other versions
JP2023521208A (ja
Inventor
▲曉▼坤 ▲劉▼
文▲ユ▼ 秦
Original Assignee
北京達佳互▲れん▼信息技術有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 北京達佳互▲れん▼信息技術有限公司 filed Critical 北京達佳互▲れん▼信息技術有限公司
Publication of JP2023521208A publication Critical patent/JP2023521208A/ja
Application granted granted Critical
Publication of JP7420971B2 publication Critical patent/JP7420971B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

(関連する出願の援用)
本開示は、2020年06月16日に中国特許庁に提出された出願番号202010547139.3、発明名称「人体画像処理方法、人体画像処理装置、電子機器および記憶媒体」の中国特許出願の優先権を主張し、その全ての内容は参照により本開示に援用する。
本開示は、画像処理の分野に関し、特に人体画像処理方法および電子機器に関するものである。
画像技術の発展に伴い、端末装置は、生中継または撮影中に収集された画像に対して美顔を行い、例えば画像におけるニキビ跡、あざ、シミなどの顔面瑕疵の除去を実現することができる。
本開示の実施例は、人体画像処理方法および電子機器を提供する。
本開示の実施例による技術案は、以下の通りである。
側面によれば、
処理すべき人体画像における初期候補領域を確定し、前記処理すべき人体画像に対して第1フィルタリング処理を行うことにより、第1フィルタリング画像を得て、前記第1フィルタリング画像における前記初期候補領域に対応する第1フィルタリング候補領域を確定し、ここで、前記初期候補領域は、指定領域を含まない皮膚領域であり、前記指定領域は、処理を必要としない予め設定された領域であることと、
前記初期候補領域と第1フィルタリング候補領域において各対応する画素点間の階調値の差に基づいて、前記処理すべき人体画像における初期候補領域を瑕疵皮膚領域と非瑕疵皮膚領域に区分することと、
前記瑕疵皮膚領域と前記非瑕疵皮膚領域内の各画素点の第1融合係数を確定し、前記第1融合係数に基づいて、前記瑕疵皮膚領域および前記非瑕疵皮膚領域のそれぞれを、前記第1フィルタリング候補領域において対応する領域と線形融合処理し、処理後の前記瑕疵領域と前記非瑕疵領域とを統合した後に前記処理すべき人体画像における中間候補領域とすることと、
前記初期候補領域と前記中間候補領域において各対応する画素点間の階調値の差に基づいて、前記中間候補領域に対して線形光重合処理を行うことにより、ターゲット候補領域を取得し、前記ターゲット候補領域を含む前記処理すべき人体画像をターゲット画像として出力することと、を含む、人体画像処理方法に関する。
別の側面によれば、
実行可能な命令を記憶するためのメモリと、
メモリに記憶された実行可能な命令を読み出して実行することにより、上記人体画像処理方法を実現するプロセッサと、を含む、電子機器に関する。
別の側面によれば、命令が記憶されたコンピュータ可読記憶媒体に関し、前記コンピュータ可読記憶媒体に記憶された命令が電子機器によって実行されるときに、上記人体画像処理方法を前記電子機器に実行させることができる。
本開示の実施例における受信された処理すべき人体画像の概略図である。 本開示の実施例における処理すべき人体画像の処理が完了した後に得られた画像の概略図である。 本開示の実施例における画像最適化の概略フローチャートである。 本開示の実施例における標準顔特徴点画像を確定する概略図である。 本開示の実施例における対応して確立された標準マスク画像の概略図である。 本開示の実施例における第1マスク画像の概略図である。 本開示の実施例における最適化された処理すべき人体画像の概略図である。 本開示の実施例における画像最適化を実行する電子機器の概略論理構造図である。 本開示の実施例における画像最適化を実行する電子機器の概略エンティティ構造図である。
画像技術の発展に伴い、端末装置は、生中継または撮影中に収集された画像に対して美顔を行い、例えば画像におけるニキビ跡、あざ、シミなどの顔面瑕疵の除去を実現することができる。関連技術において、顔面瑕疵に対する処理は、以下のようないくつかの方法がある。
第1の方法では、特定のニキビ除去アルゴリズムを採用することにより、ニキビ跡などの顔面瑕疵の除去を実現する。
しかしながら、ニキビ除去アルゴリズムによる計算の複雑さのため、顔面瑕疵の除去に一定の処理時間が必要であり、現在、第1の方法は、写真撮影のみに使用され、リアルタイムで行われる生中継やビデオ通話には適用できない。
第2の方法では、美肌補正を行って、美肌補正動作の処理レベルを調整することにより、顔面瑕疵の除去を実現する。
しかしながら、図1と図2を参照すると、生中継またはビデオ通話をリアルタイムで行う過程で、図1に示すようなオリジナル画像が収集され、画像の美肌補正レベルを調整しない場合、顔面瑕疵に対して軽く改善処理を行うだけであり、顔面瑕疵の除去を実現するには美肌補正レベルを高くする必要があり、このようにすると、顔面瑕疵を除去した上で肌テクスチャを除去し、図2に示すような処理効果を生んで、明らかに、高い美肌補正レベルで処理された画像の顔の皮膚をつるつるとした純色に近くし、深刻な塗布跡が存在し、画像を明らかに歪ませる。
第3の方法では、PS(Photoshop)技術を採用して、双曲線美肌補正方法に基づいて、処理すべき画像をグレースケール図に変換し、比較的に、顔面瑕疵部分はグレースケール図において階調値の小さい暗部として表示され、正常な皮膚領域は階調値の大きい明部として表示されるため、双曲線美肌補正により、暗部と明部のコントラストをより明確にし、この後、暗部に対応する顔面瑕疵を手動で除去する。
第3の方法を採用すると、人工的な処理に依存して、1枚の画像を処理するのに多くの時間がかかり、リアルタイムで行われる生中継またはビデオ通話中に顔面瑕疵の除去を実現することができない。
そこで、本開示の実施例において、処理すべき人体画像における初期候補領域を確定し、前記処理すべき人体画像に対して第1フィルタリング処理を行うことにより、第1フィルタリング画像を得て、前記第1フィルタリング画像における前記初期候補領域に対応する第1フィルタリング候補領域を確定し、この後、前記初期候補領域と第1フィルタリング候補領域において各対応する画素点間の階調値の差に基づいて、前記処理すべき人体画像における初期候補領域を瑕疵皮膚領域と非瑕疵皮膚領域に区分し、さらに確定された第1融合係数に基づいて、前記瑕疵皮膚領域および前記非瑕疵皮膚領域を、前記第1フィルタリング候補領域において対応する領域と線形融合処理し、処理後の瑕疵領域と処理後の非瑕疵領域とを統合した後に前記処理すべき人体画像における中間候補領域とし、さらに前記初期候補領域と前記中間候補領域において各対応する画素点間の階調値の差に基づいて、前記中間候補領域に対して線形光重合処理を行うことにより、ターゲット候補領域を取得し、前記ターゲット候補領域を含む前記処理すべき人体画像をターゲット画像として出力する。
本開示では、本開示に係る方法を実行できる処理装置は、サーバまたは処理能力を有する他の端末装置を含み、ここで、前記端末装置は、携帯電話、コンピュータ、処理能力のあるカメラ装置などを含むが、これらに限定されない。
本開示では、まず、処理すべき人体画像における処理が必要な初期画像領域を確定し、前記処理すべき人体画像における処理しないことが望ましい部分、またはわずかに処理した部分に対してそれぞれマスクを行うことにより、対応するマスク画像を取得し、例えば、顔部の顔面瑕疵だけを処理する必要がある場合、処理しない顔部器官領域およびわずかに処理した面部器官エッジ領域に対して、標準マスク画像を予め作成し、前記標準マスク画像における異なる領域の画素点に対して、異なる階調値を設定し、ここで、異なる領域内の画素点に対して設定された階調値の大きさは、異なる領域内の画素点に対する処理の程度の強弱を特徴づける。
さらに、処理すべき人体画像を取得した後、予め作成された基礎マスク画像および肌色検出技術に基づいて、前記処理すべき人体画像に対応する第1マスク画像および第2マスク画像を確定し、ひいては前記第1マスク画像および前記第2マスク画像における画素点を選別し、選別された画素点からなる領域を前記処理すべき人体画像における処理が必要な初期候補領域と確定する。
同時に、得られた前記処理すべき人体画像に対して第1フィルタリング処理および第2フィルタリング処理をそれぞれ行うことにより、対応する第1フィルタリング画像および第2フィルタリング画像を得て、言い換えれば、人体画像に対して異なる程度のフィルタリングを行うことにより、第1フィルタリング画像および第2フィルタリング画像を得る。次に、前記第1フィルタリング画像における前記初期候補領域に対応する第1フィルタリング候補領域、および前記第2フィルタリング画像における前記初期候補領域に対応する第2フィルタリング候補領域を確定し、ひいては前記第1フィルタリング画像における第1フィルタリング候補領域および前記処理すべき人体画像における初期候補領域を線形融合することにより、前記処理すべき人体画像における中間候補領域を得る。
さらに前記処理すべき人体画像における初期候補領域と前記処理すべき人体画像における中間候補領域において各対応する画素点の階調値の差に基づいて、前記処理すべき人体画像における中間候補領域に対して線形光重合を行うことにより、ターゲット候補領域を取得し、ここで、初期候補領域と中間候補領域において各対応する画素点とは、初期候補領域と中間候補領域において各位置が同じ画素点を指す。さらに、出力した画像の真正性を保証するために、選択肢の一つとして、ターゲット候補領域を含む前記処理すべき人体画像を前記第2フィルタリング画像と線形融合することにより、リアルな質感のターゲット画像を得る。
以下、図3を参照して、本開示の選択可能な実施例を詳細に説明し、本開示の実施例は、サーバ、または処理能力を有する他の端末装置によって実行される
301において、処理すべき人体画像における初期候補領域を確定する。
収集した処理すべき人体画像を取得した後、前記処理すべき人体画像をInputImageとし、さらに前記処理すべき人体画像における初期候補領域を確定し、前記初期候補領域を確定するプロセスは、以下の通りである。
S1において、前記処理すべき人体画像に対応する第1マスク画像および第2マスク画像を確定する。
肌色検出技術を採用して、前記処理すべき人体画像に対応する第1マスク画像を取得し、予め配置された標準マスク画像をツイストマッピング(Warpマッピング)することにより、前記処理すべき人体画像に対応する第2マスク画像を得て、ここで、前記標準マスク画像における異なる領域の画素点は、異なる階調値に設定され、異なる階調値は、予め設定された異なる処理係数を特徴づける。
いくつかの実施例では、まず、肌色検出技術を採用して前記処理すべき人体画像を検出し、前記処理すべき人体画像における皮膚領域と非皮膚領域を識別し、第1マスク画像を取得し、言い換えれば、当該人体画像に対して肌色検出を行うことにより、人体画像における皮膚領域と非皮膚領域を区分するための第1マスク画像を得て、ここで、前記第1マスク画像における各画素点の階調値は、識別された前記処理すべき人体画像において当該画素点の相対位置と同じ箇所が皮膚である確率値を特徴付ける。
さらに、予め配置された標準マスク画像をツイストマッピングすることにより、前記処理すべき人体画像に対応する第2マスク画像を得て、ここで、前記標準マスク画像における異なる領域の画素点は、異なる階調値に設定され、異なる階調値は、予め設定された異なる処理係数を特徴づけ、なお、標準マスク画像における同じ領域の画素点は、同じ階調値に設定される
いくつかの実施例では、第2マスク画像を取得する前に、予め設定された顔特徴点識別モデルを用いて、前記処理すべき人体画像における候補顔特徴点を識別する。また、予め顔特徴点識別モデルを用いて標準人体画像を識別することにより、標準人体特徴点画像を取得する。次に、実際の処理ニーズに応じて、処理しない画像領域を確定し、例えば、眉毛、目、口、涙袋、鼻孔、小鼻、顎ライン、目袋、法令線などの標準人体特徴点によって確定された顔特徴が存在する領域を、処理しない画像領域として選択的に設定する。そして、処理ニーズに応じて、前記処理しない画像領域内の画素点の階調値を設定して、標準マスク画像を確立する。
いくつかの実施例では、後述する前記処理すべき人体画像の処理完了時に、処理しない画像領域に明らかな割れ目が存在することを回避するとともに、処理を必要とする画像領域と処理しない画像領域との間の自然な遷移を保証するために、前記処理を必要とする画像領域と前記処理しない画像領域のエッジには階調値をインクリメントさせ、前記エッジに対する適切な処理を実現する。
いくつかの実施例では、標準マスク画像を配置する場合、標準マスク画像における各画素点の階調値を0~1の値に設定し、通常、階調値が 1の画像領域は処理しない領域として設定され、階調値が0の領域は最も高度に処理され、階調値が小さいほど、対応する処理の程度が高くなり、標準マスク画像が確立され、ここで、前記処理の程度のレベルは、線形融合を行う場合の線形融合係数の大きさに現れ、線形融合係数に基づく画像間の線形融合の詳細について、後続のフローで説明し、ここでは説明しない。
例えば、図4と図5を参照し、予め顔特徴点識別モデルに基づいて、図4に示された標準顔特徴点画像を確立、処理しない領域が眉毛、目、鼻孔、唇、目尻であることを例に挙げて、前記眉毛、目、鼻孔、唇、目尻が存在する領域の画素点の階調値を1に設定すると仮定すると、図5の白色領域として表示され、前記眉毛、目、鼻孔、唇、目尻のエッジ領域を、階調値が1から0にグラデーションした領域に適応的に設定し、例えば0.8、0.7、0.65から徐々に0にグラデーションして、図5に示された標準マスク画像を得る。
さらに、予め設定された顔特徴点識別モデルを用いて、前記処理すべき人体画像における候補顔特徴点を識別し、次に、予め配置された標準顔特徴点画像および標準マスク画像を取得し、前記候補顔特徴点と前記標準顔特徴点との対応関係に基づいて、前記標準マスク画像をツイストマッピングすることにより、前記処理すべき人体画像に対応する第2マスク画像を得る。
なお、候補顔特徴点と標準顔特徴点との対応関係とは、人体画像における各候補顔特徴点と標準顔特徴点画像における標準顔特徴点とのマッピング関係を指し、さらに、各ペアになる特徴点のマッピング関係に基づいて、標準マスク画像をツイストマッピングすることにより、第2マスク画像を得る。
いくつかの実施例では、前記処理すべき人体画像における候補顔特徴点を識別した後、前記候補顔特徴点を、予め配置された前記標準顔特徴点画像と比較して、人体画像における各候補顔特徴点と前記標準顔特徴点画像における標準顔特徴点とのマッピング関係を確立し、次に、ツイストマッピング(Warp)方式を採用して、前記マッピング関係に基づいて、標準マスク画像をツイストマッピングすることにより当該マスク画像を得る。
なお、本開示の実施例において、標準マスク画像は、標準顔特徴点画像上でマスク被覆を行った後に得られる。ここで、前記第2マスク画像は、前記標準マスク画像のマスクマッピングに基づいて得られ、前記第2マスク画像は、処理すべき人体画像における異なる画像領域の処理の程度を示すために使用され、前記第1マスク画像における対応する領域の画素点の階調値をSkinMaskと表記し、前記第1マスク画像は、肌色検出技術に基づいて前記処理すべき人体画像を検出した後に生成され、前記肌色検出技術は、画像を識別することにより、画像における各画素点が肌であるかどうかを判断するための確率値を出力することができ、本開示の実施例において、前記肌色検出技術の前記処理すべき人体画像における各画素点または各領域に対する確率値を、当該画素点または当該領域内の画素点の階調値として、前記第1マスク画像を確立し、前記第2マスク画像における対応する領域の画素点の階調値をOrganMaskと表記し、前記第2マスク画像における各画素点の階調値は、0~1の間である。
S2において、第1マスク画像と第2マスク画像に基づいて前記処理すべき人体画像における初期候補領域を選別する。
まず、第1マスク画像と第2マスク画像を確定した後、第1種の画素点として、前記第1マスク画像における階調値が予め設定された第1階調閾値より低い画素点を選別し、第2種の画素点として、前記第2マスク画像における階調値が予め設定された第2階調閾値より高い画素点を選別する。
言い換えれば、第1マスク画像から選別することにより、第1種の画素点を得て、第1種の画素点の階調値は、第1階調閾値より低く、第2マスク画像から選別することにより、第2種の画素点を得て、第2種の画素点の階調値は、第2階調閾値より高い。
次に、前記第1種の画素点の前記処理すべき人体画像における対応する領域を第1指定領域とし、前記第2種の画素点の前記処理すべき人体画像における対応する領域を第2指定領域とし、さらに前記処理すべき人体画像において前記第1指定領域および前記第2指定領域を含まない他の領域を初期候補領域として設定し、ここで、第1指定領域は、人体画像において第1種の画素点が示す領域であり、第2指定領域は、人体画像において第2種の画素点が示す領域である
例えば、図4~図6に示すように、前記処理すべき人体画像に対して顔特徴点識別を行った後、図5に示された標準マスク画像に基づいて、前記処理すべき人体画像に対応する第1マスク画像を得て、第1マスク画像における画素点の第1階調閾値を1に設定すると仮定すると、第1マスク画像における階調値が1より低い第1種の画素点が選別され、図6中の破線枠以外の顔領域(顔器官のエッジ領域を含む)に対応することができ、さらに肌色検出技術に基づいて、第2マスク画像を得て、第2マスク画像から階調値が予め設定された第2階調閾値より高い第2種の画素点を選別し、第2階調閾値を0に設定する場合、対応的に、図6中の顔皮膚、首皮膚を含むすべての皮膚領域を選別し、さらに、第1マスク画像から選別された前記顔領域の画素点(即ち第1種の画素点)と第2マスク画像から選別された皮膚領域の画素点(即ち第2種の画素点)のそれぞれに対応する分布領域とを統合し、処理が必要な前記処理すべき人体画像における初期候補領域を得る。
このようにすると、実際の処理ニーズに応じて、第1マスク画像と第2マスク画像の画素点を選別することにより、前記処理すべき人体画像における処理する必要がある初期候補領域を確定することができ、前記処理すべき人体画像における異なる領域画像に対するオーダーメイドの処理を実現し、第1マスク画像と第2マスク画像に基づいて画素点を選別することにより、対応的に顔器官を除くすべての皮膚領域を初期候補領域とし、画像処理の有効性と制御可能性を保証する。
302において、前記処理すべき人体画像に対して第1フィルタリング処理を行うことにより、第1フィルタリング画像を得て、前記第1フィルタリング画像における前記初期候補領域に対応する第1フィルタリング候補領域を確定し、ここで、前記初期候補領域は、指定領域を含まない皮膚領域であり、前記指定領域は、処理を必要としない予め設定された領域である。
収集した前記処理すべき人体画像を取得し、前記処理すべき人体画像に対して第1フィルタリング処理を行うことにより、前記処理すべき人体画像に対応する第1フィルタリング画像を得て、言い換えれば、第1フィルタリング方法で、人体画像に対してフィルタリングすることにより、第1フィルタリング画像を得て、ここで、前記第1フィルタリング方法は、平均値フィルタリング処理、ガウスフィルタリング処理、ガイドフィルタリング処理、および表面ぼかし処理を含むが、これらに限定されない。本開示では、これについて限定せず、ここでは説明しない。
いくつかの実施例では、前記処理すべき人体画像に対して第1フィルタリング処理を行う前に、前記処理すべき人体画像を指定された倍数でサブサンプリングし、さらにサブサンプリング後の前記処理すべき人体画像に基づいて第1フィルタリング処理を行うことにより、第1フィルタリング画像を得て、前記処理すべき人体画像および第1フィルタリング画像を処理する前に、得られた第1フィルタリング画像を前記指定された倍数でアップサンプリングすることにより、前記処理すべき人体画像のサイズと同じ画像を得る。
さらに、前記処理すべき人体画像における初期候補領域の前記処理すべき人体画像における位置に基づいて、前記第1フィルタリング画像における前記初期候補領域に対応する第1フィルタリング候補領域を確定し、ここで、初期候補領域に対応する第1フィルタリング候補領域とは、初期候補領域と同じ位置の第1フィルタリング候補領域を指し、言い換えれば、第1フィルタリング候補領域の第1フィルタリング画像における位置は、初期候補領域の人体画像における位置と同じである
例えば、前記処理すべき人体画像のサイズが168×1024で、予め設定された倍数が4倍に設定されると仮定すると、前記処理すべき人体画像に対して4倍のサブサンプリングを行った後、前記処理すべき人体画像は、サイズ42×256の画像に圧縮され、前記サイズ42×256の画像に対して第1フィルタリング処理を行うことにより、第1フィルタリング画像を得て、次に得られたサイズ42×256の第1フィルタリング画像に対して4倍のアップサンプリングを行うことにより、サイズ168×1024の画像に復元し、前記処理すべき人体画像における初期候補領域の位置に基づいて、サイズ168×1024の第1フィルタリング画像から、前記初期候補領域と同じ位置の第1フィルタリング候補領域を確定する
このようにすると、一方、前記処理すべき人体画像のサイズを修正することなく、前記処理すべき人体画像におけるすべての画素点に対して直接に第1フィルタリング処理を行い、画像処理のきめ細かさを保証することができる。一方、前記処理すべき人体画像に対してサブサンプリングとアップサンプリングを行うことにより、処理時間を減少させ、リアルタイムで画像処理を行うことを保証するとともに、画像処理の効率を向上させる。
303において、初期候補領域と第1フィルタリング候補領域において各対応する画素点間の階調値の差に基づいて、前記処理すべき人体画像における初期候補領域を瑕疵皮膚領域と非瑕疵皮膚領域に区分する。
前記処理すべき人体画像における初期候補領域および第1フィルタリング画像における第1フィルタリング候補領域を確定した後、前記初期候補領域と第1フィルタリング候補領域において各対応する画素点間の階調値の差に基づいて、前記処理すべき人体画像における初期候補領域を瑕疵皮膚領域と非瑕疵皮膚領域に区分する。
いくつかの実施例では、前記初期候補領域および前記第1フィルタリング候補領域において相対位置が同じである2つの画素点を1組の画素点とし、画素点の組ごとの階調値の差に基づいて、前記初期候補領域内の瑕疵皮膚領域と非瑕疵皮膚領域を区分する。
以下、前記処理すべき人体画像の初期候補領域に存在する画素点Xと第1フィルタリング画像の第1フィルタリング候補領域に存在する画素点X1を例に挙げて説明し、ここで、画素点Xと画素点X1の画像における位置の座標は、同じである
前記画素点Xと画素点X1との間の階調の差を計算し、DiffImage1と表記し、前記DiffImage1の値が0より小さいと確定した場合、前記画素点Xと画素点X1を1組の瑕疵画素点としてマークし、対応的に瑕疵マスク画像を設定し、DarkMaskと表記し、且つ前記1組の瑕疵画素点を設定し、瑕疵画素点Xと瑕疵画素点X1の前記瑕疵マスク画像における対応する位置の画素点の階調値は1であり、他の位置の画素点の階調値は0に設定される。逆に、前記DiffImage1の値が0より大きいいと確定した場合、前記画素点Xと画素点X1を1組の非瑕疵画素点としてマークし、対応的に非瑕疵マスク画像を設定し、BrightMaskと表記し、且つ前記1組の非瑕疵画素点を設定し、非瑕疵画素点Xと非瑕疵画素点X1の前記非瑕疵マスク画像における対応する位置の画素点の階調値は1であり、他の位置の画素点の階調値は0である。
さらに、前記処理すべき人体画像の初期候補領域において瑕疵画素点によって確定された領域を瑕疵皮膚領域に設定し、非瑕疵画素点によって確定された領域を非瑕疵皮膚領域に設定する。
なお、前記処理すべき人体画像について、前記処理すべき人体画像における顔のニキビ、斑、あざなどの顔の瑕疵に対応して、前記処理すべき人体画像のグレースケール図では通常に階調値の低い画素点として表現され、第1フィルタリング画像は、通常に、高度にぼやけた画像として処理され、即ち、第1フィルタリング画像において、各画素点の階調値は、通常の皮膚の階調値より小さく、且つ近似的に同じであってもよく、さらに、前記処理すべき人体画像の初期候補領域における各画素点の階調値と、第1フィルタリング画像の第1候補領域内の画素点の階調値との大小関係を比較することにより、前記処理すべき人体画像の初期候補領域を、瑕疵皮膚領域と非瑕疵皮膚領域とに区分する。
304において、瑕疵皮膚領域と非瑕疵皮膚領域内の各画素点の第1融合係数を確定し、前記第1融合係数に基づいて、前記瑕疵領域および前記非瑕疵領域のそれぞれを、前記第1フィルタリング候補領域において対応する領域と線形融合処理し、処理後の前記瑕疵領域と前記非瑕疵領域とを統合した後に前記処理すべき人体画像における中間候補領域とする。
言い換えれば、304において、瑕疵皮膚領域と非瑕疵皮膚領域内の各画素点の第1融合係数を確定し、前記第1融合係数に基づいて、前記瑕疵皮膚領域および前記非瑕疵皮膚領域のそれぞれを、前記第1フィルタリング候補領域において位置が同じ領域と線形融合することにより、処理後の瑕疵領域と処理後の非瑕疵領域を得て、処理後の瑕疵領域と処理後の非瑕疵領域とを統合することにより、中間候補領域を得る。
前記処理すべき人体画像の初期候補領域における瑕疵皮膚領域と非瑕疵皮膚領域を確定した後、前記初期候補領域における各画素点に対応して予め設定された処理係数に基づいて、前記瑕疵皮膚領域および前記非瑕疵皮膚領域における各画素点の第1融合係数をそれぞれ確定し、さらに前記第1融合係数に基づいて前記初期候補領域における瑕疵皮膚領域および非瑕疵皮膚領域と前記第1フィルタリング画像における第1フィルタリング候補領域との線形融合を実現する。
いくつかの実施例では、以下の2つの実施形態により、本開示の実施において、前記瑕疵領域および前記非瑕疵領域を、前記第1フィルタリング候補領域において対応する領域と線形融合する処理プロセスを説明する。
形態1として、取得した前記処理すべき人体画像を直接に処理する。
前記処理すべき人体画像を取得した後、前記処理すべき人体画像のサイズを調整することなく、前記処理すべき人体画像に対して直接に第1フィルタリング処理を行うことにより、第1フィルタリング画像を得て、前記処理すべき人体画像における初期候補領域に対応した、前記第1フィルタリング画像における第1フィルタリング候補領域を確定し、前記初期候補領域と前記第1フィルタリング候補領域における各画素点の階調値に基づいて、前記初期候補領域を瑕疵皮膚領域と非瑕疵皮膚領域に区分し、さらに対応する瑕疵マスク画像と非瑕疵マスク画像を確定する。
なお、本開示の実施例において、前記第1フィルタリング画像が前記処理すべき人体画像に対して第1フィルタリング処理を行った後に得られるので、前記第1フィルタリング画像が、前記処理すべき人体画像における各画素点に必然的に1対1で対応し、且つ前記処理すべき人体画像に第1マスク画像と第2マスク画像が対応して設定され、前記処理すべき人体画像における瑕疵皮膚領域と非瑕疵皮膚領域が、それぞれ瑕疵皮膚マスク画像と非瑕疵皮膚マスク画像に対応するので、サイズが同じ第1フィルタリング画像、処理すべき人体画像、第1マスク画像、第2マスク画像、瑕疵マスク画像及び非瑕疵マスク画像の間に、相対位置が同じである画素点の間に関連性があり、相対位置が同じであることは、同じ方向を向いている異なる画像が同じ位置に配置されている場合、ある固定基準物に対して同じ位置にある画素点として記述する。
本開示の実施例において、前記瑕疵皮膚領域および前記非瑕疵皮膚領域において、前記第1フィルタリング候補領域内の相対位置と同じである2つの画素点を1組の画素点とし、ここで、前記第1フィルタリング候補領域において前記瑕疵皮膚領域内の相対位置と同じである1組の画素点に対応する配置パラメータは、前記第1フィルタリング領域において前記非瑕疵皮膚領域内の相対位置と同じである1組の画素点に対応する配置パラメータと異なり、前記配置パラメータは、瑕疵皮膚領域および非瑕疵皮膚領域に対する処理の程度を特徴づける。
さらに、画素点の組ごとに、以下の動作をそれぞれ実行し、即ち、1組の画素点間のユークリッド距離を計算し、前記ユークリッド距離、前記1組の画素点の前記第1マスク画像における対応する画素点の階調値、前記1組の画素点の前記第2マスク画像における対応する処理係数、および予め設定された配置パラメータに基づいて、前記1組の画素点に対応する第1融合係数を確定し、さらに前記第1融合係数に基づいて、前記1組の画素点を1つの画素点に融合する。ここで、第1マスク画像は、人体画像に対して肌色検出を行うことにより得られ、第2マスク画像は、標準マスク画像をツイストマッピングすることにより得られる。
以下、前記初期候補領域における瑕疵皮膚領域内にある任意の画素点Yと、前記第1フィルタリング候補領域において前記画素点Yに対応する位置にある同一の画素点Y1とを例に挙げて、瑕疵皮膚領域内の画素点と第1フィルタリング候補領域の画素点とを線形融合するプロセスを説明する。
Figure 0007420971000001
ここで、FlawImage1は、画素点Yと画素点Y1とを線形融合処理した後に得られた前記処理すべき人体画像における中間候補領域内の対応する画素点の階調値を表し、InputImageは、前記処理すべき人体画像の瑕疵皮膚領域内に存在する画素点Yの階調値を表し、BlurImageは、第1フィルタリング画像の第1フィルタリング候補領域内にある画素点Y1の階調値を表し、
Figure 0007420971000002
は、第1融合係数であり、ここで、DarkMaskは、画素点Yの瑕疵マスク画像における対応する画素点の階調値、即ち1を表し、aとbは、瑕疵皮膚領域の画素点に対して予め設定された処理係数であり、実際の処理ニーズに応じて調整され、本開示の実施例において、aは4を取り、bは0.5を取り、MixAlphaは、中間処理係数であり、MixAlphaの計算プロセスは、以下の通りであり、即ち、
Figure 0007420971000003
ここで、MixAlphaは、第1融合係数であり、BlurImageは、第1フィルタリング画像における画素点Y1の階調値を表し、InputImageは、前記処理すべき人体画像において前記画素点Y1に対応する画素点Yの階調値を表し、distance(BlurImage、InputImage)は、画素点YとY1とのユークリッド距離を表し、OrganMaskは、第2マスク画像において画素点YとY1に対応する画素点の階調値を表し、SkinMaskは、第1マスク画像において画素点YとY1に対応する画素点の階調値を表す。
さらに、前記処理すべき人体画像の初期候補領域における瑕疵皮膚領域の画素点と第1フィルタリング画像との線形融合が完了した後、前記初期候補領域における非瑕疵皮膚領域に対して線形融合動作を行う。
以下、前記初期候補領域における非瑕疵皮膚領域内にある任意の画素点Zと、前記第1フィルタリング候補領域において前記画素点Zに対応する位置にある同一の画素点Z1とを例に挙げて、非瑕疵皮膚領域内の画素点と第1フィルタリング候補領域の画素点とを線形融合するプロセスを説明する。
Figure 0007420971000004
ここで、FlawImage1は、瑕疵皮膚領域の線形融合処理が完了した前記処理すべき人体画像における対応する画素点Zの階調値を表し、BlurImageは、第1フィルタリング画像における対応する画素点Z1の階調値を表し、FlawImage1′は、瑕疵領域の線形融合処理が完了した前記処理すべき人体画像における非瑕疵皮膚領域内の画素点の線形融合後の階調値を表し、
Figure 0007420971000005
は、第1融合係数であり、DarkMaskは、前記非瑕疵画素点Zの非瑕疵マスク画像における対応する画素点の階調値、即ち1を表し、cは、瑕疵皮膚領域内の画素点に対して予め設定された処理係数であり、実際の処理ニーズに応じて調整されることができ、本開示において、値は0.1を取り、MixAlphaの計算方法は、上述瑕疵皮膚領域の計算方法と同様であり、ここでは説明しない。
形態2として、サブサンプリングとアップサンプリングの連携処理を用いて前記処理すべき人体画像を処理する。
前記処理すべき人体画像を取得した後に、前記処理すべき人体画像を指定された倍数でサブサンプリングした後、サブサンプリング処理すべき人体画像を得て、前記サブサンプリング処理すべき人体画像に対して第1フィルタリング処理を行うことにより、第1フィルタリング画像を得て、前記サブサンプリング処理すべき人体画像における初期候補領域に対応した、前記第1フィルタリング画像における第1フィルタリング候補領域を確定する。さらに、前記第1フィルタリング画像とサブサンプリング処理すべき人体画像のそれぞれに対応する画素点間の階調値に基づいて、前記サブサンプリング処理すべき人体画像における瑕疵皮膚領域と非瑕疵皮膚領域を確定し、同時に対応する瑕疵マスク画像と非瑕疵マスク画像を確定する。
さらに、得られた瑕疵マスク画像、非瑕疵マスク画像、第1フィルタリング画像を前記指定された倍数でアップサンプリング処理することにより、前記処理すべき人体画像のサイズと同じ画像を得る。
なお、本開示の実施例において、前記第1フィルタリング画像が前記処理すべき人体画像に対して第1フィルタリング処理を行った後に得られるので、前記第1フィルタリング画像が、前記処理すべき人体画像における各画素点に必然的に1対1で対応し、且つ前記処理すべき人体画像に第1マスク画像と第2マスク画像が対応して設定され、前記処理すべき人体画像における瑕疵皮膚領域と非瑕疵皮膚領域が、それぞれ瑕疵マスク画像と非瑕疵マスク画像に対応するので、サイズが同じ第1フィルタリング画像、処理すべき人体画像、第1マスク画像、第2マスク画像、瑕疵マスク画像及び非瑕疵マスク画像の間に、相対位置が同じである画素点の間に関連性があり、相対位置が同じであることは、同じ方向を向いている異なる画像が同じ位置に配置されている場合、ある固定基準物に対して同じ位置にある画素点として記述する。
本開示の実施例において、前記瑕疵皮膚領域および前記非瑕疵皮膚領域において、前記第1フィルタリング候補領域内の相対位置と同じである2つの画素点を1組の画素点とし、ここで、前記第1フィルタリング候補領域において前記瑕疵皮膚領域内の相対位置と同じである1組の画素点に対応する配置パラメータは、前記第1フィルタリング領域において前記非瑕疵皮膚領域内の相対位置と同じである1組の画素点に対応する配置パラメータと異なり、前記配置パラメータは、瑕疵皮膚領域および非瑕疵皮膚領域に対する処理の程度を特徴づける。さらに、画素点の組ごとに、以下の動作をそれぞれ実行し、即ち、1組の画素点間のユークリッド距離を計算し、前記ユークリッド距離、前記1組の画素点の前記第1マスク画像における対応する画素点の階調値、前記1組の画素点の前記第2マスク画像における対応する処理係数、および予め設定された配置パラメータに基づいて、前記1組の画素点に対応する第1融合係数を確定し、さらに前記第1融合係数に基づいて、前記1組の画素点を1つの画素点に融合する。
さらに、形態1と同様処理方法により、計算して得られた第1融合係数に基づいて、前記初期候補領域における瑕疵皮膚領域と非瑕疵皮膚領域とを、第1フィルタリング画像における第1フィルタリング候補領域と線形融合処理することを実現し、ここでは説明しない。
このようにすると、前記第1フィルタリング画像における第1フィルタリング領域と前記処理すべき人体画像における瑕疵皮膚領域と非瑕疵皮膚領域との線形融合を実現し、そして、本開示の実施例において、瑕疵皮膚領域および非瑕疵皮膚領域に対して設定された処理係数が異なるので、瑕疵皮膚領域と非瑕疵皮膚領域の画素点を適切に調整することができ、前記処理すべき人体画像の初期候補領域における階調値の低い画素点に階調値を増加させることを実現し、具体的には、瑕疵皮膚領域内の画素点に対して増亮処理を行い、前記処理すべき人体画像における本来比較的明るい非瑕疵皮膚領域に対して適切な処理を行うことを実現し、これは皮膚の瑕疵部分が通常に明らかに暗い領域として表示されるため、線形融合の処理方法によって皮膚瑕疵部分の初期カバー処理を実現することができ、同時に、形態1の処理方法を用いることにより、元のサイズの前記処理すべき人体画像に基づいて操作し、前記処理すべき人体画像に対する細かい処理を実現することができ、形態2の処理方法を用いることにより、前記処理すべき人体画像を処理する過程において、サブサンプリングとアップサンプリングの連携により、前記処理すべき人体画像に対する迅速な処理を実現することができる。
305において、前記初期候補領域と前記中間候補領域において各対応する画素点間の階調値の差に基づいて、前記中間候補領域に対して線形光重合処理を行うことにより、ターゲット候補領域を取得し、前記ターゲット候補領域を含む前記処理すべき人体画像をターゲット画像として出力する。
前記処理すべき人体画像における初期候補領域を、第1フィルタリング画像における第1フィルタリング候補領域と線形融合した後、対応して前記処理すべき人体画像における中間候補領域を取得し、さらに、前記処理すべき人体画像における初期候補領域および前記処理すべき人体画像における中間候補領域において各対応する画素点の階調値をそれぞれに確定し、前記処理すべき人体画像における初期候補領域および前記処理すべき人体画像における中間候補領域において対応する画素点を1組の画素点とし、画素点の組ごとに、以下の動作をそれぞれ実行し、即ち、1組の画素点間の階調値の差を確定し、前記階調値の差に基づいて前記処理すべき人体画像における中間候補領域を線形光重合する。さらに、前記中間候補領域において線形光重合処理された後の画素点に基づいて、前記処理すべき人体画像におけるターゲット候補領域を得る。
つまり、初期候補領域と中間候補領域において各位置が同じ画素点間の階調値の差に基づいて、中間候補領域に対して線形光重合を行うことにより、ターゲット候補領域を取得する。
以下、1組の画素点、前記処理すべき人体画像における初期候補領域にある画素点M、および前記処理すべき人体画像における中間候補領域にある画素点Mcを例に挙げて説明する。
前記処理すべき人体画像における初期候補領域内の画素点Mの階調値と、上記303に係る線形融合結果とに基づいて、前記処理すべき人体画像における中間候補領域内の画素点Mcの階調値を確定し、画素点Mと画素点Mcとの階調値の差を計算し、DiffImage2と表記し、得られたDiffImage2に基づいて、前記中間候補領域内の画素点Mcを線形光重合処理し、具体的に実現するための式は、次の通りであり、即ち、
DiffImage2=FlawImage1'-InputImage+d。
ここで、前記FlawImage1’は、前記処理すべき人体画像の中間候補領域内の画素点Mcの階調値を表し、InputImageは、前記処理すべき人体画像の初期候補領域内の画素点Mの階調値を表し、dは、設定された調節パラメータであり、実際の処理ニーズに応じて調整されることができ、本開示において、値は適応的に0.5を取り、DiffImage2は、線形光重合処理するための基礎パラメータである。
FlawImage2=2.0*DiffImage2+FlawImage1'-1.0
ここで、FlawImage2は、画素点Mcを線形光重合処理した後に得られた前記処理すべき人体画像におけるターゲット候補領域において対応する画素点の階調値を表す。
このようにすると、前記処理すべき人体画像における中間候補領域内の画素点と前記処理すべき人体画像における初期候補領域において対応する画素点間の階調値の差に基づいて、線形光重合処理を採用して、前記処理すべき人体画像の中間候補領域における画素点の階調値をさらに調整することにより、瑕疵を除去した処理すべき人体画像を得る。
なお、本開示の実施例において、前記処理すべき人体画像における初期候補領域を確定した後、且つ前記処理すべき人体画像におけるターゲット候補領域を得る前に、前記処理すべき人体画像を設定された倍数でサブサンプリング処理し、さらに第2フィルタリング処理を行うことにより、前記処理すべき人体画像に対応する第2フィルタリング画像を得て、前記第2フィルタリング画像において前記処理すべき人体画像における初期候補領域に対応する第2フィルタリング候補領域を確定し、または、前記処理すべき人体画像に対して第2フィルタリング処理を行うことにより、第2フィルタリング画像を得て、前記第2フィルタリング画像において前記処理すべき人体画像における初期候補領域に対応する第2フィルタリング候補領域を確定する。さらに、前記第2フィルタリング画像における第2フィルタリング候補領域を、前記処理すべき人体画像におけるターゲット候補領域と線形融合処理することにより、前記処理すべき画像に対する処理が完了した後に得られた出力可能なターゲット画像を取得する。
さらに、設定された倍数でサブサンプリング処理された前記処理すべき人体画像について、第2フィルタリング処理を行うことにより第2フィルタリング画像を得た後に、前記第2フィルタリング画像と前記処理すべき人体画像のサイズが同じになるようにするために、得られた第2フィルタリング画像を前記設定された倍数で適応的にアップサンプリング処理する必要があり、ここで、前記第2フィルタリング処理の方法は、ガイドフィルタリング処理、ガウスフィルタリング処理などを実行することを含むが、これらに限定されない。
なお、本開示の実施例において、ガイドフィルタリングの処理方法を用いて、前記処理すべき人体画像に基づいて第2フィルタリング画像を得る場合、前記処理すべき人体画像をガイドマップおよび出力マップとして処理することにより、得られた第2フィルタリング画像がエッジ保存平滑化の特性を持つようにする。
前記第2フィルタリング画像における第2フィルタリング候補領域および前記処理すべき人体画像におけるターゲット候補領域がいずれも同一の処理すべき人体画像に基づいて得られるので、前記第2フィルタリング画像、前記処理すべき人体画像におけるターゲット候補領域が、前記処理すべき人体画像に基づいて得られた前記第2マスク画像と同様に対応する。
さらに、以下の式により、前記第2フィルタリング画像における第2フィルタリング候補領域内の画素点を、対応する前記処理すべき人体画像におけるターゲット候補領域内の画素点と線形融合する。
OutputImage=mix(FlawImage2,GFImage、SkinMask*BlurAlpha)
ここで、OutputImageは、処理後の前記処理すべき人体画像におけるターゲット候補領域に対応する画素点の階調値を表し、FlawImage2は、前記処理すべき人体画像におけるターゲット候補領域内のある画素点の階調値を表し、GFImageは、前記ある画素点に対応する前記第2フィルタリング画像における画素点の階調値を表し、SkinMaskは、第マスク画像における前記ある画素点に対応する画素点の階調値を表し、BlurAlphaは、予め設定された調整可能なパラメータであり、実際のニーズに応じて適応的に調節されることができる。
上記のプロセスでは、処理すべき人体画像に対してフィルタリングすることにより、当該第2フィルタリング画像を得て、処理すべき人体画像に対して肌色検出を行うことにより、第1マスク画像を得た後に、第1マスク画像とターゲット候補領域を含む人体画像において各位置が同じ画素点の階調値に基づいて、各画素点の第2融合係数を確定し、さらに、第2融合係数に基づいて、第2フィルタリング画像をターゲット候補領域を含む人体画像と線形融合することにより、ターゲット画像を取得し、さらにターゲット画像を出力する。
なお、本開示の実施例の実際の構成では、動画や生放送の応用シーンにおいて、取得した前記処理すべき人体画像がキャスターやインタラクティブビデオの画像である場合、人物の皮膚領域および設定された器官エッジ領域を初期候補領域とし、調整可能なパラメータBlurAlphaを設定して画像の調整を行い、BlurAlphaの値が大きいほど、対応して得られた出力画像における人物の肌の均一性が良くなり、BlurAlphaの値が小さいほど、対応して得られた出力画像における人物の肌テクスチャが多く残り、画像がよりリアルになり、例えばBlurAlphaの値を0.3とし、肌の均一性と真正性を両立させる。
このようにすると、図7に示された処理結果を得ることができ、図2と図7とを比較して分かるように、本開示による技術案では、皮膚領域の瑕疵を除去するとともに、皮膚のテクスチャを保証し、得られた画像をよりリアルにし、ガイドフィルタリングを採用することでエッジ保存されたフィルタリング画像を得ることができ、エッジ保存されたフィルタリング画像と線形融合することにより、処理後のターゲット画像に真実ではない塗り付け感が現れることを回避でき、処理後のターゲット画像が美観で自然であることを保証する
同一の発明概念に基づいて、図8に示すように、本開示の実施例において、人体画像処理装置800は、少なくとも確定ユニット801、区分ユニット802、処理ユニット803、および出力ユニット804を含み、ここで、
確定ユニット801は、処理すべき人体画像における初期候補領域を確定し、前記処理すべき人体画像に対してフィルタリングすることにより、第1フィルタリング画像を得て、前記第1フィルタリング画像における前記初期候補領域と同じ位置の第1フィルタリング候補領域を確定するように構成され、ここで、前記初期候補領域は、指定領域を含まない皮膚領域であり、前記指定領域は、処理を必要としない予め設定された領域である。
区分ユニット802は、前記初期候補領域と第1フィルタリング候補領域において各位置が同じ画素点間の階調値の差に基づいて、前記処理すべき人体画像における初期候補領域を瑕疵皮膚領域と非瑕疵皮膚領域に区分するように構成される
処理ユニット803は、前記瑕疵皮膚領域と前記非瑕疵皮膚領域内の各画素点の第1融合係数を確定し、前記第1融合係数に基づいて、前記瑕疵皮膚領域および前記非瑕疵皮膚領域のそれぞれを、前記第1フィルタリング候補領域において位置が同じ領域と線形融合し、処理後の瑕疵領域と処理後の非瑕疵領域とを統合した後に前記処理すべき人体画像における中間候補領域とするように構成される
出力ユニット804は、前記初期候補領域と前記中間候補領域において各位置が同じ画素点間の階調値の差に基づいて、前記中間候補領域に対して線形光重合を行うことにより、ターゲット候補領域を取得し、前記ターゲット候補領域を含む前記処理すべき人体画像をターゲット画像として出力するように構成される
いくつかの実施例では、前記確定ユニット801は、
肌色検出技術を採用して、処理すべき人体画像に対して肌色検出を行うことにより、前記処理すべき人体画像に対応する第1マスク画像を取得し、予め配置された標準マスク画像をツイストマッピングすることにより、前記処理すべき人体画像に対応する第2マスク画像を得るために使用され、ここで、前記標準マスク画像における異なる領域の画素点は、異なる階調値に設定され、異なる階調値は、予め設定された異なる処理係数を特徴づけ、
第1種の画素点として、前記第1マスク画像における階調値が予め設定された第1階調閾値より低い画素点を選別し、第2種の画素点として、前記第2マスク画像における階調値が予め設定された第2階調閾値より高い画素点を選別し、
前記第1種の画素点の前記処理すべき人体画像における対応する領域を第1指定領域とし、前記第2種の画素点の前記処理すべき人体画像における対応する領域を第2指定領域とし、
前記処理すべき人体画像において前記第1指定領域および前記第2指定領域を含まない他の領域を初期候補領域として設定する、ように構成される
いくつかの実施例では、前記確定ユニット801は、
予め設定された顔特徴点識別モデルを用いて、前記処理すべき人体画像における候補顔特徴点を識別し、
予め配置された標準顔特徴点画像および標準マスク画像を取得し、前記候補顔特徴点と前記標準顔特徴点画像における標準顔特徴点とのマッピング関係に基づいて、前記標準マスク画像をツイストマッピングすることにより、前記処理すべき人体画像に対応する第2マスク画像を得る、ように構成される
いくつかの実施例では、前記処理ユニット803は、さらに、
前記処理すべき人体画像を指定された倍数でサブサンプリング処理
得られた第1フィルタリング画像を前記指定された倍数でアップサンプリングする、ように構成される。
いくつかの実施例では、前記処理ユニット803は、さらに、
前記初期候補領域における各画素点に対して予め設定された処理係数に基づいて、前記瑕疵皮膚領域および前記非瑕疵領域における各画素点の第1融合係数をそれぞれ確定するように構成される
いくつかの実施例では、前記処理ユニット803は、さらに、
前記瑕疵皮膚領域および前記非瑕疵皮膚領域において、前記第1フィルタリング候補領域内の相対位置と同じである2つの画素点を1組の画素点とするように構成され、ここで、前記第1フィルタリング候補領域において前記瑕疵皮膚領域内の相対位置と同じである1組の画素点に対応する配置パラメータは、前記第1フィルタリング候補領域において前記非瑕疵皮膚領域内の相対位置と同じである1組の画素点に対応する配置パラメータと異なり、前記配置パラメータは、瑕疵皮膚領域および非瑕疵皮膚領域に対する処理の程度を特徴づけ、
画素点の組ごとに、以下の動作をそれぞれ実行し、即ち、
1組の画素点間のユークリッド距離を計算し、前記ユークリッド距離、前記1組の画素点の前記第1マスク画像における対応する画素点の階調値、前記1組の画素点の前記第2マスク画像における対応する処理係数、および予め設定された配置パラメータに基づいて、前記1組の画素点に対応する第1融合係数を確定し、前記第1マスク画像は、前記人体画像に対して肌色検出を行うことにより得られ、前記第2マスク画像は、標準マスク画像をツイストマッピングすることにより得られ、
前記第1融合係数に基づいて、前記1組の画素点を1つの画素点に融合する。
いくつかの実施例では、前記出力ユニット804は、さらに、前記処理すべき人体画像に対してフィルタリングすることにより、第2フィルタリング画像を得て、
前記第1マスク画像において前記ターゲット候補領域を含む前記処理すべき人体画像に対応する各画素点の階調値に基づいて、各画素点の第2融合係数を確定し、前記第2融合係数に基づいて前記第2フィルタリング画像を前記ターゲット候補領域を含む前記処理すべき人体画像と線形融合することにより、処理後の前記処理すべき人体画像を取得しターゲット画像として出力するように構成される
同一の発明概念に基づいて、図9に示すように、人体画像処理装置900は、サーバまたは処理機能を有する端末装置である。図9を参照すると、装置900は、1つ以上のプロセッサをさらに含む処理コンポーネント922と、処理コンポーネント922によって実行可能な命令、例えばアプリケーションプログラムを記憶するためのメモリ932で表されるメモリリソースとを含む。メモリ932に記憶されたアプリケーションプログラムは、それぞれが1組の命令に対応する1つ以上のモジュールを含。また、処理コンポーネント922は、命令を実行することにより上記方法を実行するように構成される。
装置900は、装置900の電源管理を実行するように構成される電源コンポーネント926と、装置900をネットワークに接続するように構成される有線又は無線ネットワークインターフェース950と、入出力(I/O)インターフェース958とをさらに含。装置900は、例えばWindows Server TM、Mac OS X TM、UnixTM、Linux(登録商標) TM、FreeBSD TM又は類似するものなどのメモリ932に記憶されたオペレーティングシステムに基づいて操作する。
同一の発明概念に基づいて、本開示の実施例において人体画像処理に基づく実施例では、実行可能な命令を記憶するためのメモリと、メモリに記憶された実行可能な命令を読み出して実行することにより、上記実施例のいずれかの人体画像処理方法を実現するために使用されるプロセッサと、を含む電子機器を提供する。
同一の発明概念に基づいて、本開示の実施例において人体画像処理に基づく実施例では、コンピュータ可読記憶媒体を提供し、前記コンピュータ可読記憶媒体に記憶された命令が電子機器によって実行されるときに、上記実施例のいずれかの人体画像処理方法を前記電子機器に実行させることができる。コンピュータ可読記憶媒体は、磁気ディスクメモリ、読み出し専用光ディスク(Compact Disc Read-Only Memory、CD-ROM)、光メモリなどを含むがこれらに限定されない。
以上のように、本開示の実施例による技術案は、皮膚瑕疵が通常に画像のグレースケール図において階調値が小さい領域として表現されるという事実に基づいて、処理すべき人体画像における画素点の階調値を調整することにより、リアルタイムで皮膚瑕疵を除去することが可能となり、画像処理結果のリアルな質感を確保し、画像の処理品質を向上させ、画像の処理効果を劇的に向上させ、生中継またはビデオ撮影の際に、画像のリアルタイム処理を実現する。
本開示のすべての実施例は、単独で実行されることができ、または他の実施例と組み合わせて実行されることができ、本開示によって要求される保護範囲とみなされる
800 装置
801 確定ユニット
802 区分ユニット
803 処理ユニット
804 出力ユニット
900 人体画像処理装置
922 処理コンポーネント
926 電源コンポーネント
932 メモリ
950 ネットワークインターフェース
958 入出力インターフェース

Claims (9)

  1. 処理すべき人体画像における初期候補領域を確定することと
    前記処理すべき人体画像に対してフィルタリングすることにより、第1フィルタリング画像を得ることと
    前記第1フィルタリング画像における前記初期候補領域と同じ位置の第1フィルタリング候補領域を確定し、ここで、前記初期候補領域は、指定領域を含まない皮膚領域であり、前記指定領域は、処理を必要としない予め設定された領域であることと、
    前記初期候補領域と第1フィルタリング候補領域において各位置が同じ画素点間の階調値の差に基づいて、前記初期候補領域を瑕疵皮膚領域と非瑕疵皮膚領域に区分することと、
    前記瑕疵皮膚領域と前記非瑕疵皮膚領域内の各画素点の第1融合係数を確定することと
    前記第1融合係数に基づいて、前記瑕疵皮膚領域および前記非瑕疵皮膚領域のそれぞれを、前記第1フィルタリング候補領域において位置が同じ領域と線形融合することにより処理後の瑕疵領域と処理後の非瑕疵領域を得ることと、
    前記処理後の瑕疵領域と前記処理後の非瑕疵領域とを統合することにより、前記処理すべき人体画像における中間候補領域を得ることと、
    前記初期候補領域と前記中間候補領域において各位置が同じ画素点間の階調値の差に基づいて、前記中間候補領域に対して線形光重合を行うことにより、ターゲット候補領域を取得することと
    前記ターゲット候補領域を含む前記処理すべき人体画像をターゲット画像として出力することと、を含む、
    人体画像処理方法。
  2. 前記処理すべき人体画像における初期候補領域を確定することは、
    前記処理すべき人体画像に対して肌色検出を行うことにより、第1マスク画像を取得することと
    標準マスク画像をツイストマッピングすることにより、第2マスク画像を得て、ここで、前記標準マスク画像における異なる領域の画素点は、異なる階調値に設定され、異なる階調値は、異なる処理係数を特徴づけることと、
    前記第1マスク画像から選別することにより、第1種の画素点を得て、前記第1種の画素点の階調値は、予め設定された第1階調閾値より低いことと
    前記第2マスク画像から選別することにより、第2種の画素点を得て、前記第2種の画素点の階調値は、予め設定された第2階調閾値より高いことと、
    前記処理すべき人体画像において第1指定領域および第2指定領域を含まない他の領域を前記初期候補領域として設定し、前記第1指定領域は、前記処理すべき人体画像において前記第1種の画素点が示す領域であり、前記第2指定領域は、前記処理すべき人体画像において前記第2種の画素点が示す領域であることと、を含む、
    請求項1に記載の方法。
  3. 前記標準マスク画像をツイストマッピングすることにより、第2マスク画像を得ることは、
    顔特徴点識別モデルを用いて、前記処理すべき人体画像における候補顔特徴点を識別することと、
    標準顔特徴点画像および前記標準マスク画像を取得することと
    前記候補顔特徴点と前記標準顔特徴点画像における標準顔特徴点とのマッピング関係に基づいて、前記標準マスク画像をツイストマッピングすることにより、前記第2マスク画像を得ることと、を含む、
    請求項2に記載の方法。
  4. 前記処理すべき人体画像を指定された倍数でサブサンプリングすること
    前記第1フィルタリング画像を前記指定された倍数でアップサンプリングすることと、
    をさらに含む、
    請求項1から3のいずれか1項に記載の方法。
  5. 前記瑕疵皮膚領域と前記非瑕疵皮膚領域内の各画素点の第1融合係数を確定することは、
    前記初期候補領域における各画素点に対して予め設定された処理係数に基づいて、前記瑕疵皮膚領域および前記非瑕疵領域における各画素点の第1融合係数をそれぞれ確定することを含む、
    請求項1から3のいずれか1項に記載の方法。
  6. 前記第1融合係数に基づいて、前記瑕疵皮膚領域および前記非瑕疵皮膚領域のそれぞれを、前記第1フィルタリング候補領域において位置が同じ領域と線形融合することは、
    前記瑕疵皮膚領域および前記非瑕疵皮膚領域において、前記第1フィルタリング候補領域内の相対位置と同じである2つの画素点を1組の画素点とし、ここで、前記第1フィルタリング候補領域において前記瑕疵皮膚領域内の相対位置と同じである1組の画素点配置パラメータは、前記第1フィルタリング候補領域において前記非瑕疵皮膚領域内の相対位置と同じである1組の画素点配置パラメータと異なり、前記配置パラメータは、瑕疵皮膚領域および非瑕疵皮膚領域に対する処理の程度を特徴づけることを含み、
    画素点の組ごとに、以下の動作をそれぞれ実行し、即ち、
    1組の画素点間のユークリッド距離を計算し、
    前記ユークリッド距離、前記1組の画素点の第1マスク画像における位置が同じ画素点の階調値、前記1組の画素点の第2マスク画像における位置が同じ画素点の処理係数、および前記1組の画素点に対して予め設定された配置パラメータに基づいて、前記1組の画素点第1融合係数を確定し、前記第1マスク画像は、前記処理すべき人体画像に対して肌色検出を行うことにより得られ、前記第2マスク画像は、標準マスク画像をツイストマッピングすることにより得られ、
    前記第1融合係数に基づいて、前記1組の画素点を1つの画素点に融合する、
    請求項1から3のいずれか1項に記載の方法。
  7. 前記処理すべき人体画像に対してフィルタリングすることにより、第2フィルタリング画像を得ることと、
    前記第1マスク画像前記ターゲット候補領域を含む処理すべき人体画像において位置が同じ画素点の階調値に基づいて、各画素点の第2融合係数を確定することと
    前記第2融合係数に基づいて前記第2フィルタリング画像を前記ターゲット候補領域を含む処理すべき人体画像と線形融合することにより、出力すべき前記ターゲット画像を取得することと、をさらに含む、
    請求項6に記載の方法。
  8. 実行可能な命令を記憶するためのメモリと、
    メモリに記憶された実行可能な命令を読み出して実行するためのプロセッサと、を含み、
    ここで、前記実行可能な命令を実行することにより、以下のことを前記プロセッサに実行させ、即ち、
    処理すべき人体画像における初期候補領域を確定し、
    前記処理すべき人体画像に対してフィルタリングすることにより、第1フィルタリング画像を得て、
    前記第1フィルタリング画像における前記初期候補領域と同じ位置の第1フィルタリング候補領域を確定し、ここで、前記初期候補領域は、指定領域を含まない皮膚領域であり、前記指定領域は、処理を必要としない予め設定された領域であり、
    前記初期候補領域と第1フィルタリング候補領域において各位置が同じ画素点間の階調値の差に基づいて、前記初期候補領域を瑕疵皮膚領域と非瑕疵皮膚領域に区分し、
    前記瑕疵皮膚領域と前記非瑕疵皮膚領域内の各画素点の第1融合係数を確定し、
    前記第1融合係数に基づいて、前記瑕疵皮膚領域および前記非瑕疵皮膚領域のそれぞれを、前記第1フィルタリング候補領域において位置が同じ領域と線形融合することによりし、処理後の瑕疵領域と処理後の非瑕疵領域を得て、
    前記処理後の瑕疵領域と前記処理後の非瑕疵領域とを統合することにより、前記処理すべき人体画像における中間候補領域を得て
    前記初期候補領域と前記中間候補領域において各位置が同じ画素点間の階調値の差に基づいて、前記中間候補領域に対して線形光重合を行うことにより、ターゲット候補領域を取得し、
    前記ターゲット候補領域を含む前記処理すべき人体画像をターゲット画像として出力する、
    電子機器。
  9. 命令が記憶されたコンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体に記憶された命令が電子機器によって実行されるときに、以下のことを前記電子機器に実行させ、即ち、
    処理すべき人体画像における初期候補領域を確定し、
    前記処理すべき人体画像に対してフィルタリングすることにより、第1フィルタリング画像を得て、
    前記第1フィルタリング画像における前記初期候補領域と同じ位置の第1フィルタリング候補領域を確定し、ここで、前記初期候補領域は、指定領域を含まない皮膚領域であり、前記指定領域は、処理を必要としない予め設定された領域であり、
    前記初期候補領域と第1フィルタリング候補領域において各位置が同じ画素点間の階調値の差に基づいて、前記初期候補領域を瑕疵皮膚領域と非瑕疵皮膚領域に区分し、
    前記瑕疵皮膚領域と前記非瑕疵皮膚領域内の各画素点の第1融合係数を確定し、
    前記第1融合係数に基づいて、前記瑕疵皮膚領域および前記非瑕疵皮膚領域のそれぞれを、前記第1フィルタリング候補領域において位置が同じ領域と線形融合することによりし、処理後の瑕疵領域と処理後の非瑕疵領域を得て、
    前記処理後の瑕疵領域と前記処理後の非瑕疵領域とを統合することにより、前記処理すべき人体画像における中間候補領域を得て、
    前記初期候補領域と前記中間候補領域において各位置が同じ画素点間の階調値の差に基づいて、前記中間候補領域に対して線形光重合を行うことにより、ターゲット候補領域を取得し、
    前記ターゲット候補領域を含む前記処理すべき人体画像をターゲット画像として出力する、
    コンピュータ可読記憶媒体。
JP2022562359A 2020-06-16 2020-11-18 人体画像処理方法および電子機器 Active JP7420971B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010547139.3 2020-06-16
CN202010547139.3A CN113808027B (zh) 2020-06-16 2020-06-16 一种人体图像处理方法、装置、电子设备及存储介质
PCT/CN2020/129901 WO2021253723A1 (zh) 2020-06-16 2020-11-18 一种人体图像处理方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
JP2023521208A JP2023521208A (ja) 2023-05-23
JP7420971B2 true JP7420971B2 (ja) 2024-01-23

Family

ID=78892518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022562359A Active JP7420971B2 (ja) 2020-06-16 2020-11-18 人体画像処理方法および電子機器

Country Status (4)

Country Link
US (1) US20230063309A1 (ja)
JP (1) JP7420971B2 (ja)
CN (1) CN113808027B (ja)
WO (1) WO2021253723A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114511580A (zh) * 2022-01-28 2022-05-17 北京字跳网络技术有限公司 图像处理方法、装置、设备及存储介质
CN114913588B (zh) * 2022-06-20 2023-04-25 电子科技大学 一种应用于复杂场景下的人脸图像修复及识别方法
CN116630309B (zh) * 2023-07-21 2023-09-26 微山县天阔纺织有限公司 一种布匹断纬瑕疵检测方法
CN117152099A (zh) * 2023-09-05 2023-12-01 深圳伯德睿捷健康科技有限公司 皮肤毛孔或黑头检测方法、系统及计算机可读存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303193A (ja) 2003-03-20 2004-10-28 Omron Corp 画像処理装置
JP2005004468A (ja) 2003-06-11 2005-01-06 Kose Corp 画像のシミュレーション方法
JP2006018467A (ja) 2004-06-30 2006-01-19 Canon Inc 画像処理装置及び方法
US20080212894A1 (en) 2007-03-02 2008-09-04 Ramazan Demirli Method and apparatus for simulation of facial skin aging and de-aging
JP2009111947A (ja) 2007-11-01 2009-05-21 Sharp Corp 画像補正装置
US20110013829A1 (en) 2009-07-17 2011-01-20 Samsung Electronics Co., Ltd. Image processing method and image processing apparatus for correcting skin color, digital photographing apparatus using the image processing apparatus, and computer-readable storage medium for executing the method
US8265410B1 (en) 2009-07-11 2012-09-11 Luxand, Inc. Automatic correction and enhancement of facial images
JP2018005434A (ja) 2016-06-30 2018-01-11 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
JP2019074795A (ja) 2017-10-12 2019-05-16 カシオ計算機株式会社 画像処理装置、画像処理方法、及びプログラム
JP2019106045A (ja) 2017-12-13 2019-06-27 キヤノン株式会社 画像処理装置、方法及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8031961B2 (en) * 2007-05-29 2011-10-04 Hewlett-Packard Development Company, L.P. Face and skin sensitive image enhancement
US8295557B2 (en) * 2009-01-12 2012-10-23 Arcsoft Hangzhou Co., Ltd. Face image processing method
CN103927719B (zh) * 2014-04-04 2017-05-17 北京猎豹网络科技有限公司 图片处理方法及装置
CN104978578B (zh) * 2015-04-21 2018-07-27 深圳市点通数据有限公司 手机拍照文本图像质量评估方法
CN105869159A (zh) * 2016-03-28 2016-08-17 联想(北京)有限公司 一种图像分割方法及装置
CN108053377A (zh) * 2017-12-11 2018-05-18 北京小米移动软件有限公司 图像处理方法及设备
CN109377454A (zh) * 2018-09-25 2019-02-22 广州华多网络科技有限公司 一种图像处理方法、装置、设备、存储介质及直播方法
CN110443747B (zh) * 2019-07-30 2023-04-18 Oppo广东移动通信有限公司 图像处理方法、装置、终端及计算机可读存储介质
CN110689500B (zh) * 2019-09-29 2022-05-24 北京达佳互联信息技术有限公司 一种人脸图像的处理方法、装置、电子设备及存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303193A (ja) 2003-03-20 2004-10-28 Omron Corp 画像処理装置
JP2005004468A (ja) 2003-06-11 2005-01-06 Kose Corp 画像のシミュレーション方法
JP2006018467A (ja) 2004-06-30 2006-01-19 Canon Inc 画像処理装置及び方法
US20080212894A1 (en) 2007-03-02 2008-09-04 Ramazan Demirli Method and apparatus for simulation of facial skin aging and de-aging
JP2009111947A (ja) 2007-11-01 2009-05-21 Sharp Corp 画像補正装置
US8265410B1 (en) 2009-07-11 2012-09-11 Luxand, Inc. Automatic correction and enhancement of facial images
US20110013829A1 (en) 2009-07-17 2011-01-20 Samsung Electronics Co., Ltd. Image processing method and image processing apparatus for correcting skin color, digital photographing apparatus using the image processing apparatus, and computer-readable storage medium for executing the method
JP2018005434A (ja) 2016-06-30 2018-01-11 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
JP2019074795A (ja) 2017-10-12 2019-05-16 カシオ計算機株式会社 画像処理装置、画像処理方法、及びプログラム
JP2019106045A (ja) 2017-12-13 2019-06-27 キヤノン株式会社 画像処理装置、方法及びプログラム

Also Published As

Publication number Publication date
US20230063309A1 (en) 2023-03-02
CN113808027A (zh) 2021-12-17
JP2023521208A (ja) 2023-05-23
CN113808027B (zh) 2023-10-17
WO2021253723A1 (zh) 2021-12-23

Similar Documents

Publication Publication Date Title
JP7420971B2 (ja) 人体画像処理方法および電子機器
US8902326B2 (en) Automatic face and skin beautification using face detection
US8520089B2 (en) Eye beautification
US9053524B2 (en) Eye beautification under inaccurate localization
KR101662846B1 (ko) 아웃 포커싱 촬영에서 빛망울 효과를 생성하기 위한 장치 및 방법
JP4498671B2 (ja) イメージコンテンツに基づいて画像の特性を改善するための方法及びシステム
WO2022161009A1 (zh) 图像处理方法及装置、存储介质、终端
CN112258440B (zh) 图像处理方法、装置、电子设备及存储介质
WO2022261828A1 (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
JP2014222447A (ja) 画像処理装置および方法
CN108346128B (zh) 一种美颜磨皮的方法和装置
JP2003256834A (ja) 顔領域抽出及び顔構成要素位置判定装置
CN115908106A (zh) 图像处理方法、装置、设备及存储介质
Akai et al. Low-Artifact and Fast Backlit Image Enhancement Method Based on Suppression of Lightness Order Error
CN113298721B (zh) 人脸图像处理方法、装置、电子设备及存储介质
RU2338255C2 (ru) Способ устранения эффекта красных глаз на цифровых цветных изображениях для пары глаз
US10567670B2 (en) Image-processing device
Chen et al. Efficient detail-enhanced exposure correction based on auto-fusion for LDR image
CN114627003A (zh) 人脸图像的眼部脂肪去除方法、系统、设备及存储介质
CN116894788A (zh) 图像处理方法、装置、电子设备及存储介质
CN113971637A (zh) 人脸图像处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221012

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240111

R150 Certificate of patent or registration of utility model

Ref document number: 7420971

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150