JP6961811B2 - 画像処理のための方法および装置、ならびにコンピュータ可読記憶媒体 - Google Patents

画像処理のための方法および装置、ならびにコンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP6961811B2
JP6961811B2 JP2020518525A JP2020518525A JP6961811B2 JP 6961811 B2 JP6961811 B2 JP 6961811B2 JP 2020518525 A JP2020518525 A JP 2020518525A JP 2020518525 A JP2020518525 A JP 2020518525A JP 6961811 B2 JP6961811 B2 JP 6961811B2
Authority
JP
Japan
Prior art keywords
face
image
region
retouch
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020518525A
Other languages
English (en)
Other versions
JP2020535561A (ja
Inventor
ワン、フイチャオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2020535561A publication Critical patent/JP2020535561A/ja
Application granted granted Critical
Publication of JP6961811B2 publication Critical patent/JP6961811B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Description

本開示は、コンピュータの技術分野に関し、特に、画像処理のための方法および装置、ならびに電子デバイスおよびコンピュータ可読記憶媒体に関する。
電子デバイスの急速な発展に伴い、電子デバイスはますます多くの機能を備えている。ユーザが電子デバイスで写真を撮ると、電子デバイスは環境光情報を検出することにより、自動ホワイトバランスや自動露出調整などの動作を実行できる。ユーザが電子デバイスでポートレートまたは自画像を撮影すると、電子デバイスは、ポートレートのホワイトニング、バフ仕上げ、にきびの除去などの一連のレタッチ動作も実行できる。
本出願または従来技術の実施形態における技術的解決策をより明確に説明するために、実施形態または従来技術に関する説明で使用する必要がある図面を以下に簡単に紹介する。以下に説明する図面は本出願のいくつかの実施形態に過ぎず、当業者であれば創造的な作業なしにこれらの図面に従って他の図面も得られることは明らかである。
本開示の一実施形態による電子デバイス10の内部構造図である。 一実施形態による画像処理方法のフローチャートである。 本開示の一実施形態による空間直交座標系における顔の回転の概略図である。 本開示の一実施形態による画像処理方法のフローチャートである。 本開示の一実施形態による画像処理方法のフローチャートである。 本開示の一実施形態による画像処理方法のフローチャートである。 本開示の一実施形態による画像処理装置の構造ブロック図である。 本開示の一実施形態による画像処理装置の構造ブロック図である。 本開示の一実施形態による画像処理装置の構造ブロック図である。 本開示の一実施形態による画像処理回路の概略図である。
本出願の目的、技術的解決策および利点をより明確にするために、図面および実施形態と組み合わせて本出願をさらに詳細に以下に説明する。本明細書で説明される特定の実施形態は、本出願を説明するためにのみ採用され、本出願を限定することを意図するものではないことを理解されたい。
図1は、一実施形態による電子デバイス10の内部構造図を示している。図1に示すように、電子デバイス10は、システムバスを介して接続されたプロセッサ、非一時的記憶媒体、内部メモリ、ネットワークインタフェース、ディスプレイ画面、および入力装置を含む。電子デバイス10の非一時的記憶媒体は、オペレーティングシステムおよびコンピュータ可読命令を格納する。コンピュータ可読命令は、プロセッサによって実行され、画像処理方法を実装する。プロセッサは、電子デバイス10全体の実行をサポートするために計算および制御機能を提供するように構成されている。電子デバイス10の内部メモリは、非一時的記憶媒体内のコンピュータ可読命令の実行のための環境を提供する。ネットワークインタフェースは、サーバとのネットワーク通信を実行するように構成されている。電子デバイス10のディスプレイ画面は、液晶ディスプレイ画面、電子インクディスプレイ画面などであってもよい。入力装置は、ディスプレイ画面を覆うタッチレイヤであってもよい。入力装置は、電子デバイス10のハウジング上に配置されたボタン、トラックボールまたはタッチパッドであってもよい。入力装置はさらに、外部キーボード、タッチパッド、マウスなどであってもよい。電子デバイス10は、携帯電話、タブレットコンピュータ、携帯情報端末、ウェアラブルデバイスなどであってもよい。図1に示す構造は、本開示の解決策に関連する構造の一部のブロック図のみを示しており、本出願の解決策が適用される電子デバイス10を限定することを意図するものではないことを当業者は理解できる。電子デバイス10は、図1に示す構造に限定されない。さらに、電子デバイス10は、より多いまたはより少ないコンポーネント、コンポーネントの組み合わせ、または異なるコンポーネント配置を含んでもよい。
図2は、一実施形態による画像処理方法のフローチャートを示している。図2に示すように、画像処理方法は以下のアクションを含む。
ブロック202では、処理対象の画像に対して顔認識が実行されて、処理対象の画像内の顔領域が認識される。顔領域の顔特徴認識ポイントが取得される。
電子デバイスは、取得した処理対象の画像に対して顔認識を実行して、処理対象の画像に顔領域が存在するかどうかを検出してもよい。処理対象の画像は、電子デバイスによって撮影および取得された画像、電子デバイスによって格納された画像、およびデータネットワークまたは無線ローカルエリアネットワークを介して電子デバイスによってダウンロードされた画像であってもよい。電子デバイスは、顔認識アルゴリズムを採用することにより、処理対象の画像に対して顔認識を実行してもよい。処理対象の画像に顔特徴認識ポイントが存在する場合、処理対象の画像に顔が存在することが検出される。処理対象の画像内の単一の顔画像が占める領域は、顔領域である。処理対象の画像に複数の顔が存在する場合、処理対象の画像に複数の顔領域が存在する。
処理対象の画像内の顔領域を認識した後、電子デバイスは、顔領域内の顔特徴認識ポイントを取得してもよい。顔特徴認識ポイントは、顔の5つの感覚器官の特徴ポイントであってもよい。顔特徴認識ポイントは、顔領域内の事前に設定されたポイントでもあってもよい。
ブロック204では、座標系における顔特徴認識ポイントの座標値が取得される。
電子デバイスは、顔領域内の顔特徴認識ポイントの座標値を取得してもよい。具体的には、電子デバイスは、顔特徴認識ポイントの座標値を、顔特徴認識ポイントに対応するピクセル位置で表すことができる。例えば、座標値はピクセル位置、つまり特定の行と特定の列で表される。
ブロック206では、顔特徴認識ポイント間の距離、および顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標系の座標軸の角度が座標値に従って決定される。
電子デバイスは、顔特徴認識ポイントの座標値に従って、顔特徴認識ポイント間の距離、および顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標軸の角度を決定してもよい。顔領域には複数の顔特徴認識ポイントがある。電子デバイスは、2つの顔特徴認識ポイントごとの距離、および2つの顔特徴認識ポイントごとの間を結ぶ線に対する座標軸の角度を取得してもよい。顔特徴認識ポイントは、画像内の複数のピクセルに対応してもよい。電子デバイスは、中心位置のピクセルを基準点として選択して、顔特徴認識ポイント間の距離および顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標軸の角度を取得してもよい。例えば、人間の目の左眼角の位置は、100列目から110列目まで、および100行目から110行目までの領域のピクセルに対応する。次いで、電子デバイスは、105行105列目のピクセルを基準点として選択してもよい。電子デバイスは、各顔特徴認識ポイントの基準点に従って顔特徴認識ポイントの距離および角度を計算する。
電子デバイスは、顔特徴認識ポイント間の距離をピクセル数で表してもよい。例えば、左眼角と右眼角の間の距離は30万ピクセル値である。電子デバイスはまた、画像内に直交座標系を確立し、直交座標系内の顔特徴認識ポイントの2つをそれぞれ接続する線に対する直交座標系の座標軸の角度を取得してもよい。例えば、電子デバイスは、画像上で互いに直角を形成する2つの直線で直交座標系を確立し、正の方向と負の方向に続く2つの直線に名前を付ける。電子デバイスは、2つの顔特徴認識ポイントに対応する基準点を接続して形成される線分を取得した後、線分と直交座標系の直線によって形成される鋭角を取得し、顔特徴認識ポイント間の角度を鋭角で表してもよい。例えば、電子デバイスは、画像内で互いに直交する2つの直線でXY座標系を確立し、軸xを正の軸と負の軸に分割し、軸yを正の軸と負の軸に分割する。次に、電子デバイスは、顔の右眼角と鼻の先端との間の角度を表し、顔の右眼角と鼻の先端によって形成される線分と、軸xの正の軸との間の角度は80°であり、軸yの正の軸との間の角度は10°である。
ブロック208では、正面顔画像に対する顔領域の偏差角は、顔特徴認識ポイント間の距離と、顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標軸の角度に従って決定される。偏差角は、平面上の正面顔画像に対する顔領域の回転角度である。
顔は3次元構造であり、顔は3次元空間のさまざまな方向に沿って回転してもよい。例えば、上向きおよび下向きの頭のうなずき、左向きおよび右向きの頭の揺れなどはすべて、3次元空間での顔の回転に属する。顔が3次元空間で回転した後、画像に表示される顔の2次元画像も異なり得る。画像内の顔の偏差角は、ソフトウェア方法によって検出されてもよく、その後、レタッチテンプレートは、顔の偏差角に従って対応して調整されてもよい。
顔領域内の顔特徴認識ポイント間の距離と、顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標軸の角度を取得した後、電子デバイスは、顔特徴認識ポイント間の距離と、顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標軸の角度に従って、顔領域の偏差角を決定してもよい。電子デバイスは、人工知能を用いて偏差角を取得してもよい。顔領域の偏差角とは、標準顔画像に対する画像内の顔領域の回転角度を指す。標準顔画像は、正面顔画像、つまり、顔がカメラに直接向いているときに撮影された画像である。顔領域の偏差角は、3つの角度で表すことができる。3次元空間で互いに垂直な3つの直線は1点で交差して3次元座標系を形成し、3つの直線の各2つの直線が1つの平面を形成し得、合計3つの平面がある。次に、顔領域の偏差角は、標準顔画像に対する3つの平面上の顔領域の回転角度で表される。
ブロック210では、偏差角に対応するレタッチテンプレートが取得される。顔領域は、レタッチテンプレートに従って修整される。
電子デバイスは、顔領域の偏差角を取得した後、顔領域の偏差角に対応するレタッチテンプレートを取得してもよい。レタッチテンプレートとは、レタッチパラメータに従って生成されたレイヤを指す。このレイヤの異なる位置は、顔の異なる特徴ポイントに対応してもよい。電子デバイスは、レイヤに異なる色を追加してもよい。例えば、瞳孔領域に対応する位置は、瞳孔修整のために黒で表示される。唇領域に対応する位置は、唇の色を表示するために赤で表示される。頬骨領域に対応する位置は、頬骨の赤色を表示するために赤で表示される。電子デバイスは、顔領域を修整するためのレタッチパラメータに従って生成されたレイヤで、元の画像上の顔領域を覆ってもよい。共通の表現を使用するために、レタッチテンプレートは透明なマスクに似ている。マスクはさまざまな色でコーティングされている。マスクは、表示のために顔を覆ってもよい。
電子デバイスによって事前に格納されているレタッチテンプレートは、顔の正面に対応するレタッチテンプレートである。電子デバイスは、顔領域の偏差角を取得した後、偏差角に対応するテンプレートを取得してもよい。すなわち、電子デバイスは、回転後の顔の2次元画像に対応するレタッチテンプレートを取得してもよい。
電子デバイスが偏差角に対応するレタッチテンプレートを取得した後、電子デバイスは、レタッチテンプレートに従って処理対象の画像内の顔領域を修整してもよい。すなわち、電子デバイスは、レタッチテンプレートと処理対象の画像内の顔領域とを重ね合わせてもよい。電子デバイスは、顔領域内の顔特徴認識ポイントに従ってレタッチテンプレートの位置を決定してもよい。
一態様によれば、電子デバイスは、処理対象の画像内の顔領域を直接修整することもできる。修整には、ホワイトニング、目を大きくすること、にきび除去、そばかす除去、頬の色の適用、瞳孔修整、リップグロスの適用などが含まれる。具体的には、電子デバイスは、顔領域のピクセルの色値を調整したり、顔領域のフィルタリング処理を行ったりするなどして、修整を実施してもよい。
本開示の方法によれば、画像内の顔領域の偏差角が分析される。顔領域に対応するレタッチテンプレートは、顔領域の偏差角に従って取得されるため、レタッチテンプレートは顔によりよくフィットする。レタッチテンプレートと顔が一致しない場合、次のケースは回避できる:顔の対応する領域には特別なレタッチ効果が表示されない。そのため、画像をインテリジェントに修整できる。
一態様によれば、偏差角は、第1の角度、第2の角度、および第3の角度を含む。第1の角度は、標準顔画像に対する第1の平面上の顔領域の回転角度を表す。第2の角度は、標準顔画像に対する第2の平面上の顔領域の回転角度を表す。第3の角度は、標準顔画像に対する第3の平面上の顔領域の回転角度を表す。第1の平面、第2の平面、および第3の平面の各2つの平面は、互いに垂直である。
顔は3次元空間で回転し得るため、回転中の顔の画像に表示される2次元画像は異なる。標準顔画像に対する顔の偏差角を分析する場合、電子デバイスは、3次元空間内の3つの角度で偏差角を表してもよい。標準顔画像は、顔がカメラに直接向いているときに撮影された2次元の顔画像である。図3に示すように、3次元空間において互いに直交する3つの直線は、点で交差して空間直交座標系、すなわちXYZ座標系を形成する。この座標系では、軸xと軸yが交差して第1の平面を形成し、軸xと軸zが交差して第2の平面を形成し、軸yと軸zが交差して第3の平面を形成する。第1の平面、第2の平面、および第3の平面の各2つの平面は、互いに垂直である。第1の角度は、標準顔画像に対する軸zを中心とした顔領域の回転角度を表す。第2の角度は、標準顔画像に対する軸yを中心とした顔領域の回転角度を表す。第3の角度は、標準顔画像に対する軸xを中心とした顔領域の回転角度を表す。図3において、第1の顔302は、標準顔画像、すなわち、顔がカメラに直接向いているときに撮影された2次元の顔画像である。第1の顔302が軸yの周りを角度αだけ反時計回りに回転した後、第2の顔304を得ることができ、第1の顔302に対する第2の顔304の偏差角は、第1の角度0、第2の角度α、および第3の角度0を含む。
偏差角に対応する第1の角度、第2の角度、および第3の角度を記録するとき、電子デバイスは、第1の平面、第2の平面、および第3の平面にそれぞれ正の回転方向を設定し、標準顔画像に対する正の回転方向の顔領域の回転角度で、第1の角度、第2の角度、および第3の角度を表すことができる。例えば、第2の角度の場合、反時計回りの方向は正の回転方向であり、顔領域が標準顔画像に対して反時計回りにβだけ回転すると、第2の角度はβになり、顔領域が標準顔画像に対して時計回りにγだけ回転すると、第2の角度は−γになる。
本開示の方法によれば、標準顔画像に対する顔領域の偏差角は、互いに直交する3つの平面内の回転角度に分割され、複雑な3次元変化は、3つの平面の各平面に分割され、これにより、顔の偏差角に関する電子デバイスの分析が容易になる。
一実施形態によれば、偏差角に対応するレタッチテンプレートが取得される動作は、以下のいずれかのアクションを含む。
(1)電子デバイスは、標準レタッチテンプレートを事前に格納し、偏差角に応じて標準レタッチテンプレートを回転させて、偏差角に対応するレタッチテンプレートを取得する。
標準レタッチテンプレートは、電子デバイスに事前に格納されている。標準レタッチテンプレートは、標準顔画像に対応するレタッチテンプレートである。顔がカメラに直接向いているときに撮影された顔は、標準顔画像、つまり顔の正面である。標準レタッチテンプレートは、顔の正面に対応するレタッチテンプレートである。標準顔画像に対する顔領域の偏差角を取得した後、電子デバイスは、偏差角に従って標準レタッチテンプレートを回転させてもよい。標準顔画像に対する顔領域の偏差角は、空間座標系の第1の角度、第2の角度、および第3の角度で表されてもよい。標準レタッチテンプレートを偏差角に従って回転させる場合、電子デバイスは、偏差角に対応するレタッチテンプレートを取得するために、第1の角度、第2の角度および第3の角度に従って空間座標系で標準レタッチテンプレートを回転させることができる。
(2)電子デバイスは、格納されているレタッチテンプレートから、偏差角に対応するレタッチテンプレートを検索する。
異なる偏差角に対応するレタッチテンプレートは、電子デバイスに格納されていてもよい。標準顔画像に対する顔領域の偏差角を取得した後、モバイル端末は、電子デバイスによって格納されたレタッチテンプレートを検索して、標準顔画像に対する顔領域の偏差角に対応するレタッチテンプレートがあるかどうかを判断してもよい。標準顔画像に対する顔領域の偏差角に対応するレタッチテンプレートがあると判断した場合、電子デバイスは、標準顔画像に対する顔領域の偏差角に対応するレタッチテンプレートを直接取得してもよい。
(3)電子デバイスは、偏差角をサーバにアップロードし、サーバから偏差角に対応するレタッチテンプレートを受信する。
標準顔画像に対する顔領域の偏差角を取得した後、電子デバイスは、偏差角をサーバにアップロードしてもよい。さまざまな偏差角に対応するレタッチテンプレートはサーバに格納され、標準顔画像に対する顔領域の偏差角に対応するレタッチテンプレートが見つかった場合、サーバは見つかったレタッチテンプレートを電子デバイスに返す。電子デバイスが偏差角を取得した後、標準レタッチテンプレートも偏差角に従って回転してもよく、回転によって生成されたレタッチテンプレートは電子デバイスに返され、ここで、標準レタッチテンプレートは標準顔画像に対応するレタッチテンプレートである。サーバが標準レタッチテンプレートを回転させる方法は、電子デバイスが標準レタッチテンプレートを回転させる方法と同じである。
本開示の方法によれば、標準顔画像に対する顔領域の偏差角が取得された後、電子デバイスは、偏差角に対応するレタッチテンプレートを取得してもよく、処理対象の画像内の顔領域は偏差角に対応するレタッチテンプレートに従って修整され、これにより、処理対象の画像の顔領域がよりインテリジェントに修整される。
本開示の一態様によれば、画像処理方法は以下のアクションを含む。
ブロック402では、処理対象の画像に対して顔認識が実行されて、処理対象の画像内の顔領域が認識される。顔領域の顔特徴認識ポイントが取得される。
ブロック404では、座標系における顔特徴認識ポイントの座標値が取得される。
ブロック406では、顔特徴認識ポイント間の距離、および顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標系の座標軸の角度が座標値に従って決定される。
ブロック408では、顔領域の偏差角は、顔特徴認識ポイント間の距離と、顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標軸の角度に従って決定される。偏差角は、平面上の正面顔画像に対する顔領域の回転角度である。
ブロック410では、偏差角に対応するレタッチテンプレートが取得される。
ブロック412では、顔領域の肌の色および肌のタイプと、顔領域に対応する性別が取得される。
電子デバイスは、顔領域の肌の色および肌のタイプと、顔領域内の顔に対応する性別を認識してもよい。電子デバイスは、顔領域の肌の色を肌色領域の色値で表す。電子デバイスは、顔領域のしわ、そばかす、にきびの数により肌タイプのレベルを決定してもよい。電子デバイスは、機械学習モデルを通じて顔に対応する性別を認識してもよい。
ブロック414では、顔領域に対応するレタッチパラメータが、肌の色、肌のタイプ、および性別に従って取得される。
さまざまな肌の色、肌のタイプ、および性別に対して、電子デバイスはさまざまなレタッチパラメータに一致してもよい。例えば、画像内の女性の顔画像が修正されると、電子デバイスは、顔画像の肌の色、唇の色、瞳孔の色、頬の色などを調整することができる。画像内の男性の顔画像が修整されると、電子デバイスは顔画像の肌の色と瞳孔の色のみを調整する。肌の色、肌のタイプ、性別、およびレタッチパラメータの対応関係は、電子デバイスにあらかじめ格納されていてもよい。電子デバイスは、顔画像の肌の色、肌のタイプ、および性別を取得した後、対応するレタッチパラメータを検索することができる。電子デバイスは、機械学習モデルを通じて、顔画像の肌の色、肌のタイプ、および性別に対応するレタッチパラメータを検索することもできる。
ブロック416では、レタッチテンプレートはレタッチパラメータに従って調整される。顔領域は、調整されたレタッチテンプレートに従って修整される。
顔領域に対応するレタッチパラメータを取得した後、電子デバイスは、取得したレタッチパラメータに従ってレタッチテンプレートを調整してもよい。調整されたレタッチテンプレートとは、レタッチパラメータをレタッチテンプレートの元のパラメータに置き換えることを指す。
本開示の方法によれば、電子デバイスは、画像内の顔領域の肌の色、肌のタイプ、およびパラメータに従って対応するレタッチパラメータを検索し、異なる顔領域に対して異なる修整処理を実施することができるため、画像は、よりパーソナライズされた方法で修整される。
本開示の一態様によれば、ブロック210の後、方法は以下のアクションをさらに含む。
ブロック212では、顔領域内の肌色領域が認識される。肌色領域に対してエッジ抽出が実行され、エッジ情報が取得される。
処理対象の画像内の顔領域を取得した後、電子デバイスは、顔領域内の肌色領域を認識してもよく、肌色領域は、顔内の肌で覆われた領域である。電子デバイスは、顔領域内の各ピクセルの色値を介して肌色領域を認識してもよい。具体的には、電子デバイスは、肌の色の色値を事前に格納することができ、顔領域の各ピクセルの色値を肌の色の色値と比較し、ピクセルの色値と肌の色の色値との間の色の差の値が指定された閾値より小さい場合、2つの色が比較的近いと判断し、顔領域のピクセルの色を肌の色として認識し、色が肌色であるピクセルのセットによって表示される領域は、肌色領域である。
電子デバイスは、顔領域内の肌色領域を取得した後、肌色領域に対してエッジ検出を実行して、肌色領域内のエッジ情報を取得してもよい。エッジ検出とは、画像処理中に画像内で明度が明らかに変化するポイント、例えば、オブジェクトの表面の質感やオブジェクトの表面の形状を認識することを指す。エッジ情報は、肌色領域の輪郭情報である。電子デバイスは、エッジ検出を実行して、肌色領域における肌の質感、にきびの輪郭、そばかすの輪郭、瘢痕の輪郭などを認識してもよい。
ブロック214では、エッジ情報に従って第1の肌色領域が決定される。
電子デバイスが肌色領域のエッジ情報を取得した後、電子デバイスは、エッジ情報に従って第1の肌色領域を決定してもよい。第1の肌色領域は、繊細な肌の領域である。電子デバイスは、エッジ情報を取得した後、にきびの輪郭、そばかすの輪郭、および瘢痕の輪郭に従って、除去されるにきび領域、そばかす領域、および瘢痕領域を取得してもよい。次いで、電子デバイスは、肌色領域からにきび領域、そばかす領域、および瘢痕領域を除去して、第1の肌色領域を取得する。電子デバイスが、肌色領域からにきび領域、そばかす領域、および瘢痕領域を除去する動作とは、電子デバイスが、肌色領域の画像からにきび領域の画像、そばかす領域の画像、および瘢痕領域の画像を切り取ることを指す。
ブロック216では、修整された顔領域と第1の肌色領域で画像融合が実行される。
処理対象の画像内の顔領域を修整した後、電子デバイスは、画像内の修整された顔領域および第1の肌色領域で画像融合を実行してもよい。具体的には、電子デバイスは、修整された顔領域の肌の色に応じて第1の肌色領域の肌の色を調整し、調整された第1の肌色領域と修整された顔領域を重ね合わせる。そして、電子デバイスは、重畳領域のエッジに対して移行処理を実行する。電子デバイスは、移行処理を実施するために、重畳領域のエッジに対してフェザリング処理およびランプシェーディングを実行してもよい。電子デバイスはまた、第1の肌色領域に勾配透明度調整を実行して、重畳領域に移行処理を実施してもよい。
本開示の方法によれば、画像内の顔領域が修整される前に、顔領域内の特定の肌色領域がエッジ情報に従って認識され、格納される。次に、修整された顔領域と特定の色の肌領域で画像融合が実行される。したがって、元の肌の質感などの詳細は、修整された顔領域に保存されてもよい。修整された画像はよりリアルになり、画像の印象が改善される。
本開示の一態様によれば、第1の肌色領域がエッジ情報に従って決定される動作は、以下のアクションを含む。第1のエッジ情報は、エッジ情報に対応する形状および色に従って決定される。第1のエッジ情報に対応する肌色領域は、第1の肌色領域として取得される。第1の肌色領域の位置情報が記録される。
エッジ情報を取得した後、電子デバイスは、エッジ情報に対応する形状、色、および明度に従ってエッジ情報のタイプを決定してもよい。エッジ情報は肌色領域の輪郭情報であり、エッジ情報に対応する形状は輪郭の形状である。例えば、そばかす領域の輪郭は楕円に近似し、肌の質感の輪郭は直線に近似している。エッジ情報の輪郭が囲まれた画像に接続される場合、電子デバイスは、囲まれた画像の色および明度、例えば、そばかす領域の色および明度と、にきび領域の色および明度を検出してもよい。電子デバイスは、エッジ情報に対応する形状、色、および明度を取得した後、エッジ情報のタイプを認識してもよい。さまざまなタイプのエッジ情報に対応する形状、色、および明度情報は、電子デバイスに事前に格納されている。電子デバイスは、エッジ情報に対応する形状、色、および明度を比較することにより、エッジ情報のタイプを決定してもよい。本開示の一態様によれば、電子デバイスはまた、ニューラルネットワークモデルを通じてエッジ情報のタイプを認識してもよい。電子デバイスは、肌の質感に対応するエッジ情報を第1のエッジ情報として選択してもよい。第1のエッジ情報に対応する肌色領域は、第1の肌色領域である。第1の肌色領域を取得した後、電子デバイスは、第1の肌色領域の位置情報を記録してもよい。電子デバイスが第1の肌色領域の位置情報を記録する動作には、以下のアクションが含まれる。電子デバイスは、第1の肌色領域のピクセルの座標値、例えば第3行第3列を記録する。
修整された顔領域と第1の肌色領域で画像融合が行われる動作には、以下のアクションが含まれる。処理された顔領域内の第1の肌色領域の対応する色肌領域が位置情報に従って決定され、融合処理が第1の肌色領域および対応する肌色領域に対して実行される。
第1の肌色領域の位置情報を取得した後、電子デバイスは、第1の肌色領域の位置情報に従って、対応する肌色領域について修整された顔領域を検索してもよい。このアクションは、次のアクションを含んでもよい。電子デバイスは、第1の肌色領域の座標値に従って、修整された顔領域内の対応する座標値を検索し、修整された顔領域内の対応する領域が肌色領域であるかどうかを検出する。電子デバイスは、ピクセルの色値に従って、現在のピクセルが肌の色であるかどうかを検出してもよい。例えば、第1の肌色領域のピクセルの座標値が第3行第3列である場合、電子デバイスは修整された顔領域の第3行第3列のピクセルを検索し、修整された顔領域の第3行第3列のピクセルが肌の色であるかどうかを検出する。
電子デバイスは、処理対象の画像内の顔領域を修整する際に、顔領域の表示領域を変更してもよい。例えば、処理された顔領域における第1の肌色領域の対応する領域は、顔領域に対して目を大きくすることやフェイスリフトなどの動作が実行された後、肌色領域ではなくなる場合がある。したがって、電子デバイスは、第1の肌色領域を処理しない。
電子デバイスは、処理された顔領域内の第1の肌色領域の対応する肌色領域を取得した後、第1の肌色領域と対応する肌色領域に対して融合処理を実行してもよい。融合処理の前に、電子デバイスは、処理された顔領域内の対応する肌色領域に従って、第1の肌色領域の色、明度および透明度を調整してもよい。
本開示の方法によれば、電子デバイスは、顔の元の肌色領域と修整された顔領域とを融合させてもよい。したがって、修整された顔領域にも詳細な特徴が付与され、修整された画像の歪みが防止され、画像の美観が向上する。
本開示の一態様によれば、処理対象の画像に対して顔認識が行われる動作の前に、方法は以下のアクションをさらに含む。
ブロック602では、複数の連続撮影画像内の目の状態に応じて、複数の連続撮影画像から1つまたは複数の目を開いた画像が選択される。
連続撮影画像とは、同じ方向と同じ角度から連続的かつ迅速に撮影された画像を指す。通常の状態では、連続撮影画像の類似性は比較的高くなる。複数の連続撮影画像は、電子デバイスによって撮影され取得された画像であってもよく、ネットワーク伝送方式で電子デバイスによって取得された画像であってもよい。複数の連続撮影された顔画像を取得した後、電子デバイスは、顔画像内の顔の特徴ポイント、例えば、顔の5つの感覚器官の特徴ポイントを抽出してもよい。電子デバイスは、顔の特徴ポイントに従って顔の特徴の位置情報をマークし、例えば、顔の眼球特徴ポイントに従って目の位置を認識してもよい。顔の特徴ポイントを取得した後、電子デバイスは、顔の目の特徴を抽出し、その後、目の特徴に従って目を開いた画像を決定してもよい。目を開いた画像は、画像内の目が両方とも開いている画像である。目の特徴には、眼球の形状、眼球の位置、眼球の領域、視線方向、瞳孔の高さ、白目の領域などが含まれてもよい。目の特徴に対応する判定条件は、電子デバイスに事前に設定されていてもよい。目の特徴を取得した後、電子デバイスは、顔画像が目を開いた画像であるかどうかを判定するために、目の特徴を事前に設定された判定条件と1つずつ比較してもよい。例えば、顔画像における顔の眼球領域が第1の閾値よりも大きいことが検出された場合、顔が目を開いた状態であり、画像は目を開いた画像であると判断される。または、顔画像における顔の瞳孔の高さが事前に設定された範囲内にあることが検出された場合、顔が目を開いた状態であり、画像は目を開いた画像であると判断される。
ブロック604では、3つ以上の目を開いた画像が選択されると、3つ以上の目を開いた画像が合成されて合成画像が生成され、合成画像が処理対象の画像として決定される。
複数の連続撮影画像から3つ以上の目を開いた画像が選択された場合、電子デバイスは3つ以上の目を開いた画像を合成して合成画像を生成し、その合成画像を処理対象の画像として決定してもよい。画像合成により、画像のノイズが低減され得、画像の品質が向上し得る。
ブロック606では、複数の連続撮影画像から1つの目を開いた画像が選択されると、その目を開いた画像は処理対象の画像として決定される。
ブロック608では、処理対象の画像に対して顔認識が実行されて、処理対象の画像の顔領域が認識され、顔領域における顔特徴認識ポイントが取得される。
ブロック610では、座標系における顔特徴認識ポイントの座標値が取得される。
ブロック612では、顔特徴認識ポイント間の距離と、顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標系の座標軸の角度が座標値に従って決定される。
ブロック614では、正面顔画像に対する顔領域の偏差角は、顔特徴認識ポイント間の距離と、顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標軸の角度に従って決定される。偏差角は、平面上の正面顔画像に対する顔領域の回転角度である。
ブロック616では、偏差角に対応するレタッチテンプレートが取得される。顔領域は、レタッチテンプレートに従って修整される。
本開示の方法によれば、電子デバイスは、複数の連続撮影画像を選択し、処理対象の画像として複数の画像から目を開いた画像のみを取得し、つまり、修整のために複数の画像からより美観のある画像を選択する。したがって、画像処理プロセスはよりインテリジェントになり、ユーザの粘着性が改善される。
図7は、一実施形態による画像処理装置の構造ブロック図を示している。図7に示すように、画像処理装置は、認識モジュール702、取得モジュール704、決定モジュール706、およびレタッチモジュール708を含む。
認識モジュール702は、処理対象の画像に対して顔認識を実行して、処理対象の画像の顔領域を認識するように構成される。
取得モジュール704は、顔領域内の顔特徴認識ポイントを取得し、座標系内の顔特徴認識ポイントの座標値を取得するように構成される。
決定モジュール706は、座標値に従って顔特徴認識ポイント間の距離と、顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標系の座標軸の角度を決定し、顔特徴認識ポイント間の距離と、顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標軸の角度に従って、正面顔画像に対する顔領域の偏差角を決定するように構成される。偏差角は、平面上の正面顔画像に対する顔領域の回転角度である。
レタッチモジュール708は、偏差角に対応するレタッチテンプレートを取得し、レタッチテンプレートに従って顔領域を修整するように構成される。
本開示の一態様によれば、偏差角は、第1の角度、第2の角度、および第3の角度を含む。第1の角度は、標準顔画像に対する第1の平面上の顔領域の回転角度を表す。第2の角度は、標準顔画像に対する第2の平面上の顔領域の回転角度を表す。第3の角度は、標準顔画像に対する第3の平面上の顔領域の回転角度を表す。第1の平面、第2の平面、および第3の平面の各2つの平面は、互いに垂直である。
本開示の一態様によれば、レタッチテンプレート708が偏差角に対応するレタッチテンプレートを取得する動作は、以下のアクションのうちのいずれか1つを含む。
(1)電子デバイスは、標準レタッチテンプレートを事前に格納し、偏差角に応じて標準レタッチテンプレートを回転させて、偏差角に対応するレタッチテンプレートを取得する。
(2)電子デバイスは、格納されているレタッチテンプレートから、偏差角に対応するレタッチテンプレートを検索する。または
(3)電子デバイスは、偏差角をサーバにアップロードし、サーバから偏差角に対応するレタッチテンプレートを受信する。
本開示の一態様によれば、認識モジュール702は、顔領域内の肌色領域を認識し、肌色領域に対してエッジ抽出を実行してエッジ情報を取得するようにさらに構成される。
決定モジュール706は、エッジ情報に従って第1の肌色領域を決定するようにさらに構成される。
レタッチモジュール708は、修整された顔領域および第1の肌色領域で画像融合を実行するようにさらに構成される。
本開示の一態様によれば、決定モジュール706がエッジ情報に従って第1の肌色領域を決定する動作は、第1のエッジ情報がエッジ情報に対応する形状および色に従って決定されることを含む。第1のエッジ情報に対応する肌色領域は、第1の肌色領域として取得される。第1の肌色領域の位置情報が記録される。レタッチモジュール708が修整された顔領域および第1の肌色領域で画像融合を実行する動作は、以下のアクションを含む。処理された顔領域内の第1の肌色領域の対応する肌色領域は、位置情報に従って決定される。
融合処理は、第1の肌色領域および対応する肌色領域に対して実行される。
図8は、別の実施形態による画像処理モジュールの構造ブロック図を示している。図8に示すように、画像処理モジュールは、認識モジュール802、取得モジュール804、決定モジュール806、調整モジュール808、およびレタッチモジュール810を含む。認識モジュール802、取得モジュール804、決定モジュール806、およびレタッチモジュール810は、図7の対応するモジュールと同じ機能を有する。
取得モジュール804は、レタッチテンプレートに従って顔領域が修整される前に、顔領域の肌の色および肌のタイプと、顔領域に対応する性別を取得し、肌の色、肌のタイプ、および性別に従って顔領域に対応するレタッチパラメータを取得するように構成される。
調整モジュール808は、レタッチパラメータに従ってレタッチテンプレートを調整するように構成される。
レタッチモジュール810は、調整されたレタッチテンプレートに従って顔領域を修整するように構成される。
図9は、別の実施形態による画像処理モジュールの構造ブロック図を示している。図9に示すように、画像処理モジュールは、選択モジュール902、認識モジュール904、取得モジュール906、決定モジュール908、およびレタッチモジュール910を含む。認識モジュール904、取得モジュール906、決定モジュール908、およびレタッチモジュール910は、図7の対応するモジュールと同じ機能を有する。
選択モジュール902は、処理対象の画像に対して顔認識が実行される前に、複数の連続撮影画像の目の状態に応じて、複数の連続撮影画像から1つまたは複数の目を開いた画像を選択し;3つ以上の目を開いた画像が選択されている場合、3つ以上の目を開いた画像を合成して合成画像を生成し、合成画像を処理対象の画像として決定し;1つの目を開いた画像が選択されている場合、その目を開いた画像を処理対象の画像として決定するように構成される。
画像処理装置の各モジュールは、説明のためにのみ分割されている。画像処理装置は、画像処理装置の機能の全部または一部を実現する要件に応じて、異なるモジュールに分割されてもよい。
本開示の一態様は、コンピュータ可読記憶媒体をさらに提供し、これは、1つまたは複数の計算実行可能命令を含む非一時的なコンピュータ可読記憶媒体である。計算実行可能命令は、1つまたは複数のプロセッサによって実行され、プロセッサに次のアクションを実行させる。
(1)処理対象の画像に対して顔認識が実行されて、処理対象の画像内の顔領域が認識される。顔領域の顔特徴認識ポイントが取得される。
(2)座標系における顔特徴認識ポイントの座標値を取得する。
(3)顔特徴認識ポイント間の距離、および顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標系の座標軸の角度が座標値に従って決定される。
(4)正面画像に対する顔領域の偏差角は、顔特徴認識ポイント間の距離と、顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標軸の角度に従って決定される。偏差角は、平面上の正面顔画像に対する顔領域の回転角度である。
(5)偏差角に対応するレタッチテンプレートを取得し、レタッチテンプレートに従って顔領域を修整する。
本開示の一態様によれば、偏差角は、第1の角度、第2の角度、および第3の角度を含む。第1の角度は、標準顔画像に対する第1の平面上の顔領域の回転角度を表す。第2の角度は、標準顔画像に対する第2の平面上の顔領域の回転角度を表す。第3の角度は、標準顔画像に対する第3の平面上の顔領域の回転角度を表す。第1の平面、第2の平面、および第3の平面の各2つの平面は、互いに垂直である。
一態様によれば、プロセッサによって実行される、偏差角に対応するレタッチテンプレートが取得されるアクションは、以下のアクションのいずれか1つを含む。
(1)電子デバイスは、標準レタッチテンプレートを事前に格納し、偏差角に応じて標準レタッチテンプレートを回転させて、偏差角に対応するレタッチテンプレートを取得する。
(2)電子デバイスは、格納されているレタッチテンプレートから、偏差角に対応するレタッチテンプレートを検索する。
(3)電子デバイスは、偏差角をサーバにアップロードし、サーバから偏差角に対応するレタッチテンプレートを受信する。
本開示の態様によれば、レタッチテンプレートに従って顔領域が修整される動作は、以下のアクションを含む。顔領域の肌の色および肌のタイプと、顔領域に対応する性別が取得される。顔領域に対応するレタッチパラメータは、肌の色、肌のタイプ、および性別に従って取得される。レタッチテンプレートはレタッチパラメータに従って調整され、顔領域は調整されたレタッチテンプレートに従って修整される。
本開示の一態様によれば、以下のアクションがさらに実行される。顔領域内の肌色領域を認識し、肌色領域に対してエッジ抽出を行い、エッジ情報を取得する。第1の肌色領域は、エッジ情報に従って決定される。画像融合は、修整された顔領域と第1の肌色領域で実行される。
本開示の一態様によれば、第1の肌色領域がエッジ情報に従って決定される動作は、以下のアクションを含む。第1のエッジ情報は、エッジ情報に対応する形状および色に従って決定される。第1のエッジ情報に対応する肌色領域は、第1の肌色領域として取得される。第1の肌色領域の位置情報が記録される。修整された顔領域と第1の肌色領域で画像融合が行われる動作には、以下のアクションが含まれる。処理された顔領域内の第1の肌色領域の対応する肌色領域は、位置情報に従って決定される。融合処理は、第1の肌色領域および対応する肌色領域に対して実行される。
本開示の一態様によれば、処理対象の画像に対して顔認識が行われる動作の前に、以下のアクションがさらに実行される。複数の連続撮影画像の目の状態に応じて、複数の連続撮影画像から1つまたは複数の目を開いた画像が選択される。2つ以上の目を開いた画像が選択されると、2つ以上の目を開いた画像が合成されて合成画像が生成され、その合成画像が処理対象の画像として決定される。1つの目を開いた画像が選択されると、その目を開いた画像が処理対象の画像として決定される。
本開示は、命令を含むコンピュータプログラム製品をさらに提供する。コンピュータプログラム製品はコンピュータ上で実行され、コンピュータに次のアクションを実行させる。
(1)処理対象の画像に対して顔認識が実行されて、処理対象の画像内の顔領域が認識される。顔領域の顔特徴認識ポイントが取得される。
(2)座標系における顔特徴認識ポイントの座標値を取得する。
(3)顔特徴認識ポイント間の距離、および顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標系の座標軸の角度が座標値に従って決定される。
(4)顔領域の偏差角は、顔特徴認識ポイント間の距離と、顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標軸の角度に従って決定される。
(5)偏差角に対応するレタッチテンプレートを取得し、レタッチテンプレートに従って顔領域を修整する。
本開示の一態様によれば、偏差角は、第1の角度、第2の角度、および第3の角度を含む。第1の角度は、標準顔画像に対する第1の平面上の顔領域の回転角度を表す。第2の角度は、標準顔画像に対する第2の平面上の顔領域の回転角度を表す。第3の角度は、標準顔画像に対する第3の平面上の顔領域の回転角度を表す。第1の平面、第2の平面、および第3の平面の各2つの平面は、互いに垂直である。
本開示の一態様によれば、プロセッサによって実行される、偏差角に対応するレタッチテンプレートが取得されるアクションは、以下のアクションのいずれか1つを含む。
(1)電子デバイスは、標準レタッチテンプレートを事前に格納し、偏差角に応じて標準レタッチテンプレートを回転させて、偏差角に対応するレタッチテンプレートを取得する。
(2)電子デバイスは、格納されているレタッチテンプレートから、偏差角に対応するレタッチテンプレートを検索する。または
(3)電子デバイスは、偏差角をサーバにアップロードし、サーバから偏差角に対応するレタッチテンプレートを受信する。
本開示の一態様によれば、レタッチテンプレートに従って顔領域が修整される動作は、以下のアクションを含む。顔領域の肌の色および肌のタイプと、顔領域に対応する性別が取得される。顔領域に対応するレタッチパラメータは、肌の色、肌のタイプ、および性別に従って取得される。レタッチテンプレートは、レタッチパラメータに従って調整される。顔領域は、調整されたレタッチテンプレートに従って修整される。
本開示の一態様によれば、以下のアクションがさらに実行される。顔領域内の肌色領域を認識し、肌色領域に対してエッジ抽出を行い、エッジ情報を取得する。第1の肌色領域は、エッジ情報に従って決定される。画像融合は、修整された顔領域と第1の肌色領域で実行される。
本開示の一態様によれば、第1の肌色領域がエッジ情報に従って決定される動作は、以下のアクションを含む。第1のエッジ情報は、エッジ情報に対応する形状および色に従って決定される。第1のエッジ情報に対応する肌色領域は、第1の肌色領域として取得される。第1の肌色領域の位置情報が記録される。修整された顔領域と第1の肌色領域で画像融合が行われる動作には、以下のアクションが含まれる。処理された顔領域内の第1の肌色領域の対応する肌色領域は、位置情報に従って決定される。融合処理は、第1の肌色領域および対応する肌色領域に対して実行される。
本開示の一態様によれば、処理対象の画像に対して顔認識が行われる動作の前に、以下のアクションがさらに実行される。複数の連続撮影画像の目の状態に応じて、複数の連続撮影画像から1つまたは複数の目を開いた画像が選択される。2つ以上の目を開いた画像が選択されると、2つ以上の目を開いた画像が合成されて合成画像が生成され、その合成画像が処理対象の画像として決定される。1つの目を開いた画像が選択されると、その目を開いた画像が処理対象の画像として決定される。
例えば、電子デバイスはモバイル端末である。本開示の一態様は、モバイル端末をさらに提供する。モバイル端末は画像処理回路を含む。画像処理回路は、ハードウェアおよび/またはソフトウェアコンポーネントによって実装されてもよく、画像信号処理(ISP)パイプラインを画定するさまざまな処理ユニットを含んでもよい。図10は、一実施形態による画像処理回路の概略図を示している。図10に示されるように、本開示に関連する画像処理技術の各態様は、便宜上の説明のためにのみ示されている。
図10に示されるように、画像処理回路は、ISPユニット1040および制御論理ユニット1050を含む。撮像デバイス1010によって取り込まれた画像データは、最初にISPユニット1040によって処理され、ISPユニット1040は画像データを分析して、ISPユニット1040または撮像デバイス1010の少なくとも一方の1つまたは複数の制御パラメータを決定するように構成可能な画像統計情報を取り込む。撮像デバイス1010は、1つまたは複数のレンズ1012および画像センサ1014を備えたカメラを含んでもよい。画像センサ1014は、カラーフィルタアレイ(例えば、ベイヤーフィルタ)を含んでもよい。画像センサ1014は、画像センサ1014の各撮像ピクセルによって取り込まれた光強度および波長情報を取得し、処理可能な元の画像データセットをISPユニット1040に提供してもよい。センサ1020(例えば、ジャイロスコープ)は、センサ1020のインタフェースタイプに基づいて、ISPユニット1040のための取得画像の処理のためのパラメータ(例えば、安定化パラメータ)を提供してもよい。センサ1020のインタフェースは、標準モバイルイメージングアーキテクチャ(SMIA)インタフェース、別のシリアルカメラインタフェースもしくはパラレルカメラインタフェース、またはカメラの組み合わせを採用してもよい。
加えて、画像センサ1014は、元の画像データをセンサ1020に送信してもよい。センサ1020は、センサ1020のインタフェースタイプに基づいてISPユニット1040に元の画像データを提供してもよく、またはセンサ1020は元の画像データを画像メモリ1030に格納してもよい。
ISPユニット1040は、さまざまなフォーマットでピクセルごとに元の画像データを処理する。例えば、各画像ピクセルのビット深度は8、10、12、または14ビットであってもよい。ISPユニット1040は、元の画像データに対して1つまたは複数の画像処理動作を実行し、画像データに関する統計情報を収集してもよい。画像処理動作は、同じまたは異なるビット深度精度に従って実行されてもよい。
ISPユニット1040は、画像メモリ1030から画像データをさらに受信してもよい。例えば、センサ1020のインタフェースは、元の画像データを画像メモリ1030に送信する。画像メモリ1030内の元の画像データは、処理のためにISPユニット1040に提供される。画像メモリ1030は、メモリ装置、ストレージデバイス、または電子デバイス内の独立した専用メモリの一部であってもよく、ダイレクトメモリアクセス(DMA)機能を含んでもよい。
ISPユニット1040は、画像センサ1014のインタフェースから、またはセンサ1020のインタフェースから、または画像メモリ1030から元の画像データを受信すると、1つまたは複数の画像処理動作、例えば時間領域フィルタリングを実行してもよい。処理された画像データは、表示前に他の処理のために画像メモリ1030に送られてもよい。ISPユニット1040は、画像メモリ1030から処理済みデータをさらに受信し、処理済みデータに対して元のドメインならびに色空間の赤、緑、青(RGB)方式およびYCbCr方式で画像データ処理を実行してもよい。処理された画像データは、ユーザに表示するため、および/またはグラフィック処理ユニット(GPU)によるさらなる処理のためにディスプレイ1380に出力されてもよい。加えて、ISPユニット1040の出力は、画像メモリ1030にさらに送られてもよい。ディスプレイ1080は、画像メモリ1030から画像データを読み取ってもよい。本開示の一態様によれば、画像メモリ1030は、1つまたは複数のフレームバッファを実装するように構成され得る。さらに、ISPユニット1040の出力は、画像データを符号化/復号するために符号器/復号器1070に送られてもよい。符号化された画像データは格納されてもよく、ディスプレイ1080に表示される前に解凍される。
ISP1040が画像データを処理するアクションには、次のアクションが含まれる。ビデオフロントエンド(VFE)処理とカメラポストプロセッシング(CPP)は、画像データに対して実行される。画像データのVFE処理には、画像データのコントラストまたは明度の補正、デジタル形式で記録された照明状態データの変更、画像データの補正処理(ホワイトバランス、自動ゲイン制御、γ補正など)、画像データのフィルタリング処理などが含まれてもよい。画像データのCPPには、画像のスケーリング、および各パスのプレビューフレームと記録フレームの提供が含まれてもよい。CPPは、異なるコーデックでプレビューフレームと記録フレームを処理してもよい。ISPユニット1040によって処理された画像データは、表示される前に画像を修整するためにレタッチモジュール1060に送られてもよい。画像データに対するレタッチモジュール1060の修整は、ホワイトニング、そばかす除去、バフ研磨、フェイスリフト、にきび除去、目を大きくすることなどを含んでもよい。レタッチモジュール1060は、モバイル端末の中央処理装置(CPU)、GPU、コプロセッサなどであってもよい。レタッチモジュール1060によって処理されたデータは、画像データの符号化/復号のために符号器/復号器1070に送信されてもよい。符号化された画像データは格納されてもよく、ディスプレイ1080に表示される前に解凍される。レタッチモジュール1060は、符号器/復号器1070とディスプレイ1080との間に配置されてもよい。つまり、レタッチモジュールは、形成された画像を修整する。符号器/復号器1070は、モバイル端末内のCPU、GPU、コプロセッサなどであってもよい。
ISPユニット1040によって決定された統計データは、制御論理ユニット1050に送信されてもよい。例えば、統計データは、画像センサ1014の自動露出、自動ホワイトバランス、自動焦点合わせ、シンチレーション検出、黒レベル補正、レンズ1012のシェーディング補正などに関する統計情報を含んでもよい。制御論理ユニット1050は、1つまたは複数のルーチン(例えば、ファームウェア)を実行するプロセッサおよび/またはマイクロコントローラを含んでもよい。1つまたは複数のルーチンは、受信した統計データに従って、撮像デバイス1010の制御パラメータおよびISPユニット1040の制御パラメータを決定してもよい。例えば、撮像デバイス1010の制御パラメータは、センサ1020の制御パラメータ(例えば、ゲインおよび露出制御の積分時間)、カメラシンチレーション制御パラメータ、レンズ1012の制御パラメータ(例えば、フォーカシングまたはズームの焦点距離)、またはこれらのパラメータの組み合わせを含んでもよい。ISPユニットの制御パラメータは、自動ホワイトバランスおよび色調整(例えば、RGB処理中)およびレンズ1012のシェーディング補正パラメータ用に構成されたゲインレベルおよび色補正マトリックスを含んでもよい。
図10の画像処理技術を使用して、以下のアクションを実施することができる。
(1)処理対象の画像に対して顔認識が実行されて、処理対象の画像内の顔領域が認識される。顔領域の顔特徴認識ポイントが取得される。
(2)座標系における顔特徴認識ポイントの座標値を取得する。
(3)顔特徴認識ポイント間の距離、および顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標系の座標軸の角度が座標値に従って決定される。
(4)顔領域の偏差角は、顔特徴認識ポイント間の距離と、顔特徴認識ポイントの2つをそれぞれ接続する線に対する座標軸の角度に従って決定される。偏差角は、平面上の正面顔画像に対する顔領域の回転角度である。
(5)偏差角に対応するレタッチテンプレートを取得し、レタッチテンプレートに従って顔領域を修整する。
本開示の一態様によれば、偏差角は、第1の角度、第2の角度、および第3の角度を含む。第1の角度は、標準顔画像に対する第1の平面上の顔領域の回転角度を表す。第2の角度は、標準顔画像に対する第2の平面上の顔領域の回転角度を表す。第3の角度は、標準顔画像に対する第3の平面上の顔領域の回転角度を表す。第1の平面、第2の平面、および第3の平面の各2つの平面は、互いに垂直である。
本開示の一態様によれば、プロセッサによって実施される、偏差角に対応するレタッチテンプレートが取得されるアクションは、以下のアクションのいずれか1つを含む。
(1)事前に格納されている標準レタッチテンプレートを偏差角に応じて回転させ、偏差角に対応するレタッチテンプレートを取得する。
(2)格納されているレタッチテンプレートから、偏差角に対応するレタッチテンプレートを検索する。
(3)偏差角がサーバにアップロードされ、偏差角に対応するレタッチテンプレートがサーバから受信される。
本開示の一態様によれば、レタッチテンプレートに従って顔領域が修整されるアクションは、以下のアクションを含む。顔領域の肌の色および肌のタイプと、顔領域に対応する性別が取得される。顔領域に対応するレタッチパラメータは、肌の色、肌のタイプ、および性別に従って取得される。レタッチテンプレートは、レタッチパラメータに従って調整される。顔領域は、調整されたレタッチテンプレートに従って修整される。
本開示の一態様によれば、以下のアクションがさらに実行される。顔領域の肌色領域が認識される。肌色領域に対してエッジ抽出が実行され、エッジ情報が取得される。第1の肌色領域は、エッジ情報に従って決定される。画像融合は、修整された顔領域と第1の肌色領域で実行される。
本開示の一態様によれば、第1の肌色領域がエッジ情報に従って決定される動作は、以下のアクションを含む。第1のエッジ情報は、エッジ情報に対応する形状および色に従って決定される。第1のエッジ情報に対応する肌色領域は、第1の肌色領域として取得される。第1の肌色領域の位置情報が記録される。修整された顔領域と第1の肌色領域で画像融合が行われる動作には、以下のアクションが含まれる。処理された顔領域内の第1の肌色領域の対応する肌色領域は、位置情報に従って決定される。融合処理は、第1の肌色領域および対応する肌色領域に対して実行される。
本開示の一態様によれば、処理対象の画像に対して顔認識が行われる動作の前に、以下のアクションがさらに実行される。複数の連続撮影画像の目の状態に応じて、複数の連続撮影画像から1つまたは複数の目を開いた画像が選択される。2つ以上の目を開いた画像が選択されると、2つ以上の目を開いた画像が合成されて合成画像が生成され、合成画像が処理対象の画像として決定される。1つの目を開いた画像が選択されると、その目を開いた画像が処理対象の画像として決定される。
本出願で使用されるメモリ、ストレージ、データベース、または別の媒体の引用には、非一時的メモリおよび/または一時的メモリが含まれてもよい。適切な非一時的メモリには、読み取り専用メモリ(ROM)、プログラマブルROM(PROM)、電気的プログラマブルROM(EPROM)、電気的消去可能プログラマブルROM(EEPROM)またはフラッシュメモリが含まれてもよい。揮発性メモリには、ランダムアクセスメモリ(RAM)が含まれてもよく、外部高速バッファメモリとして使用される。例示的かつ無制限に、RAMは、静的RAM(SRAM)、動的RAM(DRAM)、同期DRAM(SDRAM)、ダブルデータレートSDRAM(DDRSDRAM)、拡張SDRAM(ESDRAM)、Synchlink DRAM(SLDRAM)、ラムバスダイレクトRAM(RDRAM)、ダイレクトRDRAM(DRDRAM)、およびラムバス動的RAM(RDRAM)などのさまざまな形式で取得されてもよい。
上述の実施形態は、本出願のいくつかの実施モードを表現して、詳細に具体的に説明されているだけであり、本出願の特許範囲を制限するものではない。当業者は、本出願の概念から逸脱することなく複数の変換および改善をさらに行うことができ、これらはすべて本出願の保護の範囲内にあることを指摘しておくべきである。したがって、特許出願の保護範囲は、添付の特許請求の範囲に従うものとする。

Claims (13)

  1. 画像処理のための方法であって、前記方法が、
    処理対象の画像に対して顔認識を実行して、前記処理対象の画像内の顔領域を認識し、前記顔領域内の顔特徴認識ポイントを取得するステップ(202,402,608)と、
    座標系における前記顔特徴認識ポイントの座標値を取得するステップ(204,404,610)と、
    前記座標値に従って、前記顔特徴認識ポイント間の距離、および前記顔特徴認識ポイントの2つをそれぞれ接続する線に対する前記座標系の座標軸の角度を決定するステップ(206,406,612)と、
    前記顔特徴認識ポイント間の前記距離および前記顔特徴認識ポイントの2つをそれぞれ接続する線に対する前記座標軸の角度に従って、正面顔画像に対する前記顔領域の偏差角を決定するステップであって、前記偏差角は平面上の前記正面顔画像に対する前記顔領域の回転角度である、ステップ(208,408,614)と、
    前記偏差角に対応するレタッチテンプレートを取得し、
    前記レタッチテンプレートに従って前記顔領域を修整するステップ(210,616)と
    前記顔領域内の肌色領域を認識し、前記肌色領域に対してエッジ抽出を実行してエッジ情報を取得するステップ(212)と、
    前記エッジ情報に従って第1の肌色領域を決定するステップ(214)と、
    前記修整された顔領域と前記第1の肌色領域で画像融合を実行するステップ(216)と
    を含む、方法。
  2. 前記偏差角が、
    前記正面顔画像に対する第1の平面上の前記顔領域の回転角度を表す第1の角度と、
    前記正面顔画像に対する第2の平面上の前記顔領域の回転角度を表す第2の角度と、
    前記正面顔画像に対する第3の平面上の前記顔領域の回転角度を表す第3の角度と、
    を含み、
    前記第1の平面、前記第2の平面、および前記第3の平面の各2つの平面は互いに垂直である、
    請求項1に記載の方法。
  3. 前記偏差角に対応する前記レタッチテンプレートを取得するステップが、
    前記偏差角に応じて、事前に格納された標準レタッチテンプレートを回転させ、前記偏差角に対応する前記レタッチテンプレートを取得するアクション、
    格納されているレタッチテンプレートから前記偏差角に対応する前記レタッチテンプレートを検索するアクション、または
    前記偏差角をサーバにアップロードし、前記偏差角に対応する前記レタッチテンプレートを前記サーバから受信するアクション
    のいずれか1つを含む、請求項1に記載の方法。
  4. 前記レタッチテンプレートに従って前記顔領域を修整するステップが、
    前記顔領域の肌の色および肌のタイプと、前記顔領域に対応する性別を取得するステップ(412)と、
    前記肌の色、前記肌のタイプ、および前記性別に応じて前記顔領域に対応するレタッチパラメータを取得するステップ(414)と、
    前記レタッチパラメータに従って前記レタッチテンプレートを調整するステップと、
    前記調整されたレタッチテンプレートに従って前記顔領域を修整するステップ(416)と
    を含む、請求項1から3のいずれか一項に記載の方法。
  5. 前記エッジ情報に従って前記第1の肌色領域を決定するステップが、
    前記エッジ情報に対応する形状および色に従って第1のエッジ情報を決定するステップと、
    前記第1のエッジ情報に対応する肌色領域を前記第1の肌色領域として取得するステップと、
    前記第1の肌色領域の位置情報を記録するステップと、
    を含み、
    前記修整された顔領域と前記第1の肌色領域で画像融合を実行するステップが、
    前記位置情報に従って、処理された顔領域内の前記第1の肌色領域の対応する肌色領域を決定するステップと、
    前記第1の肌色領域および前記対応する肌色領域で融合処理を実行するステップと、
    を含む、
    請求項1から3のいずれか一項に記載の方法。
  6. 前記処理対象の画像に対して顔認識を実行するステップの前に、
    複数の連続撮影画像の目の状態に応じて、前記複数の連続撮影画像から1つまたは複数の目を開いた画像を選択するステップ(602)と、
    2つ以上の目を開いた画像が選択されると、前記2つ以上の目を開いた画像を合成して合成画像を生成し、前記合成画像を前記処理対象の画像として決定するステップ(604)と、
    1つの目を開いた画像が選択されると、前記1つの目を開いた画像を前記処理対象の画像として決定するステップ(606)と
    さらに含む、請求項1から3のいずれか一項に記載の方法。
  7. 画像処理のための装置であって、プロセッサと、命令を格納するメモリとを備え、前記命令は、前記プロセッサによって実行されると、前記プロセッサに請求項1からのいずれか一項に記載の方法を実行させる、装置。
  8. コンピュータによって実行されると、前記コンピュータに請求項1からのいずれか一項に記載の方法を実施させるコンピュータプログラムを格納するコンピュータ可読記憶媒体。
  9. 画像処理のための装置であって、
    処理対象の画像に対して顔認識を実行して、前記処理対象の画像の顔領域を認識するように構成された認識モジュール(702)と、
    前記顔領域内の顔特徴認識ポイントを取得し、座標系における前記顔特徴認識ポイントの座標値を取得するように構成された取得モジュール(704)と、
    前記顔特徴認識ポイント間の距離、および前記座標値に従って前記顔特徴認識ポイントの2つをそれぞれ接続する線に対する前記座標系の座標軸の角度を決定するように構成された決定モジュール(706)であって、
    前記決定モジュール(706)は、前記顔特徴認識ポイント間の前記距離および前記顔特徴認識ポイントの2つをそれぞれ接続する線に対する前記座標軸の角度に従って、正面顔画像に対する前記顔領域の偏差角を決定するようにさらに構成され、前記偏差角は平面上の前記正面顔画像に対する前記顔領域の回転角度である、
    決定モジュール(706)と、
    前記偏差角に対応するレタッチテンプレートを取得し、前記レタッチテンプレートに従って前記顔領域を修整するように構成されたレタッチモジュール(708)と
    を備え、
    前記認識モジュール(702)が、前記顔領域内の肌色領域を認識し、前記肌色領域に対してエッジ抽出を実行してエッジ情報を取得するようにさらに構成され、
    前記決定モジュール(706)が、前記エッジ情報に従って第1の肌色領域を決定するようにさらに構成され、
    前記レタッチモジュール(708)が、前記修整された顔領域と前記第1の肌色領域で画像融合を実行するようにさらに構成される、装置。
  10. 前記偏差角が、
    前記正面顔画像に対する第1の平面上の前記顔領域の回転角度を表す第1の角度と、
    前記正面顔画像に対する第2の平面上の前記顔領域の回転角度を表す第2の角度と、
    前記正面顔画像に対する第3の平面上の前記顔領域の回転角度を表す第3の角度と、
    を含み、
    前記第1の平面、前記第2の平面、および前記第3の平面の各2つの平面は互いに垂直である、
    請求項に記載の装置。
  11. 前記レタッチモジュール(708)が、
    前記偏差角に応じて、事前に格納された標準レタッチテンプレートを回転させ、前記偏差角に対応する前記レタッチテンプレートを取得するアクション、
    格納されているレタッチテンプレートから前記偏差角に対応する前記レタッチテンプレートを検索するアクション、または
    前記偏差角をサーバにアップロードし、前記偏差角に対応する前記レタッチテンプレートを前記サーバから受信するアクション
    のいずれか1つを実行するようにさらに構成される、請求項に記載の装置。
  12. 記レタッチモジュール(708)が、
    前記顔領域の肌の色および肌のタイプと、前記顔領域に対応する性別を取得し、
    前記肌の色、前記肌のタイプ、および前記性別に応じて前記顔領域に対応するレタッチパラメータを取得し、
    前記レタッチパラメータに従って前記レタッチテンプレートを調整し、前記調整されたレタッチテンプレートに従って前記顔領域を修整する
    ようにさらに構成される、請求項から11のいずれか一項に記載の装置。
  13. 前記決定モジュール(706)が、前記エッジ情報に対応する形状および色に従って第1のエッジ情報を決定し、前記第1のエッジ情報に対応する肌色領域を前記第1の肌色領域として取得し、前記第1の肌色領域の位置情報を記録するようにさらに構成され、
    前記レタッチモジュール(708)が、前記位置情報に従って、処理された顔領域内の前記第1の肌色領域の対応する肌色領域を決定し、前記第1の肌色領域と前記対応する肌色領域で融合処理を実行するようにさらに構成される、
    請求項9から11のいずれか一項に記載の装置。
JP2020518525A 2017-10-31 2018-10-16 画像処理のための方法および装置、ならびにコンピュータ可読記憶媒体 Active JP6961811B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201711040533.2A CN107818305B (zh) 2017-10-31 2017-10-31 图像处理方法、装置、电子设备和计算机可读存储介质
CN201711040533.2 2017-10-31
PCT/CN2018/110534 WO2019085751A1 (en) 2017-10-31 2018-10-16 Method and apparatus for image processing, and computer-readable storage medium

Publications (2)

Publication Number Publication Date
JP2020535561A JP2020535561A (ja) 2020-12-03
JP6961811B2 true JP6961811B2 (ja) 2021-11-05

Family

ID=61603306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020518525A Active JP6961811B2 (ja) 2017-10-31 2018-10-16 画像処理のための方法および装置、ならびにコンピュータ可読記憶媒体

Country Status (6)

Country Link
US (1) US10929646B2 (ja)
EP (1) EP3477542A1 (ja)
JP (1) JP6961811B2 (ja)
KR (1) KR102362544B1 (ja)
CN (1) CN107818305B (ja)
WO (1) WO2019085751A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10176377B2 (en) * 2015-11-02 2019-01-08 Fotonation Limited Iris liveness detection for mobile devices
CN107818305B (zh) 2017-10-31 2020-09-22 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
CN108564037B (zh) * 2018-04-15 2021-06-08 南京明辉创鑫电子科技有限公司 一种敬礼姿势检测校正方法
KR102056681B1 (ko) * 2018-04-27 2019-12-17 주식회사 딥픽셀 현실공간과의 융합을 제공하는 가상현실 인터페이스 방법 및 장치
CN108921856B (zh) * 2018-06-14 2022-02-08 北京微播视界科技有限公司 图像裁剪方法、装置、电子设备及计算机可读存储介质
CN108986019A (zh) * 2018-07-13 2018-12-11 北京小米智能科技有限公司 肤色调整方法及装置、电子设备、机器可读存储介质
CN110163806B (zh) * 2018-08-06 2023-09-15 腾讯科技(深圳)有限公司 一种图像处理方法、装置以及存储介质
CN109284694A (zh) * 2018-08-31 2019-01-29 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN109446892B (zh) * 2018-09-14 2023-03-24 杭州宇泛智能科技有限公司 基于深度神经网络的人眼注意力定位方法及系统
CN109360176B (zh) * 2018-10-15 2021-03-02 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
CN109584168B (zh) * 2018-10-25 2021-05-04 北京市商汤科技开发有限公司 图像处理方法和装置、电子设备和计算机存储介质
CN109740431B (zh) * 2018-11-26 2021-11-16 深圳艺达文化传媒有限公司 自拍视频的头像画面的眉毛处理方法及相关产品
CN111292276B (zh) * 2018-12-07 2021-06-22 北京字节跳动网络技术有限公司 图像处理方法和装置
CN110717867B (zh) * 2019-09-04 2023-07-11 北京达佳互联信息技术有限公司 一种图像生成方法、装置、电子设备及存储介质
CN113545028B (zh) 2019-09-25 2023-05-09 谷歌有限责任公司 用于面部认证的增益控制
CN111091610B (zh) * 2019-11-22 2023-04-11 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
US11403788B2 (en) 2019-11-22 2022-08-02 Beijing Sensetime Technology Development Co., Ltd. Image processing method and apparatus, electronic device, and storage medium
CN111145119B (zh) * 2019-12-25 2023-06-02 维沃移动通信(杭州)有限公司 一种图像处理方法及电子设备
CN111243049B (zh) 2020-01-06 2021-04-02 北京字节跳动网络技术有限公司 人脸图像的处理方法、装置、可读介质和电子设备
CN111339971B (zh) * 2020-03-02 2022-06-28 北京字节跳动网络技术有限公司 视频中人体肩颈处理方法、装置及电子设备
CN111402154A (zh) * 2020-03-10 2020-07-10 北京字节跳动网络技术有限公司 图像美颜方法、装置、电子设备及计算机可读存储介质
CN111311519A (zh) * 2020-03-12 2020-06-19 北京字节跳动网络技术有限公司 视频中人体腰部美体处理方法、装置及电子设备
CN111310749A (zh) * 2020-03-23 2020-06-19 北京字节跳动网络技术有限公司 视频中人体臀部美体处理方法、装置及电子设备
CN111445405B (zh) * 2020-03-24 2022-06-17 北京字节跳动网络技术有限公司 图片中人体肩颈处理方法、装置及电子设备
CN111445514A (zh) * 2020-03-24 2020-07-24 北京字节跳动网络技术有限公司 图片中人体臀部处理方法、装置及电子设备
CN111612897B (zh) * 2020-06-05 2023-11-10 腾讯科技(深圳)有限公司 三维模型的融合方法、装置、设备及可读存储介质
CN111652878B (zh) * 2020-06-16 2022-09-23 腾讯科技(深圳)有限公司 图像检测方法、装置、计算机设备及存储介质
CN111798399B (zh) * 2020-07-10 2024-04-30 抖音视界有限公司 一种图像处理方法、装置以及电子设备
CN113362344B (zh) * 2021-06-30 2023-08-11 展讯通信(天津)有限公司 人脸皮肤分割方法和设备
CN114092678A (zh) * 2021-11-29 2022-02-25 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备及存储介质

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030042403A (ko) * 2001-11-22 2003-05-28 조윤석 윤곽선 정합에 의한 이용한 얼굴 캐릭터 생성 방법
US7239726B2 (en) * 2001-12-12 2007-07-03 Sony Corporation System and method for effectively extracting facial feature information
JP2004062565A (ja) * 2002-07-30 2004-02-26 Canon Inc 画像処理装置及び方法並びにプログラム記憶媒体
US7747040B2 (en) * 2005-04-16 2010-06-29 Microsoft Corporation Machine vision system and method for estimating and tracking facial pose
CN1786980A (zh) * 2005-12-08 2006-06-14 上海交通大学 用二维轮廓进行人脸特征点新位置搜索的方法
CN102013011B (zh) * 2010-12-16 2013-09-04 重庆大学 基于正脸补偿算子的多姿态人脸识别方法
US8824808B2 (en) 2011-08-19 2014-09-02 Adobe Systems Incorporated Methods and apparatus for automated facial feature localization
JP5818091B2 (ja) 2011-12-27 2015-11-18 ソニー株式会社 画像処理装置、画像処理システム、画像処理方法、および、プログラム
US8908904B2 (en) 2011-12-28 2014-12-09 Samsung Electrônica da Amazônia Ltda. Method and system for make-up simulation on portable devices having digital cameras
US8954706B2 (en) 2012-03-21 2015-02-10 Hitachi, Ltd. Storage apparatus, computer system, and control method for storage apparatus
EP3040939B1 (en) 2013-08-30 2018-10-10 Panasonic Intellectual Property Management Co., Ltd. Makeup support device, makeup support method, and makeup support program
EP3103059A1 (de) * 2014-02-04 2016-12-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3d-bildanalysator zur blickrichtungsbestimmung
CN103793693A (zh) * 2014-02-08 2014-05-14 厦门美图网科技有限公司 一种人脸转向的检测方法及其应用该方法的脸型优化方法
JP6369246B2 (ja) * 2014-09-08 2018-08-08 オムロン株式会社 似顔絵生成装置、似顔絵生成方法
KR101717222B1 (ko) * 2015-04-24 2017-03-17 가천대학교 산학협력단 시선 검출 시스템 및 그 방법
CN104966267B (zh) * 2015-07-02 2018-01-19 广东欧珀移动通信有限公司 一种美颜用户图像的方法及装置
CN106558025B (zh) * 2015-09-29 2021-02-09 腾讯科技(深圳)有限公司 一种图片的处理方法和装置
CN106991367B (zh) * 2016-01-21 2019-03-19 腾讯科技(深圳)有限公司 确定人脸转动角度的方法和装置
CN105760836A (zh) * 2016-02-17 2016-07-13 厦门美图之家科技有限公司 基于深度学习的多角度人脸对齐方法、系统及拍摄终端
CN105956576A (zh) * 2016-05-18 2016-09-21 广东欧珀移动通信有限公司 一种图像美颜方法、装置及移动终端
CN106446793B (zh) * 2016-08-31 2019-01-01 广州莱德璞检测技术有限公司 一种基于人脸特征点的人脸轮廓计算方法
US10062216B2 (en) * 2016-09-13 2018-08-28 Aleksey Konoplev Applying facial masks to faces in live video
CN106791365A (zh) 2016-11-25 2017-05-31 努比亚技术有限公司 人脸图像预览处理方法及装置
CN107818305B (zh) 2017-10-31 2020-09-22 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质

Also Published As

Publication number Publication date
JP2020535561A (ja) 2020-12-03
CN107818305B (zh) 2020-09-22
KR102362544B1 (ko) 2022-02-14
US10929646B2 (en) 2021-02-23
EP3477542A1 (en) 2019-05-01
KR20200043448A (ko) 2020-04-27
CN107818305A (zh) 2018-03-20
US20190130166A1 (en) 2019-05-02
WO2019085751A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
JP6961811B2 (ja) 画像処理のための方法および装置、ならびにコンピュータ可読記憶媒体
JP7027537B2 (ja) 画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体
EP3477931B1 (en) Image processing method and device, readable storage medium and electronic device
CN107766831B (zh) 图像处理方法、装置、移动终端和计算机可读存储介质
CN107808136B (zh) 图像处理方法、装置、可读存储介质和计算机设备
CN107945135B (zh) 图像处理方法、装置、存储介质和电子设备
CN107730444B (zh) 图像处理方法、装置、可读存储介质和计算机设备
CN108537749B (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
JP4865038B2 (ja) 顔検出と肌の色合いの情報を用いたデジタル画像処理
US10740985B2 (en) Adjusting a digital representation of a head region
CN107705248A (zh) 图像处理方法、装置、电子设备和计算机可读存储介质
WO2022078041A1 (zh) 遮挡检测模型的训练方法及人脸图像的美化处理方法
CN107993209B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
US9135726B2 (en) Image generation apparatus, image generation method, and recording medium
CN110889410A (zh) 浅景深渲染中语义分割的稳健用途
CN108846807B (zh) 光效处理方法、装置、终端及计算机可读存储介质
CN112884637A (zh) 特效生成方法、装置、设备及存储介质
WO2019015477A1 (zh) 图像矫正方法、计算机可读存储介质和计算机设备
CN108022207A (zh) 图像处理方法、装置、存储介质和电子设备
KR20200043432A (ko) 이미지 데이터에 가상 조명 조정들을 제공하기 위한 기술
WO2022261828A1 (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
US8971636B2 (en) Image creating device, image creating method and recording medium
CN107770447B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
KR100422470B1 (ko) 3차원 동화상 모델 얼굴 대체 방법 및 장치
JP7110899B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211013

R150 Certificate of patent or registration of utility model

Ref document number: 6961811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150