JP2020536457A - 画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体 - Google Patents

画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP2020536457A
JP2020536457A JP2020519299A JP2020519299A JP2020536457A JP 2020536457 A JP2020536457 A JP 2020536457A JP 2020519299 A JP2020519299 A JP 2020519299A JP 2020519299 A JP2020519299 A JP 2020519299A JP 2020536457 A JP2020536457 A JP 2020536457A
Authority
JP
Japan
Prior art keywords
distance
image
portrait
parameter
shooting distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020519299A
Other languages
English (en)
Other versions
JP7027537B2 (ja
Inventor
ツォン、ユエンチン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2020536457A publication Critical patent/JP2020536457A/ja
Application granted granted Critical
Publication of JP7027537B2 publication Critical patent/JP7027537B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • G06T3/04
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73
    • G06T5/90
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体が提供される。本方法は、処理対象画像に対して顔認識を実行するステップと、処理対象画像がポートレートを含んでいるという検出に応答して、ポートレートの撮影距離を取得するステップと、撮影距離が事前設定された距離条件を満たしているという判定に応答して、満たされた距離条件と合致するパラメータ関係を取得するステップと、パラメータ関係に従って、撮影距離に対応する美化パラメータを選択するステップと、美化パラメータに従って、ポートレートに美化処理を実行するステップとを含む。

Description

本開示は、画像処理技術の分野に関し、特に、画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体に関する。
電子機器がカメラなどを介してポートレートを取得した後に、美化技術によって、取得したポートレートに美化処理が実行される場合がある。美化処理は、白色化、フィルタリング、目元拡大、フェイスリフト、スリム化などを含む場合がある。従来の美化処理では固定の美化パラメータが事前設定され、取得した各ポートレートは、統一的な方法で固定の美化パラメータによって処理される。
本開示の実施形態は、画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体を提供し、これによって美化効果を向上させ、画像上でより良好な視覚的表示効果を達成するために、撮影距離に応じて美化パラメータを適応的に選択し得る。
第1の態様によれば、本開示の実施形態は画像処理方法を提供する。画像処理方法は以下の動作を含み得る。処理対象画像に顔認識が実行される。処理対象画像がポートレートを含んでいるという検出に応答して、ポートレートの撮影距離が取得される。撮影距離が事前設定された距離条件を満たしているという判定に応答して、満たされた距離条件に合致するパラメータ関係が取得される。パラメータ関係に従って撮影距離に対応する美化パラメータが選択され、美化パラメータに従ってポートレートに美化処理が実行される。
第2の態様によれば、本開示の実施形態は、電子機器を提供する。電子機器は、メモリとプロセッサとを含んでもよい。メモリは、プロセッサによって実行されると、第1の態様で説明した方法をプロセッサに実施させるコンピュータプログラムを記憶する。
第3の態様によれば、本開示の実施形態は非一時的なコンピュータ可読記憶媒体を提供し、これにはコンピュータプログラムが記憶されてもよい。コンピュータプログラムは、第1の態様で説明した方法を実施するためにプロセッサによって実行され得る。
本開示の実施形態による、電子機器のブロック図である。 本開示の実施形態による、画像処理方法の構造図である。 本開示の実施形態による、画像処理方法のフローチャートである。 本開示の実施形態による、ポートレートの撮影距離を取得する工程のフローチャートである。 本開示の実施形態による、顔領域の比率に従ってポートレートの撮影距離を取得する工程の概略図である。 本開示の別の実施形態による、ポートレートの撮影距離を取得する工程のフローチャートである。 本開示の実施形態による、距離情報を計算する工程の概略図である。 本開示の実施形態による、パラメータ関係を取得する工程のフローチャートである。 本開示の実施形態による、撮影距離が第1の距離閾値よりも短いときの、美化パラメータと撮影距離との間のパラメータ関係の概略図である。 本開示の実施形態による、撮影距離が第2の距離閾値よりも長いときの、美化パラメータと撮影距離との間のパラメータ関係の概略図である。 本開示の実施形態による、画像処理装置のブロック図である。 本開示の実施形態による、画像処理回路の概略図である。
本開示の目的、技術的解決策、および利点をより明確にするために、本開示は図面および実施形態と併せて以下でさらに詳細に説明される。本明細書で説明する特定の実施形態は単に本開示を説明するために使用され、本開示を限定する意図はないことを理解されたい。
本開示で使用される「第1の」、「第2の」などの用語は、さまざまな構成要素を説明するために使用され、これらの構成要素を限定する意図はないことが理解されよう。このような用語は、第1の構成要素を別の構成要素と区別するためにのみ使用される。例えば、本開示の範囲から逸脱することなく、第1のクライアントは第2のクライアントと呼ばれてもよく、同様に、第2のクライアントが第1のクライアントと呼ばれてもよい。第1のクライアントおよび第2のクライアントは両者ともクライアントであるが、同じクライアントではない。
画像処理方法および装置によれば、本開示の実施形態によって提供される電子機器およびコンピュータ可読記憶媒体では、処理対象画像がポートレートを含んでいるという検出に応答してポートレートの撮影距離が取得され、撮影パラメータが事前設定された距離条件を満たしているときは、満たされた距離条件と合致するパラメータ関係が取得され、パラメータ関係に従って撮影距離に対応する美化パラメータが選択され、美化パラメータに従ってポートレートに美化処理が実行される。したがって、美化パラメータを撮影距離に応じて適応的に選択でき、その結果、美化効果が向上し、画像上でより良好な視覚的表示効果が達成され得る。
図1は、本開示の実施形態による、電子機器のブロック図である。図1に示すように、電子機器は、プロセッサと、メモリと、表示画面と、入力装置とを含み、そのすべてがシステムバスによって接続される。例では、メモリは、不揮発性記憶媒体、およびプロセッサを含んでもよい。電子機器の不揮発性記憶媒体は、オペレーティングシステムおよびコンピュータプログラムを記憶してもよく、コンピュータプログラムは、本開示の実施形態によって提供される画像処理方法を実施するために、プロセッサによって実行されてもよい。プロセッサは、電子機器全体の動作を支援するために、計算機能および制御機能を提供するように構成されてもよい。電子機器の内部メモリは、不揮発性記憶媒体内でコンピュータプログラムを実行する環境を提供し得る。電子機器の表示画面は、液晶表示画面、電子インク表示画面などであってもよい。入力装置は、表示画面を覆うタッチ層であってもよく、電子機器の外被に配置されたボタン、トラックボール、またはタッチパッドであってもよく、さらに、外付けのキーボード、タッチパッド、マウスなどであってもよい。電子機器は、携帯電話、タブレットコンピュータ、携帯情報端末、装着可能な機器などの端末であってもよい。図1に示す構造は、本開示の解決策に関連する構造の一部の単なるブロック図であり、本開示の解決策が適用される電子機器を限定する意図はないことが当業者には理解されよう。電子機器は、具体的には図面に示されているよりも多い、もしくは少ない部品を含んでもよく、あるいはいくつかの部品が組み合わされたり、異なる部品配置が使用されたりする。
図2は、本開示の実施形態による、画像処理方法の構造図である。図2に示すように、電子機器に含まれる美化処理は3層の構造、すなわち特徴層、適応層、および処理層を含んでもよい。特徴層は、入力画像の顔の特徴情報を抽出するように構成されてもよく、顔の特徴情報は、これに限定されないが、肌色特徴、肌種特徴、年齢特徴、性別特徴、メイク特徴などを含んでもよい。
適応層は、抽出された顔の特徴情報、取得された物理的な撮影パラメータなどに従って、美化パラメータを適応的に選択するように構成されてもよい。例では、物理的な撮影パラメータは、これに限定されないが、撮影距離、周囲の明るさ、色温度、露出などを含んでもよい。少なくとも1つの実施形態において、パラメータ選択モデルを適応層に事前に記憶させてもよく、顔の特徴情報、取得した物理的な撮影パラメータなどは、顔の特徴情報、および物理的な撮影パラメータに対応する美化パラメータを選択するために、パラメータ選択モデルによって分析されてもよい。パラメータ選択モデルは、深層機械学習によって構築されてもよい。適応層によって選択される美化パラメータは、これに限定されないが、白色化パラメータ、フィルタリングパラメータ、目元拡大パラメータ、フェイスリフトパラメータなどを含んでもよい。
処理層は、入力画像に対して美化処理を実行するために、適応層によって選択された美化パラメータに従って、対応する美化成分を呼び出すように構成されてもよい。美化成分は、これに限定されないが、フィルタリング成分、白色化成分、目元拡大成分、フェイスリフト成分、口元修正成分などを含んでもよい。美化パラメータに従って、異なる美化成分が対応する処理を実行してもよい。例えば、フィルタリングパラメータに従って、フィルタリング成分が入力画像に対してフィルタリング処理を実行してもよく、白色化パラメータに従って、白色化成分が入力画像に対して白色化処理を実行してもよい。美化成分は、相互に独立していてもよい。実施形態では、処理層は、各美化成分に対応するフラグビットを取得し得る。例では、フラグビットが第1のフラグビットである美化成分は、入力画像に対して美化処理を実行することを要求されてもよく、フラグビットが第2のフラグビットである美化成分は、入力画像に対して美化処理を実行しなくてもよく、第1のフラグビットおよび第2のフラグビットは、要件に従って設定されてもよい。例えば、第1のフラグビットは1、第2のフラグビットは0とされるが、これに限定されることはない。美化成分が入力画像に対して美化処理を実行することを要求されると、美化成分は対応する種類の美化パラメータを取得し、美化パラメータに従って、入力画像に対して美化処理を実行してもよい。適応層によって選択された美化パラメータに従って入力画像に美化処理を実行した後に、処理層は、処理画像を出力して処理画像を表示画面に表示してもよい。
図3に示すように、本開示の実施形態では画像処理方法が提供される。画像処理方法は、ブロック310から350までの以下の動作を含む。
ブロック310において、処理対象画像に顔認識が実行される。
電子機器は、処理対象画像を取得し得る。処理対象画像は、表示画面でプレビューされ得るプレビュー画像であってもよく、プレビュー画像は、カメラなどの撮像装置を介して電子機器によって取得されてもよい。処理対象画像は、生成されて記憶されている画像であってもよい。電子機器は、処理対象画像がポートレートを含んでいるかどうかを判定するために、処理対象画像に対して顔認識を実行し得る。電子機器は、処理対象画像の画像特徴を抽出して、処理対象画像が顔を含んでいるかどうかを判定するために、事前設定された顔認識モデルによって画像特徴を分析してもよい。処理対象画像が顔を含んでいると判定されると、電子機器は、処理対象画像がポートレートを含んでいると判定し得る。画像特徴は、形状特徴、空間特徴、エッジ特徴などを含んでもよい。例において、形状特徴は処理対象画像の一部の形状を指し、空間特徴は処理された画像内で分割された複数の領域同士の間の空間位置、または相対的な方向関係を指し、エッジ特徴は処理対象画像における2つの領域同士の間の境界画素などを指す。
実施形態では、顔認識モデルは、機械学習を通して事前に構築された意思決定モデルであってもよい。顔認識モデルが構築されると、多数のサンプル画像が取得されてもよく、サンプル画像は、顔画像およびポートレートのない画像を含む。サンプル画像は、各サンプル画像が顔を含んでいるかどうかの判定に応じてマークされてもよい。マークされたサンプル画像は顔認識モデルの入力として使用され、顔認識モデルを取得するために機械学習によるトレーニングが行われる。
ブロック320において、処理対象画像がポートレートを含んでいるという検出に応答して、ポートレートの撮影距離が取得される。
電子機器が、処理対象画像がポートレートを含んでいることを検出すると、処理対象画像に含まれるポートレートの撮影距離が取得され得る。撮影距離は、処理対象画像が取得されたときのポートレートとカメラの撮像面との間の距離を指してもよく、かつ撮影距離は、処理対象画像が取得されたときのポートレートと電子機器との間の距離であってもよい。
実施形態では、処理対象画像はカメラを介して電子機器によって取得されたプレビュー画像であってもよく、プレビュー画像は表示画面に表示されてもよい。画像が取得されると、電子機器は距離センサによってポートレートの撮影距離をリアルタイムに取得し得る。少なくとも1つの実施形態において、距離センサは外部に光を放射してもよく、光がポートレートによって反射される時間を測定して、時間に応じてポートレートの撮影距離を決定し得る。電子機器は、処理対象画像内のポートレートの撮影距離を取得するために別の方法を使用してもよく、本明細書で方法が限定されることはない。
ブロック330において、撮影距離が事前設定された距離条件を満たしているという判定に応答して、満たされた距離条件に合致するパラメータ関係が取得される。
電子機器は、処理対象画像内のポートレートの撮影距離が、事前設定された距離条件を満たしているかどうかを判定し得る。距離条件とは、取得した画像が不鮮明になる可能性がある距離範囲を指す。距離条件は、要件に従って事前設定されてもよい。1つ以上の距離条件があってもよく、各距離条件が特定の距離範囲に対応してもよい。電子機器は、処理対象画像内のポートレートの撮影距離を、各距離条件に対応する距離範囲と比較して、ポートレートの撮影距離が距離範囲内に収まっているかどうかを判定し得る。ポートレートの撮影距離が距離範囲内と判定されると、電子機器は、対応する距離条件が満たされていると判定してもよい。例えば、30センチメートルより短い、および60センチメートルより長いという2つの距離条件が事前設定されてもよい。処理対象画像内のポートレートの撮影距離が20センチメートルのときは、30センチメートルより短いという距離条件が満たされる。
実施形態では、画像を取得するために電子機器がカメラをオンにすると、最初は現行の場面における複数フレームの画像が取得されてもよく、取得した複数フレームの画像における、各被写体の撮影距離が取得され得る。次に、取得した複数フレームの画像における各被写体の鮮鋭度が検出されてもよく、鮮鋭度に従って距離条件が決定される。電子機器は、現行の場面の既定値よりも鮮鋭度が低い被写体を取得して、被写体の撮影距離に従って距離条件を決定してもよい。例えば、現行の場面で電子機器によって取得された被写体の鮮鋭度が既定値よりも低く、被写体の撮影距離が25センチメートルのときは、電子機器は、距離条件を25センチメートルよりも短いものと直接決定してもよい。電子機器は、被写体の鮮鋭度に応じて浮動値をさらに設定してから、浮動値および被写体の撮影距離に従って距離条件を決定してもよい。鮮鋭度が低い場合は、浮動値が大きくなり得る。鮮鋭度が高く、既定値により近い場合は、浮動値はより小さくなり得る。例えば、現行の場面において電子機器によって取得された被写体の鮮鋭度が既定値よりも低く、被写体の撮影距離が25センチメートルのときは、電子機器は、被写体の鮮鋭度に応じて浮動値が5センチメートルになるように設定して、距離条件が、例えば30センチメートルよりも短くなるように決定してもよい。
異なる距離条件が異なるパラメータ関係と合致してもよく、パラメータ関係は、距離条件と美化パラメータとの間の対応関係を表すように構成され得る。撮影距離が事前設定された距離条件を満たしているときは、ポートレートの撮影距離の変化とともに美化パラメータが変化してもよく、美化パラメータが変化する過程は、満たされた距離条件と合致するパラメータ関係に適合し得る。処理対象画像内のポートレートの撮影距離が事前設定された距離条件を満たしているときは、電子機器は満たされた距離条件に合致するパラメータ関係を取得して、合致したパラメータ関係に従って、撮影距離に対応する美化パラメータを選択し得る。
ブロック340において、パラメータ関係に従って撮影距離に対応する美化パラメータが選択される。
電子機器は、満たされた距離条件と合致したパラメータ関係に従って、ポートレートの撮影距離に対応する美化パラメータを選択し得る。例では、美化パラメータは、これに限定されないが、白色化パラメータ、フィルタリングパラメータ、目元拡大パラメータ、フェイスリフトパラメータなどを含んでもよい。実施形態では、異なる距離条件では、ポートレートの撮影距離が異なる種類の美化パラメータに影響する場合があり、撮影距離の影響を受けた美化パラメータは、撮影距離の変化とともに変化する場合がある。例えば、30センチメートルより短い、および60センチメートルより長いという2つの距離条件が事前設定されてもよい。30センチメートルよりも短い距離条件は、白色化パラメータ、フィルタリングパラメータ、および目元拡大パラメータに影響を及ぼす場合があり、60センチメートルよりも長い距離条件は、白色化パラメータおよびフィルタリングパラメータに影響を及ぼす場合がある。しかしながら、本明細書において限定するものではない。
事前設定された距離条件において、各種の美化パラメータは、撮影距離と異なるパラメータ関係を形成してもよい。ポートレートの撮影距離が事前設定された距離条件を満たしているときは、電子機器は、満たされた距離条件に対応する美化パラメータ種別を最初に取得してから、美化パラメータ種別と合致したパラメータ関係を取得し、取得した各パラメータ関係に従って、対応する種類の美化パラメータを選択してもよい。例えば、処理対象画像内のポートレートの撮影距離は、30センチメートルよりも短いという距離条件を満たし、この距離条件下では、撮影距離は白色化パラメータ、フィルタリングパラメータ、および目元拡大パラメータに影響を及ぼす場合がある。したがって、電子機器は、白色化パラメータ、フィルタリングパラメータ、および目元拡大パラメータとのパラメータ関係をそれぞれ取得し、取得したパラメータ関係に従って、撮影距離に対応する美化パラメータをそれぞれ選択し得る。
ブロック350において、美化パラメータに従ってポートレートに美化処理が実行される。
電子機器は、選択した美化パラメータに従って、処理対象画像内のポートレートに美化処理を実行し得る。美化処理は、これに限定されないが、白色化処理、フィルタリング処理、目元拡大処理などを含んでもよい。例では、白色化処理とは、白色化パラメータに従って、ポートレートの肌領域における各画素の色の値を調節することを指してもよく、色の値は、赤、緑、および青(RGB)、色相、彩度、および明度(HSV)、輝度および色差(YUV)などの色空間における画素の値であってもよく、フィルタリング処理とは、対象ウィンドウを選択して、対象ウィンドウに応じてポートレートの肌領域にフィルタリング処理を実行することを指してもよく、目元拡大処理とは、顔の目元領域に部分的な拡大処理を実行することを指してもよい。しかしながら、本明細書において限定するものではない。
実施形態では、処理対象画像がポートレートを含んでいるという検出に応答してポートレートの撮影距離が取得され、撮影パラメータが事前設定された距離条件を満たしているときは、満たされた距離条件と合致するパラメータ関係が取得される。次に、パラメータ関係に従って、撮影距離に対応する美化パラメータが選択され、美化パラメータに従ってポートレートに美化処理が実行される。したがって、美化パラメータを撮影距離に応じて適応的に選択でき、その結果、美化効果が向上し、画像上でより良好な視覚的表示効果が達成される。
図4に示すように、実施形態では、ポートレートの撮影距離が取得される動作は、ブロック402および404における後続の動作を含む。
ブロック402において、ポートレートの顔領域が取得され、処理対象画像内の顔領域の比率が計算される。
電子機器は、処理対象画像に対して顔認識を実行し、処理対象画像が顔を含んでいるという検出に応答して顔領域を決定し得る。少なくとも1つの実施形態において、顔領域は正方形または長方形であってもよい。電子機器は、顔領域の面積を計算し、かつ処理対象画像の面積に対する、顔領域の面積の一部を計算してもよい。比率を得るために、顔領域の面積を処理対象画像の面積で割ってもよい。
ブロック404において、事前設定された対応関係に従って比率に対応する撮影距離が取得される。
処理対象画像内の顔領域の比率が異なれば、異なる撮影距離に対応し得る。電子機器は、事前設定された対応関係に従って、計算された比率に対応する撮影距離を取得し得る。実施形態では、事前設定された対応関係が表1に示されている。
処理対象画像の面積における顔領域の面積の比率と、撮影距離との間の対応関係は、表1に限定されないことは理解されよう。別の対応関係があってもよく、それについて本明細書において限定するものではない。
図5は、本開示の実施形態による、顔領域の比率に基づいてポートレートの撮影距離を取得する工程の概略図である。図5に示すように、画像A、画像B、および画像Cは、電子機器がカメラを介して、異なる撮影距離で同じポートレートを撮影する動作によって取得され得る。電子機器は画像Aを取得し、画像Aで顔認識を実行し、顔領域502を決定し、顔領域502の面積を計算し、画像Aの面積における顔領域502の面積の比率を計算し得る。実施形態において、画像Aの面積に対する、画像Aにおける顔領域502の面積の比率は80%であり、対応する撮影距離は20センチメートルとして取得され得る。電子機器は画像Bを取得し、画像Bで顔認識を実行し、顔領域504を決定し、顔領域504の面積を計算し、画像Bの面積における顔領域504の面積の比率を計算し得る。実施形態において、画像Bの面積に対する、画像Bにおける顔領域504の面積の比率は40%であり、対応する撮影距離は70センチメートルとして取得され得る。電子機器は画像Cを取得し、画像Cで顔認識を実行し、顔領域506を決定し、顔領域506の面積を計算し、画像Cの面積における顔領域506の面積の比率を計算し得る。実施形態において、画像Cの面積に対する、画像Cにおける顔領域506の面積の比率は15%であり、対応する撮影距離は1.5メートルとして取得され得る。
実施形態では、処理対象画像内の顔領域の比率を計算した後に、電子機器は、処理対象画像を取得するカメラの焦点距離情報を取得し、焦点距離情報と合致する対応関係を取得し、その後、合致した対応関係に従って、比率に対応する撮影距離を取得してもよい。焦点距離は、光学系における光の集中または拡散を測定するための測定方法であり、レンズの光学中心から、平行光の入射中に光が集中する焦点までの距離を指す。カメラの焦点距離情報の違いは、撮影視野角の範囲の違いを表す。焦点距離情報が異なる場合は、処理対象画像の面積に対する顔領域の面積の比率と撮影距離との間に、異なる対応関係があってもよい。処理対象画像内の顔領域の比率が同じである場合、焦点距離が長いと対応する撮影距離は長くなる。例えば、処理対象画像内の顔領域の比率は80%である。カメラの焦点距離情報が16ミリメートルの場合、対応する撮影距離は20センチメートルになり得る。カメラの焦点距離情報が24ミリメートルの場合、対応する撮影距離は45センチメートルになり得る。
実施形態では、ポートレートの撮影距離は、処理対象画像内の顔領域の比率に応じて取得でき、その結果、後で撮影距離に応じて美化パラメータを適応的に選択するのを容易にするために、撮影距離が正確に取得され得る。したがって美化効果が向上し、画像上でより良好な視覚的表示効果が達成され得る。
図6に示すように、実施形態では、ポートレートの撮影距離が取得される動作は、ブロック602から606までの後続の動作を含む。
ブロック602において、処理対象画像の距離情報が取得される。
電子機器は、処理対象画像内の各画素の距離情報を取得し得る。実施形態では、距離情報は、処理対象画像内の各被写体と、電子機器との間の距離を示し得る。実施形態では、第1のカメラと第2のカメラとを含む2つのカメラが、電子機器の裏面に配置されてもよい。第1のカメラおよび第2のカメラは、水平な左右配置を形成するように同じ水平線上に配置されてもよく、垂直な上下配置を形成するように同じ垂線上に配置されてもよい。実施形態では、第1のカメラおよび第2のカメラは、解像度が異なるカメラであってもよい。第1のカメラは、比較的解像度が高く、主に撮像用に構成されたカメラであってもよく、第2のカメラは、比較的解像度が低く、取得した画像の距離情報を得るために構成された補助的なカメラであってもよい。
さらに、電子機器は、第1のカメラによってある場面の第1の画像を取得し、第2のカメラによって同じ場面の第2の画像を同時に取得して、第1の画像と第2の画像とを補正し較正してもよい。次に、電子機器は、処理対象画像を取得するために、補正され較正された第1の画像と第2の画像とを合成してもよい。電子機器は、補正され較正された第1の画像および第2の画像に従って視差画像を生成し、その後、処理対象画像の距離マップを生成し得る。距離マップは、処理対象画像内の各画素の距離情報を含み得る。距離マップでは、近似した距離情報を有する領域は同じ色で塗りつぶされてもよく、色の変化は距離の変化を反映し得る。実施形態では、電子機器は、第1のカメラおよび第2のカメラの光学中心間の距離、水平線上における光学中心の高さの相違、2つのカメラのレンズ高さの相違などに応じて補正パラメータを計算し、補正パラメータに応じて第1の画像および第2の画像を補正し較正し得る。
電子機器は、第1の画像および第2の画像内の同じ被写体の視差を計算し、視差に応じて処理対象画像内の被写体の距離情報を取得する。例では、視差は、同じ対象物が2箇所で観察されたときに形成される方向差を指す。図7は、実施形態による、距離情報を計算する工程の概略図である。図7に示すように、第1のカメラおよび第2のカメラは同一の水平線上に左右方向に配置され、2つのカメラの主光軸(primary optical axes)は平行で、第1のカメラおよび第2のカメラの光学中心はそれぞれOLおよびORであり、光学中心と、対応する画像面との間の最短距離が焦点距離fである。Pを世界座標系の点とすると、左位相面および右位相面上におけるその撮像点がPLおよびPRであり、PLおよびPRから各画像面の左端までの距離が、それぞれXLおよびXRである。したがって、Pの視差はXL−XRまたはXR−XLである。第1のカメラの光学中心OLと、第2のカメラの光学中心ORとの間の距離はbであり、OLとORとの間の距離bに応じて点Pの距離Zを計算でき、焦点距離f、および視差XL−XRまたはXR−XL、ならびにその計算方法は以下の数式(1)で表される。
電子機器は、第1の画像および第2の画像で特徴点マッチングを実行し、第1の画像の特徴点を抽出して、対応する第2の画像の列から最適なマッチ点を見つけ得る。第1の画像の特徴点と、対応する第2の画像との最適なマッチ点は、第1の画像と第2の画像とのそれぞれの中にある同一の点の撮像点と考えてもよい。次に、視差画像を生成するために、第1の画像の特徴点と、第2の画像の対応する最適なマッチ点との間の視差が計算されてもよく、処理対象画像内の各画素の距離情報は、数式(1)に従って計算され得る。
別の実施形態では、処理対象画像の距離情報が、別の方法でさらに取得されてもよい。例えば、処理対象画像の距離情報は、これに限定されないが、光飛行時間測定(TOF)などの構造化光の方式で計算されてもよい。
ブロック604において、距離情報に従ってポートレートの顔領域の平均距離が計算される。
処理対象画像の顔領域を決定した後に、電子機器は、顔領域の各画素の距離情報(すなわち距離値z)を取得して、顔領域の平均距離を計算してもよい。例では、顔領域の全画素の距離値が平均化され、平均化された値が顔領域の平均距離として決定され得る。
ブロック606において、平均距離に従ってポートレートの撮影距離が決定される。
電子機器は、顔領域の平均距離を、直接ポートレートの撮影距離としてもよい。電子機器は、顔領域の平均距離と、ポートレートの撮影距離との間に対応関係をさらに確立し、対応関係に従って顔領域の平均距離に対応する撮影距離を取得し得る。例えば、処理対象画像内の顔領域の平均距離が50センチメートルであれば、ポートレートの撮影距離は50センチメートルとそのまま決定されてもよい。代替的な実施形態では、顔領域の平均距離とポートレートの撮影距離との間の対応関係は事前に確立されており、顔領域の平均距離50センチメートルに対応する撮影距離は、対応関係に従って60センチメートルになり得る。しかしながら、本明細書において限定するものではない。
実施形態では、ポートレートの撮影距離は処理対象画像の距離情報に従って決定されてもよく、その結果、後で撮影距離に応じて、美化パラメータを適応的に選択するのが容易になる。したがって美化効果が向上し、画像上でより良好な視覚的表示効果が達成され得る。
図8に示すように、実施形態では、撮影距離が事前設定された距離条件を満たしているという判定に応答して、満たされた距離条件と合致するパラメータ関係が取得されるブロック330の動作は、ブロック802および804の後続の動作をさらに含む。
ブロック802において、撮影距離が第1の距離閾値よりも短いときは、撮影距離と美化パラメータとの間に正の相関関係を含むパラメータ関係が取得される。
電子機器は距離条件を事前設定してもよく、各距離条件は特定の距離範囲に対応し得る。距離範囲は距離閾値を含んでもよく、距離閾値は、処理対象画像内のポートレートの撮影距離が距離条件を満たしているかどうかを判定するように構成され得る。実施形態では、電子機器は2つの距離条件を設定してもよく、第1の距離条件は第1の距離閾値よりも短くてもよく、第2の距離条件は第2の距離閾値よりも長くてもよい。
処理対象画像内のポートレートの撮影距離が第1の距離閾値よりも短いときは、撮影距離は第1の距離条件を満たし、第1の距離条件のパラメータ関係が取得され、パラメータ関係は、撮影距離と美化パラメータとの間の正の相関関係になり得る。処理対象画像内のポートレートの撮影距離が第1の距離閾値よりも短いときは、撮影距離が短いほど取得した処理対象画像がより不鮮明になる場合があり、撮影距離が短くなるにつれて美化パラメータが低下し得る。
ブロック804において、撮影距離が第2の距離閾値よりも長いときは、撮影距離と美化パラメータとの間に負の相関関係を含むパラメータ関係が取得される。
処理対象画像内のポートレートの撮影距離が第2の距離閾値よりも長いときは、撮影距離は第2の距離条件を満たし、第2の距離条件のパラメータ関係が取得され、パラメータ関係は、撮影距離と美化パラメータとの間の負の相関関係になり得る。処理対象画像内のポートレートの撮影距離が第2の距離閾値よりも長いときは、撮影距離が長いほど取得した処理対象画像がより不鮮明になる場合があり、撮影距離が長くなるにつれて美化パラメータが低下し得る。さらに、第1の距離閾値および第2の距離閾値に対応するパラメータ関係は、直線関係になり得る。
図9aは、本開示の実施形態による、撮影距離が第1の距離閾値よりも短いときの、美化パラメータと撮影距離との間のパラメータ関係の概略図である。図9(a)に示すように、撮影距離が第1の距離閾値よりも短いときは、撮影距離は第1の距離条件を満たし、撮影距離は、美化パラメータと正の相関関係を形成し、撮影距離が短くなるにつれて美化パラメータは低下し得る。さらに、正の相関関係は直線関係になり得る。
図9bは、本開示の実施形態による、撮影距離が第2の距離閾値よりも大きいときの、美化パラメータと撮影距離との間のパラメータ関係の概略図である。図9(b)に示すように、撮影距離が第2の距離閾値よりも長いときは、撮影距離は第2の距離条件を満たし、撮影距離は、美化パラメータと負の相関関係を形成し、撮影距離が長くなるにつれて美化パラメータは低下し得る。さらに、負の相関関係は直線関係になり得る。美化パラメータと撮影距離との間のパラメータ関係は、図9(a)および図9(b)に図示されている関係に限定されず、別の関係になり得ることは理解されよう。
実施形態では、電子機器は、処理対象画像を取得するカメラの焦点距離情報を取得して、焦点距離情報に応じて第1の距離閾値および第2の距離閾値を決定してもよい。焦点距離が異なるカメラの場合、撮影距離が異なっている場合があり、撮影の鮮鋭度を保証できる距離範囲も異なっている。焦点距離が比較的長いときは、比較的近いところにある被写体が取得時に不鮮明になりやすく、対応する第1の距離閾値および第2の距離閾値は比較的大きくなり得る。焦点距離が比較的短いときは、比較的遠いところにある被写体が取得時に不鮮明になりやすく、対応する第1の距離閾値および第2の距離閾値は比較的小さくなり得る。第1の距離閾値および第2の距離閾値は、画像を取得するカメラの焦点距離情報に従って決定され、その結果、選択した美化パラメータがより正確になり、美化効果が向上し得る。
実施形態では、撮影距離が、事前設定された距離条件を満たしていないときのカメラの鮮鋭な撮像範囲に属し、取得した処理対象画像内のポートレートの鮮鋭度が比較的高く、撮影距離が美化パラメータに影響を及ぼさないようにし得る。撮影距離が第1の距離閾値よりも長い、またはこれと等しく、かつ第2の距離閾値よりも短い、またはこれと等しいときは、電子機器は、処理対象画像の顔領域を取得した後に、顔領域における顔の特徴情報を抽出してもよい。次に、電子機器は顔の特徴情報に従って美化パラメータを選択し、美化パラメータに従って、処理対象画像内の顔領域に美化処理を実行してもよい。顔の特徴情報は、これに限定されないが、肌色特徴、肌種特徴、顔型特徴、5つの感覚器官の特徴などを含んでもよい。例では、肌色特徴は、顔の肌領域における各画素の色の値、明るさの値などの情報を含み得る。肌種特徴は、顔の肌領域の質感情報、エッジ情報、エッジ強度などを含み得る。顔型特徴は、顔の輪郭などを形成する特徴点の情報を含み得る。5つの感覚器官の特徴は、5つの感覚器官の形状および位置などを表す特徴点の情報を含み得る。
実施形態では、撮影距離が第1の距離閾値よりも長い、またはこれと等しく、かつ第2の距離閾値よりも短い、またはこれと等しいときは、電子機器は、処理対象画像の顔領域を取得して、顔領域の肌領域を決定し得る。次に電子機器は肌領域の肌種特徴を抽出し、肌種レベルを取得するために、事前設定された分類モデルによって肌種特徴を分析してもよい。電子機器は、肌種レベルに対応するフィルタリングパラメータを取得し、フィルタリングパラメータに応じて、肌領域でフィルタリング処理を実行してもよい。分類モデルは、機械学習によって事前に構築されてもよい。実施形態では、電子機器は事前に分類モデルを構築し、かつサンプル画像を多数取得でき、各サンプル画像で肌種レベルがマークされる。少なくとも1つの実施形態では、肌種レベルは要件に応じて分類されてもよい。サンプル画像における顔の肌は、顔の肌が比較的滑らかできれいな場合は、比較的低い肌種レベルに相当し得る。サンプル画像における顔の肌は、顔の肌がしみ、吹き出物、またはしわを含み欠点が多い場合は、比較的高い肌種レベルに相当し得る。電子機器は、サンプル画像を分類モデルの入力として使用し、分類モデルを構築するために、機械学習などの方式でトレーニングを実行してもよい。
電子機器は、肌種レベルに対応するフィルタリングパラメータを取得し得る。異なる肌種レベルは異なるフィルタリングパラメータに対応してもよく、フィルタリングパラメータは、ウィンドウ半径などのパラメータを含んでもよい。電子機器は、肌種レベルに対応するウィンドウ半径を取得し、ウィンドウ半径に対応する対象ウィンドウを選択し、対象ウィンドウに応じて、肌領域でフィルタリング処理を実行し得る。フィルタリング処理は、エッジ保存平滑化フィルタリング、双方向フィルタリング、ガウスフィルタリングなどであってもよい。フィルタリングパラメータが比較的大きいときは、対応するフィルタリングの程度は比較的高く、電子機器は、フィルタリング処理をするために、比較的大きいウィンドウ半径を有する対象ウィンドウを選択してもよい。この場合、比較的良好な平滑化効果が達成されるが、情報損失が比較的大きくなる場合がある。フィルタリングパラメータが比較的小さいときは、対応するフィルタリングの程度は比較的低く、電子機器は、フィルタリング処理をするために、比較的小さいウィンドウ半径を有する対象ウィンドウを選択してもよい。この場合、情報はより多く保持されるが、平滑化効果が比較的悪くなる場合がある。フィルタリングパラメータは、肌領域の肌種レベルに応じて適応的に選択され、対応するフィルタリングの程度は、肌領域の実際の条件に応じて選択されてもよく、これによって、フィルタリングの程度が過剰に低いことによって生じる平滑化効果の不良状態、フィルタリングの程度が過剰に高いことによって生じる肌の細部の損失などが減少する。
実施形態では、撮影距離に対応する美化パラメータは、満たされた距離条件と合致するパラメータ関係に応じて選択されてもよく、その結果、美化パラメータは撮影距離に応じて適応的に選択され得る。したがって美化効果が向上し、画像上でより良好な視覚的表示効果が達成され得る。
実施形態では、画像処理方法は以下の動作をさらに含む。撮影距離が事前設定された距離条件を満たしているときは、距離条件に対応する強調係数が取得され、強調係数に従ってポートレートに鮮鋭化処理が実行される。
処理対象画像内のポートレートの撮影距離が事前設定された距離条件を満たしているときは、電子機器は撮影距離に対応する強調係数を取得し、強調係数に従ってポートレートを鮮鋭化してもよく、その結果、ポートレートのエッジ詳細が向上し、ポートレートがより鮮鋭化される。さらに、電子機器は強調係数に従ってポートレートの顔領域を鮮鋭化してもよい。撮影距離が第1の距離閾値よりも短いときは、強調係数は撮影距離との間に負の相関関係を形成し得る。撮影距離が短いときは、対応する強調係数が大きくなり得る。撮影距離が第2の距離閾値よりも長いときは、強調係数は撮影距離との間に正の相関関係を形成し得る。撮影距離が長いときは、対応する強調係数が大きくなり得る。
実施形態では、撮影距離が事前設定された距離条件を満たしているときは、電子機器はポートレートの鮮鋭度を取得し得る。次に電子機器は、鮮鋭度に応じて強調係数を選択し、強調係数に従ってポートレートに鮮鋭化処理を実行し得る。
実施形態では、処理対象画像内のポートレートの撮影距離が事前設定された距離条件を満たしているときは、画像内のポートレートを鮮鋭化するためにポートレートに鮮鋭化処理が実行されてもよく、その結果、画像の視覚表示効果が向上され得る。
実施形態では、画像処理方法が提供される。本方法は、以下の動作を含み得る。
動作(1)において、処理対象画像に顔認識が実行される。
動作(2)において、処理対象画像がポートレートを含んでいるという検出に応答して、ポートレートの撮影距離が取得される。
少なくとも1つの実施形態では、ポートレートの撮影距離が取得される動作は、ポートレートの顔領域が取得され、処理対象画像の顔領域の比率が計算され、事前設定された対応関係に従って、比率に対応する撮影距離が取得されることを含む。
少なくとも1つの実施形態では、ポートレートの撮影距離が取得される動作は、距離センサによってポートレートの撮影距離が取得されることを含む。
少なくとも1つの実施形態では、ポートレートの撮影距離が取得される動作は、処理対象画像の距離情報が取得されることと、距離情報に従って、ポートレートの顔領域の平均距離が計算されることと、平均距離に従って、ポートレートの撮影距離が決定されることとを含む。
動作(3)において、撮影距離が事前設定された距離条件を満たしているという判定に応答して、満たされた距離条件に合致するパラメータ関係が取得される。
少なくとも1つの実施形態において、撮影距離が第1の距離閾値よりも短いという判定に応答して、撮影距離と美化パラメータとの間に正の相関関係を含むパラメータ関係が取得され、撮影距離が第2の距離閾値よりも長いという判定に応答して、撮影距離と美化パラメータとの間に負の相関関係を含むパラメータ関係が取得される。
少なくとも1つの実施形態において、動作(3)の前に本方法は、処理対象画像を取得するカメラの焦点距離情報が取得され、焦点距離情報に応じて第1の距離閾値および第2の距離閾値が決定されることを含み得る。
動作(4)において、パラメータ関係に従って、撮影距離に対応する美化パラメータが選択される。
動作(5)において、美化パラメータに従って、ポートレートに美化処理が実行される。
動作(6)において、撮影距離が事前設定された距離条件を満たしているときは、距離条件に対応する強調係数が取得され、強調係数に従ってポートレートに鮮鋭化処理が実行される。
実施形態では、処理対象画像がポートレートを含んでいるという検出に応答して、ポートレートの撮影距離が取得される。撮影距離が事前設定された距離条件を満たしているときは、満たされた距離条件に合致するパラメータ関係が取得され、パラメータ関係に従って、撮影距離に対応する美化パラメータが選択され、美化パラメータに従ってポートレートに美化処理が実行される。したがって、美化パラメータを撮影距離に応じて適応的に選択でき、その結果、美化効果が向上し、画像上でより良好な視覚的表示効果が達成され得る。
図10に示すように、本開示の実施形態は、画像処理装置1000を提供する。画像処理装置1000は、認識モジュール1010と、距離取得モジュール1020と、関係取得モジュール1030と、パラメータ選択モジュール1040と、処理モジュール1050とを含む。
認識モジュール1010は、処理対象画像で顔認識を実行するように構成されてもよい。
距離取得モジュール1020は、処理対象画像がポートレートを含んでいるという検出に応答して、ポートレートの撮影距離を取得するように構成されてもよい。
少なくとも1つの実施形態では、距離取得モジュール1020は、距離センサによってポートレートの撮影距離を取得するようにさらに構成されてもよい。
関係取得モジュール1030は、撮影距離が事前設定された距離条件を満たしているという判定に応答して、満たされた距離条件に合致するパラメータ関係を取得するように構成されてもよい。
パラメータ選択モジュール1040は、パラメータ関係に応じて、撮影距離に対応する美化パラメータを選択するように構成されてもよい。
処理モジュール1050は、美化パラメータに応じて、ポートレートに美化処理を実行するように構成されてもよい。
実施形態では、処理対象画像がポートレートを含んでいるという検出に応答して、ポートレートの撮影距離が取得される。撮影距離が事前設定された距離条件を満たしているときは、満たされた距離条件に合致するパラメータ関係が取得され、パラメータ関係に従って、撮影距離に対応する美化パラメータが選択され、美化パラメータに従ってポートレートに美化処理が実行される。したがって、美化パラメータを撮影距離に応じて適応的に選択でき、その結果、美化効果が向上し、画像上でより良好な視覚的表示効果が達成され得る。
実施形態では、距離取得モジュール1020は、比率計算ユニットと、距離取得ユニットとを含んでもよい。
比率計算ユニットは、ポートレートの顔領域を取得し、処理対象画像内の顔領域の比率を計算するように構成されてもよい。
距離取得ユニットは、事前設定された対応関係に従って、比率に対応する撮影距離を取得するように構成されてもよい。
実施形態では、ポートレートの撮影距離は、処理対象画像内の顔領域の比率に応じて取得でき、その結果、後で撮影距離に応じて美化パラメータを適応的に選択するのを容易にするために、撮影距離が正確に取得され得る。したがって美化効果が向上し、画像上でより良好な視覚的表示効果が達成され得る。
実施形態では、距離取得モジュール1020は、距離取得ユニットと、距離計算ユニットと、判定ユニットとを含んでもよい。
距離取得ユニットは、処理対象画像の距離情報を取得するように構成されてもよい。距離情報は、処理対象画像内の各被写体と、電子機器との間の距離を示し得る。
距離計算ユニットは、距離情報に従ってポートレートの顔領域の平均距離を計算するように構成されてもよい。
判定ユニットは、平均距離に応じてポートレートの撮影距離を判定するように構成されてもよい。
実施形態では、ポートレートの撮影距離は処理対象画像の距離情報に従って決定されてもよく、後で撮影距離に応じて、美化パラメータを適応的に選択するのが容易になる。したがって美化効果が向上し、画像上でより良好な視覚的表示効果が達成され得る。
実施形態では、パラメータ選択モジュール1040は、撮影距離が第1の距離閾値よりも短いという判定に応答して、撮影距離と美化パラメータとの間に正の相関関係を含むパラメータ関係を取得し、撮影距離が第2の距離閾値よりも長いという判定に応答して、撮影距離と美化パラメータとの間に負の相関関係を含むパラメータ関係を取得するようにさらに構成されてもよい。
少なくとも1つの実施形態において、認識モジュール1010、距離取得モジュール1020、関係取得モジュール1030、パラメータ選択モジュール1040、および処理モジュール1050に加えて、画像処理装置1000は閾値決定モジュールをさらに含む。
閾値決定モジュールは、処理対象画像を取得するカメラの焦点距離情報を取得し、焦点距離情報に従って第1の距離閾値および第2の距離閾値を決定するように構成されてもよい。
実施形態では、撮影距離に対応する美化パラメータは、満たされた距離条件と合致するパラメータ関係に応じて選択されてもよく、これによって美化パラメータは撮影距離に応じて適応的に選択され、その結果、美化効果が向上し、画像上でより良好な視覚的表示効果が達成され得る。
実施形態では、認識モジュール1010、距離取得モジュール1020、関係取得モジュール1030、パラメータ選択モジュール1040、処理モジュール1050、および閾値決定モジュールに加えて、画像処理装置1000は、撮影距離が事前設定された距離条件を満たしているという判定に応答して、距離条件に対応する強調係数を取得し、強調係数に従ってポートレートに鮮鋭化処理を実行するように構成された、鮮鋭化モジュールをさらに含む。
実施形態では、処理対象画像内のポートレートの撮影距離が事前設定された距離条件を満たしているときは、画像内のポートレートを鮮鋭化するためにポートレートに鮮鋭化処理が実行されてもよく、その結果、画像の視覚表示効果が向上する。
本開示の実施形態は、電子機器をさらに提供する。電子機器は、画像処理回路を含む。画像処理回路は、ハードウェアおよび/またはソフトウェア部品によって実施されてもよく、画像信号処理(ISP)パイプラインを画定するさまざまな処理ユニットを含んでもよい。図11は、本開示の実施形態による、画像処理回路の概略図である。図11に示すように、本開示の実施形態に関連する画像処理技術の各態様は、単に説明の便宜のために示されている。
図11に示すように、画像処理回路は、ISPユニット1140と、制御論理ユニット1150とを含む。撮像装置1110によって捕捉された画像データは、最初にISPユニット1140によって処理され、ISPユニット1140は、画像統計情報を捕捉するために画像データを分析し、画像統計情報は、ISPユニット1140および/または撮像装置1110の1つ以上の制御パラメータを決定するために利用可能になる。撮像装置1110は、1つ以上のレンズ1112と、画像センサ1114とを有するカメラを含んでもよい。画像センサ1114は、カラーフィルタ(ベイヤーフィルタなど)のアレイを含んでもよい。画像センサ1114は、画像センサ1114の各撮像画素によって捕捉された、光強度および波長情報を取得して、ISPユニット1140によって処理され得る、一連の原画像データを提供してもよい。センサ1120(例えば、ジャイロスコープ)は、センサ1120のインターフェース種別に基づいて、取得した画像を処理するためのパラメータ(例えば、安定化パラメータ)をISPユニット1140に提供してもよい。センサ1120のインターフェースは、標準携帯機器向け撮像アーキテクチャ(Standard Mobile Imaging Architecture、SMIA)インターフェース、他のシリアルまたはパラレルカメラインターフェース、あるいはこれらの組み合わせを使用してもよい。
また、画像センサ1114は、センサ1120に原画像データを送信してもよい。センサ1120は、センサ1120のインターフェース種別に基づいてISPユニット1140に原画像データを提供してもよく、あるいはセンサ1120は、画像メモリ1130に原画像データを記憶する。
ISPユニット1140は、さまざまなフォーマットで画素ごとに原画像データを処理する。例えば、各画像画素は、8、10、12、または14ビットのビット深度を有する場合がある。ISPユニット1140は、原画像データ上で1つ以上の画像処理動作を実行して、画像データに関する統計情報を収集し得る。画像処理動作は、同じ、または異なるビット深度精度に従って実行されてもよい。
ISPユニット1140は、画像メモリ1130から画像データをさらに受信してもよい。例えば、センサ1120のインターフェースが画像メモリ1130に原画像データを送信し、画像メモリ1130内の原画像データが、処理用にISPユニット1140に提供される。画像メモリ1130は、メモリ装置、記憶装置、または電子機器内の独立した専用メモリの一部であってもよく、ダイレクトメモリアクセス(DMA)機能を含んでもよい。
画像センサ1114のインターフェースから、またはセンサ1120のインターフェースから、または画像メモリ1130から原画像データを受信するときに、ISPユニット1140が、時間領域フィルタリングなどの1つ以上の画像処理動作を実行してもよい。処理された画像データは、表示する前に他の処理を実行するために、画像メモリ1130に送信されてもよい。ISPユニット1140は、画像メモリ1130から処理データをさらに受信して、処理データに対し、元の領域、およびRGBおよびYCbCrの色空間で画像データ処理を実行してもよい。処理された画像データは、ユーザが見られるように、かつ/またはグラフィック処理ユニット(GPU)による他の処理のために、表示装置1180に出力されてもよい。また、ISPユニット1140の出力は、画像メモリ1130にさらに送信されてもよく、表示装置1180は、画像メモリ1130から画像データを読み出してもよい。実施形態では、画像メモリ1130は、1つ以上のフレームバッファを実装するように構成されてもよい。さらに、ISPユニット1140の出力は、画像データの符号化/復号のために符号器/復号器1170に送信されてもよい。符号化された画像データは記憶されてもよく、表示装置1180に表示される前に復元されてもよい。
ISP1140が画像データを処理する動作は、画像データにビデオフロントエンド(VFE)処理、およびカメラ後処理(CPP)が実行されることを含む。画像データに対するVFE処理は、画像データのコントラストまたは明るさの補正、デジタル方式で記録された照光状態データの修正、画像データに対する補償処理(例えば、ホワイトバランス、自動ゲイン制御、およびγ補正)、画像データに対するフィルタリング処理を含み得る。画像データに対するCPPは、画像の拡大縮小、ならびに各パスに対するプレビューフレームおよび記録フレームの提供を含み得る。例では、CPPは、プレビューフレームおよび記録フレームを異なるコーデックで処理してもよい。
ISPユニット1140によって処理された画像データは、表示される前に画像を美化処理するために、美化モジュール1160に送信されてもよい。美化モジュール1160が画像データに対して実行する美化処理は、白色化、しみの除去、フィルタリング、フェイスリフト、吹き出物の除去、目元拡大などを含んでもよい。美化モジュール1160は、電子機器の中央処理ユニット(CPU)、GPU、コプロセッサなどであってもよい。美化モジュール1160によって処理されたデータは、画像データの符号化/復号のために符号器/復号器1170に送信されてもよい。符号化された画像データは記憶されてもよく、表示装置1180に表示される前に復元されてもよい。また、美化モジュール1160は符号器/復号器1170と表示装置1180との間に配置されてもよく、つまり、美化モジュールは撮像された画像に美化処理を実行する。符号器/復号器1170は、電子機器内のCPU、GPU、コプロセッサなどであってもよい。
ISPユニット1140によって決定された統計データは、制御論理ユニット1150に送信されてもよい。例えば、統計データは、画像センサ1114の自動露出、自動ホワイトバランス、自動焦点、シンチレーション検出、黒レベル補償、レンズ1112のシェーディング補正などに関する統計情報を含み得る。制御論理ユニット1150は、1つ以上のルーチン(ファームウェアなど)を実行するプロセッサおよびマイクロコントローラを含んでもよく、1つ以上のルーチンは、受信した統計データに従って、撮像装置1110の制御パラメータ、およびISPユニット1140の制御パラメータを決定してもよい。例えば、撮像装置1110の制御パラメータは、センサ1120の制御パラメータ(例えば、ゲイン制御および露出制御の積分時間)、カメラシンチレーション制御パラメータ、レンズ1112の制御パラメータ(例えば、焦点合わせまたは拡大縮小の焦点距離)、あるいはこれらのパラメータの組み合わせを含み得る。ISPユニットの制御パラメータは、自動ホワイトバランスおよび(例えば、RGB処理中の)色調整用の、ゲインレベルおよび色補正マトリクスと、レンズ1112のシェーディング補正パラメータとを含み得る。
実施形態では、上述の画像処理方法は、図11の画像処理技術を使用して実施されてもよい。
実施形態では、電子機器が提供される。電子機器は、メモリとプロセッサとを含む。メモリは、プロセッサによって実行されると、プロセッサに以下の動作を実行させるコンピュータプログラムを記憶する。処理対象画像に顔認識が実行される。処理対象画像がポートレートを含んでいるという検出に応答して、ポートレートの撮影距離が取得される。撮影距離が事前設定された距離条件を満たしているという判定に応答して、満たされた距離条件に合致するパラメータ関係が取得される。パラメータ関係に従って撮影距離に対応する美化パラメータが選択され、美化パラメータに従ってポートレートに美化処理が実行される。
実施形態では、プロセッサによって実行される、ポートレートの撮影距離が取得される動作は、ポートレートの顔領域が取得され、処理対象画像内の顔領域の比率が計算されることと、顔領域の比率と撮影距離との間の事前設定された対応関係に従って、計算された比率に対応する撮影距離が取得されることとを含んでもよい。
実施形態では、プロセッサによって実行される、ポートレートの撮影距離が取得される動作は、距離センサによってポートレートの撮影距離が取得されることを含んでもよい。
実施形態では、プロセッサによって実行される、ポートレートの撮影距離が取得される動作は、処理対象画像の距離情報が取得されることと、距離情報に従って、ポートレートの顔領域の平均距離が計算されることと、平均距離に従ってポートレートの撮影距離が決定されることとを含んでもよい。
実施形態では、プロセッサによって実行される方法は、以下の動作を含んでもよい。撮影距離が事前設定された距離条件を満たしていることに応答して、距離条件に対応する強調係数が取得される。強調係数に従って、ポートレートに鮮鋭化処理が実行される。
実施形態では、プロセッサによって実行される、撮影距離が事前設定された距離条件を満たしているという判定に応答した、満たされた距離条件と合致するパラメータ関係の取得は、撮影距離が第1の距離閾値よりも短いという判定に応答して、撮影距離と美化パラメータとの間に正の相関関係を含むパラメータ関係が取得されることと、撮影距離が第2の距離閾値よりも長いという判定に応答して、撮影距離と美化パラメータとの間に負の相関関係を含むパラメータ関係を取得することとを含んでもよい。第1の距離閾値は、第2の距離閾値未満であってもよい。
実施形態では、プロセッサによって実行される方法は、以下の動作を含んでもよい。撮影距離が事前設定された距離条件を満たしているという判定に応答して、満たされた距離条件と合致するパラメータ関係が取得される前に、処理対象画像を取得するカメラの焦点距離情報が取得され、焦点距離情報に従って、第1の距離閾値および第2の距離閾値が決定される。
実施形態において、プロセッサによって実行される方法では、美化パラメータは、白色化パラメータ、フィルタリングパラメータ、目元拡大パラメータ、またはフェイスリフトパラメータのうちの少なくとも1つを含んでもよい。
実施形態では、プロセッサによって実行される、処理対象画像に対して顔認識を実行する動作は、処理対象画像の画像特徴を抽出することと、処理対象画像が顔を含んでいるかどうかを判定するために、事前設定された顔認識モデルによって画像特徴を分析することと、処理対象画像が顔を含んでいるという判定に応答して、処理対象画像がポートレートを含んでいると判定されることとを含んでもよい。画像特徴は、形状特徴、空間特徴、またはエッジ特徴のうちの少なくとも1つを含んでもよい。
実施形態では、プロセッサによって実行される方法は、以下の動作を含んでもよい。処理対象画像内の顔領域の比率が計算された後に、処理対象画像を取得するカメラの焦点距離情報が取得される。焦点距離情報と合致する対応関係が取得され、合致した対応関係に従って、計算された比率に対応する撮影距離が取得される。
実施形態では、コンピュータ可読記憶媒体が提供され、これにコンピュータプログラムが記憶される。コンピュータプログラムは、前述した画像処理方法を実施するためにプロセッサによって実行される。
実施形態では、コンピュータプログラムを含むコンピュータプログラム製品が提供される。コンピュータプログラム製品は電子機器上で実行され、電子機器に上述した画像処理方法を実施させる。
前述した実施形態の方法におけるフローの全部または一部が、コンピュータプログラムの指示を受けた関連ハードウェアによって完了され得ることが当業者には理解されよう。コンピュータプログラムは不揮発性のコンピュータ可読記憶媒体に記憶されてもよく、プログラムが実行されるときに、各方法の実施形態のプロセスが含まれてもよい。例では、記憶媒体は磁気ディスク、光学ディスク、読み出し専用メモリ(ROM)などであってもよい。
本明細書で使用される任意のメモリ、記憶装置、データベースその他の媒体は、不揮発性および/または不揮発性メモリを含んでもよい。適切な不揮発性メモリは、ROM、プログラム可能ROM(PROM)、電子的にプログラム可能なROM(EPROM)、電子的に消去可能なプログラム可能ROM(EEPROM)、またはフラッシュメモリを含み得る。揮発性メモリは、ランダムアクセスメモリ(RAM)を含んでもよく、外部高速バッファメモリとして使用される。例示的に、ただし無制限に、RAMは、スタティックRAM(SRAM)、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、ダブルデータレートSDRAM(DDRSDRAM)、拡張型SDRAM(ESDRAM)、同期リンクDRAM(SLDRAM)、ラムバスダイレクトRAM(RDRAM)、ダイレクトRDRAM(DRDRAM)、およびラムバスダイナミックRAM(RDRAM)など、さまざまな形態で取得されてもよい。
前述した実施形態のそれぞれの技術的特徴は、自在に組み合わせられてもよい。説明を簡単にするために、前述した実施形態における技術的特徴の可能な組み合わせのすべてが説明されているわけではない。しかしながら、これらの組み合わせが矛盾しない限りにおいて、これらの技術的特徴の任意の組み合わせが本開示の範囲に含まれる。
前述した実施形態は、単に本開示のいくつかの実施モードについて説明し、かつ具体的に詳しく説明するものであるが、本開示の範囲を制限するものとして理解されてはならない。当業者であれば、本開示の概念から逸脱することなく複数の変形および改善をさらに行ってもよく、そのすべてが本開示の保護の範囲に含まれることを指摘したい。したがって、本特許の開示の保護の範囲は、添付の特許請求の範囲に従うものとする。

Claims (11)

  1. 画像処理方法であって、
    処理対象画像に対して顔認識を実行するステップ(310)と、
    前記処理対象画像がポートレートを含んでいるという検出に応答して、前記ポートレートの撮影距離を取得するステップ(320)と、
    前記撮影距離が事前設定された距離条件を満たしているという判定に応答して、前記満たされた距離条件と合致するパラメータ関係を取得するステップ(330)と、
    前記パラメータ関係に従って、前記撮影距離に対応する美化パラメータを選択するステップ(340)と、
    前記美化パラメータに従って、前記ポートレートに美化処理を実行するステップ(350)とを備えることを特徴とする、方法。
  2. 前記ポートレートの前記撮影距離を取得するステップ(320)が、
    前記ポートレートの顔領域を取得して、前記処理対象画像の前記顔領域の比率を計算するステップ(402)と、
    前記顔領域の比率と撮影距離との間の事前設定された対応関係に従って、前記計算された比率に対応する前記撮影距離を取得するステップ(404)とを備える、請求項1に記載の方法。
  3. 前記ポートレートの前記撮影距離を取得するステップ(320)が、距離センサによって前記ポートレートの前記撮影距離を取得することを備える、請求項1に記載の方法。
  4. 前記ポートレートの前記撮影距離を取得するステップ(320)が、
    前記処理対象画像の距離情報を取得するステップ(602)と、
    前記距離情報に従って、前記ポートレートの前記顔領域の平均距離を計算するステップ(604)と、
    前記平均距離に従って、前記ポートレートの前記撮影距離を決定するステップ(606)とを備える、請求項1に記載の方法。
  5. 前記撮影距離が前記事前設定された距離条件を満たしているという判定に応答して、前記距離条件に対応する強調係数を取得するステップと、
    前記強調係数に従って、前記ポートレートに鮮鋭化処理を実行するステップとをさらに備える、
    請求項1に記載の方法。
  6. 前記撮影距離が前記事前設定された距離条件を満たしているという判定に応答して、前記満たされた距離条件と合致する前記パラメータ関係を取得するステップ(330)が、
    前記撮影距離が第1の距離閾値よりも短いという判定に応答して、撮影距離と美化パラメータとの間に正の相関関係を備えるパラメータ関係を取得するステップ(802)と、
    前記撮影距離が第2の距離閾値よりも長いという判定に応答して、撮影距離と美化パラメータとの間に負の相関関係を備えるパラメータ関係を取得するステップ(804)とを備え、
    前記第1の距離閾値が、前記第2の距離閾値未満である、
    請求項1から5のいずれか一項に記載の方法。
  7. 前記撮影距離が前記事前設定された距離条件を満たしているという判定に応答して、前記満たされた距離条件と合致する前記パラメータ関係を取得するステップ(330)の前に、
    前記処理対象画像を取得するカメラの焦点距離情報を取得して、前記焦点距離情報に従って、前記第1の距離閾値および前記第2の距離閾値を決定するステップをさらに備える、
    請求項6に記載の方法。
  8. 前記美化パラメータが、白色化パラメータ、フィルタリングパラメータ、目元拡大パラメータ、またはフェイスリフトパラメータのうちの少なくとも1つを備える、請求項1〜7のいずれか一項に記載の方法。
  9. 処理対象画像に対して顔認識を実行するステップ(310)が、
    前記処理対象画像の画像特徴を抽出するステップと、
    前記処理対象画像が顔を含んでいるかどうかを判定するために、事前設定された顔認識モデルによって前記画像特徴を分析するステップと、
    前記処理対象画像が顔を含んでいるという判定に応答して、前記処理対象画像が前記ポートレートを含んでいると判定するステップとを備え、
    前記画像特徴が、形状特徴、空間特徴、またはエッジ特徴のうちの少なくとも1つを備える、
    請求項1に記載の方法。
  10. 1つ以上のコンピュータプログラムを記憶するメモリと、
    プロセッサであって、前記プロセッサが、請求項1から9のいずれか一項に記載の画像処理方法を実行できるように、前記メモリに記憶された前記1つ以上のコンピュータプログラムを実行するように構成された、プロセッサとを備える、
    画像処理装置。
  11. コンピュータプログラムを記憶し、請求項1から9のいずれか一項に記載の方法を実施するために、前記コンピュータプログラムがプロセッサによって実行される、コンピュータ可読記憶媒体。
JP2020519299A 2017-10-31 2018-10-22 画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体 Active JP7027537B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201711045673.9A CN107680128B (zh) 2017-10-31 2017-10-31 图像处理方法、装置、电子设备及计算机可读存储介质
CN201711045673.9 2017-10-31
PCT/CN2018/111283 WO2019085786A1 (en) 2017-10-31 2018-10-22 Image processing method and device, electronic device and computer-readable storage medium

Publications (2)

Publication Number Publication Date
JP2020536457A true JP2020536457A (ja) 2020-12-10
JP7027537B2 JP7027537B2 (ja) 2022-03-01

Family

ID=61143038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020519299A Active JP7027537B2 (ja) 2017-10-31 2018-10-22 画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体

Country Status (6)

Country Link
US (1) US10825150B2 (ja)
EP (1) EP3477939B1 (ja)
JP (1) JP7027537B2 (ja)
KR (1) KR102291081B1 (ja)
CN (1) CN107680128B (ja)
WO (1) WO2019085786A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107680128B (zh) 2017-10-31 2020-03-27 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN108376252B (zh) * 2018-02-27 2020-01-10 Oppo广东移动通信有限公司 控制方法、控制装置、终端、计算机设备和存储介质
CN108281880A (zh) * 2018-02-27 2018-07-13 广东欧珀移动通信有限公司 控制方法、控制装置、终端、计算机设备和存储介质
WO2019165956A1 (zh) 2018-02-27 2019-09-06 Oppo广东移动通信有限公司 控制方法、控制装置、终端、计算机设备和存储介质
CN108376251B (zh) * 2018-02-27 2020-04-17 Oppo广东移动通信有限公司 控制方法、控制装置、终端、计算机设备和存储介质
WO2019174436A1 (zh) 2018-03-12 2019-09-19 Oppo广东移动通信有限公司 控制方法、控制装置、深度相机和电子装置
CN108333860B (zh) * 2018-03-12 2020-01-10 Oppo广东移动通信有限公司 控制方法、控制装置、深度相机和电子装置
CN108227361B (zh) * 2018-03-12 2020-05-26 Oppo广东移动通信有限公司 控制方法、控制装置、深度相机和电子装置
CN111474818B (zh) * 2018-03-12 2022-05-20 Oppo广东移动通信有限公司 控制方法、控制装置、深度相机和电子装置
CN108594451B (zh) * 2018-03-12 2020-01-24 Oppo广东移动通信有限公司 控制方法、控制装置、深度相机和电子装置
CN108491780B (zh) * 2018-03-16 2021-05-04 Oppo广东移动通信有限公司 图像美化处理方法、装置、存储介质及终端设备
CN110163050B (zh) * 2018-07-23 2022-09-27 腾讯科技(深圳)有限公司 一种视频处理方法及装置、终端设备、服务器及存储介质
CN109003246A (zh) * 2018-08-26 2018-12-14 朱丽萍 眼部修图参数检测方法
CN109068060B (zh) * 2018-09-05 2021-06-08 Oppo广东移动通信有限公司 图像处理方法和装置、终端设备、计算机可读存储介质
TWI707307B (zh) * 2018-11-08 2020-10-11 瑞昱半導體股份有限公司 影像調整方法
CN109660724A (zh) * 2018-12-20 2019-04-19 惠州Tcl移动通信有限公司 一种图像处理方法、装置及存储介质
CN109712177B (zh) * 2018-12-25 2021-07-09 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
CN109961426B (zh) * 2019-03-11 2021-07-06 西安电子科技大学 一种人脸皮肤肤质的检测方法
CN110012226A (zh) * 2019-03-27 2019-07-12 联想(北京)有限公司 一种电子设备及其图像处理方法
CN110225240A (zh) * 2019-04-28 2019-09-10 努比亚技术有限公司 一种拍摄控制方法、终端及计算机可读存储介质
CN112446251A (zh) * 2019-08-30 2021-03-05 深圳云天励飞技术有限公司 图像处理方法及相关装置
US11323627B2 (en) 2019-09-12 2022-05-03 Samsung Electronics Co., Ltd. Method and electronic device for applying beauty effect setting
CN110658918B (zh) * 2019-09-25 2023-12-12 京东方科技集团股份有限公司 用于视频眼镜的眼球追踪相机的定位方法、设备及介质
EP3815601A1 (en) * 2019-11-01 2021-05-05 Koninklijke Philips N.V. Evaluating skin
CN110992283A (zh) * 2019-11-29 2020-04-10 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、电子设备和可读存储介质
CN111246093B (zh) * 2020-01-16 2021-07-20 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN111275650B (zh) * 2020-02-25 2023-10-17 抖音视界有限公司 美颜处理方法及装置
CN113569592A (zh) * 2020-04-28 2021-10-29 佛山市顺德区美的电热电器制造有限公司 一种距离检测方法、设备及存储介质
CN111726531B (zh) * 2020-06-29 2022-03-01 北京小米移动软件有限公司 图像拍摄方法、处理方法、装置、电子设备及存储介质
CN114503160A (zh) 2020-08-01 2022-05-13 商汤国际私人有限公司 一种对象关联方法及装置、系统、电子设备、存储介质和计算机程序
KR102435893B1 (ko) 2020-08-10 2022-08-24 주식회사 타키온비앤티 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템
CN112565604A (zh) * 2020-11-30 2021-03-26 维沃移动通信有限公司 视频录制方法、装置及电子设备
CN113014810B (zh) * 2021-02-25 2023-01-31 深圳市慧鲤科技有限公司 定位方法及装置、电子设备和存储介质
CN113397480B (zh) * 2021-05-10 2023-02-10 深圳数联天下智能科技有限公司 美容仪的控制方法、装置、设备及存储介质
CN113421196B (zh) * 2021-06-08 2023-08-11 杭州逗酷软件科技有限公司 图像处理方法及相关装置
US20220414193A1 (en) * 2021-06-28 2022-12-29 Capital One Services, Llc Systems and methods for secure adaptive illustrations
CN116703692A (zh) * 2022-12-30 2023-09-05 荣耀终端有限公司 一种拍摄性能优化方法和装置
CN115841432B (zh) * 2023-02-09 2023-08-08 北京达佳互联信息技术有限公司 美颜特效数据确定和模型训练方法、装置、设备和介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008064797A (ja) * 2006-09-04 2008-03-21 Canon Inc 光学装置、撮像装置、光学装置の制御方法
JP2008294785A (ja) * 2007-05-25 2008-12-04 Sanyo Electric Co Ltd 画像処理装置、撮像装置、画像ファイル及び画像処理方法
JP2011223294A (ja) * 2010-04-09 2011-11-04 Sanyo Electric Co Ltd 撮像装置
JP2012090197A (ja) * 2010-10-22 2012-05-10 Nec System Technologies Ltd 画像配信システムおよび画像配信方法と画像配信プログラム

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004147288A (ja) 2002-10-25 2004-05-20 Reallusion Inc 顔画像の補正方法
US7039222B2 (en) 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
JP4934326B2 (ja) 2005-09-29 2012-05-16 富士フイルム株式会社 画像処理装置およびその処理方法
US7627149B2 (en) 2005-11-25 2009-12-01 Quantum Signal, Llc Dot templates for object detection in images
US8660319B2 (en) 2006-05-05 2014-02-25 Parham Aarabi Method, system and computer program product for automatic and semi-automatic modification of digital images of faces
JP4420909B2 (ja) * 2006-06-02 2010-02-24 富士フイルム株式会社 撮像装置
KR100762640B1 (ko) * 2006-07-18 2007-10-01 삼성전자주식회사 촬영 모드를 자동 선택하는 휴대 단말기 및 그 방법
US8570429B2 (en) 2009-02-27 2013-10-29 Samsung Electronics Co., Ltd. Image processing method and apparatus and digital photographing apparatus using the same
JP5451302B2 (ja) 2009-10-19 2014-03-26 キヤノン株式会社 画像処理装置及び方法、プログラム及び記憶媒体
JP5636964B2 (ja) 2010-01-22 2014-12-10 株式会社リコー 画像形成システム、制御装置および画像形成装置
JP5560766B2 (ja) 2010-02-25 2014-07-30 株式会社ニコン 画像処理装置、撮像装置、及びプログラム
JP2011230491A (ja) 2010-04-30 2011-11-17 Canon Inc 画像処理装置、画像処理方法、印刷システムおよびプログラム
US8355039B2 (en) 2010-07-06 2013-01-15 DigitalOptics Corporation Europe Limited Scene background blurring including range measurement
JP5693271B2 (ja) 2011-02-03 2015-04-01 キヤノン株式会社 画像処理装置及び方法
JP5760727B2 (ja) * 2011-06-14 2015-08-12 リコーイメージング株式会社 画像処理装置および画像処理方法
US8811686B2 (en) 2011-08-19 2014-08-19 Adobe Systems Incorporated Methods and apparatus for automated portrait retouching using facial feature localization
JP2013164796A (ja) 2012-02-13 2013-08-22 Ricoh Co Ltd 画像処理装置、画像処理方法およびプログラム
US9002109B2 (en) 2012-10-09 2015-04-07 Google Inc. Color correction based on multiple images
US9779527B2 (en) 2013-08-15 2017-10-03 Xiaomi Inc. Method, terminal device and storage medium for processing image
CN103413270A (zh) 2013-08-15 2013-11-27 北京小米科技有限责任公司 一种图像的处理方法、装置和终端设备
JP6351238B2 (ja) * 2013-11-15 2018-07-04 キヤノン株式会社 画像処理装置、撮像装置および距離補正方法
CN103716547A (zh) 2014-01-15 2014-04-09 厦门美图之家科技有限公司 一种智能模式的拍照方法
CN104537612A (zh) 2014-08-05 2015-04-22 华南理工大学 一种自动的人脸图像皮肤美化方法
CN104159032B (zh) 2014-08-20 2018-05-29 广东欧珀移动通信有限公司 一种实时调整相机拍照美颜效果的方法及装置
EP3183689A4 (en) 2014-08-22 2017-08-23 Microsoft Technology Licensing, LLC Face alignment with shape regression
CN104503749B (zh) 2014-12-12 2017-11-21 广东欧珀移动通信有限公司 照片处理方法和电子设备
CN104580901B (zh) 2014-12-25 2018-07-06 魅族科技(中国)有限公司 确定拍摄参数的方法和终端
CN104754221B (zh) * 2015-03-11 2018-11-16 广东欧珀移动通信有限公司 一种拍照方法及移动终端
US10033941B2 (en) 2015-05-11 2018-07-24 Google Llc Privacy filtering of area description file prior to upload
WO2016185079A1 (en) * 2015-05-18 2016-11-24 Nokia Technologies Oy Filtering depth map image
CN104902170B (zh) 2015-05-19 2018-01-23 广东欧珀移动通信有限公司 一种拍照方法及终端
CN104902177B (zh) 2015-05-26 2018-03-02 广东欧珀移动通信有限公司 一种智能拍照方法及终端
CN105096241A (zh) 2015-07-28 2015-11-25 努比亚技术有限公司 人脸图像美化装置及方法
CN105812652B (zh) * 2015-07-29 2019-11-26 维沃移动通信有限公司 一种终端的对焦方法及终端
JP6179569B2 (ja) * 2015-08-20 2017-08-16 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
TW201730813A (zh) 2016-02-26 2017-09-01 國立交通大學 具有深度資訊之影像處理方法及其電腦程式產品
WO2017177259A1 (en) 2016-04-12 2017-10-19 Phi Technologies Pty Ltd System and method for processing photographic images
CN106331492B (zh) * 2016-08-29 2019-04-16 Oppo广东移动通信有限公司 一种图像处理方法及终端
CN107124548A (zh) * 2017-04-25 2017-09-01 深圳市金立通信设备有限公司 一种拍照方法及终端
CN106993137A (zh) 2017-04-26 2017-07-28 广东小天才科技有限公司 一种终端拍摄模式的确定方法及装置
CN107302662A (zh) 2017-07-06 2017-10-27 维沃移动通信有限公司 一种拍照的方法、装置及移动终端
CN107302663B (zh) 2017-07-31 2020-07-14 珠海大横琴科技发展有限公司 一种图像亮度调整方法、终端及计算机可读存储介质
CN107680128B (zh) 2017-10-31 2020-03-27 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN107798652A (zh) 2017-10-31 2018-03-13 广东欧珀移动通信有限公司 图像处理方法、装置、可读存储介质和电子设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008064797A (ja) * 2006-09-04 2008-03-21 Canon Inc 光学装置、撮像装置、光学装置の制御方法
JP2008294785A (ja) * 2007-05-25 2008-12-04 Sanyo Electric Co Ltd 画像処理装置、撮像装置、画像ファイル及び画像処理方法
JP2011223294A (ja) * 2010-04-09 2011-11-04 Sanyo Electric Co Ltd 撮像装置
JP2012090197A (ja) * 2010-10-22 2012-05-10 Nec System Technologies Ltd 画像配信システムおよび画像配信方法と画像配信プログラム

Also Published As

Publication number Publication date
KR20200044093A (ko) 2020-04-28
CN107680128A (zh) 2018-02-09
CN107680128B (zh) 2020-03-27
KR102291081B1 (ko) 2021-08-19
EP3477939B1 (en) 2021-07-07
US20190130538A1 (en) 2019-05-02
US10825150B2 (en) 2020-11-03
EP3477939A1 (en) 2019-05-01
JP7027537B2 (ja) 2022-03-01
WO2019085786A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
JP7027537B2 (ja) 画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体
US10997696B2 (en) Image processing method, apparatus and device
EP3477931B1 (en) Image processing method and device, readable storage medium and electronic device
KR102362544B1 (ko) 이미지 처리를 위한 방법 및 장치, 및 컴퓨터 판독 가능 저장 매체
CN108537155B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
EP3480784B1 (en) Image processing method, and device
CN107509031B (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
WO2019105262A1 (zh) 背景虚化处理方法、装置及设备
CN107945135B (zh) 图像处理方法、装置、存储介质和电子设备
CN107451969B (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
WO2021022983A1 (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN108537749B (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
CN107945105B (zh) 背景虚化处理方法、装置及设备
EP3598736A1 (en) Method and apparatus for processing image
CN108846807B (zh) 光效处理方法、装置、终端及计算机可读存储介质
CN107993209B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN107862659B (zh) 图像处理方法、装置、计算机设备及计算机可读存储介质
WO2018082389A1 (zh) 一种肤色检测方法、装置及终端
CN107864337A (zh) 素描图像处理方法、装置及设备
WO2019105254A1 (zh) 背景虚化处理方法、装置及设备
CN109242794B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN107945106B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN107578372B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN107770447B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN107770446B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210625

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211213

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211213

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211221

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220216

R150 Certificate of patent or registration of utility model

Ref document number: 7027537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150