JP2017059235A - イメージの明るさを調整する方法及び装置 - Google Patents

イメージの明るさを調整する方法及び装置 Download PDF

Info

Publication number
JP2017059235A
JP2017059235A JP2016180644A JP2016180644A JP2017059235A JP 2017059235 A JP2017059235 A JP 2017059235A JP 2016180644 A JP2016180644 A JP 2016180644A JP 2016180644 A JP2016180644 A JP 2016180644A JP 2017059235 A JP2017059235 A JP 2017059235A
Authority
JP
Japan
Prior art keywords
image
input image
surface normal
brightness
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016180644A
Other languages
English (en)
Other versions
JP6864449B2 (ja
Inventor
▲みん▼ 廷 孫
Min-Jung Son
▲みん▼ 廷 孫
喜 世 李
Heesae Lee
喜 世 李
棟▲勲▼ 司空
Dong-Hoon Sagong
棟▲勲▼ 司空
基 彰 李
Keechang Lee
基 彰 李
炯 旭 李
Hyung Wook Lee
炯 旭 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020150174649A external-priority patent/KR102459851B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2017059235A publication Critical patent/JP2017059235A/ja
Application granted granted Critical
Publication of JP6864449B2 publication Critical patent/JP6864449B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】イメージの明るさを調整する装置及び方法を提供する。
【解決手段】イメージの明るさを調整する方法は、オブジェクトが示される入力イメージから抽出されたオブジェクトの1つ以上の特徴点に基づいて、オブジェクトモデルをオブジェクトにマッチングするステップS110と、マッチングされたオブジェクトモデルに基づいて、2次元イメージ形式の表面ノーマルマップを入力イメージにマッピングするステップS120と、マッピングされた表面ノーマルマップ及び仮想光源に基づいて、入力イメージに対する陰影情報を生成するステップS130と、を含む。
【選択図】図1

Description

以下、イメージの明るさを調整する技術が提供される。
スマートフォンなどのようなスマート機器が広く普及されており、このようなスマート機器は、一般的にユーザによってコンテンツを制作できるようにカメラが内蔵されている。スマート機器は、内蔵されたカメラを用いて写真及び動画などを撮影する。また、スマート機器は、撮影された写真を表示したり動画を再生する機能を提供する。
さらに、スマート機器は、ユーザがイメージなどを編集できる機能を提供する。例えば、ユーザは、スマート機器によって撮影されたイメージをユーザ自分の好みに応じてイメージの色及びの大きさなどを変更し得る。スマート機器は、ユーザがより便利でナチュラルにイメージ編集できるよう編集機能を提供することができる。
本発明の目的は、イメージの明るさを調整する技術が提供する。
一実施形態によるイメージの明るさを調整する方法は、オブジェクトが示される入力イメージから抽出された前記オブジェクトの1つ以上の特徴点に基づいて、オブジェクトモデルを前記オブジェクトにマッチングするステップと、前記マッチングされたオブジェクトモデルに基づいて、2次元イメージ形式の表面ノーマルマップを前記入力イメージにマッピングするステップと、前記マッピングされた表面ノーマルマップ及び仮想光源に基づいて、前記入力イメージに対する陰影情報を生成するステップとを含む。
前記表面ノーマルマップを前記入力イメージにマッピングするステップは、前記マッチングされたオブジェクトモデルの各特徴点が位置する地点のノーマルベクトルを補間して前記表面ノーマルマップを生成するステップを含む。
前記表面ノーマルマップを前記入力イメージにマッピングするステップは、前記オブジェクトモデルに関してデータベースに予め格納された表面ノーマルモデルを前記表面ノーマルマップに変換し得る。
前記オブジェクトモデルを前記入力イメージにマッチングするステップは、前記オブジェクトモデルの特徴点の座標を前記入力イメージの特徴点の座標に変換する変換関数を決定するステップを含む。
前記表面ノーマルマップを前記入力イメージにマッピングするステップは、前記決定された変換関数を用いて、表面ノーマルモデルの各座標を変換して2次元イメージ形式の表面ノーマルマップを生成するステップを含む。
前記陰影情報を生成するステップは、前記表面ノーマルマップのそれぞれの座標のノーマルベクトル及び前記入力イメージで該当座標における前記仮想光源による光ベクトル間のドット積演算を行うステップを含む。
前記ドット積演算を行うステップは、前記仮想光源の位置及び前記入力イメージにおける各ピクセルの該当位置間の関係又は前記仮想光源の照明方向に基づいて該当ピクセルに入射される前記光ベクトルを決定するステップを含む。
イメージの明るさを調整する方法は、前記陰影情報を前記入力イメージに反映して再照明されたイメージを生成するステップと、前記入力イメージの明るさヒストグラムに基づいて前記再照明されたイメージのトーンを調整するステップとをさらに含み得る。
前記再照明されたイメージのトーンを調整するステップは、前記入力イメージのピクセルの全体個数に対する前記入力イメージで予め定めた明るさ範囲のピクセル数の比率に基づいて、前記再照明されたイメージの少なくとも一部領域でピクセルのトーンに加重値を付加するステップを含む。
イメージの明るさを調整する方法は、前記仮想光源の強度、位置、色、照明方向、及びタイプのうち少なくとも1つを指示する制御信号を受信するステップをさらに含み得る。
前記オブジェクトは人の顔であり得る。
一実施形態によるイメージの明るさを調整する装置は、オブジェクトが示される入力イメージから抽出された前記オブジェクトの特徴点に基づいてオブジェクトモデルを前記オブジェクトにマッチングし、前記マッチングされたオブジェクトモデルに基づいて2次元イメージ形式の表面ノーマルマップを前記入力イメージにマッピングし、前記マッピングされた表面ノーマルマップ及び仮想光源に基づいて前記入力イメージに対する陰影情報を生成するプロセッサを含む。
前記プロセッサは、前記マッチングされたオブジェクトモデルの各特徴点が位置する地点のノーマルベクトルを補間して前記表面ノーマルマップを生成し得る。
装置は、前記オブジェクトモデルに関する表面ノーマルモデルをデータベースに格納するメモリをさらに含み、前記プロセッサは、前記表面ノーマルモデルを前記表面ノーマルマップに変換して前記表面ノーマルマップを生成し得る。
前記プロセッサは、前記オブジェクトモデルの特徴点の座標を前記入力イメージの特徴点の座標に変換する変換関数を決定し得る。
前記プロセッサは、前記決定された変換関数を用いて表面ノーマルモデルの各座標を変換して2次元イメージ形式の表面ノーマルマップを生成し得る。
前記プロセッサは、前記表面ノーマルマップのそれぞれの座標のノーマルベクトル及び前記入力イメージで該当座標における前記仮想光源による光ベクトル間のドット積演算を行う。
前記プロセッサは、前記仮想光源の位置及び前記入力イメージにおける各ピクセルの位置間の関係又は前記仮想光源の照明方向のいずれか1つに基づいて前記入力イメージの前記該当ピクセルで前記光ベクトルを決定し得る。
前記プロセッサは、前記陰影情報を前記入力イメージに反映して再照明されたイメージを生成し、前記入力イメージの明るさヒストグラムに基づいて前記再照明されたイメージのトーンを調整し得る。
前記プロセッサは、前記入力イメージのピクセルの全体個数に対する前記入力イメージで予め定めた明るさ範囲のピクセル数の比率に基づいて、前記再照明されたイメージの少なくとも一部領域でピクセルのトーンに加重値を付加し得る。
他の実施形態によるイメージの明るさを調整する装置は、オブジェクトが示される入力イメージを受信するイメージ受信部と、前記入力イメージから抽出された前記オブジェクトの特徴点に基づいてオブジェクトモデルを前記オブジェクトにマッチングし、前記マッチングされたオブジェクトモデルに基づいて2次元イメージ形式の表面ノーマルマップを前記入力イメージにマッピングし、前記マッピングされた表面ノーマルマップ及び仮想光源に基づいて前記入力イメージに対する陰影情報を生成するプロセッサとを含む。
前記イメージ受信部はカメラであり得る。
装置は、前記入力イメージに前記陰影情報を反映して表現するディスプレイをさらに含み得る。
前記プロセッサは、前記マッチングされたオブジェクトモデルの各特徴点が位置する地点のノーマルベクトルを補間して前記表面ノーマルマップを生成し得る。
装置は、前記オブジェクトモデルに関する表面ノーマルモデルをデータベースに格納するメモリをさらに含み、前記プロセッサは、前記表面ノーマルモデルを前記表面ノーマルマップに変換し得る。
前記プロセッサは、ユーザがオブジェクトを見る方向を指示するビューベクトル及び前記仮想光源から前記オブジェクトに投射された光が前記オブジェクトによって反射した方向を指示する反射ベクトルに基づいて前記陰影情報を生成し得る。
一実施形態による映像の明るさを調整する方法は、オブジェクトモデル及び映像におけるオブジェクトの特徴点に基づいて入力映像の表面ノーマルマップを生成するステップと、仮想光源及び前記表面ノーマルマップに基づいて前記入力映像のための陰影情報を生成するステップと、前記入力映像の明るさを調整するために前記入力映像に前記陰影情報を適用するステップとを含む。
前記オブジェクトモデルは、前記オブジェクトの前記特徴点に対応する特徴点及び前記オブジェクトモデルの前記特徴点に対応するノーマルベクトルを含み、前記表面ノーマルマップを生成するステップは、前記入力映像の座標でノーマルベクトルを取得するために前記オブジェクトモデルの前記ノーマルベクトルを補間するステップを含み得る。
前記表面ノーマルマップを生成するステップは、前記オブジェクトモデル及び前記オブジェクトの前記特徴点に基づいて前記表面ノーマルマップに表面ノーマルモデルを変換するステップを含み得る。
前記方法は、前記オブジェクトモデルの特徴点及び前記オブジェクトの前記特徴点に基づいて前記オブジェクトで前記オブジェクトモデルをマッチングさせるステップをさらに含み、前記表面ノーマルマップを生成するステップは、他の方向から前記オブジェクトのビューに対応する複数の表面ノーマルモデルを前記オブジェクトにマッチングされた前記オブジェクトモデルの前記特徴点に対してマッチングさせた結果を結合することによって前記表面ノーマルマップを生成するステップを含み得る。
前記陰影情報を生成するステップは、前記表面ノーマルマップの各座標でノーマルベクトル及び前記入力映像の対応座標で前記仮想光源の光ベクトル間のドット積を前記陰影情報として算出するステップを含み得る。
前記陰影情報を生成するステップは、前記オブジェクト上の前記仮想光源から投影される光が前記オブジェクトによって反射する方向を指示する前記入力映像の各座標における反射ベクトル、及び前記オブジェクトをユーザが視聴する方向を指示するビューベクトル間のドット積を前記陰影情報として算出するステップを含み得る。
前記陰影情報を生成するステップは、前記仮想光ベクトル及び前記表面ノーマルマップに基づいて前記反射ベクトルを算出するステップを含み得る。
前記陰影情報を前記入力映像に適用することは再照明された映像を生成し、前記方法は前記入力映像の明るさヒストグラムに基づいて前記再照明された映像のトーンを調整するステップをさらに含み得る。
前記再照明された映像のトーンを調整するステップは、前記入力映像の明るさヒストグラムに基づいて複数のトーン調整スタイルからトーン調整スタイルを選択するステップと、前記再照明された映像のトーンを調整するために前記再照明された映像に前記選択されたトーン調整スタイルを適用するステップとを含み得る。
本発明によると、イメージの明るさを調整する技術を提供することができる。
一実施形態によるイメージの明るさを調整する方法を概略的に示したフローチャートである。 一実施形態によるイメージの明るさを調整する方法の例示を細部的に示す図である。 一実施形態によるイメージの明るさを調整する方法の例示を細部的に示す図である。 一実施形態によるイメージの明るさを調整する方法の他の例示を細部的に示す図である。 一実施形態によるイメージの明るさを調整する方法の他の例示を細部的に示す図である。 一実施形態によるイメージの明るさを調整する方法の他の例示を細部的に示す図である。 一実施形態による光源の種類に応じる光ベクトルの例示を説明する図である。 一実施形態による光源の種類に応じる光ベクトルの例示を説明する図である。 一実施形態によるビューベクトル及び反射ベクトルに基づいた陰影情報の生成を説明する図である。 一実施形態による光源の強度に応じて再照明されたイメージを示す図である。 一実施形態による光源の位置に応じて再照明されたイメージを示す図である。 一実施形態によるイメージの明るさを調整する装置の例示的なグラフィクユーザインタフェースを示す図である。 一実施形態による再照明されたイメージにトーンが調整された例を示す図である。 一実施形態によるイメージの明るさヒストグラムに基づいたトーンの調整を示す図である。 一実施形態によるイメージの明るさヒストグラムに基づいたトーンの調整を示す図である。 一実施形態によるイメージの明るさヒストグラムに基づいたトーンの調整を示す図である。 一実施形態によるイメージの明るさヒストグラムに基づいたトーンの調整を示す図である。 一実施形態によるイメージの明るさを調整する装置の構成を示すブロック図である。 一実施形態によるイメージの明るさを調整する装置の構成を示すブロック図である。 一実施形態によるイメージの明るさを調整する装置の構成を示すブロック図である。 一実施形態によるイメージの明るさを調整する装置の構成を示すブロック図である。
以下、本発明を実施するための形態の具体例を、図面を参照しながら、詳細に説明する。各図面で提示された同一の参照符号は同一の部材を示す。
本実施形態で用いる用語は、単に特定の実施形態を説明するために用いるものであって、実施形態を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なる定義がされない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
また、図面を参照して説明する際に、図面符号に関係なく同一の構成要素には同一の参照符号を付与し、それに対する重複説明を省略する。本実施形態の説明において関連する公知技術に対する具体的な説明が実施形態の要旨を不要に曖昧にすると判断される場合、その詳細な説明を省略する。
図1は、一実施形態によるイメージの明るさを調整する方法を概略的に示したフローチャートである。
まず、ステップS110において、イメージの明るさを調整する装置のプロセッサは、オブジェクトが示される入力イメージから抽出されたオブジェクトの特徴点に基づいてオブジェクトモデルをオブジェクトにマッチングする。例えば、プロセッサは、オブジェクトモデルの各特徴点の座標を入力イメージでそれに対応する特徴点の座標に一致させることによって、入力イメージのオブジェクトにオブジェクトモデルをマッチングし得る。プロセッサは、オブジェクトの一般的な形態に対して指定された全ての特徴点が抽出されていない場合でも、予め定めた特徴点が抽出されたり予め定めた個数以上の特徴点が抽出されれば、入力イメージのオブジェクトにオブジェクトモデルをマッチングする。入力イメージはオブジェクトが示されるイメージとして、2次元形式のイメージであり得る。例えば、入力イメージは、停止した写真又は動画の各フレームであり得る。
オブジェクトは背景と区別され、入力イメージに示される対象を示す。オブジェクトは様々なタイプであり、例えば、オブジェクトのタイプは人の顔、人の身体、動物、及びモノなどであってもよい。特徴点はオブジェクトの特徴を示す点として、例えば、人の顔タイプのオブジェクトの特徴点は目、鼻、及び口などのように指定される。
オブジェクトモデルは、特定タイプのオブジェクトに対する特徴点が予め指定されている汎用モデルを示す。例えば、オブジェクトモデルは、予め定めた大きさ(例えば、入力イメージと同一の大きさ)のイメージで各特徴点が特定座標に位置するものと定義される。オブジェクトモデルは、特定タイプのオブジェクトの一般的な形態(例えば、オブジェクトのアウトライン、及びオブジェクトの特徴点の間の幾何構造など)及びこのような一般的な形態上に特徴点が指定された位置を含む2次元イメージ形式又は3次元イメージ形式のモデルであり得る。オブジェクトモデルが3次元イメージ形式である場合、プロセッサは、オブジェクトモデルを2次元である入力イメージにマッチンすることができる。
一実施形態によると、プロセッサは、オブジェクトモデルの輪郭をオブジェクトの輪郭に一致させ得る。下記では、オブジェクトが人の顔タイプである場合を仮定して説明するが、これに限定することなく、他のタイプのオブジェクトに対しても適用される。例えば、特定動物の頭に対して、該当動物の頭の特徴点及び一般的な形態を有するオブジェクトモデルを用いてもよい。
例えば、プロセッサは、正確な一致のために従来における顔輪郭抽出アルゴリズムを人の顔が示される入力イメージに適用してもよい。異なる例として、リアルタイム動作が優先される場合には、プロセッサは顔を楕円(オブジェクトタイプに応じてオブジェクトの概略的な輪郭に対応する図形)に仮定し、各特徴点の比例により楕円を変形する。上述した顔輪郭抽出アルゴリズムは、追加的な演算時間が所要されることで、プロセッサは、リアルタイムのプレビューモード(例えば、下記の図10に示すイメージをメモリに格納することなく、ユーザにプレビューを提供するモード)では顔を楕円として仮定して変形する方法を適用し、再照明されたイメージを格納するとき(例えば、ユーザが撮影ボタンをクリックして再照明されたイメージを格納)は、顔輪郭抽出アルゴリズムを適用して精密度を高めることができる。顔の輪郭が正確に一致すれば、陰影効果を適用するとき顔輪郭と背景との間の境界で生じる誤差が減少し得る。
そして、ステップS120において、プロセッサは、マッチングされたオブジェクトモデルに基づいて2次元イメージ形式の表面ノーマルマップを入力イメージにマッピングする。表面ノーマルマップのマッピングは下記で詳細に説明する。
表面ノーマルマップは、入力イメージの各ピクセルの座標に対してオブジェクトの表面に対応するノーマルベクトルがマッピングされたマップを示す。入力イメージに示されるオブジェクト上の特定ピクセルにマッピングされたノーマルベクトルは、該当ピクセルで該当オブジェクトの表面の法線上のベクトル値を有し得る。一実施形態によると、表面ノーマルマップは2次元イメージ形式として、例えば、2次元座標のそれぞれにノーマルベクトルがマッピングされる。入力イメージの解像度がm*nである場合、該当の入力イメージにノーマルベクトルがマッピングされたマップを下記の数式(1)のように示すことができる。(ここで、n、mは1以上の整数)
上述した数式(1)において、入力イメージの各ピクセルの座標にマッピングされるノーマルベクトルは3次元ベクトルであるwxy、uxy、vxyに表現され、wxyは(x、y)位置のピクセルに対応するノーマルベクトルのx方向成分、uxyは(x、y)位置のピクセルに対応するノーマルベクトルのy方向成分、vxyは(x、y)位置のピクセルに対応するz方向成分を示す(xは1以上n以下の整数、yは1以上m以下の整数)。例えば、x方向成分はR色値、y方向成分はG色値、z方向成分はB色値に表現されてもよい。ただし、本明細書で座標系を直交座標系に限定することなく、設計に応じて様々な座標系が適用され得る。また、ノーマルベクトルもRGBカラー値に表現したが、これに限定することなく、YCbCrカラー値などのような様々な色に表現され得る。
次にステップS130において、プロセッサは、マッピングされた表面ノーマルマップ及び仮想光源に基づいて入力イメージに対する陰影情報を生成する。例えば、プロセッサは、表面ノーマルマップに基づいてオブジェクトに仮想光源による光が投射される場合の陰影効果を示す陰影情報を生成する。一実施形態によると、プロセッサは、表面ノーマルマップのそれぞれの座標のノーマルベクトル及び該当座標における仮想光源による光ベクトル間のドット積演算を行い、ドット積演算の結果に基づいて陰影情報を生成する。プロセッサは、仮想光源による光ベクトルを仮想光源の位置及び入力イメージにおける各特徴点の位置間の関係に基づいて決定し、下記の図6A及び図6Bを参照して光ベクトルの算出及びドット積演算を詳細に説明することにする。
陰影効果は、入力イメージの少なくとも一部領域のピクセルが明るくなったり暗くなる効果を示す。陰影情報は、入力イメージの特定ピクセルが明るくなったり暗くなる程度を示す情報である。
図2及び図3は、一実施形態によるイメージの明るさを調整する方法の例示を細部的に示す図である。
図2は、各特徴点にノーマルベクトルが割り当てられたオブジェクトモデルを補間して生成された表面ノーマルマップを用いてイメージの明るさを調整する方法のフローチャートであり、図3は、入力イメージが図2に示された方法によって処理される過程を示す。
まず、ステップS210において、イメージの明るさを調整する装置のイメージ受信部は入力イメージ301を受信する。例えば、イメージ受信部がカメラであってもよく、カメラは入力イメージ301を撮影する。イメージ受信部が通信部である場合、通信部は有無線通信によって入力イメージ301を外部から受信することができる。
そして、ステップS220において、イメージの明るさを調整する装置のプロセッサは、入力イメージ301に示されるオブジェクトの特徴点302を抽出する。プロセッサは、オブジェクトのタイプに応じて該当タイプに特化した方式によってオブジェクトの特徴点302を抽出し得る。例えば、プロセッサは、オブジェクトのタイプが人の顔である場合、人の顔の特徴点302を抽出するアルゴリズム(例えば、PCA(Principal Component Analysis)、LDA(Linear discriminate analysis)など)を用いて特徴点302を抽出する。例えば、図3に示すように、プロセッサは、人の顔で目、鼻及び口に対応する特徴点302を抽出する。プロセッサは、オブジェクトの一般的な形態に対して設定された全ての特徴点のうち少なくとも一部を抽出する。ただし、特徴点を抽出するアルゴリズムを上述の内容に限定することなく、上述した特徴点も単なる例示であって、目、鼻、及び口のように限定することはない。
次に、ステップS110において、プロセッサは図1を参照して上述したように、図3に示すようにオブジェクトモデル201をオブジェクトにマッチングする。図3に示すようにオブジェクトモデル201は予めデータベースに格納される。
一実施形態によると、プロセッサは、オブジェクトモデル201をオブジェクトにマッチングするための変換関数を決定する。変換関数は、オブジェクトモデル201の特徴点の座標を入力イメージの特徴点302の座標に変換する関数として、例えば、オブジェクトモデルの特徴点の座標及び入力イメージの特徴点302の座標間の関係を示す。
そして、ステップS120において、プロセッサは図1を参照して上述したように表面ノーマルマップ303を入力イメージ301にマッピングする。より具体的に、ステップS230において、プロセッサは、マッチングされたオブジェクトモデル201の各特徴点が位置する地点のノーマルベクトルを補間して表面ノーマルマップ303を生成する。例えば、図2に示されたオブジェクトモデル201は、特徴点でのみノーマルベクトルが指定されており、プロセッサは、特徴点の間の空間に対してノーマルベクトルを補間し得る。そのため、プロセッサは、リアルタイムでオブジェクトに適応的な表面ノーマルマップ303を生成することができる。オブジェクトモデル201の幾何構造の精密度に応じて表面ノーマルマップ303の品質が決定される。
次に、ステップS130において、プロセッサは、図1を参照して上述したように陰影情報304を生成する。プロセッサは、仮想光源設定202により仮想光源を設定する。仮想光源設定202は、仮想光源の強度、位置、色、照明方向、及びタイプのうち少なくとも1つを設定する制御信号として、ユーザによって設定されたり自動設定される。陰影情報304は、オブジェクトの各座標で明るさが増加したり減少しなければならない程度を示す加重値に関する情報を含み、図3に示された陰影情報304で明るく表示された領域は、明るさが増加する加重値を有する領域、暗く表示された領域を明るさが減少する加重値を有する領域を示す。
一実施形態によると、プロセッサは、入力イメージ301上で顔の特徴点に基づいて整列された表面ノーマルマップ303とユーザによって指定された仮想光源の方向/位置、強度、タイプなどに基づいて顔に対する陰影情報304を生成する。例えば、プロセッサは、顔領域内の各ピクセルに対して表面ノーマルマップ303に割り当てられたノーマルベクトルと該当ピクセルに対して指定された光ベクトルとの間のドット積演算によって、顔領域の各ピクセルの陰影情報304を算出することができる。
そして、ステップS240において、プロセッサは、陰影情報304を入力イメージ301に反映してトーンを調整する。例えば、プロセッサは、陰影情報304を入力イメージ301に反映して再照明されたイメージ309を生成する。プロセッサは、入力イメージ301の明るさヒストグラムに基づいて再照明されたイメージ309のトーンを調整する。一実施形態によると、プロセッサは、入力イメージ301の全体ピクセルに対する予め定めた明るさ範囲のピクセルの比率に基づいて再照明されたイメージ309の少なくとも一部領域に対応するピクセルのトーンに加重値を付加する。
一実施形態によると、プロセッサは、顔領域内の各ピクセルごとの陰影情報304を、ユーザが指定したり自動設定されるトーン調整スタイルに応じて最終陰影情報にアップデートすることができる。プロセッサは、最終陰影情報を入力イメージ301に反映して顔領域に陰影効果を表現する。また、プロセッサは、入力イメージ301及び再照明されたイメージ309のトーンを調整する場合、オブジェクト(例えば、顔)の輪郭部分における不一致を最小化するため、オブジェクトと背景の境界領域にブラー効果などを適用する。
図4、図5A、及び図5Bは、一実施形態によるイメージの明るさを調整する方法の他の例示を細部的に示す図である。
図4は、予め格納されたオブジェクトモデル201及びオブジェクトモデル201に関して、格納された表面ノーマルモデル401を用いてイメージの明るさを調整する方法を示すフローチャートである。図5A及び図5Bは、入力イメージ301が図4に示された方法によって処理される過程を示す。
まず、ステップS210において、イメージの明るさを調整する装置のイメージ受信部は、図2を参照して上述したように入力イメージ301を受信する。そして、ステップS220において、プロセッサは図2を参照して上述したように入力イメージ301に示されるオブジェクトの特徴点302を抽出する。次に、ステップS110において、プロセッサは図1を参照して上述したように、図5Aに示すようにオブジェクトモデル201をオブジェクトにマッチングする。そして、ステップS120において、プロセッサは表面ノーマルマップ501を入力イメージ301にマッピングする。ここで、図3に示す表面ノーマルマップ303とは相違に、図5Aに示す表面ノーマルマップ501は、表面ノーマルモデル401が変換されたものである。次に、ステップS130において、プロセッサは図1を参照して上述したように、表面ノーマルマップ501及び仮想光源に基づいて陰影情報304を生成する。そして、ステップS240において、プロセッサは、図2を参照して上述したようにトーンを調整する。図4、図5A及び図5Bに示された上述したステップS210、220、110、130、240は図2及び図3を参照して上述したため、具体的な説明を省略する。ただし、図4に示すステップS120は、図4のステップS430を介して詳細に説明する。
一実施形態によると、ステップS430において、プロセッサは、オブジェクトモデル201に関してデータベースに図5Aに示された予め格納された表面ノーマルモデル401を変換して表面ノーマルマップ501を生成する。例えば、プロセッサは、表面ノーマルモデル401の各特徴点をステップS110でオブジェクトにマッチングされたオブジェクトモデル201の特徴点に一致させることで、表面ノーマルモデル401を変換する。一実施形態によると、プロセッサは、上述したステップS110で決定された変換関数を用いて、ステップS430で予め格納された表面ノーマルモデル401の各座標を変換し、図5Aに示すように、2次元イメージ形式の表面ノーマルマップ501を生成する。表面ノーマルマップ501は、入力イメージ301のオブジェクトの位置に合わせて整列され得る。
表面ノーマルモデル401は、2次元イメージの各座標ごとに各座標に対応するノーマルベクトルがマッピングされているモデルを示す。例えば、表面ノーマルモデル401は、オブジェクトモデル201に関して予め格納された2次元イメージ形式のモデルであり得る。表面ノーマルモデル401は、図5Aに示すように、特定タイプのオブジェクトの一般的な形態上の各ピクセルの座標にノーマルベクトルが割り当てられ、特徴点が予め指定され得る。
また、他の一実施形態によると、図5Bに示すように、複数の表面ノーマルモデル401〜404が様々な角度で予め格納されてもよい。この場合、ステップS430において、プロセッサは、複数の表面ノーマルモデル401〜404のそれぞれをオブジェクトにマッチングされたオブジェクトモデル201の特徴点に一致させた結果を結合して表面ノーマルマップ501を生成する。例えば、プロセッサは、オブジェクトにマッチングされたオブジェクトモデル201の特徴点と複数の表面ノーマルモデル401〜404のそれぞれの特徴点との類似度を算出し、複数の表面ノーマルモデル401〜404のそれぞれをオブジェクトモデル201の特徴点に一致させた結果を、算出された類似度の比率に応じて結合し得る。
例えば、オブジェクトが特定方向を見ている場合、該当オブジェクトに対応するオブジェクトモデル201の特徴点と正面表面ノーマルモデル401、上端部表面ノーマルモデル402、下端部表面ノーマルモデル403、及び左側表面ノーマルモデル404のそれぞれの特徴点の類似度の比率がa:b:c:dに算出される(ここで、a、b、c、dは0と1との間の実数であり、a、b、c、dの総合は1)。プロセッサは、正面表面ノーマルモデル401をオブジェクトモデル201の特徴点に一致させた結果にはaの加重値、上端部表面ノーマルモデル402をオブジェクトモデル201の特徴点に一致させた結果にはbの加重値、下端部表面ノーマルモデル403をオブジェクトモデル201の特徴点に一致させた結果にはcの加重値、左側表面ノーマルモデル404をオブジェクトモデル201の特徴点に一致させた結果にはdの加重値を付与し合算することで、表面ノーマルマップ501を生成することができる。
ただし、図5Bでは、4個の表面ノーマルモデル401〜404のみを示しているが、これに限定することなく、設計に応じて様々な角度の表面ノーマルモデルが予め格納されて表面ノーマルマップ501を生成するため使用され得る。また、プロセッサは、左側表面ノーマルモデル404を左右反転することによって、右側に対する表面ノーマルモデルを生成して活用することもできる。
図6A及び図6Bは、一実施形態による光源の種類に応じる光ベクトルの例示を説明する図である。
イメージの明るさを調整するために用いられる仮想光源の種類は、ユーザによって又は自動決定される。仮想光源は、入力イメージに照明効果を及ぼすように設定された光源として、例えば、仮想光源は、スポット光源又は方向性光源を用いてもよい。ただし、仮想光源の種類をこれに限定することはない。
本明細書において、スポット光源は、特定位置に設定された仮想光源から全方向に光が放出するように設定された仮想光源を示す。方向性光源は、特定方向に光が放出するように設定された仮想光源を示し、例えば、太陽などのように極めて遠い距離に位置する光源の場合は実質的に同じ方向を有する光が達する。
光ベクトルは、仮想光源から放出された光の特定地点に対する方向及びの大きさなどを示す。光ベクトルは、仮想光源による光源効果の程度及び方向を示す。以下、本明細書では正規化された大きさを有する光ベクトルを基準にして説明するが、これに限定することはない。
例えば、スポット光源に対してプロセッサは、仮想光源の位置及び入力イメージにおける各ピクセルの位置間の関係に基づいて該当ピクセルに入射される光ベクトルを決定する。したがって、スポット光源に対する光ベクトルは、スポット光源の位置に応じて変わり得る。スポット光源の光ベクトルは、下記の図6Aを参照して説明する。
他の例として、方向性光源に対してプロセッサは、仮想光源の照明方向に基づいて該当のピクセルに入射される光ベクトルを決定する。したがって、方向性光源に対する光ベクトルは、予め一定のベクトル値に定められる。方向性光源の光ベクトルは下記の図6Bを参照して説明する。
図6Aは、スポット光源による光ベクトルを説明するための図である。
一実施形態によると、入力イメージ610に示されるオブジェクト620上で任意のピクセル630に対してスポット光源601から放出された光が投射される。スポット光源601の位置情報(例えば、スポット光源601の座標)はユーザによって指定されたり自動指定される。スポット光源601による光ベクトル640は、スポット光源601の位置情報でのみ算出される。例えば、スポット光源601から該当ピクセル630に投射される光を光ベクトル640に示され、光ベクトル640は、スポット光源601と該当ピクセル630との間の正規化された位置差として示すことができる。例えば、スポット光源601の位置がS、S、S(例えば、ユーザによって又は自動指定される)であり、任意のピクセル630の入力イメージ610上の位置がx、y、0(ここで、入力イメージ610上の全てのピクセルのz座標は0であると仮定)である場合、プロセッサは、該当ピクセル630に投射される光ベクトル640はL=[x−S、y−S、−S]に示し、さらに、これを正規化した値を有するよう算出することができる。例えば、光ベクトル640は、光ベクトル640の長さによってx−S、y−S、及び−Sを割ることで正規化される。
例えば、表面ノーマルマップで、入力イメージ610上のx、y位置上におけるノーマルベクトル値がwxy、uxy、vxyである場合、プロセッサはx、y位置に対してスポット光源601による光ベクトルLとノーマルベクトル間のドット積演算の結果値としてwxy(x−S)+uxy(y−S)+vxy(−S)を算出し得る。
図6Bは、方向性光源による光ベクトル680を説明するための図である。
一実施形態によると、方向性光源609は、入力イメージ650から極めて遠い距離に位置すると仮定し、方向性光源から入力イメージ650のオブジェクト660上の全てのピクセル670に対して同一の光が投射され得る。方向性光源609の方向はユーザによって指定されたり自動指定される。方向性光源609は、入力イメージ650上のオブジェクト660から極めて遠い距離に位置すると仮定され、方向性光源609による光の投射方向のみが指定されると、方向性光源609によってオブジェクト660の各ピクセル670に投射される光ベクトル680は全て同一である。例えば、方向性光源609によって各ピクセル670に投射される光ベクトル680は全てL=[L、L、L]に示す。Lはx軸方向に対する光の方向、Lはy軸方向に対する光の方向、Lはz軸方向に対する光の方向を示す。
例えば、表面ノーマルマップで入力イメージ650上のx、y位置上におけるノーマルベクトル値がwxy、uxy、vxyである場合、プロセッサはx、y位置に対して方向性光源609による光ベクトルLとノーマルベクトルとの間のドット積演算の結果値としてwxyLx+uxyLy+vxyLzを算出し得る。
上述した図6A及び図6Bでは、プロセッサが光ベクトル及びノーマルベクトル間のドット積演算に基づいて陰影情報を生成したが、これに限定することはない。下記、図7では他の方式の陰影情報生成について説明する。
図7は、一実施形態によるビューベクトル及び反射ベクトルに基づいた陰影情報の生成を説明する図である。
ビューベクトル750は、ユーザが入力イメージ710又はオブジェクト720を見る方向を指示するベクトルを示す。反射ベクトル742は、光源701から投射された光がオブジェクト720のいずれかのピクセル730に達した後、反射する光を指示するベクトルを示す。したがって、反射ベクトル742は、光ベクトル741がオブジェクト720から反射したベクトルであり得る。例えば、プロセッサは、反射ベクトル742を次式により算出する。
ここで、Lは光ベクトル741、n^はノーマルベクトル743を示す。
一実施形態によると、プロセッサは、ビューベクトル750及び反射ベクトル742をドット積790することで陰影情報を生成することができる。例えば、ユーザが正面から機器を観察する一般的な場合、ビューベクトル750が0、0、1であるため、プロセッサは反射ベクトル742のz方向成分のみを選択して陰影情報として生成し得る。
一実施形態によると、図6A及び図6Bに示すスポット光源及び方向性光源の全てに対して、図7に示されたビューベクトル750及び反射ベクトル742に基づいた陰影情報を生成する方式が適用される。例えば、図6Aに示されたスポット光源より、図6Bに示された方向性光源のように特定方向に光が放出されるよう設定され、反射する光の方向も特定方向に示される場合にビューベクトル750に基づいて生成された陰影情報は、視点と一致するほど明るく表現され得る。
図8は、一実施形態による光源の強度に応じて再照明されたイメージを示す図である。
例えば、図8は、入力イメージ301の明るさが上述した図1〜図5に示す方法により調整された、再照明されたイメージ810、820、830を示す。
図8に示すそれぞれの再照明されたイメージ810、820、830は互いに仮想光源の強度が相違に設定された例を示す。第1再照明されたイメージ810は仮想光源の強度が低い場合、第2再照明されたイメージ820は仮想光源の強度が中間程度である場合、第3再照明されたイメージ830は仮想光源の強度が高い場合を示す。
図8に示すように、第1再照明されたイメージ810の一部領域811、812に比べて、第2再照明されたイメージ820の一部領域821、822の明るさが比較的高く調整される。また、第2再照明されたイメージ820の一部領域821、822の明るさよりも第3再照明されたイメージ830の一部領域831、832の明るさが比較的高く調整される。
ただし、図8において、入力イメージ301の一部領域の明るさ増加についてのみ説明したが、これに限定することなく、仮想光源による照明効果はオブジェクトの全般的な領域に影響を与え、さらに一部領域の明るさが減少(例えば、影効果など)されることがある。
一実施形態によると、仮想光源の強度に応じてイメージの明るさを調整する装置は、入力イメージ301に示されるオブジェクトの明るさを違和感なしにナチュラルに増加させたり減少させ得る。
図9は、一実施形態による光源の位置に応じて再照明されたイメージを示す図である。
例えば、図9は、入力イメージ301の明るさが上述した図1〜図5に示す方法により調整された再照明されたイメージ910、920、930を示す。図9において、仮想光源909は方向性光源であり得る。
図9に示すそれぞれの再照明されたイメージ910、920、930は互いに仮想光源909の方向が相違に設定された例を示す。第4再照明されたイメージ910は、左側上端部からオブジェクトに向かって−45度方向に光が投射されるように設定された仮想光源909が適用された結果を示す。第5再照明されたイメージ920は、正面上端部からオブジェクトに向かって0度方向に光が投射されるように設定された仮想光源909が適用された結果を示す。第6再照明されたイメージ930は、右側上端部からオブジェクトに向かって+45度方向に光が投射されるように設定された仮想光源909が適用された結果を示す。
図9に示すように、第4再照明されたイメージ910では、−45度方向に光が投射される仮想光源909によって、オブジェクト(図9では人の顔)の右側下端部領域911の明るさが減少し得る。第5再照明されたイメージ920では、正面上端部からオブジェクトに向かって光が投射される仮想光源909により、顔の下端部領域921の明るさが減少し得る。第6再照明されたイメージ930では、右側上端部からオブジェクトに向かって光が投射される仮想光源909により、顔の左側下端部領域931の明るさが減少し得る。図9では仮想光源909によってオブジェクトに発生する影効果を示すこともある。
ただし、図9において、入力イメージ301の一部領域の明るさの減少(例えば、影効果)についてのみ説明したが、これに限定することなく、仮想光源909による照明効果はオブジェクトの全般的な領域に影響を与え、さらに一部領域の明るさが増加することもある。
一実施形態によると、イメージの明るさを調整する装置は、仮想光源909の位置及び方向などにより、入力イメージに示されるオブジェクトの明るさを違和感なしにナチュラルに増加させたり減少させることができる。
図10は、一実施形態によるイメージの明るさを調整する装置の例示的なグラフィクユーザインタフェース(Graphical User Interface:GUI)を示す図である。
イメージの明るさを調整する装置1000は、例えば、スマートフォンであり得る。ただし、これに限定することはない。イメージの明るさを調整する装置1000は、上述した図1〜図5に示す方法を行う過程で求められるユーザ操作を受信する。例えば、図10は、仮想光源設定に対するユーザ操作を受信するためのグラフィクユーザインタフェースを示す。
例えば、図10に示されたグラフィクユーザインタフェースは、光源タイプインタフェース1010、光源位置/方向インタフェース1020、及び光源強度インタフェース1030などを含む。インタフェースの種類及びデザインなどはこれに限定することなく、設計に応じて様々なインタフェースを用いてもよい。
光源タイプインタフェース1010は、ユーザから仮想光源のタイプの指定に関する操作を受信するように設定される。例えば、図10に示す装置1000は、光源タイプインタフェース1010によってユーザからスポット光源及び方向性光源のいずれか1つを指定する操作を受信する。
光源位置/方向インタフェース1020は、仮想光源のタイプに応じてユーザから仮想光源の位置及び方向のうち少なくとも1つの指定に関する操作を受信するよう設定される。
図10でスポット光源が選択された場合、光源位置/方向インタフェース1020は、仮想光源の位置を指定する操作を受信する。スポット光源は、光源の全方向に光を投射するためスポット光源の位置のみが指定されれば、スポット光源による光ベクトルが入力イメージのそれぞれのピクセルに対して導出(任意のピクセルにおける光ベクトルは、該当ピクセルの座標及びスポット光源の座標間の位置差に算出)され、位置のみを指定するインタフェースにも光ベクトルに基づいた光源効果の表現が可能になる。一実施形態によると、プロセッサは、予め指定された複数の位置に対するインタフェース(図示せず)をユーザに提供し、ユーザからスポット光源の位置に対する選択を受信すると、該当位置をスポット光源の位置として設定する。例えば、ユーザによって中間アイコンが活性化されれば、装置1000は、仮想光源の位置をオブジェクトから正面上の予め設定された地点に設定することができる。
図10で方向性光源が選択された場合、光源位置/方向インタフェース1020は、仮想光源の方向を指定する操作を受信する。方向性光源は、イメージ上の全てのピクセルに対して同じ方向を有する光を投射するものと仮定されることができるため、方向性光源の方向のみが指定されれば、方向性光源による光ベクトルが入力イメージのそれぞれのピクセルに対して導出され、方向を指定するインタフェースにも光ベクトルに基づいた光源効果の表現が可能になる。一実施形態によると、プロセッサは、予め指定された複数の方向に対するインタフェースをユーザに提供し、ユーザから方向性光源の方向に対する選択を受信すれば、該当方向を方向性光源の方向として設定する。例えば、ユーザによって右側アイコンが活性化されれば、装置1000は、仮想光源から投射される光ベクトルの方向を右側上端部からオブジェクトに向かうように設定することができる。
光源強度インタフェース1030は、ユーザから仮想光源の強度の指定に関する操作を受信するように設定される。図10において、仮想光源の強度は、レベル0(例えば、仮想光源off)〜レベル5(例えば、仮想光源強度最大)まで区分され、例えば、ユーザによってレベル3に対応するアイコンが活性化されれば、装置1000は、仮想光源の強度をレベル3(中間程度)に設定する。ただし、仮想光源の強度区分を上述の内容に限定することなく、n個のレベル(ここで、nは1以上の整数)に区分されるように設定できる。
プレビューインタフェースは、再照明されたイメージ1009を提供する。また、プレビューインタフェースは、再照明されたイメージ1009のトーンを調整した結果を提供できる。例えば、プレビューインタフェースは、光源設定インタフェース(図10において1010〜1030)及びトーン調整インタフェース(図示せず)などによって受信されるユーザの操作をリアルタイムに反映して生成された再照明されたイメージ1009を提供する。例えば、光源強度インタフェース1030によって光源の強度が変更されれば、装置1000は、変更された光源強度が反映された再照明されたイメージ1009をリアルタイムに表示できる。
ただし、イメージの明るさを調整する装置1000のグラフィクユーザインタフェースを図10に示す内容に限定することなく、再照明されたイメージ1009のトーンを調整(例えば、図2及び図4のステップS240)するためのインタフェース、写真撮影のためのインタフェース、及び再照明されたイメージ1009の格納のためのインタフェースなどのような様々なインタフェースを提供できる。
図11は、一実施形態による再照明されたイメージにトーンが調整された例を示す図である。
一実施形態によると、装置のプロセッサは、図1〜図5に示すステップS240で陰影情報を入力イメージ301に反映してトーンを調整する。例えば、プロセッサは、入力イメージ301に陰影情報を反映して再照明されたイメージを生成し、再照明されたイメージのトーンを調整する。図11ではトーン調整の4種類のスタイルを図示しているが、トーン調整のスタイルをこれに限定することはない。
第1スタイルはイメージで明るい領域及び暗い領域のピクセルのトーンに対して加重値を付加するスタイルを示す。第1スタイルによると、例えば、プロセッサは、明るい領域に対応するピクセルと暗い領域に対応するピクセルのトーンに同じ加重値を付加する。この場合、明るい領域が加重値によって明るくなる程度及び暗い領域が加重値によって暗くなる程度の比率が同一であり、第1スタイルによりトーンの調整された再照明されたイメージ1110は、全体的な明暗が明確になる。第1スタイルを「dark&bright」スタイルと示す。
明るい領域に対応するピクセルは、ピクセルの明るさが予め定めた閾値よりも大きいピクセルを示し、暗い領域に対応するピクセルはピクセルの明るさが予め定めた閾値以下であるピクセルを示す。
第2スタイルは、上述した第1スタイルと同じ加重値を付加し、さらに暗い領域に対応するピクセルに特定影色をさらに付加するスタイルを示す。第2スタイルによりトーンの調整された再照明されたイメージ1120は、人の皮膚トーン(例えば、茶色)と類似に設定された影色をさらに付加することで、陰影効果をよりナチュラルに示し得る。第2スタイルを「shadow color mixing」スタイルと示す。
第3スタイルは、明るい領域に対応するピクセルは保持して暗い領域に対応するピクセルのトーンに加重値を付加するスタイルを示す。第3スタイルによりトーンの調整された再照明されたイメージ1130は暗い領域がより強調され、入力イメージ301が全般的に明るく撮影された場合に適する。第3スタイルを「dark tone」スタイルと示す。
第4スタイルは、暗い領域に対応するピクセルを保持して明るい領域に対応するピクセルのトーンに加重値を付加するスタイルを示す。第4スタイルによりトーンの調整された再照明されたイメージ1140は明るい領域がより強調され、入力イメージ301が全般的に暗く撮影された場合に適する。第4スタイルを「bright tone」スタイルと示す。
上述したトーン調整のスタイルは、グラフィクユーザインタフェースを用いて受信されるユーザ操作に応じて決定されたり自動決定される。下記の図12〜図15では、トーン調整のスタイルが自動決定される例示を説明する。
図12〜図15は、一実施形態によるイメージの明るさヒストグラムに基づいたトーンの調整を示す図である。
図12は、上述した図11に示す第1スタイルによりトーンの調整された再照明されたイメージ1210、図13は第2スタイルによりトーンの調整された再照明されたイメージ1310、図14は第3スタイルによりトーンの調整された再照明されたイメージ1410、図15は第4スタイルによりトーンの調整された再照明されたイメージ1510を示す。
プロセッサは、入力イメージの明るさヒストグラム1220、1320、1420、1520に基づいてトーン調整のスタイルを決定し、決定されたスタイルにより再照明されたイメージ1210、1310、1410、1510のトーンを調整する。例えば、プロセッサは、入力イメージの全体ピクセルに対する予め定めた明るさ範囲のピクセルの比率に基づいて、再照明されたイメージ1210、1310、1410、1510の少なくとも一部領域に対応するピクセルのトーンに加重値を付加する。図12〜図15に示された明るさヒストグラム1220、1320、1420、1520は、入力イメージのピクセルの明るさ分布を示し、例えば、横軸は明るさを示し、縦軸は入力イメージ内で横軸の明るさを有するピクセル数を示す。ただし、明るさヒストグラム1220、1320、1420、1520は、入力イメージに関するものを例にしたが、これに限定することなく、再照明されたイメージ1210、1310、1410、1510の明るさヒストグラムを用いてもよい。
一実施形態によると、プロセッサは、入力イメージのピクセルの明るさが第2閾値の明るさ以下でありながら第1閾値の明るさよりも大きいピクセル数が全体ピクセルのうち予め定めた第1比率以上の個数である場合に応答して、陰影情報で暗い領域及び明るい領域に加重値を付加することができる。例えば、プロセッサは、入力イメージの図12に示された明るさヒストグラム1220のように、入力イメージの明るさが中間程度である場合、第1スタイルによりトーンを調整し得る。
一実施形態によると、プロセッサは、入力イメージのピクセルの明るさが第3閾値の明るさ以下であり、第2閾値の明るさよりも大きいピクセル数が全体ピクセルのうち予め定めた第2比率以上の個数である場合に応答して、陰影情報で暗い領域及び明るい領域に加重値を付加して予め定めた影色を暗い領域に付加する。例えば、プロセッサは、入力イメージの図13に示された明るさヒストグラム1320のように入力イメージの明るさが中間程度である場合、第2スタイルによりトーンを調整し得る。
一実施形態によると、プロセッサは、入力イメージのピクセルの明るさが第3閾値の明るさよりも大きいピクセル数が全体ピクセルのうち予め定めた第3比率以上の個数である場合に応答して、陰影情報で暗い領域に加重値を付加する。例えば、プロセッサは、図14に示された明るさヒストグラム1420のように入力イメージの明るさが強い明るさである場合、第3スタイルによりトーンを調整し得る。
一実施形態によると、プロセッサは、入力イメージのピクセルの明るさが第1閾値の明るさ以下であるピクセル数が全体ピクセルのうち予め定めた第4比率以上の個数である場合に応答して、陰影情報で明るい領域に加重値を付加する。例えば、プロセッサは、図15に示された明るさヒストグラム1520のように入力イメージの明るさが弱い場合、第4スタイルによりトーンを調整し得る。
ただし、トーン調整の各スタイルの適用を上述した内容によって限定することなく、ユーザの好み、背景イメージの状況、ユーザの操作、及び設計などに応じてスタイルの適用基準を多様に変更することができる。
図16〜図19は、一実施形態によるイメージの明るさを調整する装置の構成を示すブロック図である。
一実施形態によるイメージの明るさを調整する装置1600は、図16に示すようにプロセッサ1610を含む。また、図17〜図19に示すように、メモリ1720、イメージ受信部1830、及びディスプレイ1940をさらに含んでもよい。
プロセッサ1610は、上述した図1〜図5を参照して説明したイメージの明るさを調整する方法を行う。例えば、プロセッサ1610は、オブジェクトが示される入力イメージから抽出されたオブジェクトの特徴点に基づいてオブジェクトモデルをオブジェクトにマッチングし、マッチングされたオブジェクトモデルに基づいて2次元イメージ形式の表面ノーマルマップを入力イメージにマッピングし、マッピングされた表面ノーマルマップ及び仮想光源に基づいて入力イメージに対する陰影情報を生成する。
メモリ1720は、ハードウェアと結合して一実施形態によるイメージの明るさを調整する方法を実行させるために、媒体に格納されたコンピュータプログラムを含む。また、メモリ1720は、オブジェクトモデル及びオブジェクトモデルに関する表面ノーマルモデルなどをデータベースに予め格納する。例えば、メモリ1720は、入力イメージ、再照明されたイメージ、及びトーンの調整された再照明されたイメージを格納し、陰影情報及び表面ノーマルマップなどのように図1〜図5に示す方法を行うために必要であったり実行する過程で生成されるデータを格納する。
イメージ受信部1830は、外部から入力イメージを受信する。例えば、イメージ受信部1830は、カメラにより撮影された入力イメージを受信する。また、イメージ受信部1830は、有無線通信によって入力イメージを受信する。
ディスプレイ1940はイメージを表示する。一実施形態によると、ディスプレイ1940は、入力イメージに陰影情報を反映して表現し得る。例えば、ディスプレイ1940は、入力イメージ、再照明されたイメージ、及びトーンが調整されたイメージなどを表示する。本明細書ではイメージを停止した写真を例に挙げて説明したが、これに限定することなくイメージの明るさを調整する装置1600は動画に対しても適用される。イメージが動画である場合、プロセッサ1610は、動画の各フレームに対して上述した図2〜図15に示す方法をリアルタイムに実行し、各フレームに示されるオブジェクトに対してナチュラルな陰影効果を適用できる。ディスプレイ1940は、スクリーン、プロジェクター、LCD、及びOLEDなどを含む。
一実施形態による装置1600は、イメージを処理することのできるプロセッサ1610を含む電子装置1600であって、例えば、スマートフォン及びカメラなどであり得る。
一実施形態による装置1600は、カメラにより撮影された顔に複雑度の低いグラフィックレンダリング技術(例えば、光源による照明効果及びSoft Shading)を適用してナチュラルな陰影効果を付加的に表現することができる。スマートフォンなどのようなモバイルスマート機器において性能が制限されているが、小型スマート機器でナチュラルな陰影効果をリアルタイムに入力イメージへ反映しながらもその性能は低下しない。例えば、装置1600は、スマートフォンやカメラなどのモバイルスマート機器に内蔵されたCPU、GPU及び標準グラフィックスS/Wを活用して、照明に関する複雑な物理演算なしにオブジェクトに対して仮想光源による陰影効果をリアルタイムに表現できる。
また、装置1600は、人の顔が正面で撮影された場合(例えば、selfie camera)に陰影効果をよりナチュラルに反映し得る。装置1600は、写真を撮影するとき(例えば、撮影された写真をプレビューした後格納するとき)仮想光源による陰影効果を顔領域にリアルタイムにオーバーレイすることができ、上述した方法によって撮影されたイメージを容易に編集できる。
一実施形態によると、装置1600は、複雑な3D幾何構造モデルを使用することなく、簡単な幾何構造モデル(例えば、オブジェクトモデル)を利用しながらも高い品質の陰影効果を取得できる。また、装置1600は、照明演算を表面ノーマルマップを用いて光ベクトルとのドット積に単純化することにより、複雑な演算を行うことなく、リアルタイムに微細な陰影効果を表現できる。
また、装置1600は、陰影効果を適用するとき撮影状況に応じてトーン調整のスタイルを手動又は自動選択することができることから、よりナチュラルな陰影効果を表現できる。装置1600は、単にイメージをフィルタリングすることに比べて、よりナチュラルで目鼻立ちがはっきりするように再照明されたイメージを取得できる。
以上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で行われる1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
以上、本発明の実施形態について図面を参照しながら詳細に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。
1600 イメージの明るさを調整する装置
1610 プロセッサ
1720 メモリ
1830 イメージ受信部
1940 ディスプレイ

Claims (36)

  1. オブジェクトが示される入力イメージから抽出された前記オブジェクトの1つ以上の特徴点に基づいて、オブジェクトモデルを前記オブジェクトにマッチングするステップと、
    前記マッチングされたオブジェクトモデルに基づいて、2次元イメージ形式の表面ノーマルマップを前記入力イメージにマッピングするステップと、
    前記マッピングされた表面ノーマルマップ及び仮想光源に基づいて、前記入力イメージに対する陰影情報を生成するステップと、
    を含むことを特徴とするイメージの明るさを調整する方法。
  2. 前記表面ノーマルマップを前記入力イメージにマッピングするステップは、前記マッチングされたオブジェクトモデルの各特徴点が位置する地点のノーマルベクトルを補間して前記表面ノーマルマップを生成するステップを含むことを特徴とする請求項1に記載のイメージの明るさを調整する方法。
  3. 前記表面ノーマルマップを前記入力イメージにマッピングするステップは、前記オブジェクトモデルに関してデータベースに予め格納された表面ノーマルモデルを前記表面ノーマルマップに変換するステップを含むことを特徴とする請求項1に記載のイメージの明るさを調整する方法。
  4. 前記オブジェクトモデルを前記入力イメージにマッピングするステップは、前記オブジェクトモデルの特徴点の座標を前記入力イメージの特徴点の座標に変換する変換関数を決定するステップを含むことを特徴とする請求項1に記載のイメージの明るさを調整する方法。
  5. 前記表面ノーマルマップを前記入力イメージにマッピングするステップは、前記決定された変換関数を用いて、表面ノーマルモデルの各座標を変換して2次元イメージ形式の表面ノーマルマップを生成するステップを含むことを特徴とする請求項4に記載のイメージの明るさを調整する方法。
  6. 前記陰影情報を生成するステップは、前記表面ノーマルマップのそれぞれの座標のノーマルベクトル及び前記入力イメージで該当座標における前記仮想光源による光ベクトル間のドット積演算を行うステップを含むことを特徴とする請求項1乃至5のいずれか一項に記載のイメージの明るさを調整する方法。
  7. 前記ドット積演算を行うステップは、前記仮想光源の位置及び前記入力イメージにおける各ピクセルの該当位置間の関係又は前記仮想光源の照明方向に基づいて該当ピクセルに入射される前記光ベクトルを決定するステップを含むことを特徴とする請求項6に記載のイメージの明るさを調整する方法。
  8. 前記陰影情報を前記入力イメージに反映して再照明されたイメージを生成するステップと、
    前記入力イメージの明るさヒストグラムに基づいて前記再照明されたイメージのトーンを調整するステップと、
    をさらに含むことを特徴とする請求項1乃至7のいずれか一項に記載のイメージの明るさを調整する方法。
  9. 前記再照明されたイメージのトーンを調整するステップは、前記入力イメージのピクセルの全体個数に対する前記入力イメージで予め定めた明るさ範囲のピクセル数の比率に基づいて、前記再照明されたイメージの少なくとも一部領域でピクセルのトーンに加重値を付加するステップを含むことを特徴とする請求項8に記載のイメージの明るさを調整する方法。
  10. 前記仮想光源の強度、位置、色、照明方向、及びタイプのうち少なくとも1つを指示する制御信号を受信するステップをさらに含むことを特徴とする請求項1乃至9のいずれか一項に記載のイメージの明るさを調整する方法。
  11. 前記オブジェクトは人の顔であることを特徴とする請求項1乃至10のいずれか一項に記載のイメージの明るさを調整する方法。
  12. 請求項1乃至11のいずれか一項に記載の方法をプロセッサに実行させるコンピュータプログラム。
  13. オブジェクトが示される入力イメージから抽出された前記オブジェクトの特徴点に基づいてオブジェクトモデルを前記オブジェクトにマッチングし、前記マッチングされたオブジェクトモデルに基づいて2次元イメージ形式の表面ノーマルマップを前記入力イメージにマッピングし、前記マッピングされた表面ノーマルマップ及び仮想光源に基づいて前記入力イメージに対する陰影情報を生成するプロセッサを含むことを特徴とするイメージの明るさを調整する装置。
  14. 前記プロセッサは、前記マッチングされたオブジェクトモデルの各特徴点が位置する地点のノーマルベクトルを補間して前記表面ノーマルマップを生成することを特徴とする請求項13に記載のイメージの明るさを調整する装置。
  15. 前記オブジェクトモデルに関する表面ノーマルモデルをデータベースに格納するメモリをさらに含み、
    前記プロセッサは、前記表面ノーマルモデルを前記表面ノーマルマップに変換することを特徴とする請求項13に記載のイメージの明るさを調整する装置。
  16. 前記プロセッサは、前記オブジェクトモデルの特徴点の座標を前記入力イメージの特徴点の座標に変換する変換関数を決定することを特徴とする請求項13に記載のイメージの明るさを調整する装置。
  17. 前記プロセッサは、前記決定された変換関数を用いて表面ノーマルモデルの各座標を変換して2次元イメージ形式の表面ノーマルマップを生成することを特徴とする請求項16に記載のイメージの明るさを調整する装置。
  18. 前記プロセッサは、前記表面ノーマルマップのそれぞれの座標のノーマルベクトル及び前記入力イメージで該当座標における前記仮想光源による光ベクトル間のドット積演算を行うことを特徴とする請求項13乃至17のいずれか一項に記載のイメージの明るさを調整する装置。
  19. 前記プロセッサは、前記仮想光源の位置及び前記入力イメージにおける各ピクセルの位置間の関係又は前記仮想光源の照明方向のいずれか1つに基づいて前記入力イメージのピクセルで前記光ベクトルを決定することを特徴とする請求項18に記載のイメージの明るさを調整する装置。
  20. 前記プロセッサは、前記陰影情報を前記入力イメージに反映して再照明されたイメージを生成し、前記入力イメージの明るさヒストグラムに基づいて前記再照明されたイメージのトーンを調整することを特徴とする請求項13乃至19のいずれか一項に記載のイメージの明るさを調整する装置。
  21. 前記プロセッサは、前記入力イメージのピクセルの全体個数に対する前記入力イメージで予め定めた明るさ範囲のピクセル数の比率に基づいて、前記再照明されたイメージの少なくとも一部領域でピクセルのトーンに加重値を付加することを特徴とする請求項20に記載のイメージの明るさを調整する装置。
  22. オブジェクトが示される入力イメージを受信するイメージ受信部と、
    前記入力イメージから抽出された前記オブジェクトの特徴点に基づいてオブジェクトモデルを前記オブジェクトにマッチングし、前記マッチングされたオブジェクトモデルに基づいて2次元イメージ形式の表面ノーマルマップを前記入力イメージにマッピングし、前記マッピングされた表面ノーマルマップ及び仮想光源に基づいて前記入力イメージに対する陰影情報を生成するプロセッサと、
    を含むことを特徴とする装置。
  23. 前記イメージ受信部はカメラであることを特徴とする請求項22に記載の装置。
  24. 前記プロセッサは、前記入力イメージに前記陰影情報を適用するように構成され、
    前記装置は、前記入力イメージに前記陰影情報を反映して表現するディスプレイをさらに含むことを特徴とする請求項22又は23に記載の装置。
  25. 前記プロセッサは、前記マッチングされたオブジェクトモデルの各特徴点が位置する地点のノーマルベクトルを補間して前記表面ノーマルマップを生成することを特徴とする請求項22又は23に記載の装置。
  26. 前記オブジェクトモデルに関する表面ノーマルモデルをデータベースに格納するメモリをさらに含み、
    前記プロセッサは、前記表面ノーマルモデルを前記表面ノーマルマップに変換することを特徴とする請求項22又は23に記載の装置。
  27. 前記プロセッサは、ユーザがオブジェクトを見る方向を指示するビューベクトル及び前記仮想光源から前記オブジェクトに投射された光が前記オブジェクトによって反射した方向を指示する反射ベクトルに基づいて前記陰影情報を生成することを特徴とする請求項22乃至26のいずれか一項に記載の装置。
  28. 映像の明るさを調整する方法において、
    オブジェクトモデル及び映像におけるオブジェクトの特徴点に基づいて入力映像の表面ノーマルマップを生成するステップと、
    仮想光源及び前記表面ノーマルマップに基づいて前記入力映像のための陰影情報を生成するステップと、
    前記入力映像の明るさを調整するために前記入力映像に前記陰影情報を適用するステップと、
    を含むことを特徴とする方法。
  29. 前記オブジェクトモデルは、前記オブジェクトの前記特徴点に対応する特徴点及び前記オブジェクトモデルの前記特徴点に対応するノーマルベクトルを含み、
    前記表面ノーマルマップを生成するステップは、前記入力映像の座標でノーマルベクトルを取得するために前記オブジェクトモデルの前記ノーマルベクトルを補間するステップを含むことを特徴とする請求項28に記載の方法。
  30. 前記表面ノーマルマップを生成するステップは、前記オブジェクトモデル及び前記オブジェクトの前記特徴点に基づいて前記表面ノーマルマップに表面ノーマルモデルを変換するステップを含むことを特徴とする請求項28に記載の方法。
  31. 前記オブジェクトモデルの特徴点及び前記オブジェクトの前記特徴点に基づいて前記オブジェクトで前記オブジェクトモデルをマッチングさせるステップをさらに含み、
    前記表面ノーマルマップを生成するステップは、他の方向から前記オブジェクトのビューに対応する複数の表面ノーマルモデルを前記オブジェクトにマッチングされた前記オブジェクトモデルの前記特徴点に対してマッチングさせた結果を結合することによって前記表面ノーマルマップを生成するステップを含むことを特徴とする請求項28に記載の方法。
  32. 前記陰影情報を生成するステップは、前記表面ノーマルマップの各座標でノーマルベクトル及び前記入力映像の対応座標で前記仮想光源の光ベクトル間のドット積を前記陰影情報として算出するステップを含むことを特徴とする請求項28乃至31のいずれか一項に記載の方法。
  33. 前記陰影情報を生成するステップは、前記オブジェクト上の前記仮想光源から投影される光が前記オブジェクトによって反射する方向を指示する前記入力映像の各座標における反射ベクトル、及び前記オブジェクトをユーザが視聴する方向を指示するビューベクトル間のドット積を前記陰影情報として算出するステップを含むことを特徴とする請求項28乃至31のいずれか一項に記載の方法。
  34. 前記陰影情報を生成するステップは、前記仮想光源の光ベクトル及び前記表面ノーマルマップに基づいて前記反射ベクトルを算出するステップを含むことを特徴とする請求項33に記載の方法。
  35. 前記陰影情報を前記入力映像に適用することは再照明された映像を生成し、前記方法は前記入力映像の明るさヒストグラムに基づいて前記再照明された映像のトーンを調整するステップをさらに含むことを特徴とする請求項28乃至34のいずれか一項に記載の方法。
  36. 前記再照明された映像のトーンを調整するステップは、
    前記入力映像の明るさヒストグラムに基づいて複数のトーン調整スタイルからトーン調整スタイルを選択するステップと、
    前記再照明された映像のトーンを調整するために前記再照明された映像に前記選択されたトーン調整スタイルを適用するステップと、
    を含むことを特徴とする請求項35に記載の方法。
JP2016180644A 2015-09-17 2016-09-15 イメージの明るさを調整する方法及び装置 Active JP6864449B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20150131387 2015-09-17
KR10-2015-0131387 2015-09-17
KR10-2015-0174649 2015-12-09
KR1020150174649A KR102459851B1 (ko) 2015-09-17 2015-12-09 이미지의 밝기를 조절하는 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2017059235A true JP2017059235A (ja) 2017-03-23
JP6864449B2 JP6864449B2 (ja) 2021-04-28

Family

ID=56855347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016180644A Active JP6864449B2 (ja) 2015-09-17 2016-09-15 イメージの明るさを調整する方法及び装置

Country Status (4)

Country Link
US (1) US9922452B2 (ja)
EP (1) EP3144899B1 (ja)
JP (1) JP6864449B2 (ja)
CN (1) CN106548455B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046055A (ja) * 2017-08-31 2019-03-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2021103578A (ja) * 2020-04-17 2021-07-15 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 情報抽出方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965893B2 (en) * 2013-06-25 2018-05-08 Google Llc. Curvature-driven normal interpolation for shading applications
CN105138962A (zh) * 2015-07-28 2015-12-09 小米科技有限责任公司 图像显示方法及装置
US10878612B2 (en) * 2017-04-04 2020-12-29 Intel Corporation Facial image replacement using 3-dimensional modelling techniques
KR102333101B1 (ko) * 2017-06-21 2021-12-01 삼성전자주식회사 관심 객체에 대한 외부 광원의 속성 정보를 제공하는 방법을 지원하는 전자 장치
EP3680853A4 (en) 2017-09-11 2020-11-04 Guangdong Oppo Mobile Telecommunications Corp., Ltd. IMAGE PROCESSING PROCESS AND DEVICE, ELECTRONIC DEVICE AND COMPUTER READABLE INFORMATION MEDIA
CN107734267B (zh) * 2017-09-11 2020-06-26 Oppo广东移动通信有限公司 图像处理方法和装置
CN107833198B (zh) * 2017-11-09 2021-06-01 中共中央办公厅电子科技学院 一种基于大尺度分解的户外场景重光照方法
CN107944420B (zh) * 2017-12-07 2020-10-27 北京旷视科技有限公司 人脸图像的光照处理方法和装置
CN108089958B (zh) * 2017-12-29 2021-06-08 珠海市君天电子科技有限公司 Gpu测试方法、终端设备和计算机可读存储介质
US10643375B2 (en) * 2018-02-26 2020-05-05 Qualcomm Incorporated Dynamic lighting for objects in images
CN108447111B (zh) * 2018-03-05 2022-05-03 网易(杭州)网络有限公司 法线贴图的处理方法、装置、存储介质、处理器及终端
WO2019192744A1 (en) * 2018-04-06 2019-10-10 Siemens Aktiengesellschaft Object recognition from images using cad models as prior
CN110580676A (zh) * 2018-06-07 2019-12-17 富泰华工业(深圳)有限公司 人脸漫画形象制作方法、电子装置和存储介质
CN108986200B (zh) * 2018-07-13 2023-06-20 北京中清龙图网络技术有限公司 图形渲染的预处理方法及系统
RU2697627C1 (ru) * 2018-08-01 2019-08-15 Самсунг Электроникс Ко., Лтд. Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ
CN109255841A (zh) * 2018-08-28 2019-01-22 百度在线网络技术(北京)有限公司 Ar图像呈现方法、装置、终端及存储介质
CN109410300A (zh) * 2018-10-10 2019-03-01 苏州好玩友网络科技有限公司 一种游戏场景中的阴影处理方法及装置及终端设备
KR102627453B1 (ko) * 2018-10-17 2024-01-19 삼성전자주식회사 위치 추정 장치 및 방법
CN111489448A (zh) * 2019-01-24 2020-08-04 宏达国际电子股份有限公司 检测真实世界光源的方法、混合实境系统及记录介质
JP7422454B2 (ja) 2019-02-06 2024-01-26 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
KR102597518B1 (ko) * 2019-02-20 2023-11-03 삼성전자주식회사 영상에 보케 효과를 적용하는 전자 장치 및 그 제어 방법
JP7321772B2 (ja) * 2019-05-22 2023-08-07 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US10916051B2 (en) 2019-07-08 2021-02-09 Google Llc Video lighting using depth and virtual lights
CN110532915B (zh) * 2019-08-20 2022-06-14 东南大学 基于法向量方位角局部熵的三维人脸遮挡判别方法
US11430093B2 (en) 2019-10-01 2022-08-30 Microsoft Technology Licensing, Llc Face-based tone curve adjustment
JP7446080B2 (ja) * 2019-10-15 2024-03-08 キヤノン株式会社 画像処理装置、撮像装置、制御方法、プログラム及び撮像システム
EP3838117A1 (en) * 2019-12-20 2021-06-23 Koninklijke Philips N.V. Illumination compensation in imaging
CN112529996B (zh) * 2020-12-16 2024-02-23 网易(杭州)网络有限公司 生成模型的方法、装置和电子设备
WO2022140887A1 (zh) * 2020-12-28 2022-07-07 华为技术有限公司 一种图像处理方法及装置
KR102515785B1 (ko) * 2021-06-23 2023-03-31 우정호 차량용 틴팅 농도 시뮬레이션 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012185545A (ja) * 2011-03-03 2012-09-27 Secom Co Ltd 顔画像処理装置
JP2016218729A (ja) * 2015-05-20 2016-12-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6980697B1 (en) 2001-02-01 2005-12-27 At&T Corp. Digitally-generated lighting for video conferencing applications
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US6969034B2 (en) * 2003-08-07 2005-11-29 Musco Corporation Enclosure box attachment apparatus, system, and method
US20060274085A1 (en) * 2005-06-03 2006-12-07 Pixar Methods and Apparatus For Structuring Geometric Models
US7519201B2 (en) * 2005-10-28 2009-04-14 Honda Motor Co., Ltd. Detecting humans via their pose
JP4079378B2 (ja) * 2006-09-21 2008-04-23 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理装置の制御方法及びプログラム
US8218903B2 (en) * 2007-04-24 2012-07-10 Sony Computer Entertainment Inc. 3D object scanning using video camera and TV monitor
US8090160B2 (en) 2007-10-12 2012-01-03 The University Of Houston System Automated method for human face modeling and relighting with application to face recognition
CA2714562C (en) 2008-01-31 2017-11-28 University Of Southern California Practical modeling and acquisition of layered facial reflectance
CN101271587B (zh) * 2008-02-25 2010-09-08 北京理工大学 一种基于过渡光贴图的光照和阴影绘制方法
WO2010012448A2 (en) 2008-07-30 2010-02-04 Fotonation Ireland Limited Automatic face and skin beautification using face detection
US8315461B2 (en) 2010-01-25 2012-11-20 Apple Inc. Light source detection from synthesized objects
US8447098B1 (en) * 2010-08-20 2013-05-21 Adobe Systems Incorporated Model-based stereo matching
US8625931B2 (en) * 2010-09-03 2014-01-07 Adobe Systems Incorporated Light space graphical model in shape from shading
WO2013018235A1 (en) * 2011-08-04 2013-02-07 Mitsubishi Electric Corporation Method and system for determining defect of surface of model of object
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
KR101310040B1 (ko) 2012-02-29 2013-09-24 주식회사 슈프리마 적응적 조명조절을 이용한 얼굴 인식장치 및 그 방법
KR102000536B1 (ko) * 2012-12-28 2019-07-16 삼성전자주식회사 합성 이미지를 촬영하는 촬영 장치 및 그 방법
WO2014200589A2 (en) * 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
US9299188B2 (en) * 2013-08-08 2016-03-29 Adobe Systems Incorporated Automatic geometry and lighting inference for realistic image editing
JP6341986B2 (ja) * 2013-09-11 2018-06-13 株式会社スクウェア・エニックス・ホールディングス 描画装置、その描画方法、プログラム及び記録媒体
WO2015175730A1 (en) * 2014-05-13 2015-11-19 Nant Vision, Inc. Augmented reality content rendering via albedo models, systems and methods
JP6445844B2 (ja) * 2014-11-05 2018-12-26 キヤノン株式会社 撮像装置および撮像装置で実行される方法
US9860453B2 (en) * 2014-11-26 2018-01-02 Disney Enterprises, Inc. Systems and methods for estimating sky light probes for outdoor images
JP6463177B2 (ja) * 2015-03-11 2019-01-30 キヤノン株式会社 画像処理装置およびその制御方法
US10303973B2 (en) * 2015-04-15 2019-05-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US9679192B2 (en) * 2015-04-24 2017-06-13 Adobe Systems Incorporated 3-dimensional portrait reconstruction from a single photo

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012185545A (ja) * 2011-03-03 2012-09-27 Secom Co Ltd 顔画像処理装置
JP2016218729A (ja) * 2015-05-20 2016-12-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046055A (ja) * 2017-08-31 2019-03-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2021103578A (ja) * 2020-04-17 2021-07-15 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 情報抽出方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
US11468655B2 (en) 2020-04-17 2022-10-11 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for extracting information, device and storage medium
JP7273087B2 (ja) 2020-04-17 2023-05-12 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 情報抽出方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム

Also Published As

Publication number Publication date
CN106548455B (zh) 2022-03-08
US9922452B2 (en) 2018-03-20
CN106548455A (zh) 2017-03-29
US20170084068A1 (en) 2017-03-23
EP3144899A1 (en) 2017-03-22
EP3144899B1 (en) 2020-02-12
JP6864449B2 (ja) 2021-04-28

Similar Documents

Publication Publication Date Title
JP6864449B2 (ja) イメージの明るさを調整する方法及び装置
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US11961189B2 (en) Providing 3D data for messages in a messaging system
US11189104B2 (en) Generating 3D data in a messaging system
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
US9406147B2 (en) Color balance in digital photography
US9516214B2 (en) Information processing device and information processing method
US11410401B2 (en) Beautification techniques for 3D data in a messaging system
US11825065B2 (en) Effects for 3D data in a messaging system
JP6576083B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN108682050B (zh) 基于三维模型的美颜方法和装置
KR20200043432A (ko) 이미지 데이터에 가상 조명 조정들을 제공하기 위한 기술
JP2018163648A (ja) 画像処理装置、画像処理方法、及びプログラム
KR102459851B1 (ko) 이미지의 밝기를 조절하는 방법 및 장치
JP2021044710A (ja) 画像処理装置、画像処理方法、およびプログラム
US11682234B2 (en) Texture map generation using multi-viewpoint color images
CN109427089B (zh) 基于环境光照条件的混合现实对象呈现
JP6896811B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2016123517A (ja) プログラム及びコンピュータシステム
WO2018180860A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2021145385A (ja) 画像処理装置、画像処理方法、およびプログラム
TW202345097A (zh) 對於圖像擷取的建議
JP2015114783A (ja) 画像処理装置、その制御方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210402

R150 Certificate of patent or registration of utility model

Ref document number: 6864449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250