JP2017059235A - Apparatus and method for adjusting brightness of image - Google Patents
Apparatus and method for adjusting brightness of image Download PDFInfo
- Publication number
- JP2017059235A JP2017059235A JP2016180644A JP2016180644A JP2017059235A JP 2017059235 A JP2017059235 A JP 2017059235A JP 2016180644 A JP2016180644 A JP 2016180644A JP 2016180644 A JP2016180644 A JP 2016180644A JP 2017059235 A JP2017059235 A JP 2017059235A
- Authority
- JP
- Japan
- Prior art keywords
- image
- input image
- surface normal
- brightness
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000013507 mapping Methods 0.000 claims abstract description 13
- 239000013598 vector Substances 0.000 claims description 123
- 230000006870 function Effects 0.000 claims description 15
- 238000005286 illumination Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000001747 exhibiting effect Effects 0.000 abstract 1
- 230000000694 effects Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 13
- 239000000284 extract Substances 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/60—Shadow generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/80—Shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
以下、イメージの明るさを調整する技術が提供される。 Hereinafter, a technique for adjusting the brightness of an image is provided.
スマートフォンなどのようなスマート機器が広く普及されており、このようなスマート機器は、一般的にユーザによってコンテンツを制作できるようにカメラが内蔵されている。スマート機器は、内蔵されたカメラを用いて写真及び動画などを撮影する。また、スマート機器は、撮影された写真を表示したり動画を再生する機能を提供する。 Smart devices such as smartphones are widely used, and such smart devices generally have a built-in camera so that users can create content. Smart devices take pictures and videos using a built-in camera. In addition, the smart device provides a function of displaying a photograph taken and reproducing a moving image.
さらに、スマート機器は、ユーザがイメージなどを編集できる機能を提供する。例えば、ユーザは、スマート機器によって撮影されたイメージをユーザ自分の好みに応じてイメージの色及びの大きさなどを変更し得る。スマート機器は、ユーザがより便利でナチュラルにイメージ編集できるよう編集機能を提供することができる。 Furthermore, the smart device provides a function that allows a user to edit an image or the like. For example, the user can change the color and size of the image taken by the smart device according to the user's own preference. The smart device can provide an editing function so that the user can edit the image more conveniently and naturally.
本発明の目的は、イメージの明るさを調整する技術が提供する。 An object of the present invention is to provide a technique for adjusting the brightness of an image.
一実施形態によるイメージの明るさを調整する方法は、オブジェクトが示される入力イメージから抽出された前記オブジェクトの1つ以上の特徴点に基づいて、オブジェクトモデルを前記オブジェクトにマッチングするステップと、前記マッチングされたオブジェクトモデルに基づいて、2次元イメージ形式の表面ノーマルマップを前記入力イメージにマッピングするステップと、前記マッピングされた表面ノーマルマップ及び仮想光源に基づいて、前記入力イメージに対する陰影情報を生成するステップとを含む。 According to one embodiment, a method for adjusting the brightness of an image includes matching an object model to the object based on one or more feature points of the object extracted from an input image in which the object is shown; Mapping a surface normal map in a two-dimensional image format to the input image based on the mapped object model, and generating shadow information for the input image based on the mapped surface normal map and virtual light source Including.
前記表面ノーマルマップを前記入力イメージにマッピングするステップは、前記マッチングされたオブジェクトモデルの各特徴点が位置する地点のノーマルベクトルを補間して前記表面ノーマルマップを生成するステップを含む。 The step of mapping the surface normal map to the input image includes a step of generating the surface normal map by interpolating a normal vector at a point where each feature point of the matched object model is located.
前記表面ノーマルマップを前記入力イメージにマッピングするステップは、前記オブジェクトモデルに関してデータベースに予め格納された表面ノーマルモデルを前記表面ノーマルマップに変換し得る。 The step of mapping the surface normal map to the input image may convert a surface normal model previously stored in a database with respect to the object model into the surface normal map.
前記オブジェクトモデルを前記入力イメージにマッチングするステップは、前記オブジェクトモデルの特徴点の座標を前記入力イメージの特徴点の座標に変換する変換関数を決定するステップを含む。 Matching the object model to the input image includes determining a transformation function that converts the coordinates of the feature points of the object model into the coordinates of the feature points of the input image.
前記表面ノーマルマップを前記入力イメージにマッピングするステップは、前記決定された変換関数を用いて、表面ノーマルモデルの各座標を変換して2次元イメージ形式の表面ノーマルマップを生成するステップを含む。 The step of mapping the surface normal map to the input image includes a step of converting each coordinate of the surface normal model using the determined conversion function to generate a surface normal map in a two-dimensional image format.
前記陰影情報を生成するステップは、前記表面ノーマルマップのそれぞれの座標のノーマルベクトル及び前記入力イメージで該当座標における前記仮想光源による光ベクトル間のドット積演算を行うステップを含む。 The step of generating the shadow information includes a step of calculating a dot product between a normal vector at each coordinate of the surface normal map and a light vector by the virtual light source at the corresponding coordinate in the input image.
前記ドット積演算を行うステップは、前記仮想光源の位置及び前記入力イメージにおける各ピクセルの該当位置間の関係又は前記仮想光源の照明方向に基づいて該当ピクセルに入射される前記光ベクトルを決定するステップを含む。 The step of performing the dot product calculation is a step of determining the light vector incident on the corresponding pixel based on a relationship between the position of the virtual light source and the corresponding position of each pixel in the input image or an illumination direction of the virtual light source. including.
イメージの明るさを調整する方法は、前記陰影情報を前記入力イメージに反映して再照明されたイメージを生成するステップと、前記入力イメージの明るさヒストグラムに基づいて前記再照明されたイメージのトーンを調整するステップとをさらに含み得る。 A method of adjusting the brightness of an image includes generating a reilluminated image by reflecting the shading information in the input image, and a tone of the reilluminated image based on a brightness histogram of the input image. Adjusting the step.
前記再照明されたイメージのトーンを調整するステップは、前記入力イメージのピクセルの全体個数に対する前記入力イメージで予め定めた明るさ範囲のピクセル数の比率に基づいて、前記再照明されたイメージの少なくとも一部領域でピクセルのトーンに加重値を付加するステップを含む。 Adjusting the tone of the re-illuminated image comprises at least the re-illuminated image based on a ratio of the number of pixels in a brightness range predetermined in the input image to the total number of pixels of the input image. Adding weights to pixel tones in some areas.
イメージの明るさを調整する方法は、前記仮想光源の強度、位置、色、照明方向、及びタイプのうち少なくとも1つを指示する制御信号を受信するステップをさらに含み得る。 The method for adjusting the brightness of the image may further include receiving a control signal indicating at least one of the intensity, position, color, illumination direction, and type of the virtual light source.
前記オブジェクトは人の顔であり得る。 The object may be a human face.
一実施形態によるイメージの明るさを調整する装置は、オブジェクトが示される入力イメージから抽出された前記オブジェクトの特徴点に基づいてオブジェクトモデルを前記オブジェクトにマッチングし、前記マッチングされたオブジェクトモデルに基づいて2次元イメージ形式の表面ノーマルマップを前記入力イメージにマッピングし、前記マッピングされた表面ノーマルマップ及び仮想光源に基づいて前記入力イメージに対する陰影情報を生成するプロセッサを含む。 An apparatus for adjusting brightness of an image according to an embodiment matches an object model to the object based on a feature point of the object extracted from an input image on which the object is shown, and based on the matched object model A processor that maps a surface normal map in a two-dimensional image format to the input image and generates shadow information for the input image based on the mapped surface normal map and a virtual light source;
前記プロセッサは、前記マッチングされたオブジェクトモデルの各特徴点が位置する地点のノーマルベクトルを補間して前記表面ノーマルマップを生成し得る。 The processor may generate the surface normal map by interpolating a normal vector at a point where each feature point of the matched object model is located.
装置は、前記オブジェクトモデルに関する表面ノーマルモデルをデータベースに格納するメモリをさらに含み、前記プロセッサは、前記表面ノーマルモデルを前記表面ノーマルマップに変換して前記表面ノーマルマップを生成し得る。 The apparatus may further include a memory that stores a surface normal model related to the object model in a database, and the processor may convert the surface normal model to the surface normal map to generate the surface normal map.
前記プロセッサは、前記オブジェクトモデルの特徴点の座標を前記入力イメージの特徴点の座標に変換する変換関数を決定し得る。 The processor may determine a conversion function that converts the coordinates of the feature points of the object model into the coordinates of the feature points of the input image.
前記プロセッサは、前記決定された変換関数を用いて表面ノーマルモデルの各座標を変換して2次元イメージ形式の表面ノーマルマップを生成し得る。 The processor may convert each coordinate of the surface normal model using the determined conversion function to generate a surface normal map in a two-dimensional image format.
前記プロセッサは、前記表面ノーマルマップのそれぞれの座標のノーマルベクトル及び前記入力イメージで該当座標における前記仮想光源による光ベクトル間のドット積演算を行う。 The processor performs a dot product operation between a normal vector at each coordinate of the surface normal map and a light vector by the virtual light source at the corresponding coordinate in the input image.
前記プロセッサは、前記仮想光源の位置及び前記入力イメージにおける各ピクセルの位置間の関係又は前記仮想光源の照明方向のいずれか1つに基づいて前記入力イメージの前記該当ピクセルで前記光ベクトルを決定し得る。 The processor determines the light vector at the corresponding pixel of the input image based on one of a relationship between a position of the virtual light source and a position of each pixel in the input image or an illumination direction of the virtual light source. obtain.
前記プロセッサは、前記陰影情報を前記入力イメージに反映して再照明されたイメージを生成し、前記入力イメージの明るさヒストグラムに基づいて前記再照明されたイメージのトーンを調整し得る。 The processor may generate a reilluminated image reflecting the shading information in the input image, and adjust a tone of the reilluminated image based on a brightness histogram of the input image.
前記プロセッサは、前記入力イメージのピクセルの全体個数に対する前記入力イメージで予め定めた明るさ範囲のピクセル数の比率に基づいて、前記再照明されたイメージの少なくとも一部領域でピクセルのトーンに加重値を付加し得る。 The processor weights pixel tones in at least some regions of the re-illuminated image based on a ratio of the number of pixels in the brightness range predetermined in the input image to the total number of pixels in the input image. Can be added.
他の実施形態によるイメージの明るさを調整する装置は、オブジェクトが示される入力イメージを受信するイメージ受信部と、前記入力イメージから抽出された前記オブジェクトの特徴点に基づいてオブジェクトモデルを前記オブジェクトにマッチングし、前記マッチングされたオブジェクトモデルに基づいて2次元イメージ形式の表面ノーマルマップを前記入力イメージにマッピングし、前記マッピングされた表面ノーマルマップ及び仮想光源に基づいて前記入力イメージに対する陰影情報を生成するプロセッサとを含む。 An apparatus for adjusting the brightness of an image according to another embodiment includes an image receiving unit that receives an input image indicating an object, and an object model based on a feature point of the object extracted from the input image. Matching, mapping a surface normal map in a two-dimensional image format to the input image based on the matched object model, and generating shading information for the input image based on the mapped surface normal map and a virtual light source Processor.
前記イメージ受信部はカメラであり得る。 The image receiving unit may be a camera.
装置は、前記入力イメージに前記陰影情報を反映して表現するディスプレイをさらに含み得る。 The apparatus may further include a display that reflects the shading information in the input image.
前記プロセッサは、前記マッチングされたオブジェクトモデルの各特徴点が位置する地点のノーマルベクトルを補間して前記表面ノーマルマップを生成し得る。 The processor may generate the surface normal map by interpolating a normal vector at a point where each feature point of the matched object model is located.
装置は、前記オブジェクトモデルに関する表面ノーマルモデルをデータベースに格納するメモリをさらに含み、前記プロセッサは、前記表面ノーマルモデルを前記表面ノーマルマップに変換し得る。 The apparatus may further include a memory that stores a surface normal model related to the object model in a database, and the processor may convert the surface normal model to the surface normal map.
前記プロセッサは、ユーザがオブジェクトを見る方向を指示するビューベクトル及び前記仮想光源から前記オブジェクトに投射された光が前記オブジェクトによって反射した方向を指示する反射ベクトルに基づいて前記陰影情報を生成し得る。 The processor may generate the shading information based on a view vector indicating a direction in which a user views the object and a reflection vector indicating a direction in which light projected from the virtual light source is reflected by the object.
一実施形態による映像の明るさを調整する方法は、オブジェクトモデル及び映像におけるオブジェクトの特徴点に基づいて入力映像の表面ノーマルマップを生成するステップと、仮想光源及び前記表面ノーマルマップに基づいて前記入力映像のための陰影情報を生成するステップと、前記入力映像の明るさを調整するために前記入力映像に前記陰影情報を適用するステップとを含む。 According to one embodiment, a method for adjusting brightness of an image includes generating a surface normal map of an input image based on an object model and an object feature point in the image, and a virtual light source and the input based on the surface normal map. Generating shading information for the video; and applying the shading information to the input video to adjust the brightness of the input video.
前記オブジェクトモデルは、前記オブジェクトの前記特徴点に対応する特徴点及び前記オブジェクトモデルの前記特徴点に対応するノーマルベクトルを含み、前記表面ノーマルマップを生成するステップは、前記入力映像の座標でノーマルベクトルを取得するために前記オブジェクトモデルの前記ノーマルベクトルを補間するステップを含み得る。 The object model includes a feature point corresponding to the feature point of the object and a normal vector corresponding to the feature point of the object model, and the step of generating the surface normal map includes the normal vector in the coordinates of the input image. Interpolating the normal vector of the object model to obtain.
前記表面ノーマルマップを生成するステップは、前記オブジェクトモデル及び前記オブジェクトの前記特徴点に基づいて前記表面ノーマルマップに表面ノーマルモデルを変換するステップを含み得る。 The step of generating the surface normal map may include the step of converting the surface normal model into the surface normal map based on the object model and the feature points of the object.
前記方法は、前記オブジェクトモデルの特徴点及び前記オブジェクトの前記特徴点に基づいて前記オブジェクトで前記オブジェクトモデルをマッチングさせるステップをさらに含み、前記表面ノーマルマップを生成するステップは、他の方向から前記オブジェクトのビューに対応する複数の表面ノーマルモデルを前記オブジェクトにマッチングされた前記オブジェクトモデルの前記特徴点に対してマッチングさせた結果を結合することによって前記表面ノーマルマップを生成するステップを含み得る。 The method further includes matching the object model with the object based on the feature points of the object model and the feature points of the object, and generating the surface normal map from the other direction. Generating a surface normal map by combining a result of matching a plurality of surface normal models corresponding to the view with the feature points of the object model matched to the object.
前記陰影情報を生成するステップは、前記表面ノーマルマップの各座標でノーマルベクトル及び前記入力映像の対応座標で前記仮想光源の光ベクトル間のドット積を前記陰影情報として算出するステップを含み得る。 The step of generating the shadow information may include calculating a dot product between the normal vector at each coordinate of the surface normal map and the light vector of the virtual light source at the corresponding coordinate of the input image as the shadow information.
前記陰影情報を生成するステップは、前記オブジェクト上の前記仮想光源から投影される光が前記オブジェクトによって反射する方向を指示する前記入力映像の各座標における反射ベクトル、及び前記オブジェクトをユーザが視聴する方向を指示するビューベクトル間のドット積を前記陰影情報として算出するステップを含み得る。 The step of generating the shadow information includes: a reflection vector at each coordinate of the input video that indicates a direction in which light projected from the virtual light source on the object is reflected by the object; and a direction in which the user views the object And calculating a dot product between view vectors indicating the shadow information as the shadow information.
前記陰影情報を生成するステップは、前記仮想光ベクトル及び前記表面ノーマルマップに基づいて前記反射ベクトルを算出するステップを含み得る。 The step of generating the shadow information may include the step of calculating the reflection vector based on the virtual light vector and the surface normal map.
前記陰影情報を前記入力映像に適用することは再照明された映像を生成し、前記方法は前記入力映像の明るさヒストグラムに基づいて前記再照明された映像のトーンを調整するステップをさらに含み得る。 Applying the shading information to the input image may generate a reilluminated image, and the method may further include adjusting a tone of the reilluminated image based on a brightness histogram of the input image. .
前記再照明された映像のトーンを調整するステップは、前記入力映像の明るさヒストグラムに基づいて複数のトーン調整スタイルからトーン調整スタイルを選択するステップと、前記再照明された映像のトーンを調整するために前記再照明された映像に前記選択されたトーン調整スタイルを適用するステップとを含み得る。 Adjusting the tone of the re-illuminated image includes selecting a tone adjustment style from a plurality of tone adjustment styles based on a brightness histogram of the input image, and adjusting the tone of the re-illuminated image Applying the selected tone adjustment style to the re-illuminated video image.
本発明によると、イメージの明るさを調整する技術を提供することができる。 According to the present invention, a technique for adjusting the brightness of an image can be provided.
以下、本発明を実施するための形態の具体例を、図面を参照しながら、詳細に説明する。各図面で提示された同一の参照符号は同一の部材を示す。 Hereinafter, specific examples of embodiments for carrying out the present invention will be described in detail with reference to the drawings. The same reference numerals provided in the drawings indicate the same members.
本実施形態で用いる用語は、単に特定の実施形態を説明するために用いるものであって、実施形態を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。 The terminology used in this embodiment is merely used to describe a specific embodiment, and is not intended to limit the embodiment. An expression used in the singular encompasses the expression of the plural, unless it has a clearly different meaning in the context. In this specification, terms such as “including” or “having” indicate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. It should be understood as not excluding the possibility of the presence or addition of one or more other features or numbers, steps, actions, components, parts, or combinations thereof.
異なる定義がされない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。 Unless defined differently, all terms used herein, including technical or scientific terms, are the same as commonly understood by one of ordinary skill in the art to which this embodiment belongs. Has meaning. Commonly used predefined terms should be construed as having a meaning consistent with the meaning possessed in the context of the related art and are ideal or excessive unless explicitly defined herein. It is not interpreted as a formal meaning.
また、図面を参照して説明する際に、図面符号に関係なく同一の構成要素には同一の参照符号を付与し、それに対する重複説明を省略する。本実施形態の説明において関連する公知技術に対する具体的な説明が実施形態の要旨を不要に曖昧にすると判断される場合、その詳細な説明を省略する。 Moreover, when it demonstrates with reference to drawings, the same referential mark is provided to the same component irrespective of drawing code | symbol, and the duplication description with respect to it is abbreviate | omitted. In the case where it is determined that the specific description of the related art in the description of the present embodiment unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.
図1は、一実施形態によるイメージの明るさを調整する方法を概略的に示したフローチャートである。 FIG. 1 is a flowchart schematically illustrating a method for adjusting image brightness according to an exemplary embodiment.
まず、ステップS110において、イメージの明るさを調整する装置のプロセッサは、オブジェクトが示される入力イメージから抽出されたオブジェクトの特徴点に基づいてオブジェクトモデルをオブジェクトにマッチングする。例えば、プロセッサは、オブジェクトモデルの各特徴点の座標を入力イメージでそれに対応する特徴点の座標に一致させることによって、入力イメージのオブジェクトにオブジェクトモデルをマッチングし得る。プロセッサは、オブジェクトの一般的な形態に対して指定された全ての特徴点が抽出されていない場合でも、予め定めた特徴点が抽出されたり予め定めた個数以上の特徴点が抽出されれば、入力イメージのオブジェクトにオブジェクトモデルをマッチングする。入力イメージはオブジェクトが示されるイメージとして、2次元形式のイメージであり得る。例えば、入力イメージは、停止した写真又は動画の各フレームであり得る。 First, in step S110, the processor of the apparatus that adjusts the brightness of an image matches an object model to an object based on the feature points of the object extracted from the input image in which the object is shown. For example, the processor may match the object model to an object in the input image by matching the coordinates of each feature point in the object model with the coordinates of the corresponding feature point in the input image. Even if not all feature points designated for the general form of the object have been extracted, the processor can extract a predetermined feature point or extract a predetermined number or more of feature points. Match the object model to the object in the input image. The input image may be a two-dimensional image as an image showing the object. For example, the input image may be each frame of a stopped photo or movie.
オブジェクトは背景と区別され、入力イメージに示される対象を示す。オブジェクトは様々なタイプであり、例えば、オブジェクトのタイプは人の顔、人の身体、動物、及びモノなどであってもよい。特徴点はオブジェクトの特徴を示す点として、例えば、人の顔タイプのオブジェクトの特徴点は目、鼻、及び口などのように指定される。 The object is distinguished from the background and indicates the object shown in the input image. There are various types of objects, for example, the types of objects may be human faces, human bodies, animals, things, and so on. The feature point is a point indicating the feature of the object. For example, the feature point of the human face type object is specified as eyes, nose, mouth and the like.
オブジェクトモデルは、特定タイプのオブジェクトに対する特徴点が予め指定されている汎用モデルを示す。例えば、オブジェクトモデルは、予め定めた大きさ(例えば、入力イメージと同一の大きさ)のイメージで各特徴点が特定座標に位置するものと定義される。オブジェクトモデルは、特定タイプのオブジェクトの一般的な形態(例えば、オブジェクトのアウトライン、及びオブジェクトの特徴点の間の幾何構造など)及びこのような一般的な形態上に特徴点が指定された位置を含む2次元イメージ形式又は3次元イメージ形式のモデルであり得る。オブジェクトモデルが3次元イメージ形式である場合、プロセッサは、オブジェクトモデルを2次元である入力イメージにマッチンすることができる。 The object model indicates a general-purpose model in which feature points for a specific type of object are designated in advance. For example, the object model is defined as an image having a predetermined size (for example, the same size as the input image) and each feature point is located at a specific coordinate. An object model describes the general form of a particular type of object (for example, the outline of an object, the geometric structure between object feature points, etc.) and the position at which the feature point is specified on such general form. It can be a 2D image format or 3D image format model. If the object model is in 3D image format, the processor can match the object model to an input image that is 2D.
一実施形態によると、プロセッサは、オブジェクトモデルの輪郭をオブジェクトの輪郭に一致させ得る。下記では、オブジェクトが人の顔タイプである場合を仮定して説明するが、これに限定することなく、他のタイプのオブジェクトに対しても適用される。例えば、特定動物の頭に対して、該当動物の頭の特徴点及び一般的な形態を有するオブジェクトモデルを用いてもよい。 According to one embodiment, the processor may match the contour of the object model to the contour of the object. In the following description, it is assumed that the object is a human face type, but the present invention is not limited to this, but can be applied to other types of objects. For example, an object model having a characteristic point of the head of the corresponding animal and a general form may be used for the head of the specific animal.
例えば、プロセッサは、正確な一致のために従来における顔輪郭抽出アルゴリズムを人の顔が示される入力イメージに適用してもよい。異なる例として、リアルタイム動作が優先される場合には、プロセッサは顔を楕円(オブジェクトタイプに応じてオブジェクトの概略的な輪郭に対応する図形)に仮定し、各特徴点の比例により楕円を変形する。上述した顔輪郭抽出アルゴリズムは、追加的な演算時間が所要されることで、プロセッサは、リアルタイムのプレビューモード(例えば、下記の図10に示すイメージをメモリに格納することなく、ユーザにプレビューを提供するモード)では顔を楕円として仮定して変形する方法を適用し、再照明されたイメージを格納するとき(例えば、ユーザが撮影ボタンをクリックして再照明されたイメージを格納)は、顔輪郭抽出アルゴリズムを適用して精密度を高めることができる。顔の輪郭が正確に一致すれば、陰影効果を適用するとき顔輪郭と背景との間の境界で生じる誤差が減少し得る。 For example, the processor may apply a conventional face contour extraction algorithm to an input image in which a human face is shown for accurate matching. As another example, when real-time operation is prioritized, the processor assumes a face as an ellipse (a figure corresponding to the general outline of the object according to the object type), and deforms the ellipse according to the proportion of each feature point. . The face contour extraction algorithm described above requires additional computation time so that the processor provides a preview to the user without storing the real-time preview mode (eg, the image shown in FIG. 10 below in memory). Mode), apply a method of deforming assuming that the face is an ellipse, and store the reilluminated image (for example, store the reilluminated image when the user clicks the capture button) An extraction algorithm can be applied to increase the precision. If the facial contours match exactly, errors that occur at the boundary between the facial contour and the background can be reduced when applying the shadow effect.
そして、ステップS120において、プロセッサは、マッチングされたオブジェクトモデルに基づいて2次元イメージ形式の表面ノーマルマップを入力イメージにマッピングする。表面ノーマルマップのマッピングは下記で詳細に説明する。 In step S120, the processor maps the surface normal map in the two-dimensional image format to the input image based on the matched object model. The mapping of the surface normal map is described in detail below.
表面ノーマルマップは、入力イメージの各ピクセルの座標に対してオブジェクトの表面に対応するノーマルベクトルがマッピングされたマップを示す。入力イメージに示されるオブジェクト上の特定ピクセルにマッピングされたノーマルベクトルは、該当ピクセルで該当オブジェクトの表面の法線上のベクトル値を有し得る。一実施形態によると、表面ノーマルマップは2次元イメージ形式として、例えば、2次元座標のそれぞれにノーマルベクトルがマッピングされる。入力イメージの解像度がm*nである場合、該当の入力イメージにノーマルベクトルがマッピングされたマップを下記の数式(1)のように示すことができる。(ここで、n、mは1以上の整数) The surface normal map is a map in which normal vectors corresponding to the surface of the object are mapped to the coordinates of each pixel of the input image. A normal vector mapped to a specific pixel on the object shown in the input image may have a vector value on the normal of the surface of the object at the corresponding pixel. According to an embodiment, the surface normal map is in a two-dimensional image format, for example, a normal vector is mapped to each of two-dimensional coordinates. When the resolution of the input image is m * n, a map in which a normal vector is mapped to the corresponding input image can be expressed as the following formula (1). (Where n and m are integers greater than or equal to 1)
次にステップS130において、プロセッサは、マッピングされた表面ノーマルマップ及び仮想光源に基づいて入力イメージに対する陰影情報を生成する。例えば、プロセッサは、表面ノーマルマップに基づいてオブジェクトに仮想光源による光が投射される場合の陰影効果を示す陰影情報を生成する。一実施形態によると、プロセッサは、表面ノーマルマップのそれぞれの座標のノーマルベクトル及び該当座標における仮想光源による光ベクトル間のドット積演算を行い、ドット積演算の結果に基づいて陰影情報を生成する。プロセッサは、仮想光源による光ベクトルを仮想光源の位置及び入力イメージにおける各特徴点の位置間の関係に基づいて決定し、下記の図6A及び図6Bを参照して光ベクトルの算出及びドット積演算を詳細に説明することにする。 Next, in step S130, the processor generates shadow information for the input image based on the mapped surface normal map and the virtual light source. For example, the processor generates shadow information indicating a shadow effect when light from a virtual light source is projected onto an object based on the surface normal map. According to one embodiment, the processor performs a dot product operation between the normal vector at each coordinate of the surface normal map and the light vector by the virtual light source at the corresponding coordinate, and generates shadow information based on the result of the dot product operation. The processor determines the light vector by the virtual light source based on the relationship between the position of the virtual light source and the position of each feature point in the input image, and calculates the light vector and calculates the dot product with reference to FIGS. 6A and 6B below. Will be described in detail.
陰影効果は、入力イメージの少なくとも一部領域のピクセルが明るくなったり暗くなる効果を示す。陰影情報は、入力イメージの特定ピクセルが明るくなったり暗くなる程度を示す情報である。 The shadow effect indicates an effect that pixels in at least a partial region of the input image become brighter or darker. The shadow information is information indicating the degree to which the specific pixel of the input image becomes brighter or darker.
図2及び図3は、一実施形態によるイメージの明るさを調整する方法の例示を細部的に示す図である。 2 and 3 are diagrams illustrating in detail an example of a method for adjusting the brightness of an image according to an embodiment.
図2は、各特徴点にノーマルベクトルが割り当てられたオブジェクトモデルを補間して生成された表面ノーマルマップを用いてイメージの明るさを調整する方法のフローチャートであり、図3は、入力イメージが図2に示された方法によって処理される過程を示す。 FIG. 2 is a flowchart of a method for adjusting the brightness of an image using a surface normal map generated by interpolating an object model in which a normal vector is assigned to each feature point. FIG. The process processed by the method shown in 2 is shown.
まず、ステップS210において、イメージの明るさを調整する装置のイメージ受信部は入力イメージ301を受信する。例えば、イメージ受信部がカメラであってもよく、カメラは入力イメージ301を撮影する。イメージ受信部が通信部である場合、通信部は有無線通信によって入力イメージ301を外部から受信することができる。 First, in step S <b> 210, the image receiving unit of the device that adjusts the brightness of the image receives the input image 301. For example, the image receiving unit may be a camera, and the camera captures the input image 301. When the image receiving unit is a communication unit, the communication unit can receive the input image 301 from outside by wired / wireless communication.
そして、ステップS220において、イメージの明るさを調整する装置のプロセッサは、入力イメージ301に示されるオブジェクトの特徴点302を抽出する。プロセッサは、オブジェクトのタイプに応じて該当タイプに特化した方式によってオブジェクトの特徴点302を抽出し得る。例えば、プロセッサは、オブジェクトのタイプが人の顔である場合、人の顔の特徴点302を抽出するアルゴリズム(例えば、PCA(Principal Component Analysis)、LDA(Linear discriminate analysis)など)を用いて特徴点302を抽出する。例えば、図3に示すように、プロセッサは、人の顔で目、鼻及び口に対応する特徴点302を抽出する。プロセッサは、オブジェクトの一般的な形態に対して設定された全ての特徴点のうち少なくとも一部を抽出する。ただし、特徴点を抽出するアルゴリズムを上述の内容に限定することなく、上述した特徴点も単なる例示であって、目、鼻、及び口のように限定することはない。 In step S <b> 220, the processor of the device that adjusts the brightness of the image extracts the feature point 302 of the object indicated in the input image 301. The processor may extract the feature points 302 of the object by a method specialized for the corresponding type according to the type of the object. For example, when the type of the object is a human face, the processor uses an algorithm (for example, PCA (Principal Component Analysis), LDA (Linear Discrimination Analysis), etc.) to extract a feature point 302 of the human face. 302 is extracted. For example, as shown in FIG. 3, the processor extracts feature points 302 corresponding to eyes, nose, and mouth in a human face. The processor extracts at least a part of all feature points set for the general form of the object. However, the algorithm for extracting the feature points is not limited to the above-described content, and the above-described feature points are merely examples, and are not limited to the eyes, nose, and mouth.
次に、ステップS110において、プロセッサは図1を参照して上述したように、図3に示すようにオブジェクトモデル201をオブジェクトにマッチングする。図3に示すようにオブジェクトモデル201は予めデータベースに格納される。 Next, in step S110, the processor matches the object model 201 to the object as shown in FIG. 3, as described above with reference to FIG. As shown in FIG. 3, the object model 201 is stored in the database in advance.
一実施形態によると、プロセッサは、オブジェクトモデル201をオブジェクトにマッチングするための変換関数を決定する。変換関数は、オブジェクトモデル201の特徴点の座標を入力イメージの特徴点302の座標に変換する関数として、例えば、オブジェクトモデルの特徴点の座標及び入力イメージの特徴点302の座標間の関係を示す。 According to one embodiment, the processor determines a transformation function for matching the object model 201 to the object. The conversion function is a function for converting the coordinates of the feature points of the object model 201 into the coordinates of the feature points 302 of the input image, for example, and shows the relationship between the coordinates of the feature points of the object model and the coordinates of the feature points 302 of the input image. .
そして、ステップS120において、プロセッサは図1を参照して上述したように表面ノーマルマップ303を入力イメージ301にマッピングする。より具体的に、ステップS230において、プロセッサは、マッチングされたオブジェクトモデル201の各特徴点が位置する地点のノーマルベクトルを補間して表面ノーマルマップ303を生成する。例えば、図2に示されたオブジェクトモデル201は、特徴点でのみノーマルベクトルが指定されており、プロセッサは、特徴点の間の空間に対してノーマルベクトルを補間し得る。そのため、プロセッサは、リアルタイムでオブジェクトに適応的な表面ノーマルマップ303を生成することができる。オブジェクトモデル201の幾何構造の精密度に応じて表面ノーマルマップ303の品質が決定される。 In step S120, the processor maps the surface normal map 303 to the input image 301 as described above with reference to FIG. More specifically, in step S230, the processor generates a surface normal map 303 by interpolating normal vectors at points where the feature points of the matched object model 201 are located. For example, in the object model 201 shown in FIG. 2, a normal vector is designated only at feature points, and the processor can interpolate the normal vector with respect to the space between the feature points. Therefore, the processor can generate the surface normal map 303 that is adaptive to the object in real time. The quality of the surface normal map 303 is determined according to the precision of the geometric structure of the object model 201.
次に、ステップS130において、プロセッサは、図1を参照して上述したように陰影情報304を生成する。プロセッサは、仮想光源設定202により仮想光源を設定する。仮想光源設定202は、仮想光源の強度、位置、色、照明方向、及びタイプのうち少なくとも1つを設定する制御信号として、ユーザによって設定されたり自動設定される。陰影情報304は、オブジェクトの各座標で明るさが増加したり減少しなければならない程度を示す加重値に関する情報を含み、図3に示された陰影情報304で明るく表示された領域は、明るさが増加する加重値を有する領域、暗く表示された領域を明るさが減少する加重値を有する領域を示す。 Next, in step S130, the processor generates the shadow information 304 as described above with reference to FIG. The processor sets the virtual light source by the virtual light source setting 202. The virtual light source setting 202 is set or automatically set by the user as a control signal for setting at least one of the intensity, position, color, illumination direction, and type of the virtual light source. The shadow information 304 includes information on a weight value indicating the degree to which the brightness should increase or decrease at each coordinate of the object, and the area brightly displayed in the shadow information 304 shown in FIG. Indicates an area having a weight value that increases, and an area having a weight value that decreases brightness in a darkly displayed area.
一実施形態によると、プロセッサは、入力イメージ301上で顔の特徴点に基づいて整列された表面ノーマルマップ303とユーザによって指定された仮想光源の方向/位置、強度、タイプなどに基づいて顔に対する陰影情報304を生成する。例えば、プロセッサは、顔領域内の各ピクセルに対して表面ノーマルマップ303に割り当てられたノーマルベクトルと該当ピクセルに対して指定された光ベクトルとの間のドット積演算によって、顔領域の各ピクセルの陰影情報304を算出することができる。 According to one embodiment, the processor applies the surface normal map 303 aligned based on the facial feature points on the input image 301 and the face based on the direction / position, intensity, type, etc. of the virtual light source specified by the user. Shading information 304 is generated. For example, the processor performs the dot product operation between the normal vector assigned to the surface normal map 303 for each pixel in the face area and the light vector specified for the corresponding pixel, for each pixel in the face area. The shadow information 304 can be calculated.
そして、ステップS240において、プロセッサは、陰影情報304を入力イメージ301に反映してトーンを調整する。例えば、プロセッサは、陰影情報304を入力イメージ301に反映して再照明されたイメージ309を生成する。プロセッサは、入力イメージ301の明るさヒストグラムに基づいて再照明されたイメージ309のトーンを調整する。一実施形態によると、プロセッサは、入力イメージ301の全体ピクセルに対する予め定めた明るさ範囲のピクセルの比率に基づいて再照明されたイメージ309の少なくとも一部領域に対応するピクセルのトーンに加重値を付加する。 In step S240, the processor reflects the shadow information 304 in the input image 301 and adjusts the tone. For example, the processor generates the re-illuminated image 309 reflecting the shadow information 304 in the input image 301. The processor adjusts the tone of the re-illuminated image 309 based on the brightness histogram of the input image 301. According to one embodiment, the processor weights pixel tones corresponding to at least some regions of the re-illuminated image 309 based on a ratio of pixels in a predetermined brightness range to total pixels of the input image 301. Append.
一実施形態によると、プロセッサは、顔領域内の各ピクセルごとの陰影情報304を、ユーザが指定したり自動設定されるトーン調整スタイルに応じて最終陰影情報にアップデートすることができる。プロセッサは、最終陰影情報を入力イメージ301に反映して顔領域に陰影効果を表現する。また、プロセッサは、入力イメージ301及び再照明されたイメージ309のトーンを調整する場合、オブジェクト(例えば、顔)の輪郭部分における不一致を最小化するため、オブジェクトと背景の境界領域にブラー効果などを適用する。 According to one embodiment, the processor can update the shading information 304 for each pixel in the face region to the final shading information according to the tone adjustment style specified or automatically set by the user. The processor reflects the final shadow information in the input image 301 to express the shadow effect in the face area. In addition, when the processor adjusts the tone of the input image 301 and the re-illuminated image 309, in order to minimize the mismatch in the contour portion of the object (for example, the face), a blur effect or the like is applied to the boundary region between the object and the background. Apply.
図4、図5A、及び図5Bは、一実施形態によるイメージの明るさを調整する方法の他の例示を細部的に示す図である。 4, 5A, and 5B are diagrams illustrating in detail another example of a method for adjusting the brightness of an image according to an embodiment.
図4は、予め格納されたオブジェクトモデル201及びオブジェクトモデル201に関して、格納された表面ノーマルモデル401を用いてイメージの明るさを調整する方法を示すフローチャートである。図5A及び図5Bは、入力イメージ301が図4に示された方法によって処理される過程を示す。 FIG. 4 is a flowchart illustrating a method for adjusting the brightness of an image using the stored surface normal model 401 with respect to the object model 201 and the object model 201 stored in advance. 5A and 5B show a process in which the input image 301 is processed by the method shown in FIG.
まず、ステップS210において、イメージの明るさを調整する装置のイメージ受信部は、図2を参照して上述したように入力イメージ301を受信する。そして、ステップS220において、プロセッサは図2を参照して上述したように入力イメージ301に示されるオブジェクトの特徴点302を抽出する。次に、ステップS110において、プロセッサは図1を参照して上述したように、図5Aに示すようにオブジェクトモデル201をオブジェクトにマッチングする。そして、ステップS120において、プロセッサは表面ノーマルマップ501を入力イメージ301にマッピングする。ここで、図3に示す表面ノーマルマップ303とは相違に、図5Aに示す表面ノーマルマップ501は、表面ノーマルモデル401が変換されたものである。次に、ステップS130において、プロセッサは図1を参照して上述したように、表面ノーマルマップ501及び仮想光源に基づいて陰影情報304を生成する。そして、ステップS240において、プロセッサは、図2を参照して上述したようにトーンを調整する。図4、図5A及び図5Bに示された上述したステップS210、220、110、130、240は図2及び図3を参照して上述したため、具体的な説明を省略する。ただし、図4に示すステップS120は、図4のステップS430を介して詳細に説明する。 First, in step S210, the image receiving unit of the apparatus that adjusts the brightness of the image receives the input image 301 as described above with reference to FIG. In step S220, the processor extracts feature points 302 of the object indicated in the input image 301 as described above with reference to FIG. Next, in step S110, the processor matches the object model 201 to the object as shown in FIG. 5A as described above with reference to FIG. In step S120, the processor maps the surface normal map 501 to the input image 301. Here, unlike the surface normal map 303 shown in FIG. 3, the surface normal map 501 shown in FIG. 5A is obtained by converting the surface normal model 401. Next, in step S130, the processor generates the shadow information 304 based on the surface normal map 501 and the virtual light source as described above with reference to FIG. Then, in step S240, the processor adjusts the tone as described above with reference to FIG. Steps S210, 220, 110, 130, and 240 shown in FIGS. 4, 5A, and 5B have been described above with reference to FIGS. However, step S120 shown in FIG. 4 will be described in detail through step S430 in FIG.
一実施形態によると、ステップS430において、プロセッサは、オブジェクトモデル201に関してデータベースに図5Aに示された予め格納された表面ノーマルモデル401を変換して表面ノーマルマップ501を生成する。例えば、プロセッサは、表面ノーマルモデル401の各特徴点をステップS110でオブジェクトにマッチングされたオブジェクトモデル201の特徴点に一致させることで、表面ノーマルモデル401を変換する。一実施形態によると、プロセッサは、上述したステップS110で決定された変換関数を用いて、ステップS430で予め格納された表面ノーマルモデル401の各座標を変換し、図5Aに示すように、2次元イメージ形式の表面ノーマルマップ501を生成する。表面ノーマルマップ501は、入力イメージ301のオブジェクトの位置に合わせて整列され得る。 According to one embodiment, in step S430, the processor generates a surface normal map 501 by converting the pre-stored surface normal model 401 shown in FIG. For example, the processor converts the surface normal model 401 by matching each feature point of the surface normal model 401 with the feature point of the object model 201 matched with the object in step S110. According to one embodiment, the processor transforms each coordinate of the surface normal model 401 stored in advance in step S430 using the transformation function determined in step S110 described above, as shown in FIG. 5A. An image-type surface normal map 501 is generated. The surface normal map 501 can be aligned with the position of the object of the input image 301.
表面ノーマルモデル401は、2次元イメージの各座標ごとに各座標に対応するノーマルベクトルがマッピングされているモデルを示す。例えば、表面ノーマルモデル401は、オブジェクトモデル201に関して予め格納された2次元イメージ形式のモデルであり得る。表面ノーマルモデル401は、図5Aに示すように、特定タイプのオブジェクトの一般的な形態上の各ピクセルの座標にノーマルベクトルが割り当てられ、特徴点が予め指定され得る。 The surface normal model 401 indicates a model in which a normal vector corresponding to each coordinate is mapped for each coordinate of the two-dimensional image. For example, the surface normal model 401 may be a two-dimensional image format model stored in advance with respect to the object model 201. In the surface normal model 401, as shown in FIG. 5A, normal vectors are assigned to the coordinates of each pixel on the general form of a specific type of object, and feature points can be designated in advance.
また、他の一実施形態によると、図5Bに示すように、複数の表面ノーマルモデル401〜404が様々な角度で予め格納されてもよい。この場合、ステップS430において、プロセッサは、複数の表面ノーマルモデル401〜404のそれぞれをオブジェクトにマッチングされたオブジェクトモデル201の特徴点に一致させた結果を結合して表面ノーマルマップ501を生成する。例えば、プロセッサは、オブジェクトにマッチングされたオブジェクトモデル201の特徴点と複数の表面ノーマルモデル401〜404のそれぞれの特徴点との類似度を算出し、複数の表面ノーマルモデル401〜404のそれぞれをオブジェクトモデル201の特徴点に一致させた結果を、算出された類似度の比率に応じて結合し得る。 Further, according to another embodiment, as shown in FIG. 5B, a plurality of surface normal models 401 to 404 may be stored in advance at various angles. In this case, in step S430, the processor generates a surface normal map 501 by combining the results of matching each of the plurality of surface normal models 401 to 404 with the feature points of the object model 201 matched with the object. For example, the processor calculates the similarity between the feature points of the object model 201 matched with the object and the feature points of the plurality of surface normal models 401 to 404, and sets each of the plurality of surface normal models 401 to 404 as the object. The results matched with the feature points of the model 201 can be combined according to the calculated similarity ratio.
例えば、オブジェクトが特定方向を見ている場合、該当オブジェクトに対応するオブジェクトモデル201の特徴点と正面表面ノーマルモデル401、上端部表面ノーマルモデル402、下端部表面ノーマルモデル403、及び左側表面ノーマルモデル404のそれぞれの特徴点の類似度の比率がa:b:c:dに算出される(ここで、a、b、c、dは0と1との間の実数であり、a、b、c、dの総合は1)。プロセッサは、正面表面ノーマルモデル401をオブジェクトモデル201の特徴点に一致させた結果にはaの加重値、上端部表面ノーマルモデル402をオブジェクトモデル201の特徴点に一致させた結果にはbの加重値、下端部表面ノーマルモデル403をオブジェクトモデル201の特徴点に一致させた結果にはcの加重値、左側表面ノーマルモデル404をオブジェクトモデル201の特徴点に一致させた結果にはdの加重値を付与し合算することで、表面ノーマルマップ501を生成することができる。 For example, when the object is looking in a specific direction, the feature points of the object model 201 corresponding to the object and the front surface normal model 401, the upper end surface normal model 402, the lower end surface normal model 403, and the left surface normal model 404 The ratio of the similarity of each feature point is calculated as a: b: c: d (where a, b, c, d are real numbers between 0 and 1, and a, b, c , D is 1). The processor weights a for the result of matching the front surface normal model 401 to the feature point of the object model 201, and weights b for the result of matching the top surface normal model 402 to the feature point of the object model 201. Value, the weight value of c for the result of matching the lower end surface normal model 403 to the feature point of the object model 201, and the weight value of d for the result of matching the left surface normal model 404 to the feature point of the object model 201 Can be generated and the surface normal map 501 can be generated.
ただし、図5Bでは、4個の表面ノーマルモデル401〜404のみを示しているが、これに限定することなく、設計に応じて様々な角度の表面ノーマルモデルが予め格納されて表面ノーマルマップ501を生成するため使用され得る。また、プロセッサは、左側表面ノーマルモデル404を左右反転することによって、右側に対する表面ノーマルモデルを生成して活用することもできる。 However, in FIG. 5B, only four surface normal models 401 to 404 are shown. However, the surface normal model 501 is stored in advance by storing surface normal models of various angles according to the design without being limited thereto. Can be used to generate. The processor can also generate and utilize a surface normal model for the right side by inverting the left surface normal model 404 horizontally.
図6A及び図6Bは、一実施形態による光源の種類に応じる光ベクトルの例示を説明する図である。 6A and 6B are diagrams illustrating examples of light vectors according to the types of light sources according to an embodiment.
イメージの明るさを調整するために用いられる仮想光源の種類は、ユーザによって又は自動決定される。仮想光源は、入力イメージに照明効果を及ぼすように設定された光源として、例えば、仮想光源は、スポット光源又は方向性光源を用いてもよい。ただし、仮想光源の種類をこれに限定することはない。 The type of virtual light source used to adjust the brightness of the image is determined by the user or automatically. The virtual light source may be a spot light source or a directional light source, for example, as a light source set to exert an illumination effect on the input image. However, the type of the virtual light source is not limited to this.
本明細書において、スポット光源は、特定位置に設定された仮想光源から全方向に光が放出するように設定された仮想光源を示す。方向性光源は、特定方向に光が放出するように設定された仮想光源を示し、例えば、太陽などのように極めて遠い距離に位置する光源の場合は実質的に同じ方向を有する光が達する。 In this specification, the spot light source indicates a virtual light source set so that light is emitted in all directions from the virtual light source set at a specific position. The directional light source indicates a virtual light source set so that light is emitted in a specific direction. For example, in the case of a light source located at a very far distance such as the sun, light having substantially the same direction reaches.
光ベクトルは、仮想光源から放出された光の特定地点に対する方向及びの大きさなどを示す。光ベクトルは、仮想光源による光源効果の程度及び方向を示す。以下、本明細書では正規化された大きさを有する光ベクトルを基準にして説明するが、これに限定することはない。 The light vector indicates the direction and magnitude of light emitted from the virtual light source with respect to a specific point. The light vector indicates the degree and direction of the light source effect by the virtual light source. Hereinafter, the present specification will be described based on a light vector having a normalized size, but the present invention is not limited to this.
例えば、スポット光源に対してプロセッサは、仮想光源の位置及び入力イメージにおける各ピクセルの位置間の関係に基づいて該当ピクセルに入射される光ベクトルを決定する。したがって、スポット光源に対する光ベクトルは、スポット光源の位置に応じて変わり得る。スポット光源の光ベクトルは、下記の図6Aを参照して説明する。 For example, for a spot light source, the processor determines a light vector incident on the pixel based on the relationship between the position of the virtual light source and the position of each pixel in the input image. Therefore, the light vector for the spot light source can change depending on the position of the spot light source. The light vector of the spot light source will be described with reference to FIG. 6A below.
他の例として、方向性光源に対してプロセッサは、仮想光源の照明方向に基づいて該当のピクセルに入射される光ベクトルを決定する。したがって、方向性光源に対する光ベクトルは、予め一定のベクトル値に定められる。方向性光源の光ベクトルは下記の図6Bを参照して説明する。 As another example, for a directional light source, the processor determines a light vector incident on the corresponding pixel based on the illumination direction of the virtual light source. Therefore, the light vector for the directional light source is set to a constant vector value in advance. The light vector of the directional light source will be described with reference to FIG. 6B below.
図6Aは、スポット光源による光ベクトルを説明するための図である。 FIG. 6A is a diagram for explaining a light vector by a spot light source.
一実施形態によると、入力イメージ610に示されるオブジェクト620上で任意のピクセル630に対してスポット光源601から放出された光が投射される。スポット光源601の位置情報(例えば、スポット光源601の座標)はユーザによって指定されたり自動指定される。スポット光源601による光ベクトル640は、スポット光源601の位置情報でのみ算出される。例えば、スポット光源601から該当ピクセル630に投射される光を光ベクトル640に示され、光ベクトル640は、スポット光源601と該当ピクセル630との間の正規化された位置差として示すことができる。例えば、スポット光源601の位置がSx、Sy、Sz(例えば、ユーザによって又は自動指定される)であり、任意のピクセル630の入力イメージ610上の位置がx、y、0(ここで、入力イメージ610上の全てのピクセルのz座標は0であると仮定)である場合、プロセッサは、該当ピクセル630に投射される光ベクトル640はL=[x−Sx、y−Sy、−Sz]に示し、さらに、これを正規化した値を有するよう算出することができる。例えば、光ベクトル640は、光ベクトル640の長さによってx−Sx、y−Sy、及び−Szを割ることで正規化される。 According to one embodiment, the light emitted from the spot light source 601 is projected onto an arbitrary pixel 630 on the object 620 shown in the input image 610. The position information of the spot light source 601 (for example, the coordinates of the spot light source 601) is designated or automatically designated by the user. The light vector 640 by the spot light source 601 is calculated only with the position information of the spot light source 601. For example, light projected from the spot light source 601 to the corresponding pixel 630 is indicated by the light vector 640, and the light vector 640 can be indicated as a normalized positional difference between the spot light source 601 and the corresponding pixel 630. For example, the position of the spot light source 601 is S x , S y , S z (for example, specified by the user or automatically), and the position of any pixel 630 on the input image 610 is x, y, 0 (where , Assuming that the z-coordinate of all pixels on the input image 610 is 0), the processor determines that the light vector 640 projected to that pixel 630 is L = [x−S x , y−S y , −S z ] and can be calculated to have a normalized value. For example, the light vector 640 is normalized by dividing x−S x , y−S y , and −S z by the length of the light vector 640.
例えば、表面ノーマルマップで、入力イメージ610上のx、y位置上におけるノーマルベクトル値がwxy、uxy、vxyである場合、プロセッサはx、y位置に対してスポット光源601による光ベクトルLとノーマルベクトル間のドット積演算の結果値としてwxy(x−Sx)+uxy(y−Sy)+vxy(−Sz)を算出し得る。 For example, in the surface normal map, when the normal vector values on the x and y positions on the input image 610 are w xy , u xy , and v xy , the processor uses the light vector L by the spot light source 601 for the x and y positions. W xy (x−S x ) + u xy (y−S y ) + v xy (−S z ) can be calculated as a result value of the dot product operation between the normal vector and the normal vector.
図6Bは、方向性光源による光ベクトル680を説明するための図である。 FIG. 6B is a diagram for explaining a light vector 680 by a directional light source.
一実施形態によると、方向性光源609は、入力イメージ650から極めて遠い距離に位置すると仮定し、方向性光源から入力イメージ650のオブジェクト660上の全てのピクセル670に対して同一の光が投射され得る。方向性光源609の方向はユーザによって指定されたり自動指定される。方向性光源609は、入力イメージ650上のオブジェクト660から極めて遠い距離に位置すると仮定され、方向性光源609による光の投射方向のみが指定されると、方向性光源609によってオブジェクト660の各ピクセル670に投射される光ベクトル680は全て同一である。例えば、方向性光源609によって各ピクセル670に投射される光ベクトル680は全てL=[Lx、Ly、Lz]に示す。Lxはx軸方向に対する光の方向、Lyはy軸方向に対する光の方向、Lzはz軸方向に対する光の方向を示す。 According to one embodiment, assuming that the directional light source 609 is located at a very far distance from the input image 650, the same light is projected from the directional light source to all the pixels 670 on the object 660 of the input image 650. obtain. The direction of the directional light source 609 is designated or automatically designated by the user. The directional light source 609 is assumed to be located at a very far distance from the object 660 on the input image 650, and when only the light projection direction by the directional light source 609 is specified, each pixel 670 of the object 660 is designated by the directional light source 609. The light vectors 680 projected onto are all the same. For example, all light vectors 680 projected to each pixel 670 by the directional light source 609 are shown as L = [L x , L y , L z ]. L x represents the direction of light with respect to the x-axis direction, L y represents the direction of light with respect to the y-axis direction, and L z represents the direction of light with respect to the z-axis direction.
例えば、表面ノーマルマップで入力イメージ650上のx、y位置上におけるノーマルベクトル値がwxy、uxy、vxyである場合、プロセッサはx、y位置に対して方向性光源609による光ベクトルLとノーマルベクトルとの間のドット積演算の結果値としてwxyLx+uxyLy+vxyLzを算出し得る。 For example, when the normal vector values on the x and y positions on the input image 650 in the surface normal map are w xy , u xy , and v xy , the processor uses the light vector L by the directional light source 609 for the x and y positions. W xy Lx + u xy Ly + v xy Lz can be calculated as a result value of the dot product operation between the normal vector and the normal vector.
上述した図6A及び図6Bでは、プロセッサが光ベクトル及びノーマルベクトル間のドット積演算に基づいて陰影情報を生成したが、これに限定することはない。下記、図7では他の方式の陰影情報生成について説明する。 In FIGS. 6A and 6B described above, the processor generates the shadow information based on the dot product operation between the light vector and the normal vector, but the present invention is not limited to this. In the following, referring to FIG. 7, another method of generating shadow information will be described.
図7は、一実施形態によるビューベクトル及び反射ベクトルに基づいた陰影情報の生成を説明する図である。 FIG. 7 is a diagram illustrating generation of shadow information based on a view vector and a reflection vector according to an embodiment.
ビューベクトル750は、ユーザが入力イメージ710又はオブジェクト720を見る方向を指示するベクトルを示す。反射ベクトル742は、光源701から投射された光がオブジェクト720のいずれかのピクセル730に達した後、反射する光を指示するベクトルを示す。したがって、反射ベクトル742は、光ベクトル741がオブジェクト720から反射したベクトルであり得る。例えば、プロセッサは、反射ベクトル742を次式により算出する。 View vector 750 indicates a vector that indicates the direction in which the user views input image 710 or object 720. A reflection vector 742 indicates a vector indicating light reflected after the light projected from the light source 701 reaches any pixel 730 of the object 720. Accordingly, the reflection vector 742 may be a vector in which the light vector 741 is reflected from the object 720. For example, the processor calculates the reflection vector 742 by the following equation.
一実施形態によると、プロセッサは、ビューベクトル750及び反射ベクトル742をドット積790することで陰影情報を生成することができる。例えば、ユーザが正面から機器を観察する一般的な場合、ビューベクトル750が0、0、1であるため、プロセッサは反射ベクトル742のz方向成分のみを選択して陰影情報として生成し得る。 According to one embodiment, the processor may generate shadow information by dot product 790 of view vector 750 and reflection vector 742. For example, in the general case where the user observes the device from the front, since the view vector 750 is 0, 0, 1, the processor can select only the z-direction component of the reflection vector 742 and generate it as shadow information.
一実施形態によると、図6A及び図6Bに示すスポット光源及び方向性光源の全てに対して、図7に示されたビューベクトル750及び反射ベクトル742に基づいた陰影情報を生成する方式が適用される。例えば、図6Aに示されたスポット光源より、図6Bに示された方向性光源のように特定方向に光が放出されるよう設定され、反射する光の方向も特定方向に示される場合にビューベクトル750に基づいて生成された陰影情報は、視点と一致するほど明るく表現され得る。 According to one embodiment, the method of generating shadow information based on the view vector 750 and the reflection vector 742 shown in FIG. 7 is applied to all of the spot light source and the directional light source shown in FIGS. 6A and 6B. The For example, when the spot light source shown in FIG. 6A is set to emit light in a specific direction like the directional light source shown in FIG. 6B, the direction of the reflected light is also shown in the specific direction. The shadow information generated based on the vector 750 can be expressed as bright as it matches the viewpoint.
図8は、一実施形態による光源の強度に応じて再照明されたイメージを示す図である。 FIG. 8 is a diagram illustrating an image re-illuminated according to the intensity of the light source according to an embodiment.
例えば、図8は、入力イメージ301の明るさが上述した図1〜図5に示す方法により調整された、再照明されたイメージ810、820、830を示す。 For example, FIG. 8 shows reilluminated images 810, 820, 830 in which the brightness of the input image 301 has been adjusted by the method shown in FIGS.
図8に示すそれぞれの再照明されたイメージ810、820、830は互いに仮想光源の強度が相違に設定された例を示す。第1再照明されたイメージ810は仮想光源の強度が低い場合、第2再照明されたイメージ820は仮想光源の強度が中間程度である場合、第3再照明されたイメージ830は仮想光源の強度が高い場合を示す。 Re-illuminated images 810, 820, and 830 shown in FIG. 8 show examples in which the intensity of the virtual light source is set to be different from each other. When the first re-illuminated image 810 has a low intensity of the virtual light source, the second re-illuminated image 820 has an intermediate intensity of the virtual light source, and the third re-illuminated image 830 has the intensity of the virtual light source. Indicates a high value.
図8に示すように、第1再照明されたイメージ810の一部領域811、812に比べて、第2再照明されたイメージ820の一部領域821、822の明るさが比較的高く調整される。また、第2再照明されたイメージ820の一部領域821、822の明るさよりも第3再照明されたイメージ830の一部領域831、832の明るさが比較的高く調整される。 As shown in FIG. 8, the brightness of the partial areas 821 and 822 of the second re-illuminated image 820 is adjusted to be relatively high compared to the partial areas 811 and 812 of the first re-illuminated image 810. The Further, the brightness of the partial areas 831 and 832 of the third re-illuminated image 830 is adjusted to be relatively higher than the brightness of the partial areas 821 and 822 of the second re-illuminated image 820.
ただし、図8において、入力イメージ301の一部領域の明るさ増加についてのみ説明したが、これに限定することなく、仮想光源による照明効果はオブジェクトの全般的な領域に影響を与え、さらに一部領域の明るさが減少(例えば、影効果など)されることがある。 However, in FIG. 8, only the brightness increase in a partial area of the input image 301 has been described. However, the lighting effect by the virtual light source affects the general area of the object, and is not limited to this. The brightness of the area may be reduced (for example, a shadow effect).
一実施形態によると、仮想光源の強度に応じてイメージの明るさを調整する装置は、入力イメージ301に示されるオブジェクトの明るさを違和感なしにナチュラルに増加させたり減少させ得る。 According to one embodiment, an apparatus that adjusts the brightness of an image according to the intensity of a virtual light source can naturally increase or decrease the brightness of an object shown in the input image 301 without feeling uncomfortable.
図9は、一実施形態による光源の位置に応じて再照明されたイメージを示す図である。 FIG. 9 is a diagram illustrating an image re-illuminated according to the position of the light source according to an embodiment.
例えば、図9は、入力イメージ301の明るさが上述した図1〜図5に示す方法により調整された再照明されたイメージ910、920、930を示す。図9において、仮想光源909は方向性光源であり得る。 For example, FIG. 9 shows reilluminated images 910, 920, 930 in which the brightness of the input image 301 is adjusted by the method shown in FIGS. In FIG. 9, the virtual light source 909 may be a directional light source.
図9に示すそれぞれの再照明されたイメージ910、920、930は互いに仮想光源909の方向が相違に設定された例を示す。第4再照明されたイメージ910は、左側上端部からオブジェクトに向かって−45度方向に光が投射されるように設定された仮想光源909が適用された結果を示す。第5再照明されたイメージ920は、正面上端部からオブジェクトに向かって0度方向に光が投射されるように設定された仮想光源909が適用された結果を示す。第6再照明されたイメージ930は、右側上端部からオブジェクトに向かって+45度方向に光が投射されるように設定された仮想光源909が適用された結果を示す。 Re-illuminated images 910, 920, and 930 shown in FIG. 9 show examples in which the directions of the virtual light sources 909 are set to be different from each other. The fourth re-illuminated image 910 shows a result of applying a virtual light source 909 that is set so that light is projected in the −45 degree direction from the upper left end toward the object. The fifth re-illuminated image 920 shows a result of applying a virtual light source 909 that is set so that light is projected in a 0-degree direction from the front upper end toward the object. The sixth re-illuminated image 930 shows a result of applying a virtual light source 909 that is set so that light is projected in the +45 degree direction from the upper right end toward the object.
図9に示すように、第4再照明されたイメージ910では、−45度方向に光が投射される仮想光源909によって、オブジェクト(図9では人の顔)の右側下端部領域911の明るさが減少し得る。第5再照明されたイメージ920では、正面上端部からオブジェクトに向かって光が投射される仮想光源909により、顔の下端部領域921の明るさが減少し得る。第6再照明されたイメージ930では、右側上端部からオブジェクトに向かって光が投射される仮想光源909により、顔の左側下端部領域931の明るさが減少し得る。図9では仮想光源909によってオブジェクトに発生する影効果を示すこともある。 As shown in FIG. 9, in the fourth re-illuminated image 910, the brightness of the lower right end region 911 of the object (human face in FIG. 9) is generated by the virtual light source 909 that projects light in the −45 degree direction. Can be reduced. In the fifth re-illuminated image 920, the brightness of the lower end region 921 of the face can be reduced by the virtual light source 909 that projects light from the upper end of the front toward the object. In the sixth re-illuminated image 930, the brightness of the left lower end region 931 of the face can be reduced by the virtual light source 909 in which light is projected from the right upper end toward the object. In FIG. 9, the shadow effect generated on the object by the virtual light source 909 may be shown.
ただし、図9において、入力イメージ301の一部領域の明るさの減少(例えば、影効果)についてのみ説明したが、これに限定することなく、仮想光源909による照明効果はオブジェクトの全般的な領域に影響を与え、さらに一部領域の明るさが増加することもある。 However, in FIG. 9, only the reduction in brightness (for example, the shadow effect) of a partial region of the input image 301 has been described. However, the lighting effect by the virtual light source 909 is not limited to this, and the general region of the object May also affect the brightness of some areas.
一実施形態によると、イメージの明るさを調整する装置は、仮想光源909の位置及び方向などにより、入力イメージに示されるオブジェクトの明るさを違和感なしにナチュラルに増加させたり減少させることができる。 According to an embodiment, an apparatus for adjusting the brightness of an image can increase or decrease the brightness of an object shown in an input image naturally without a sense of incongruity depending on the position and direction of the virtual light source 909 and the like.
図10は、一実施形態によるイメージの明るさを調整する装置の例示的なグラフィクユーザインタフェース(Graphical User Interface:GUI)を示す図である。 FIG. 10 is a diagram illustrating an exemplary graphical user interface (GUI) of an apparatus for adjusting image brightness according to an embodiment.
イメージの明るさを調整する装置1000は、例えば、スマートフォンであり得る。ただし、これに限定することはない。イメージの明るさを調整する装置1000は、上述した図1〜図5に示す方法を行う過程で求められるユーザ操作を受信する。例えば、図10は、仮想光源設定に対するユーザ操作を受信するためのグラフィクユーザインタフェースを示す。 The apparatus 1000 that adjusts the brightness of an image can be, for example, a smartphone. However, the present invention is not limited to this. The apparatus 1000 for adjusting the brightness of an image receives a user operation required in the process of performing the method shown in FIGS. For example, FIG. 10 shows a graphic user interface for receiving user operations for virtual light source settings.
例えば、図10に示されたグラフィクユーザインタフェースは、光源タイプインタフェース1010、光源位置/方向インタフェース1020、及び光源強度インタフェース1030などを含む。インタフェースの種類及びデザインなどはこれに限定することなく、設計に応じて様々なインタフェースを用いてもよい。 For example, the graphic user interface shown in FIG. 10 includes a light source type interface 1010, a light source position / orientation interface 1020, a light source intensity interface 1030, and the like. The interface type and design are not limited to this, and various interfaces may be used depending on the design.
光源タイプインタフェース1010は、ユーザから仮想光源のタイプの指定に関する操作を受信するように設定される。例えば、図10に示す装置1000は、光源タイプインタフェース1010によってユーザからスポット光源及び方向性光源のいずれか1つを指定する操作を受信する。 The light source type interface 1010 is set to receive an operation related to designation of a virtual light source type from the user. For example, the apparatus 1000 illustrated in FIG. 10 receives an operation for designating any one of a spot light source and a directional light source from the user through the light source type interface 1010.
光源位置/方向インタフェース1020は、仮想光源のタイプに応じてユーザから仮想光源の位置及び方向のうち少なくとも1つの指定に関する操作を受信するよう設定される。 The light source position / direction interface 1020 is set to receive an operation related to designation of at least one of the position and direction of the virtual light source from the user according to the type of the virtual light source.
図10でスポット光源が選択された場合、光源位置/方向インタフェース1020は、仮想光源の位置を指定する操作を受信する。スポット光源は、光源の全方向に光を投射するためスポット光源の位置のみが指定されれば、スポット光源による光ベクトルが入力イメージのそれぞれのピクセルに対して導出(任意のピクセルにおける光ベクトルは、該当ピクセルの座標及びスポット光源の座標間の位置差に算出)され、位置のみを指定するインタフェースにも光ベクトルに基づいた光源効果の表現が可能になる。一実施形態によると、プロセッサは、予め指定された複数の位置に対するインタフェース(図示せず)をユーザに提供し、ユーザからスポット光源の位置に対する選択を受信すると、該当位置をスポット光源の位置として設定する。例えば、ユーザによって中間アイコンが活性化されれば、装置1000は、仮想光源の位置をオブジェクトから正面上の予め設定された地点に設定することができる。 When the spot light source is selected in FIG. 10, the light source position / direction interface 1020 receives an operation for designating the position of the virtual light source. Since the spot light source projects light in all directions of the light source, if only the position of the spot light source is specified, the light vector from the spot light source is derived for each pixel of the input image (the light vector at any pixel is It is calculated as a positional difference between the coordinates of the corresponding pixel and the coordinates of the spot light source, and the light source effect can be expressed based on the light vector even in an interface for designating only the position. According to one embodiment, the processor provides an interface (not shown) for a plurality of predesignated positions to the user, and upon receiving a selection for the position of the spot light source from the user, sets the corresponding position as the position of the spot light source. To do. For example, if the intermediate icon is activated by the user, the apparatus 1000 can set the position of the virtual light source at a preset point on the front from the object.
図10で方向性光源が選択された場合、光源位置/方向インタフェース1020は、仮想光源の方向を指定する操作を受信する。方向性光源は、イメージ上の全てのピクセルに対して同じ方向を有する光を投射するものと仮定されることができるため、方向性光源の方向のみが指定されれば、方向性光源による光ベクトルが入力イメージのそれぞれのピクセルに対して導出され、方向を指定するインタフェースにも光ベクトルに基づいた光源効果の表現が可能になる。一実施形態によると、プロセッサは、予め指定された複数の方向に対するインタフェースをユーザに提供し、ユーザから方向性光源の方向に対する選択を受信すれば、該当方向を方向性光源の方向として設定する。例えば、ユーザによって右側アイコンが活性化されれば、装置1000は、仮想光源から投射される光ベクトルの方向を右側上端部からオブジェクトに向かうように設定することができる。 When the directional light source is selected in FIG. 10, the light source position / direction interface 1020 receives an operation for designating the direction of the virtual light source. Since a directional light source can be assumed to project light having the same direction to all pixels on the image, if only the direction of the directional light source is specified, the light vector from the directional light source Is derived for each pixel of the input image, and the light source effect based on the light vector can also be expressed in the interface for designating the direction. According to one embodiment, the processor provides the user with an interface for a plurality of predesignated directions, and if the user receives a selection for the direction of the directional light source, sets the corresponding direction as the direction of the directional light source. For example, when the right icon is activated by the user, the apparatus 1000 can set the direction of the light vector projected from the virtual light source so as to be directed from the upper right end to the object.
光源強度インタフェース1030は、ユーザから仮想光源の強度の指定に関する操作を受信するように設定される。図10において、仮想光源の強度は、レベル0(例えば、仮想光源off)〜レベル5(例えば、仮想光源強度最大)まで区分され、例えば、ユーザによってレベル3に対応するアイコンが活性化されれば、装置1000は、仮想光源の強度をレベル3(中間程度)に設定する。ただし、仮想光源の強度区分を上述の内容に限定することなく、n個のレベル(ここで、nは1以上の整数)に区分されるように設定できる。 The light source intensity interface 1030 is set to receive an operation related to designation of the intensity of the virtual light source from the user. In FIG. 10, the intensity of the virtual light source is divided from level 0 (for example, virtual light source off) to level 5 (for example, virtual light source intensity maximum). For example, if an icon corresponding to level 3 is activated by the user The apparatus 1000 sets the intensity of the virtual light source to level 3 (intermediate). However, the intensity classification of the virtual light source can be set to be classified into n levels (where n is an integer of 1 or more) without being limited to the above-described content.
プレビューインタフェースは、再照明されたイメージ1009を提供する。また、プレビューインタフェースは、再照明されたイメージ1009のトーンを調整した結果を提供できる。例えば、プレビューインタフェースは、光源設定インタフェース(図10において1010〜1030)及びトーン調整インタフェース(図示せず)などによって受信されるユーザの操作をリアルタイムに反映して生成された再照明されたイメージ1009を提供する。例えば、光源強度インタフェース1030によって光源の強度が変更されれば、装置1000は、変更された光源強度が反映された再照明されたイメージ1009をリアルタイムに表示できる。 The preview interface provides a re-illuminated image 1009. The preview interface can also provide a result of adjusting the tone of the reilluminated image 1009. For example, the preview interface displays a re-illuminated image 1009 generated by reflecting a user operation received by a light source setting interface (1010 to 1030 in FIG. 10) and a tone adjustment interface (not shown) in real time. provide. For example, if the light source intensity is changed by the light source intensity interface 1030, the apparatus 1000 can display the re-illuminated image 1009 reflecting the changed light source intensity in real time.
ただし、イメージの明るさを調整する装置1000のグラフィクユーザインタフェースを図10に示す内容に限定することなく、再照明されたイメージ1009のトーンを調整(例えば、図2及び図4のステップS240)するためのインタフェース、写真撮影のためのインタフェース、及び再照明されたイメージ1009の格納のためのインタフェースなどのような様々なインタフェースを提供できる。 However, the tone of the re-illuminated image 1009 is adjusted without limiting the graphic user interface of the apparatus 1000 for adjusting the brightness of the image to the content shown in FIG. 10 (for example, step S240 in FIGS. 2 and 4). Various interfaces can be provided, such as an interface for taking pictures, an interface for taking pictures, and an interface for storing reilluminated images 1009.
図11は、一実施形態による再照明されたイメージにトーンが調整された例を示す図である。 FIG. 11 is a diagram illustrating an example in which a tone is adjusted to a re-illuminated image according to an embodiment.
一実施形態によると、装置のプロセッサは、図1〜図5に示すステップS240で陰影情報を入力イメージ301に反映してトーンを調整する。例えば、プロセッサは、入力イメージ301に陰影情報を反映して再照明されたイメージを生成し、再照明されたイメージのトーンを調整する。図11ではトーン調整の4種類のスタイルを図示しているが、トーン調整のスタイルをこれに限定することはない。 According to one embodiment, the processor of the apparatus adjusts the tone by reflecting the shadow information in the input image 301 in step S240 shown in FIGS. For example, the processor generates a re-illuminated image reflecting shadow information in the input image 301 and adjusts the tone of the re-illuminated image. Although four types of tone adjustment styles are illustrated in FIG. 11, the tone adjustment styles are not limited to this.
第1スタイルはイメージで明るい領域及び暗い領域のピクセルのトーンに対して加重値を付加するスタイルを示す。第1スタイルによると、例えば、プロセッサは、明るい領域に対応するピクセルと暗い領域に対応するピクセルのトーンに同じ加重値を付加する。この場合、明るい領域が加重値によって明るくなる程度及び暗い領域が加重値によって暗くなる程度の比率が同一であり、第1スタイルによりトーンの調整された再照明されたイメージ1110は、全体的な明暗が明確になる。第1スタイルを「dark&bright」スタイルと示す。 The first style is a style in which weight values are added to the tone of pixels in a light area and a dark area in the image. According to the first style, for example, the processor adds the same weight to the tone of the pixels corresponding to the bright areas and the pixels corresponding to the dark areas. In this case, the re-illuminated image 1110 whose tone is adjusted according to the first style has the same ratio in which the bright area is brightened by the weight value and the dark area is darkened by the weight value. Becomes clear. The first style is denoted as “dark & bright” style.
明るい領域に対応するピクセルは、ピクセルの明るさが予め定めた閾値よりも大きいピクセルを示し、暗い領域に対応するピクセルはピクセルの明るさが予め定めた閾値以下であるピクセルを示す。 A pixel corresponding to a bright region indicates a pixel whose pixel brightness is larger than a predetermined threshold value, and a pixel corresponding to a dark region indicates a pixel whose pixel brightness is equal to or lower than a predetermined threshold value.
第2スタイルは、上述した第1スタイルと同じ加重値を付加し、さらに暗い領域に対応するピクセルに特定影色をさらに付加するスタイルを示す。第2スタイルによりトーンの調整された再照明されたイメージ1120は、人の皮膚トーン(例えば、茶色)と類似に設定された影色をさらに付加することで、陰影効果をよりナチュラルに示し得る。第2スタイルを「shadow color mixing」スタイルと示す。 The second style is a style in which the same weight value as that of the first style described above is added, and a specific shadow color is further added to pixels corresponding to dark areas. The re-illuminated image 1120 with the tone adjusted according to the second style may add a shadow color set similar to a human skin tone (eg, brown) to make the shadow effect more natural. The second style is referred to as a “shadow color mixing” style.
第3スタイルは、明るい領域に対応するピクセルは保持して暗い領域に対応するピクセルのトーンに加重値を付加するスタイルを示す。第3スタイルによりトーンの調整された再照明されたイメージ1130は暗い領域がより強調され、入力イメージ301が全般的に明るく撮影された場合に適する。第3スタイルを「dark tone」スタイルと示す。 The third style is a style in which a pixel corresponding to a bright region is retained and a weight is added to the tone of a pixel corresponding to a dark region. The re-illuminated image 1130 with the tone adjusted according to the third style is suitable when the dark area is more emphasized and the input image 301 is photographed generally brightly. The third style is denoted as “dark tone” style.
第4スタイルは、暗い領域に対応するピクセルを保持して明るい領域に対応するピクセルのトーンに加重値を付加するスタイルを示す。第4スタイルによりトーンの調整された再照明されたイメージ1140は明るい領域がより強調され、入力イメージ301が全般的に暗く撮影された場合に適する。第4スタイルを「bright tone」スタイルと示す。 The fourth style is a style in which pixels corresponding to dark areas are retained and weights are added to the tones of pixels corresponding to light areas. The re-illuminated image 1140 with the tone adjusted according to the fourth style is suitable when the bright area is more emphasized and the input image 301 is photographed generally dark. The fourth style is referred to as “bright tone” style.
上述したトーン調整のスタイルは、グラフィクユーザインタフェースを用いて受信されるユーザ操作に応じて決定されたり自動決定される。下記の図12〜図15では、トーン調整のスタイルが自動決定される例示を説明する。 The tone adjustment style described above is determined or automatically determined according to a user operation received using the graphic user interface. The following FIGS. 12 to 15 illustrate an example in which the tone adjustment style is automatically determined.
図12〜図15は、一実施形態によるイメージの明るさヒストグラムに基づいたトーンの調整を示す図である。 12-15 illustrate tone adjustment based on an image brightness histogram according to one embodiment.
図12は、上述した図11に示す第1スタイルによりトーンの調整された再照明されたイメージ1210、図13は第2スタイルによりトーンの調整された再照明されたイメージ1310、図14は第3スタイルによりトーンの調整された再照明されたイメージ1410、図15は第4スタイルによりトーンの調整された再照明されたイメージ1510を示す。 FIG. 12 shows a re-illuminated image 1210 with a tone adjusted according to the first style shown in FIG. 11, FIG. 13 shows a re-illuminated image 1310 with a tone adjusted according to the second style, and FIG. A re-illuminated image 1410 with a tone adjusted by style, FIG. 15 shows a re-illuminated image 1510 with a tone adjusted by a fourth style.
プロセッサは、入力イメージの明るさヒストグラム1220、1320、1420、1520に基づいてトーン調整のスタイルを決定し、決定されたスタイルにより再照明されたイメージ1210、1310、1410、1510のトーンを調整する。例えば、プロセッサは、入力イメージの全体ピクセルに対する予め定めた明るさ範囲のピクセルの比率に基づいて、再照明されたイメージ1210、1310、1410、1510の少なくとも一部領域に対応するピクセルのトーンに加重値を付加する。図12〜図15に示された明るさヒストグラム1220、1320、1420、1520は、入力イメージのピクセルの明るさ分布を示し、例えば、横軸は明るさを示し、縦軸は入力イメージ内で横軸の明るさを有するピクセル数を示す。ただし、明るさヒストグラム1220、1320、1420、1520は、入力イメージに関するものを例にしたが、これに限定することなく、再照明されたイメージ1210、1310、1410、1510の明るさヒストグラムを用いてもよい。 The processor determines a tone adjustment style based on the input image brightness histograms 1220, 1320, 1420, 1520 and adjusts the tones of the re-illuminated images 1210, 1310, 1410, 1510 according to the determined style. For example, the processor weights the tones of pixels corresponding to at least some regions of the reilluminated image 1210, 1310, 1410, 1510 based on the ratio of pixels in a predetermined brightness range to the total pixels of the input image. Add a value. The brightness histograms 1220, 1320, 1420, and 1520 shown in FIGS. 12 to 15 indicate the brightness distribution of the pixels of the input image, for example, the horizontal axis indicates the brightness, and the vertical axis indicates the horizontal in the input image. Indicates the number of pixels with axis brightness. However, although the brightness histograms 1220, 1320, 1420, and 1520 are related to the input image, the brightness histograms of the re-illuminated images 1210, 1310, 1410, and 1510 are used without being limited thereto. Also good.
一実施形態によると、プロセッサは、入力イメージのピクセルの明るさが第2閾値の明るさ以下でありながら第1閾値の明るさよりも大きいピクセル数が全体ピクセルのうち予め定めた第1比率以上の個数である場合に応答して、陰影情報で暗い領域及び明るい領域に加重値を付加することができる。例えば、プロセッサは、入力イメージの図12に示された明るさヒストグラム1220のように、入力イメージの明るさが中間程度である場合、第1スタイルによりトーンを調整し得る。 According to one embodiment, the processor may have a pixel number of the input image that is less than or equal to a second threshold brightness but has a pixel number greater than the first threshold brightness that is greater than or equal to a predetermined first ratio of all pixels. In response to the case of the number, the weight value can be added to the dark area and the bright area with the shadow information. For example, the processor may adjust the tone according to the first style when the brightness of the input image is intermediate, such as the brightness histogram 1220 shown in FIG. 12 of the input image.
一実施形態によると、プロセッサは、入力イメージのピクセルの明るさが第3閾値の明るさ以下であり、第2閾値の明るさよりも大きいピクセル数が全体ピクセルのうち予め定めた第2比率以上の個数である場合に応答して、陰影情報で暗い領域及び明るい領域に加重値を付加して予め定めた影色を暗い領域に付加する。例えば、プロセッサは、入力イメージの図13に示された明るさヒストグラム1320のように入力イメージの明るさが中間程度である場合、第2スタイルによりトーンを調整し得る。 According to one embodiment, the processor has a brightness of pixels of the input image that is less than or equal to the brightness of the third threshold, and the number of pixels that is greater than the brightness of the second threshold is greater than or equal to a predetermined second ratio of the total pixels. In response to the number, the weight value is added to the dark area and the bright area by the shadow information, and a predetermined shadow color is added to the dark area. For example, the processor may adjust the tone according to the second style when the brightness of the input image is intermediate, such as the brightness histogram 1320 shown in FIG. 13 of the input image.
一実施形態によると、プロセッサは、入力イメージのピクセルの明るさが第3閾値の明るさよりも大きいピクセル数が全体ピクセルのうち予め定めた第3比率以上の個数である場合に応答して、陰影情報で暗い領域に加重値を付加する。例えば、プロセッサは、図14に示された明るさヒストグラム1420のように入力イメージの明るさが強い明るさである場合、第3スタイルによりトーンを調整し得る。 According to an embodiment, the processor is responsive to the shadowing in response to a case where the number of pixels in which the pixel brightness of the input image is greater than the third threshold brightness is equal to or greater than a predetermined third ratio of the total pixels. Add weights to dark areas with information. For example, the processor may adjust the tone according to the third style when the brightness of the input image is strong, such as the brightness histogram 1420 shown in FIG.
一実施形態によると、プロセッサは、入力イメージのピクセルの明るさが第1閾値の明るさ以下であるピクセル数が全体ピクセルのうち予め定めた第4比率以上の個数である場合に応答して、陰影情報で明るい領域に加重値を付加する。例えば、プロセッサは、図15に示された明るさヒストグラム1520のように入力イメージの明るさが弱い場合、第4スタイルによりトーンを調整し得る。 According to one embodiment, the processor is responsive to a case where the number of pixels in which the brightness of the pixels of the input image is less than or equal to the brightness of the first threshold is a number greater than or equal to a predetermined fourth ratio of the total pixels, A weight value is added to a bright area by shading information. For example, the processor may adjust the tone according to the fourth style when the brightness of the input image is weak, such as the brightness histogram 1520 shown in FIG.
ただし、トーン調整の各スタイルの適用を上述した内容によって限定することなく、ユーザの好み、背景イメージの状況、ユーザの操作、及び設計などに応じてスタイルの適用基準を多様に変更することができる。 However, the application of each style for tone adjustment is not limited by the above-described contents, and various style application standards can be changed according to user preferences, background image conditions, user operations, designs, and the like. .
図16〜図19は、一実施形態によるイメージの明るさを調整する装置の構成を示すブロック図である。 16 to 19 are block diagrams illustrating the configuration of an apparatus for adjusting the brightness of an image according to an embodiment.
一実施形態によるイメージの明るさを調整する装置1600は、図16に示すようにプロセッサ1610を含む。また、図17〜図19に示すように、メモリ1720、イメージ受信部1830、及びディスプレイ1940をさらに含んでもよい。 An apparatus 1600 for adjusting the brightness of an image according to one embodiment includes a processor 1610 as shown in FIG. In addition, as illustrated in FIGS. 17 to 19, a memory 1720, an image receiving unit 1830, and a display 1940 may be further included.
プロセッサ1610は、上述した図1〜図5を参照して説明したイメージの明るさを調整する方法を行う。例えば、プロセッサ1610は、オブジェクトが示される入力イメージから抽出されたオブジェクトの特徴点に基づいてオブジェクトモデルをオブジェクトにマッチングし、マッチングされたオブジェクトモデルに基づいて2次元イメージ形式の表面ノーマルマップを入力イメージにマッピングし、マッピングされた表面ノーマルマップ及び仮想光源に基づいて入力イメージに対する陰影情報を生成する。 The processor 1610 performs the method of adjusting the brightness of the image described with reference to FIGS. For example, the processor 1610 matches the object model to the object based on the feature point of the object extracted from the input image in which the object is shown, and inputs the surface normal map in the two-dimensional image format based on the matched object model. And shadow information for the input image is generated based on the mapped surface normal map and the virtual light source.
メモリ1720は、ハードウェアと結合して一実施形態によるイメージの明るさを調整する方法を実行させるために、媒体に格納されたコンピュータプログラムを含む。また、メモリ1720は、オブジェクトモデル及びオブジェクトモデルに関する表面ノーマルモデルなどをデータベースに予め格納する。例えば、メモリ1720は、入力イメージ、再照明されたイメージ、及びトーンの調整された再照明されたイメージを格納し、陰影情報及び表面ノーマルマップなどのように図1〜図5に示す方法を行うために必要であったり実行する過程で生成されるデータを格納する。 The memory 1720 includes a computer program stored on a medium for performing the method of adjusting the brightness of an image according to an embodiment in combination with hardware. In addition, the memory 1720 previously stores an object model and a surface normal model related to the object model in a database. For example, the memory 1720 stores the input image, the re-illuminated image, and the re-illuminated image with the tone adjusted, and performs the method shown in FIGS. 1 to 5 such as shadow information and surface normal map. It stores data that is needed or generated in the course of execution.
イメージ受信部1830は、外部から入力イメージを受信する。例えば、イメージ受信部1830は、カメラにより撮影された入力イメージを受信する。また、イメージ受信部1830は、有無線通信によって入力イメージを受信する。 The image receiving unit 1830 receives an input image from the outside. For example, the image receiving unit 1830 receives an input image taken by a camera. The image receiving unit 1830 receives an input image through wired / wireless communication.
ディスプレイ1940はイメージを表示する。一実施形態によると、ディスプレイ1940は、入力イメージに陰影情報を反映して表現し得る。例えば、ディスプレイ1940は、入力イメージ、再照明されたイメージ、及びトーンが調整されたイメージなどを表示する。本明細書ではイメージを停止した写真を例に挙げて説明したが、これに限定することなくイメージの明るさを調整する装置1600は動画に対しても適用される。イメージが動画である場合、プロセッサ1610は、動画の各フレームに対して上述した図2〜図15に示す方法をリアルタイムに実行し、各フレームに示されるオブジェクトに対してナチュラルな陰影効果を適用できる。ディスプレイ1940は、スクリーン、プロジェクター、LCD、及びOLEDなどを含む。 Display 1940 displays an image. According to one embodiment, the display 1940 may represent shadow information in the input image. For example, the display 1940 displays an input image, a re-illuminated image, an image with an adjusted tone, and the like. In the present specification, a photograph in which an image is stopped has been described as an example. However, the present invention is not limited to this, and the apparatus 1600 for adjusting the brightness of an image is also applied to a moving image. When the image is a moving image, the processor 1610 can execute the above-described method shown in FIGS. 2 to 15 on each frame of the moving image in real time to apply a natural shadow effect to the object indicated on each frame. . The display 1940 includes a screen, a projector, an LCD, an OLED, and the like.
一実施形態による装置1600は、イメージを処理することのできるプロセッサ1610を含む電子装置1600であって、例えば、スマートフォン及びカメラなどであり得る。 The device 1600 according to an embodiment is an electronic device 1600 that includes a processor 1610 capable of processing images, and may be, for example, a smartphone and a camera.
一実施形態による装置1600は、カメラにより撮影された顔に複雑度の低いグラフィックレンダリング技術(例えば、光源による照明効果及びSoft Shading)を適用してナチュラルな陰影効果を付加的に表現することができる。スマートフォンなどのようなモバイルスマート機器において性能が制限されているが、小型スマート機器でナチュラルな陰影効果をリアルタイムに入力イメージへ反映しながらもその性能は低下しない。例えば、装置1600は、スマートフォンやカメラなどのモバイルスマート機器に内蔵されたCPU、GPU及び標準グラフィックスS/Wを活用して、照明に関する複雑な物理演算なしにオブジェクトに対して仮想光源による陰影効果をリアルタイムに表現できる。 The apparatus 1600 according to an exemplary embodiment may apply a low-complexity graphic rendering technique (for example, lighting effect by a light source and Soft Shading) to a face taken by a camera to additionally express a natural shadow effect. . The performance is limited in mobile smart devices such as smartphones, but the performance is not degraded while the natural shading effect is reflected in the input image in real time on small smart devices. For example, the apparatus 1600 utilizes a CPU, GPU, and standard graphics S / W built in a mobile smart device such as a smartphone or a camera, and a shadow effect by a virtual light source on an object without complicated physical calculation regarding illumination. Can be expressed in real time.
また、装置1600は、人の顔が正面で撮影された場合(例えば、selfie camera)に陰影効果をよりナチュラルに反映し得る。装置1600は、写真を撮影するとき(例えば、撮影された写真をプレビューした後格納するとき)仮想光源による陰影効果を顔領域にリアルタイムにオーバーレイすることができ、上述した方法によって撮影されたイメージを容易に編集できる。 In addition, the apparatus 1600 can more naturally reflect the shadow effect when a human face is photographed in front (for example, a selfie camera). The apparatus 1600 can overlay the shadow effect of the virtual light source in real time on the face area when taking a picture (for example, when previewing and storing the taken picture), and the image taken by the above-described method can be displayed. Easy to edit.
一実施形態によると、装置1600は、複雑な3D幾何構造モデルを使用することなく、簡単な幾何構造モデル(例えば、オブジェクトモデル)を利用しながらも高い品質の陰影効果を取得できる。また、装置1600は、照明演算を表面ノーマルマップを用いて光ベクトルとのドット積に単純化することにより、複雑な演算を行うことなく、リアルタイムに微細な陰影効果を表現できる。 According to one embodiment, the apparatus 1600 can obtain high quality shading effects while utilizing a simple geometric model (eg, object model) without using a complex 3D geometric model. Further, the apparatus 1600 can express a fine shadow effect in real time without performing a complicated calculation by simplifying the lighting calculation into a dot product with a light vector using a surface normal map.
また、装置1600は、陰影効果を適用するとき撮影状況に応じてトーン調整のスタイルを手動又は自動選択することができることから、よりナチュラルな陰影効果を表現できる。装置1600は、単にイメージをフィルタリングすることに比べて、よりナチュラルで目鼻立ちがはっきりするように再照明されたイメージを取得できる。 Further, the apparatus 1600 can manually or automatically select the tone adjustment style according to the shooting situation when applying the shadow effect, so that a more natural shadow effect can be expressed. The device 1600 can obtain a re-illuminated image that is more natural and clearer than the simple filtering of the image.
以上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で行われる1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサのような、他の処理構成も可能である。 The apparatus described above is implemented by hardware components, software components, or a combination of hardware components and software components. For example, the apparatus and components described in the present embodiment include, for example, a processor, a controller, an ALU (arithmetic logic unit), a digital signal processor (digital signal processor), a microcomputer, an FPA (field programmable array), and a PLU (programmable logarithm). unit), a microprocessor, or a different device that executes and responds to instructions, and is implemented using one or more general purpose or special purpose computers. The processing device executes an operating system (OS) and one or more software applications running on the operating system. The processing device also accesses, stores, manipulates, processes, and generates data in response to software execution. For convenience of understanding, one processing device may be described as being used, but those having ordinary knowledge in the art may recognize that the processing device has multiple processing elements and / or multiple types of processing. It can be seen that it contains elements. For example, the processing device includes a plurality of processors or one processor and one controller. Other processing configurations such as parallel processors are also possible.
ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。 The software includes computer programs, code, instructions, or a combination of one or more of these, configures the processing device to operate as desired, and instructs the processing device independently or in combination. Software and / or data is interpreted by the processing device and any type of machine, component, physical device, virtual device, computer storage medium or device for providing instructions or data to the processing device, or transmitted signal It can be realized permanently or temporarily via waves. The software is distributed on computer systems connected to the network and stored or executed in a distributed manner. Software and data are stored on one or more computer-readable recording media.
本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。 The method according to the present embodiment is embodied in the form of program instructions executed through various computer means, and is recorded on a computer-readable recording medium. The recording medium includes program instructions, data files, data structures, etc. alone or in combination. The recording medium and the program instructions may be specially designed and configured for the purpose of the present invention, and may be known and usable by those skilled in the art having computer software technology. . Examples of computer-readable recording media include magnetic media such as hard disks, floppy (registered trademark) disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magnetic-lights such as floppy disks. Media and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language code generated by a compiler but also high-level language code executed by a computer using an interpreter or the like. A hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
以上、本発明の実施形態について図面を参照しながら詳細に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。 As mentioned above, although embodiment of this invention was described in detail, referring drawings, this invention is not limited to the above-mentioned embodiment, In the range which does not deviate from the technical scope of this invention, it changes variously. It is possible to implement.
1600 イメージの明るさを調整する装置
1610 プロセッサ
1720 メモリ
1830 イメージ受信部
1940 ディスプレイ
1600 Apparatus for Adjusting Image Brightness 1610 Processor 1720 Memory 1830 Image Receiving Unit 1940 Display
Claims (36)
前記マッチングされたオブジェクトモデルに基づいて、2次元イメージ形式の表面ノーマルマップを前記入力イメージにマッピングするステップと、
前記マッピングされた表面ノーマルマップ及び仮想光源に基づいて、前記入力イメージに対する陰影情報を生成するステップと、
を含むことを特徴とするイメージの明るさを調整する方法。 Matching an object model to the object based on one or more feature points of the object extracted from an input image in which the object is shown;
Mapping a normal surface map in the form of a two-dimensional image to the input image based on the matched object model;
Generating shadow information for the input image based on the mapped surface normal map and virtual light source;
A method for adjusting the brightness of an image characterized by comprising:
前記入力イメージの明るさヒストグラムに基づいて前記再照明されたイメージのトーンを調整するステップと、
をさらに含むことを特徴とする請求項1乃至7のいずれか一項に記載のイメージの明るさを調整する方法。 Generating a re-illuminated image reflecting the shading information in the input image;
Adjusting the tone of the reilluminated image based on a brightness histogram of the input image;
The method of adjusting the brightness of an image according to claim 1, further comprising:
前記プロセッサは、前記表面ノーマルモデルを前記表面ノーマルマップに変換することを特徴とする請求項13に記載のイメージの明るさを調整する装置。 A memory for storing a surface normal model related to the object model in a database;
The apparatus of claim 13, wherein the processor converts the surface normal model into the surface normal map.
前記入力イメージから抽出された前記オブジェクトの特徴点に基づいてオブジェクトモデルを前記オブジェクトにマッチングし、前記マッチングされたオブジェクトモデルに基づいて2次元イメージ形式の表面ノーマルマップを前記入力イメージにマッピングし、前記マッピングされた表面ノーマルマップ及び仮想光源に基づいて前記入力イメージに対する陰影情報を生成するプロセッサと、
を含むことを特徴とする装置。 An image receiver for receiving an input image showing the object;
Matching an object model to the object based on feature points of the object extracted from the input image, mapping a surface normal map in a two-dimensional image format to the input image based on the matched object model, and A processor for generating shadow information for the input image based on the mapped surface normal map and the virtual light source;
The apparatus characterized by including.
前記装置は、前記入力イメージに前記陰影情報を反映して表現するディスプレイをさらに含むことを特徴とする請求項22又は23に記載の装置。 The processor is configured to apply the shading information to the input image;
24. The apparatus according to claim 22 or 23, further comprising a display that reflects the shading information in the input image.
前記プロセッサは、前記表面ノーマルモデルを前記表面ノーマルマップに変換することを特徴とする請求項22又は23に記載の装置。 A memory for storing a surface normal model related to the object model in a database;
The apparatus according to claim 22 or 23, wherein the processor converts the surface normal model into the surface normal map.
オブジェクトモデル及び映像におけるオブジェクトの特徴点に基づいて入力映像の表面ノーマルマップを生成するステップと、
仮想光源及び前記表面ノーマルマップに基づいて前記入力映像のための陰影情報を生成するステップと、
前記入力映像の明るさを調整するために前記入力映像に前記陰影情報を適用するステップと、
を含むことを特徴とする方法。 In the method of adjusting the brightness of the image,
Generating a surface normal map of the input video based on the object model and the feature points of the object in the video;
Generating shadow information for the input image based on a virtual light source and the surface normal map;
Applying the shading information to the input video to adjust the brightness of the input video;
A method comprising the steps of:
前記表面ノーマルマップを生成するステップは、前記入力映像の座標でノーマルベクトルを取得するために前記オブジェクトモデルの前記ノーマルベクトルを補間するステップを含むことを特徴とする請求項28に記載の方法。 The object model includes a feature point corresponding to the feature point of the object and a normal vector corresponding to the feature point of the object model,
29. The method of claim 28, wherein generating the surface normal map includes interpolating the normal vector of the object model to obtain a normal vector at the coordinates of the input image.
前記表面ノーマルマップを生成するステップは、他の方向から前記オブジェクトのビューに対応する複数の表面ノーマルモデルを前記オブジェクトにマッチングされた前記オブジェクトモデルの前記特徴点に対してマッチングさせた結果を結合することによって前記表面ノーマルマップを生成するステップを含むことを特徴とする請求項28に記載の方法。 Matching the object model with the object based on the feature points of the object model and the feature points of the object;
The step of generating the surface normal map combines results obtained by matching a plurality of surface normal models corresponding to the object view from other directions with the feature points of the object model matched to the object. 29. The method of claim 28, comprising generating the surface normal map by:
前記入力映像の明るさヒストグラムに基づいて複数のトーン調整スタイルからトーン調整スタイルを選択するステップと、
前記再照明された映像のトーンを調整するために前記再照明された映像に前記選択されたトーン調整スタイルを適用するステップと、
を含むことを特徴とする請求項35に記載の方法。 Adjusting the tone of the re-illuminated image comprises:
Selecting a tone adjustment style from a plurality of tone adjustment styles based on a brightness histogram of the input video;
Applying the selected tone adjustment style to the re-illuminated video to adjust the tone of the re-illuminated video;
36. The method of claim 35, comprising:
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2015-0131387 | 2015-09-17 | ||
KR20150131387 | 2015-09-17 | ||
KR10-2015-0174649 | 2015-12-09 | ||
KR1020150174649A KR102459851B1 (en) | 2015-09-17 | 2015-12-09 | Device and method to adjust brightness of image |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017059235A true JP2017059235A (en) | 2017-03-23 |
JP6864449B2 JP6864449B2 (en) | 2021-04-28 |
Family
ID=56855347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016180644A Active JP6864449B2 (en) | 2015-09-17 | 2016-09-15 | Methods and devices for adjusting the brightness of the image |
Country Status (4)
Country | Link |
---|---|
US (1) | US9922452B2 (en) |
EP (1) | EP3144899B1 (en) |
JP (1) | JP6864449B2 (en) |
CN (1) | CN106548455B (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019046055A (en) * | 2017-08-31 | 2019-03-22 | キヤノン株式会社 | Image processing device, and image processing method, and program |
JP2021103578A (en) * | 2020-04-17 | 2021-07-15 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | Information extraction method, device, electronic apparatus, storage medium, and computer program |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9965893B2 (en) * | 2013-06-25 | 2018-05-08 | Google Llc. | Curvature-driven normal interpolation for shading applications |
CN105138962A (en) * | 2015-07-28 | 2015-12-09 | 小米科技有限责任公司 | Image display method and image display device |
WO2018184140A1 (en) * | 2017-04-04 | 2018-10-11 | Intel Corporation | Facial image replacement using 3-dimensional modelling techniques |
KR102333101B1 (en) * | 2017-06-21 | 2021-12-01 | 삼성전자주식회사 | Electronic device for providing property information of external light source for interest object |
EP3680853A4 (en) | 2017-09-11 | 2020-11-04 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image processing method and device, electronic device, and computer-readable storage medium |
CN107734267B (en) * | 2017-09-11 | 2020-06-26 | Oppo广东移动通信有限公司 | Image processing method and device |
CN107833198B (en) * | 2017-11-09 | 2021-06-01 | 中共中央办公厅电子科技学院 | Outdoor scene relighting method based on large-scale decomposition |
CN107944420B (en) * | 2017-12-07 | 2020-10-27 | 北京旷视科技有限公司 | Illumination processing method and device for face image |
CN108089958B (en) * | 2017-12-29 | 2021-06-08 | 珠海市君天电子科技有限公司 | GPU test method, terminal device and computer readable storage medium |
US10643375B2 (en) * | 2018-02-26 | 2020-05-05 | Qualcomm Incorporated | Dynamic lighting for objects in images |
CN108447111B (en) * | 2018-03-05 | 2022-05-03 | 网易(杭州)网络有限公司 | Normal map processing method and device, storage medium, processor and terminal |
CN112236778B (en) * | 2018-04-06 | 2024-04-16 | 西门子股份公司 | Object recognition from images using CAD models as priors |
CN110580676A (en) * | 2018-06-07 | 2019-12-17 | 富泰华工业(深圳)有限公司 | method for making cartoon image on human face, electronic device and storage medium |
CN108986200B (en) * | 2018-07-13 | 2023-06-20 | 北京中清龙图网络技术有限公司 | Preprocessing method and system for graphic rendering |
RU2697627C1 (en) * | 2018-08-01 | 2019-08-15 | Самсунг Электроникс Ко., Лтд. | Method of correcting illumination of an object on an image in a sequence of images and a user's computing device which implements said method |
CN109255841A (en) * | 2018-08-28 | 2019-01-22 | 百度在线网络技术(北京)有限公司 | AR image presentation method, device, terminal and storage medium |
CN109410300A (en) * | 2018-10-10 | 2019-03-01 | 苏州好玩友网络科技有限公司 | Shadows Processing method and device and terminal device in a kind of scene of game |
KR102627453B1 (en) * | 2018-10-17 | 2024-01-19 | 삼성전자주식회사 | Method and device to estimate position |
CN111489448B (en) * | 2019-01-24 | 2024-08-20 | 宏达国际电子股份有限公司 | Method for detecting real world light source, mixed reality system and recording medium |
JP7422454B2 (en) * | 2019-02-06 | 2024-01-26 | キヤノン株式会社 | Information processing device, information processing method and program |
KR102597518B1 (en) * | 2019-02-20 | 2023-11-03 | 삼성전자주식회사 | An electronic dievice applying bokeh effect to image and controlling method thereof |
JP7321772B2 (en) * | 2019-05-22 | 2023-08-07 | キヤノン株式会社 | Image processing device, image processing method, and program |
US10916051B2 (en) | 2019-07-08 | 2021-02-09 | Google Llc | Video lighting using depth and virtual lights |
CN110532915B (en) * | 2019-08-20 | 2022-06-14 | 东南大学 | Three-dimensional face shielding discrimination method based on normal vector azimuth local entropy |
US11430093B2 (en) | 2019-10-01 | 2022-08-30 | Microsoft Technology Licensing, Llc | Face-based tone curve adjustment |
JP7446080B2 (en) * | 2019-10-15 | 2024-03-08 | キヤノン株式会社 | Image processing device, imaging device, control method, program and imaging system |
EP3838117A1 (en) * | 2019-12-20 | 2021-06-23 | Koninklijke Philips N.V. | Illumination compensation in imaging |
CN112529996B (en) * | 2020-12-16 | 2024-02-23 | 网易(杭州)网络有限公司 | Method and device for generating model and electronic equipment |
EP4254319A4 (en) * | 2020-12-28 | 2024-01-03 | Huawei Technologies Co., Ltd. | Image processing method and apparatus |
JP2022188987A (en) * | 2021-06-10 | 2022-12-22 | キヤノン株式会社 | Information processing device, information processing method, and program |
KR102515785B1 (en) * | 2021-06-23 | 2023-03-31 | 우정호 | Vehicle tinting concentration simulation system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012185545A (en) * | 2011-03-03 | 2012-09-27 | Secom Co Ltd | Face image processing device |
JP2016218729A (en) * | 2015-05-20 | 2016-12-22 | キヤノン株式会社 | Image processor, image processing method and program |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6980697B1 (en) | 2001-02-01 | 2005-12-27 | At&T Corp. | Digitally-generated lighting for video conferencing applications |
US7844076B2 (en) | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
US6969034B2 (en) * | 2003-08-07 | 2005-11-29 | Musco Corporation | Enclosure box attachment apparatus, system, and method |
US7973789B2 (en) * | 2005-06-03 | 2011-07-05 | Pixar | Dynamic model generation methods and apparatus |
US7519201B2 (en) * | 2005-10-28 | 2009-04-14 | Honda Motor Co., Ltd. | Detecting humans via their pose |
JP4079378B2 (en) * | 2006-09-21 | 2008-04-23 | 株式会社コナミデジタルエンタテインメント | Image processing apparatus, image processing apparatus control method, and program |
US8218903B2 (en) * | 2007-04-24 | 2012-07-10 | Sony Computer Entertainment Inc. | 3D object scanning using video camera and TV monitor |
US8090160B2 (en) | 2007-10-12 | 2012-01-03 | The University Of Houston System | Automated method for human face modeling and relighting with application to face recognition |
WO2009097618A1 (en) | 2008-01-31 | 2009-08-06 | University Of Southern California | Practical modeling and acquisition layered facial reflectance |
CN101271587B (en) * | 2008-02-25 | 2010-09-08 | 北京理工大学 | Illumination and shade drafting method based on transition light label drawing |
JP5547730B2 (en) | 2008-07-30 | 2014-07-16 | デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド | Automatic facial and skin beautification using face detection |
US8315461B2 (en) | 2010-01-25 | 2012-11-20 | Apple Inc. | Light source detection from synthesized objects |
US8447098B1 (en) * | 2010-08-20 | 2013-05-21 | Adobe Systems Incorporated | Model-based stereo matching |
US8625931B2 (en) * | 2010-09-03 | 2014-01-07 | Adobe Systems Incorporated | Light space graphical model in shape from shading |
CN103733223B (en) * | 2011-08-04 | 2016-09-21 | 三菱电机株式会社 | For determining the method and system of the surface defect of object model |
US9916538B2 (en) * | 2012-09-15 | 2018-03-13 | Z Advanced Computing, Inc. | Method and system for feature detection |
KR101310040B1 (en) | 2012-02-29 | 2013-09-24 | 주식회사 슈프리마 | Apparatus and method for recongnizing face using adaptive illumination |
KR102000536B1 (en) * | 2012-12-28 | 2019-07-16 | 삼성전자주식회사 | Photographing device for making a composion image and method thereof |
US9702977B2 (en) * | 2013-03-15 | 2017-07-11 | Leap Motion, Inc. | Determining positional information of an object in space |
US9299188B2 (en) * | 2013-08-08 | 2016-03-29 | Adobe Systems Incorporated | Automatic geometry and lighting inference for realistic image editing |
JP6341986B2 (en) * | 2013-09-11 | 2018-06-13 | 株式会社スクウェア・エニックス・ホールディングス | Drawing apparatus, drawing method thereof, program, and recording medium |
CN106575450B (en) * | 2014-05-13 | 2019-07-26 | 河谷控股Ip有限责任公司 | It is rendered by the augmented reality content of albedo model, system and method |
JP6445844B2 (en) * | 2014-11-05 | 2018-12-26 | キヤノン株式会社 | Imaging device and method performed in imaging device |
US9860453B2 (en) * | 2014-11-26 | 2018-01-02 | Disney Enterprises, Inc. | Systems and methods for estimating sky light probes for outdoor images |
JP6463177B2 (en) * | 2015-03-11 | 2019-01-30 | キヤノン株式会社 | Image processing apparatus and control method thereof |
US10303973B2 (en) * | 2015-04-15 | 2019-05-28 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data |
US9679192B2 (en) * | 2015-04-24 | 2017-06-13 | Adobe Systems Incorporated | 3-dimensional portrait reconstruction from a single photo |
-
2016
- 2016-08-30 US US15/250,980 patent/US9922452B2/en active Active
- 2016-09-02 EP EP16187083.7A patent/EP3144899B1/en active Active
- 2016-09-14 CN CN201610825710.7A patent/CN106548455B/en active Active
- 2016-09-15 JP JP2016180644A patent/JP6864449B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012185545A (en) * | 2011-03-03 | 2012-09-27 | Secom Co Ltd | Face image processing device |
JP2016218729A (en) * | 2015-05-20 | 2016-12-22 | キヤノン株式会社 | Image processor, image processing method and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019046055A (en) * | 2017-08-31 | 2019-03-22 | キヤノン株式会社 | Image processing device, and image processing method, and program |
JP2021103578A (en) * | 2020-04-17 | 2021-07-15 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | Information extraction method, device, electronic apparatus, storage medium, and computer program |
US11468655B2 (en) | 2020-04-17 | 2022-10-11 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for extracting information, device and storage medium |
JP7273087B2 (en) | 2020-04-17 | 2023-05-12 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Information extraction method and device, electronic device, storage medium, and computer program |
Also Published As
Publication number | Publication date |
---|---|
CN106548455A (en) | 2017-03-29 |
US20170084068A1 (en) | 2017-03-23 |
JP6864449B2 (en) | 2021-04-28 |
EP3144899A1 (en) | 2017-03-22 |
CN106548455B (en) | 2022-03-08 |
US9922452B2 (en) | 2018-03-20 |
EP3144899B1 (en) | 2020-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6864449B2 (en) | Methods and devices for adjusting the brightness of the image | |
US11948282B2 (en) | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data | |
US11961189B2 (en) | Providing 3D data for messages in a messaging system | |
US11189104B2 (en) | Generating 3D data in a messaging system | |
US10304164B2 (en) | Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data | |
US9406147B2 (en) | Color balance in digital photography | |
CN108668093B (en) | HDR image generation method and device | |
US11410401B2 (en) | Beautification techniques for 3D data in a messaging system | |
US9516214B2 (en) | Information processing device and information processing method | |
US11825065B2 (en) | Effects for 3D data in a messaging system | |
JP6576083B2 (en) | Image processing apparatus, image processing method, and program | |
KR102459851B1 (en) | Device and method to adjust brightness of image | |
CN108682050B (en) | Three-dimensional model-based beautifying method and device | |
KR20200043432A (en) | Technology for providing virtual lighting adjustments to image data | |
JP2018163648A (en) | Image processor, method for image processing, and program | |
US11682234B2 (en) | Texture map generation using multi-viewpoint color images | |
JP2021044710A (en) | Image processing apparatus, image processing method and program | |
CN109427089B (en) | Mixed reality object presentation based on ambient lighting conditions | |
JP6896811B2 (en) | Image processing equipment, image processing methods, and programs | |
WO2018180860A1 (en) | Image processing device, image processing method, and program | |
JP2021145385A (en) | Image processing apparatus, image processing method, and program | |
JP2015114783A (en) | Image processor, control method thereof and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190509 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200924 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210316 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210402 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6864449 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |