JP7421607B2 - Image processing device and method - Google Patents

Image processing device and method Download PDF

Info

Publication number
JP7421607B2
JP7421607B2 JP2022122013A JP2022122013A JP7421607B2 JP 7421607 B2 JP7421607 B2 JP 7421607B2 JP 2022122013 A JP2022122013 A JP 2022122013A JP 2022122013 A JP2022122013 A JP 2022122013A JP 7421607 B2 JP7421607 B2 JP 7421607B2
Authority
JP
Japan
Prior art keywords
image
image processing
height
wavelength
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022122013A
Other languages
Japanese (ja)
Other versions
JP2022136304A (en
Inventor
緑 稲葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022122013A priority Critical patent/JP7421607B2/en
Publication of JP2022136304A publication Critical patent/JP2022136304A/en
Application granted granted Critical
Publication of JP7421607B2 publication Critical patent/JP7421607B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、内部散乱光を考慮して半透明物体を再現する画像処理に関する。 The present invention relates to image processing that reproduces translucent objects by taking internally scattered light into account.

近年、コンピュータグラフィクス(CG)分野において、物体表面だけでなく物体内部で光が散乱する半透明物体を描画する技術が発展した。ここで、特に人肌は、内部散乱光の再現のみでなく、表面の皺、毛穴などの再現も重要であるため、描画処理の難易度が高い。皺や毛穴などの表面形状を以下では「物体表面の微細凹凸(fine irregurality of an object surface: FIOS)」と呼ぶことにする。また、半透明物体は、白濁したガラスやプラスチック、濁った液体、生体細胞など、その内部で光の透過と散乱が生じる物体である。 In recent years, in the field of computer graphics (CG), technology has been developed to draw translucent objects in which light is scattered not only on the object's surface but also inside the object. Here, human skin is particularly difficult to draw because it is important not only to reproduce internally scattered light but also to reproduce surface wrinkles, pores, and the like. Surface shapes such as wrinkles and pores are hereinafter referred to as "fine irregularities of an object surface (FIOS)." A translucent object is an object in which light is transmitted and scattered, such as cloudy glass or plastic, cloudy liquid, or biological cells.

内部散乱光の再現手法として、特許文献1に開示された方法が知られている。特許文献1は、複数点におけるサンプリングを行い、双方向散乱面反射率分布関数(BSSRDF)を用いて画素値を積分し、暈し処理を行う。画像値の波長チャネルごとに暈け量が異なる暈し処理を行って内部散乱光を再現する手法も知られている。また、FIOSの再現手法として、表面形状を表すバンプマップを用いる処理がある。CGにより人肌を再現する場合、通常、FIOSを再現した後、暈し処理を実行する。 As a method for reproducing internally scattered light, the method disclosed in Patent Document 1 is known. Patent Document 1 performs sampling at multiple points, integrates pixel values using a bidirectional scattering surface reflectance distribution function (BSSRDF), and performs blurring processing. A method is also known in which internally scattered light is reproduced by performing blurring processing in which the amount of blurring differs for each wavelength channel of an image value. Furthermore, as a method for reproducing FIOS, there is a process that uses a bump map that represents the surface shape. When reproducing human skin using CG, blurring processing is usually performed after reproducing FIOS.

図1により内部散乱光の影響を受けたFIOSをもつ半透明物体のアピアランスを説明する。図1は、半透明物体101に光が入射した場合の内部散乱光の拡がりを断面方向から示す。図1(a)に示すように、半透明物体101の表面に垂直な方向から光が入射した場合、出射光は短波長光Bに比べ長波長光Rが大きく拡がる特徴を示す。 Figure 1 explains the appearance of a translucent object with FIOS affected by internally scattered light. FIG. 1 shows the spread of internally scattered light when light is incident on a translucent object 101 from a cross-sectional direction. As shown in FIG. 1(a), when light enters the surface of a semi-transparent object 101 from a direction perpendicular to the surface, the output light exhibits a characteristic in which long-wavelength light R is spread more widely than short-wavelength light B.

一方、図1(b)は、半透明物体101に斜めに光が入射した場合を示す。斜めから入射した光は、入射方向に拡がる特徴をもつ。そのため、斜めにカットされた半透明物体101の右部(以下、カット部)は、本来ならば光が入射せずシャドウが生じる部分であるが、内部散乱光が出射するためカット部が明るくなる。このとき、より拡がり易い長波長光がカット部からより多く出射し、内部散乱光がない場合はシャドウ部であるカット部が内部散乱光によって赤くかつ明るく観察される。内部散乱光がない場合はシャドウ部であるカット部は、人肌の場合、皺や毛穴などのFIOSに相当する。 On the other hand, FIG. 1(b) shows a case where light is obliquely incident on the semitransparent object 101. Light incident obliquely has the characteristic of spreading in the direction of incidence. Therefore, the right side of the diagonally cut translucent object 101 (hereinafter referred to as the cut part) is a part where no light would normally enter and a shadow would occur, but the cut part becomes brighter because internally scattered light is emitted. . At this time, more long-wavelength light that spreads more easily is emitted from the cut portion, and if there is no internally scattered light, the cut portion, which is a shadow portion, is observed to be red and bright due to the internally scattered light. The cut portion, which is a shadow portion when there is no internally scattered light, corresponds to FIOS such as wrinkles and pores in human skin.

特許文献1の技術は、FIOSの影響を考慮せず一様に暈し処理を行うため、FIOSが赤くかつ明るくなる特徴を再現することができない。FIOSは半透明物体のアピアランスに大きく影響することから、この内部散乱光によりFIOSが赤くかつ明るくなる特徴(以下、明度上昇)を、忠実に再現する必要がある。 The technique of Patent Document 1 uniformly performs blurring processing without considering the influence of FIOS, and therefore cannot reproduce the characteristics of FIOS becoming red and bright. Since FIOS greatly affects the appearance of translucent objects, it is necessary to faithfully reproduce the characteristic of FIOS becoming red and bright due to internally scattered light (hereinafter referred to as brightness increase).

特表2006-506742号公報Special Publication No. 2006-506742

本発明は、内部散乱光を考慮して半透明物体を再現することを目的とする。 The present invention aims to reproduce a translucent object by considering internally scattered light.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。 The present invention includes the following configuration as one means for achieving the above object.

本発明にかかる画像処理装置は、表面に凹凸を有する被写体を撮像して得られる第1画像を入力する入力手段と、
前記第1画像を撮像した際の照明光とは異なる照明光を、前記第1画像中の前記被写体に仮想的に投影して撮像した場合に得られる第2画像を、前記第1画像を補正することにより生成する生成手段と
を備え、
前記生成手段は、前記第2画像において、前記凹凸によって生じるシャドウ領域の一部がその他のシャドウ領域より赤くなるように前記第1画像を補正し、
前記一部は、前記その他のシャドウ領域より赤くかつ明るい
ことを特徴とする。
An image processing apparatus according to the present invention includes an input means for inputting a first image obtained by capturing an image of a subject having an uneven surface;
A second image obtained when the subject in the first image is virtually projected with illumination light different from the illumination light with which the first image was captured, and the first image is corrected. and generating means for generating by.
The generating means corrects the first image so that in the second image, a part of the shadow area caused by the unevenness becomes redder than other shadow areas ,
The part is redder and brighter than the other shadow area.
It is characterized by

本発明によれば、内部散乱光を考慮して半透明物体を再現することができる。例えば、内部散乱光による物体表面の微細凹凸(FIOS)の明度上昇の再現が可能になる。 According to the present invention, it is possible to reproduce a translucent object by considering internally scattered light. For example, it becomes possible to reproduce the increase in brightness of fine irregularities on the surface of an object (FIOS) due to internally scattered light.

内部散乱光の影響を受けたFIOSをもつ半透明物体のアピアランスを説明する図。A diagram illustrating the appearance of a translucent object with FIOS affected by internally scattered light. 実施例の画像処理装置として機能する情報処理装置の構成例を示すブロック図。FIG. 1 is a block diagram illustrating a configuration example of an information processing device that functions as an image processing device according to an embodiment. 画像処理装置の処理構成例を説明する図。FIG. 1 is a diagram illustrating an example of a processing configuration of an image processing device. 描画処理における法線マッピング法の概要を説明する図。FIG. 3 is a diagram illustrating an overview of a normal mapping method in drawing processing. 法線マッピング処理を詳細に説明する図。FIG. 4 is a diagram illustrating normal mapping processing in detail. 画像処理装置が実行する描画処理を説明するフローチャート。5 is a flowchart illustrating drawing processing executed by the image processing device. 高さ情報λ-hを説明する図。A diagram explaining height information λ-h. 法線マップ生成部による波長ごとの法線マップの生成処理を説明するフローチャート。5 is a flowchart illustrating a normal map generation process for each wavelength by a normal map generation unit. 算出画像生成部による算出画像の生成処理を説明するフローチャート。5 is a flowchart illustrating calculation image generation processing by a calculation image generation unit. 陰影処理を説明する図。FIG. 3 is a diagram illustrating shading processing. 実施例2の画像処理装置の処理構成例を示すブロック図。FIG. 3 is a block diagram showing an example of a processing configuration of an image processing apparatus according to a second embodiment. 画像処理装置が実行する描画処理を説明するフローチャート。5 is a flowchart illustrating drawing processing executed by the image processing device. 内部散乱光の回り込みの概念で示す図。A diagram illustrating the concept of wraparound of internally scattered light. 実施例3の高周波数エリアの選択処理を含む波長ごとの法線マップの作成処理を説明するフローチャート。10 is a flowchart illustrating a process for creating a normal map for each wavelength including a process for selecting a high frequency area according to the third embodiment.

以下、本発明にかかる実施例の画像処理装置および画像処理方法を図面を参照して詳細に説明する。なお、実施例は特許請求の範囲にかかる本発明を限定するものではなく、また、実施例において説明する構成の組み合わせのすべてが本発明の解決手段に必須とは限らない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Image processing apparatuses and image processing methods according to embodiments of the present invention will be described in detail below with reference to the drawings. Note that the examples do not limit the scope of the claimed invention, and not all combinations of configurations described in the examples are essential to the solution of the invention.

近年、撮影画像に対して照明光を変更、追加するリライティングと呼ばれる画像処理手法が提案されている。リライティング処理は、対象物の形状情報を用いて、新たな照明環境下における描画処理を行う。特に人肌のリライティング処理を行う場合、内部散乱光の影響を考慮しないと、実際の人肌と異なる、不自然なアピアランスを生じる。 In recent years, an image processing method called relighting that changes or adds illumination light to a captured image has been proposed. The relighting process uses the shape information of the object to perform drawing processing under a new lighting environment. Particularly when relighting human skin, if the influence of internally scattered light is not taken into account, an unnatural appearance that differs from actual human skin will result.

以下の実施例においては、内部散乱光が物体表面の微細凹凸(FIOS)のアピアランスに与える影響を考慮した半透明物体の再現手法を説明する。人肌の忠実な再現を行うため、人肌が撮影された画像領域に理想のFIOS形状(キメ)を付加し、実施例で説明する再現手法を適用すれば、人肌における忠実な内部散乱光の再現が可能になる。 In the following example, a method for reproducing a semi-transparent object will be described in consideration of the influence of internally scattered light on the appearance of fine irregularities (FIOS) on the surface of the object. In order to faithfully reproduce human skin, by adding an ideal FIOS shape (texture) to the image area where human skin is photographed and applying the reproduction method described in the example, it is possible to faithfully reproduce the internal scattered light of human skin. becomes possible to reproduce.

実施例1として、描画対象の物体の表面の微細凹凸(FIOS)を示す情報を波長に応じて変更する描画技術を用いる半透明物体の再現手法を説明する。 As Example 1, a method for reproducing a translucent object using a drawing technique that changes information indicating the fine irregularities (FIOS) on the surface of the object to be drawn according to the wavelength will be described.

[装置の構成]
図2のブロック図により実施例の画像処理装置として機能する情報処理装置の構成例を示す。マイクロプロセッサ(CPU)201は、メインメモリ202をワークメモリとして、記憶部203に格納されたプログラムなどを実行し、各種演算処理を行い、システムバス206を介して後述する構成を制御する。メインメモリ202は、例えばランダムアクセスメモリ(RAM)やリードオンリメモリ(ROM)から構成される。
[Device configuration]
The block diagram in FIG. 2 shows an example of the configuration of an information processing device that functions as an image processing device according to the embodiment. A microprocessor (CPU) 201 uses a main memory 202 as a work memory, executes programs stored in a storage unit 203, performs various arithmetic operations, and controls the configuration described below via a system bus 206. Main memory 202 is composed of, for example, random access memory (RAM) or read-only memory (ROM).

記憶部203は、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)であり、画像処理プログラム、描画対象の物体を表すデータや光源の特性データなどが格納される。入力部204は、キーボードやマウスなどであり、ユーザ操作やユーザ指示を入力するためのデバイスである。表示部205は、CPU201が生成した画像やユーザインタフェイス(UI)を液晶パネルなどのモニタ207に表示する。 The storage unit 203 is a hard disk drive (HDD) or solid state drive (SSD), and stores an image processing program, data representing an object to be drawn, characteristic data of a light source, and the like. The input unit 204 is a keyboard, a mouse, or the like, and is a device for inputting user operations and user instructions. The display unit 205 displays images and user interfaces (UI) generated by the CPU 201 on a monitor 207 such as a liquid crystal panel.

コンピュータ機器である情報処理装置は、図示しないネットワークインタフェイスを備えていてもよい。その場合、有線または無線ネットワークを介してサーバ装置にアクセスし、サーバ装置から各種プログラムや特性データを取得したり、演算処理結果をサーバ装置に出力することができる。また、情報処理装置は、後述する画像処理を実現するプログラムを実行するタブレットやスマートフォンでもよく、その場合、モニタ207と入力部204は一体化されたタッチパネルとして提供される。 The information processing device, which is a computer device, may include a network interface (not shown). In that case, the server device can be accessed via a wired or wireless network, various programs and characteristic data can be acquired from the server device, and arithmetic processing results can be output to the server device. Further, the information processing device may be a tablet or a smartphone that executes a program for implementing image processing, which will be described later. In that case, the monitor 207 and the input unit 204 are provided as an integrated touch panel.

●画像処理装置
図3により画像処理装置の処理構成例を説明する。図3に示す処理構成は、CPU201が画像処理プログラムを実行することにより実現される。入力部301-305は、システムバス206を介して次の情報をそれぞれ入力する。
●Image processing device An example of the processing configuration of the image processing device will be explained with reference to FIG. The processing configuration shown in FIG. 3 is realized by the CPU 201 executing an image processing program. Input units 301-305 each input the following information via system bus 206.

頂点情報の入力部301は、記憶部203などから描画対象の物体の形状を表す頂点情報を入力する。光源情報の入力部302は、記憶部203または入力部204などから光源情報を入力する。拡散色情報の入力部303は、記憶部203などから描画対象の物体の色を表す拡散色マップを入力する。FIOS情報の入力部304は、記憶部203などから、FIOSの第一の情報FIOS1として描画対象の物体の表面の相対的な高さを表す、詳細を後述する高さマップを入力する。高さ情報λ-hの入力部305は、記憶部203または入力部204などから、詳細を後述する高さ情報λ-hを入力する。 The vertex information input unit 301 inputs vertex information representing the shape of the object to be drawn from the storage unit 203 or the like. The light source information input unit 302 inputs light source information from the storage unit 203, the input unit 204, or the like. The diffuse color information input unit 303 inputs a diffuse color map representing the color of the object to be drawn from the storage unit 203 or the like. The FIOS information input unit 304 inputs, from the storage unit 203 or the like, a height map, which will be described in detail later, which represents the relative height of the surface of the object to be drawn, as first information FIOS1 of the FIOS. The height information λ-h input unit 305 receives height information λ-h, the details of which will be described later, from the storage unit 203 or the input unit 204.

頂点処理部306は、入力された頂点情報に基づき頂点処理を行い、頂点処理結果を算出画像生成部308に出力する。法線マップ生成部307は、高さマップFIOS1と高さ情報λ-hに基づき、FIOSの第二の情報FIOS2として波長ごとの法線マップを作成し、それら法線マップFIOS2iを算出画像生成部308に出力する。 The vertex processing unit 306 performs vertex processing based on the input vertex information, and outputs the vertex processing result to the calculated image generation unit 308. The normal map generation unit 307 creates a normal map for each wavelength as second information FIOS2 of FIOS based on the height map FIOS1 and height information λ-h, and calculates these normal maps FIOS2i.The image generation unit Output to 308.

算出画像生成部308は、描画処理部309と画像合成部310を有する。描画処理部309は、頂点処理部306の頂点処理結果、光源情報、拡散色マップ、法線マップ生成部307から入力される波長ごとの法線マップFIOS2iに基づき、波長ごとに陰影処理を含む描画処理を行う。画像合成部310は、描画処理部309が作成した波長ごとのオブジェクトである陰影処理画像を合成した合成画像生成する。合成画像は、描画対象の物体を表す算出画像として出力部311から出力される。 The calculated image generation section 308 includes a drawing processing section 309 and an image composition section 310. The drawing processing unit 309 performs drawing including shading processing for each wavelength based on the vertex processing result of the vertex processing unit 306, the light source information, the diffuse color map, and the normal map FIOS2i for each wavelength input from the normal map generation unit 307. Perform processing. The image composition unit 310 generates a composite image by combining the shadow-processed images, which are objects for each wavelength created by the drawing processing unit 309. The composite image is output from the output unit 311 as a calculated image representing the object to be drawn.

[法線マッピング法の概要]
FIOSは微細であるため、ポリゴンを用いてFIOSを描画すれば膨大なデータ量の演算が必要になる。そのため、少ない演算量でFIOSを再現する手法が必要になる。法線マッピング法は、ポリゴンの代わりに法線方向を格納した画像データ(法線マップ)を用いることで疑似的にFIOSを再現する手法である。
[Overview of normal mapping method]
Since FIOS is minute, drawing FIOS using polygons requires computation of a huge amount of data. Therefore, a method is needed to reproduce FIOS with a small amount of calculation. The normal mapping method is a method of pseudo-reproducing FIOS by using image data (normal map) that stores normal directions instead of polygons.

図4により描画処理における法線マッピング法の概要を説明する。図4(a)に示すように、平面上において法線は常に上向きである。図4(b)に示すように斜面が含まれる場合、斜面上の法線と平面上の法線の間に傾きが発生する。図4(c)に示すように、斜面の法線を平面に割り当てると、斜面同様にシャドウが発生するため、平面ではあるが斜面が存在するようなアピアランスを与えることができる。言い替えれば、法線マップによって、描画するオブジェクトの面の傾きを表すことができる。また、法線マッピング処理によって描画されるオブジェクトの精度は、法線マップに格納される法線の数の密度に依存する。 An overview of the normal mapping method in drawing processing will be explained with reference to FIG. As shown in FIG. 4(a), the normal line always points upward on the plane. When a slope is included as shown in FIG. 4(b), a tilt occurs between the normal on the slope and the normal on the plane. As shown in FIG. 4(c), when the normal of a slope is assigned to a plane, a shadow is generated in the same way as the slope, so it is possible to give the appearance of a slope even though it is a plane. In other words, the normal map can represent the inclination of the surface of the object to be drawn. Furthermore, the accuracy of objects drawn by normal mapping processing depends on the density of the number of normals stored in the normal map.

図5により法線マッピング処理を詳細に説明する。FIOS情報は、例えば、描画対象の物体の基準面と同じ高さを示す値として「0.0」、基準面から最も高い位置を示す値として「1.0」を有する。高さマップFIOS1は、FIOS情報の値0.0から1.0を示すグレイスケールデータである。例えば、描画対象の物体のFIOSの底(最深部)を基準面とすればよい。あるいは、FIOSを除く描画対象の物体の平均的な表面を基準面としてFIOS情報を作成してもよい。この場合、FIOS情報が正負の値を有することになるので、FIOS情報の最小値(負値)を「0.0」として正規化を行うことで、最深部が「0.0」、最も高い位置が「1.0」を有するFIOS情報が得られる。 The normal mapping process will be explained in detail with reference to FIG. The FIOS information has, for example, "0.0" as a value indicating the same height as the reference plane of the object to be drawn, and "1.0" as a value indicating the highest position from the reference plane. The height map FIOS1 is gray scale data indicating values of FIOS information from 0.0 to 1.0. For example, the bottom (deepest part) of the FIOS of the object to be drawn may be used as the reference plane. Alternatively, FIOS information may be created using the average surface of the object to be drawn, excluding FIOS, as a reference plane. In this case, the FIOS information has positive and negative values, so by normalizing the FIOS information with the minimum value (negative value) as "0.0", the deepest point is "0.0" and the highest point is "1.0". FIOS information with ” is obtained.

法線マップ生成部307は、高さマップFIOS1から高さの変化を取得し、高さの変化に基づくベクトル情報(法線の単位ベクトル)を各画素に格納した法線マップFIOS2を生成する。なお、高さマップから法線マップを作成する例を挙げたが、高さ情報λ-hが取得可能な情報に基づき法線マップを作成してもよいし、法線マップが直接入力されてもよい。 The normal map generation unit 307 acquires the change in height from the height map FIOS1, and generates a normal map FIOS2 in which vector information (unit vector of normal) based on the change in height is stored in each pixel. Although we have given an example of creating a normal map from a height map, it is also possible to create a normal map based on information that can obtain height information λ-h, or if the normal map is input directly. Good too.

また、描画処理部309は、法線マップFIOS2と同様にベクトル情報を格納した照明マップを光源情報から生成する。照明マップの各画素は、光源を向き、入射光量に対応する長さを有するベクトルを格納する。法線マップFIOS2と照明マップの対応する画素のベクトルの内積をとると、描画すべき画素の輝度値が算出される。 Furthermore, the drawing processing unit 309 generates an illumination map storing vector information from the light source information, similar to the normal map FIOS2. Each pixel of the illumination map stores a vector oriented toward a light source and having a length corresponding to the amount of incident light. By taking the inner product of the vectors of the corresponding pixels of the normal map FIOS2 and the illumination map, the brightness value of the pixel to be drawn is calculated.

[描画処理」
図6のフローチャートにより画像処理装置が実行する描画処理を説明する。入力部301は、描画対象の物体の形状を表す頂点情報を入力する(S601)。頂点処理部306は、入力された頂点情報に基づき頂点処理を行う(S602)。頂点処理には、頂点シェーダ、クリッピング、透視変換、ビューポート変換などのCG処理が含まれるが、それらの手法は既知であり、説明を省略する。
[Drawing processing]
The drawing process executed by the image processing device will be explained with reference to the flowchart in FIG. The input unit 301 inputs vertex information representing the shape of the object to be drawn (S601). The vertex processing unit 306 performs vertex processing based on the input vertex information (S602). Vertex processing includes CG processing such as a vertex shader, clipping, perspective transformation, and viewport transformation, but these techniques are well known and will not be described here.

次に、入力部302は、光源情報を入力する(S603)。光源情報は、光源の波長ごとの明るさ情報である分光放射輝度と仮想空間上の光源位置を示す。入力部303は、描画対象の物体の色を表す拡散色マップを入力する(S604)。入力部304は、描画対象の物体のFIOS情報である高さマップFIOS1を入力する(S605)。入力部305は、高さ情報λ-hを入力する(S606)。なお、各情報の入力順は一例であり、上記に限定されず、任意の順に各情報を入力することができる。 Next, the input unit 302 inputs light source information (S603). The light source information indicates spectral radiance, which is brightness information for each wavelength of the light source, and the light source position in virtual space. The input unit 303 inputs a diffuse color map representing the color of the object to be drawn (S604). The input unit 304 inputs the height map FIOS1, which is FIOS information of the object to be drawn (S605). The input unit 305 inputs height information λ-h (S606). Note that the input order of each piece of information is an example, and is not limited to the above, and each piece of information can be input in any order.

図7により高さ情報λ-hを説明する。高さ情報λ-hは、波長と、高さマップの高さの最大値の関係を示す。図7(a)は高さ情報λ-hの一例であり、波長λiにおける高さマップの高さの最大値hを示すテーブル形式のデータである。例えば波長w1が赤(R)成分、波長w2が緑(G)成分、波長w3が青(B)成分に対応すると仮定するとw1>w2>w3の関係を有し、この場合、各波長に対応する高さの最大値の関係としてh1<h2<h3が設定される。つまり、高さ情報λ-hは、通常、長波長ほど小さな最大値hを有し、短波長ほど大きな最大値hを有する情報である。また、高さの最大値の関係としてh1=h2=h3を設定することで、不透明物体や半透明物体上の不透明物体による被覆部の明度上昇の処理を禁止することができる。 The height information λ-h will be explained with reference to FIG. The height information λ-h indicates the relationship between the wavelength and the maximum height of the height map. FIG. 7(a) is an example of height information λ-h, which is data in a table format indicating the maximum value h of the height of the height map at wavelength λi. For example, assuming that wavelength w1 corresponds to the red (R) component, wavelength w2 to the green (G) component, and wavelength w3 to the blue (B) component, there is a relationship of w1 > w2 > w3, and in this case, each wavelength corresponds to h1<h2<h3 is set as the relationship of the maximum height. In other words, the height information λ-h is information in which the longer the wavelength is, the smaller the maximum value h is, and the shorter the wavelength is, the larger the maximum value h is. Furthermore, by setting h1=h2=h3 as the relationship between the maximum height values, it is possible to prohibit the process of increasing the brightness of the covered portion due to an opaque object or an opaque object on a semi-transparent object.

法線ベクトルの向きの変化は図4に示すように斜面の傾きに依存する。図7(b)に示すように、最大値hが小さく傾きが小さい場合、法線ベクトルの向きは、平面に垂直な向き(図7(b)の破線矢印)に近い分布を示す。一方、最大値hが大きく、傾きが大きい場合、法線ベクトルの向きは、より分散した分布を示す。従って、長波長光ほど、最大値hを小さく設定して法線ベクトルの向きの変化を小さくし、短波長光ほど、最大値hを大きく設定して法線ベクトルの向きの変化を大きくすることができる。言い替えれば、波長λに対して高さの最大値hの差を与えることで、後述する画素値の計算処理において(内部散乱光がない場合はシャドウ部である)FIOSの明度上昇を得る。 Changes in the direction of the normal vector depend on the inclination of the slope, as shown in Figure 4. As shown in FIG. 7(b), when the maximum value h is small and the slope is small, the direction of the normal vector exhibits a distribution close to the direction perpendicular to the plane (dashed line arrow in FIG. 7(b)). On the other hand, when the maximum value h is large and the slope is large, the direction of the normal vector shows a more dispersed distribution. Therefore, the longer the wavelength of light, the smaller the maximum value h is set to reduce the change in the direction of the normal vector, and the shorter the wavelength light, the larger the maximum value h is set to make the change in the normal vector direction larger. Can be done. In other words, by giving a difference in the maximum height value h to the wavelength λ, the brightness of the FIOS (which is a shadow part when there is no internally scattered light) is obtained in the pixel value calculation process described later.

図7(c)は、図7(a)に示す高さ情報λ-hを用いて高さマップFIOS1iを生成する場合の高さマップFIOS1の値(横軸)と、高さマップFIOS1iの値(縦軸)関係を示す。なお、高さマップの値と高さの関係の定義はテーブル形式に限定されず、多項式などを用いて定義してもよい。 Figure 7(c) shows the value of the height map FIOS1 (horizontal axis) and the value of the height map FIOS1i when the height map FIOS1i is generated using the height information λ-h shown in Figure 7(a). (Vertical axis) shows the relationship. Note that the definition of the relationship between the value of the height map and the height is not limited to a table format, and may be defined using a polynomial or the like.

次に、法線マップ生成部307は、高さマップFIOS1と高さ情報λ-hを用いて、波長ごとの法線マップFIOS2を生成する(S607)。算出画像生成部308は、ステップS602からS607において入力または生成された情報を用いて、陰影処理を含む画素値の計算処理(描画処理)を行って波長λiごとのオブジェクトである陰影処理画像を描画する(S608)。そして、波長λiごとのオブジェクトである陰影処理画像を合成し(S609)、合成によって得た算出画像を出力部311を介して出力する(S610)。描画対象の物体を表す算出画像は、表示部205によってモニタ207に表示されたり、記憶部203などに格納されたりする。 Next, the normal map generation unit 307 uses the height map FIOS1 and the height information λ-h to generate a normal map FIOS2 for each wavelength (S607). The calculated image generation unit 308 uses the information input or generated in steps S602 to S607 to perform pixel value calculation processing (drawing processing) including shading processing, and draws a shading processed image that is an object for each wavelength λi. (S608). Then, the shading processed images, which are objects for each wavelength λi, are combined (S609), and the calculated image obtained by the combination is outputted via the output unit 311 (S610). The calculated image representing the object to be drawn is displayed on the monitor 207 by the display unit 205 or stored in the storage unit 203 or the like.

●法線マップ生成部
図8のフローチャートにより法線マップ生成部307による波長ごとの法線マップの生成処理(S607)を説明する。法線マップ生成部307は、カウンタiを0に初期化し(S801)、高さ情報λ-hからi番目の波長λiおよび高さの最大値hiを取得する(S802)。例えば、図7(a)に示す高さ情報λ-hが入力された場合、最初は波長w1および最大値h1が取得される。続いて、法線マップ生成部307は、最大の高さを最大値hiとした波長λiの高さマップFIOS1iを作成し(S803)、高さマップFIOS1iに基づき波長λiの法線マップFIOS2iを作成する(S804)。なお、法線マップFIOS2iのヘッダ情報として対応する波長λiが記録される。
●Normal map generation unit The normal map generation process for each wavelength (S607) by the normal map generation unit 307 will be explained with reference to the flowchart of FIG. The normal map generation unit 307 initializes a counter i to 0 (S801), and obtains the i-th wavelength λi and the maximum height value hi from the height information λ-h (S802). For example, when the height information λ-h shown in FIG. 7(a) is input, the wavelength w1 and the maximum value h1 are initially obtained. Next, the normal map generation unit 307 creates a height map FIOS1i of the wavelength λi with the maximum height as the maximum value hi (S803), and creates a normal map FIOS2i of the wavelength λi based on the height map FIOS1i. (S804) Note that the corresponding wavelength λi is recorded as header information of the normal map FIOS2i.

次に、法線マップ生成部307は、カウンタiをインクリメントし(S805)、カウント値iと高さ情報λ-hの波長数Nを比較することで、波長ごとの法線マップの生成処理を終了するか否かを判定する(S806)。つまり、i≦Nであれば処理をステップS802に戻して次の波長λiの法線マップを作成し、i>Nであれば波長ごとの法線マップの生成処理を終了する。 Next, the normal map generation unit 307 increments the counter i (S805) and compares the count value i with the number of wavelengths N of the height information λ-h, thereby performing normal map generation processing for each wavelength. It is determined whether or not to end (S806). That is, if i≦N, the process returns to step S802 to create a normal map for the next wavelength λi, and if i>N, the normal map generation process for each wavelength ends.

●算出画像生成部
図9のフローチャートにより算出画像生成部308による算出画像の生成処理(S608-S609)を説明する。算出画像生成部308において、描画処理部309は、光源情報に基づき照明マップを生成し(S901)、カウンタiを0に初期化する(S902)。続いて、描画処理部309は、法線マップFIOS2iのヘッダ情報から波長λiを取得し(S903)、入力された拡散色マップから、波長λiに対応する拡散色マップを抽出する(S904)。そして、頂点処理結果、照明マップ、波長λiに対応する拡散色マップおよび法線マップFIOS2iを用いて陰影処理を含む描画処理を行い、波長λiのオブジェクトである陰影処理画像を生成する(S905)。
●Calculated Image Generation Unit Calculated image generation processing (S608-S609) by the calculated image generation unit 308 will be explained with reference to the flowchart in FIG. In the calculated image generation unit 308, the drawing processing unit 309 generates an illumination map based on the light source information (S901), and initializes a counter i to 0 (S902). Next, the drawing processing unit 309 obtains the wavelength λi from the header information of the normal map FIOS2i (S903), and extracts the diffuse color map corresponding to the wavelength λi from the input diffuse color map (S904). Then, drawing processing including shading processing is performed using the vertex processing result, the illumination map, the diffuse color map corresponding to the wavelength λi, and the normal line map FIOS2i to generate a shading processed image that is an object of the wavelength λi (S905).

波長ごとの陰影処理画像は、例えば、R成分、G成分またはB成分のグレイスケール画像に相当する。ただし、波長λiは、R成分、G成分またはB成分の主波長に限られず、三波長以上あればよく、波長λiの各陰影処理画像を合成することでフルカラー画像を得ることができればよい。 The shading processed image for each wavelength corresponds to, for example, a grayscale image of an R component, a G component, or a B component. However, the wavelength λi is not limited to the dominant wavelength of the R component, the G component, or the B component, and may be three or more wavelengths, as long as a full-color image can be obtained by combining each shading-processed image of the wavelength λi.

図10により陰影処理を説明する。図10(a)は波長w1、w2、w3の拡散色を示す。なお、前述したように波長はw1>w2>w3の関係にある。図10(b)は波長w1、w2、w3に対応する法線マップFIOS2iを示す。上述したように、各波長に対応する高さはh1≦h2≦h3の関係を有するため、法線マップFIOS2iにおいて、波長w3のベクトルの向きの変化に比べて、波長w1のベクトルの向きの変化は小さい。図10(c)はステップS905において作成される陰影処理画像を示す。長波長光になるほどベクトルの向きの変化が小さい法線マップFIOS2iを使用することで、波長w3のFIOSの明度に比べて、波長w1におけるFIOSの明度が増加し、図10(c)に示すような、明度上昇が得られる。 Shading processing will be explained with reference to FIG. FIG. 10(a) shows the diffused colors of wavelengths w1, w2, and w3. Note that, as described above, the wavelengths have a relationship of w1>w2>w3. FIG. 10(b) shows the normal map FIOS2i corresponding to wavelengths w1, w2, and w3. As mentioned above, the height corresponding to each wavelength has the relationship h1≦h2≦h3, so in the normal map FIOS2i, the change in the direction of the vector of wavelength w1 is smaller than the change in the direction of the vector of wavelength w3. is small. FIG. 10(c) shows the shading processed image created in step S905. By using the normal map FIOS2i, in which the direction of the vector changes less as the wavelength becomes longer, the brightness of the FIOS at wavelength w1 increases compared to the brightness of FIOS at wavelength w3, as shown in Figure 10(c). You can get an increase in brightness.

次に、描画処理部309は、カウンタiをインクリメントし(S906)、カウント値iと法線マップFIOS2の数Nを比較することで、描画処理を終了するか否かを判定する(S907)。つまり、i≦Nであれば処理をステップS902に戻して、次の波長λiの描画処理を行い、i>Nであれば描画処理を終了する。描画処理が終了すると、画像合成部310は、波長λiの各陰影処理画像を合成したカラー画像を算出画像として生成し(S908)、算出画像の生成処理が終了する。 Next, the drawing processing unit 309 increments the counter i (S906) and compares the count value i with the number N of normal maps FIOS2 to determine whether or not to end the drawing process (S907). That is, if i≦N, the process returns to step S902 and the drawing process for the next wavelength λi is performed, and if i>N, the drawing process ends. When the drawing process is completed, the image composition unit 310 generates a color image by combining the shadow-processed images of the wavelength λi as a calculated image (S908), and the calculation image generation process ends.

このように、(内部散乱光がない場合はシャドウ部である)FIOSの明度上昇により、FIOSが赤くかつ明るくなる特徴を再現することができ、内部散乱特性をもつ半透明物体をより忠実に再現することが可能になる。 In this way, by increasing the brightness of FIOS (which is a shadow area when there is no internally scattered light), it is possible to reproduce the red and bright characteristics of FIOS, and more faithfully reproduce translucent objects with internal scattering characteristics. It becomes possible to do so.

上記では、第一の表面微細凹凸情報として入力した高さマップFIOS1を、第二の表面微細凹凸情報である波長ごとの法線マップFIOS2iに変換する例を説明したが、第一および第二の表面微細凹凸情報は高さマップや法線マップに限定されない。例えば、カメラや測距装置などによって測定された距離情報など、FIOS情報を含む情報であれば使用可能である。また、FIOS1からFIOS2iへの変換も、高さマップの高さを変更する方法だけでなく、波長ごとに異なる暈し処理をFIOS1に施す方法も利用可能である。 In the above, an example was explained in which the height map FIOS1 input as the first surface fine unevenness information is converted to the normal map FIOS2i for each wavelength, which is the second surface fine unevenness information. Surface fine unevenness information is not limited to a height map or a normal line map. For example, any information that includes FIOS information, such as distance information measured by a camera or distance measuring device, can be used. Furthermore, when converting from FIOS1 to FIOS2i, it is possible to use not only the method of changing the height of the height map, but also the method of applying different blurring processing to FIOS1 for each wavelength.

以下、本発明にかかる実施例2の画像処理装置および画像処理方法を説明する。なお、実施例2において、実施例1と略同様の構成については、同一の符号を付して、その詳細な説明を省略する場合がある。 Embodiment 2 An image processing apparatus and an image processing method according to a second embodiment of the present invention will be described below. Note that in the second embodiment, components that are substantially the same as those in the first embodiment may be denoted by the same reference numerals, and detailed description thereof may be omitted.

実施例1の処理を行うと、FIOSの形状が波長ごとに異なるため、光沢の大きさや形状が波長ごとに多少異なって合成後に色ずれとして表れる場合がある。実施例2においては、光沢部の計算を一つの法線マップから別途行いし、光沢部の画像と陰影処理画像の合成を行うことで、光沢部における色ずれを解消する。 When the processing of Example 1 is performed, since the shape of FIOS differs depending on the wavelength, the size and shape of the gloss may differ somewhat depending on the wavelength, which may appear as color shift after synthesis. In the second embodiment, the calculation of the glossy part is performed separately from one normal map, and the image of the glossy part and the shading processed image are combined to eliminate color shift in the glossy part.

図11のブロック図により画像処理装置の処理構成例を示す。実施例2の画像処理装置の構成は、図3に示す構成に、光沢画像計算部321と光沢画像合成部322を加えたものである。光沢画像計算部321は、法線マップ生成部307から取得した一つの法線マップFIOS2iと、描画処理部309から取得した照明マップを用いて光沢画像を描画し、光沢画像を光沢画像合成部322に出力する。 The block diagram in FIG. 11 shows an example of the processing configuration of the image processing device. The configuration of the image processing device of Example 2 is such that a glossy image calculation section 321 and a glossy image composition section 322 are added to the configuration shown in FIG. The glossy image calculation unit 321 draws a glossy image using one normal map FIOS2i acquired from the normal map generation unit 307 and the illumination map acquired from the drawing processing unit 309, and converts the glossy image into a glossy image composition unit 322. Output to.

光沢画像合成部322は、算出画像生成部308から入力される陰影処理画像の合成画像と光沢画像計算部321から入力される光沢画像を合成した算出画像を生成する。なお、陰影処理画像の合成画像に既に光沢部がある場合、光沢画像合成部322は、当該光沢部を削除するなどの処理を行った後、陰影処理画像の合成画像に光沢画像を合成する。 The glossy image composition unit 322 generates a calculated image by combining the composite image of the shading processed image inputted from the calculated image generation unit 308 and the glossy image inputted from the glossy image calculation unit 321. Note that if the composite image of the shading-processed image already has a glossy part, the glossy image composition unit 322 performs processing such as deleting the glossy part, and then composites the glossy image with the composite image of the shading-processed image.

図12のフローチャートにより実施例2の画像処理装置が実行する描画処理を説明する。ステップS601-S609の処理は実施例1と同様であり、詳細説明を省略する。光沢画像合成部322は、法線マップ生成部307が作成した法線マップFIOS2iの一つおよび照明マップを取得し(S621)、それらを用いて光沢画像を描画する(S622)。 The drawing process executed by the image processing apparatus of the second embodiment will be explained with reference to the flowchart in FIG. The processing in steps S601-S609 is the same as in the first embodiment, and detailed explanation will be omitted. The glossy image synthesis unit 322 obtains one of the normal maps FIOS2i created by the normal map generation unit 307 and the illumination map (S621), and draws a glossy image using them (S622).

次に、光沢画像合成部322は、算出画像生成部308から入力される陰影処理画像の合成画像と光沢画像計算部321から入力される光沢画像を合成した算出画像を生成し(S623)、算出画像を出力部311を介して出力する(S624)。算出画像は、表示部205によってモニタ207に表示されたり、記憶部203などに格納されたりする。このように、光沢部の色ずれを解消することができる。 Next, the glossy image composition unit 322 generates a calculated image by combining the composite image of the shading processed image inputted from the calculated image generation unit 308 and the glossy image inputted from the glossy image calculation unit 321 (S623), and The image is output via the output unit 311 (S624). The calculated image is displayed on the monitor 207 by the display unit 205 or stored in the storage unit 203 or the like. In this way, color shift in the glossy portion can be eliminated.

以下、本発明にかかる実施例3の画像処理装置および画像処理・方法を説明する。なお、実施例3において、実施例1、2と略同様の構成については、同一の符号を付して、その詳細な説明を省略する場合がある。 Embodiment 3 An image processing apparatus and an image processing/method according to a third embodiment of the present invention will be described below. Note that in the third embodiment, components that are substantially the same as those in the first and second embodiments are denoted by the same reference numerals, and detailed description thereof may be omitted.

実施例3として、内部散乱光の影響が顕著に表れる、FIOSの空間周波数が高周波数になるエリア(以下、高周波数エリア)に選択的に半透明物体の再現手法を適用する手法を説明する。図13により内部散乱光の回り込みの概念で示す。図13(a)はFIOSの空間周波数が高周波数の半透明物体(以下、高周波数物体)における内部散乱光の回り込みを示し、図13(b)はFIOSの空間周波数が低周波数の半透明物体(以下、低周波数物体)に対する内部散乱光の回り込みを示す。 As a third embodiment, a method will be described in which a translucent object reproduction method is selectively applied to an area where the spatial frequency of FIOS is high (hereinafter referred to as a high frequency area) where the influence of internally scattered light is noticeable. FIG. 13 shows the concept of wraparound of internally scattered light. Figure 13(a) shows the wrap-around of internally scattered light in a semi-transparent object with a high FIOS spatial frequency (hereinafter referred to as a high-frequency object), and Figure 13(b) shows a semi-transparent object with a low FIOS spatial frequency. (hereinafter referred to as a low-frequency object) shows the wraparound of internally scattered light.

図13(a)に示すように、高周波数物体の内部における光の移動距離は短い。一方、図13(b)に示すように、低周波数物体の内部における光の移動距離は長い。吸収される光の量は、光の移動距離に応じて増加するため、高周波数物体から出射する光量は多く、低周波数物体から出射する光量は少なくなる。そのため、図13(b)に示す低周波数物体においては、明度上昇を必要とするほどの内部散乱光の出射はない。従って、内部散乱光の影響をより顕著に受ける高周波数エリアへの、半透明物体の再現手法の選択的な適用が効果的と言える。 As shown in FIG. 13(a), the distance that light travels inside a high-frequency object is short. On the other hand, as shown in FIG. 13(b), the distance that light travels inside a low-frequency object is long. Since the amount of absorbed light increases according to the distance traveled by the light, the amount of light emitted from a high frequency object is large, and the amount of light emitted from a low frequency object is small. Therefore, in the low-frequency object shown in FIG. 13(b), internally scattered light is not emitted to the extent that an increase in brightness is required. Therefore, it can be said that it is effective to selectively apply the translucent object reproduction method to high frequency areas that are more significantly affected by internally scattered light.

図14のフローチャートにより高周波数エリアの選択処理を含む波長ごとの法線マップの作成処理(S607)を説明する。カウンタiの初期化(S801)後、法線マップ作成部307は、FIOS情報(例えば高さマップFIOS1)に基づき高周波数エリアを抽出する(S811)。続いて、高さ情報λ-hからi番目の波長λiおよび高さの最大値hiを取得し(S802)、抽出した高周波数エリアについて、波長λiの高さマップFIOS1iを作成する(S812)。ステップS805、S806の処理は実施例1と同様であり、詳細説明を省略する。 The normal map creation process for each wavelength (S607) including the high frequency area selection process will be explained with reference to the flowchart in FIG. After initializing the counter i (S801), the normal map creation unit 307 extracts a high frequency area based on the FIOS information (for example, the height map FIOS1) (S811). Next, the i-th wavelength λi and the maximum height value hi are obtained from the height information λ-h (S802), and a height map FIOS1i of the wavelength λi is created for the extracted high frequency area (S812). The processing in steps S805 and S806 is the same as in the first embodiment, and detailed explanation will be omitted.

ステップS806の判定結果がi>Nになると、法線マップ作成部307は、高周波数エリアとして抽出しなかった非抽出エリアについて、所定の高さ(例えば、基準面の高さ)を示す情報を各波長λiの高さマップFIOS1iに設定する(S813)。そして、各波長λiの高さマップFIOS1iに基づき各波長λiの法線マップFIOS2iを作成し(S814)、波長ごとの法線マップの生成処理を終了する。 When the determination result in step S806 is i>N, the normal map creation unit 307 generates information indicating a predetermined height (for example, the height of the reference plane) for the non-extracted area that has not been extracted as a high frequency area. The height map FIOS1i for each wavelength λi is set (S813). Then, a normal map FIOS2i for each wavelength λi is created based on the height map FIOS1i for each wavelength λi (S814), and the normal map generation process for each wavelength is completed.

このように、高周波数エリアについて波長ごとに最大の高さが異なり、非抽出エリアについて高さ情報が一致した高さマップFIOS1iが作成される。従って、内部散乱光の影響が顕著に表れる、FIOSの空間周波数が高周波数になるエリアに選択的に半透明物体の再現手法を適用することができる。 In this way, a height map FIOS1i is created in which the maximum height differs for each wavelength in the high frequency area and the height information matches in the non-extracted area. Therefore, it is possible to selectively apply the translucent object reproduction method to areas where the spatial frequency of FIOS is high, where the influence of internally scattered light is noticeable.

[変形例]
例えば、光源が長波長光を含まない場合や、拡散色マップに長波長域の色が含まれない場合、明度上昇は観察されないか、観察されても極く僅かな場合がある。そのような場合の明度上昇の再現処理の負荷を低減するために、法線マップ生成部307は、拡散色マップや光源情報から波長ごとの法線マップFIOS2iを作成するか否かを決定してもよい。波長ごとの法線マップFIOS2iを作成しない場合、法線マップ生成部307は、高さマップFIOS1に対応する法線マップFIOS2を出力する。
[Modified example]
For example, if the light source does not include long wavelength light, or if the diffuse color map does not include colors in the long wavelength range, no increase in brightness, or even if it is observed, may be minimal. In order to reduce the load of reproduction processing of brightness increase in such a case, the normal map generation unit 307 determines whether to create a normal map FIOS2i for each wavelength from the diffuse color map and light source information. Good too. When not creating the normal map FIOS2i for each wavelength, the normal map generation unit 307 outputs the normal map FIOS2 corresponding to the height map FIOS1.

また、上記では、描画対象の物体が半透明物体であることを前提に説明を行った。半透明物体の一部が不透明物体に覆われている場合、不透明物体によって被覆されていない半透明物体の非被覆部が実施例1-3の再現手法の適用範囲である。その場合の被覆部は、当該再現手法の適用範囲外としてもよいし、波長ごとの法線マップFIOS2iを作成しないエリアとして、非被覆部と同様の再現手法を適用してもよい。 Furthermore, the above description has been made on the assumption that the object to be drawn is a translucent object. When a part of a translucent object is covered by an opaque object, the reproduction method of Examples 1-3 is applicable to the uncovered portion of the translucent object that is not covered by the opaque object. In this case, the covered portion may be outside the applicable range of the reproduction method, or the same reproduction method as for the non-covered portion may be applied as an area in which the normal map FIOS2i for each wavelength is not created.

また、描画対象の物体の表面に浅い角度(入射角90度に近い角度)で光が入射する場合、アピアランスに対する内部散乱光の影響は、反射光のそれに比べて小さくなる。従って、実施例3における高周波数エリアと同様に、描画対象の物体の表面に入射する照明光の入射角が所定角度未満のエリア(低入射角エリア)を抽出することも有効である。この場合、抽出エリアについて波長ごとに最大の高さが異なり、非抽出エリアについて高さ情報が一致した高さマップFIOS1iが作成され、各波長λiの高さマップFIOS1iに基づき各波長λiの法線マップFIOS2iが作成される。従って、内部散乱光の影響が顕著に表れる、低入射角エリアに選択的に半透明物体の再現手法を適用することができる。 Furthermore, when light enters the surface of the object to be drawn at a shallow angle (an angle of incidence close to 90 degrees), the influence of internally scattered light on appearance is smaller than that of reflected light. Therefore, similar to the high frequency area in Example 3, it is also effective to extract areas where the angle of incidence of illumination light that enters the surface of the object to be drawn is less than a predetermined angle (low incidence angle area). In this case, a height map FIOS1i with different maximum heights for each wavelength for the extraction area and matching height information for the non-extraction area is created, and the normal of each wavelength λi is created based on the height map FIOS1i of each wavelength λi. Map FIOS2i is created. Therefore, the translucent object reproduction method can be selectively applied to low incident angle areas where the influence of internally scattered light is noticeable.

[その他の実施例]
本発明は、上述の実施形態の一以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、一以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention provides a program that implements one or more functions of the above-described embodiments to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved through processing. It can also be implemented by a circuit (eg, ASIC) that implements one or more functions.

304 … 入力部、307 … 法線マップ生成部、309 … 描画処理部、310 … 画像合成部 304... Input section, 307... Normal map generation section, 309... Drawing processing section, 310... Image composition section

Claims (17)

表面に凹凸を有する被写体を撮像して得られる第1画像を入力する入力手段と、
前記第1画像を撮像した際の照明光とは異なる照明光を、前記第1画像中の前記被写体に仮想的に投影して撮像した場合に得られる第2画像を、前記第1画像を補正することにより生成する生成手段と
を備え、
前記生成手段は、前記第2画像において、前記凹凸によって生じるシャドウ領域の一部がその他のシャドウ領域より赤くなるように前記第1画像を補正し、
前記一部は、前記その他のシャドウ領域より赤くかつ明るい
ことを特徴とする画像処理装置。
an input means for inputting a first image obtained by imaging a subject having an uneven surface;
Correcting the first image to obtain a second image obtained when the subject in the first image is imaged by virtually projecting illumination light different from the illumination light with which the first image was captured. and generating means for generating by.
The generating means corrects the first image so that in the second image, a part of the shadow area caused by the unevenness becomes redder than other shadow areas ,
The part is redder and brighter than the other shadow area.
An image processing device characterized by:
前記シャドウ領域は、前記第2画像における前記凹凸によって生じる凹部の領域であり、前記凹凸における凸部と隣接している領域であることを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein the shadow region is a region of a concave portion caused by the concavo-convex portion of the second image, and is an area adjacent to a convex portion of the concave-convex portion. 前記第1画像は複数の色成分を有し、該複数の色成分は赤、青、緑であり、前記第1画像における各画素は前記複数の色成分それぞれの画素値を有することを特徴とする請求項1または請求項に記載の画像処理装置。 The first image has a plurality of color components, the plurality of color components are red, blue, and green, and each pixel in the first image has a pixel value of each of the plurality of color components. The image processing apparatus according to claim 1 or 2 . 前記生成手段は、前記一部における人肌の領域の画素について、前記画素値の赤、青、緑の比において赤の比が大きくなるように前記第1画像を補正することを特徴とする請求項に記載の画像処理装置。 The generating means corrects the first image so that the ratio of red in the red, blue, and green ratios of the pixel values becomes larger for pixels in the human skin area in the part. The image processing device according to item 3 . 前記第1画像から前記生成手段による補正後の前記第2画像への変化の度合いが、前記複数の色成分それぞれで互いに異なることを特徴とする請求項または請求項に記載の画像処理装置。 The image processing device according to claim 3 or 4 , wherein the degree of change from the first image to the second image after correction by the generating means is different for each of the plurality of color components. . 前記生成手段は、前記凹凸の高さを表す高さマップと、前記複数の色成分に対応する波長ごとに作成された高さ情報と、を用いて前記第1画像を補正することを特徴とする請求項乃至請求項の何れか1項に記載の画像処理装置。 The generating means corrects the first image using a height map representing the height of the unevenness and height information created for each wavelength corresponding to the plurality of color components. The image processing apparatus according to any one of claims 3 to 5 . 前記高さ情報は、前記高さマップにおいて前記赤の高さを制限するための情報であることを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 6 , wherein the height information is information for limiting the height of the red color in the height map. 前記生成手段は、前記凹凸の高さを表す高さマップと、前記複数の色成分に対応する波長ごとに作成された高さ情報と、を用いて法線マップを作成する作成手段を有し、
前記作成手段は、前記複数の色成分中に長波長光が存在する場合に前記法線マップを作成する請求項または請求項に記載の画像処理装置。
The generation means includes a creation means for creating a normal map using a height map representing the height of the unevenness and height information created for each wavelength corresponding to the plurality of color components. ,
8. The image processing apparatus according to claim 6 , wherein the creation means creates the normal map when long wavelength light is present in the plurality of color components.
前記作成手段は、前記第1画像中の前記被写体の領域が半透明体でない物体に被覆される領域である場合は、該領域の前記法線マップを作成しないことを特徴とする請求項に記載の画像処理装置。 9. The creating means does not create the normal map for the subject area in the first image if the area is covered by an object that is not a translucent object. The image processing device described. 前記生成手段は、前記第1画像を補正することによって得られた補正画像を前記第1画像に合成して前記第1画像を補正することを特徴とする請求項1乃至請求項の何れか1項に記載の画像処理装置。 9. The generating means corrects the first image by combining the corrected image obtained by correcting the first image with the first image. The image processing device according to item 1. 前記第2画像において、前記第1画像を撮像した際の照明光とは異なる照明光と前記被写体の表面とが成す角が浅い領域については、前記高さ情報は、前記高さマップにおいて前記赤の高さの制限を他の色成分の高さの制限と一致させることを特徴とする請求項乃至請求項の何れか1項に記載の画像処理装置。 In the second image, for a region where the angle formed between the illumination light different from the illumination light when the first image was captured and the surface of the subject is shallow, the height information is determined based on the red color in the height map. 10. The image processing apparatus according to claim 6 , wherein the height restriction of the color component matches the height restriction of other color components. 前記第2画像における前記被写体の光沢を表す光沢画像を計算する計算手段を有し、
前記生成手段は、前記光沢画像を前記第1画像に合成して前記第1画像を補正することを特徴とする請求項1乃至請求項10の何れか1項に記載の画像処理装置。
comprising calculation means for calculating a gloss image representing the gloss of the subject in the second image,
The image processing apparatus according to any one of claims 1 to 10 , wherein the generating unit composes the glossy image with the first image to correct the first image.
前記一部は、前記その他のシャドウ領域に比べて高周波領域であることを特徴とする請求項1乃至請求項10の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 10 , wherein the part is a high frequency region compared to the other shadow region. 前記一部は、前記シャドウ領域が複数である場合の一部のシャドウ領域であることを特徴とする請求項1乃至請求項13の何れか1項に記載の画像処理装置。 14. The image processing apparatus according to claim 1, wherein the part is a part of the shadow area when there is a plurality of shadow areas. 前記入力手段は、前記第1画像をサーバ装置からネットワークを介して取得することを特徴とする請求項1乃至請求項14の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 14 , wherein the input means acquires the first image from a server device via a network. 画像処理装置が行う画像処理方法であって、
前記画像処理装置の入力手段が、表面に凹凸を有する被写体を撮像して得られる第1画像を入力する入力工程と、
前記画像処理装置の生成手段が、前記第1画像を撮像した際の照明光とは異なる照明光を、前記第1画像中の前記被写体に仮想的に投影して撮像した場合に得られる第2画像を、前記第1画像を補正することにより生成する生成工程と
を備え、
前記生成工程では、前記第2画像において、前記凹凸によって生じるシャドウ領域の一部がその他のシャドウ領域より赤くなるように前記第1画像を補正し、
前記一部は、前記その他のシャドウ領域より赤くかつ明るい
ことを特徴とする画像処理方法。
An image processing method performed by an image processing device, the method comprising:
an input step in which the input means of the image processing device inputs a first image obtained by capturing an image of a subject having an uneven surface;
A second image obtained when the generating means of the image processing device virtually projects illumination light different from the illumination light used when capturing the first image onto the subject in the first image and captures the image. a generation step of generating an image by correcting the first image,
In the generation step, the first image is corrected so that in the second image, a part of the shadow area caused by the unevenness becomes redder than other shadow areas ,
The part is redder and brighter than the other shadow area.
An image processing method characterized by:
コンピュータを、請求項1乃至15の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。 A computer program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 15 .
JP2022122013A 2020-11-09 2022-07-29 Image processing device and method Active JP7421607B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022122013A JP7421607B2 (en) 2020-11-09 2022-07-29 Image processing device and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020186747A JP7116767B2 (en) 2020-11-09 2020-11-09 Image processing device and method
JP2022122013A JP7421607B2 (en) 2020-11-09 2022-07-29 Image processing device and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020186747A Division JP7116767B2 (en) 2020-11-09 2020-11-09 Image processing device and method

Publications (2)

Publication Number Publication Date
JP2022136304A JP2022136304A (en) 2022-09-15
JP7421607B2 true JP7421607B2 (en) 2024-01-24

Family

ID=74227829

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020186747A Active JP7116767B2 (en) 2020-11-09 2020-11-09 Image processing device and method
JP2022122013A Active JP7421607B2 (en) 2020-11-09 2022-07-29 Image processing device and method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020186747A Active JP7116767B2 (en) 2020-11-09 2020-11-09 Image processing device and method

Country Status (1)

Country Link
JP (2) JP7116767B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021410A (en) 2002-06-13 2004-01-22 Casio Comput Co Ltd Apparatus and method for image processing
WO2015166684A1 (en) 2014-04-30 2015-11-05 ソニー株式会社 Image processing apparatus and image processing method
JP2016005203A (en) 2014-06-18 2016-01-12 キヤノン株式会社 Image processing system and control method of the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6049327B2 (en) 2011-08-11 2016-12-21 キヤノン株式会社 Image processing apparatus and control method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021410A (en) 2002-06-13 2004-01-22 Casio Comput Co Ltd Apparatus and method for image processing
WO2015166684A1 (en) 2014-04-30 2015-11-05 ソニー株式会社 Image processing apparatus and image processing method
JP2016005203A (en) 2014-06-18 2016-01-12 キヤノン株式会社 Image processing system and control method of the same

Also Published As

Publication number Publication date
JP2021012751A (en) 2021-02-04
JP7116767B2 (en) 2022-08-10
JP2022136304A (en) 2022-09-15

Similar Documents

Publication Publication Date Title
JP4945642B2 (en) Method and system for color correction of 3D image
US6888544B2 (en) Apparatus for and method of rendering 3D objects with parametric texture maps
JP5731566B2 (en) Information processing apparatus, control method, and recording medium
JP5002742B2 (en) Apparatus and method for rendering 3D objects using parametric texture maps
JP3179392B2 (en) Image processing apparatus and image processing method
JP5615041B2 (en) Image processing apparatus and image processing method
US6816159B2 (en) Incorporating a personalized wireframe image in a computer software application
US9697642B2 (en) Image processing device and image processing method
US10529125B2 (en) Image processing device and method therefor
US11348309B2 (en) Augmented reality-based coloring method and apparatus, electronic device and storage medium
JP6049327B2 (en) Image processing apparatus and control method thereof
JP7421607B2 (en) Image processing device and method
JP2007272847A (en) Lighting simulation method and image composition method
US9317938B2 (en) Image processing apparatus and control method therefor
JPH0540833A (en) Color image control method
JP2000099763A (en) Image processor, image processing method, and providing medium
JPH09138865A (en) Three-dimensional shape data processor
KR101189687B1 (en) Method for creating 3d character
JP2017010508A (en) Program, recording medium, luminance computation device, and luminance computation method
WO2023181904A1 (en) Information processing device, information processing method, and recording medium
JPH0224785A (en) Method and device for shadowing processing
JP7190780B1 (en) Image processing program, image processing apparatus, and image processing method
JP2003168129A (en) Method, program, apparatus and system for three- dimensional image processing
Ahmed et al. Mimicking an object using multiple projectors
JP5808180B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240112

R151 Written notification of patent or utility model registration

Ref document number: 7421607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151