JP2017215247A - Image processor, image processing method, and program - Google Patents

Image processor, image processing method, and program Download PDF

Info

Publication number
JP2017215247A
JP2017215247A JP2016110290A JP2016110290A JP2017215247A JP 2017215247 A JP2017215247 A JP 2017215247A JP 2016110290 A JP2016110290 A JP 2016110290A JP 2016110290 A JP2016110290 A JP 2016110290A JP 2017215247 A JP2017215247 A JP 2017215247A
Authority
JP
Japan
Prior art keywords
image
reflection
processing apparatus
pixel
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016110290A
Other languages
Japanese (ja)
Inventor
佐野 利行
Toshiyuki Sano
利行 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016110290A priority Critical patent/JP2017215247A/en
Publication of JP2017215247A publication Critical patent/JP2017215247A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To accurately acquire color characteristics of an object.SOLUTION: Disclosed is an image processor for generating a color image representing color distribution of an object, the image processor including: acquisition means that acquires a first reflection image obtained by picking up first reflectance, which represents diffuse reflectance and surface reflectance of the object and a second reflection image obtained by picking up a second reflectance which represents the diffuse reflectance; and generation means that generates the color image based on the first reflection image and the second reflection image acquired by the acquisition means.SELECTED DRAWING: Figure 5

Description

本発明は、対象物の色特性を取得するための技術に関する。   The present invention relates to a technique for acquiring color characteristics of an object.

近年、絵画などの美術品の複製や保存を目的として、対象物の色特性を忠実に取得する技術が求められている。色特性を取得する方法としては、対象物から反射する光を撮像装置などにより取得する方法が一般的である。物体から反射する光は、対象物の表面で反射する表面反射光と、対象物の内部に進入した光が散乱、吸収されて再び対象物の表面から出てくる拡散反射光とに分類できる。表面反射光は、反射光の全成分の内の入射光に対して正反射方向に反射する成分であり、光の写り込み(光沢)として認識され、色としては認識されにくい。そこで、拡散反射光のみを取得する方法として、特許文献1には、光源と撮像装置との夫々に対して偏光子を設置し、光源の偏光子および撮像素子の偏光子を互いに直交ニコル状態に設定することで拡散反射光のみを取得する方法が記載されている。   In recent years, there has been a demand for a technique for faithfully acquiring the color characteristics of an object for the purpose of reproducing and preserving artwork such as paintings. As a method of acquiring color characteristics, a method of acquiring light reflected from an object with an imaging device or the like is common. The light reflected from the object can be classified into surface reflected light reflected on the surface of the object and diffuse reflected light that comes out of the surface of the object again after the light that has entered the object is scattered and absorbed. The surface reflected light is a component that reflects in the regular reflection direction with respect to the incident light among all the components of the reflected light, and is recognized as a reflection of light (gloss) and is difficult to recognize as a color. Therefore, as a method for acquiring only diffuse reflection light, Patent Document 1 discloses that a polarizer is installed for each of the light source and the imaging device, and the polarizer of the light source and the polarizer of the imaging device are in an orthogonal Nicols state. A method for obtaining only diffuse reflected light by setting is described.

特開2014−120791号公報Japanese Patent Application Laid-Open No. 2014-120791

表面に微細な凹凸を有するような対象物の場合、物体表面で反射する表面反射光が微細凹凸により様々な方向に反射するため、正反射方向以外であっても、物体から反射する光に、拡散反射光と表面反射光とが含まれる。このような光は四方に散乱された光であり、正反射方向に反射する光量よりも小さいため、光沢としては感じられないが、拡散反射光に対して無視できないほど大きい場合がある。特に、油彩画などの美術品には、1枚の画像の中に異なる凹凸パターンを有するものがあり、特許文献1のように表面反射光を除去した反射特性を色特性として取得すると、対象物中の位置によっては色が正しく取得できない場合があった。そこで、本発明では、対象物の各位置の情報に基づいて、対象物の色特性を高精度に取得する画像処理装置を提供することを目的とする。   In the case of an object having fine irregularities on the surface, the surface reflected light reflected on the object surface is reflected in various directions by the fine irregularities, so even in a direction other than the regular reflection direction, Diffuse reflected light and surface reflected light are included. Such light is scattered light in all directions and is smaller than the amount of light reflected in the regular reflection direction, so it cannot be felt as gloss, but it may be so large that it cannot be ignored with respect to diffusely reflected light. In particular, there are art objects such as oil paintings that have different uneven patterns in one image, and when the reflection characteristic obtained by removing the surface reflection light as in Patent Document 1 is acquired as the color characteristic, the object is obtained. In some cases, colors could not be acquired correctly. Therefore, an object of the present invention is to provide an image processing apparatus that acquires the color characteristics of an object with high accuracy based on information on each position of the object.

本発明は、対象物の色の分布を表す色画像を生成する画像処理装置であって、前記対象物の拡散反射光と表面反射光とを表す第1反射光を撮影することで得られる第1の反射画像と、前記拡散反射光を表す第2反射光を撮影することで得られる第2の反射画像とを取得する取得手段と、前記取得手段により取得された第1の反射画像と第2の反射画像とに基づき、前記色画像を生成する生成手段を有することを特徴とする画像処理装置である。   The present invention is an image processing apparatus that generates a color image representing a color distribution of an object, and is obtained by photographing first reflected light representing diffuse reflected light and surface reflected light of the object. Acquisition means for acquiring a first reflection image and a second reflection image obtained by photographing the second reflection light representing the diffuse reflection light; a first reflection image acquired by the acquisition means; An image processing apparatus comprising a generating unit configured to generate the color image based on the two reflected images.

本発明により、対象物の色特性を高精度に取得することが可能となる。   According to the present invention, it is possible to acquire the color characteristics of an object with high accuracy.

実施例1における画像処理装置の概略構成を示すブロック図1 is a block diagram illustrating a schematic configuration of an image processing apparatus according to a first embodiment. 実施例1における画像処理装置の機能構成を示すブロック図1 is a block diagram illustrating a functional configuration of an image processing apparatus according to a first embodiment. 実施例1における画像処理装置が実行する処理のフローチャート10 is a flowchart of processing executed by the image processing apparatus according to the first embodiment. 実施例1における光学系を示す図The figure which shows the optical system in Example 1. 実施例1における色画像生成処理のフローチャートFlowchart of color image generation processing in Embodiment 1 実施例1で扱う対象物における表面凹凸と反射特性との関係を示す図The figure which shows the relationship between the surface unevenness | corrugation in the target object handled in Example 1, and reflection characteristics 実施例2における分割撮影を説明する図FIG. 6 is a diagram for explaining divided shooting in the second embodiment. 実施例2における画像処理装置が実行する処理のフローチャートFlowchart of processing executed by image processing apparatus according to embodiment 2 実施例2における色画像生成処理のフローチャートFlowchart of color image generation processing in Embodiment 2 実施例3における画像処理装置の機能構成を示すブロック図FIG. 9 is a block diagram illustrating a functional configuration of an image processing apparatus according to a third embodiment. 実施例3における画像処理装置が実行する処理のフローチャートFlowchart of processing executed by image processing apparatus according to embodiment 3 実施例3における色画像生成処理のフローチャートFlowchart of color image generation processing in Embodiment 3 実施例4における色画像生成処理のフローチャートFlowchart of color image generation processing in Embodiment 4 実施例5における画像処理装置の機能構成を示すブロック図Block diagram showing a functional configuration of an image processing apparatus in Embodiment 5 実施例5における画像処理装置が実行する処理のフローチャートFlowchart of processing executed by image processing apparatus in embodiment 5. 実施例5におけるユーザーインターフェースUser interface in embodiment 5 実施例5における素材マップMaterial map in Example 5 実施例5における色画像生成処理のフローチャートFlowchart of color image generation processing in embodiment 5

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、以下で説明する特徴の組み合わせの全てが本発明の解決手段として必須のものとは限らない。なお、同一の構成要素については、同一の符号を付与する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the following embodiments do not limit the present invention, and all combinations of features described below are not necessarily essential as means for solving the present invention. In addition, the same code | symbol is provided about the same component.

[実施例1]
<画像処理装置の概略構成について>
図1は、本実施例における画像処理装置1の概略構成を示すブロック図である。画像処理装置1は、入力部101と、表示部102と、データ保存部103と、CPU104と、ROM105と、RAM106と、通信部107とを有する。入力部101は、ユーザからの指示を受け付け可能なデータを入力するための装置であり、マウスなどのポインティングデバイスやキーボードを含む。表示部102は、GUIなどを表示してユーザに情報を提示するための装置であり、例えばCRTや液晶ディスプレイなどである。データ保存部103は、画像データ、プログラムなどのデータを格納するための装置であり、通常は、ハードディスクが用いられる。CPU104は、上述の要素を含む画像処理装置1を構成する全要素を統括的に制御するための装置であり、各要素の処理全てに関わる。ROM105及びRAM106は、その処理に必要なプログラム、データ、作業領域などをCPU104に提供する。処理に必要な制御プログラムがデータ保存部103やROM105に格納されている場合、RAM106に読み込まれてからCPU104によって実行される。通信部107は、機器間の通信を行うためのインタフェースであり、例えば、EthernetやUSB、IEEE、Bluetoothなどの公知の通信方式の装置が用いられる。画像処理装置1が通信部107を経由してプログラムを受信する場合、データ保存部103に記録した後にRAM106に読み込まれて実行されるか、又は、通信部107からRAM106に直接読み込まれて実行される。なお、画像処理装置1は上記の物以外にも様々な要素を有するが、本発明の主眼ではないため、それらの説明は省略する。
[Example 1]
<About schematic configuration of image processing apparatus>
FIG. 1 is a block diagram illustrating a schematic configuration of an image processing apparatus 1 according to the present embodiment. The image processing apparatus 1 includes an input unit 101, a display unit 102, a data storage unit 103, a CPU 104, a ROM 105, a RAM 106, and a communication unit 107. The input unit 101 is a device for inputting data that can accept an instruction from a user, and includes a pointing device such as a mouse and a keyboard. The display unit 102 is a device for displaying a GUI or the like and presenting information to the user, and is, for example, a CRT or a liquid crystal display. The data storage unit 103 is a device for storing data such as image data and programs, and normally a hard disk is used. The CPU 104 is a device for comprehensively controlling all elements constituting the image processing apparatus 1 including the above-described elements, and is involved in all processing of each element. The ROM 105 and RAM 106 provide the CPU 104 with programs, data, work areas, and the like necessary for the processing. When a control program necessary for processing is stored in the data storage unit 103 or the ROM 105, it is read by the RAM 106 and executed by the CPU 104. The communication unit 107 is an interface for performing communication between devices. For example, a known communication method device such as Ethernet, USB, IEEE, Bluetooth, or the like is used. When the image processing apparatus 1 receives a program via the communication unit 107, the program is recorded in the data storage unit 103 and then read and executed in the RAM 106, or directly read from the communication unit 107 into the RAM 106 and executed. The Although the image processing apparatus 1 has various elements other than the above-described ones, the description thereof is omitted because it is not the main point of the present invention.

<画像処理装置の機能構成について>
図2は、本実施例における画像処理装置1の機能構成を示すブロック図である。画像処理装置1は、拡散・表面反射画像取得部201と、拡散反射画像取得部202と、画像保持部203と、色画像生成部204と、画像出力部205とを有する。拡散・表面反射画像取得部201は、拡散・表面反射画像を画像保持部203から取得する。拡散・表面反射画像とは、対象物の撮影により、該対象物の拡散反射光と表面反射光とを含む光を取得することで得られる画像である。拡散反射画像取得部202は、拡散反射画像を画像保持部203から取得する。拡散反射画像とは、対象物の撮影により、該対象物の拡散反射光を取得することで得られる画像である。拡散・表面反射画像および拡散反射画像は、後述の光学系(図4参照)を用いて取得され、画像保持部203で保持されている。なお、画像保持部203で拡散・表面反射画像および拡散反射画像を保持するにあたり、これらの画像を予めどのように取得しておくかについては後述する。色画像生成部204は、拡散・表面反射画像取得部201で取得された拡散・表面反射画像、及び、拡散反射画像取得部202で取得された拡散反射画像に基づいて、対象物の色の分布を表す色画像を生成する。なお、観察者と対象物との位置関係に応じて対象物の見え方は異なってくるが、本明細書における色画像が有する色情報によって表される対象物の色とは、対象物を正面(0度方向)から観察した場合の色である。画像出力部205は、色画像生成部204で生成された色画像に基づき画像を出力する。
<Functional configuration of image processing apparatus>
FIG. 2 is a block diagram illustrating a functional configuration of the image processing apparatus 1 according to the present embodiment. The image processing apparatus 1 includes a diffusion / surface reflection image acquisition unit 201, a diffuse reflection image acquisition unit 202, an image holding unit 203, a color image generation unit 204, and an image output unit 205. The diffusion / surface reflection image acquisition unit 201 acquires a diffusion / surface reflection image from the image holding unit 203. A diffusion / surface reflection image is an image obtained by capturing light including diffuse reflection light and surface reflection light of an object by photographing the object. The diffuse reflection image acquisition unit 202 acquires a diffuse reflection image from the image holding unit 203. A diffuse reflection image is an image obtained by acquiring diffuse reflection light of an object by photographing the object. The diffuse / surface reflection image and the diffuse reflection image are acquired using an optical system (see FIG. 4) described later, and are held by the image holding unit 203. Note that when holding the diffusion and surface reflection image and a diffuse reflection image by the image holding unit 203, for either you obtain these images in advance how to later. The color image generation unit 204 distributes the color of the target object based on the diffusion / surface reflection image acquired by the diffusion / surface reflection image acquisition unit 201 and the diffuse reflection image acquired by the diffusion reflection image acquisition unit 202. A color image representing is generated. Although the appearance of the object differs depending on the positional relationship between the observer and the object, the color of the object represented by the color information included in the color image in this specification refers to the object in front. It is a color when observed from (0 degree direction). The image output unit 205 outputs an image based on the color image generated by the color image generation unit 204.

<画像処理装置が実行する処理について>
以下、本実施例における画像処理装置1が実行する処理について説明する。ただし本実施例では、画像保持部203に保持されている画像は、所定の光学系を用いて予め取得した画像であることから、画像処理装置1の処理を説明する前に、この光学系について図4を用いて説明する。
<About processing executed by image processing apparatus>
Hereinafter, processing executed by the image processing apparatus 1 in the present embodiment will be described. However, in this embodiment, since the image held in the image holding unit 203 is an image acquired in advance using a predetermined optical system, this optical system will be described before explaining the processing of the image processing apparatus 1. This will be described with reference to FIG.

図4に示すように、測定(測色)対象である対象物401が、試料台402上に固定される。光源403は、対象物401に光を投影する。光源403として、例えば640x480画素、LED光源を用いた単板モノクロのDLP方式プロジェクターを用いることができるが、これに限るものではない。対象物401に光を照射できるものであれば、光源403として任意の物を用いてよい。撮像装置404、405は、対象物401を撮影するための、DSLR(Digital Single Lens Reflex camra)等から成る装置である。撮像装置404、405として、例えば8688x5792画素のCMOS方式のエリアセンサを有するDSLRと、焦点距離が100mmのマクロレンズとを組み合わせたものを用いることができるが、これに限るものではない。対象物401の表面にピントが合うようティルトレンズ等を組み合わせてもよい。なお、本実施例では、撮像装置404、405は対象物401上の輝度に対し線形な信号値を得る光電変換特性を有する。また、撮像装置404、405によって取得される画像データは、各画素でRGB3チャンネルの色情報を有し、各チャンネルが8ビットで量子化されているものとする。撮像装置404及び撮像装置405について、両者は異なる位置であれば任意の位置に設置して良いが、図4に示すように、お互いが光源403を基準として反対となるような位置に設置することが望ましい。   As shown in FIG. 4, an object 401 that is a measurement (colorimetry) target is fixed on a sample stage 402. The light source 403 projects light onto the object 401. As the light source 403, for example, a single-plate monochrome DLP projector using an LED light source with 640 × 480 pixels can be used, but the invention is not limited to this. Any object can be used as the light source 403 as long as the object 401 can be irradiated with light. The imaging devices 404 and 405 are devices including a DSLR (Digital Single Lens Reflex camera) or the like for photographing the object 401. As the imaging devices 404 and 405, for example, a combination of a DSLR having a CMOS area sensor with 8688 × 5792 pixels and a macro lens with a focal length of 100 mm can be used, but the present invention is not limited to this. A tilt lens or the like may be combined so that the surface of the object 401 is in focus. In this embodiment, the imaging devices 404 and 405 have photoelectric conversion characteristics that obtain a linear signal value with respect to the luminance on the object 401. In addition, it is assumed that the image data acquired by the imaging devices 404 and 405 has RGB 3 channel color information in each pixel, and each channel is quantized with 8 bits. The imaging device 404 and the imaging device 405 may be installed at arbitrary positions as long as they are different positions, but as shown in FIG. 4, they should be installed at positions that are opposite to each other with the light source 403 as a reference. Is desirable.

光源403には偏光子406が設置され、撮像装置404には偏光子407と偏光子408とが設置され、撮像装置405には偏光子409と偏光子410とが設置されている。ここで、偏光子407において直線偏光が透過する方向は、光源403に設置される偏光子406において直線偏光が透過する方向と平行であり、このときの偏光子406および偏光子407の状態は平行ニコル状態である。また、偏光子408において直線偏光が透過する方向は、偏光子406において直線偏光が透過する方向と垂直であり、このときの偏光子406および偏光子408の状態は直行ニコル状態である。撮像装置404と同様に、撮像装置405には偏光子406と平行ニコル状態の偏光子409と、偏光子406と直交ニコル状態の偏光子410とが設置されている。図4に示す光学系では、偏光子407および偏光子408と、偏光子409および偏光子410との夫々について、用いる偏光子を切り替えることが可能である。つまり、撮像装置404、405での撮影時に光源の偏光子406に対して平行ニコル状態の偏光子407、409を用いることにより、対象物401の拡散・表面反射画像を取得する。また、撮像装置404、405での撮影時に光源の偏光子406に対して直交ニコル状態の偏光子408、410を用いて表面反射光をカットすることにより、対象物401の拡散反射画像を取得する。なお、以下では説明の便宜上、撮像装置404を左カメラ、撮像装置405を右カメラとも呼ぶ。左カメラ404、および、右カメラ405で撮影することで取得した拡散・表面反射画像、および、拡散反射画像が、画像保持部203に予め保持されている。   The light source 403 is provided with a polarizer 406, the imaging device 404 is provided with a polarizer 407 and a polarizer 408, and the imaging device 405 is provided with a polarizer 409 and a polarizer 410. Here, the direction in which the linearly polarized light is transmitted through the polarizer 407 is parallel to the direction in which the linearly polarized light is transmitted through the polarizer 406 installed in the light source 403, and the states of the polarizer 406 and the polarizer 407 at this time are parallel. Nicole state. Further, the direction in which the linearly polarized light is transmitted through the polarizer 408 is perpendicular to the direction through which the linearly polarized light is transmitted through the polarizer 406, and the state of the polarizer 406 and the polarizer 408 at this time is an orthogonal Nicols state. Similar to the imaging device 404, the imaging device 405 is provided with a polarizer 406 and a parallel Nicol polarizer 409, and a polarizer 406 and a crossed Nicol polarizer 410. In the optical system illustrated in FIG. 4, it is possible to switch the polarizer to be used for each of the polarizer 407 and the polarizer 408, and the polarizer 409 and the polarizer 410. That is, the diffusion / surface reflection image of the object 401 is acquired by using the polarizers 407 and 409 in a parallel Nicol state with respect to the polarizer 406 of the light source when photographing with the imaging devices 404 and 405. In addition, a diffuse reflection image of the object 401 is obtained by cutting the surface reflected light using the polarizers 408 and 410 in a crossed Nicols state with respect to the polarizer 406 of the light source at the time of photographing with the imaging devices 404 and 405. . Hereinafter, for convenience of explanation, the imaging device 404 is also referred to as a left camera and the imaging device 405 is also referred to as a right camera. A diffusion / surface reflection image and a diffuse reflection image acquired by photographing with the left camera 404 and the right camera 405 are held in the image holding unit 203 in advance.

以下、画像処理装置1が実行する処理について、図3を用いて説明する。まず、ステップS301において、拡散・表面反射画像取得部201は、光源403の偏光子406に対して平行ニコル状態の偏光子407および左カメラ404を用いて撮影した画像Ip,Lを、画像保持部203から取得する。本ステップで取得する画像は、対象物401の拡散反射光と表面反射光とが含まれた反射光を左カメラ404が取得することで得た画像である。ステップS302において、拡散・表面反射画像取得部201は、光源403の偏光子406に対して平行ニコル状態の偏光子409および右カメラ405を用いて撮影した画像Ip,Rを、画像保持部203から取得する。ステップS303において、拡散反射画像取得部202は、光源403の偏光子406に対して直行ニコル状態の偏光子408および左カメラ404を用いて撮影した画像Ic,Lを、画像保持部203から取得する。本ステップで取得される画像は、表面反射光がほぼ含まれず、拡散反射光が支配的な反射光を左カメラ404が取得することで得た画像である。ステップS304において、色画像生成部204は、ステップS301で取得された画像Ip,Lと、ステップS302で取得された画像Ip,Rと、ステップS303で取得された画像Ic,Lとに基づき、対象物401の色画像Iを生成する。なお、ステップS304の詳細については後述する。ステップS305において、画像出力部205は、ステップS304で生成された色画像に基づく画像を表示部102に表示する。なお、以下では説明の便宜上、光源の偏光子と撮像装置の偏光子とが平行ニコル状態における撮影により得た画像を平行画像とも呼び、光源の偏光子と撮像装置の偏光子とが直交ニコル状態における撮影により得た画像を直交画像とも呼ぶ。 Hereinafter, processing executed by the image processing apparatus 1 will be described with reference to FIG. First, in step S <b> 301, the diffusion / surface reflection image acquisition unit 201 holds an image I p, L captured using the polarizer 407 in a parallel Nicol state and the left camera 404 with respect to the polarizer 406 of the light source 403. Obtained from the unit 203. The image acquired in this step is an image obtained by the left camera 404 acquiring the reflected light including the diffuse reflected light and the surface reflected light of the object 401. In step S <b> 302, the diffusion / surface reflection image acquisition unit 201 captures the images I p, R captured using the polarizer 409 and the right camera 405 in a parallel Nicol state with respect to the polarizer 406 of the light source 403. Get from. In step S < b > 303, the diffuse reflection image acquisition unit 202 acquires , from the image holding unit 203, images I c, L captured using the polarizer 408 in the direct Nicole state and the left camera 404 with respect to the polarizer 406 of the light source 403. To do. The image acquired in this step is an image obtained by the left camera 404 acquiring reflected light that does not substantially include surface reflected light and is dominated by diffuse reflected light. In step S304, the color image generation unit 204 converts the image I p, L acquired in step S301, the image I p, R acquired in step S302, and the image I c, L acquired in step S303. Based on this, a color image I of the object 401 is generated. Details of step S304 will be described later. In step S305, the image output unit 205 displays an image based on the color image generated in step S304 on the display unit 102. In the following, for convenience of explanation, an image obtained by photographing in a state where the polarizer of the light source and the polarizer of the imaging device are in the parallel Nicols state is also referred to as a parallel image, and the polarizer of the light source and the polarizer of the imaging device are in the orthogonal Nicols state An image obtained by photographing in is also called an orthogonal image.

<ステップS304の処理の詳細について>
以下、ステップS304の色画像生成処理に関して、図5を用いて説明する。ステップS501において、色画像生成部204は、画像の座標を表す変数(x,y)を初期値(0,0)に設定する。ステップS502において、色画像生成部204は、平行画像Ip,Lの座標(x,y)における画素値と、平行画像Ip,Rの座標(x,y)における画素値との標準偏差σp(x,y)を以下の式により算出する。なお、以下では、画像Ip,Lの座標(x,y)における画素値をIp,L(x,y)、画像Ip,Rの座標(x,y)における画素値をIp,R(x,y)等と表す。左右のカメラで撮影した平行画像が異なる場合、色相と輝度と彩度とのうちで輝度の変化が最も大きくなる。従って、本実施例では輝度情報を多く含むGチャンネルの画素値Gp,L(x,y)、Gp,R(x,y)に基づいて、式(1)、式(2)を用いて標準偏差σp(x,y)を算出する。なお、標準偏差の算出手法は、Gチャンネルを用いるものに限らない。例えば、公知の手法によりRGB値からCIELab値に変換し、L*の値を用いて標準偏差を算出しても良い。
<Details of Step S304>
Hereinafter, the color image generation processing in step S304 will be described with reference to FIG. In step S501, the color image generation unit 204 sets a variable (x, y) representing the coordinates of the image to an initial value (0, 0). In step S502, the color image generation unit 204 determines the standard deviation σ between the pixel value at the coordinates (x, y) of the parallel image I p, L and the pixel value at the coordinates (x, y) of the parallel image I p, R. p (x, y) is calculated by the following equation. In the following, an image I p, L of the coordinates (x, y) the pixel value at I p, L (x, y), the image I p, the pixel value at the coordinates (x, y) of the R I p, R (x, y) etc. When the parallel images taken by the left and right cameras are different, the change in luminance is the largest among hue, luminance, and saturation. Therefore, in this embodiment, the expressions (1) and (2) are used based on the G channel pixel values G p, L (x, y) and G p, R (x, y) containing a large amount of luminance information. The standard deviation σ p (x, y) is calculated. Note that the standard deviation calculation method is not limited to that using the G channel. For example, the RGB value may be converted into the CIELab value by a known method, and the standard deviation may be calculated using the L * value.

Figure 2017215247
Figure 2017215247

Figure 2017215247
Figure 2017215247

ステップS503において、色画像生成部204は、ステップS502で算出されたσp(x,y)と予め設定された閾値Th1との大小関係を式(3)により判定する。ここで、ステップS503における判定処理について、図6を用いて説明する。図6は、対象物における表面凹凸と反射特性との関係を示す図であり、図6(a)は、略平滑な表面601で光が反射する場合の反射特性を示し、図6(b)は、微細な凹凸を有する表面604で光が反射する場合の反射特性を示す。図6(a)において、太実線602は対象物の拡散反射光を、破線603は対象物の表面反射光を示す。図6(a)に示すように、対象物の表面が略平滑の場合、対象物に照射された光は入射角度と等しい反射角度の方向を中心に反射する。従って、図中に×印で示すように、異なる2つの観察角度で取得される反射光の量(反射強度)は、観察角度に応じて大きく異なる。また、このような場合、表面反射光の成分は入射角度と略同一の反射角度の方向を中心に偏在し、一般に対象物を観察する方向(0度方向)に表面反射光はほぼ含まれないため、0度方向においては、拡散反射光602のみが取得される。一方、図6(b)において、太実線605は対象物の拡散反射光を、破線606は対象物の表面反射光を示す。図6(b)に示すように、対象物が表面に微細な凹凸を持つ場合、対象物に照射された光は該表面で様々な方向に散乱する。従って、図中に×印で示すように、異なる2つの観察角度で取得される反射強度は、観察角度が変わっても大きく変化しない。また、このような場合、表面反射光の成分が0度方向にも存在するため、0度方向においては、拡散反射光605と表面反射光606とが含まれた反射光が取得される。本実施例では異なる位置(観察角度)に設置された左カメラと右カメラとで取得された平行画像の標準偏差σp(x,y)が式(3)を満たす場合、図6(a)の状態であると判定しステップS504に進む。一方、式(3)を満たさない場合、図6(b)の状態であると判定しステップS505に進む。 In step S503, the color image generation unit 204 determines the magnitude relationship between σ p (x, y) calculated in step S502 and a preset threshold Th1 using Expression (3). Here, the determination process in step S503 will be described with reference to FIG. FIG. 6 is a diagram showing the relationship between surface irregularities and reflection characteristics in an object, and FIG. 6A shows the reflection characteristics when light is reflected by a substantially smooth surface 601, and FIG. Indicates the reflection characteristics when light is reflected by the surface 604 having fine irregularities. In FIG. 6A, a thick solid line 602 indicates diffuse reflection light of the object, and a broken line 603 indicates surface reflection light of the object. As shown in FIG. 6A, when the surface of the object is substantially smooth, the light irradiated to the object is reflected around the direction of the reflection angle equal to the incident angle. Therefore, as indicated by a cross in the figure, the amount of reflected light (reflection intensity) acquired at two different observation angles varies greatly depending on the observation angle. In such a case, the component of the surface reflected light is unevenly distributed around the direction of the reflection angle substantially the same as the incident angle, and generally the surface reflected light is not included in the direction (0 degree direction) in which the object is observed. Therefore, only the diffuse reflected light 602 is acquired in the 0 degree direction. On the other hand, in FIG. 6B, a thick solid line 605 indicates diffuse reflection light of the object, and a broken line 606 indicates surface reflection light of the object. As shown in FIG. 6B, when the object has fine irregularities on the surface, the light irradiated on the object is scattered in various directions on the surface. Therefore, as indicated by a cross in the figure, the reflection intensity acquired at two different observation angles does not change greatly even when the observation angle changes. In such a case, since the component of the surface reflected light is also present in the 0 degree direction, the reflected light including the diffuse reflected light 605 and the surface reflected light 606 is acquired in the 0 degree direction. In this embodiment, when the standard deviation σ p (x, y) of the parallel images acquired by the left camera and the right camera installed at different positions (observation angles) satisfies Expression (3), FIG. It judges that it is in the state of and advances to Step S504. On the other hand, when the expression (3) is not satisfied, it is determined that the state shown in FIG.

σp(x,y)>Th1・・・式(3) σ p (x, y)> Th1 Expression (3)

ステップS504において、色画像生成部204は、式(4)に示すように、色画像Iの座標(x,y)における画素値に、偏光子408および左カメラ404を用いて撮影した直交画像Ic,Lの座標(x,y)における画素値を代入する。 In step S <b> 504, the color image generation unit 204 uses the polarizer 408 and the left camera 404 as the pixel value at the coordinates (x, y) of the color image I as shown in Expression (4). The pixel value at the coordinates (x, y) of c and L is substituted.

I(x,y)=Ic,L(x,y)・・・式(4) I (x, y) = I c, L (x, y) (4)

ステップS505において、色画像生成部204は、式(5)に示すように、色画像Iの座標(x,y)における画素値に、偏光子407および左カメラ404を用いて撮影した平行画像Ip,Lの座標(x,y)における画素値を代入する。 In step S505, the color image generation unit 204 uses the polarizer 407 and the left camera 404 as the pixel value at the coordinates (x, y) of the color image I, as shown in Expression (5). The pixel value at the coordinates (x, y) of p and L is substituted.

I(x,y)=Ip,L(x,y)・・・式(5) I (x, y) = I p, L (x, y) (5)

ステップS506において、色画像生成部204は、全ての画素に対して処理を行ったかを判定する。ステップS506の判定結果が真の場合、一連の処理は終了する一方、当該判定結果が偽の場合、ステップS507に進む。ステップS507において、色画像生成部204は、処理対象である着目画素の座標を示す変数(x,y)の値を更新し、ステップS502に戻る。   In step S506, the color image generation unit 204 determines whether all pixels have been processed. If the determination result in step S506 is true, the series of processes ends. If the determination result is false, the process proceeds to step S507. In step S507, the color image generation unit 204 updates the value of the variable (x, y) indicating the coordinates of the target pixel to be processed, and the process returns to step S502.

以上の処理で生成する色画像は、直交画像Ic,Lの画素と、平行画像Ip,Lの画素とが、選択的に配置された画像となる。このように色画像を生成することにより、対象物を観察する際の色を高精度に把握することが可能になる。 The color image generated by the above processing is an image in which the pixels of the orthogonal images I c, L and the pixels of the parallel images I p, L are selectively arranged. By generating a color image in this way, it becomes possible to grasp the color when observing the object with high accuracy.

なお、本実施例では、色画像生成の際、複数の観察角度にわたっての反射強度の変化に関する情報を取得するために、標準偏差を算出し、該算出した標準偏差を用いて閾値判定を行っている。しかし、この判定に用いるパラメータは標準偏差に限らず、例えば、画素値の分散でも良いし、画素値の差分であってもよい。   In this embodiment, when generating a color image, a standard deviation is calculated in order to acquire information on changes in reflection intensity over a plurality of observation angles, and a threshold is determined using the calculated standard deviation. Yes. However, the parameter used for this determination is not limited to the standard deviation, and may be a variance of pixel values or a difference between pixel values, for example.

本実施例では、複数の観察角度にわたっての反射強度の変化に関する情報を取得するために、異なる位置に設置された2台の撮像装置(即ち左カメラ、右カメラ)で対象物を撮影している。しかし、複数の観察角度にわたっての反射強度の変化に関する情報が取得できるのであれば、2台以上の撮像装置が異なる位置に設置された光学系を用いて良く、2台以上の撮像装置で対象物を撮影しても良い。   In the present embodiment, in order to acquire information regarding changes in reflection intensity over a plurality of observation angles, an object is photographed by two imaging devices (that is, a left camera and a right camera) installed at different positions. . However, if it is possible to acquire information on the change in reflection intensity over a plurality of observation angles, an optical system in which two or more imaging devices are installed at different positions may be used. May be taken.

本実施例では、色画像生成処理において、左カメラで取得した画像の画素値に基づき色画像を生成しているが、色画像は右カメラで取得した画像の画素値に基づき生成しても良い。   In this embodiment, in the color image generation process, the color image is generated based on the pixel value of the image acquired by the left camera, but the color image may be generated based on the pixel value of the image acquired by the right camera. .

本実施例では、光源の偏光子に対し平行ニコル状態の偏光子を透過した光を撮像装置が撮影することで取得した画像を、拡散・表面反射画像として用いている。しかし、拡散・表面反射画像はこれに限らず、拡散反射光および表面反射光が含まれる光を撮影することで取得される任意の画像を用いて良い。例えば撮像装置に偏光子を設置しない構成で取得した画像を、拡散・表面反射画像として用いても良い。   In the present embodiment, an image acquired by the imaging device photographing light that has passed through a polarizer in a parallel Nicol state with respect to the polarizer of the light source is used as the diffusion / surface reflection image. However, the diffuse / surface reflection image is not limited to this, and any image acquired by photographing light including diffuse reflection light and surface reflection light may be used. For example, an image acquired with a configuration in which a polarizer is not installed in the imaging apparatus may be used as the diffusion / surface reflection image.

[実施例2]
実施例1では、複数の観察角度にわたっての反射強度の変化に関する情報を取得するために、異なる位置に設置した複数の撮像装置により、対象物を撮影することで取得した画像を用いる。しかしながら、複数の観察角度にわたっての反射強度の変化に関する情報を取得できるのであれば、1台の撮像装置で取得した画像を用いても良い。本実施例では、撮影領域が重複するように、1台の撮像装置で対象物を分割撮影する。なお、以下では説明の便宜上、図4に示した光学系の左カメラ404を用いて分割撮影を行うものとする。また、本実施例において、実施例1と共通する内容については、説明を簡略化または割愛する。
[Example 2]
In the first embodiment, in order to acquire information related to changes in reflection intensity over a plurality of observation angles, images acquired by shooting a target with a plurality of imaging devices installed at different positions are used. However, an image acquired by one imaging device may be used as long as information on changes in reflection intensity over a plurality of observation angles can be acquired. In this embodiment, the object is divided and photographed by one imaging device so that the photographing areas overlap. In the following, for convenience of explanation, it is assumed that divided shooting is performed using the left camera 404 of the optical system shown in FIG. In the present embodiment, the description common to the first embodiment is simplified or omitted.

図7は、本実施例における分割撮影を説明する図である。図7において、実線701は対象物を、破線702、703、704、705は夫々、分割撮影時の1ショットの撮影領域を示す。本実施例では図7に示すように、1ショットの撮影領域(撮影領域702と撮影領域703等)が部分的に重複するように対象物701を分割撮影する。そして、撮影領域が部分的に重複する重複領域において、複数の観察角度にわたっての反射強度の変化に関する情報を取得する。   FIG. 7 is a diagram for explaining divided shooting in the present embodiment. In FIG. 7, a solid line 701 indicates an object, and broken lines 702, 703, 704, and 705 indicate one-shot shooting areas at the time of divided shooting. In this embodiment, as shown in FIG. 7, the object 701 is divided and photographed so that one-shot photographing areas (the photographing area 702 and the photographing area 703) partially overlap. And the information regarding the change of the reflection intensity over a plurality of observation angles is acquired in the overlapping area where the imaging areas partially overlap.

<画像処理装置が実行する処理について>
以下、本実施例における画像処理装置1が実行する処理について、図8を用いて説明する。ステップS801において、拡散・表面反射画像取得部201は、光源403の偏光子406に対して平行ニコル状態の偏光子407および左カメラ404を用いて撮影した、全撮影領域に対する拡散・表面反射画像群(平行画像群)を取得する。なお、本実施例では対象物を4分割して撮影しており(図7参照)、本ステップでは4つの画像が取得される。ステップS802において、拡散反射画像取得部202は、光源403の偏光子406に対して直交ニコル状態の偏光子408および左カメラ404を用いて撮影した、全撮影領域に対する拡散反射画像群を取得する。ステップS803において、色画像生成部204は、ステップS801及びステップS802で取得した画像群に基づいて色画像Iを生成する。なお、ステップS803の詳細については後述する。ステップS804において、画像出力部205は、ステップS803で生成された色画像に基づき画像を出力する。
<About processing executed by image processing apparatus>
Hereinafter, processing executed by the image processing apparatus 1 according to the present embodiment will be described with reference to FIG. In step S <b> 801, the diffusion / surface reflection image acquisition unit 201 captures the diffusion / surface reflection image group for the entire imaging region, which is captured using the polarizer 407 in the parallel Nicol state and the left camera 404 with respect to the polarizer 406 of the light source 403. (Parallel image group) is acquired. In this embodiment, the object is photographed by dividing it into four (see FIG. 7), and four images are acquired in this step. In step S <b> 802, the diffuse reflection image acquisition unit 202 acquires a diffuse reflection image group for the entire imaging region, which is captured using the polarizer 408 in the crossed Nicols state and the left camera 404 with respect to the polarizer 406 of the light source 403. In step S803, the color image generation unit 204 generates a color image I based on the image group acquired in steps S801 and S802. Details of step S803 will be described later. In step S804, the image output unit 205 outputs an image based on the color image generated in step S803.

<ステップS803の処理の詳細について>
以下、ステップS803の色画像生成処理に関して、図9を用いて説明する。ステップS901において、色画像生成部204は、対象物の表面上の位置を表す変数(x,y)を初期値に設定する。なお、本実施例では、ステップS801で取得した画像群と、ステップS802で取得した画像群とについて、予め位置合わせがなされているものとする。位置合わせが行なわれていない場合は、各撮影領域の画像で対応点を探索し、変数(x,y)を初期値に設定する。なお、対応点探索の方法として、例えば公知のブロックマッチング法などを用いることができる。対応点探索の方法については、本発明の主眼ではないため説明を省略する。
<Details of Processing in Step S803>
Hereinafter, the color image generation processing in step S803 will be described with reference to FIG. In step S901, the color image generation unit 204 sets variables (x, y) representing the position on the surface of the target object to initial values. In this embodiment, it is assumed that the image group acquired in step S801 and the image group acquired in step S802 have been aligned in advance. When the alignment is not performed, the corresponding point is searched for in the image of each imaging region, and the variable (x, y) is set to the initial value. For example, a known block matching method can be used as a corresponding point search method. Since the corresponding point search method is not the main point of the present invention, a description thereof will be omitted.

ステップS902において、色画像生成部204は、ステップS801で取得した全撮影領域に対する拡散・表面反射画像群から、座標(x,y)におけるGチャンネルの画素値を抽出し、式(6)及び式(7)により標準偏差σ(x,y)を算出する。なお、これらの式において、Nは領域の分割数(本実施例では4)を表し、Gp,k(x,y)はk番目の領域に対する拡散・表面反射画像(平行画像)の座標(x,y)におけるGチャンネルの画素値を表す。 In step S902, the color image generation unit 204 extracts the G channel pixel value at the coordinates (x, y) from the diffuse / surface reflection image group for the entire imaging region acquired in step S801, and uses the equations (6) and (6). The standard deviation σ (x, y) is calculated from (7). In these equations, N represents the number of divisions of the region (4 in this embodiment), and G p, k (x, y) represents the coordinates of the diffusion / surface reflection image (parallel image) for the kth region ( It represents the pixel value of the G channel at x, y).

Figure 2017215247
Figure 2017215247

Figure 2017215247
Figure 2017215247

ステップS903において、色画像生成部204は、式(8)を満たすかを判定する。式(8)において、Th2は予め設定された閾値である。ステップS903の判定結果が真の場合、複数の観察角度にわたっての反射強度の変化が大きい状態(図6(a)参照)であると判定され、ステップS904に進む。一方、ステップS903の判定結果が偽の場合、複数の観察角度にわたっての反射強度の変化が小さい状態(図6(b)参照)であると判定され、ステップS905に進む。   In step S903, the color image generation unit 204 determines whether or not Expression (8) is satisfied. In Expression (8), Th2 is a preset threshold value. If the determination result in step S903 is true, it is determined that the change in the reflection intensity over a plurality of observation angles is large (see FIG. 6A), and the process proceeds to step S904. On the other hand, when the determination result of step S903 is false, it is determined that the change in the reflection intensity over a plurality of observation angles is small (see FIG. 6B), and the process proceeds to step S905.

σ(x,y)>Th2・・・式(8) σ (x, y)> Th2 (8)

ステップS904において、色画像生成部204は、色画像Iの座標(x,y)における画素値に、ステップS802で取得した直交画像群のうち、Gチャンネルの平均値に最も近いGチャンネルの値を有する画像の(x,y)における画素値を代入する。   In step S904, the color image generation unit 204 sets the G channel value closest to the average value of the G channels in the orthogonal image group acquired in step S802 to the pixel value at the coordinates (x, y) of the color image I. The pixel value at (x, y) of the image having is substituted.

ステップS905において、色画像生成部204は、色画像Iの座標(x,y)における画素値に、ステップS801で取得した平行画像群のうち、Gチャンネルの平均値に最も近いGチャンネルの値を有する画像の(x,y)における画素値を代入する。   In step S905, the color image generation unit 204 sets the G channel value closest to the average value of the G channels in the parallel image group acquired in step S801 to the pixel value at the coordinates (x, y) of the color image I. The pixel value at (x, y) of the image having is substituted.

ステップS906及びステップS907は、実施例1のステップS506及びステップS507と同様である。   Steps S906 and S907 are the same as steps S506 and S507 in the first embodiment.

本実施例により、1台の撮像装置で取得した画像群に基づき、対象物を観察する際の色情報を実施例1と同様に高精度に取得することが可能になる。   According to the present embodiment, color information for observing an object can be acquired with high accuracy as in the first embodiment, based on an image group acquired by one imaging apparatus.

なお、本実施例では、図7に示すように対象物を4分割して撮影を行っているが、撮影領域が部分的に重複するのであれば分割数は4に限らず任意の数で良い。   In this embodiment, as shown in FIG. 7, the object is imaged by dividing it into four parts. However, the number of divisions is not limited to four and may be any number as long as the imaging regions partially overlap. .

本実施例では、左カメラ404を用いて分割撮影を行っているが、右カメラ405を用いて分割撮影を行っても良い。   In this embodiment, divided shooting is performed using the left camera 404, but divided shooting may be performed using the right camera 405.

[実施例3]
実施例1及び実施例2では、複数の観察角度にわたっての反射強度の変化に関する情報を取得するために、光源の偏光子に対して平行ニコル状態の偏光子が設置された撮像装置を用いて撮影した拡散・表面反射画像(平行画像)を用いる。本実施例では、複数の観察角度にわたっての反射強度の変化に関する情報を取得するために、対象物の凹凸情報を用いる。なお、本実施例において、上述の実施例と共通する内容については、説明を簡略化または割愛する。
[Example 3]
In Example 1 and Example 2, in order to acquire information regarding the change in reflection intensity over a plurality of observation angles, photographing is performed using an imaging device in which a polarizer in a parallel Nicol state is installed with respect to a polarizer of a light source. The diffuse / surface reflection image (parallel image) is used. In the present embodiment, the unevenness information of the object is used in order to acquire information regarding the change in reflection intensity over a plurality of observation angles. In the present embodiment, the description common to the above embodiment is simplified or omitted.

図10は、実施例3における画像処理装置1の機能構成を示すブロック図である。画像処理装置1は、拡散・表面反射画像取得部1001と、拡散反射画像取得部1002と、画像保持部1003と、凹凸画像取得部1004と、色画像生成部1005と、画像出力部1006とを有する。拡散・表面反射画像取得部1001、拡散反射画像取得部1002、及び画像保持部1003は、実施例1の拡散・表面反射画像取得部201、拡散反射画像取得部202、及び画像保持部203と同様である。凹凸画像取得部1004は、対象物の位置毎の凹凸情報を表す凹凸画像を画像保持部1003から取得する。なお、本実施例における凹凸画像とは、各画素が基準面に対する高さを画素値として持つ8ビットグレースケールのビットマップ画像である。色画像生成部1005は、拡散・表面反射画像取得部1001で取得された拡散・表面反射画像、拡散反射画像取得部1002で取得された拡散反射画像、及び凹凸画像取得部1004で取得された凹凸画像に基づいて色画像を生成する。画像出力部1006は、実施例1の画像出力部205と同様である。   FIG. 10 is a block diagram illustrating a functional configuration of the image processing apparatus 1 according to the third embodiment. The image processing apparatus 1 includes a diffuse / surface reflection image acquisition unit 1001, a diffuse reflection image acquisition unit 1002, an image holding unit 1003, an uneven image acquisition unit 1004, a color image generation unit 1005, and an image output unit 1006. Have. The diffuse / surface reflection image acquisition unit 1001, the diffuse reflection image acquisition unit 1002, and the image holding unit 1003 are the same as the diffusion / surface reflection image acquisition unit 201, the diffuse reflection image acquisition unit 202, and the image holding unit 203 of the first embodiment. It is. The concavo-convex image acquisition unit 1004 acquires a concavo-convex image representing the concavo-convex information for each position of the object from the image holding unit 1003. In addition, the uneven | corrugated image in a present Example is a bitmap image of 8-bit gray scale in which each pixel has the height with respect to a reference plane as a pixel value. The color image generation unit 1005 has a diffusion / surface reflection image acquired by the diffusion / surface reflection image acquisition unit 1001, a diffuse reflection image acquired by the diffusion reflection image acquisition unit 1002, and unevenness acquired by the unevenness image acquisition unit 1004. A color image is generated based on the image. The image output unit 1006 is the same as the image output unit 205 of the first embodiment.

<画像処理装置が実行する処理について>
以下、本実施例における画像処理装置1が実行する処理について、図11を用いて説明する。
<About processing executed by image processing apparatus>
Hereinafter, processing executed by the image processing apparatus 1 in the present embodiment will be described with reference to FIG.

ステップS1101において、拡散・表面反射画像取得部1001は、光源の偏光子に対して平行ニコル状態の偏光子が設置された撮像装置を用いて撮影した拡散・表面反射画像(平行画像)Ipを画像保持部1003から取得する。ステップS1102において、拡散反射画像取得部1102は、光源の偏光子に対して直交ニコル状態の偏光子が設置された撮像装置を用いて撮影した拡散反射画像(直交画像)Icを画像保持部1003から取得する。ステップS1103において、凹凸画像取得部1004は、対象物の凹凸画像Hを画像保持部1003から取得する。ステップS1104において、色画像生成部1005は、ステップS1101で取得した平行画像Ipと、ステップS1102で取得した直交画像Icと、ステップS1103で取得した凹凸画像Hとに基づいて色画像を生成する。なお、ステップS1104の詳細については後述する。ステップS1105において、画像出力部1006は、ステップS1104で生成された色画像に基づき画像を出力する。   In step S <b> 1101, the diffusion / surface reflection image acquisition unit 1001 captures a diffusion / surface reflection image (parallel image) Ip photographed using an imaging device in which a polarizer in a parallel Nicol state is installed with respect to the polarizer of the light source. Obtained from the holding unit 1003. In step S <b> 1102, the diffuse reflection image acquisition unit 1102 receives from the image holding unit 1003 a diffuse reflection image (orthogonal image) Ic photographed using an imaging device in which a polarizer in a crossed Nicol state is installed with respect to the polarizer of the light source. get. In step S <b> 1103, the uneven image acquisition unit 1004 acquires the uneven image H of the object from the image holding unit 1003. In step S1104, the color image generation unit 1005 generates a color image based on the parallel image Ip acquired in step S1101, the orthogonal image Ic acquired in step S1102, and the uneven image H acquired in step S1103. Details of step S1104 will be described later. In step S1105, the image output unit 1006 outputs an image based on the color image generated in step S1104.

<ステップS1104の処理の詳細について>
以下、ステップS1104の色画像生成処理に関して、図12のフローチャートを用いて説明する。
<Details of Processing in Step S1104>
Hereinafter, the color image generation processing in step S1104 will be described with reference to the flowchart of FIG.

ステップS1201において、色画像生成部1005は画像の座標を表す変数(x,y)を初期値(0,0)に設定する。ステップS1202において、色画像生成部1005は、ステップS1103で取得された凹凸画像Hの座標(x,y)の近傍画素としてa×bの範囲を参照し、凹凸画像の標準偏差σh(x,y)を式(9)及び式(10)により算出する。 In step S1201, the color image generation unit 1005 sets a variable (x, y) representing the coordinates of the image to an initial value (0, 0). In step S1202, the color image generation unit 1005 refers to the range of a × b as a neighboring pixel of the coordinates (x, y) of the uneven image H acquired in step S1103, and the standard deviation σ h (x, y) is calculated by Equation (9) and Equation (10).

Figure 2017215247
Figure 2017215247

Figure 2017215247
Figure 2017215247

ステップS1203において、色画像生成部1005は、式(11)を満たすかを判定する。式(11)において、Th3は予め設定された閾値である。ステップS1203の判定結果が真の場合、対象物の表面が平滑(図6(a)参照)と判定され、ステップS1204に進む。一方、ステップS1203の判定結果が偽の場合、対象物が表面に微細な凹凸を持つ(図6(b)参照)と判定され、ステップS1205に進む。   In step S1203, the color image generation unit 1005 determines whether or not Expression (11) is satisfied. In Formula (11), Th3 is a preset threshold value. If the determination result in step S1203 is true, the surface of the object is determined to be smooth (see FIG. 6A), and the process proceeds to step S1204. On the other hand, when the determination result of step S1203 is false, it is determined that the object has fine unevenness on the surface (see FIG. 6B), and the process proceeds to step S1205.

σh(x,y)<Th3・・・式(11) σ h (x, y) <Th3 Expression (11)

ステップS1204において、色画像生成部1005は、式(12)に示すように、色画像Iの座標(x,y)における画素値に、直交画像Icの座標(x,y)における画素値を代入する。   In step S1204, the color image generation unit 1005 substitutes the pixel value at the coordinates (x, y) of the orthogonal image Ic for the pixel value at the coordinates (x, y) of the color image I as shown in Expression (12). To do.

I(x,y)=Ic(x,y)・・・式(12) I (x, y) = Ic (x, y) (12)

ステップS1205において、色画像生成部1005は、式(13)に示すように、色画像Iの座標(x,y)における画素値に、平行画像Ipの座標(x,y)における画素値を代入する。   In step S1205, the color image generation unit 1005 substitutes the pixel value at the coordinates (x, y) of the parallel image Ip for the pixel value at the coordinates (x, y) of the color image I as shown in Expression (13). To do.

I(x,y)=Ip(x,y)・・・式(13) I (x, y) = Ip (x, y) (13)

ステップS1206及びステップS1207は、実施例1のステップS506及びステップS507と同様である。   Steps S1206 and S1207 are the same as steps S506 and S507 in the first embodiment.

本実施例により、凹凸画像の標準偏差に基づいて色画像を生成することで、対象物の色情報を実施例1と同様に高精度に取得することが可能になる。   According to the present embodiment, by generating a color image based on the standard deviation of the concavo-convex image, it becomes possible to acquire the color information of the object with high accuracy as in the first embodiment.

[実施例4]
実施例1では、拡散・表面反射画像Ip,Lの画素と、拡散反射画像Ic,Lの画素とを座標に応じて選択的に配置することで、色画像を生成する。本実施例では、拡散・表面反射画像Ip,Lの画素と、拡散・表面反射画像Ip,Lの画素と拡散反射画像Ic,Lの画素との合成画素と、拡散反射画像Ic,Lの画素とを座標に応じて選択的に配置することで、色画像を生成する。なお、本実施例において、実施例1と異なる内容について詳細に説明し、実施例1と共通する内容については、説明を簡略化または割愛する。
[Example 4]
In the first embodiment, the color image is generated by selectively arranging the pixels of the diffuse / surface reflection image I p, L and the pixels of the diffuse reflection image I c, L according to the coordinates. In the present embodiment, the diffusion / surface reflection image I p, L , the composite pixel of the diffusion / surface reflection image I p, L and the diffuse reflection image I c, L , and the diffuse reflection image I c , L pixels are selectively arranged according to the coordinates to generate a color image. In the present embodiment, the contents different from the first embodiment will be described in detail, and the description common to the first embodiment will be simplified or omitted.

<ステップS304の処理の詳細について>
本実施例における画像処理装置1が実行する処理は、実施例1と同様である(図3参照)。従って以下では、本実施例におけるステップS304の色画像生成処理に関して、図13を用いて説明する。
<Details of Step S304>
The processing executed by the image processing apparatus 1 in the present embodiment is the same as that in the first embodiment (see FIG. 3). Therefore, hereinafter, the color image generation processing in step S304 in the present embodiment will be described with reference to FIG.

ステップS1301、ステップS1302は、実施例1のステップS501、ステップS502と同様である。ステップS1303において、色画像生成部204は、式(14)を満たすかを判定する。式(14)において、Th4は予め設定された閾値である。ステップS1303の判定結果が真の場合、複数の観察角度にわたっての反射強度の変化が大きいと判定され、ステップS1305に進む。一方、ステップS1303の判定結果が偽の場合、ステップS1304に進む。   Steps S1301 and S1302 are the same as steps S501 and S502 of the first embodiment. In step S1303, the color image generation unit 204 determines whether or not Expression (14) is satisfied. In formula (14), Th4 is a preset threshold value. If the determination result of step S1303 is true, it is determined that the change in reflection intensity over a plurality of observation angles is large, and the process proceeds to step S1305. On the other hand, if the determination result of step S1303 is false, the process proceeds to step S1304.

σp(x,y)>Th4・・・式(14) σ p (x, y)> Th4 Expression (14)

ステップS1304において、色画像生成部204は、式(15)を満たすかを判定する。式(15)において、Th5は予め設定された閾値である。ステップS1304の判定結果が真の場合、複数の観察角度にわたっての反射強度の変化が中程度と判定され、ステップS1306に進む。一方、ステップS1304の判定結果が偽の場合、複数の観察角度にわたっての反射強度の変化が小さいと判定され、ステップS1307に進む。   In step S1304, the color image generation unit 204 determines whether or not Expression (15) is satisfied. In Formula (15), Th5 is a preset threshold value. If the determination result of step S1304 is true, it is determined that the change in reflection intensity over a plurality of observation angles is moderate, and the process proceeds to step S1306. On the other hand, if the determination result of step S1304 is false, it is determined that the change in reflection intensity over a plurality of observation angles is small, and the process proceeds to step S1307.

σp(x,y)>Th5・・・式(15) σ p (x, y)> Th5 Expression (15)

ステップS1306において、色画像生成部204は、式(16)により色画像Iの座標(x,y)における画素値を求める。式(16)に示すように、色画像Iの座標(x,y)における画素として、表面・拡散反射画像Ip,Lの座標(x,y)における画素と、拡散反射画像Ic,Lの座標(x,y)における画素とを合成した画素を用いる。 In step S1306, the color image generation unit 204 obtains a pixel value at the coordinates (x, y) of the color image I using Expression (16). As shown in Expression (16), as the pixel at the coordinates (x, y) of the color image I, the pixel at the coordinates (x, y) of the surface / diffuse reflection image I p, L and the diffuse reflection image I c, L A pixel obtained by synthesizing the pixel at the coordinates (x, y) is used.

I(x,y)=Th4/(Th4−Th5)×Ip,L(x,y)+Th5/(Th4−Th5)×Ic,L(x,y) ・・・式(16) I (x, y) = Th4 / (Th4-Th5) × I p, L (x, y) + Th5 / (Th4-Th5) × I c, L (x, y) (16)

ステップS1305、ステップS1307、ステップS1308、及びステップS1309は夫々、実施例1のステップS504、ステップS505、ステップS506、及びステップS507と同様である。   Step S1305, step S1307, step S1308, and step S1309 are the same as step S504, step S505, step S506, and step S507 of the first embodiment, respectively.

本実施例により、対象物の色情報を実施例1よりも高精度に取得することが可能になる。   According to the present embodiment, the color information of the object can be acquired with higher accuracy than in the first embodiment.

なお、本実施例では、異なる位置に設置した複数の撮像装置により、対象物を撮影することで取得した画像を用いて複数の観察角度にわたっての反射強度の変化に関する情報を取得する場合(実施例1)について説明している。しかしながら、本実施例は、撮影領域が重複するように、1台の撮像装置で対象物を分割撮影する場合(実施例2)や、対象物の凹凸画像を用いる場合(実施例3)にも適用できる。   In this embodiment, a case where information relating to changes in reflection intensity over a plurality of observation angles is acquired using images acquired by shooting an object with a plurality of imaging devices installed at different positions (example). 1) is described. However, the present embodiment is also applicable to a case where an object is divided and photographed with a single imaging device (Example 2) or an uneven image of the object is used (Example 3) so that the imaging regions overlap. Applicable.

[実施例5]
上述の実施例では、対象物の標準偏差を導出し、該導出した標準偏差を用いて複数の観察角度にわたっての反射強度の変化を推定することで、色画像を生成している。本実施例では、対象物の素材の種類を指定する情報に基づいて、複数の観察角度にわたっての反射強度の変化を推定することで、色画像を生成する。例えば、対象物の素材が金属などの場合、表面の平滑性が高いため複数の観察角度にわたっての反射強度の変化が大きいと推定できる(図6(a)参照)。一方、対象物が油彩画などの場合、表面に微細な凹凸を有しており、複数の観察角度にわたっての反射強度の変化が小さいと推定できる(図6(b)参照)。なお、本実施例において、上述の実施例と共通する内容については、説明を簡略化または割愛する。
[Example 5]
In the above-described embodiment, the standard deviation of the object is derived, and the color image is generated by estimating the change in the reflection intensity over a plurality of observation angles using the derived standard deviation. In this embodiment, a color image is generated by estimating a change in reflection intensity over a plurality of observation angles based on information specifying the type of material of the object. For example, when the material of the object is metal or the like, it can be estimated that the change in reflection intensity over a plurality of observation angles is large because the surface has high smoothness (see FIG. 6A). On the other hand, when the object is an oil painting or the like, the surface has fine irregularities, and it can be estimated that the change in the reflection intensity over a plurality of observation angles is small (see FIG. 6B). In the present embodiment, the description common to the above embodiment is simplified or omitted.

図14は、本実施例における画像処理装置1の機能構成を示すブロック図である。画像処理装置1は、拡散・表面反射画像取得部1401と、拡散反射画像取得部1402と、画像保持部1403と、素材情報取得部1404と、色画像生成部1405と、画像出力部1406とを有する。拡散・表面反射画像取得部1401、拡散反射画像取得部1402、及び画像保持部1403は、実施例1の拡散・表面反射画像取得部201、拡散反射画像取得部202、及び画像保持部203と同様である。素材情報取得部1404は、対象物を構成する素材の種類に関する情報(素材情報)を取得する。本実施例における素材情報は、素材を指定する画素値から成るビットマップ形式のデータであり、表示部102に表示されたユーザーインターフェースを介してユーザが入力する。なお、本実施例では、素材情報を素材マップともいう。色画像生成部1405は、拡散・表面反射画像取得部1401で取得された拡散・表面反射画像と、拡散反射画像取得部1402で取得された拡散反射画像と、素材情報取得部1404で取得された素材情報とに基づいて、色画像を生成する。画像出力部1406は、実施例1の画像出力部205と同様である。   FIG. 14 is a block diagram illustrating a functional configuration of the image processing apparatus 1 according to the present embodiment. The image processing apparatus 1 includes a diffuse / surface reflection image acquisition unit 1401, a diffuse reflection image acquisition unit 1402, an image holding unit 1403, a material information acquisition unit 1404, a color image generation unit 1405, and an image output unit 1406. Have. The diffuse / surface reflection image acquisition unit 1401, the diffuse reflection image acquisition unit 1402, and the image holding unit 1403 are the same as the diffusion / surface reflection image acquisition unit 201, the diffuse reflection image acquisition unit 202, and the image holding unit 203 of the first embodiment. It is. The material information acquisition unit 1404 acquires information (material information) regarding the types of materials constituting the object. The material information in the present embodiment is bitmap format data composed of pixel values that specify the material, and is input by the user via the user interface displayed on the display unit 102. In the present embodiment, the material information is also referred to as a material map. The color image generation unit 1405 is acquired by the diffusion / surface reflection image acquired by the diffusion / surface reflection image acquisition unit 1401, the diffuse reflection image acquired by the diffuse reflection image acquisition unit 1402, and the material information acquisition unit 1404. A color image is generated based on the material information. An image output unit 1406 is the same as the image output unit 205 of the first embodiment.

<画像処理装置が実行する処理について>
以下、本実施例における画像処理装置1が実行する処理について、図15を用いて説明する。ステップS1501、ステップS1502は、実施例3におけるステップS1101、ステップS1102と同様である。
<About processing executed by image processing apparatus>
Hereinafter, processing executed by the image processing apparatus 1 in the present embodiment will be described with reference to FIG. Steps S1501 and S1502 are the same as steps S1101 and S1102 in the third embodiment.

ステップS1503において、素材情報取得部1404は、対象物の素材情報(素材マップ)を取得する。図16は、ユーザが素材マップを入力するために用いるユーザーインターフェースの一例である。図示するように、ユーザーインターフェースは、画像表示部1601と、素材指定部1603と、OKボタン1605とを有する。画像表示部1601には、対象物の画像1602が表示され、本実施例では、ステップS1501で取得された拡散・表面反射画像(平行画像)が表示される。ユーザは拡散・表面反射画像1602の各画素をポインタ1604で指定し、素材指定部1603に表示されているラジオボタンの何れかを選択することで、対象物の各画素における素材を指定する。なお、画素ごとではなく複数画素から成る所定サイズのブロックごとに素材を指定してもよい。また、本実施例では、素材指定部1603は、複数の角度にわたっての反射強度の変化が大きい素材であることを指定するラジオボタンと、該変化が小さい素材であることを指定するラジオボタンと、該変化が中程度であることを指定するラジオボタンとを有する。しかしながら、ラジオボタンの数は3つに限定されず、2つであっても良いし、4つ以上であっても良い。ユーザが前述の操作を全ての画素に対して実行し、OKボタン1605を押下すると、素材マップの入力が完了する。以上の処理によって対象物を構成する素材の種類が画素ごとに記述された素材マップ(Mとする)が得られる。図17に、素材マップMの一例を示す。図示するように、素材マップは、素材を指定する画素毎の画素値から成るビットマップ形式のデータである。なお、本実施例では、光沢強に対応する値を0、光沢弱に対応する値を1、光沢中に対応する値を2としているが、素材の種類と取り得る画素値との対応関係が明確であれば、使用する画素値はこれらに限られず、任意の値を使用して良い。   In step S1503, the material information acquisition unit 1404 acquires material information (material map) of the object. FIG. 16 shows an example of a user interface used by a user to input a material map. As illustrated, the user interface includes an image display unit 1601, a material designation unit 1603, and an OK button 1605. An image 1602 of the object is displayed on the image display unit 1601. In this embodiment, the diffusion / surface reflection image (parallel image) acquired in step S1501 is displayed. The user designates each pixel of the diffuse / surface reflection image 1602 with the pointer 1604 and selects one of the radio buttons displayed on the material designation unit 1603 to designate the material in each pixel of the target object. Note that a material may be specified for each block of a predetermined size including a plurality of pixels instead of each pixel. In the present embodiment, the material designating unit 1603 includes a radio button for designating a material having a large change in reflection intensity over a plurality of angles, a radio button for designating a material having a small change, And a radio button for designating that the change is moderate. However, the number of radio buttons is not limited to three and may be two or four or more. When the user performs the above operation on all pixels and presses an OK button 1605, the input of the material map is completed. Through the above processing, a material map (denoted as M) in which the types of materials constituting the object are described for each pixel is obtained. FIG. 17 shows an example of the material map M. As shown in the figure, the material map is bitmap format data composed of pixel values for each pixel that designates the material. In this embodiment, the value corresponding to high gloss is set to 0, the value corresponding to low gloss is set to 1, and the value corresponding to gloss is set to 2, but the correspondence between the type of material and the possible pixel values is as follows. If it is clear, the pixel value to be used is not limited to these, and an arbitrary value may be used.

ステップS1504において、色画像生成部1405は、ステップS1501で取得された拡散・表面反射画像(平行画像)、ステップS1502で取得された拡散反射画像(直交画像)、及びステップS1503で取得された素材情報に基づき、色画像を生成する。なお、ステップS1504の詳細については後述する。   In step S1504, the color image generation unit 1405, the diffuse / surface reflection image (parallel image) acquired in step S1501, the diffuse reflection image (orthogonal image) acquired in step S1502, and the material information acquired in step S1503. Based on the above, a color image is generated. Details of step S1504 will be described later.

ステップS1505は、実施例3のステップS1105と同様である。   Step S1505 is the same as step S1105 of the third embodiment.

<ステップS1504の詳細について>
以下、ステップS1504の色画像生成処理に関して、図18を用いて説明する。
<Details of Step S1504>
Hereinafter, the color image generation processing in step S1504 will be described with reference to FIG.

ステップS1801は実施例1のステップS501と同様である。   Step S1801 is the same as step S501 in the first embodiment.

ステップS1802において、色画像生成部1405は、ステップS1503で取得された素材マップMの座標(x,y)における値M(x,y)を取得する。   In step S1802, the color image generation unit 1405 acquires the value M (x, y) at the coordinates (x, y) of the material map M acquired in step S1503.

ステップS1803において、色画像生成部1405は、ステップS1802で取得した値M(x,y)について判定する。ステップS1803の判定の結果、M(x,y)=0の場合、ステップS1804に進み、M(x,y)=1の場合、ステップS1805に進み、M(x,y)=2の場合、ステップS1806に進む。   In step S1803, the color image generation unit 1405 determines the value M (x, y) acquired in step S1802. As a result of the determination in step S1803, if M (x, y) = 0, the process proceeds to step S1804. If M (x, y) = 1, the process proceeds to step S1805. If M (x, y) = 2, The process proceeds to step S1806.

ステップS1804、ステップS1805、ステップS1806は、実施例4のステップS1305、ステップS1307、ステップS1306と同様である。ステップS1807、ステップS1808は、実施例1のステップS506、ステップS507と同様である。   Step S1804, step S1805, and step S1806 are the same as step S1305, step S1307, and step S1306 of the fourth embodiment. Steps S1807 and S1808 are the same as steps S506 and S507 in the first embodiment.

本実施例により、標準偏差を導出することなく、対象物の色情報を高精度に取得することが可能になる。   According to the present embodiment, it is possible to obtain the color information of the object with high accuracy without deriving the standard deviation.

なお、本実施例では、色画像の画素値に、拡散・表面反射画像の画素値と、拡散反射画像の画素値と、拡散・表面反射画像の画素と拡散反射画像の画素とを合成した画素の画素値と、の何れかを画素毎に代入する場合(実施例4)について説明している。しかしながら、本実施例は、実施例1〜3にも適用できる。   In this embodiment, the pixel value of the color image is combined with the pixel value of the diffuse / surface reflection image, the pixel value of the diffuse reflection image, and the pixel of the diffusion / surface reflection image and the pixel of the diffuse reflection image. A case where any one of the pixel values is substituted for each pixel (Example 4) is described. However, this embodiment can also be applied to the first to third embodiments.

[その他の実施例]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1・・・画像処理装置
204・・・色画像生成部
DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus 204 ... Color image generation part

Claims (11)

対象物の色の分布を表す色画像を生成する画像処理装置であって、
前記対象物の拡散反射光と表面反射光とを表す第1反射光を撮影することで得られる第1の反射画像と、前記拡散反射光を表す第2反射光を撮影することで得られる第2の反射画像とを取得する取得手段と、
前記取得手段により取得された第1の反射画像と第2の反射画像とに基づき、前記色画像を生成する生成手段を有することを特徴とする画像処理装置。
An image processing device that generates a color image representing a color distribution of an object,
A first reflection image obtained by photographing the first reflected light representing the diffuse reflected light and the surface reflected light of the object and a second reflected light obtained by photographing the second reflected light representing the diffuse reflected light. Acquisition means for acquiring two reflection images;
An image processing apparatus comprising: a generation unit configured to generate the color image based on the first reflection image and the second reflection image acquired by the acquisition unit.
前記生成手段は、前記色画像の画素値として、前記第1の反射画像の画素値と、前記第2の反射画像の画素値と、の何れかを画素毎に代入することで、前記色画像を生成することを特徴とする請求項1に記載の画像処理装置。   The generation unit substitutes, for each pixel, either the pixel value of the first reflection image or the pixel value of the second reflection image as the pixel value of the color image. The image processing apparatus according to claim 1, wherein: 前記生成手段は、前記色画像の画素値として、前記第1の反射画像の画素値と、前記第2の反射画像の画素値と、前記第1の反射画像の画素と前記第2の反射画像の画素とを合成した画素の画素値と、の何れかを画素毎に代入することで、前記色画像を生成することを特徴とする請求項1に記載の画像処理装置。   The generation means includes a pixel value of the first reflection image, a pixel value of the second reflection image, a pixel of the first reflection image, and a second reflection image as the pixel value of the color image. The image processing apparatus according to claim 1, wherein the color image is generated by substituting one of pixel values of a pixel obtained by combining the first pixel and the second pixel for each pixel. 異なる複数の位置から前記対象物を撮影することで取得した複数の第1の反射画像に基づき、前記色画像の画素値として、何れの画素値を代入するか判定する判定手段をさらに有することを特徴とする請求項2または3に記載の画像処理装置。   And a determination unit that determines which pixel value is to be substituted as a pixel value of the color image based on a plurality of first reflection images acquired by photographing the object from a plurality of different positions. The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus. 同じ位置から前記対象物を分割撮影することで取得した複数の第1の反射画像に基づき、前記色画像の画素値として、何れの画素値を代入するか判定する判定手段をさらに有することを特徴とする請求項2または3に記載の画像処理装置。   The image processing apparatus further includes a determination unit that determines which pixel value is substituted as a pixel value of the color image based on a plurality of first reflection images acquired by dividing and photographing the object from the same position. The image processing apparatus according to claim 2 or 3. 前記判定手段は、前記複数の第1の反射画像から各画素の標準偏差を算出し、該算出した標準偏差と所定の閾値との間の大小関係の判定結果に基づき、何れの画素値を代入するか判定することを特徴とする請求項4または5に記載の画像処理装置。   The determination unit calculates a standard deviation of each pixel from the plurality of first reflection images, and substitutes any pixel value based on a determination result of a magnitude relationship between the calculated standard deviation and a predetermined threshold value. The image processing apparatus according to claim 4, wherein it is determined whether or not to perform. 前記対象物の凹凸画像に基づき、前記色画像の画素値として、何れの画素値を代入するか判定する判定手段をさらに有することを特徴とする請求項2または3に記載の画像処理装置。   The image processing apparatus according to claim 2, further comprising a determination unit that determines which pixel value is substituted as a pixel value of the color image based on the uneven image of the object. 前記判定手段は、前記凹凸画像から各画素の標準偏差を算出し、該算出した標準偏差と所定の閾値との間の大小関係の判定結果に基づき、何れの画素値を代入するか判定することを特徴とする請求項7に記載の画像処理装置。   The determination unit calculates a standard deviation of each pixel from the uneven image, and determines which pixel value is substituted based on a determination result of a magnitude relationship between the calculated standard deviation and a predetermined threshold value. The image processing apparatus according to claim 7. 前記対象物の各画素における素材を示す素材情報に基づき、前記色画像の画素値として、何れの画素値を代入するか判定する判定手段をさらに有することを特徴とする請求項2または3に記載の画像処理装置。   4. The apparatus according to claim 2, further comprising a determination unit that determines which pixel value is substituted as a pixel value of the color image based on material information indicating a material in each pixel of the object. 5. Image processing apparatus. 対象物の色の分布を表す色画像を生成する画像処理方法であって、
前記対象物の拡散反射光と表面反射光とを表す第1反射光を撮影することで得られる第1の反射画像と、前記拡散反射光を表す第2反射光を撮影することで得られる第2の反射画像とを取得する取得ステップと、
前記取得ステップで取得された第1の反射画像と第2の反射画像とに基づき、前記色画像を生成する生成ステップとを有することを特徴とする画像処理装置。
An image processing method for generating a color image representing a color distribution of an object,
A first reflection image obtained by photographing the first reflected light representing the diffuse reflected light and the surface reflected light of the object and a second reflected light obtained by photographing the second reflected light representing the diffuse reflected light. An acquisition step of acquiring two reflection images;
An image processing apparatus comprising: a generation step of generating the color image based on the first reflection image and the second reflection image acquired in the acquisition step.
コンピュータに、請求項10に記載の方法を実行させるためのプログラム。   The program for making a computer perform the method of Claim 10.
JP2016110290A 2016-06-01 2016-06-01 Image processor, image processing method, and program Pending JP2017215247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016110290A JP2017215247A (en) 2016-06-01 2016-06-01 Image processor, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016110290A JP2017215247A (en) 2016-06-01 2016-06-01 Image processor, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2017215247A true JP2017215247A (en) 2017-12-07

Family

ID=60576760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016110290A Pending JP2017215247A (en) 2016-06-01 2016-06-01 Image processor, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2017215247A (en)

Similar Documents

Publication Publication Date Title
WO2014049978A1 (en) Image processing apparatus, imaging system, and image processing system
JP5780865B2 (en) Image processing apparatus, imaging system, and image processing system
WO2012132241A1 (en) Image processing apparatus, imaging system, and image processing system
JP5281972B2 (en) Imaging device
JP2015197745A (en) Image processing apparatus, imaging apparatus, image processing method, and program
US20140043434A1 (en) Image processing apparatus
EP2635019A2 (en) Image processing device, image processing method, and program
JP2019505836A5 (en)
CN105765630B (en) By the shape, movement and/or the multiple dimensioned measurement method of deformation that create structure member of multiple coloration speckle patterns measurements by stress
JP6611531B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2013182417A (en) Image processing device and image processing method
JP2009158993A (en) Apparatus, method and program for acquiring information
JP4963492B2 (en) Image segmentation method, program and apparatus
CN104980649B (en) Waveform monitor and method of generating a display for output from a measurement instrument
JP5818828B2 (en) Image processing apparatus, imaging system, and image processing system
JP2017215247A (en) Image processor, image processing method, and program
JP2016092430A (en) Imaging system, information processing device, imaging method, program and storage medium
JP2019022147A (en) Light source direction estimation device
JP2017228874A (en) Image processing apparatus and control method thereof, imaging device, program
JP2017138927A (en) Image processing device, imaging apparatus, control method and program thereof
TW201921912A (en) Image processing device, image processing method, and program storage medium
JP7341843B2 (en) Image processing device, image processing method, imaging device, program
JP7277762B2 (en) Organizational structure identification method, organizational structure identification device and program
JP7321738B2 (en) Image processing device, image processing method and program
JP2018116039A (en) Mtf measurement device and program of the same