JP7463697B2 - Gloss acquisition state calculation device, gloss acquisition state calculation method, gloss acquisition state calculation program, terminal, and gloss acquisition state display program - Google Patents

Gloss acquisition state calculation device, gloss acquisition state calculation method, gloss acquisition state calculation program, terminal, and gloss acquisition state display program Download PDF

Info

Publication number
JP7463697B2
JP7463697B2 JP2019199708A JP2019199708A JP7463697B2 JP 7463697 B2 JP7463697 B2 JP 7463697B2 JP 2019199708 A JP2019199708 A JP 2019199708A JP 2019199708 A JP2019199708 A JP 2019199708A JP 7463697 B2 JP7463697 B2 JP 7463697B2
Authority
JP
Japan
Prior art keywords
information
light source
acquisition state
camera
gloss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019199708A
Other languages
Japanese (ja)
Other versions
JP2021072024A (en
Inventor
翼 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2019199708A priority Critical patent/JP7463697B2/en
Publication of JP2021072024A publication Critical patent/JP2021072024A/en
Application granted granted Critical
Publication of JP7463697B2 publication Critical patent/JP7463697B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本実施形態は、光沢取得状態算出装置、光沢取得状態算出方法、光沢取得状態算出プログラム、端末及び光沢取得状態表示プログラムに関する。 This embodiment relates to a gloss acquisition state calculation device, a gloss acquisition state calculation method, a gloss acquisition state calculation program, a terminal, and a gloss acquisition state display program.

従来、3DCG(three-dimensional computer graphics)制作において、CGデザイナーは、現実の対象物をモデリングすることによって形成された3次元形状に対して質感設定を行うことで、写実的な表現がなされたCG画像を生成している。 Traditionally, in the production of 3DCG (three-dimensional computer graphics), CG designers create realistic CG images by setting textures for three-dimensional shapes formed by modeling real-world objects.

実物体をCGにおいて3次元画像として再現するための手法として、特許文献1にて提案されているようなテクスチャマッピングを用いる手法が知られている。テクスチャマッピングを用いる手法では、複数の方向から撮影された複数の画像が予め用意されている。そして、3次元画像の再現時には、視点に対して適切な画像が選択され、選択された画像が3次元形状モデルに貼り付けられる。ただし、CGとして再現した3次元画像と撮影時の実物体の照明状態との異なっていることが多く、その結果、3次元画像と実物体との見えは異なることが多い。 A known technique for reproducing a real object as a three-dimensional image in CG is a technique using texture mapping, as proposed in Patent Document 1. In a technique using texture mapping, multiple images captured from multiple directions are prepared in advance. When reproducing the three-dimensional image, an appropriate image is selected for the viewpoint, and the selected image is pasted onto the three-dimensional shape model. However, the lighting conditions of the three-dimensional image reproduced as CG and the real object at the time of capture often differ, and as a result, the three-dimensional image and the real object often look different.

そこで、より3次元画像の見えを実物体の見えに近づけるための手法として、非特許文献1の手法が用いられている。非特許文献1の手法では、照明方向又は視線方向による反射率の変化が双方向反射分布関数(Bi-directional Reflectance Distribution Function:BRDF)で表される。そして、非特許文献1の手法では、BRDFがモデル化されて反射定数により表される。この反射定数を推定するための計測方法が数多く提案されている。 The method of Non-Patent Document 1 is used as a method for making the appearance of a three-dimensional image closer to that of a real object. In the method of Non-Patent Document 1, the change in reflectance due to the lighting direction or line of sight direction is represented by a bi-directional reflectance distribution function (BRDF). In the method of Non-Patent Document 1, the BRDF is modeled and represented by a reflection constant. Many measurement methods have been proposed for estimating this reflection constant.

反射定数を推定するための計測方法として、光源方向又は視線方向の異なる多数の画像を利用して、反射定数を画素毎に推定する手法がよく用いられる。しかしながら、BRDFは物体表面に対して半球状の反射光分布を表現するものなので、反射定数の推定のためには、非常に多くの角度から細かく撮影する必要がある。特許文献2では、光源の照明方向を変えながらの撮影によって多数の画像が取得され、画素ごとに反射定数が推定される。特許文献2の手法では、金属等の実物体の鋭い光沢を取得するために2次元の広がりを持った照明が用いられることによって撮影枚数を減らすことができる。 As a measurement method for estimating the reflection constant, a method is often used in which a large number of images taken with different light source directions or viewing directions are used to estimate the reflection constant for each pixel. However, since the BRDF represents a hemispherical distribution of reflected light for the object surface, it is necessary to take detailed images from many angles in order to estimate the reflection constant. In Patent Document 2, a large number of images are obtained by taking images while changing the illumination direction of the light source, and the reflection constant is estimated for each pixel. In the method of Patent Document 2, lighting with a two-dimensional spread is used to capture the sharp luster of real objects such as metals, which makes it possible to reduce the number of images taken.

特開2000―348213号公報JP 2000-348213 A 特許第3962588号公報Patent No. 3962588

SIGGRAPH Computer Graphics Proceedings, Annual Conference Series, 1997, p379-387”Object Shape and Reflectance Modeling from Observation”SIGGRAPH Computer Graphics Proceedings, Annual Conference Series, 1997, p379-387”Object Shape and Reflectance Modeling from Observation”

反射定数を推定するためには、物体の表面領域を光源が移動した際のその物体の持つ反射光の特徴である光沢遷移の情報を取得する必要がある。多くの推定手法では、光沢遷移に対して反射モデルの定数を最適化することで反射定数が推定される。しかしながら、複雑な形状を持つ立体物では、どの方向にカメラと光源とを配置すれば光沢遷移を取得することができるのかを事前に決定することが困難である。この場合、カメラと光源との相対位置の異なる多数の撮影を実施する必要が生じる。しかしながら、この多数の撮影においては、光沢の情報を持たず、推定に必要のない画像も数多く撮影される。 To estimate the reflection constant, it is necessary to obtain information on the gloss transition, which is a characteristic of the reflected light of an object when a light source moves across the object's surface area. In many estimation methods, the reflection constant is estimated by optimizing the constants of a reflection model for the gloss transition. However, for a three-dimensional object with a complex shape, it is difficult to determine in advance in what direction the camera and light source should be positioned to obtain the gloss transition. In this case, it becomes necessary to perform multiple shots with different relative positions between the camera and light source. However, in these multiple shots, many images are taken that do not contain gloss information and are not necessary for estimation.

本実施形態は、このような状況に鑑みてなされたもので、実物体の反射特性、立体形状及び微細表面形状によらず、少ない撮影枚数で実物体の光沢遷移を取得することができる光沢取得状態算出装置、光沢取得状態算出方法、光沢取得状態算出プログラム、端末及び光沢取得状態表示プログラムを提供する。 This embodiment has been made in consideration of such circumstances, and provides a gloss acquisition state calculation device, a gloss acquisition state calculation method, a gloss acquisition state calculation program, a terminal, and a gloss acquisition state display program that can acquire the gloss transition of a real object with a small number of shots, regardless of the reflection characteristics, three-dimensional shape, and fine surface shape of the real object.

第1の態様の光沢取得状態算出装置は、対象物、前記対象物を照明する光源、前記対象物を撮影するカメラの少なくともいずれかの移動に伴って、前記カメラによって前記対象物を撮影することで得られた画像群を取得する画像取得手段と、前記対象物の3次元形状情報を取得する形状取得手段と、前記3次元形状情報によって示される前記対象物の表面領域毎に、前記画像群に亘る鏡面反射光の放射輝度の遷移の情報である放射輝度遷移情報を推定する放射輝度遷移推定手段と、前記表面領域毎に、前記放射輝度遷移情報の取得状態を示す取得状態情報を算出する算出手段とを備える。前記算出手段は、前記3次元形状情報から算出される前記表面領域の法線、前記画像群に亘る前記カメラの位置の情報であるカメラ位置情報によって示される前記カメラの位置及び前記画像群に亘る前記光源の位置の情報である光源位置情報によって示される前記光源の位置を用いて、前記カメラの位置に対し、前記表面領域を反射面として正反射方向となる前記光源の位置が存在するか否かを前記表面領域毎に判定し、少なくとも前記光源の位置が存在するか否かの判定の結果に基づき前記取得状態情報を算出する。 A gloss acquisition state calculation device according to a first aspect includes an image acquisition means for acquiring a group of images obtained by photographing an object with a camera in association with movement of at least one of the object, a light source illuminating the object, and a camera photographing the object, a shape acquisition means for acquiring three-dimensional shape information of the object, a radiance transition estimation means for estimating radiance transition information, which is information on the transition of radiance of specular reflected light across the group of images, for each surface region of the object represented by the three-dimensional shape information, and a calculation means for calculating acquisition state information indicating an acquisition state of the radiance transition information for each surface region. The calculation means uses a normal to the surface region calculated from the three-dimensional shape information, a position of the camera represented by camera position information, which is information on the position of the camera across the group of images, and a position of the light source represented by light source position information, which is information on the position of the light source across the group of images, to determine for each surface region whether or not there is a position of the light source in a specular reflection direction with the surface region as a reflecting surface relative to the position of the camera, and calculates the acquisition state information based on a result of the determination of whether or not at least the position of the light source is present.

第2の態様の光沢取得状態算出方法は、対象物、前記対象物を照明する光源、前記対象物を撮影するカメラの少なくともいずれかの移動に伴って、前記カメラによって前記対象物を撮影することで得られた画像群を取得することと、前記対象物の3次元形状情報を取得することと、前記3次元形状情報によって示される前記対象物の表面領域毎に、前記画像群に亘る鏡面反射光の放射輝度の遷移の情報である放射輝度遷移情報を推定することと、前記表面領域毎に、前記放射輝度遷移情報の取得状態を示す取得状態情報を算出することとを備える。前記取得状態情報を算出することは、前記3次元形状情報から算出される前記表面領域の法線、前記画像群に亘る前記カメラの位置の情報であるカメラ位置情報によって示される前記カメラの位置及び前記画像群に亘る前記光源の位置の情報である光源位置情報によって示される前記光源の位置を用いて、前記カメラの位置に対し、前記表面領域を反射面として正反射方向となる前記光源の位置が存在するか否かを前記表面領域毎に判定し、少なくとも前記光源の位置が存在するか否かの判定の結果に基づき前記取得状態情報を算出することを含む。 A gloss acquisition state calculation method according to a second aspect includes acquiring a group of images obtained by photographing an object with a camera in association with movement of at least one of the object, a light source illuminating the object, and a camera photographing the object, acquiring three-dimensional shape information of the object, estimating radiance transition information, which is information on the transition of radiance of specular reflected light across the group of images, for each surface region of the object indicated by the three-dimensional shape information, and calculating acquisition state information indicating an acquisition state of the radiance transition information for each surface region. The calculation of the acquisition state information includes determining, for each surface region, whether or not there is a position of the light source that is in a specular reflection direction with the surface region as a reflecting surface with respect to the position of the camera, using a normal of the surface region calculated from the three-dimensional shape information, a position of the camera indicated by camera position information, which is information on the position of the camera across the group of images, and a position of the light source indicated by light source position information, which is information on the position of the light source across the group of images, and calculating the acquisition state information based on a result of the determination of whether or not there is at least a position of the light source.

第3の態様の光沢取得状態算出プログラムは、対象物、前記対象物を照明する光源、前記対象物を撮影するカメラの少なくともいずれかの移動に伴って、前記カメラによって前記対象物を撮影することで得られた画像群を取得することと、前記対象物の3次元形状情報を取得することと、前記3次元形状情報によって示される前記対象物の表面領域毎に、前記画像群に亘る鏡面反射光の放射輝度の遷移の情報である放射輝度遷移情報を推定することと、前記表面領域毎に、前記放射輝度遷移情報の取得状態を示す取得状態情報を算出することをコンピュータに実行させる。前記取得状態情報を算出することは、前記3次元形状情報から算出される前記表面領域の法線、前記画像群に亘る前記カメラの位置の情報であるカメラ位置情報によって示される前記カメラの位置及び前記画像群に亘る前記光源の位置の情報である光源位置情報によって示される前記光源の位置を用いて、前記カメラの位置に対し、前記表面領域を反射面として正反射方向となる前記光源の位置が存在するか否かを前記表面領域毎に判定し、少なくとも前記光源の位置が存在するか否かの判定の結果に基づき前記取得状態情報を算出することを含む。 A gloss acquisition state calculation program according to a third aspect causes a computer to execute the following: acquiring a group of images obtained by photographing an object with a camera in association with the movement of at least one of the object, a light source illuminating the object, and a camera photographing the object; acquiring three-dimensional shape information of the object; estimating radiance transition information, which is information on the transition of radiance of specular reflected light across the group of images, for each surface region of the object indicated by the three-dimensional shape information; and calculating acquisition state information indicating an acquisition state of the radiance transition information for each surface region. The calculation of the acquisition state information includes: determining, for each surface region, whether or not there is a position of the light source that is in a specular reflection direction with the surface region as a reflecting surface with respect to the position of the camera, using a normal of the surface region calculated from the three-dimensional shape information, a position of the camera indicated by camera position information, which is information on the position of the camera across the group of images, and a position of the light source indicated by light source position information, which is information on the position of the light source across the group of images, and calculating the acquisition state information based on a result of the determination of whether or not there is at least a position of the light source.

本実施形態によれば、実物体の反射特性、立体形状及び微細表面形状によらず、少ない撮影枚数で持って実物体の光沢遷移を取得することができる光沢取得状態算出装置、光沢取得状態算出方法、光沢取得状態算出プログラム、端末及び光沢取得状態表示プログラムを提供することができる。 According to this embodiment, it is possible to provide a gloss acquisition state calculation device, a gloss acquisition state calculation method, a gloss acquisition state calculation program, a terminal, and a gloss acquisition state display program that can acquire the gloss transition of a real object with a small number of shots, regardless of the reflection characteristics, three-dimensional shape, and fine surface shape of the real object.

図1は、1つの実施形態に係る光沢取得状態算出装置の構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of the configuration of a gloss acquisition state calculation device according to an embodiment. 図2は、形状情報の一例としてのポリゴンデータの形式例を示す図である。FIG. 2 is a diagram showing an example of a format of polygon data as an example of shape information. 図3は、頂点データの形式例を示す図である。FIG. 3 is a diagram showing an example of the format of the vertex data. 図4は、画像解析装置の一例の構成を示すブロック図である。FIG. 4 is a block diagram showing a configuration of an example of an image analyzing apparatus. 図5は、プロセッサの機能ブロック図である。FIG. 5 is a functional block diagram of the processor. 図6は、カメラ情報と光源情報との対応を示す撮影画像情報テーブルの構成例を示す図である。FIG. 6 is a diagram showing an example of the configuration of a captured image information table indicating the correspondence between camera information and light source information. 図7は、一般的に用いられる物体の反射モデルの概要図である。FIG. 7 is a schematic diagram of a commonly used object reflection model. 図8は、放射輝度遷移情報を示す図である。FIG. 8 is a diagram showing radiance transition information. 図9Aは、閾値範囲の第1の設定例を示す図である。FIG. 9A is a diagram showing a first setting example of the threshold range. 図9Bは、閾値範囲の第2の設定例を示す図である。FIG. 9B is a diagram showing a second setting example of the threshold range. 図9Cは、閾値範囲の第3の設定例を示す図である。FIG. 9C is a diagram showing a third example of setting the threshold range. 図9Dは、閾値範囲の第4の設定例を示す図である。FIG. 9D is a diagram showing a fourth example of setting the threshold range. 図10は、指示画像の表示例である。FIG. 10 is a display example of an instruction image. 図11は、光沢取得状態算出方法の動作例を示すフローチャートである。FIG. 11 is a flowchart showing an example of the operation of the gloss acquisition state calculation method. 図12Aは、指示画像の表示例を示す図である。FIG. 12A is a diagram showing a display example of an instruction image. 図12Bは、指示画像の表示例を示す図である。FIG. 12B is a diagram showing a display example of an instruction image. 図12Cは、指示画像の表示例を示す図である。FIG. 12C is a diagram showing a display example of an instruction image. 図12Dは、指示画像の表示例を示す図である。FIG. 12D is a diagram showing a display example of an instruction image.

以下、本発明の実施形態について、図面を参照して説明する。図1は、1つの実施形態に係る光沢取得状態算出装置の構成の一例を示す図である。図1において、光沢取得状態算出装置1は、画像解析装置2、形状計測装置3、カメラ4、光源5及び画像表示装置6を含んでいる。 Embodiments of the present invention will now be described with reference to the drawings. FIG. 1 is a diagram showing an example of the configuration of a gloss acquisition state calculation device according to one embodiment. In FIG. 1, the gloss acquisition state calculation device 1 includes an image analysis device 2, a shape measurement device 3, a camera 4, a light source 5, and an image display device 6.

画像解析装置2は、形状計測装置3から取得される対象物7の3次元形状に関する情報、カメラ4から取得される対象物7の画像、カメラ4の位置情報、光源5の位置情報に基づいて、対象物7の形状及び質感を推定する。対象物7の形状は、全体の形状と、微細表面形状とを含む。微細表面形状は、対象物7に設定される表面領域における微細表面のそれぞれの形状である。微細表面形状は、対応する面を表す法線の情報を含む。また、対象物の質感は、微細表面形状毎の反射特性の情報を含む。画像解析装置2の詳細については後で説明する。 The image analysis device 2 estimates the shape and texture of the object 7 based on information about the three-dimensional shape of the object 7 acquired from the shape measurement device 3, the image of the object 7 acquired from the camera 4, position information of the camera 4, and position information of the light source 5. The shape of the object 7 includes the overall shape and the fine surface shape. The fine surface shape is the shape of each of the fine surfaces in the surface region set on the object 7. The fine surface shape includes information on normals that represent the corresponding faces. Furthermore, the texture of the object includes information on the reflection characteristics of each fine surface shape. Details of the image analysis device 2 will be described later.

形状計測装置3は、対象物7の3次元形状に関する情報を計測し、計測の結果として得られた形状情報を画像解析装置2に送る。形状計測装置3は、例えば能動的計測手法によって対象物7の3次元形状に関する情報を計測するように構成されている。能動的計測手法は、例えば、レーザ及びパターン光といった測定光を能動的に対象物7の表面に照射し、対象物7からの反射光を受光することで測定をする手法である。形状計測装置3は、対象物7の3次元形状に関する情報を計測できれば、特に限定されない。例えば、形状計測装置3は、視体積交差法及びステレオ法といった撮影により得られた画像を用いる受動的計測手法によって対象物7の3次元形状に関する情報を計測するように構成されていてもよい。受動的計測手法で用いられる画像は、形状計測装置3が撮影した画像であってもよいし、カメラ4で撮影された画像であってもよい。 The shape measurement device 3 measures information about the three-dimensional shape of the object 7 and sends the shape information obtained as a result of the measurement to the image analysis device 2. The shape measurement device 3 is configured to measure information about the three-dimensional shape of the object 7, for example, by an active measurement method. The active measurement method is a method in which measurement light, such as a laser or pattern light, is actively irradiated onto the surface of the object 7 and the reflected light from the object 7 is received to perform measurement. The shape measurement device 3 is not particularly limited as long as it can measure information about the three-dimensional shape of the object 7. For example, the shape measurement device 3 may be configured to measure information about the three-dimensional shape of the object 7 by a passive measurement method that uses images obtained by photography, such as a volume intersection method and a stereo method. The images used in the passive measurement method may be images taken by the shape measurement device 3 or images taken by the camera 4.

前述した能動的計測手法であっても、受動的計測手法であっても、測定の結果として得られる形状情報の多くは点群データで構成される。画像解析装置2は、点群データをポリゴンデータへと変換し、このポリゴンデータを形状情報として例えば図2のような形式でストレージに保存してよい。多くのポリゴンデータは、三角形ポリゴンで構成されている。このため、ポリゴンデータは、図2に示すように、三角形の頂点データで表現される。また、画像解析装置2は、それぞれの頂点データとして、図3に示す形式のデータをストレージに保存してもよい。図3に示す頂点データは、各頂点の座標と法線の情報とを持つデータである。図3に示すようにして保存された頂点の座標及び法線から、ポリゴンを構成する面の法線は算出され得る。 Whether the measurement method is the active one or the passive one described above, much of the shape information obtained as a result of the measurement is composed of point cloud data. The image analysis device 2 may convert the point cloud data into polygon data and store this polygon data as shape information in storage, for example, in a format as shown in FIG. 2. Most polygon data is composed of triangular polygons. For this reason, the polygon data is expressed as triangular vertex data as shown in FIG. 2. The image analysis device 2 may also store data in the format shown in FIG. 3 as each vertex data in storage. The vertex data shown in FIG. 3 is data that has information on the coordinates and normals of each vertex. The normals of the faces that make up the polygon can be calculated from the coordinates and normals of the vertices stored as shown in FIG. 3.

カメラ4は、対象物を撮影して対象物の画像を生成するように構成されている。カメラ4は、例えば光学系と、イメージセンサとを含む。光学系は、対象物の像をイメージセンサに結像させるように構成された光学系である。イメージセンサは、CCDイメージセンサ、CMOSイメージセンサといったイメージセンサであり、対象物から入射した光を電気信号に変換し、対象物の画像を生成する。ここで、実施形態では、カメラ4は、所定の位置に固定されているものとする。 Camera 4 is configured to capture an image of an object and generate an image of the object. Camera 4 includes, for example, an optical system and an image sensor. The optical system is an optical system configured to form an image of the object on the image sensor. The image sensor is an image sensor such as a CCD image sensor or a CMOS image sensor, and converts light incident from the object into an electrical signal to generate an image of the object. Here, in the embodiment, camera 4 is assumed to be fixed at a predetermined position.

光源5は、対象物を照明するための照明光を射出する。光源5は、例えばLED光源であるが、これに限定されない。また、後で説明するための反射光の計測を容易にするため、光源5は、線光源又は面光源であることが好ましい。線光源は発光部が線状であり、発光部より拡散照明光を射出するように構成された光源である。面光源は、発光部が面状であり、発光部より拡散照明光を射出するように構成された光源である。ただし、光源5は、点光源であってもよい。ここで、光源5は、カメラ4及び対象物7との相対位置を変更できるように構成されている。例えば、光源5は、ロボットアームに取り付けられていて、3次元的に位置を変更できるように構成されている。光源5は、カメラ4及び対象物7との相対位置を変更できるように構成されていればその具体的な構成は特に限定されない。また、光源5は、必ずしも機械的に移動できるように構成されている必要はない。例えば、光源5は、ユーザが手で持って移動できるように構成されていてもよい。 The light source 5 emits illumination light for illuminating the object. The light source 5 is, for example, an LED light source, but is not limited thereto. In addition, in order to facilitate measurement of reflected light, which will be described later, the light source 5 is preferably a line light source or a surface light source. A line light source is a light source configured to emit diffuse illumination light from a line-shaped light-emitting portion. A surface light source is a light source configured to emit diffuse illumination light from a surface-shaped light-emitting portion. However, the light source 5 may be a point light source. Here, the light source 5 is configured so that the relative position between the camera 4 and the object 7 can be changed. For example, the light source 5 is attached to a robot arm and configured so that the position can be changed three-dimensionally. The specific configuration of the light source 5 is not particularly limited as long as the relative position between the camera 4 and the object 7 can be changed. In addition, the light source 5 does not necessarily need to be configured so that it can be moved mechanically. For example, the light source 5 may be configured so that the user can hold it in his or her hand and move it.

画像表示装置6は、液晶ディスプレイ及び有機ELディスプレイといった表示装置である。画像表示装置6は、例えば画像解析装置2と通信できるように接続されており、画像解析装置2から送られてきた各種の画像を表示する。この画像は、例えば対象物の3次元画像を含む。 The image display device 6 is a display device such as a liquid crystal display or an organic EL display. The image display device 6 is connected to, for example, the image analysis device 2 so as to be able to communicate with it, and displays various images sent from the image analysis device 2. These images include, for example, three-dimensional images of the object.

図4は、画像解析装置2の一例の構成を示すブロック図である。画像解析装置2は、プロセッサ21と、ROM22と、RAM23と、ストレージ24と、入力インターフェース25と、出力インターフェース26と、通信インターフェース27とを含む。これらの各々は、バス28を介して互いに接続されている。画像解析装置2は、パーソナルコンピュータ(PC)、タブレット端末、スマートフォン等の電子機器であってよい。 Figure 4 is a block diagram showing an example of the configuration of the image analysis device 2. The image analysis device 2 includes a processor 21, a ROM 22, a RAM 23, a storage 24, an input interface 25, an output interface 26, and a communication interface 27. Each of these is connected to each other via a bus 28. The image analysis device 2 may be an electronic device such as a personal computer (PC), a tablet terminal, or a smartphone.

プロセッサ21は、画像解析装置2の各種動作を制御するプロセッサである。プロセッサ21は、例えばCPUであるが、これに限定されない。プロセッサ21は、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、GPU(Graphic Processing unit)等であってもよい。また、プロセッサ21は、必ずしも1つのCPU等で構成されている必要はなく、複数のCPU等で構成されていてもよい。 The processor 21 is a processor that controls various operations of the image analysis device 2. The processor 21 is, for example, a CPU, but is not limited to this. The processor 21 may be an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), a GPU (Graphic Processing unit), etc. Furthermore, the processor 21 does not necessarily have to be composed of one CPU, etc., but may be composed of multiple CPUs, etc.

ROM22は、画像解析装置2の起動プログラム等を記憶している。RAM23は、プロセッサ21等のための主記憶装置である。 The ROM 22 stores the startup program of the image analysis device 2, etc. The RAM 23 is a main storage device for the processor 21, etc.

ストレージ24は、ハードディスク、ソリッドステートドライブといったストレージである。ストレージ24には、プロセッサ21によって用いられる画像解析装置2の制御に必要な各種プログラム、パラメータ等が記憶されている。この各種プログラムは、光沢取得状態算出プログラムを含む。また、ストレージ24には、形状計測装置3の計測結果としての対象物の形状情報、カメラ4で生成された画像、カメラ4の位置、光源5の位置といった各種のデータが記憶される。 The storage 24 is a storage such as a hard disk or a solid state drive. The storage 24 stores various programs, parameters, etc., which are used by the processor 21 and are necessary for controlling the image analysis device 2. These various programs include a gloss acquisition state calculation program. The storage 24 also stores various data such as shape information of the object as the measurement result of the shape measurement device 3, the image generated by the camera 4, the position of the camera 4, and the position of the light source 5.

入力インターフェース25は、キーボード、マウス、タッチパネル等を含む。入力インターフェース25を介したユーザの操作に応じて、そのユーザの操作の内容を示す信号がバス28を介してプロセッサ21に入力される。プロセッサ21は、この操作の内容を示す信号に応じて各種の処理を実行する。 The input interface 25 includes a keyboard, a mouse, a touch panel, etc. In response to a user's operation via the input interface 25, a signal indicating the content of the user's operation is input to the processor 21 via the bus 28. The processor 21 executes various processes in response to the signal indicating the content of the operation.

出力インターフェース26は、例えば画像表示装置6との通信のためのインターフェースを含む。出力インターフェース26は、画像表示装置6において画像を表示させる際に、適宜なタイミングで画像表示装置6に画像のデータを送る。また、出力インターフェース26は、プリンタとの通信のためのインターフェースを含んでいてもよい。 The output interface 26 includes, for example, an interface for communication with the image display device 6. The output interface 26 sends image data to the image display device 6 at an appropriate timing when an image is displayed on the image display device 6. The output interface 26 may also include an interface for communication with a printer.

通信インターフェース27は、画像解析装置2と、形状計測装置3、カメラ4、光源5との通信のためのインターフェースを含む。通信インターフェース27は、有線通信による通信のためのインターフェースを含んでいてもよいし、無線通信による通信のためのインターフェースを含んでいてもよい。 The communication interface 27 includes interfaces for communication between the image analysis device 2 and the shape measurement device 3, the camera 4, and the light source 5. The communication interface 27 may include an interface for communication via wired communication, or an interface for communication via wireless communication.

図5は、プロセッサ21の機能ブロック図である。プロセッサ21は、画像取得部211と、形状取得部212と、カメラ情報取得部213と、光源情報取得部214と、放射輝度遷移推定部215と、算出部216と、指示画像生成部217と、光源制御部218と、質感情報推定部219とを含む。画像取得部211と、形状取得部212と、カメラ情報取得部213と、光源情報取得部214と、放射輝度遷移推定部215と、算出部216と、指示画像生成部217と、光源制御部218と、質感情報推定部219は、例えばストレージ24に記憶されている光沢取得状態算出プログラムをプロセッサ21が実行することによって実現される。画像取得部211と、形状取得部212と、カメラ情報取得部213と、光源情報取得部214と、放射輝度遷移推定部215と、算出部216と、指示画像生成部217と、光源制御部218と、質感情報推定部219は、各々と同様の処理を行うハードウェアによって実現されてもよい。 Figure 5 is a functional block diagram of the processor 21. The processor 21 includes an image acquisition unit 211, a shape acquisition unit 212, a camera information acquisition unit 213, a light source information acquisition unit 214, a radiance transition estimation unit 215, a calculation unit 216, a pointer image generation unit 217, a light source control unit 218, and a texture information estimation unit 219. The image acquisition unit 211, the shape acquisition unit 212, the camera information acquisition unit 213, the light source information acquisition unit 214, the radiance transition estimation unit 215, the calculation unit 216, the pointer image generation unit 217, the light source control unit 218, and the texture information estimation unit 219 are realized by the processor 21 executing a gloss acquisition state calculation program stored in the storage 24, for example. The image acquisition unit 211, shape acquisition unit 212, camera information acquisition unit 213, light source information acquisition unit 214, radiance transition estimation unit 215, calculation unit 216, instruction image generation unit 217, light source control unit 218, and texture information estimation unit 219 may be realized by hardware that performs similar processing to each other.

画像取得部211は、カメラ4から画像を取得する。この画像は、光源5の移動に伴って対象物7を撮影することによって生成された複数の画像を含む画像群である。画像群は、カメラ4による複数回の静止画撮影によって生成されてもよいし、カメラ4による1回の動画撮影によって生成されてもよい。 The image acquisition unit 211 acquires images from the camera 4. These images are an image group including multiple images generated by photographing the object 7 as the light source 5 moves. The image group may be generated by capturing multiple still images with the camera 4, or may be generated by capturing a video once with the camera 4.

形状取得部212は、形状計測装置3から対象物7の形状情報を取得する。前述したように、対象物7の形状情報は、ポリゴンデータであってよい。 The shape acquisition unit 212 acquires shape information of the object 7 from the shape measurement device 3. As described above, the shape information of the object 7 may be polygon data.

カメラ情報取得部213は、カメラ4のカメラ情報を取得し、取得したカメラ情報をストレージ24に格納する。カメラ情報は、カメラ4の位置を含む。また、カメラ情報は、焦点距離等のカメラ4の撮影条件を含んでいてもよい。 The camera information acquisition unit 213 acquires camera information of the camera 4 and stores the acquired camera information in the storage 24. The camera information includes the position of the camera 4. The camera information may also include the shooting conditions of the camera 4, such as the focal length.

カメラ4の位置は、事前にチェッカーボード等をカメラ4によって撮影することで導出され得る。また、カメラ4の位置は、画像取得部211で取得される対象物7の画像から特徴点を抽出し、この特徴点に基づいてカメラキャリブレーションを実施することで導出されてもよい。 The position of the camera 4 can be derived in advance by photographing a checkerboard or the like with the camera 4. The position of the camera 4 may also be derived by extracting feature points from an image of the object 7 acquired by the image acquisition unit 211 and performing camera calibration based on the feature points.

光源情報取得部214は、光源5の光源情報を取得し、取得した光源情報をストレージ24に格納する。光源情報は、光源5の位置、照明光の放射輝度、色温度等を含む。 The light source information acquisition unit 214 acquires light source information of the light source 5 and stores the acquired light source information in the storage 24. The light source information includes the position of the light source 5, the radiance of the illumination light, the color temperature, etc.

光源5がロボットアーム等によって機械的に移動できるように構成されているときには、ロボットアーム等に取り付けられたセンサのセンサ情報により、光源5の位置は、正確に取得され得る。一方、光源5が例えばユーザの手によって移動されるように構成されているときには、光源5に位置センサ及び多軸の加速度センサ等が設けられていれば、光源位置は、位置センサ及び加速度センサ等のセンサ情報から推定され得る。 When the light source 5 is configured to be mechanically movable by a robot arm or the like, the position of the light source 5 can be accurately obtained from sensor information of a sensor attached to the robot arm or the like. On the other hand, when the light source 5 is configured to be moved, for example, by a user's hand, if the light source 5 is provided with a position sensor and a multi-axis acceleration sensor, the light source position can be estimated from sensor information of the position sensor, acceleration sensor, etc.

さらに、光源位置は、カメラ4で得られる画像から推定されてもよい。例えば、画像に光源が写っているときには、光源情報取得部214は、カメラ4で撮影された画像を、カメラ情報に基づいてポリゴンデータに投影する。そして、光源情報取得部214は、投影領域のうち、例えば所定の閾値以上の輝度値を有する投影領域の位置を光源の位置とみなす。なお、この手法では、光源情報取得部214は、投影領域の形状から、光源の形状も推定してよい。また、光源が画像に写っている場合には、光源情報取得部214は、ユーザからの明示的な光源の領域の指定によって光源の位置及び形状を推定してもよい。また、対象物7とともに既知の形状と反射特性とを有する基準物体が画像に写っているのであれば、光源が画像に写っていなくても、光源情報取得部214は、この基準物体からの反射光を画像から検出し、検出した反射光に基づいて光源の位置を推定してもよい。このとき、基準物体にマーカがつけられていれば、このマーカの検出によって画像から基準物体の位置が容易に推定され得る。また、光源が固定されているときには、光源が写るように撮影がされた特定の画像から推定される光源の位置及び形状が常に用いられてもよい。 Furthermore, the light source position may be estimated from an image obtained by the camera 4. For example, when a light source is captured in the image, the light source information acquisition unit 214 projects the image captured by the camera 4 onto the polygon data based on the camera information. Then, the light source information acquisition unit 214 regards the position of a projection area having a luminance value of, for example, a predetermined threshold or more among the projection areas as the position of the light source. In this method, the light source information acquisition unit 214 may also estimate the shape of the light source from the shape of the projection area. Also, when a light source is captured in the image, the light source information acquisition unit 214 may estimate the position and shape of the light source by an explicit designation of the light source area by the user. Also, if a reference object having a known shape and reflection characteristics is captured in the image together with the target object 7, even if the light source is not captured in the image, the light source information acquisition unit 214 may detect reflected light from this reference object from the image and estimate the position of the light source based on the detected reflected light. At this time, if a marker is attached to the reference object, the position of the reference object can be easily estimated from the image by detecting the marker. Also, when the light source is fixed, the position and shape of the light source estimated from a specific image captured so that the light source is visible may always be used.

また、光源の位置だけでなく、放射輝度も画像から求められてもよい。対象物7とともに基準物体が配置されている場合には、基準物体からの反射光に基づき光源の配光分布が算出され得る。 In addition to the position of the light source, the radiance may also be obtained from the image. If a reference object is placed together with the target object 7, the light distribution of the light source can be calculated based on the light reflected from the reference object.

ここで、カメラ情報と光源情報とは撮影時間をインデックスとして関連付けられてストレージ24に格納される。図6は、カメラ情報と光源情報との対応を示す撮影画像情報テーブルの構成例を示す図である。図6に示すように、撮影画像番号の欄に対応して、カメラ情報及び光源情報の各々の欄がレコード毎に設けられている。対象物7が動画撮影された際には、カメラ情報及び光源情報は動画のフレーム毎に格納される。 The camera information and light source information are stored in storage 24 in association with each other using the shooting time as an index. Figure 6 is a diagram showing an example of the configuration of a captured image information table showing the correspondence between camera information and light source information. As shown in Figure 6, a column for each camera information and light source information is provided for each record, corresponding to the column for the captured image number. When the object 7 is captured as a video, the camera information and light source information are stored for each frame of the video.

ここで図5の説明に戻る。放射輝度遷移推定部215は、光源5の入射光の放射輝度から、対象物7の放射輝度遷移情報を推定する。放射輝度遷移情報は、画像群に亘る放射輝度の遷移を表す情報である。つまり、放射輝度遷移情報は、対象物7の光沢遷移を表している。放射輝度遷移情報を推定するのは、対象物7の反射特性を推定するためには、ピーク時の放射輝度のみを計測するのではなく、光源5の移動に伴って放射輝度がどのように変化するのかを計測する必要があるためである。ここで、表面領域は、対象物7に設定される領域である。表面領域は、例えば1つ又は複数のポリゴンと対応する彩色部位であってよい。また、表面領域は、例えば1つ又は複数の画素と対応する部位であってもよい。 Returning now to the explanation of FIG. 5, the radiance transition estimation unit 215 estimates radiance transition information of the object 7 from the radiance of the incident light of the light source 5. The radiance transition information is information that represents the transition of radiance across a group of images. In other words, the radiance transition information represents the gloss transition of the object 7. The reason for estimating the radiance transition information is that, in order to estimate the reflection characteristics of the object 7, it is necessary to measure how the radiance changes as the light source 5 moves, rather than just measuring the radiance at the peak. Here, the surface region is a region that is set on the object 7. The surface region may be, for example, a colored portion corresponding to one or more polygons. The surface region may also be, for example, a portion corresponding to one or more pixels.

算出部216は、対象物7の放射輝度、カメラ情報、光源情報及び対象物7の形状情報をもとに、対象物7の表面領域毎の放射輝度遷移情報の取得状態を示す取得状態情報を算出する。取得状態情報は、放射輝度遷移情報が取得できたか否かを示す情報である。 The calculation unit 216 calculates acquisition status information indicating the acquisition status of the radiance transition information for each surface region of the object 7 based on the radiance of the object 7, the camera information, the light source information, and the shape information of the object 7. The acquisition status information is information indicating whether or not the radiance transition information has been acquired.

以下、取得状態情報についてさらに説明する。図7は、一般的に用いられる物体の反射モデルの概要図である。図7の反射モデルでは、光源71からの入射光が物体の微細表面70に対して照射され、微細表面70からの反射光が視点72において観測される。図7において、Nは、微細表面70の法線ベクトルである。Lは、反射位置を基準とした光源71の方向を表すベクトルである。Vは、反射位置を基準とした視点72の方向を表すベクトルである。また、θは、ベクトルNとベクトルVのなす角であり、θLは、入射角及び反射角である。 The acquisition state information will be further described below. Fig. 7 is a schematic diagram of a commonly used reflection model of an object. In the reflection model of Fig. 7, incident light from a light source 71 is irradiated onto a microscopic surface 70 of an object, and reflected light from the microscopic surface 70 is observed at a viewpoint 72. In Fig. 7, N is a normal vector of the microscopic surface 70. L is a vector representing the direction of the light source 71 based on the reflection position. V is a vector representing the direction of the viewpoint 72 based on the reflection position. In addition, θr is the angle between vector N and vector V, and θL is the angle of incidence and the angle of reflection.

一般的にCGの分野では、微細表面70における光の透過がないものとすると、微細表面70からの反射光は拡散反射光73と鏡面反射光74の足し合わせで構成されることが知られている。このような反射モデルは、二色性反射モデルと呼ばれている。二色性反射モデルは、拡散反射光73と鏡面反射光74のそれぞれの特性を表すモデル式によって表現される。 It is generally known in the field of CG that if there is no light transmission through the microsurface 70, the reflected light from the microsurface 70 is composed of the sum of diffuse reflected light 73 and specular reflected light 74. This type of reflection model is called a dichromatic reflection model. The dichromatic reflection model is expressed by a model equation that represents the respective characteristics of the diffuse reflected light 73 and specular reflected light 74.

光源71からの入射光の放射輝度をILとしたとき、拡散反射光73の放射輝度Idは以下の式(1)により表される。ここで、(式1)のkdは、拡散反射成分の反射率である。また、fidは、kd、N、Lをパラメータとする所定の関数である。式(1)において、放射輝度Idは、ベクトルVによって変化しない。つまり、式(1)からは、拡散反射光73は、視点72の位置によって変化せず、全方向に同一の輝度で放射することがわかる。
Id = IL×kd×|L||N|cosθL = IL×fid(kd, N, L) (1)
When the radiance of the incident light from the light source 71 is IL, the radiance Id of the diffusely reflected light 73 is expressed by the following formula (1). Here, kd in formula (1) is the reflectance of the diffusely reflected component. Also, f id is a predetermined function with kd, N, and L as parameters. In formula (1), the radiance Id does not change with the vector V. In other words, formula (1) shows that the diffusely reflected light 73 does not change depending on the position of the viewpoint 72, and is radiated with the same luminance in all directions.
Id = IL × kd × |L||N|cosθ L = IL × f id (kd, N, L) (1)

これに対して鏡面反射光74は、一般的には光源71の方向Lに対して正反射方向へと強い光を放つ。これにより観察者は、物体の表面においてハイライトを知覚する。CGにおいてよく用いられるCook-Torranceの反射モデルによる鏡面反射光の輝度Isは以下の式(2)で表される。
Is = IL×F/π×DG/(N・L)(N・V)= IL×fis(ks, σ, N, L, V) (2)
式(2)においてFは、フレネル項であり、微細表面における鏡面反射の程度を示す。Gは幾何減衰項であり、物体の微細表面による自己陰影を示す。また、Dは、ベックマン分布項であり微細表面のばらつきを示す。このD項が鏡面反射光の広がりを示し、物体の表面の粗さによって異なる。
式(2)の右辺は、式(2)の左辺を単純化した式である。式(2)の右辺では、放射輝度Isは、ks、σ、N、L、Vをパラメータとする所定の関数fisを用いて表される。ここで、ksは、鏡面反射率である。σは表面粗さである。表面粗さσを推定するためには、ある特定の位置の光源についての放射輝度だけではなく、光源の移動に伴う放射輝度の遷移を取得する必要がある。このような放射輝度の遷移を示す放射輝度遷移情報を取得できたか否かの判定が算出部216によって行われる。
In contrast, specular reflected light 74 generally emits strong light in the regular reflection direction relative to the direction L of the light source 71. This causes the observer to perceive a highlight on the surface of the object. The brightness Is of specular reflected light according to the Cook-Torrance reflection model that is often used in CG is expressed by the following formula (2).
Is = IL×F/π×DG/(N・L)(N・V) = IL×f is (ks, σ, N, L, V) (2)
In formula (2), F is a Fresnel term that indicates the degree of specular reflection on the microscopic surface. G is a geometric attenuation term that indicates the self-shadowing caused by the microscopic surface of the object. Furthermore, D is a Beckmann distribution term that indicates the variation of the microscopic surface. This D term indicates the spread of specularly reflected light and differs depending on the roughness of the object's surface.
The right side of equation (2) is a simplified version of the left side of equation (2). In the right side of equation (2), radiance Is is expressed using a predetermined function f is with parameters ks, σ, N, L, and V. Here, ks is the specular reflectance, and σ is the surface roughness. In order to estimate the surface roughness σ, it is necessary to obtain not only the radiance for a light source at a specific position, but also the transition of the radiance associated with the movement of the light source. The calculation unit 216 determines whether or not radiance transition information indicating such a transition of the radiance has been obtained.

算出部216は、形状計測装置3で取得された対象物7の形状情報をもとに、対象物7の表面領域毎に法線を算出する。そして、算出部216は、表面領域毎の法線から算出される、カメラ4の正反射方向となる位置を光源5が通過しているか否かを判定し、この判定結果に基づいて第1の取得状態情報を生成する。第1の取得状態情報は、例えばカメラ4の正反射方向となる位置を光源5が通過しているか否かを示す数値であってよい。この場合、例えば、第1の取得状態情報は、通過しているときに1を示し、通過していないときに0を示すように生成されてよい。 The calculation unit 216 calculates the normal for each surface region of the object 7 based on the shape information of the object 7 acquired by the shape measurement device 3. The calculation unit 216 then determines whether the light source 5 is passing through a position in the specular reflection direction of the camera 4, which is calculated from the normal for each surface region, and generates first acquisition status information based on this determination result. The first acquisition status information may be, for example, a numerical value indicating whether the light source 5 is passing through a position in the specular reflection direction of the camera 4. In this case, for example, the first acquisition status information may be generated to indicate 1 when the light source 5 is passing through, and 0 when the light source is not passing through.

図7から分かるように、カメラ4の視線方向ベクトルVに対する正反射方向ベクトルL’は以下の式(3)によって導出される。算出部216は、光源5の方向ベクトルLが正反射方向ベクトルL’を通過したときに、カメラ4の正反射方向となる位置を光源5が通過したと判定する。カメラ4の正反射方向となる位置に光源5が位置しているとき、対象物7の光沢はピークを示す。
L’ = 2・N・(V・N)-V (3)
ここで、光源5が線光源及び面光源等の大きさを持った光源である場合には、放射輝度遷移推定部215は、光源5の一部が正反射方向ベクトルL’上を光源5が通過したときに、カメラ4の正反射方向となる位置を光源5が通過したと判定する。
7, the specular reflection direction vector L' with respect to the line of sight direction vector V of the camera 4 is derived by the following formula (3). When the direction vector L of the light source 5 passes through the specular reflection direction vector L', the calculation unit 216 determines that the light source 5 has passed a position that is in the specular reflection direction of the camera 4. When the light source 5 is located at a position that is in the specular reflection direction of the camera 4, the gloss of the object 7 reaches its peak.
L' = 2 × N × (V × N) - V (3)
Here, when the light source 5 is a light source having a size such as a line light source or a surface light source, the radiance transition estimation unit 215 determines that the light source 5 has passed a position where a part of the light source 5 is in the specular reflection direction of the camera 4 when the light source 5 passes along the specular reflection direction vector L'.

また、算出部216は、表面粗さσを推定するに足る放射輝度の遷移が取得できているか否かを判定し、この判定結果に基づいて第2の取得状態情報を生成する。第2の取得状態情報は、例えば表面粗さσを推定するに足る放射輝度の遷移が取得できているか否かを示す数値であってよい。この場合、例えば、第2の取得状態情報は、取得できているときに1を示し、取得できていないときに0を示すように生成されてよい。 The calculation unit 216 also determines whether a transition in radiance sufficient to estimate the surface roughness σ has been acquired, and generates second acquisition status information based on this determination result. The second acquisition status information may be, for example, a numerical value indicating whether a transition in radiance sufficient to estimate the surface roughness σ has been acquired. In this case, for example, the second acquisition status information may be generated to indicate 1 when acquisition has been achieved, and 0 when acquisition has not been achieved.

図8は、放射輝度遷移情報を示す図である。図8の横軸は、画像の変化、すなわち光源の位置の変化である。また、図8の縦軸は、光沢ピークに対応する放射輝度の値で正規化された放射輝度の値である。光源5が連続的に移動するとき、放射輝度も図8のグラフで示すように連続的に遷移する。ここで、グラフ内のマーカは、実際に放射輝度の値を計測することができた点である計測点を示す。算出部216は、光沢ピークの放射輝度の値に対する割合で示した閾値範囲内において、指定された個数以上の計測点が取得できているときには、表面粗さσを推定するに足る放射輝度遷移情報が取得できていると判定する。光沢ピークの放射輝度は、厳密な光沢ピークの放射輝度でなくてもよい。例えば、光沢ピークの放射輝度として、計測点の中の最大の放射輝度が用いられてもよい。 Figure 8 is a diagram showing radiance transition information. The horizontal axis of Figure 8 is the change in the image, that is, the change in the position of the light source. The vertical axis of Figure 8 is the value of radiance normalized by the value of radiance corresponding to the gloss peak. When the light source 5 moves continuously, the radiance also transitions continuously as shown in the graph of Figure 8. Here, the markers in the graph indicate measurement points that are points where the radiance value can actually be measured. When a specified number or more of measurement points are obtained within a threshold range indicated by a ratio to the radiance value of the gloss peak, the calculation unit 216 determines that radiance transition information sufficient for estimating the surface roughness σ has been obtained. The radiance of the gloss peak does not have to be the radiance of the gloss peak strictly. For example, the maximum radiance among the measurement points may be used as the radiance of the gloss peak.

ここで、閾値範囲はユーザによって指定されてよいが、予め設定されていてもよい。閾値範囲を予め設定しておく際の設定手法の例を以下に示す。閾値範囲は、以下の設定手法の例とは異なる考え方に基づいて設定されてもよい。 Here, the threshold range may be specified by the user, but may also be set in advance. An example of a setting method for setting the threshold range in advance is shown below. The threshold range may also be set based on a different concept from the example setting method below.

図9Aは、閾値範囲の第1の設定例を示す図である。第1の設定例は、表面粗さσを推定するに足る最低限の放射輝度遷移情報が取得できていればよいとする考え方に基づいている。第1の例では、閾値範囲は、光沢ピークの放射輝度に対して20-100%の範囲に設定される。そして、算出部216は、光沢ピークに対応する計測点と、閾値範囲に含まれる2以上の計測点の3点以上の計測点が取得できているときには、表面粗さσを推定するに足る放射輝度遷移情報が取得できていると判定する。 Figure 9A is a diagram showing a first setting example of the threshold range. The first setting example is based on the idea that it is sufficient to acquire the minimum amount of radiance transition information sufficient to estimate the surface roughness σ. In the first example, the threshold range is set to a range of 20-100% of the radiance of the gloss peak. Then, when three or more measurement points have been acquired, including the measurement point corresponding to the gloss peak and two or more measurement points included in the threshold range, the calculation unit 216 determines that sufficient radiance transition information has been acquired to estimate the surface roughness σ.

図9Bは、閾値範囲の第2の設定例を示す図である。第2の設定例は、金属表面及びプラスチック表面といった光沢の強い表面を有する対象物に対する閾値範囲の設定例である。光沢の強い対象物の場合、図9Bに示すように、放射輝度は光沢ピークにおいて急峻な変化を示す。したがって、光沢の強い対象物の場合、閾値範囲を広げないと十分な数の計測点を取得できない可能性が生じる。このため、第2の例では、閾値範囲は、光沢ピークの放射輝度に対して10-100%の範囲に設定される。そして、算出部216は、光沢ピークに対応する計測点と、閾値範囲に含まれる2以上の計測点の3点以上の計測点が取得できているときには、表面粗さσを推定するに足る放射輝度遷移情報が取得できていると判定する。 Figure 9B is a diagram showing a second setting example of the threshold range. The second setting example is an example of setting the threshold range for an object having a highly glossy surface such as a metal surface or a plastic surface. In the case of a highly glossy object, as shown in Figure 9B, the radiance shows a steep change at the gloss peak. Therefore, in the case of a highly glossy object, there is a possibility that a sufficient number of measurement points cannot be obtained unless the threshold range is widened. For this reason, in the second example, the threshold range is set to a range of 10-100% of the radiance of the gloss peak. Then, when three or more measurement points, including the measurement point corresponding to the gloss peak and two or more measurement points included in the threshold range, have been obtained, the calculation unit 216 determines that radiance transition information sufficient for estimating the surface roughness σ has been obtained.

図9Cは、閾値範囲の第3の設定例を示す図である。第3の設定例は、布表面、シボ加工された表面、革表面といった光沢の弱い表面を有する対象物に対する閾値範囲の設定例である。光沢の弱い対象物の場合、図9Cに示すように、光源の位置の変化に対して広く分布する。したがって、光沢の弱い対象物の場合、閾値範囲を広げすぎると必要以上に多くの計測点が取得される可能性が生じる。このため、第3の例では、閾値範囲は、光沢ピークの放射輝度に対して50-100%の範囲に設定される。そして、算出部216は、光沢ピークに対応する計測点と、閾値範囲に含まれる2以上の計測点の3点以上の計測点が取得できているときには、表面粗さσを推定するに足る放射輝度遷移情報が取得できていると判定する。 Figure 9C is a diagram showing a third setting example of the threshold range. The third setting example is an example of setting the threshold range for an object having a surface with low gloss, such as a cloth surface, a textured surface, or a leather surface. For an object with low gloss, as shown in Figure 9C, the distribution is wide with respect to the change in the position of the light source. Therefore, for an object with low gloss, if the threshold range is too wide, there is a possibility that more measurement points than necessary will be acquired. For this reason, in the third example, the threshold range is set to a range of 50-100% of the radiance of the gloss peak. Then, when three or more measurement points, including the measurement point corresponding to the gloss peak and two or more measurement points included in the threshold range, have been acquired, the calculation unit 216 determines that radiance transition information sufficient to estimate the surface roughness σ has been acquired.

図9Dは、閾値範囲の第4の設定例を示す図である。第4の設定例は、高精度の光沢の推定が必要となるときの設定例である。高精度の光沢の推定が必要となるときには、図9Dに示すように例えば2つの閾値範囲が設定される。閾値範囲1は、光沢ピークの放射輝度に対して70-100%の範囲に設定される。閾値範囲2は、光沢ピークの放射輝度に対して40-70%の範囲に設定される。そして、算出部216は、光沢ピークに対応する計測点と、閾値範囲1に含まれる2以上の計測点と、閾値範囲2に含まれる2以上の計測点との5点以上の計測点が取得できているときには、表面粗さσを推定するに足る放射輝度遷移情報が取得できていると判定する。なお、第4の設定例において、より高精度の光沢の推定が必要となるときには、閾値範囲は3つ以上設定されてよい。 Figure 9D is a diagram showing a fourth setting example of the threshold range. The fourth setting example is a setting example when a highly accurate estimation of gloss is required. When a highly accurate estimation of gloss is required, for example, two threshold ranges are set as shown in Figure 9D. Threshold range 1 is set to a range of 70-100% of the radiance of the gloss peak. Threshold range 2 is set to a range of 40-70% of the radiance of the gloss peak. Then, when five or more measurement points have been acquired, including the measurement point corresponding to the gloss peak, two or more measurement points included in threshold range 1, and two or more measurement points included in threshold range 2, the calculation unit 216 determines that radiance transition information sufficient to estimate the surface roughness σ has been acquired. Note that in the fourth setting example, when a more accurate estimation of gloss is required, three or more threshold ranges may be set.

ここで図5の説明に戻る。指示画像生成部217は、算出部216で算出された取得状態情報に基づいて、指示画像を生成する。指示画像は、放射輝度遷移情報、すなわち光沢の遷移が取得できた表面領域と取得できていない表面領域とを区別して表す画像である。指示画像は、例えば、画像表示装置6に表示される。図10は、指示画像の表示例である。図10の指示画像は、対象物7のポリゴンモデルに所定のテクスチャを貼り付けることによって生成されたテクスチャモデルのうちの放射輝度遷移情報が取得されている表面領域の画素値を、他の表面領域の画素値と異ならせることで生成される。このような指示画像では、放射輝度遷移情報が取得されている表示領域61は他の表面領域とは異なる色で表示される。ユーザは、画像表示装置6に表示されているテクスチャモデルを見て、放射輝度遷移情報が取得されている部分と取得されていない部分とを識別できる。これにより、ユーザは、放射輝度遷移情報が取得できていない表面領域についての放射輝度遷移情報が取得できるように光源5を移動させ、カメラ4による再撮影を実施することができる。 Now, let us return to the explanation of FIG. 5. The indication image generating unit 217 generates an indication image based on the acquisition state information calculated by the calculation unit 216. The indication image is an image that distinguishes between surface areas where radiance transition information, i.e., gloss transition, has been acquired and surface areas where it has not been acquired. The indication image is displayed, for example, on the image display device 6. FIG. 10 is an example of an indication image. The indication image of FIG. 10 is generated by making the pixel values of the surface area where radiance transition information has been acquired in the texture model generated by pasting a predetermined texture on the polygon model of the object 7 different from the pixel values of the other surface areas. In such an indication image, the display area 61 where radiance transition information has been acquired is displayed in a color different from the other surface areas. The user can distinguish between the part where radiance transition information has been acquired and the part where it has not been acquired by looking at the texture model displayed on the image display device 6. This allows the user to move the light source 5 so that radiance transition information can be acquired for the surface area where radiance transition information has not been acquired, and to perform re-imaging with the camera 4.

ここで図5の説明に戻る。光源制御部218は、算出部216で算出された取得状態情報に基づいて光源5を移動させる。具体的には、光源制御部218は、放射輝度遷移情報が取得できるような位置に光源5を移動させる。 Returning now to the explanation of FIG. 5, the light source control unit 218 moves the light source 5 based on the acquisition state information calculated by the calculation unit 216. Specifically, the light source control unit 218 moves the light source 5 to a position where radiance transition information can be acquired.

質感情報推定部219は、ストレージ24に記憶されたカメラ情報、光源情報及び対象物7の形状情報を用いて、対象物7の表面領域毎の反射定数及び法線の推定を実施する。 The texture information estimation unit 219 uses the camera information, light source information, and shape information of the object 7 stored in the storage 24 to estimate the reflection constant and normal for each surface area of the object 7.

反射定数及び法線は、表面領域の放射輝度Ioと計算によって推定した放射輝度Io’との誤差を最小化するパラメータの最適解を推定することで導出される。例えば、対象物の反射モデルとして式(1)および式(2)が利用されている場合には、放射輝度Io’は以下の式(4)で計算される。
Io’ = Id + Is = IL×{fid(kd, N, L)+ fis(ks, σ, N, L, V)} (4)
式(4)において、ベクトルL及びベクトルVはストレージ24に記憶されているカメラ情報及び光源情報から算出されるために既知である。また、表面領域の法線ベクトルNは、表面領域のポリゴンの持つ法線ベクトルNpと表面領域における微細表面の法線ベクトルNmの足し合わせで表現される。前述したように、法線ベクトルNpは形状計測装置3で取得される形状情報から算出されるために既知である。よって、以下の式(5)で示す2乗誤差Jを最小化する問題を解くことで、表面領域毎の反射定数(kd, ks, σ)及び微小法線Nmが推定され得る。この推定が対象物7のすべての表面領域で実施されることで、対象物7の全体の形状及び反射特性が推定され得る。
J = 1 / 2 Σn(Ion-Ion’)2 (5)
The reflection constant and normal are derived by estimating the optimal solution of the parameters that minimize the error between the radiance Io of the surface area and the calculated radiance Io'. For example, when equations (1) and (2) are used as the reflection model of the object, the radiance Io' is calculated by the following equation (4).
Io' = Id + Is = IL × {f id (kd, N, L) + f is (ks, σ, N, L, V)} (4)
In formula (4), vectors L and V are known because they are calculated from the camera information and light source information stored in the storage 24. The normal vector N of the surface region is expressed by adding the normal vector Np of the polygon in the surface region and the normal vector Nm of the micro surface in the surface region. As described above, the normal vector Np is known because it is calculated from the shape information acquired by the shape measurement device 3. Therefore, by solving the problem of minimizing the square error J shown in the following formula (5), the reflection constant (kd, ks, σ) and the micro normal Nm for each surface region can be estimated. This estimation is performed for all surface regions of the object 7, and the overall shape and reflection characteristics of the object 7 can be estimated.
J = 1 / 2 Σ n (Io n -Io n ') 2 (5)

図11は、本実施形態に係る光沢取得状態算出装置の動作例を示すフローチャートである。ここで、図11の例における対象物7は、光が透過しない表面を有する物体であるとする。 Figure 11 is a flowchart showing an example of the operation of the gloss acquisition state calculation device according to this embodiment. Here, the target object 7 in the example of Figure 11 is an object having a surface that does not transmit light.

ステップS1において、プロセッサ21は、形状計測装置3から対象物7のマクロな3次元形状を表す形状情報を取得する。前述したように、形状計測装置3による計測手法は特定の手法に限定されない。 In step S1, the processor 21 acquires shape information representing the macroscopic three-dimensional shape of the object 7 from the shape measurement device 3. As mentioned above, the measurement method used by the shape measurement device 3 is not limited to a specific method.

ステップS2において、プロセッサ21は、形状情報としての点群データをCGで扱いやすいポリゴンデータへと変換する。また、プロセッサ21は、各ポリゴンの法線を計算する。そして、プロセッサ21は、それぞれのポリゴンのポリゴンデータをストレージ24に格納する。前述したように、ポリゴンデータは、ポリゴンの頂点の座標と、法線の情報とを含む。 In step S2, the processor 21 converts the point cloud data as shape information into polygon data that is easy to handle in CG. The processor 21 also calculates the normals of each polygon. The processor 21 then stores the polygon data of each polygon in the storage 24. As described above, the polygon data includes the coordinates of the vertices of the polygon and information on the normals.

ステップS3において、プロセッサ21は、対象物7の放射輝度の遷移が取得できるように光源5を移動させる。初回においては、プロセッサ21は、予め定められた位置に光源5を移動させてよい。2回目以降においては、プロセッサ21は、対象物7の放射輝度の遷移が取得できるように光源5の位置を順次に変化させる。 In step S3, the processor 21 moves the light source 5 so that the transition of the radiance of the object 7 can be obtained. In the first time, the processor 21 may move the light source 5 to a predetermined position. In the second time and thereafter, the processor 21 sequentially changes the position of the light source 5 so that the transition of the radiance of the object 7 can be obtained.

ステップS4において、プロセッサ21は、カメラ4による撮影を実行させる。そして、プロセッサ21は、カメラ4で生成された画像と、撮影時のカメラ4の位置及び撮影条件といったカメラ情報と、撮影時の光源5の位置及び対象物7の放射輝度といった光源情報と関連付けてストレージ24に格納する。 In step S4, the processor 21 executes image capture by the camera 4. The processor 21 then stores in the storage 24 the image generated by the camera 4 in association with camera information such as the position of the camera 4 at the time of image capture and the image capture conditions, and light source information such as the position of the light source 5 at the time of image capture and the radiance of the object 7.

ステップS5において、プロセッサ21は、対象物7の表面領域に該当するポリゴンの法線ベクトルNと、カメラ4の視線方向のベクトルVと、光源5の方向ベクトルLとに基づいて、カメラ4の正反射方向となる位置を光源5が通過したか否かを判定する。ステップS5において、カメラ4の正反射方向となる位置を光源5が通過していないと判定されたときには、処理はステップS3に戻る。この場合、プロセッサ21は、光源5を別の位置に移動させる。ステップS5において、カメラ4の正反射方向となる位置を光源5が通過したと判定されたときには、処理はステップS6に移行する。 In step S5, the processor 21 determines whether the light source 5 has passed through a position that corresponds to the specular reflection direction of the camera 4, based on the normal vector N of the polygon corresponding to the surface region of the object 7, the line-of-sight vector V of the camera 4, and the direction vector L of the light source 5. If it is determined in step S5 that the light source 5 has not passed through a position that corresponds to the specular reflection direction of the camera 4, the process returns to step S3. In this case, the processor 21 moves the light source 5 to another position. If it is determined in step S5 that the light source 5 has passed through a position that corresponds to the specular reflection direction of the camera 4, the process proceeds to step S6.

ステップS6において、プロセッサ21は、ストレージ24に記憶されている光源情報より、各光源位置における鏡面反射光の放射輝度を算出する。プロセッサ21は、各光源位置における放射輝度を光沢ピークに対応した放射輝度の値で正規化することで放射輝度遷移情報を生成する。そして、プロセッサ21は、光沢ピークに対する放射輝度の値に対する割合で示された放射輝度の閾値範囲を設定する。 In step S6, the processor 21 calculates the radiance of the specularly reflected light at each light source position from the light source information stored in the storage 24. The processor 21 generates radiance transition information by normalizing the radiance at each light source position with the radiance value corresponding to the gloss peak. The processor 21 then sets a threshold range of radiance indicated as a ratio to the radiance value for the gloss peak.

ステップS7において、プロセッサ21は、閾値範囲内において、指定された所定個数以上の計測点が取得できているか否かを判定する。ステップS7において、所定個数以上の計測点が取得できていないと判定されていないときには、処理はステップS3に戻る。この場合、プロセッサ21は、光源5を別の位置に移動させる。ステップS7において、所定個数以上の計測点が取得できたと判定されたときには、処理はステップS8に移行する。 In step S7, the processor 21 determines whether or not a specified number of measurement points or more have been obtained within the threshold range. If it is not determined in step S7 that the specified number of measurement points or more have not been obtained, the process returns to step S3. In this case, the processor 21 moves the light source 5 to another position. If it is determined in step S7 that the specified number of measurement points or more have been obtained, the process proceeds to step S8.

ステップS8において、プロセッサ21は、ステップS2で取得したポリゴンデータに基づく対象物7のテクスチャモデルを画像表示装置6に表示させる。さらに、プロセッサ21は、十分な放射輝度遷移情報が取得できたと判定した表面領域に色付けをする。3次元画像の表示中、プロセッサ21は、ユーザによる対象物7のテクスチャモデルの回転、拡大又は縮小の操作を受けつけてもよい。このような操作がされた場合、プロセッサ21は、回転、拡大又は縮小されたポリゴンデータに基づいて3次元画像を画像表示装置6に再表示させる。 In step S8, the processor 21 causes the image display device 6 to display a texture model of the object 7 based on the polygon data acquired in step S2. Furthermore, the processor 21 colors the surface region for which it is determined that sufficient radiance transition information has been acquired. While the three-dimensional image is being displayed, the processor 21 may accept an operation by the user to rotate, enlarge or reduce the texture model of the object 7. When such an operation is performed, the processor 21 causes the image display device 6 to re-display the three-dimensional image based on the rotated, enlarged or reduced polygon data.

ステップS9において、プロセッサ21は、すべての表面領域について放射輝度の遷移が取得できたか否かを判定する。ステップS9において、すべての表面領域について放射輝度の遷移が取得できていないと判定されたときには、処理はステップS10に移行する。ステップS9において、すべての表面領域について放射輝度の遷移が取得できたと判定されたときには、処理はステップS11に移行する。ステップS9において、ユーザの操作によって計測完了の指示がされた場合にも、処理がステップS11に移行するように構成されてもよい。 In step S9, the processor 21 determines whether or not the transition in radiance has been obtained for all surface regions. If it is determined in step S9 that the transition in radiance has not been obtained for all surface regions, the process proceeds to step S10. If it is determined in step S9 that the transition in radiance has been obtained for all surface regions, the process proceeds to step S11. The process may also be configured to proceed to step S11 if the user instructs the completion of measurement in step S9.

ステップS10において、プロセッサ21は、処理対象の表面領域を放射輝度の遷移がまだ取得できていない表面領域に変更する。その後、処理はステップS3に戻る。この場合、プロセッサ21は、別の表面領域に対する放射輝度の遷移が取得できるよう、光源5を別の位置に移動させる。 In step S10, the processor 21 changes the surface area to be processed to a surface area for which the radiance transition has not yet been obtained. The process then returns to step S3. In this case, the processor 21 moves the light source 5 to another position so that the radiance transition for another surface area can be obtained.

ステップS11において、プロセッサ21は、放射輝度遷移情報、カメラ情報、光源情報、対象物7の形状情報を用いることで表面領域毎の微細表面形状及び反射定数を推定する。そして、プロセッサ21は、図11の処理を終了させる。 In step S11, the processor 21 estimates the fine surface shape and reflection constant for each surface region by using the radiance transition information, the camera information, the light source information, and the shape information of the object 7. Then, the processor 21 ends the processing of FIG. 11.

以上説明したように本実施形態によれば、対象物7の質感を再現するための反射特性の推定に足る放射輝度遷移情報、すなわち光沢遷移が取得できているか否かが表面領域毎に判定される。この判定結果に基づいて撮影が実行されることにより、反射特性の推定に足る光沢遷移が過不足なく取得できる。このため、反射特性の推定に不要な放射輝度の情報が反射特性の推定計算に用いられることもなく、効率的な反射特性の推定をすることができる。 As described above, according to this embodiment, it is determined for each surface region whether radiance transition information sufficient for estimating the reflectance characteristics to reproduce the texture of the object 7, i.e., gloss transition, has been acquired. By performing imaging based on the result of this determination, it is possible to acquire just the right amount of gloss transition sufficient for estimating the reflectance characteristics. Therefore, radiance information unnecessary for estimating the reflectance characteristics is not used in the estimation calculation of the reflectance characteristics, and efficient estimation of the reflectance characteristics can be achieved.

また、反射特性の推定に足る光沢遷移が取得できていない表面領域についてだけ撮影がされればよいため、撮影の枚数も減らすことができる。また、反射特性の推定に足る光沢遷移が取得できていない表面領域についてだけ撮影をすればよいため、対象物の形状や反射特性によって光源及びカメラの配置が予め決定されている必要はない。また、光源が3次元的に移動できるように構成されていることにより、表面領域と光源との位置関係によって光沢がカメラで取得できないといったこともない。 In addition, since it is only necessary to capture images of surface areas where a gloss transition sufficient for estimating reflectance characteristics has not been obtained, the number of images taken can be reduced.In addition, since it is only necessary to capture images of surface areas where a gloss transition sufficient for estimating reflectance characteristics has not been obtained, the arrangement of the light source and camera does not need to be determined in advance based on the shape and reflectance characteristics of the object.In addition, since the light source is configured to be movable in three dimensions, there is no problem in which the camera is unable to capture gloss due to the positional relationship between the surface area and the light source.

[変形例1]
以下、実施形態の変形例について説明する。実施形態では、カメラ4と対象物7とを固定し、光源5を移動させながら対象物7の撮影が行われている。しかしながら、必ずしも光源5を移動させながら対象物7の撮影が行われる必要はない。例えば、光源5と対象物7とを固定し、カメラ4を移動させながら対象物7の撮影が行われてもよい。また、カメラ4と光源5とを固定し、対象物7を移動させながら対象物7の撮影が行われてもよい。さらには、カメラ4、光源5及び対象物7の2つ以上を移動させながら対象物7の撮影が行われてもよい。
[Modification 1]
Modifications of the embodiment will be described below. In the embodiment, the camera 4 and the object 7 are fixed, and the object 7 is photographed while the light source 5 is moved. However, it is not necessary to photograph the object 7 while the light source 5 is moved. For example, the light source 5 and the object 7 may be fixed, and the object 7 may be photographed while the camera 4 is moved. Also, the camera 4 and the light source 5 may be fixed, and the object 7 may be photographed while the object 7 is moved. Furthermore, the object 7 may be photographed while two or more of the camera 4, the light source 5, and the object 7 are moved.

[変形例2]
実施形態では反射特性の推定に用いられる反射モデルとして、Cook-Torranceモデルが例示されている。反射特性の推定には、Cook-Torranceモデルに限らずどのようなモデルが用いられても良い。例えば、ヘアライン加工された金属表面を有する物体のようにカメラ方向又は光源方向により異なる反射強度を放つ対象物については、Wardモデルのような異方性反射モデルが用いられてもよい。
[Modification 2]
In the embodiment, the Cook-Torrance model is exemplified as a reflection model used to estimate the reflection characteristics. Any model may be used to estimate the reflection characteristics, not limited to the Cook-Torrance model. For example, an anisotropic reflection model such as the Ward model may be used for an object that emits a reflection intensity that differs depending on the camera direction or the light source direction, such as an object having a hairline-finished metal surface.

ここで、CGによる質感の再現画像の生成の際には、取得された形状情報及び反射特性、法線の情報が用いられることで、任意の照明環境下における対象物の見え、質感が再現される。ただし、再現時の反射モデルには、反射特性の推定時に用いられた反射モデルと同様のモデルが用いられる必要がある。 When generating an image that reproduces the texture using CG, the acquired shape information, reflection characteristics, and normal information are used to reproduce the appearance and texture of the object under any lighting environment. However, the reflection model used during reproduction must be the same as the reflection model used when estimating the reflection characteristics.

[変形例3]
前述した実施形態では、カメラ4の正反射方向となる位置を光源5が通過しており、かつ、閾値範囲内の所定個数以上の計測点が取得できたときに、反射特性の推定に足る放射輝度遷移情報が取得できていると判定される。これらの条件のうちの何れか一方だけが満足したときに反射特性の推定に足る放射輝度遷移情報が取得できていると判定されてもよい。
[Modification 3]
In the embodiment described above, it is determined that radiance transition information sufficient for estimating the reflectance characteristics has been acquired when the light source 5 passes through a position in the specular reflection direction of the camera 4 and a predetermined number or more of measurement points within the threshold range have been acquired. It may also be determined that radiance transition information sufficient for estimating the reflectance characteristics has been acquired when only one of these conditions is satisfied.

[変形例4]
前述した実施形態では、指示画像は、対象物のテクスチャモデルにおける放射輝度遷移情報が取得できた表面領域の画素値を他の表面領域の画素値と異ならせることによって生成される。しかしながら、指示画像は、他の手法によって生成されてもよい。
[Modification 4]
In the above-described embodiment, the instruction image is generated by making the pixel values of the surface region for which radiance transition information in the texture model of the object can be obtained different from the pixel values of the other surface regions. However, the instruction image may be generated by other methods.

図12Aは、指示画像の別の表示例を示す図である。図12Aの指示画像は、テクスチャが貼り付けられていない対象物のポリゴンモデルのうちの放射輝度遷移情報が取得できた表面領域に対応する部分62の画素値を他の部分の画素値と異ならせることによって生成される。 Figure 12A is a diagram showing another example of the display of an indication image. The indication image in Figure 12A is generated by making the pixel values of a portion 62 corresponding to a surface region of a polygon model of an object to which no texture has been applied, for which radiance transition information has been obtained, different from the pixel values of other portions.

図12Bは、指示画像のさらに別の表示例を示す図である。図12Bの指示画像は、形状情報によって特定される対象物のテクスチャマップ(展開図)63のうちの放射輝度遷移情報が取得できた表面領域に対応する部分63の画素値を他の部分の画素値と異ならせることによって生成される。 Figure 12B is a diagram showing yet another display example of an indication image. The indication image in Figure 12B is generated by making the pixel values of a portion 63 of a texture map (developed view) 63 of an object identified by shape information, which corresponds to a surface region for which radiance transition information was obtained, different from the pixel values of other portions.

図12Cは、指示画像のさらに別の表示例を示す図である。図12Cの指示画像は、対象物7のポリゴンモデルにカメラ4で得られた画像をテクスチャとして貼り付けることによって生成されたテクスチャモデル64aのうちの放射輝度遷移情報が取得されている表面領域64bの画素値を、他の表面領域の画素値と異ならせることで生成される。 Figure 12C is a diagram showing yet another display example of an instruction image. The instruction image in Figure 12C is generated by making the pixel values of surface region 64b, from which radiance transition information has been acquired, of texture model 64a generated by pasting an image acquired by camera 4 as a texture onto a polygon model of object 7 different from the pixel values of other surface regions.

図12Dは、指示画像のさらに別の表示例を示す図である。図12Dの例は、カメラ4と、画像表示装置6とを備えるスマートフォン等の端末8をユーザが手で持って対象物7を撮影する場合において好適な表示例である。端末8には、指示画像を表示できるように光沢取得状態表示プログラムがインストールされている。さらに、端末8は、画像解析装置2に対して、カメラ4で得られた画像を送るとともに、画像解析装置2で生成された指示画像を受け取るように構成された通信インターフェースを備えている。 Figure 12D is a diagram showing yet another display example of an instruction image. The example of Figure 12D is a suitable display example when a user photographs an object 7 while holding a terminal 8 such as a smartphone equipped with a camera 4 and an image display device 6 in his/her hand. A gloss acquisition state display program is installed in the terminal 8 so that the instruction image can be displayed. Furthermore, the terminal 8 has a communication interface configured to send the image obtained by the camera 4 to the image analysis device 2 and to receive the instruction image generated by the image analysis device 2.

図12Dの例では、方向8a、方向8bといった異なる方向から端末8のカメラ4で対象物7を撮影した際に逐次に得られる画像のうち、放射輝度遷移情報が取得されている表面領域に対応する部分の画素値を、他の部分の画素値と異ならせることで生成される。 In the example of FIG. 12D, the image is generated by making the pixel values of the portion corresponding to the surface region for which radiance transition information has been acquired different from the pixel values of the other portions of the images sequentially obtained when the object 7 is photographed by the camera 4 of the terminal 8 from different directions, such as direction 8a and direction 8b.

ここで、端末8は、少なくともカメラ4と、画像表示装置6とを備えている。光源5は、端末8に備えられていてもよいし、端末8に備えられていなくてもよい。さらに、端末8のカメラ4が2眼のカメラであれば、ステレオ法によって対象物7の形状情報が取得され得るため、形状計測装置3は不要である。勿論、対象物7の形状は、端末8とは別の形状計測装置3によって測定されてもよい。 Here, the terminal 8 is equipped with at least a camera 4 and an image display device 6. The light source 5 may or may not be equipped in the terminal 8. Furthermore, if the camera 4 of the terminal 8 is a twin-lens camera, the shape information of the object 7 can be acquired by the stereo method, and therefore the shape measurement device 3 is not necessary. Of course, the shape of the object 7 may be measured by a shape measurement device 3 separate from the terminal 8.

さらに、端末8は、画像解析装置2の同等の処理をすることができるように構成されていてもよい。例えば、端末8には、画像解析装置2の同等の処理をすることができるように光沢取得状態算出プログラムがインストールされていてもよい。 Furthermore, the terminal 8 may be configured to be capable of performing processing equivalent to that of the image analysis device 2. For example, the terminal 8 may have a gloss acquisition state calculation program installed so that it can perform processing equivalent to that of the image analysis device 2.

本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。 The present invention is not limited to the above-described embodiments, and can be modified in various ways in the implementation stage without departing from the gist of the invention. The embodiments may also be implemented in appropriate combination, in which case the combined effects can be obtained. Furthermore, the above-described embodiments include various inventions, and various inventions can be extracted by combinations selected from the multiple constituent elements disclosed. For example, if the problem can be solved and an effect can be obtained even if some constituent elements are deleted from all the constituent elements shown in the embodiments, the configuration from which these constituent elements are deleted can be extracted as an invention.

以下に、本願の発明の実施の形態から抽出され得る発明を付記する。
[1] 対象物、前記対象物を照明する光源、前記対象物を撮影するカメラの少なくともいずれかの移動に伴って、前記カメラによって前記対象物を撮影することで得られた画像群を取得する画像取得手段と、
前記対象物の3次元形状情報を取得する形状取得手段と、
前記3次元形状情報によって示される前記対象物の表面領域毎に、前記画像群に亘る鏡面反射光の放射輝度の遷移の情報である放射輝度遷移情報を推定する放射輝度遷移推定手段と、
前記表面領域毎に、前記放射輝度遷移情報の取得状態を示す取得状態情報を算出する算出手段と、
を備える光沢取得状態算出装置。
[2] 前記画像群が撮影されているときの前記カメラのカメラ情報を取得するカメラ情報取得手段と、
前記画像群が撮影されているときの前記光源の光源情報を取得する光源情報取得手段と、
をさらに備え、
前記光源情報は、少なくとも前記画像群に亘る前記光源の位置の情報である光源位置情報を含み、
前記カメラ情報は、少なくとも前記画像群に亘る前記カメラの位置の情報であるカメラ位置情報を含む、
[1]に記載の光沢取得状態算出装置。
[3] 前記放射輝度遷移情報、前記3次元形状情報、前記カメラ位置情報及び前記光源位置情報を用いて、前記表面領域毎の所定の反射モデルの反射定数及び法線を推定する質感情報推定部をさらに備える、
[2]に記載の光沢取得状態算出装置。
[4] 前記算出手段は、
前記3次元形状情報から算出される前記表面領域の法線、前記カメラ位置情報によって示される前記カメラの位置及び前記光源位置情報によって示される前記光源の位置を用いて、前記カメラの位置に対し、前記表面領域を反射面として正反射方向となる前記光源の位置が存在するか否かを前記表面領域毎に判定し、
少なくとも前記光源の位置が存在するか否かの判定の結果に基づき前記取得状態情報を算出する、
[2]又は[3]に記載の光沢取得状態算出装置。
[5] 前記算出手段は、
前記表面領域毎に、前記放射輝度遷移情報によって示される複数の放射輝度のうちのピークを算出し、前記ピークに基づき算出される閾値範囲に含まれる放射輝度が所定の個数以上存在しているか否かを判定し、
少なくとも前記放射輝度が所定の個数以上存在しているか否かの判定の結果に基づき前記取得状態情報を算出する、
[1]から[4]のいずれか1に記載の光沢取得状態算出装置。
[6] 前記閾値範囲は、ユーザによって指定される、
[5]に記載の光沢取得状態算出装置。
[7] 前記表面領域のいずれかに各々対応する複数の画素を有し、各々の画素は、対応する前記表面領域の前記取得状態情報に基づく画素値を有する、指示画像を生成する指示画像生成手段をさらに備える、
[1]から[6]のいずれか1に記載の光沢取得状態算出装置。
[8] 前記画像群は、前記光源、前記対象物、前記カメラのいずれかの連続的な移動に伴って前記対象物を連続的に撮影することによって得られた動画である、
[1]から[7]のいずれか1に記載の光沢取得状態算出装置。
[9] 前記光源は、線光源又は面光源である、
[1]から[8]のいずれか1に記載の光沢取得状態算出装置。
[10] 対象物、前記対象物を照明する光源、前記対象物を撮影するカメラの少なくともいずれかの移動に伴って、前記カメラによって前記対象物を撮影することで得られた画像群を取得することと、
前記対象物の3次元形状情報を取得することと、
前記3次元形状情報によって示される前記対象物の表面領域毎に、前記画像群に亘る鏡面反射光の放射輝度の遷移の情報である放射輝度遷移情報を推定することと、
前記表面領域毎に、前記放射輝度遷移情報の取得状態を示す取得状態情報を算出することと、
を備える光沢取得状態算出方法。
[11] 対象物、前記対象物を照明する光源、前記対象物を撮影するカメラの少なくともいずれかの移動に伴って、前記カメラによって前記対象物を撮影することで得られた画像群を取得することと、
前記対象物の3次元形状情報を取得することと、
前記3次元形状情報によって示される前記対象物の表面領域毎に、前記画像群に亘る鏡面反射光の放射輝度の遷移の情報である放射輝度遷移情報を推定することと、
前記表面領域毎に、前記放射輝度遷移情報の取得状態を示す取得状態情報を算出することと、
をコンピュータに実行させるための光沢取得状態算出プログラム。
[12] [7]に記載の光沢取得状態算出装置と通信できるように接続される端末であって、
前記画像群を前記光沢取得状態算出装置に送信する送信手段と、
前記指示画像を前記光沢取得状態算出装置から受信する受信手段と、
前記指示画像を表示する表示手段と、
を備える端末。
[13] [7]に記載の光沢取得状態算出装置と通信できるように接続される端末のための光沢取得状態表示プログラムであって、
前記画像群を前記光沢取得状態算出装置に送信することと、
前記指示画像を前記光沢取得状態算出装置から受信することと、
前記指示画像を表示手段に表示することと、
を前記端末のコンピュータに実行させるための光沢取得状態表示プログラム。
[14] 前記形状取得手段は、前記3次元形状情報を前記画像群からの推定によって取得する、
[1]に記載の光沢取得状態算出装置。
[15] 前記光源情報取得手段は、前記光源情報を前記画像群からの推定によって取得する、
[2]に記載の光沢取得状態算出装置。
[16] 前記カメラ情報取得手段は、前記カメラ情報を前記画像群からの推定によって取得する、
[2]に記載の光沢取得状態算出装置。
[17] 前記指示画像は、前記3次元形状情報に対応するテクスチャ画像である、
[7]に記載の光沢取得状態算出装置。
[18] 前記指示画像の一部又は全部の画素は、前記表面領域の各々に一対一で対応している、
[7]に記載の光沢取得状態算出装置。
[19] 前記指示画像の画素と前記表面領域との対応が、前記カメラによって撮影された前記画像群に基づいている、
[7]に記載の光沢取得状態算出装置。
[20] 前記対象物、前記光源、前記カメラのいずれかの位置を前記取得状態情報に基づき制御する制御手段をさらに備える、
[1]に記載の光沢取得状態算出装置。
The following will addendum to inventions that can be extracted from the embodiments of the present invention.
[1] An image acquisition means for acquiring a group of images obtained by photographing an object with a camera in accordance with movement of at least one of an object, a light source that illuminates the object, and a camera that photographs the object;
A shape acquisition means for acquiring three-dimensional shape information of the object;
a radiance transition estimation means for estimating, for each surface region of the object represented by the three-dimensional shape information, radiance transition information which is information on a transition of the radiance of specular reflected light across the group of images;
A calculation means for calculating, for each of the surface regions, acquisition state information indicating an acquisition state of the radiance transition information;
A gloss acquisition state calculation device comprising:
[2] A camera information acquisition means for acquiring camera information of the camera when the image group is captured;
a light source information acquisition means for acquiring light source information of the light source when the image group is captured;
Further equipped with
the light source information includes light source position information that is information on the position of the light source across at least the group of images;
The camera information includes at least camera position information that is information on the position of the camera across the group of images.
The gloss acquisition state calculation device according to [1].
[3] further comprising a texture information estimating unit configured to estimate a reflection constant and a normal of a predetermined reflection model for each of the surface regions using the radiance transition information, the three-dimensional shape information, the camera position information, and the light source position information.
The gloss acquisition state calculation device according to [2].
[4] The calculation means:
using a normal to the surface area calculated from the three-dimensional shape information, a position of the camera indicated by the camera position information, and a position of the light source indicated by the light source position information, determining for each surface area whether or not there is a position of the light source that is in a regular reflection direction with the surface area as a reflecting surface with respect to the position of the camera;
calculating the acquisition state information based on a result of determining whether or not the position of the light source is present;
The gloss acquisition state calculation device according to [2] or [3].
[5] The calculation means:
calculating a peak of a plurality of radiances indicated by the radiance transition information for each of the surface regions, and determining whether or not a predetermined number of radiances are included in a threshold range calculated based on the peak;
calculating the acquisition state information based on a result of determining whether or not at least a predetermined number of the radiances are present;
The gloss acquisition state calculation device according to any one of [1] to [4].
[6] The threshold range is specified by a user.
The gloss acquisition state calculation device according to [5].
[7] An indication image generating means for generating an indication image having a plurality of pixels each corresponding to any one of the surface regions, each pixel having a pixel value based on the acquisition state information of the corresponding surface region.
The gloss acquisition state calculation device according to any one of [1] to [6].
[8] The image group is a video obtained by continuously photographing the object in accordance with continuous movement of any one of the light source, the object, or the camera.
The gloss acquisition state calculation device according to any one of [1] to [7].
[9] The light source is a line light source or a surface light source.
The gloss acquisition state calculation device according to any one of [1] to [8].
[10] Acquiring a group of images obtained by photographing the object with a camera in accordance with movement of at least one of the object, a light source that illuminates the object, and a camera that photographs the object;
acquiring three-dimensional shape information of the object;
estimating radiance transition information, which is information on transitions of radiance of specular reflected light across the set of images, for each surface region of the object represented by the three-dimensional shape information;
calculating acquisition state information indicating an acquisition state of the radiance transition information for each of the surface regions;
A gloss acquisition state calculation method comprising:
[11] Acquiring a group of images obtained by photographing the object with a camera in accordance with movement of at least one of the object, a light source that illuminates the object, and a camera that photographs the object;
acquiring three-dimensional shape information of the object;
estimating radiance transition information, which is information on transitions of radiance of specular reflected light across the set of images, for each surface region of the object represented by the three-dimensional shape information;
calculating acquisition state information indicating an acquisition state of the radiance transition information for each of the surface regions;
A gloss acquisition state calculation program for causing a computer to execute the above.
[12] A terminal connected to be able to communicate with the gloss acquisition state calculation device according to [7],
A transmitting means for transmitting the image group to the gloss acquisition state calculation device;
A receiving means for receiving the instruction image from the gloss acquisition state calculation device;
A display means for displaying the instruction image;
A terminal comprising:
[13] A gloss acquisition state display program for a terminal connected to be able to communicate with the gloss acquisition state calculation device according to [7],
transmitting the set of images to the gloss acquisition state calculation device;
receiving the instruction image from the gloss acquisition state calculation device;
displaying the instruction image on a display means;
A gloss acquisition status display program for causing the terminal computer to execute the above.
[14] The shape acquisition means acquires the three-dimensional shape information by estimation from the image group.
The gloss acquisition state calculation device according to [1].
[15] The light source information acquisition means acquires the light source information by estimation from the image group.
The gloss acquisition state calculation device according to [2].
[16] The camera information acquisition means acquires the camera information by estimation from the image group.
The gloss acquisition state calculation device according to [2].
[17] The instruction image is a texture image corresponding to the three-dimensional shape information.
The gloss acquisition state calculation device according to [7].
[18] A part or all of the pixels of the instruction image correspond one-to-one to each of the surface regions.
The gloss acquisition state calculation device according to [7].
[19] The correspondence between the pixels of the instruction image and the surface region is based on the set of images captured by the camera.
The gloss acquisition state calculation device according to [7].
[20] The method further includes a control unit that controls a position of any one of the object, the light source, and the camera based on the acquisition state information.
The gloss acquisition state calculation device according to [1].

1…3次元画像処理システム、2…画像解析装置、3…形状計測装置、4…カメラ、5…光源、6…画像表示装置、7…対象物、8…端末、21…プロセッサ、22…ROM、23…RAM、24…ストレージ、25…入力インターフェース、26…出力インターフェース、27…通信インターフェース、28…バス、211…画像取得部、212…形状取得部、213…カメラ情報取得部、214…光源情報取得部、215…放射輝度遷移、216…算出部、217…指示画像生成部、218…光源制御部、219…質感情報推定部。 1...3D image processing system, 2...image analysis device, 3...shape measurement device, 4...camera, 5...light source, 6...image display device, 7...object, 8...terminal, 21...processor, 22...ROM, 23...RAM, 24...storage, 25...input interface, 26...output interface, 27...communication interface, 28...bus, 211...image acquisition unit, 212...shape acquisition unit, 213...camera information acquisition unit, 214...light source information acquisition unit, 215...radiance transition, 216...calculation unit, 217...pointed image generation unit, 218...light source control unit, 219...texture information estimation unit.

Claims (11)

対象物、前記対象物を照明する光源、前記対象物を撮影するカメラの少なくともいずれかの移動に伴って、前記カメラによって前記対象物を撮影することで得られた画像群を取得する画像取得手段と、
前記対象物の3次元形状情報を取得する形状取得手段と、
前記3次元形状情報によって示される前記対象物の表面領域毎に、前記画像群に亘る鏡面反射光の放射輝度の遷移の情報である放射輝度遷移情報を推定する放射輝度遷移推定手段と、
前記表面領域毎に、前記放射輝度遷移情報の取得状態を示す取得状態情報を算出する算出手段と、
を備え、
前記算出手段は、
前記3次元形状情報から算出される前記表面領域の法線、前記画像群に亘る前記カメラの位置の情報であるカメラ位置情報によって示される前記カメラの位置及び前記画像群に亘る前記光源の位置の情報である光源位置情報によって示される前記光源の位置を用いて、前記カメラの位置に対し、前記表面領域を反射面として正反射方向となる前記光源の位置が存在するか否かを前記表面領域毎に判定し、
少なくとも前記光源の位置が存在するか否かの判定の結果に基づき前記取得状態情報を算出する、
光沢取得状態算出装置。
an image acquisition means for acquiring a group of images obtained by photographing the object with a camera in accordance with movement of at least one of the object, a light source that illuminates the object, and a camera that photographs the object;
A shape acquisition means for acquiring three-dimensional shape information of the object;
a radiance transition estimation means for estimating, for each surface region of the object represented by the three-dimensional shape information, radiance transition information which is information on a transition of the radiance of specular reflected light across the group of images;
A calculation means for calculating, for each of the surface regions, acquisition state information indicating an acquisition state of the radiance transition information;
Equipped with
The calculation means is
determining, for each surface region, whether or not there is a position of the light source that is in a specular reflection direction with the surface region as a reflecting surface, with respect to the camera position, using a normal of the surface region calculated from the three-dimensional shape information, a position of the camera indicated by camera position information that is information on the position of the camera across the image group, and a position of the light source indicated by light source position information that is information on the position of the light source across the image group;
calculating the acquisition state information based on a result of determining whether or not the position of the light source is present;
Gloss acquisition state calculation device.
前記放射輝度遷移情報、前記3次元形状情報、前記カメラ位置情報及び前記光源位置情報を用いて、前記表面領域毎の所定の反射モデルの反射定数及び法線を推定する質感情報推定部をさらに備える、
請求項に記載の光沢取得状態算出装置。
a texture information estimating unit configured to estimate a reflection constant and a normal of a predetermined reflection model for each of the surface regions using the radiance transition information, the three-dimensional shape information, the camera position information, and the light source position information,
The gloss acquisition state calculation device according to claim 1 .
前記算出手段は、
前記表面領域毎に、前記放射輝度遷移情報によって示される複数の放射輝度のうちのピークを算出し、前記ピークに基づき算出される閾値範囲に含まれる放射輝度が所定の個数以上存在しているか否かを判定し、
少なくとも前記放射輝度が所定の個数以上存在しているか否かの判定の結果に基づき前記取得状態情報を算出する、
請求項1又は2に記載の光沢取得状態算出装置。
The calculation means is
calculating a peak of a plurality of radiances indicated by the radiance transition information for each of the surface regions, and determining whether or not a predetermined number of radiances are included in a threshold range calculated based on the peak;
calculating the acquisition state information based on a result of determining whether or not at least a predetermined number of the radiances are present;
The gloss acquisition state calculation device according to claim 1 or 2 .
前記閾値範囲は、ユーザによって指定される、
請求項に記載の光沢取得状態算出装置。
The threshold range is specified by a user.
The gloss acquisition state calculation device according to claim 3 .
前記表面領域のいずれかに各々対応する複数の画素を有し、各々の画素は、対応する前記表面領域の前記取得状態情報に基づく画素値を有する、指示画像を生成する指示画像生成手段をさらに備える、
請求項1から請求項のいずれか1項に記載の光沢取得状態算出装置。
an indication image generating means for generating an indication image having a plurality of pixels each corresponding to any one of the surface regions, each pixel having a pixel value based on the acquisition state information of the corresponding surface region;
The gloss acquisition state calculation device according to any one of claims 1 to 4 .
前記画像群は、前記光源、前記対象物、前記カメラのいずれかの連続的な移動に伴って前記対象物を連続的に撮影することによって得られた動画である、
請求項1から請求項のいずれか1項に記載の光沢取得状態算出装置。
The image group is a video obtained by continuously photographing the object in accordance with continuous movement of any one of the light source, the object, or the camera.
The gloss acquisition state calculation device according to any one of claims 1 to 5 .
前記光源は、線光源又は面光源である、
請求項1から請求項のいずれか1項に記載の光沢取得状態算出装置。
The light source is a line light source or a surface light source.
The gloss acquisition state calculation device according to any one of claims 1 to 6 .
対象物、前記対象物を照明する光源、前記対象物を撮影するカメラの少なくともいずれかの移動に伴って、前記カメラによって前記対象物を撮影することで得られた画像群を取得することと、
前記対象物の3次元形状情報を取得することと、
前記3次元形状情報によって示される前記対象物の表面領域毎に、前記画像群に亘る鏡面反射光の放射輝度の遷移の情報である放射輝度遷移情報を推定することと、
前記表面領域毎に、前記放射輝度遷移情報の取得状態を示す取得状態情報を算出することと、
を備え、
前記取得状態情報を算出することは、
前記3次元形状情報から算出される前記表面領域の法線、前記画像群に亘る前記カメラの位置の情報であるカメラ位置情報によって示される前記カメラの位置及び前記画像群に亘る前記光源の位置の情報である光源位置情報によって示される前記光源の位置を用いて、前記カメラの位置に対し、前記表面領域を反射面として正反射方向となる前記光源の位置が存在するか否かを前記表面領域毎に判定し、
少なくとも前記光源の位置が存在するか否かの判定の結果に基づき前記取得状態情報を算出することを含む、
光沢取得状態算出方法。
acquiring a group of images obtained by photographing the object with a camera in accordance with movement of at least one of the object, a light source that illuminates the object, and a camera that photographs the object;
acquiring three-dimensional shape information of the object;
estimating radiance transition information, which is information on transitions of radiance of specular reflected light across the set of images, for each surface region of the object represented by the three-dimensional shape information;
calculating acquisition state information indicating an acquisition state of the radiance transition information for each of the surface regions;
Equipped with
Calculating the acquisition state information
determining, for each surface region, whether or not there is a position of the light source that is in a specular reflection direction with the surface region as a reflecting surface, with respect to the camera position, using a normal of the surface region calculated from the three-dimensional shape information, a position of the camera indicated by camera position information that is information on the position of the camera across the image group, and a position of the light source indicated by light source position information that is information on the position of the light source across the image group;
calculating the acquisition state information based on a result of determining whether or not the position of the light source is present;
Gloss acquisition state calculation method.
対象物、前記対象物を照明する光源、前記対象物を撮影するカメラの少なくともいずれかの移動に伴って、前記カメラによって前記対象物を撮影することで得られた画像群を取得することと、
前記対象物の3次元形状情報を取得することと、
前記3次元形状情報によって示される前記対象物の表面領域毎に、前記画像群に亘る鏡面反射光の放射輝度の遷移の情報である放射輝度遷移情報を推定することと、
前記表面領域毎に、前記放射輝度遷移情報の取得状態を示す取得状態情報を算出することと、
をコンピュータに実行させるための光沢取得状態算出プログラムであって
前記取得状態情報を算出することは、
前記3次元形状情報から算出される前記表面領域の法線、前記画像群に亘る前記カメラの位置の情報であるカメラ位置情報によって示される前記カメラの位置及び前記画像群に亘る前記光源の位置の情報である光源位置情報によって示される前記光源の位置を用いて、前記カメラの位置に対し、前記表面領域を反射面として正反射方向となる前記光源の位置が存在するか否かを前記表面領域毎に判定し、
少なくとも前記光源の位置が存在するか否かの判定の結果に基づき前記取得状態情報を算出することを含む、
光沢取得状態算出プログラム
acquiring a group of images obtained by photographing the object with a camera in accordance with movement of at least one of the object, a light source that illuminates the object, and a camera that photographs the object;
acquiring three-dimensional shape information of the object;
estimating radiance transition information, which is information on transitions of radiance of specular reflected light across the set of images, for each surface region of the object represented by the three-dimensional shape information;
calculating acquisition state information indicating an acquisition state of the radiance transition information for each of the surface regions;
A gloss acquisition state calculation program for causing a computer to execute the above .
Calculating the acquisition state information
determining, for each surface region, whether or not there is a position of the light source that is in a specular reflection direction with the surface region as a reflecting surface, with respect to the camera position, using a normal of the surface region calculated from the three-dimensional shape information, a position of the camera indicated by camera position information that is information on the position of the camera across the image group, and a position of the light source indicated by light source position information that is information on the position of the light source across the image group;
calculating the acquisition state information based on a result of determining whether or not the position of the light source is present;
Gloss acquisition state calculation program .
請求項に記載の光沢取得状態算出装置と通信できるように接続される端末であって、
前記画像群を前記光沢取得状態算出装置に送信する送信手段と、
前記指示画像を前記光沢取得状態算出装置から受信する受信手段と、
前記指示画像を表示する表示手段と、
を備える端末。
A terminal connected to be able to communicate with the gloss acquisition state calculation device according to claim 5 ,
A transmitting means for transmitting the image group to the gloss acquisition state calculation device;
A receiving means for receiving the instruction image from the gloss acquisition state calculation device;
A display means for displaying the instruction image;
A terminal comprising:
請求項に記載の光沢取得状態算出装置と通信できるように接続される端末のための光沢取得状態表示プログラムであって、
前記画像群を前記光沢取得状態算出装置に送信することと、
前記指示画像を前記光沢取得状態算出装置から受信することと、
前記指示画像を表示手段に表示することと、
を前記端末のコンピュータに実行させるための光沢取得状態表示プログラム。
A gloss acquisition state display program for a terminal communicably connected to the gloss acquisition state calculation device according to claim 5 ,
transmitting the set of images to the gloss acquisition state calculation device;
receiving the instruction image from the gloss acquisition state calculation device;
displaying the instruction image on a display means;
A gloss acquisition status display program for causing the terminal computer to execute the above.
JP2019199708A 2019-11-01 2019-11-01 Gloss acquisition state calculation device, gloss acquisition state calculation method, gloss acquisition state calculation program, terminal, and gloss acquisition state display program Active JP7463697B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019199708A JP7463697B2 (en) 2019-11-01 2019-11-01 Gloss acquisition state calculation device, gloss acquisition state calculation method, gloss acquisition state calculation program, terminal, and gloss acquisition state display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019199708A JP7463697B2 (en) 2019-11-01 2019-11-01 Gloss acquisition state calculation device, gloss acquisition state calculation method, gloss acquisition state calculation program, terminal, and gloss acquisition state display program

Publications (2)

Publication Number Publication Date
JP2021072024A JP2021072024A (en) 2021-05-06
JP7463697B2 true JP7463697B2 (en) 2024-04-09

Family

ID=75714046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019199708A Active JP7463697B2 (en) 2019-11-01 2019-11-01 Gloss acquisition state calculation device, gloss acquisition state calculation method, gloss acquisition state calculation program, terminal, and gloss acquisition state display program

Country Status (1)

Country Link
JP (1) JP7463697B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003203220A (en) 2002-01-07 2003-07-18 Canon Inc Three-dimensional image processing method, three- dimensional image processor, there-dimensional image processing system and three-dimensional image processing program
JP2003202296A (en) 2002-01-07 2003-07-18 Canon Inc Image input device, three-dimensional measuring device and three-dimensional image processing system
JP2003216973A (en) 2002-01-21 2003-07-31 Canon Inc Method, program, device and system for processing three- dimensional image
JP2005092549A (en) 2003-09-18 2005-04-07 Canon Inc Three-dimensional image processing method and device
JP2019082838A (en) 2017-10-30 2019-05-30 富士ゼロックス株式会社 Display device, scanner, display system and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003203220A (en) 2002-01-07 2003-07-18 Canon Inc Three-dimensional image processing method, three- dimensional image processor, there-dimensional image processing system and three-dimensional image processing program
JP2003202296A (en) 2002-01-07 2003-07-18 Canon Inc Image input device, three-dimensional measuring device and three-dimensional image processing system
JP2003216973A (en) 2002-01-21 2003-07-31 Canon Inc Method, program, device and system for processing three- dimensional image
JP2005092549A (en) 2003-09-18 2005-04-07 Canon Inc Three-dimensional image processing method and device
JP2019082838A (en) 2017-10-30 2019-05-30 富士ゼロックス株式会社 Display device, scanner, display system and program

Also Published As

Publication number Publication date
JP2021072024A (en) 2021-05-06

Similar Documents

Publication Publication Date Title
US11869139B2 (en) System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
EP3139589B1 (en) Image processing apparatus and image processing method
Hernández et al. Non-rigid photometric stereo with colored lights
JP4739002B2 (en) Image processing method and image processing apparatus
EP3051793B1 (en) Imaging apparatus, systems and methods
Brostow et al. Video normals from colored lights
JP2003203220A (en) Three-dimensional image processing method, three- dimensional image processor, there-dimensional image processing system and three-dimensional image processing program
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
US11967094B2 (en) Detecting device, information processing device, detecting method, and information processing program
Mecca et al. Luces: A dataset for near-field point light source photometric stereo
Ahmad et al. An improved photometric stereo through distance estimation and light vector optimization from diffused maxima region
Tsunezaki et al. Reproducing material appearance of real objects using mobile augmented reality
Logothetis et al. Near-field photometric stereo in ambient light
JP6580761B1 (en) Depth acquisition apparatus and method using polarization stereo camera
Angelopoulou et al. Evaluating the effect of diffuse light on photometric stereo reconstruction
JP7473558B2 (en) Generating Textured Models Using a Moving Scanner
JP7341736B2 (en) Information processing device, information processing method and program
JP7463697B2 (en) Gloss acquisition state calculation device, gloss acquisition state calculation method, gloss acquisition state calculation program, terminal, and gloss acquisition state display program
JP2015206654A (en) Information processing apparatus, information processing method, and program
JP2004030408A (en) Three-dimensional image display apparatus and display method
JP4213327B2 (en) Method and apparatus for estimating light source direction and three-dimensional shape, and recording medium
JP5503573B2 (en) Imaging apparatus and image processing information generation program
JP2009244229A (en) Three-dimensional image processing method, three-dimensional image processing device, and three-dimensional image processing program
US20200267365A1 (en) Information processing system, method for controlling same, and program
Palka et al. 3D object digitization devices in manufacturing engineering applications and services

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221026

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240311

R150 Certificate of patent or registration of utility model

Ref document number: 7463697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150