JP2021128041A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2021128041A
JP2021128041A JP2020022236A JP2020022236A JP2021128041A JP 2021128041 A JP2021128041 A JP 2021128041A JP 2020022236 A JP2020022236 A JP 2020022236A JP 2020022236 A JP2020022236 A JP 2020022236A JP 2021128041 A JP2021128041 A JP 2021128041A
Authority
JP
Japan
Prior art keywords
target object
normal
calculation unit
normal direction
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020022236A
Other languages
Japanese (ja)
Inventor
彬 柴▲崎▼
Akira Shibazaki
彬 柴▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020022236A priority Critical patent/JP2021128041A/en
Publication of JP2021128041A publication Critical patent/JP2021128041A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

To accurately calculate the normal line of an object even if a surface of the object is a rough surface.SOLUTION: An information processing apparatus of the present invention has: acquisition means that acquires the reflection characteristics of a target object based on a picked-up image of the target object; first calculation means that calculates a first normal line direction of an attention position in the target object based on the acquired reflection characteristics, a first direction in which incident light is incident on the target object, and a second direction of the peak of light that is the incident light incident from the first direction and reflected on the target object; and determination means that determines a condition for calculating a second normal line direction in the attention position based on the calculated first normal line direction.SELECTED DRAWING: Figure 2

Description

本発明は、物体の表面における法線を算出する技術に関する。 The present invention relates to a technique for calculating a normal on the surface of an object.

物体に照射された光は、照射点から物体内部で乱反射したのち照射点から再び出射する拡散反射と、物体表面で反射する表面反射を起こす。この表面反射を利用して物体表面の法線方向を取得する方法がある。対象物体の表面が平滑である平滑面の場合、対象物体の表面に入射した光は特定の方向に反射し、対象物体の法線方向と入射方向がなす角を入射角とし、対象物体の法線方向と反射方向がなす角を反射角とすると、入射角と反射角は一致する。したがって、入射方向と反射方向を計測することで、それらの方向の二等分線の方向から法線方向を推定することができる(例えば特許文献1)。 The light radiated to the object causes diffuse reflection that is diffusely reflected inside the object from the irradiation point and then is emitted again from the irradiation point, and surface reflection that is reflected on the surface of the object. There is a method of obtaining the normal direction of the object surface by using this surface reflection. When the surface of the target object is a smooth surface, the light incident on the surface of the target object is reflected in a specific direction, and the angle formed by the normal direction and the incident direction of the target object is defined as the incident angle. Assuming that the angle formed by the linear direction and the reflection direction is the reflection angle, the incident angle and the reflection angle match. Therefore, by measuring the incident direction and the reflection direction, the normal direction can be estimated from the direction of the bisectors in those directions (for example, Patent Document 1).

特開2018−136693号公報Japanese Unexamined Patent Publication No. 2018-136693

しかしながら、対象物体の表面が粗い粗面の場合、対象物体の表面に入射した光はある方向に拡がりをもって反射するが、対象物体の法線方向と入射方向がなす入射角と、対象物体の法線方向と反射光のピーク方向がなす反射角は厳密には一致しない。したがって、入射角と反射角が一致すると仮定して算出された法線方向は精度が低い場合があった。 However, when the surface of the target object is rough and rough, the light incident on the surface of the target object is reflected with a spread in a certain direction, but the angle of incidence formed by the normal direction and the incident direction of the target object and the method of the target object The reflection angles formed by the linear direction and the peak direction of the reflected light do not exactly match. Therefore, the accuracy of the normal direction calculated on the assumption that the incident angle and the reflection angle match may be low.

本発明は、上記課題に鑑みてなされたものであり、物体の表面が粗面であっても物体の法線を高精度に算出することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to calculate the normal of an object with high accuracy even if the surface of the object is a rough surface.

本発明の情報処理装置は、対象物体を撮像した画像に基づいて前記対象物体の反射特性を取得する取得手段と、前記取得された反射特性と、前記対象物体に入射光が入射される第1方向と、前記第1方向から入射した入射光に対する前記対象物体における反射光のピークの第2方向とに基づいて、前記対象物体における注目位置の第1法線方向を算出する第1算出手段と、前記算出された第1法線方向に基づいて、前記注目位置における第2法線方向を算出するための条件を決定する決定手段と、を有することを特徴とする。 The information processing apparatus of the present invention includes an acquisition means for acquiring the reflection characteristics of the target object based on an image of the target object, the acquired reflection characteristics, and a first method in which incident light is incident on the target object. A first calculation means for calculating the first normal direction of the position of interest in the target object based on the direction and the second direction of the peak of the reflected light in the target object with respect to the incident light incident from the first direction. It is characterized by having a determination means for determining a condition for calculating the second normal direction at the attention position based on the calculated first normal direction.

本発明によれば、物体の表面が粗面であっても物体の法線を高精度に算出することができる。 According to the present invention, even if the surface of the object is rough, the normal of the object can be calculated with high accuracy.

粗面における表面反射を説明するための模式図である。It is a schematic diagram for demonstrating the surface reflection in a rough surface. 法線方向の算出方法の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline of the calculation method of a normal direction. 法線算出システムの外観を示す図である。It is a figure which shows the appearance of the normal calculation system. 情報処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware configuration of an information processing apparatus. 情報処理装置の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of an information processing apparatus. 第1実施形態の処理を示すフローチャートである。It is a flowchart which shows the process of 1st Embodiment. 画像を取得する処理を示すフローチャートである。It is a flowchart which shows the process of acquiring an image. 対象物体および白色板を撮像する処理を示すフローチャートである。It is a flowchart which shows the process of imaging a target object and a white plate. 法線算出部の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the normal calculation part. 法線情報を算出する処理を示すフローチャートである。It is a flowchart which shows the process of calculating the normal information. 変角反射特性情報を算出する処理を示すフローチャートである。It is a flowchart which shows the process of calculating the variable angle reflection characteristic information. 第1法線情報を算出する処理を示すフローチャートである。It is a flowchart which shows the process of calculating the 1st normal information. 第2法線情報を算出する処理を示すフローチャートである。It is a flowchart which shows the process of calculating the 2nd normal information. 画像取得制御部および法線算出部の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of an image acquisition control part and a normal calculation part. 第2実施形態の処理を示すフローチャートである。It is a flowchart which shows the process of 2nd Embodiment. 第1法線情報を算出する処理を示すフローチャートである。It is a flowchart which shows the process of calculating the 1st normal information. 点灯位置を算出する処理を示すフローチャートである。It is a flowchart which shows the process of calculating a lighting position. 第2法線情報を算出する処理を示すフローチャートである。It is a flowchart which shows the process of calculating the 2nd normal information.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in the present embodiment are essential for the means for solving the present invention. The same configuration will be described with the same reference numerals.

[第1実施形態]
図1(a)は、対象物体の表面が粗面である場合の表面反射を説明するための模式図である。101は対象物体、102は粗面、103は測定対象である粗面の大局的な法線方向である。ここで、粗面の大局的な法線方向とは、粗面を平面で近似したときの平面に対して垂直な方向と定義する。104は粗面102に入射する光の入射方向、105は正反射方向である。ここで、正反射方向105とは入射方向104と大局的な法線方向103がなす角と、大局的な法線方向103と正反射方向105がなす角とが等しくなるような方向である。法線方向103、入射方向104、正反射方向105は同一平面上にある。また、106は拡がりをもつ反射光であり、107は反射光のピークの方向である。
[First Embodiment]
FIG. 1A is a schematic diagram for explaining surface reflection when the surface of the target object is a rough surface. 101 is the target object, 102 is the rough surface, and 103 is the general normal direction of the rough surface to be measured. Here, the global normal direction of the rough surface is defined as the direction perpendicular to the plane when the rough surface is approximated by the plane. 104 is the incident direction of the light incident on the rough surface 102, and 105 is the specular reflection direction. Here, the specular reflection direction 105 is a direction in which the angle formed by the incident direction 104 and the global normal direction 103 is equal to the angle formed by the global normal direction 103 and the specular reflection direction 105. The normal direction 103, the incident direction 104, and the specular reflection direction 105 are on the same plane. Further, 106 is the reflected light having a spread, and 107 is the direction of the peak of the reflected light.

図1(b)は、粗面102を構成する複数の微小面の法線方向の分布を説明するための模式図である。108は微小面の法線の傾きの大きさを示す軸である。粗面の大局的な法線方向を原点とする。また、109は頻度を示す軸である。このように粗面102を構成する複数の微小面の法線方向の分布は原点を中心に対称的であるものとする。 FIG. 1B is a schematic diagram for explaining the distribution of a plurality of minute surfaces constituting the rough surface 102 in the normal direction. Reference numeral 108 denotes an axis indicating the magnitude of the inclination of the normal of the minute surface. The origin is the global normal direction of the rough surface. Further, 109 is an axis indicating the frequency. It is assumed that the distribution of the plurality of minute surfaces constituting the rough surface 102 in the normal direction is symmetrical with respect to the origin.

図1(c)は、微小面における表面反射の反射率の入射角度依存性を説明するための模式図である。粗面を構成する微小面の表面は平滑面であるとする。111は、微小面の法線方向と入射方向がなす入射角の大きさを示す軸である。112は、反射率を示す軸である。平滑面における表面反射の反射率は、いわゆるフレネルの式に従うが、図1(c)で示されるように、下側に凸の単調増加関数であって、入射角0°で極値を持つ。また、113の角度θ1の近傍の反射率に着目すると、θ1より小さい角度の反射率よりもθ1より大きい角度の反射率の方が大きい。したがって、傾きの大きい微小面ほど反射率が大きくなるため、粗面においては入射角と反射角が一致しない。また、114の角度θ2の近傍の反射率に着目すると、113の角度θ1の近傍と同様に、θ2より小さい角度の反射率よりもθ2より大きい角度の反射率の方が大きいという特徴は同じだが、その違いは小さい。すなわち、入射方向104と大局的な法線方向103がなす角が小さいと、正反射方向105と反射光のピークの方向107がなす角は小さくなる。ただし、測定対象である粗面の大局的な法線方向103を事前に知ることはできないので、入射方向104と大局的な法線方向103がなす角が小さくなるような入射方向104も事前に知ることはできない。 FIG. 1C is a schematic diagram for explaining the incident angle dependence of the reflectance of surface reflection on a minute surface. It is assumed that the surface of the minute surface constituting the rough surface is a smooth surface. Reference numeral 111 denotes an axis indicating the magnitude of the incident angle formed by the normal direction and the incident direction of the minute surface. Reference numeral 112 denotes an axis indicating the reflectance. The reflectance of surface reflection on a smooth surface follows the so-called Fresnel equation, but as shown in FIG. 1 (c), it is a downwardly convex monotonic increasing function and has an extremum at an incident angle of 0 °. Further, paying attention to the reflectance in the vicinity of the angle theta 1 of 113, theta is larger reflectance theta 1 is greater than angle than 1 less than the angle reflectance. Therefore, since the reflectance increases as the inclination of the minute surface increases, the incident angle and the reflection angle do not match on the rough surface. Focusing on the reflectance in the vicinity of the angle θ 2 of 114, it is said that the reflectance of the angle larger than θ 2 is larger than the reflectance of the angle smaller than θ 2 as in the vicinity of the angle θ 1 of 113. The features are the same, but the difference is small. That is, if the angle formed by the incident direction 104 and the global normal direction 103 is small, the angle formed by the specular reflection direction 105 and the peak direction 107 of the reflected light becomes small. However, since it is not possible to know in advance the global normal direction 103 of the rough surface to be measured, the incident direction 104 in which the angle formed by the incident direction 104 and the global normal direction 103 becomes small is also obtained in advance. I can't know.

図2(a)および図2(b)は、本実施形態における法線方向の算出方法の概要を説明するための模式図である。まず、任意の方向201から粗面に光を照射し、拡がりを持つ反射光202の強度分布を測定する。測定した反射光202の強度分布より反射光のピークの方向203を算出する。次に、任意の方向201と反射光のピークの方向203から二等分線の方向204を算出する。二等分線の方向204は、仮の法線方向204’であって、1回目の法線方向の算出結果となる。続いて、図2(b)に示すように、仮の法線方向204’の反対方向205から光を粗面に照射し、拡がりを持つ反射光206の強度分布を測定し、測定した反射光206の強度分布より反射光のピークの方向207を算出する。次に、反対方向205とピークの方向207から二等分線の方向208を算出する。二等分線の方向208は、2回目の法線方向の算出結果となる。二等分線の方向208は、仮の法線方向204’よりも真の法線方向(大局的な法線方向103)に近づく。このように、1回目の法線方向の算出に基づいて、2回目の法線方向を算出するときの条件を決定する。ここでの条件とは、2回目の法線方向を算出するときに光を粗面に照射するときの方向である。次に、決定された条件を適用して2回目の法線方向を算出することで、より高精度に対象物体の法線方向を算出することができる。 2 (a) and 2 (b) are schematic views for explaining the outline of the calculation method of the normal direction in the present embodiment. First, the rough surface is irradiated with light from an arbitrary direction 201, and the intensity distribution of the reflected light 202 having a spread is measured. The direction 203 of the peak of the reflected light is calculated from the measured intensity distribution of the reflected light 202. Next, the direction 204 of the bisector is calculated from the arbitrary direction 201 and the direction 203 of the peak of the reflected light. The direction 204 of the bisector is a temporary normal direction 204', which is the result of the first calculation of the normal direction. Subsequently, as shown in FIG. 2 (b), the rough surface is irradiated with light from the direction 205 opposite to the temporary normal direction 204', the intensity distribution of the reflected light 206 having a spread is measured, and the measured reflected light is measured. The direction 207 of the peak of the reflected light is calculated from the intensity distribution of 206. Next, the direction 208 of the bisector is calculated from the opposite direction 205 and the peak direction 207. The direction 208 of the bisector is the calculation result of the second normal direction. The direction 208 of the bisector is closer to the true normal direction (global normal direction 103) than the tentative normal direction 204'. In this way, the conditions for calculating the second normal direction are determined based on the calculation of the first normal direction. The condition here is the direction in which the rough surface is irradiated with light when the second normal direction is calculated. Next, by applying the determined condition and calculating the normal direction for the second time, the normal direction of the target object can be calculated with higher accuracy.

次に、上述した法線方向の算出方法を実現するための法線算出システムについて説明する。
図3は、第1実施形態の法線算出システムの外観を示す図である。図3(a)は、法線算出システムを正面からみた正面図、図3(b)は法線算出システムを上面からみた上面図である。301は測定対象となる対象物体である。対象物体301は印刷物や布や塗装面などの数mmの表面凹凸を持つ略平面体として説明を行う。302は対象物体301を固定するための対象物固定治具である。303は対象物体301を撮像するDSLR(Digital Single Lens Reflex camra)等の撮像装置である。撮像装置303としては、例えば8688×5792画素のCMOS方式のエリアセンサを有するDSLRを用いることができる。なお、本実施形態では、撮像装置303は対象物体301上の輝度に対して線形な信号値を得る光電変換特性を有する。撮像装置303により撮像され記憶される画像データは、各画素でグレイ1チャンネルの輝度情報を有し、チャンネルが16ビットで量子化されているものとする。
Next, a normal calculation system for realizing the above-mentioned normal direction calculation method will be described.
FIG. 3 is a diagram showing the appearance of the normal calculation system of the first embodiment. FIG. 3A is a front view of the normal calculation system as viewed from the front, and FIG. 3B is a top view of the normal calculation system as viewed from the top. Reference numeral 301 denotes a target object to be measured. The target object 301 will be described as a substantially flat body having surface irregularities of several mm such as a printed matter, cloth, or a painted surface. Reference numeral 302 denotes an object fixing jig for fixing the target object 301. Reference numeral 303 denotes an imaging device such as a DSLR (Digital Single Lens Reflex camra) that images the target object 301. As the image pickup apparatus 303, for example, a DSLR having a CMOS type area sensor of 8688 × 5792 pixels can be used. In the present embodiment, the image pickup apparatus 303 has a photoelectric conversion characteristic of obtaining a signal value linear with respect to the brightness on the target object 301. It is assumed that the image data captured and stored by the image pickup apparatus 303 has the luminance information of one gray channel in each pixel, and the channel is quantized by 16 bits.

また、304は撮像装置303の位置を変更するステージである。なお、本実施形態では、対象物体301に対して様々な方向から撮像を行うために、撮像装置303の位置を変更して撮像を行うが、撮像装置303の位置の変更方法は、この場合に限られない。例えば、複数の撮像装置を半球状の固定治具上に固定し、使用する撮像装置を切り替えることで撮像装置の位置を変更してもよい。また、ステージ304や撮像装置を固定するための固定治具は、対象物体301に対し様々な方向から撮像できれば、半球状でなくてもよく、例えば2次元格子状であってもよい。半球状は、撮像装置303から対象物体301までの距離を略一定とすることができる。一方、2次元格子状は、撮像装置303から対象物体301までの距離を一定とすることができないため、解像度変換処理などの追加の処理が必要となる。 Further, 304 is a stage for changing the position of the image pickup apparatus 303. In the present embodiment, in order to perform imaging on the target object 301 from various directions, the position of the imaging device 303 is changed to perform imaging, but the method of changing the position of the imaging device 303 is in this case. Not limited. For example, a plurality of image pickup devices may be fixed on a hemispherical fixing jig, and the position of the image pickup device may be changed by switching the image pickup device to be used. Further, the fixing jig for fixing the stage 304 and the imaging device does not have to be hemispherical as long as the target object 301 can be imaged from various directions, and may be, for example, a two-dimensional grid shape. The hemispherical shape can make the distance from the image pickup apparatus 303 to the target object 301 substantially constant. On the other hand, in the two-dimensional grid pattern, the distance from the image pickup apparatus 303 to the target object 301 cannot be made constant, so that additional processing such as resolution conversion processing is required.

また、305は、対象物体301を照射するための複数のLED(Light Emitting Diode)などの光源で構成される照明装置である。照明装置305は、光学固定治具306上にそれぞれの光源が配置されている。なお、本実施形態では、対象物体301に対し様々な方向から光を照射するために、複数の光源で構成される照明装置305を用いるが、光源の位置を変更可能なステージを用いてもよい。また、光学固定治具306は半球状ではなく、対象物体301に対し様々な方向から光を照射できれば、例えば2次元格子であってもよい。また、307は、撮像装置303、ステージ304、照明装置305を制御して、対象物体301を撮像した画像を取得する一連の処理を行う情報処理装置である。 Further, the 305 is a lighting device composed of a light source such as a plurality of LEDs (Light Emitting Diodes) for irradiating the target object 301. In the lighting device 305, each light source is arranged on the optical fixing jig 306. In the present embodiment, in order to irradiate the target object 301 with light from various directions, the lighting device 305 composed of a plurality of light sources is used, but a stage in which the position of the light sources can be changed may be used. .. Further, the optical fixing jig 306 is not hemispherical, and may be, for example, a two-dimensional lattice as long as the target object 301 can be irradiated with light from various directions. Further, the 307 is an information processing device that controls the image pickup device 303, the stage 304, and the lighting device 305 to perform a series of processes for acquiring an image of the target object 301.

図4は、情報処理装置307のハードウェア構成を示すブロック図である。情報処理装置307は、CPU401、ROM402、RAM403を有する。また、情報処理装置307は、VC(ビデオカード)404、汎用I/F(インターフェース)405、SATA(シリアルATA)I/F406、NIC(ネットワークインターフェースカード)407を備える。CPU401は、RAM403をワークメモリとして、ROM402、HDD(ハードディスクドライブ)412などに格納されたOS(オペレーティングシステム)や各種プログラムを実行する。また、CPU401は、システムバス408を介して各構成を制御する。なお、後述するフローチャートによる処理は、ROM402やHDD412などに格納されたプログラムコードがRAM403に展開され、CPU401によって実行される。VC404には、ディスプレイ414が接続される。汎用I/F405には、シリアルバス409を介して、マウスやキーボードなどの入力デバイス410や撮像装置303、ステージ304、照明装置305が接続される。SATAI/F406には、シリアルバス411を介して、HDD412や各種記録メディアの読み書きを行う汎用ドライブ413が接続される。NIC407は、外部装置との間で情報の入出力を行う。CPU401は、HDD412や汎用ドライブ413にマウントされた各種記録メディアを各種データの格納場所として使用する。CPU401は、プログラムによって提供されるGUI(グラフィカルユーザインターフェース)をディスプレイ414に表示し、入力デバイス410を介して受け付けるユーザ指示などの入力を受信する。 FIG. 4 is a block diagram showing a hardware configuration of the information processing device 307. The information processing device 307 includes a CPU 401, a ROM 402, and a RAM 403. The information processing device 307 includes a VC (video card) 404, a general-purpose I / F (interface) 405, a SATA (Serial ATA) I / F 406, and a NIC (network interface card) 407. The CPU 401 uses the RAM 403 as a work memory to execute an OS (operating system) and various programs stored in a ROM 402, an HDD (hard disk drive) 412, and the like. Further, the CPU 401 controls each configuration via the system bus 408. The process according to the flowchart described later is executed by the CPU 401 after the program code stored in the ROM 402, the HDD 412, or the like is expanded into the RAM 403. A display 414 is connected to the VC 404. An input device 410 such as a mouse or keyboard, an image pickup device 303, a stage 304, and a lighting device 305 are connected to the general-purpose I / F 405 via a serial bus 409. A general-purpose drive 413 that reads and writes HDD 412 and various recording media is connected to SATAI / F406 via the serial bus 411. The NIC 407 inputs and outputs information to and from an external device. The CPU 401 uses various recording media mounted on the HDD 412 or the general-purpose drive 413 as a storage location for various data. The CPU 401 displays a GUI (graphical user interface) provided by the program on the display 414, and receives an input such as a user instruction received via the input device 410.

図5は、情報処理装置307の機能構成を示すブロック図である。情報処理装置307は、撮像ドライバ501、照明ドライバ502、ステージドライバ503、入力ドライバ504、表示ドライバ505、画像取得制御部506、法線算出部507、UI管理部508を有する。撮像ドライバ501は、画像取得制御部506による指示に基づいて撮像装置303を制御する。照明ドライバ502は、画像取得制御部506による指示に基づいて照明装置305を制御する。具体的に、照明ドライバ502は、照明装置305の複数の光源を個々に点灯・消灯する。ステージドライバ503は、画像取得制御部506による指示に基づいてステージ304を制御する。具体的に、ステージドライバ503は、ステージ304の移動を開始したり終了したりする。入力ドライバ504は、UI管理部508による指示に基づいて入力デバイス410を制御する。表示ドライバ505は、UI管理部508による指示に基づいてディスプレイ414を制御する。画像取得制御部506は、撮像ドライバ501、照明ドライバ502、ステージドライバ503を制御して、撮像した画像を取得する一連の処理を行う。法線算出部507は、画像取得制御部506が取得した画像から対象物体の法線情報を算出する。本実施形態で算出される法線情報は、対象物体の位置ごとの法線方向である。UI管理部508は、ユーザインタフェース機能を管理する。具体的に、UI管理部508は、ユーザが入力デバイス410に入力した情報を管理したり、測定結果をディスプレイ414に表示したりする。 FIG. 5 is a block diagram showing a functional configuration of the information processing device 307. The information processing device 307 includes an image pickup driver 501, a lighting driver 502, a stage driver 503, an input driver 504, a display driver 505, an image acquisition control unit 506, a normal calculation unit 507, and a UI management unit 508. The image pickup driver 501 controls the image pickup device 303 based on an instruction from the image acquisition control unit 506. The lighting driver 502 controls the lighting device 305 based on an instruction from the image acquisition control unit 506. Specifically, the lighting driver 502 individually turns on and off a plurality of light sources of the lighting device 305. The stage driver 503 controls the stage 304 based on an instruction from the image acquisition control unit 506. Specifically, the stage driver 503 starts and ends the movement of the stage 304. The input driver 504 controls the input device 410 based on the instruction from the UI management unit 508. The display driver 505 controls the display 414 based on the instruction from the UI management unit 508. The image acquisition control unit 506 controls the image pickup driver 501, the illumination driver 502, and the stage driver 503 to perform a series of processes for acquiring the captured image. The normal calculation unit 507 calculates the normal information of the target object from the image acquired by the image acquisition control unit 506. The normal information calculated in this embodiment is the normal direction for each position of the target object. The UI management unit 508 manages the user interface function. Specifically, the UI management unit 508 manages the information input by the user to the input device 410 and displays the measurement result on the display 414.

図6は、情報処理装置307による処理の一例を示すフローチャートである。
S601では、UI管理部508はユーザから撮像装置303の撮像条件、ステージ304のステージ移動条件、照明装置305の照明条件等の条件設定を受け付けて設定する。ここで設定する撮像条件は、絞り値、シャッター速度、ISO感度等である。また、設定するステージ移動条件は、ステージ304上の撮像を行う複数の位置、移動順序等である。また、設定する照明条件は、点灯を行う光源の位置、点灯順等である。
FIG. 6 is a flowchart showing an example of processing by the information processing apparatus 307.
In S601, the UI management unit 508 receives and sets condition settings such as imaging conditions of the imaging device 303, stage moving conditions of the stage 304, and lighting conditions of the lighting device 305 from the user. The imaging conditions set here are the aperture value, shutter speed, ISO sensitivity, and the like. Further, the stage movement conditions to be set are a plurality of positions for imaging on the stage 304, a movement order, and the like. The lighting conditions to be set are the position of the light source to be lit, the lighting order, and the like.

S602では、画像取得制御部506は、ステージ304を移動させることで撮像装置303の位置を変更し、対象物体上における照明装置305による照射と、撮像装置303による撮像とを行うことで画像を取得する一連の処理を実行する。S602の具体的な処理については後述する。
S603では、法線算出部507は、S602で取得された画像から対象物体の法線情報を算出する。S603の具体的な処理については後述する。
S604では、UI管理部508は、S603で算出された対象物体の法線情報をディスプレイ414に表示して、処理を終了する。なお、S604ではUI管理部508は、ディスプレイ414に表示せずに、対象物体の全体の画像を直接HDD412などの記録媒体に記憶するようにしてもよい。
In S602, the image acquisition control unit 506 changes the position of the image pickup device 303 by moving the stage 304, and acquires an image by performing irradiation by the illumination device 305 on the target object and imaging by the image pickup device 303. Perform a series of processes. The specific processing of S602 will be described later.
In S603, the normal calculation unit 507 calculates the normal information of the target object from the image acquired in S602. The specific processing of S603 will be described later.
In S604, the UI management unit 508 displays the normal information of the target object calculated in S603 on the display 414, and ends the process. In S604, the UI management unit 508 may directly store the entire image of the target object in a recording medium such as HDD 412 without displaying it on the display 414.

図7は、図6のS602における画像を取得する処理を示すフローチャートである。本実施形態では、対象物体の場所ごとに異なる照度の違いを補正するため、対象物体の撮像とは別に、キャリブレーション用の撮像を行う。
S701では、画像取得制御部506は、対象物体を撮像した画像を取得する。
S702では、画像取得制御部506は、キャリブレーション用に撮像した画像を取得する。なお、光源の輝度は時間で変化するが順序にはよらないために、S701とS702の時間差は小さい方が好ましく、S701とS702の順序は逆であってもよい。また、S701の前後にそれぞれS702を行うようにしてもよい。
FIG. 7 is a flowchart showing a process of acquiring an image in S602 of FIG. In the present embodiment, in order to correct the difference in illuminance that differs depending on the location of the target object, imaging for calibration is performed separately from the imaging of the target object.
In S701, the image acquisition control unit 506 acquires an image of the target object.
In S702, the image acquisition control unit 506 acquires an image captured for calibration. Since the brightness of the light source changes with time but does not depend on the order, it is preferable that the time difference between S701 and S702 is small, and the order of S701 and S702 may be reversed. Further, S702 may be performed before and after S701.

図8(a)は、図7のS701における具体的な処理を示すフローチャートである。なお、ユーザは予め対象物固定治具302上に対象物体301を固定する。
S801では、画像取得制御部506は、ステージ304上の各撮像位置において、S802〜S806の処理を繰り返し行う。
S802では、画像取得制御部506は、S601にて設定されたステージ移動条件に基づき指定された位置にステージ304を介して撮像装置303を移動する。
S803では、画像取得制御部506は、照明装置305の複数の光源の位置ごとに、S804〜S806の処理を繰り返し行う。
S804では、画像取得制御部506は、S601にて設定された照明条件に基づき照明装置305のうち指定された光源の点灯を行う。
S805では、画像取得制御部506は、S601にて設定された撮像条件に基づき撮像装置303による撮像を行う。
S806では、画像取得制御部506は、S601にて設定された照明条件に基づき照明装置305のうち指定された光源の消灯を行う。
FIG. 8A is a flowchart showing a specific process in S701 of FIG. 7. The user fixes the target object 301 on the object fixing jig 302 in advance.
In S801, the image acquisition control unit 506 repeatedly performs the processes of S802 to S806 at each imaging position on the stage 304.
In S802, the image acquisition control unit 506 moves the image pickup apparatus 303 to a position designated based on the stage movement condition set in S601 via the stage 304.
In S803, the image acquisition control unit 506 repeats the processes of S804 to S806 for each position of the plurality of light sources of the lighting device 305.
In S804, the image acquisition control unit 506 lights the light source specified in the lighting device 305 based on the lighting conditions set in S601.
In S805, the image acquisition control unit 506 performs image pickup by the image pickup apparatus 303 based on the image pickup conditions set in S601.
In S806, the image acquisition control unit 506 turns off the light source specified in the lighting device 305 based on the lighting conditions set in S601.

次に、画像取得制御部506は、S803に戻り、光源位置を変更して、S804〜S806の処理を行う。画像取得制御部506は、全ての光源位置でS804〜S806の処理が終了した場合には、S801に戻り撮像装置303の位置を変更して、S803〜S806の処理を行う。画像取得制御部506は、全ての撮像位置でS803〜S806の処理が終了することで、S701の処理を終了する。このように本実施形態では、撮像装置303の撮像位置の変更と、照明装置305の光源位置の変更とを行って撮像を行う。撮像装置303の撮像位置の変更はメカニカルであり、照明装置305の光源位置の変更は非メカニカルであるため、照明装置305の光源位置の変更のループを、撮像装置303の撮像位置の変更のループの内側にすることで、撮像時間を短縮することができる。 Next, the image acquisition control unit 506 returns to S803, changes the light source position, and performs the processes of S804 to S806. When the processing of S804 to S806 is completed at all the light source positions, the image acquisition control unit 506 returns to S801 and changes the position of the image pickup apparatus 303 to perform the processing of S803 to S806. The image acquisition control unit 506 ends the processing of S701 when the processing of S803 to S806 is completed at all the imaging positions. As described above, in the present embodiment, the imaging position of the imaging device 303 is changed and the light source position of the lighting device 305 is changed to perform imaging. Since the change of the imaging position of the imaging device 303 is mechanical and the change of the light source position of the lighting device 305 is non-mechanical, the loop of changing the light source position of the lighting device 305 and the loop of changing the imaging position of the imaging device 303 are used. The imaging time can be shortened by placing it inside.

図8(b)は、図7のS702における具体的な処理を示すフローチャートである。なお、図8(a)が対象物体301を撮像するのに対して、図8(b)では対象物体の場所ごとに異なる照度の違いを補正するために白色板を撮像する。したがって、ユーザは、対象物固定治具302上に固定した対象物体301を白色板に変更して固定する。白色板は、色が均一で鏡面性が小さく拡散性の高いものが好ましい。図8(b)のフローチャートにおける画像取得制御部506の処理は、図8(a)のフローチャートと同様であり、説明を省略する。 FIG. 8B is a flowchart showing a specific process in S702 of FIG. 7. In addition, while FIG. 8 (a) images the target object 301, in FIG. 8 (b), a white plate is imaged in order to correct the difference in illuminance that differs depending on the location of the target object. Therefore, the user changes the object object 301 fixed on the object fixing jig 302 to a white plate and fixes it. The white plate preferably has a uniform color, a small mirror surface, and a high diffusivity. The processing of the image acquisition control unit 506 in the flowchart of FIG. 8B is the same as that of the flowchart of FIG. 8A, and the description thereof will be omitted.

図9は、図6のS603における法線情報を算出する処理を実行する法線算出部507の詳細な機能構成を示すブロック図である。法線算出部507は、変角反射特性算出部901、第1の法線算出部902、第2の法線算出部903を有する。 FIG. 9 is a block diagram showing a detailed functional configuration of the normal calculation unit 507 that executes the process of calculating the normal information in S603 of FIG. The normal calculation unit 507 includes a variable angle reflection characteristic calculation unit 901, a first normal calculation unit 902, and a second normal calculation unit 903.

図10は、図6のS603における法線情報を算出する処理を示すフローチャートである。
S1001では、変角反射特性算出部901は、撮像装置303の撮像位置と照明装置305の光源位置とを変更して撮像した対象物体および白色板の画像から、対象物体の変角反射特性情報を算出する。S1001の具体的な処理については後述する。
S1002では、第1の法線算出部902は、変角反射特性算出部901で算出された変角反射特性情報を分析することにより第1法線情報を算出する。S1002の具体的な処理については後述する。
S1003では、第2の法線算出部903は、第1の法線算出部902で算出された第1法線情報に基づき、変角反射特性算出部901で算出した変角反射特性情報を分析することにより第2法線情報を算出する。ここで、第1法線情報とは上述した1回目の法線情報の算出結果であり、第2法線情報とは上述した2回目の法線情報の算出結果である。
FIG. 10 is a flowchart showing a process of calculating the normal information in S603 of FIG.
In S1001, the variable angle reflection characteristic calculation unit 901 obtains the variable angle reflection characteristic information of the target object from the images of the target object and the white plate captured by changing the imaging position of the image pickup device 303 and the light source position of the illumination device 305. calculate. The specific processing of S1001 will be described later.
In S1002, the first normal calculation unit 902 calculates the first normal information by analyzing the variable angle reflection characteristic information calculated by the variable angle reflection characteristic calculation unit 901. The specific processing of S1002 will be described later.
In S1003, the second normal calculation unit 903 analyzes the variable angle reflection characteristic information calculated by the variable angle reflection characteristic calculation unit 901 based on the first normal information calculated by the first normal calculation unit 902. The second normal information is calculated by doing so. Here, the first normal information is the calculation result of the first normal information described above, and the second normal information is the calculation result of the second normal information described above.

図11は、図10のS1001における変角反射特性情報を算出する処理を示すフローチャートである。
S1101およびS1102では、変角反射特性算出部901は、撮像装置303の撮像位置が同一であって、照明装置305の光源位置が同一の画像ごとにS1103〜S1106の処理を繰り返し行う。
S1103では、変角反射特性算出部901は、S701にて撮像した対象物体の画像1枚の読み込みを行う。
S1104では、変角反射特性算出部901は、S702にて撮像した白色板の画像1枚の読み込みを行う。
S1105では、変角反射特性算出部901は、次の(式1)により反射率情報R(i,j)を算出する。
FIG. 11 is a flowchart showing a process of calculating the variable angle reflection characteristic information in S1001 of FIG.
In S1101 and S1102, the variable angle reflection characteristic calculation unit 901 repeats the processes of S1103 to S1106 for each image in which the imaging position of the imaging device 303 is the same and the light source position of the lighting device 305 is the same.
In S1103, the variable angle reflection characteristic calculation unit 901 reads one image of the target object captured in S701.
In S1104, the variable angle reflection characteristic calculation unit 901 reads one image of the white plate imaged in S702.
In S1105, the variable angle reflection characteristic calculation unit 901 calculates the reflectance information R (i, j) by the following (Equation 1).

Figure 2021128041
Figure 2021128041

ここで、対象物体の画像をObj(i,j)、白色板の画像をRef(i,j)とする。(i,j)は画素位置を表す。このように白色板の画像を用いて計算することで、対象物体の場所ごとに異なる照度の違いを補正する。なお、照明装置305の全ての光源を点灯せずに対象物体を撮像した画像Obj_black(i,j)と、白色板を撮像した画像Ref_black(i,j)を用い、次の(式2)により反射率情報R’(i,j)を算出してもよい。 Here, the image of the target object is Obj (i, j), and the image of the white plate is Ref (i, j). (I, j) represents the pixel position. By calculating using the image of the white plate in this way, the difference in illuminance that differs depending on the location of the target object is corrected. Using the image Obj_black (i, j), which is an image of the target object without turning on all the light sources of the lighting device 305, and the image Ref_black (i, j), which is an image of the white plate, according to the following (Equation 2). The reflectance information R'(i, j) may be calculated.

Figure 2021128041
Figure 2021128041

こうすることで固定パターンのノイズを低減することができるため、より高精度に法線方向を算出することができる。 By doing so, the noise of the fixed pattern can be reduced, so that the normal direction can be calculated with higher accuracy.

S1106では、変角反射特性算出部901は、対象物体の位置ごとに、照明装置305の点灯した光源の方向と撮像装置303の方向とを算出する。具体的には、変角反射特性算出部901は、予めHDD412などの記録媒体に記憶された、撮像装置303の3次元空間における座標と、照明装置305の点灯した光源の3次元空間における座標と、対象物体の各位置の3次元空間における座標とを読み込む。次に、変角反射特性算出部901は、対象物体の位置ごとに、照明装置305の点灯した光源の3次元空間における座標と、対象物体の各位置の3次元空間における座標とから入射角(θi、φi)を算出する。また、変角反射特性算出部901は、撮像装置303の3次元空間における座標と、対象物体の各位置の3次元空間における座標とから反射角(θj、φj)を算出する。 In S1106, the variable angle reflection characteristic calculation unit 901 calculates the direction of the lit light source of the lighting device 305 and the direction of the imaging device 303 for each position of the target object. Specifically, the variable angle reflection characteristic calculation unit 901 includes the coordinates in the three-dimensional space of the image pickup device 303 and the coordinates in the three-dimensional space of the lit light source of the illumination device 305, which are stored in advance in a recording medium such as HDD412. , Read the coordinates of each position of the target object in the three-dimensional space. Next, the variable angle reflection characteristic calculation unit 901 sets the incident angle (for each position of the target object) from the coordinates of the lit light source of the lighting device 305 in the three-dimensional space and the coordinates of each position of the target object in the three-dimensional space. θi, φi) are calculated. Further, the variable angle reflection characteristic calculation unit 901 calculates the reflection angle (θj, φj) from the coordinates of the image pickup apparatus 303 in the three-dimensional space and the coordinates of each position of the target object in the three-dimensional space.

次に、変角反射特性算出部901は、S1102に戻り、光源位置を変更し、S1103〜S1106の処理を行う。変角反射特性算出部901は、全ての光源位置でS1103〜S1106の処理が終了した場合には、S1101に戻り、撮像装置303の位置を変更して、S1102〜S1106の処理を行う。変角反射特性算出部901は、全ての撮像装置303の位置でS1102〜S1106の処理を行う。
S1107では、変角反射特性算出部901は、S1105で算出した反射率情報と、S1106で算出した幾何条件情報とを集約し、変角反射特性情報として出力する。変角反射特性情報(反射特性)とは、対象物体の位置ごとの、入射角(θi、φi)と反射角(θj、φj)における反射率情報である。変角反射特性算出部901は、出力した変角反射特性情報をHDD412などの記録媒体に記憶する。
Next, the variable angle reflection characteristic calculation unit 901 returns to S1102, changes the light source position, and performs the processes of S1103 to S1106. When the processing of S1103 to S1106 is completed at all the light source positions, the variable angle reflection characteristic calculation unit 901 returns to S1101 and changes the position of the image pickup apparatus 303 to perform the processing of S1102 to S1106. The variable angle reflection characteristic calculation unit 901 performs the processing of S1102 to S1106 at all the positions of the image pickup apparatus 303.
In S1107, the variable angle reflection characteristic calculation unit 901 aggregates the reflectance information calculated in S1105 and the geometric condition information calculated in S1106, and outputs the variable angle reflection characteristic information. The variable angle reflection characteristic information (reflection characteristic) is the reflectance information at the incident angle (θi, φi) and the reflection angle (θj, φj) for each position of the target object. The variable angle reflection characteristic calculation unit 901 stores the output variable angle reflection characteristic information in a recording medium such as HDD 412.

なお、本実施形態では、拡散反射成分と表面反射成分を分離せずに用いて説明を行うが、拡散反射成分と表面反射成分を分離し、表面反射成分の変角反射特性を利用してもよい。拡散反射成分と表面反射成分を分離する処理方法としては、偏光フィルタを用いる方法、反射モデルを用いる方法などの公知の方法がある。表面反射成分の変角反射特性を利用することで、拡散反射成分が角度によって異なるような対象物体の場合により高精度に法線方向を算出することができる。 In this embodiment, the diffuse reflection component and the surface reflection component are used without being separated, but the diffuse reflection component and the surface reflection component can be separated and the variable angle reflection characteristic of the surface reflection component can be used. good. As a processing method for separating the diffuse reflection component and the surface reflection component, there are known methods such as a method using a polarizing filter and a method using a reflection model. By utilizing the variable angle reflection characteristic of the surface reflection component, it is possible to calculate the normal direction with higher accuracy in the case of an object object in which the diffuse reflection component differs depending on the angle.

図12は、図10のS1002における第1法線情報を算出する処理を示すフローチャートである。
S1201では、第1の法線算出部902は、S1001で算出された変角反射特性情報をHDD412などの記録媒体から読み込む。なお、本実施形態では、S1001で算出された変角反射特性情報を用いる場合について説明するが、この場合に限られない。第1の法線算出部902は、別の取得装置が取得した変角反射特性情報を読み込んでもよい。
FIG. 12 is a flowchart showing a process of calculating the first normal information in S1002 of FIG.
In S1201, the first normal calculation unit 902 reads the variable angle reflection characteristic information calculated in S1001 from a recording medium such as HDD 412. In this embodiment, the case where the variable angle reflection characteristic information calculated in S1001 is used will be described, but the case is not limited to this case. The first normal calculation unit 902 may read the variable angle reflection characteristic information acquired by another acquisition device.

S1202では、第1の法線算出部902は、対象物体の位置(注目位置)を設定して位置ごとにS1203〜S1205の処理を繰り返し行う。
S1203では、第1の法線算出部902は入射光の方向(第1方向)を設定する。この方向(第1方向)は、上述した図2(a)の任意の方向201に対応する。なお、設定する入射光の方向は、予めHDD412などの記録媒体に記憶されている。
In S1202, the first normal calculation unit 902 sets the position (attention position) of the target object and repeats the processes of S1203 to S1205 for each position.
In S1203, the first normal calculation unit 902 sets the direction (first direction) of the incident light. This direction (first direction) corresponds to the arbitrary direction 201 of FIG. 2A described above. The direction of the incident light to be set is stored in advance in a recording medium such as HDD 412.

S1204では、第1の法線算出部902は、S1202で設定した対象物体の位置(注目位置)において、S1203で設定した入射光の方向における、反射光の方向ごとの反射率情報をS1201で読み込んだ変角反射特性情報から抽出する。第1の法線算出部902は、抽出された反射光の方向ごとの反射率情報から反射光のピークの方向(第2方向)を算出する。なお、反射光の方向ごとの反射率情報を抽出する場合にはスプライン補間などの補間処理を用いてもよい。補間処理を用いることで変角反射特性情報が疎なデータであっても法線方向の算出精度を向上させることができる。また、抽出された反射光の方向ごとの反射率情報から反射光のピークの方向を算出する場合には、反射率情報が最大値となる方向を反射光のピークの方向として算出するが、この場合に限られず、例えばスプライン補間などの補間処理を用いてもよい。また、最小二乗法などの最適化手法を用い、抽出された反射光の方向ごとの反射率情報に対して単峰性の関数をFittingすることで反射光のピークの方向を算出してもよい。最適化手法を用いることで変角反射特性情報が疎なデータであっても法線方向の算出精度を向上させることができる。 In S1204, the first normal calculation unit 902 reads the reflectance information for each direction of the reflected light in the direction of the incident light set in S1203 at the position (attention position) of the target object set in S1202 in S1201. However, it is extracted from the variable angle reflection characteristic information. The first normal calculation unit 902 calculates the direction of the peak of the reflected light (second direction) from the reflectance information for each direction of the extracted reflected light. When extracting the reflectance information for each direction of the reflected light, interpolation processing such as spline interpolation may be used. By using the interpolation process, it is possible to improve the calculation accuracy in the normal direction even if the variable angle reflection characteristic information is sparse. Further, when calculating the direction of the peak of the reflected light from the reflectance information for each direction of the extracted reflected light, the direction in which the maximum value of the reflectance information is calculated is calculated as the direction of the peak of the reflected light. Not limited to the case, for example, an interpolation process such as spline interpolation may be used. Further, the direction of the peak of the reflected light may be calculated by fitting a monomodal function to the reflectance information for each direction of the extracted reflected light by using an optimization method such as the least squares method. .. By using the optimization method, it is possible to improve the calculation accuracy in the normal direction even if the variable angle reflection characteristic information is sparse.

S1205では、第1の法線算出部902は、S1203で設定した入射光の方向とS1204で算出した反射光のピークの方向から2等分線の方向を算出する。なお、2等分線の方向を算出する場合、第1の法線算出部902は算出する方向のノルムが1になるように規格化する。
次に、第1の法線算出部902は、S1202に戻り、対象物体の位置を変更し、S1203〜S1205の処理を行う。第1の法線算出部902は、対象物体の全ての位置でS1203〜S1205の処理を行う。
S1206では、第1の法線算出部902は、対象物体の位置ごとにS1205で算出した2等分線の方向を第1法線方向として出力する。第1の法線算出部902は、対象物体の位置ごとの第1法線方向の情報を集約した第1法線情報を、HDD412などの記録媒体に記憶する。
In S1205, the first normal calculation unit 902 calculates the direction of the bisector from the direction of the incident light set in S1203 and the direction of the peak of the reflected light calculated in S1204. When calculating the direction of the bisector, the first normal calculation unit 902 normalizes so that the norm of the calculation direction is 1.
Next, the first normal calculation unit 902 returns to S1202, changes the position of the target object, and performs the processes of S1203 to S1205. The first normal calculation unit 902 performs the processes of S1203 to S1205 at all the positions of the target object.
In S1206, the first normal calculation unit 902 outputs the direction of the bisection line calculated in S1205 for each position of the target object as the first normal direction. The first normal calculation unit 902 stores the first normal information, which is a collection of information in the first normal direction for each position of the target object, in a recording medium such as HDD 412.

図13は、図10のS1003における第2法線情報を算出する処理を示すフローチャートである。
S1301では、第2の法線算出部903は、S1001で算出された変角反射特性情報をHDD412などの記録媒体から読み込む。この処理は、S1201と同様の処理である。
FIG. 13 is a flowchart showing a process of calculating the second normal information in S1003 of FIG.
In S1301, the second normal calculation unit 903 reads the variable angle reflection characteristic information calculated in S1001 from a recording medium such as HDD 412. This process is the same as S1201.

S1302では、第2の法線算出部903は、対象物体の位置(注目位置)ごとにS1303〜S1305の処理を繰り返し行う。
S1303では、第2の法線算出部903は、第1の法線算出部902が算出した第1法線方向に基づいて、対象物体の位置ごとに第2法線方向を算出するときの条件を決定する。具体的には、第2の法線算出部903は、S1003で算出された第1法線情報をHDD412などの記録媒体から読み込み、第1法線方向の反対方向を入射光の方向(第3方向)に決定し、入射光の方向を設定する。この方向(第3方向)は、上述した図2(b)の反対方向205に対応する。
In S1302, the second normal calculation unit 903 repeats the processes of S1303 to S1305 for each position (attention position) of the target object.
In S1303, the second normal calculation unit 903 calculates the second normal direction for each position of the target object based on the first normal direction calculated by the first normal calculation unit 902. To determine. Specifically, the second normal calculation unit 903 reads the first normal information calculated in S1003 from a recording medium such as HDD 412, and the direction opposite to the first normal direction is the direction of the incident light (third). Direction) and set the direction of the incident light. This direction (third direction) corresponds to the opposite direction 205 of FIG. 2B described above.

S1304では、第2の法線算出部903は、S1302で設定した対象物体の位置(注目位置)において、S1303で設定した入射光の方向における、反射光の方向ごとの反射率情報をS1301で読み込んだ変角反射特性情報から抽出する。第2の法線算出部903は、抽出された反射光の方向ごとの反射率情報から反射光のピークの方向(第4方向)を算出する。なお、S1204と同様に、法線方向の算出精度を向上させる処理を用いてもよい。
S1305では、第2の法線算出部903は、S1303で設定した入射光の方向とS1304で算出した反射光のピークの方向から2等分線の方向を算出する。なお、2等分線の方向を算出する場合、第2の法線算出部903は算出する方向のノルムが1になるように規格化する。
次に、第2の法線算出部903は、S1302に戻り、対象物体の位置を変更し、S1303〜S1305の処理を行う。第2の法線算出部903は、対象物体の全ての位置でS1303〜S1305の処理を行う。
S1306では、第2の法線算出部903は、対象物体の位置ごとにS1305で算出した2等分線の方向を第2法線方向として出力する。第2の法線算出部903は、対象物体の位置ごとの第2法線方向の情報を集約した第2法線情報を、HDD412などの記録媒体に記憶する。
In S1304, the second normal calculation unit 903 reads the reflectance information for each direction of the reflected light in the direction of the incident light set in S1303 at the position (attention position) of the target object set in S1302 in S1301. However, it is extracted from the variable angle reflection characteristic information. The second normal calculation unit 903 calculates the direction of the peak of the reflected light (fourth direction) from the reflectance information for each direction of the extracted reflected light. As in S1204, a process for improving the calculation accuracy in the normal direction may be used.
In S1305, the second normal calculation unit 903 calculates the direction of the bisector from the direction of the incident light set in S1303 and the direction of the peak of the reflected light calculated in S1304. When calculating the direction of the bisector, the second normal calculation unit 903 normalizes so that the norm of the calculation direction is 1.
Next, the second normal calculation unit 903 returns to S1302, changes the position of the target object, and performs the processes of S1303 to S1305. The second normal calculation unit 903 performs the processes of S1303 to S1305 at all positions of the target object.
In S1306, the second normal calculation unit 903 outputs the direction of the bisection line calculated in S1305 for each position of the target object as the second normal direction. The second normal calculation unit 903 stores the second normal information, which is the aggregate of the information in the second normal direction for each position of the target object, in a recording medium such as HDD 412.

以上、本実施形態によれば、第2の法線算出部903は、第1の法線算出部902により算出された第1法線方向に基づいて、対象物体の注目位置における第2法線方向を算出するための条件を決定する。したがって、第2の法線算出部903により算出される第2法線方向を、対象物体の注目位置における真の法線方向により近づけることができ、対象物体の表面が粗面であっても高精度に法線方向を算出することができる。
また、第2の法線算出部903は、第1法線方向に基づいて決定された条件に基づいた入射光の方向と、対象物体における反射光のピークの方向とに基づいて、対象物体における注目位置の第2法線方向を算出する。したがって、法線方向の算出の処理を繰り返し行うことで、第2の法線算出部903により算出される法線方向を、対象物体の注目位置における真の法線方向により近づけることができ、対象物体の表面が粗面であっても高精度に法線方向を算出することができる。
As described above, according to the present embodiment, the second normal calculation unit 903 has the second normal line at the position of interest of the target object based on the first normal direction calculated by the first normal calculation unit 902. Determine the conditions for calculating the direction. Therefore, the second normal direction calculated by the second normal calculation unit 903 can be made closer to the true normal direction at the position of interest of the target object, and the surface of the target object is high even if it is a rough surface. The normal direction can be calculated accurately.
Further, the second normal calculation unit 903 sets the target object based on the direction of the incident light based on the conditions determined based on the first normal direction and the direction of the peak of the reflected light in the target object. Calculate the second normal direction of the position of interest. Therefore, by repeating the process of calculating the normal direction, the normal direction calculated by the second normal calculation unit 903 can be brought closer to the true normal direction at the position of interest of the target object, and the target can be obtained. Even if the surface of the object is rough, the normal direction can be calculated with high accuracy.

なお、本実施形態では、算出された2回目の法線方向を、対象物体の注目位置における法線方向とする場合について説明したが、この場合に限られず、3回目の法線方向、あるいは複数回目の法線方向を対象物体の注目位置における法線方向としてもよい。
例えば、第2の法線算出部903は、S1305で算出した対象物体の位置ごとの第2法線方向を用いて、S1301〜S1306と同様に処理を行うことで、第3法線方向を算出し、第3法線方向を対象物体の注目位置における法線方向としてもよい。すなわち、S1303では、第2の法線算出部903は、前回、算出した第2法線方向の反対方向を入射光の方向(第5方向)に決定し、入射光の方向を設定する。S1304では、第2の法線算出部903は、設定した入射光の方向における反射光のピークの方向(第6方向)を算出する。S1305では、第2の法線算出部903は、入射光の方向と反射光のピークの方向から2等分線の方向を算出する。S1306では、第2の法線算出部903は、対象物体の位置ごとに算出した2等分線の方向を第3法線方向として出力する。なお、第2の法線算出部903は同様にS1301〜S1306を繰り返して処理することで、S1305で算出した対象物体の位置ごとの第N法線方向を用いて第(N+1)法線方向を算出し、第(N+1)法線方向を対象物体の注目位置における法線方向としてもよい。このように、法線方向の算出の処理を3回以上、繰り返し行うことで、より高精度に対象物体の法線方向を算出することができる。
In the present embodiment, the case where the calculated second normal direction is set to the normal direction at the position of interest of the target object has been described, but the present invention is not limited to this case, and the third normal direction or a plurality of normal directions is described. The normal direction of the second time may be the normal direction at the position of interest of the target object.
For example, the second normal calculation unit 903 calculates the third normal direction by performing the same processing as in S1301 to S1306 using the second normal direction for each position of the target object calculated in S1305. However, the third normal direction may be the normal direction at the position of interest of the target object. That is, in S1303, the second normal calculation unit 903 determines the direction opposite to the previously calculated second normal direction as the direction of the incident light (fifth direction), and sets the direction of the incident light. In S1304, the second normal calculation unit 903 calculates the direction (sixth direction) of the peak of the reflected light in the set direction of the incident light. In S1305, the second normal calculation unit 903 calculates the direction of the bisector from the direction of the incident light and the direction of the peak of the reflected light. In S1306, the second normal calculation unit 903 outputs the direction of the bisection line calculated for each position of the target object as the third normal direction. The second normal calculation unit 903 similarly repeats S1301 to S1306 to obtain the (N + 1) normal direction using the Nth normal direction for each position of the target object calculated in S1305. It may be calculated and the normal (N + 1) normal direction may be set as the normal direction at the position of interest of the target object. By repeating the process of calculating the normal direction three times or more in this way, the normal direction of the target object can be calculated with higher accuracy.

[第2実施形態]
本実施形態では、1回目の計測に基づき2回目の計測条件を決定することでより高精度に対象物体の法線方向を算出することができる法線算出システムについて説明する。なお、第2実施形態における法線算出システムの構成、情報処理装置の機能構成は第1実施形態と同一であるため説明を省略し、第1実施形態と異なる点を中心に説明する。
[Second Embodiment]
In the present embodiment, a normal calculation system capable of calculating the normal direction of the target object with higher accuracy by determining the second measurement condition based on the first measurement will be described. Since the configuration of the normal calculation system and the functional configuration of the information processing device in the second embodiment are the same as those in the first embodiment, the description thereof will be omitted, and the points different from those in the first embodiment will be mainly described.

図14は、第2実施形態における画像取得制御部506および法線算出部507の詳細な機能構成を示すブロック図である。画像取得制御部506は、第1の条件設定部1401、第1の画像取得部1402、第2の条件設定部1403、第2の画像取得部1404を有する。また、法線算出部507は、第1の変角反射特性算出部1405、第1の法線算出部1406、点灯位置算出部1407、第2の変角反射特性算出部1408、第2の法線算出部1409を有する。 FIG. 14 is a block diagram showing a detailed functional configuration of the image acquisition control unit 506 and the normal calculation unit 507 according to the second embodiment. The image acquisition control unit 506 includes a first condition setting unit 1401, a first image acquisition unit 1402, a second condition setting unit 1403, and a second image acquisition unit 1404. Further, the normal calculation unit 507 includes a first normal angle reflection characteristic calculation unit 1405, a first normal calculation unit 1406, a lighting position calculation unit 1407, a second variable angle reflection characteristic calculation unit 1408, and a second method. It has a line calculation unit 1409.

図15は、情報処理装置307による処理の一例を示すフローチャートである。
S1501では、第1の条件設定部1401は、UI管理部508を介してユーザから撮像装置303の撮像条件、ステージ304のステージ移動条件、照明装置305の照明条件等の条件設定を受け付けて、第1の条件として設定する。第1実施形態では、撮像装置303の位置および照明装置305の各光源の位置をそれぞれ変更して撮像したが、本実施形態では、第1法線方向を算出するために、照明装置305の点灯する光源の位置を一つとし、撮像装置303の位置を変更して撮像を行う。したがって、ここで設定する撮像条件およびステージ移動条件については第1実施形態と同一だが、照明条件については点灯する一つの光源について設定する。なお、点灯する光源の位置は任意である。
FIG. 15 is a flowchart showing an example of processing by the information processing apparatus 307.
In S1501, the first condition setting unit 1401 receives condition settings such as an imaging condition of the imaging device 303, a stage moving condition of the stage 304, and a lighting condition of the lighting device 305 from the user via the UI management unit 508, and the first condition setting unit 1401 receives the condition setting. Set as the condition of 1. In the first embodiment, the position of the image pickup device 303 and the position of each light source of the lighting device 305 are changed to take an image, but in the present embodiment, the lighting device 305 is turned on in order to calculate the first normal direction. The position of the light source to be used is set to one, and the position of the image pickup device 303 is changed to perform imaging. Therefore, the imaging conditions and the stage movement conditions set here are the same as those in the first embodiment, but the lighting conditions are set for one light source to be turned on. The position of the light source to be lit is arbitrary.

S1502では、第1の画像取得部1402は、S1501で設定された第1の条件に基づき第1の画像を取得する。具体的に、第1の画像取得部1402は、ステージ304を介して撮像装置303の位置を変更し、対象物体301上における照明装置305による照射と、撮像装置303による撮像とを行うことで第1の画像を取得する一連の処理を実行する。
S1503では、第1の変角反射特性算出部1405は、第1の画像に基づいて、第1実施形態の図11のフローチャートと同様な処理で第1の変角反射特性情報を算出する。
S1504では、第1の法線算出部1406は、S1503で算出した第1の変角反射特性情報に基づき第1法線情報を算出する。S1504の具体的な処理については後述する。
In S1502, the first image acquisition unit 1402 acquires the first image based on the first condition set in S1501. Specifically, the first image acquisition unit 1402 changes the position of the image pickup device 303 via the stage 304, and performs irradiation by the illumination device 305 on the target object 301 and imaging by the image pickup device 303. A series of processes for acquiring the image of 1 is executed.
In S1503, the first variable angle reflection characteristic calculation unit 1405 calculates the first variable angle reflection characteristic information based on the first image by the same processing as the flowchart of FIG. 11 of the first embodiment.
In S1504, the first normal calculation unit 1406 calculates the first normal information based on the first variable angle reflection characteristic information calculated in S1503. The specific processing of S1504 will be described later.

S1505では、点灯位置算出部1407は、第1法線情報に基づき点灯位置を算出する。S1505の具体的な処理については後述する。
S1506では、第2の条件設定部1403は、UI管理部508を介してユーザから撮像装置303の撮像条件、ステージ304のステージ移動条件を受け付け、S1505で算出された照明装置305の照明条件等と共に、第2の条件として設定する。
S1507では、第2の画像取得部1404は、S1506で設定された第2の条件に基づき第2の画像を取得する。具体的に、第2の画像取得部1404は、ステージ304を介して撮像装置303の位置を変更し、対象物体301上における照明装置305による照射と、撮像装置303による撮像とを行うことで第2の画像を取得する一連の処理を実行する。
In S1505, the lighting position calculation unit 1407 calculates the lighting position based on the first normal information. The specific processing of S1505 will be described later.
In S1506, the second condition setting unit 1403 receives the imaging condition of the imaging device 303 and the stage moving condition of the stage 304 from the user via the UI management unit 508, and together with the lighting condition of the lighting device 305 calculated in S1505 and the like. , Set as the second condition.
In S1507, the second image acquisition unit 1404 acquires the second image based on the second condition set in S1506. Specifically, the second image acquisition unit 1404 changes the position of the image pickup device 303 via the stage 304, and performs irradiation by the illumination device 305 on the target object 301 and imaging by the image pickup device 303. A series of processes for acquiring the image of 2 is executed.

S1508では、第2の変角反射特性算出部1408は、第2の画像に基づいて、S1503と同様な処理で第2の変角反射特性情報を算出する。
S1509では、第2の法線算出部1409は、S1508で算出した第2の変角反射特性情報に基づき第2法線情報を算出する。S1509の具体的な処理については後述する。
S1510では、UI管理部508は、S1509で算出された第2法線情報を対象物体の法線情報としてディスプレイ414に表示して、処理を終了する。なお、S1510では、UI管理部508は、ディスプレイ414に表示せずに、対象物体の全体の画像を直接HDD412などの記録媒体に記憶するようにしてもよい。
In S1508, the second variable angle reflection characteristic calculation unit 1408 calculates the second variable angle reflection characteristic information by the same processing as in S1503 based on the second image.
In S1509, the second normal calculation unit 1409 calculates the second normal information based on the second variable angle reflection characteristic information calculated in S1508. The specific processing of S1509 will be described later.
In S1510, the UI management unit 508 displays the second normal information calculated in S1509 as the normal information of the target object on the display 414, and ends the process. In S1510, the UI management unit 508 may directly store the entire image of the target object in a recording medium such as HDD 412 without displaying it on the display 414.

図16は、図15のS1504における第1法線情報を算出する処理を示すフローチャートである。なお、本実施形態では、上述したように点灯する一つの光源が設定されている。
S1601では、第1の法線算出部1406は、S1503で算出された第1の変角反射特性情報を読み込む。
S1602では、第1の法線算出部1406は、対象物体の位置(注目位置)を設定して位置ごとにS1603およびS1604の処理を繰り返し行う。
S1603では、第1の法線算出部1406は、S1602で設定した対象物体の位置(注目位置)において、反射光の方向ごとの反射率情報をS1601で読み込んだ第1の変角反射特性情報から抽出する。第1の法線算出部1406は、抽出された反射光の方向ごとの反射率情報から反射光のピークの方向(第2方向)を算出する。
FIG. 16 is a flowchart showing a process of calculating the first normal information in S1504 of FIG. In this embodiment, one light source that lights up as described above is set.
In S1601, the first normal calculation unit 1406 reads the first variable angle reflection characteristic information calculated in S1503.
In S1602, the first normal calculation unit 1406 sets the position (attention position) of the target object and repeats the processes of S1603 and S1604 for each position.
In S1603, the first normal calculation unit 1406 reads the reflectance information for each direction of the reflected light at the position (attention position) of the target object set in S1602 from the first variable angle reflection characteristic information read in S1601. Extract. The first normal calculation unit 1406 calculates the direction of the peak of the reflected light (second direction) from the reflectance information for each direction of the extracted reflected light.

S1604では、第1の法線算出部1406は、入射光の方向とS1603で算出した反射光のピークの方向から2等分線の方向を算出する。なお、2等分線の方向を算出する場合、第1の法線算出部1406は、算出する方向のノルムが1になるように規格化する。
次に、第1の法線算出部1406は、S1602に戻り、対象物体の位置を変更し、S1603、S1604の処理を行う。第1の法線算出部1406は、対象物体の全ての位置でS1603、S1604の処理を行う。
S1605では、第1の法線算出部1406は、対象物体の位置ごとにS1604で算出した2等分線の方向を第1法線方向として出力する。第1の法線算出部1406は、対象物体の位置ごとの第1法線方向の情報を集約した第1法線情報を、HDD412などの記録媒体に記憶する。
In S1604, the first normal calculation unit 1406 calculates the direction of the bisector from the direction of the incident light and the direction of the peak of the reflected light calculated in S1603. When calculating the direction of the bisector, the first normal calculation unit 1406 normalizes so that the norm of the calculation direction is 1.
Next, the first normal calculation unit 1406 returns to S1602, changes the position of the target object, and performs the processes of S1603 and S1604. The first normal calculation unit 1406 performs the processes of S1603 and S1604 at all positions of the target object.
In S1605, the first normal calculation unit 1406 outputs the direction of the bisection line calculated in S1604 for each position of the target object as the first normal direction. The first normal calculation unit 1406 stores the first normal information, which is a collection of information in the first normal direction for each position of the target object, in a recording medium such as HDD 412.

図17は、図15のS1505における点灯位置を算出する処理を示すフローチャートである。
S1701では、点灯位置算出部1407は、S1605で記憶された第1法線情報を読み込む。
S1702では、点灯位置算出部1407は、対象物体の位置ごとにS1703の処理を行う。
S1703では、点灯位置算出部1407は、第1法線方向と光学固定治具306の半球とが交差する交点座標を算出する。
次に、点灯位置算出部1407は、S1702に戻り、対象物体の位置を変更し、S1703の処理を行う。点灯位置算出部1407は、対象物体の全ての位置でS1703を行う。
S1704では、点灯位置算出部1407は、算出された交点座標の平均値を算出することで平均交点座標を算出する。
S1705では、点灯位置算出部1407は、第1の法線算出部1406が算出した第1法線方向に基づいて、第2法線方向を算出するときの条件を決定する。具体的には、点灯位置算出部1407は、平均交点座標に最も近い照明装置305の光源を特定し、点灯する光源位置を決定し、光源位置の情報を第2の条件設定部1403に出力する。この光源位置から入射される入射光の方向(第3方向)は、上述した図2(b)の反対方向205に対応する。
FIG. 17 is a flowchart showing a process of calculating the lighting position in S1505 of FIG.
In S1701, the lighting position calculation unit 1407 reads the first normal information stored in S1605.
In S1702, the lighting position calculation unit 1407 performs the processing of S1703 for each position of the target object.
In S1703, the lighting position calculation unit 1407 calculates the coordinates of the intersection where the first normal direction and the hemisphere of the optical fixing jig 306 intersect.
Next, the lighting position calculation unit 1407 returns to S1702, changes the position of the target object, and performs the process of S1703. The lighting position calculation unit 1407 performs S1703 at all positions of the target object.
In S1704, the lighting position calculation unit 1407 calculates the average intersection coordinates by calculating the average value of the calculated intersection coordinates.
In S1705, the lighting position calculation unit 1407 determines the conditions for calculating the second normal direction based on the first normal direction calculated by the first normal calculation unit 1406. Specifically, the lighting position calculation unit 1407 identifies the light source of the lighting device 305 closest to the average intersection coordinates, determines the light source position to be lit, and outputs the light source position information to the second condition setting unit 1403. .. The direction (third direction) of the incident light incident from this light source position corresponds to the opposite direction 205 of FIG. 2B described above.

図18は、図15のS1509における第2法線情報を算出する処理を示すフローチャートである。
S1801では、第2の法線算出部1409は、S1508で算出された第2の変角反射特性情報を読み込む。
S1802では、第2の法線算出部1409は、対象物体の位置(注目位置)ごとにS1803およびS1804の処理を繰り返し行う。
S1803では、第2の法線算出部1409は、S1702で設定した対象物体の位置(注目)における、反射光の方向ごとの反射率情報をS1801で読み込んだ第2の変角反射特性情報から抽出する。第2の法線算出部1409は、抽出された反射光の方向ごとの反射率情報から反射光のピークの方向(第4方向)を算出する。
S1804では、第2の法線算出部1409は、入射光の方向とS1803で算出した反射光のピークの方向から2等分線の方向を算出する。なお、2等分線の方向を算出する場合、第2の法線算出部1409は算出する方向のノルムが1になるように規格化する。
次に、第2の法線算出部1409は、S1802に戻り、対象物体の位置を変更し、S1803、S1804の処理を行う。第2の法線算出部1409は、対象物体の全ての位置でS1803、S1804の処理を行う。
S1805では、第2の法線算出部1409は、対象物体の位置ごとにS1804で算出した2等分線の方向を第2法線方向として出力する。第2の法線算出部1409は、対象物体の位置ごとの第2法線方向の情報を集約した第2の法線情報を、HDD412などの記録媒体に記憶する。
FIG. 18 is a flowchart showing a process of calculating the second normal information in S1509 of FIG.
In S1801, the second normal calculation unit 1409 reads the second variable angle reflection characteristic information calculated in S1508.
In S1802, the second normal calculation unit 1409 repeats the processes of S1803 and S1804 for each position (position of interest) of the target object.
In S1803, the second normal calculation unit 1409 extracts the reflectance information for each direction of the reflected light at the position (attention) of the target object set in S1702 from the second variable angle reflection characteristic information read in S1801. do. The second normal calculation unit 1409 calculates the direction of the peak of the reflected light (fourth direction) from the reflectance information for each direction of the extracted reflected light.
In S1804, the second normal calculation unit 1409 calculates the direction of the bisector from the direction of the incident light and the direction of the peak of the reflected light calculated in S1803. When calculating the direction of the bisector, the second normal calculation unit 1409 standardizes so that the norm of the calculation direction is 1.
Next, the second normal calculation unit 1409 returns to S1802, changes the position of the target object, and performs the processes of S1803 and S1804. The second normal calculation unit 1409 performs the processes of S1803 and S1804 at all the positions of the target object.
In S1805, the second normal calculation unit 1409 outputs the direction of the bisection line calculated in S1804 for each position of the target object as the second normal direction. The second normal calculation unit 1409 stores the second normal information, which is the aggregate of the information in the second normal direction for each position of the target object, in a recording medium such as HDD 412.

以上、本実施形態によれば、点灯位置算出部1407は、第1の法線算出部1406により算出された第1法線方向に基づいて、対象物体の注目位置における第2法線方向を算出するときの条件を決定する。したがって、第2の法線算出部903により算出される第2法線方向を、対象物体の注目位置における真の法線方向により近づけることができ、対象物体の表面が粗面であっても高精度に法線方向を算出することができる。
また、第2の画像取得部1404は、第1法線方向に基づいて決定された条件に基づき第2の画像を取得するので、取得する画像を少なくすることができ、撮像を高速化することができる。
As described above, according to the present embodiment, the lighting position calculation unit 1407 calculates the second normal direction at the position of interest of the target object based on the first normal direction calculated by the first normal calculation unit 1406. Determine the conditions for doing so. Therefore, the second normal direction calculated by the second normal calculation unit 903 can be made closer to the true normal direction at the position of interest of the target object, and the surface of the target object is high even if it is a rough surface. The normal direction can be calculated accurately.
Further, since the second image acquisition unit 1404 acquires the second image based on the conditions determined based on the first normal direction, the number of images to be acquired can be reduced and the imaging speed can be increased. Can be done.

なお、本実施形態では、照明装置305の点灯する光源の位置を固定し、撮像装置303の位置を変更して撮像した画像を用いて法線方向を算出する場合について説明したが、この場合に限られない。逆に、撮像装置303の位置を固定し、照明装置305の点灯する光源の位置を変更して撮像した画像を用いて法線方向を算出してもよい。すなわち、S1502およびS1507において、撮像装置303の位置は固定し、照明装置305の点灯する光源の位置を変更して撮像を行ってもよい。こうすることで撮像装置303によるメカニカルな移動が少なくすむので撮像を高速化することができる。 In the present embodiment, the case where the position of the light source to be lit by the lighting device 305 is fixed, the position of the image pickup device 303 is changed, and the normal direction is calculated using the captured image has been described. Not limited. On the contrary, the normal direction may be calculated using the image obtained by fixing the position of the image pickup device 303 and changing the position of the light source to be lit by the lighting device 305. That is, in S1502 and S1507, the position of the image pickup apparatus 303 may be fixed, and the position of the light source to be lit by the illumination apparatus 305 may be changed to perform imaging. By doing so, the mechanical movement by the image pickup apparatus 303 can be reduced, so that the image pickup can be speeded up.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or recording medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

なお、上述した各処理部のうち、法線算出部507などについては、その代わりとして、機械学習された学習済みモデルを代わりに用いて処理してもよい。その場合には、例えば、その処理部への入力データと出力データとの組合せを学習データとして複数個準備し、それらから機械学習によって知識を獲得し、獲得した知識に基づいて入力データに対する出力データを結果として出力する学習済みモデルを生成する。学習済みモデルは、例えばニューラルネットワークモデルで構成可能である。そして、その学習済みモデルは、前記処理部と同等の処理をするためのプログラムとして、CPUあるいはGPUなどと協働で動作することにより、前記処理部の処理を行う。なお、上記学習済みモデルは、必要に応じて一定の処理後に更新しても良い。 Of the above-mentioned processing units, the normal calculation unit 507 and the like may be processed by using a machine-learned trained model instead. In that case, for example, a plurality of combinations of input data and output data to the processing unit are prepared as training data, knowledge is acquired from them by machine learning, and output data for the input data is obtained based on the acquired knowledge. Generates a trained model that outputs as a result. The trained model can be constructed by, for example, a neural network model. Then, the trained model performs the processing of the processing unit by operating in collaboration with the CPU, GPU, or the like as a program for performing the same processing as the processing unit. The trained model may be updated after a certain process if necessary.

以上、本発明を種々の実施形態と共に説明したが、本発明はこれらの実施形態にのみ限定されるものではなく、本発明の範囲内で変更等が可能であり、上述した実施形態を適時組み合わせてもよい。 Although the present invention has been described above with various embodiments, the present invention is not limited to these embodiments, and changes can be made within the scope of the present invention, and the above-described embodiments can be combined in a timely manner. You may.

307:情報処理装置 507:法線算出部 901:変角反射特性算出部 902:第1の法線算出部 903:第2の法線算出部 1405:第1の変角反射特性算出部 1406:第1の法線算出部 1407:点灯位置算出部 1408:第2の変角反射特性算出部 1409:第2の法線算出部 307: Information processing device 507: Normal calculation unit 901: Variable angle reflection characteristic calculation unit 902: First normal calculation unit 903: Second normal calculation unit 1405: First variable angle reflection characteristic calculation unit 1406: 1st normal calculation unit 1407: Lighting position calculation unit 1408: 2nd variable angle reflection characteristic calculation unit 1409: 2nd normal calculation unit

Claims (10)

対象物体を撮像した画像に基づいて前記対象物体の反射特性を取得する取得手段と、
前記取得された反射特性と、前記対象物体に入射光が入射される第1方向と、前記第1方向から入射した入射光に対する前記対象物体における反射光のピークの第2方向とに基づいて、前記対象物体における注目位置の第1法線方向を算出する第1算出手段と、
前記算出された第1法線方向に基づいて、前記注目位置における第2法線方向を算出するための条件を決定する決定手段と、
を有することを特徴とする情報処理装置。
An acquisition means for acquiring the reflection characteristics of the target object based on an image obtained by capturing the target object, and
Based on the acquired reflection characteristics, the first direction in which the incident light is incident on the target object, and the second direction of the peak of the reflected light in the target object with respect to the incident light incident from the first direction. A first calculation means for calculating the first normal direction of the position of interest in the target object, and
A determination means for determining a condition for calculating the second normal direction at the attention position based on the calculated first normal direction, and a determination means.
An information processing device characterized by having.
前記取得された反射特性と、前記決定された条件に基づいた第3方向と、前記第3方向から入射した入射光に対する前記対象物体における反射光のピークの第4方向とに基づいて、前記対象物体における注目位置の第2法線方向を算出する第2算出手段をさらに有することを特徴とする請求項1に記載の情報処理装置。 The object is based on the acquired reflection characteristics, a third direction based on the determined conditions, and a fourth direction of a peak of reflected light in the target object with respect to incident light incident from the third direction. The information processing apparatus according to claim 1, further comprising a second calculation means for calculating the second normal direction of the position of interest in the object. 前記第2算出手段は、
前記第1法線方向の反対の方向を前記第3方向とすることを特徴とする請求項2に記載の情報処理装置。
The second calculation means is
The information processing apparatus according to claim 2, wherein the direction opposite to the first normal direction is the third direction.
前記第2算出手段は、
前記取得された反射特性と、前記第3方向とに基づいて前記第4方向を算出し、
前記第3方向と前記第4方向との2等分線の方向を前記対象物体における注目位置の第2法線方向として算出することを特徴とする請求項2または3に記載の情報処理装置。
The second calculation means is
The fourth direction is calculated based on the acquired reflection characteristics and the third direction.
The information processing apparatus according to claim 2 or 3, wherein the direction of the bisection line between the third direction and the fourth direction is calculated as the second normal direction of the position of interest in the target object.
前記第2算出手段は、
前記第2法線方向を前記対象物体における注目位置の法線方向として出力することを特徴とする請求項2ないし4の何れか1項に記載の情報処理装置。
The second calculation means is
The information processing apparatus according to any one of claims 2 to 4, wherein the second normal direction is output as the normal direction of the position of interest in the target object.
前記決定手段は、
前記第2算出手段による繰り返し処理により算出された第N法線方向に基づいて、前記注目位置における第(N+1)法線方向を算出するときの条件を決定し、
前記第2算出手段は、
前記第(N+1)法線方向を前記対象物体における注目位置の法線方向として出力することを特徴とする請求項2ないし4の何れか1項に記載の情報処理装置。
The determination means is
Based on the Nth normal direction calculated by the iterative processing by the second calculation means, the conditions for calculating the (N + 1) normal direction at the attention position are determined.
The second calculation means is
The information processing apparatus according to any one of claims 2 to 4, wherein the first (N + 1) normal direction is output as the normal direction of the position of interest in the target object.
前記第1算出手段は、
前記取得された反射特性と、前記第1方向とに基づいて前記第2方向を算出し、
前記第1方向と前記第2方向との2等分線の方向を前記対象物体における注目位置の第1法線方向として算出することを特徴とする請求項1ないし6の何れか1項に記載の情報処理装置。
The first calculation means is
The second direction is calculated based on the acquired reflection characteristics and the first direction.
The invention according to any one of claims 1 to 6, wherein the direction of the bisection line between the first direction and the second direction is calculated as the first normal direction of the position of interest in the target object. Information processing equipment.
前記取得手段は、
拡散反射成分と表面反射成分とを分離する処理手段を有することを特徴とする請求項1ないし7の何れか1項に記載の情報処理装置。
The acquisition means
The information processing apparatus according to any one of claims 1 to 7, further comprising a processing means for separating a diffuse reflection component and a surface reflection component.
対象物体を撮像した画像に基づいて前記対象物体の反射特性を取得する取得ステップと、
前記取得された反射特性と、前記対象物体に入射光が入射される第1方向と、前記第1方向から入射した入射光に対する前記対象物体における反射光のピークの第2方向とに基づいて、前記対象物体における注目位置の第1法線方向を算出する第1算出ステップと、
前記算出された第1法線方向に基づいて、前記注目位置における第2法線方向を算出するための条件を決定する決定ステップと、
を有することを特徴とする情報処理方法。
The acquisition step of acquiring the reflection characteristics of the target object based on the image obtained by capturing the target object, and
Based on the acquired reflection characteristics, the first direction in which the incident light is incident on the target object, and the second direction of the peak of the reflected light in the target object with respect to the incident light incident from the first direction. The first calculation step of calculating the first normal direction of the position of interest in the target object, and
A determination step for determining a condition for calculating the second normal direction at the attention position based on the calculated first normal direction, and a determination step.
An information processing method characterized by having.
コンピュータを、請求項1ないし8の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 8.
JP2020022236A 2020-02-13 2020-02-13 Information processing apparatus, information processing method, and program Pending JP2021128041A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020022236A JP2021128041A (en) 2020-02-13 2020-02-13 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020022236A JP2021128041A (en) 2020-02-13 2020-02-13 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021128041A true JP2021128041A (en) 2021-09-02

Family

ID=77488477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020022236A Pending JP2021128041A (en) 2020-02-13 2020-02-13 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2021128041A (en)

Similar Documents

Publication Publication Date Title
Nam et al. Practical svbrdf acquisition of 3d objects with unstructured flash photography
US9047514B2 (en) Apparatus, system and method for projecting images onto predefined portions of objects
US9826216B1 (en) Systems and methods for compact space-time stereo three-dimensional depth sensing
US10074031B2 (en) 2D image analyzer
KR102287472B1 (en) Acquisition Method for 3D Objects Using Unstructured Flash Photography and Apparatus Therefor
US20170059305A1 (en) Active illumination for enhanced depth map generation
US20130335535A1 (en) Digital 3d camera using periodic illumination
US20140037135A1 (en) Context-driven adjustment of camera parameters
US8970693B1 (en) Surface modeling with structured light
JP6364777B2 (en) Image data acquisition system and image data acquisition method
US20070176927A1 (en) Image Processing method and image processor
US20030202120A1 (en) Virtual lighting system
US9049369B2 (en) Apparatus, system and method for projecting images onto predefined portions of objects
JP5058838B2 (en) Information processing apparatus and method
US11354879B1 (en) Shape-based edge detection
US10073614B2 (en) Information processing device, image projection apparatus, and information processing method
JP2021128041A (en) Information processing apparatus, information processing method, and program
WO2023221450A1 (en) Three-dimensional information measurement apparatus and measurement method and electronic device
JP6882266B2 (en) Devices and methods for generating data representing pixel beams
US20220038614A1 (en) Apparatus, method, and storage medium
Gillihan Accuracy Comparisons of iPhone 12 Pro LiDAR Outputs
WO2021049490A1 (en) Image registration device, image generation system, image registration method and image registration program
TWI673508B (en) Time-of-flight device and method for identifying image using time-of-flight device
JP2022054750A (en) Information processing apparatus, information processing method, and program
JP2020106502A (en) Shape measuring device, control method, and program