JP2020085618A - Measuring device and method for measuring optical characteristics of object interior - Google Patents

Measuring device and method for measuring optical characteristics of object interior Download PDF

Info

Publication number
JP2020085618A
JP2020085618A JP2018219125A JP2018219125A JP2020085618A JP 2020085618 A JP2020085618 A JP 2020085618A JP 2018219125 A JP2018219125 A JP 2018219125A JP 2018219125 A JP2018219125 A JP 2018219125A JP 2020085618 A JP2020085618 A JP 2020085618A
Authority
JP
Japan
Prior art keywords
projector
image
light
pattern
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018219125A
Other languages
Japanese (ja)
Other versions
JP7222524B2 (en
Inventor
剛志 高谷
Tsuyoshi Takatani
剛志 高谷
賢一郎 田中
Kenichiro Tanaka
賢一郎 田中
卓哉 舩冨
Takuya Funatomi
卓哉 舩冨
康博 向川
Yasuhiro Mukogawa
康博 向川
隆仁 青砥
Takahito Aoto
隆仁 青砥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Institute of Science and Technology NUC
Original Assignee
Nara Institute of Science and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Institute of Science and Technology NUC filed Critical Nara Institute of Science and Technology NUC
Priority to JP2018219125A priority Critical patent/JP7222524B2/en
Publication of JP2020085618A publication Critical patent/JP2020085618A/en
Application granted granted Critical
Publication of JP7222524B2 publication Critical patent/JP7222524B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a measuring device with which it is possible to measure the optical characteristics of an object interior without changing the arrangement and focal distance of each part of the device.SOLUTION: The measuring device comprises a projector 20, an imaging device 30, a pattern image generation unit 40, and a data processing unit 50. The pattern image generation unit 40 generates the image data of a plurality of pattern images respectively corresponding to a plurality of special frequencies differing in the number of sine functions, the pattern images having a cyclical change of optical intensity represented by sine functions in one direction in a first plane crossing an object 60, and inputs the generated pattern image to the projector, and causes the plurality of pattern images differing in spatial frequency to be respectively projected to the object by the projector while sequentially changing the spatial frequency in time. The data processing unit 50 extracts the signal amplitude of light reflected from a specific three-dimensional position on the surface and inside of the object on the basis of the digital image signal of a plurality of composite images outputted from the imaging device, corresponding to the plurality of spatial frequencies and sequentially changing in time and calculates the optical characteristics of the object interior.SELECTED DRAWING: Figure 1

Description

本発明は、物体内部の3次元空間における光学特性を計測する計測装置及び方法に関し、特に、プロジェクタ・カメラシステムを用いた計測装置及び方法に関する。 The present invention relates to a measuring apparatus and method for measuring optical characteristics in a three-dimensional space inside an object, and more particularly to a measuring apparatus and method using a projector/camera system.

物体内部の計測は、困難な課題ではあるが、生体イメージング、医学イメージング、工業検査等の様々な応用において重要である。蛍光X線分析技術、テラヘルツ・イメージング、赤外リフレクトグラフィ等の物体内部の鮮明な観測を可能にする様々なイメージング技術が開発されている。しかしながら、これらの技術は、電磁波の様々な特徴を利用するものであるが、入手困難な高価な装置を必要とする。これに対して、プロジェクタ・カメラシステムは、比較的低コストであり、容易に入手可能である。 Although the measurement inside an object is a difficult task, it is important in various applications such as bioimaging, medical imaging, and industrial inspection. Various imaging techniques such as fluorescent X-ray analysis technique, terahertz imaging, and infrared reflectography that enable clear observation of the inside of an object have been developed. However, these techniques, which utilize various characteristics of electromagnetic waves, require expensive equipment that is difficult to obtain. In contrast, projector-camera systems are relatively low cost and readily available.

プロジェクタ・カメラシステムを用いた物体内部の3次元空間における光学特性を計測する計測装置及び方法としては、レーダ技術の1つである合成開口技術と共焦点撮像技術を応用することで物体によって遮蔽された箇所の撮像を可能にした第1の従来技術(下記の非特許文献1参照)、プロジェクタの焦点距離を物理的に変更しつつ、空間的に高周波な周期パターンを投影することで、対象物体の形状と対象シーンにおける大域照明画像を復元した第2の従来技術(下記の非特許文献2参照)、平行系のプロジェクタ‐カメラシステムを用いて異なる空間周波数の周期パターンを複数回投影した際の表面下散乱成分の変化から物体内部画像を復元した第3の従来技術(下記の非特許文献3参照)等が存在する。 As a measuring apparatus and method for measuring optical characteristics in a three-dimensional space inside an object using a projector/camera system, a synthetic aperture technology and a confocal imaging technology, which are one of radar technology, are applied to block the object. A first conventional technique (see Non-Patent Document 1 below) that enables imaging of a different location, by physically changing the focal length of the projector and projecting a spatially high frequency periodic pattern Second conventional technique (see Non-Patent Document 2 below) that restores the global illumination image in the shape and target scene, and when a periodic pattern of different spatial frequencies is projected multiple times using a parallel projector-camera system. There is a third conventional technique (see Non-Patent Document 3 below) in which an image inside an object is restored from changes in subsurface scattering components.

Marc Levoy,Billy Chen,Vaibhav Vaish,Mark Horowitz,Ian McDowall,and Mark Bolas.2004.Synthetic aperture confocal imaging.In ACM Transactions on Graphics(ToG),Vol.23.ACM,825−834.Marc Levoy, Billy Chen, Vaibhav Vaish, Mark Horowitz, Ian McDowall, and Mark Bolas. 2004. Synthetic aperture confocal imaging. In ACM Transactions on Graphics (ToG), Vol. 23. ACM, 825-834. Supreeth Achar and Srinivasa G Narasimhan.2014.Multi focus structured light for recovering scene shape and global illumination.In European Conference on Computer Vision.Springer,205−219.Supreeth Achar and Srinivasa G Narasimhan. 2014. Multi focus structured light for recovering scene shape and global illumination. In European Conference on Computer Vision. Springer, 205-219. Kenichiro Tanaka,Yasuhiro Mukaigawa,Hiroyuki Kubo,Yasuyuki Matsushita,and Yasushi Yagi.2017.Recovering Inner Slices of Layered Translucent Objects by Multi−Frequency Illumination.IEEE transactions on pattern analysis and machine intelligence 39,4(2017),746−757.Kenichiro Tanaka, Yashiro Mukaigawa, Hiroyuki Kibo, Yasukiki Matsushita, and Yasushi Yagi. 2017. Recovering Inner Slices of Layered Translucent Objects by Multi-Frequency Illumination. IEEE transactions on pattern analysis and machine intelligence 39, 4 (2017), 746-757.

上記第1の従来技術では、対象物体とシステムの間にある遮蔽物の影響を軽減できるという利点があるが、合成開口技術を適用するためには物理的にシステムを移動するか、同様のシステムを複数個用意する必要があり、システム構成が複雑化または大型化するという問題がある。 The first conventional technique has an advantage of being able to reduce the influence of the shield between the target object and the system, but in order to apply the synthetic aperture technique, the system is physically moved or a similar system is used. However, there is a problem that the system configuration becomes complicated or large in size.

上記第2の従来技術では、物理的にプロジェクタの焦点距離を変更することによって時空間的な周波数変調を行っていると解釈でき、後述する本願発明内容と類似するが、物理的にプロジェクタの焦点距離を変更するためには、手動で実施するか特殊な機械構造を利用する必要がある。よって、焦点距離の変更を手動で行う場合は計測処理が煩雑化し、特殊な機械構造を利用する場合は、システム構成が複雑化するという問題がある。 The second conventional technique can be interpreted as performing spatiotemporal frequency modulation by physically changing the focal length of the projector and is similar to the content of the invention of the present application to be described later, but the focus of the projector is physically In order to change the distance, it has to be done manually or by using a special mechanical structure. Therefore, there is a problem that the measurement process becomes complicated when the focal length is changed manually, and the system configuration becomes complicated when a special mechanical structure is used.

上記第3の従来技術では、異なる空間周波数の周期パターンを投影する点で、後述する本願発明内容と類似するが、平行系の光学系を必要とし、また対象物体を少数の離散的な層から成ると仮定することによって最適化計算を適用しているため、より複雑な内部構造に対応できないという問題がある。 The third conventional technique is similar to the content of the present invention described later in that it projects a periodic pattern of different spatial frequencies, but requires a parallel optical system, and the target object is composed of a small number of discrete layers. Since the optimization calculation is applied by assuming that it becomes, there is a problem that it cannot cope with a more complicated internal structure.

本発明は、上述の問題点に鑑みてなされたものであり、その目的は、プロジェクタ及びカメラを計測時に移動することなく、且つ、プロジェクタ及びカメラの焦点距離を物理的に変更することなく、複雑な内部構造にも対応可能な、物体内部の3次元空間における光学特性を計測する計測装置及び方法を提供することにある。 The present invention has been made in view of the above problems, and an object thereof is to complicate without moving the projector and the camera at the time of measurement and physically changing the focal lengths of the projector and the camera. An object of the present invention is to provide a measuring device and method capable of measuring optical characteristics in a three-dimensional space inside an object, which can be applied to various internal structures.

本発明に係る計測装置は、物体内部の光学特性を計測する計測装置であって、
前記物体を透過可能な光を用いてパターン画像を前記物体に向けて投影するプロジェクタと、
前記プロジェクタから投影された前記パターン画像の光の内、前記物体の表面及び内部の各3次元位置で反射した光が、前記光を感知可能な撮像面上に入射して結像することにより合成された合成画像をディジタル画像信号に変換して出力する撮像装置と、
前記物体を横切る所定の第1平面内において少なくとも1方向に正弦関数で表される光強度の周期的な振幅変化を有する前記パターン画像の画像データであって、前記正弦関数の互いに異なる複数の空間周波数に各別に対応する複数の前記パターン画像の前記画像データを生成して、前記プロジェクタに入力することにより、前記プロジェクタに対して前記空間周波数が互いに異なる複数の前記パターン画像を、前記空間周波数を時間的に順次変化させながら各別に、前記物体に向けて投影させるパターン画像生成部と、
前記パターン画像生成部において生成された前記画像データにおける複数の前記空間周波数、及び、前記撮像装置から出力される前記複数の空間周波数に各別に対応した複数の前記合成画像の前記ディジタル画像信号を入力として、これらの入力に対して所定の相関演算処理を行い、前記物体の表面及び内部の特定の3次元位置から反射した光の信号振幅を抽出して、抽出した各3次元位置の前記信号振幅に基づいて前記物体の表面及び内部の各3次元位置における前記光学特性を算出するデータ処理部と、を備え、
前記プロジェクタと前記撮像装置の各光学系の焦点距離が互いに異なっていることを第1の特徴とする。
A measuring device according to the present invention is a measuring device for measuring optical characteristics inside an object,
A projector that projects a pattern image toward the object using light that can pass through the object;
Of the light of the pattern image projected from the projector, the light reflected at each of the three-dimensional positions on the surface and the inside of the object is incident on the imaging surface where the light can be sensed and is imaged to be combined. An imaging device for converting the synthesized image thus converted into a digital image signal and outputting the digital image signal;
Image data of the pattern image having a periodic amplitude change of a light intensity represented by a sine function in at least one direction in a predetermined first plane across the object, the plurality of spaces having different sine functions. By generating the image data of the plurality of pattern images respectively corresponding to frequencies and inputting the image data to the projector, the plurality of pattern images having different spatial frequencies from each other with respect to the projector, A pattern image generation unit for projecting toward the object separately while sequentially changing in time,
Input the plurality of spatial frequencies in the image data generated by the pattern image generation unit and the digital image signals of the plurality of composite images respectively corresponding to the plurality of spatial frequencies output from the imaging device. As a result, a predetermined correlation calculation process is performed on these inputs to extract the signal amplitude of the light reflected from a specific three-dimensional position on the surface and inside of the object, and the signal amplitude of each extracted three-dimensional position. A data processing unit that calculates the optical characteristics at each of the three-dimensional positions on the surface and inside of the object based on
The first feature is that the optical systems of the projector and the imaging device have different focal lengths.

本発明に係る計測方法は、物体内部の光学特性を計測する計測方法であって、
前記物体を透過可能な光を用いてパターン画像を前記物体に向けて投影するプロジェクタと、前記プロジェクタから投影された前記パターン画像の光の内、前記物体の表面及び内部の各3次元位置で反射した光が、前記光を感知可能な撮像面上に入射して結像することにより合成された合成画像をディジタル画像信号に変換して出力する撮像装置を用いて、
前記物体を横切る所定の第1平面内において少なくとも1方向に正弦関数で表される光強度の周期的な振幅変化を有する前記パターン画像の画像データであって、前記正弦関数の互いに異なる複数の空間周波数に各別に対応する複数の前記パターン画像の前記画像データを生成して、前記プロジェクタに入力することにより、前記プロジェクタに対して前記空間周波数が互いに異なる複数の前記パターン画像を、前記空間周波数を時間的に順次変化させながら各別に、前記物体に向けて投影させるパターン画像生成工程と、
前記パターン画像生成工程において生成された前記画像データにおける複数の前記空間周波数、及び、前記撮像装置から出力される前記複数の空間周波数に各別に対応した複数の前記合成画像の前記ディジタル画像信号を入力として、これらの入力に対して所定の相関演算処理を行い、前記物体の表面及び内部の特定の3次元位置から反射した光の信号振幅を抽出して、抽出した各3次元位置の前記信号振幅に基づいて前記物体の表面及び内部の各3次元位置における前記光学特性を算出するデータ処理工程と、を備え、
前記プロジェクタと前記撮像装置の各光学系の焦点距離が互いに異なっていることを第1の特徴とする。
A measuring method according to the present invention is a measuring method for measuring an optical characteristic inside an object,
A projector that projects a pattern image toward the object by using light that can pass through the object, and a light reflected by the surface of the object and three-dimensional positions inside the light of the pattern image projected from the projector. By using an image pickup device that converts the light into a digital image signal and outputs the combined image by combining the light into an image pickup surface capable of sensing the light and forming an image.
Image data of the pattern image having a periodic amplitude change of a light intensity represented by a sine function in at least one direction in a predetermined first plane across the object, the plurality of spaces having different sine functions. By generating the image data of the plurality of pattern images respectively corresponding to frequencies and inputting the image data to the projector, the plurality of pattern images having different spatial frequencies from each other with respect to the projector, A pattern image generating step of projecting toward the object separately while sequentially changing in time;
Input the plurality of spatial frequencies in the image data generated in the pattern image generation step, and the digital image signals of the plurality of composite images respectively corresponding to the plurality of spatial frequencies output from the imaging device. As a result, a predetermined correlation calculation process is performed on these inputs to extract the signal amplitude of the light reflected from a specific three-dimensional position on the surface and inside of the object, and the signal amplitude of each extracted three-dimensional position. A data processing step of calculating the optical characteristic at each of the three-dimensional positions on the surface and inside of the object based on
The first feature is that the optical systems of the projector and the imaging device have different focal lengths.

上記第1の特徴の計測装置及び方法によれば、後述するように、プロジェクタ及びカメラを計測時に移動することなく、且つ、プロジェクタ及びカメラの焦点距離を物理的に変更することなく、計測対象物体の内部構造が複雑であっても、物体内部の3次元空間における光学特性を計測することができる。 According to the measurement device and method of the first feature, as will be described later, the measurement target object is not moved without moving the projector and the camera at the time of measurement, and is not physically changed the focal lengths of the projector and the camera. Even if the internal structure of is complex, the optical characteristics in the three-dimensional space inside the object can be measured.

更に、上記第1の特徴の計測装置及び方法は、前記第1平面が前記プロジェクタの光学系の光軸と直交していること、或いは、前記第1平面が前記撮像面と平行であることが、好ましい一実施態様である。 Further, in the measuring apparatus and method of the first feature, the first plane is orthogonal to the optical axis of the optical system of the projector, or the first plane is parallel to the imaging plane. Is a preferred embodiment.

更に、上記第1の特徴の計測装置及び方法は、前記プロジェクタと前記撮像装置の各光学系の光軸が互いに平行であって、前記第1平面と直交していることが、より好ましい一実施態様である。 Further, in the measuring device and method of the first feature, it is more preferable that the optical axes of the optical systems of the projector and the imaging device are parallel to each other and are orthogonal to the first plane. It is a mode.

更に、上記第1の特徴の計測装置及び方法は、前記プロジェクタが透視投影プロジェクタであり、前記撮像装置が平行投影カメラで構成されていることが、好ましい一実施態様である。 Further, in the measuring device and method of the first feature, it is a preferable embodiment that the projector is a perspective projection projector and the imaging device is a parallel projection camera.

これらの好適な実施態様によれば、後述するように、プロジェクタに入力するパターン画像の画像データを生成する処理、及び、物体の表面及び内部の特定の3次元位置から反射した光の信号振幅を抽出して物体の表面及び内部の各位置における光学特性を算出する処理の簡素化及び高精度化が図れる。 According to these preferred embodiments, as will be described later, a process of generating image data of a pattern image to be input to the projector and a signal amplitude of light reflected from a specific three-dimensional position on the surface and inside of the object are calculated. It is possible to simplify and improve the accuracy of the process of extracting and calculating the optical characteristics at each position on the surface and inside of the object.

更に、本発明に係る計測装置は、上記第1の特徴に加えて、前記データ処理部が、前記複数の前記ディジタル画像信号の順次変化する前記各空間周波数に各別に対応する複数の光強度に、前記各空間周波数に対応する角周波数の正弦関数値を各別に乗じて得られる第1データ列と、前記複数の光強度に、前記各空間周波数に対応する前記角周波数の余弦関数値を各別に乗じて得られる第2データ列に対して、離散的フーリエ変換を各別に施して得られた各演算結果に基づいて、前記信号振幅の抽出を行うことを第2の特徴とする。 Further, in the measuring device according to the present invention, in addition to the first feature, the data processing unit outputs a plurality of light intensities individually corresponding to the spatial frequencies of the digital image signals that sequentially change. , A first data string obtained by multiplying a sine function value of an angular frequency corresponding to each spatial frequency separately, and a plurality of light intensities, a cosine function value of the angular frequency corresponding to each spatial frequency A second feature is that the signal amplitude is extracted based on the respective calculation results obtained by individually performing the discrete Fourier transform on the second data sequence obtained by multiplying separately.

更に、本発明に係る計測方法は、上記第1の特徴に加えて、前記データ処理工程において、前記複数の前記ディジタル画像信号の順次変化する前記各空間周波数に各別に対応する複数の光強度に、前記各空間周波数に対応する角周波数の正弦関数値を各別に乗じて得られる第1データ列と、前記複数の光強度に、前記各空間周波数に対応する前記角周波数の余弦関数値を各別に乗じて得られる第2データ列に対して、離散的フーリエ変換を各別に施して得られた各演算結果に基づいて、前記信号振幅の抽出を行うことを第2の特徴とする。 Further, in addition to the first feature, the measuring method according to the present invention, in the data processing step, provides a plurality of light intensities individually corresponding to the spatial frequencies of the digital image signals that sequentially change. , A first data string obtained by multiplying a sine function value of an angular frequency corresponding to each spatial frequency separately, and a plurality of light intensities, a cosine function value of the angular frequency corresponding to each spatial frequency A second feature is that the signal amplitude is extracted based on the respective calculation results obtained by individually performing the discrete Fourier transform on the second data sequence obtained by multiplying separately.

更に、上記第1または第2の特徴の計測装置及び方法は、前記パターン画像の前記光強度の周期的な振幅変化が、前記第1平面内の直交する2方向の変化であることが、好ましい一実施態様である。 Further, in the measuring apparatus and method of the first or second feature, it is preferable that the periodic amplitude change of the light intensity of the pattern image is a change in two orthogonal directions in the first plane. This is one embodiment.

当該好適な実施態様によれば、後述するように、パターン画像の光強度の周期的な振幅変化が1方向のみの場合と比べて、算出された光学特性の誤差が軽減され、光学特性を算出する処理の高精度化が図れる。 According to the preferred embodiment, as will be described later, as compared with the case where the periodic amplitude change of the light intensity of the pattern image is in only one direction, the error in the calculated optical characteristic is reduced and the optical characteristic is calculated. The accuracy of the processing can be improved.

更に、上記第1または第2の特徴の計測装置及び方法は、前記光学特性が、前記物体の表面及び内部の各3次元位置における反射率であることが好ましい。 Further, in the measuring device and method of the first or second feature, it is preferable that the optical characteristic is a reflectance at each of three-dimensional positions on the surface and inside of the object.

本発明に係る計測装置及び方法によれば、プロジェクタ及びカメラを計測時に移動することなく、且つ、プロジェクタ及びカメラの焦点距離を物理的に変更することなく、複雑な内部構造にも対応可能な、物体内部の3次元空間における光学特性を計測する計測装置及び方法を提供できる。 According to the measuring device and method according to the present invention, it is possible to cope with a complicated internal structure without moving the projector and the camera at the time of measurement, and without physically changing the focal lengths of the projector and the camera. A measuring device and method for measuring optical characteristics in a three-dimensional space inside an object can be provided.

本発明に係る計測装置であるプロジェクタ・カメラシステムの概略の構成例を模式的に示す図。The figure which shows typically the example of a schematic structure of the projector camera system which is a measuring device which concerns on this invention. 図1に示すプロジェクタ・カメラシステムのプロジェクタ、撮像装置、及び、計測対象物が好適に配置された概略の構成例を模式的に示す図。FIG. 2 is a diagram schematically showing a schematic configuration example in which a projector, an imaging device, and a measurement target of the projector/camera system shown in FIG. 1 are suitably arranged. 評価実験に用いたプロジェクタ・カメラシステムの構成を示す図。The figure which shows the structure of the projector camera system used for the evaluation experiment. 評価実験に用いた計測対象の物体の概略の構成を模式的に示す図。The figure which shows typically the schematic structure of the object of the measurement object used for the evaluation experiment. 評価実験により復元された4層の内部反射率の算出結果を示す図。The figure which shows the calculation result of the internal reflectance of four layers restored by the evaluation experiment.

以下、本発明に係る計測装置及び方法(以下、適宜、「本装置」及び「本方法」と称す。)の実施形態について、図面を参照して説明する。 Hereinafter, embodiments of a measuring apparatus and a method (hereinafter, appropriately referred to as “present apparatus” and “present method”) according to the present invention will be described with reference to the drawings.

[計測装置の概略構成]
本装置10は、図1に模式的に示すように、計測対象の物体60の内部の3次元空間における光学特性を計測する計測装置であって、プロジェクタ20、撮像装置30、パターン画像生成部40、及び、データ処理部50を備え、プロジェクタ・カメラシステムとして構成される。
[Schematic configuration of measuring device]
As schematically shown in FIG. 1, the present device 10 is a measuring device that measures optical characteristics in a three-dimensional space inside an object 60 to be measured, and includes a projector 20, an imaging device 30, and a pattern image generating unit 40. , And a data processing unit 50, and configured as a projector/camera system.

既存のプロジェクタ・カメラシステムは、計測対象物の3次元形状計測に一般的に用いられているが、本発明では、当該プロジェクタ・カメラシステムを、計測対象物の表面だけでなく、物体内部の3次元空間における光学特性の計測に応用する。 The existing projector/camera system is generally used to measure the three-dimensional shape of the measurement target. However, in the present invention, the projector/camera system is used not only on the surface of the measurement target but also inside the object. It is applied to the measurement of optical characteristics in dimensional space.

プロジェクタ20は、パターン画像生成部40から入力される画像データD1に基づいて、物体60を横切る所定の第1平面内において少なくとも1方向に正弦関数で表される光強度の周期的な振幅変化を有するパターン画像を生成し、物体60を透過可能な光を用いて当該パターン画像を物体60に向けて光学的に投影するように構成されている。尚、本明細書において、「光学的に」とは、光学レンズ等の光学素子を備えて構成される光学設備(適宜、「光学系」と称す)を使用することを意味する。 Based on the image data D1 input from the pattern image generation unit 40, the projector 20 changes the periodic amplitude of the light intensity represented by a sine function in at least one direction within a predetermined first plane that crosses the object 60. It is configured to generate a pattern image having the pattern image and optically project the pattern image toward the object 60 using light that can pass through the object 60. In the present specification, “optically” means to use optical equipment (appropriately referred to as “optical system”) including an optical element such as an optical lens.

本実施形態では、プロジェクタ20として、一般的な透視投影プロジェクタの使用を想定している。よって、上記第1平面の位置が上記第1平面に垂直な方向に後退すると、つまり、プロジェクタ20から遠ざかると、上記第1平面上に投影されるパターン画像は相似的に拡大される。 In this embodiment, it is assumed that a general perspective projection projector is used as the projector 20. Therefore, when the position of the first plane recedes in the direction perpendicular to the first plane, that is, when it moves away from the projector 20, the pattern image projected on the first plane is enlarged in a similar manner.

立体的な物体60が、例えば白色光等の可視光に対して透明或いは半透明であって、物体内部において、当該可視光に対する反射率及び透過率が、3次元空間的に変化している場合等では、プロジェクタ20は、当該可視光を用いて、当該パターン画像を物体60に向けて投影する。 When the three-dimensional object 60 is transparent or semi-transparent to visible light such as white light, and the reflectance and the transmittance of the visible light inside the object are three-dimensionally spatially changed. In the above, the projector 20 projects the pattern image toward the object 60 using the visible light.

プロジェクタ20は、上記パターン画像が、物体60の計測対象領域に投影されるように、プロジェクタ20の光学系の配置及び焦点距離が予め設定され、設定された配置及び焦点距離が計測期間を通じて維持される。尚、プロジェクタ20の投影方式及び投影メカニズムは、投影する光の波長等に適合していれば、特定の方式等に限定されるものではなく、一般に市販されている透視投影プロジェクタを使用することができる。また、プロジェクタ20の電気的及び光学的仕様(例えば、フレームレート、焦点距離、解像度、等)は、計測内容に応じたものを適宜使用すればよく、特定の仕様に限定されるものではない。プロジェクタ20の具体的な構造は、本発明の本旨ではないので、詳細な説明は割愛する。 In the projector 20, the arrangement and the focal length of the optical system of the projector 20 are preset so that the pattern image is projected on the measurement target region of the object 60, and the set arrangement and the focal length are maintained throughout the measurement period. It The projection system and the projection mechanism of the projector 20 are not limited to a particular system and the like as long as they are suitable for the wavelength of the light to be projected, and a commercially available perspective projection projector can be used. it can. The electrical and optical specifications (for example, frame rate, focal length, resolution, etc.) of the projector 20 may be appropriately selected depending on the measurement content, and are not limited to specific specifications. The specific structure of the projector 20 is not the gist of the present invention, and thus the detailed description is omitted.

撮像装置30は、プロジェクタ20から投影される光を感知可能な光電変換素子がアレイ状に配置されてなるイメージセンサ(CCDセンサ、MOSセンサ、等)と、物体60の表面及び内部の各3次元位置で反射してイメージセンサの表面である撮像面に向かって入射する光を、当該撮像面上に結像させるための光学系と、イメージセンサから出力される光電変換された電気信号を増幅等して、所定の出力形式のディジタル画像信号D2として出力する信号処理回路部を備えて構成される。プロジェクタ20から投影される光が、例えば、白色光等の可視光の場合、撮像装置30として、一般に市販されているRGBカメラを備えた構成が想定される。尚、使用するイメージセンサは、計測内容に応じて、カラーセンサ以外に、モノクロームセンサを使用しても構わない。 The imaging device 30 includes an image sensor (CCD sensor, MOS sensor, etc.) in which photoelectric conversion elements capable of sensing the light projected from the projector 20 are arranged in an array, and the surface and the inside of the object 60 are three-dimensional. An optical system for forming an image on the image pickup surface, which is the light reflected by the position and incident on the image pickup surface that is the surface of the image sensor, and amplifies the photoelectrically converted electric signal output from the image sensor, etc. Then, a signal processing circuit section for outputting as a digital image signal D2 of a predetermined output format is provided. When the light projected from the projector 20 is visible light such as white light, for example, a configuration including a commercially available RGB camera is assumed as the imaging device 30. The image sensor to be used may be a monochrome sensor other than the color sensor depending on the measurement content.

撮像装置30は、物体60の計測対象領域から入射する光が撮像可能に、撮像装置30の配置及び光学系の焦点距離が予め設定され、設定された配置及び焦点距離が計測期間を通じて維持される。また、撮像装置30の電気的及び光学的仕様(例えば、フレームレート、焦点距離、解像度、等)は、計測内容に応じたものを適宜使用すればよく、特定の仕様に限定されるものではない。撮像装置30の具体的な構造は、本発明の本旨ではないので、詳細な説明は割愛する。 The image pickup apparatus 30 is preset with the arrangement of the image pickup apparatus 30 and the focal length of the optical system so that the light incident from the measurement target region of the object 60 can be taken, and the set arrangement and the focal length are maintained throughout the measurement period. .. The electrical and optical specifications (for example, frame rate, focal length, resolution, etc.) of the image pickup apparatus 30 may be appropriately selected according to the measurement content, and are not limited to specific specifications. .. Since the specific structure of the image pickup device 30 is not the gist of the present invention, detailed description thereof will be omitted.

パターン画像生成部40は、上記第1平面内において少なくとも1方向に正弦関数で表される光強度の周期的な振幅変化を有するパターン画像の画像データD1を生成する。ここで、上記第1平面上に投影された1つのパターン画像上の少なくとも1方向の周期的な振幅変化を表す空間周波数が、時間的に順次変化するように、上記第1平面上における空間周波数の異なる複数のパターン画像に対応する画像データD1が作成される。作成された画像データD1は、各空間周波数に対応する画像データD1を空間周波数別に順次、プロジェクタ20に向けて送信するのが好ましい。各空間周波数の対応する画像データD1を全て一括して、プロジェクタ20に向けて送信してもよいが、この場合、プロジェクタ20側で、受信した画像データD1を一時的に保存するのに必要なメモリ容量が大幅に増加するため、プロジェクタ20側のリソース量及び処理量の負担を軽減するためには、各空間周波数に対応する画像データD1を各別に順次送信するのが好ましい。 The pattern image generation unit 40 generates image data D1 of a pattern image having a periodic amplitude change of light intensity represented by a sine function in at least one direction within the first plane. Here, the spatial frequency on the first plane is set so that the spatial frequency representing a periodic amplitude change in at least one direction on one pattern image projected on the first plane sequentially changes in time. Image data D1 corresponding to a plurality of different pattern images are created. As for the created image data D1, it is preferable to sequentially transmit the image data D1 corresponding to each spatial frequency to the projector 20 for each spatial frequency. All the image data D1 corresponding to each spatial frequency may be collectively transmitted to the projector 20, but in this case, it is necessary for the projector 20 side to temporarily store the received image data D1. Since the memory capacity is significantly increased, it is preferable to sequentially transmit the image data D1 corresponding to each spatial frequency separately in order to reduce the burden on the resource amount and the processing amount on the projector 20 side.

本実施形態では、パターン画像上の少なくとも1方向(x方向)に沿った周期的な振幅変化がxを変数とする正弦関数で表される画像データD1が作成される。つまり、第1平面上の3次元位置(x,y,z)に照射される光の強度L(x,y,z)は、下記の数1で表される。数1に示されるように、強度L(x,y,z)は、y方向には一様である。尚、3次元位置(x,y,z)を規定するxyz直交座標系において、第1平面は、xy面に平行な面となり、z軸は第1平面に垂直な軸となる。更に、第1平面は、物体60を横切る(接する場合を含む)範囲内において任意のz値を取り得る。 In this embodiment, image data D1 in which a periodic amplitude change along at least one direction (x direction) on the pattern image is represented by a sine function in which x is a variable is created. That is, the intensity L(x, y, z) of the light with which the three-dimensional position (x, y, z) on the first plane is irradiated is represented by the following formula 1. As shown in Expression 1, the intensity L(x, y, z) is uniform in the y direction. In the xyz orthogonal coordinate system that defines the three-dimensional position (x, y, z), the first plane is a plane parallel to the xy plane, and the z axis is an axis perpendicular to the first plane. Further, the first plane can take an arbitrary z value within the range across (including contact with) the object 60.

Figure 2020085618
Figure 2020085618

上記数1において、D(z)はオフセット値を、A(z)は振幅を、ω(z)は角周波数を、φは位相を夫々示す。 In Expression 1, D(z) indicates an offset value, A(z) indicates an amplitude, ω(z) indicates an angular frequency, and φ indicates a phase.

上述のように、本実施形態では、プロジェクタ20が透視投影プロジェクタであるので、上記第1平面が上記第1平面に垂直な+z方向に後退すると、上記第1平面上に投影されるパターン画像は相似的に拡大され、結果として、上記第1平面上における空間周波数f(z)(=ω(z)/2π)は、zの増加とともに低下する。つまり、プロジェクタ20から投影された1つのパターン画像は、パターン画像の投影される第1平面が物体60を横切る位置(z値)に応じて、第1平面上での空間周波数f(z)が増減する。一方、上述したように、第1平面が物体60を横切る位置(z値)が同じでも、空間周波数f(z)は時間的に順次変化する。つまり、第1平面上で観測されるパターン画像の空間周波数f(z)は、パターン画像生成部40が生成しプロジェクタ20に入力された画像データD1によって、空間的(z方向)且つ時間的に変調される。 As described above, in the present embodiment, since the projector 20 is a perspective projection projector, when the first plane recedes in the +z direction perpendicular to the first plane, the pattern image projected on the first plane is The spatial frequency f(z) (=ω(z)/2π) on the first plane is reduced in a similar manner as a result. That is, one pattern image projected from the projector 20 has a spatial frequency f(z) on the first plane depending on the position (z value) where the first plane onto which the pattern image is projected crosses the object 60. Increase or decrease. On the other hand, as described above, even if the position (z value) where the first plane crosses the object 60 is the same, the spatial frequency f(z) changes sequentially in time. That is, the spatial frequency f(z) of the pattern image observed on the first plane is spatially (z direction) and temporally determined by the image data D1 generated by the pattern image generation unit 40 and input to the projector 20. Is modulated.

尚、以下の説明において、上述の時間的に順次変化する空間周波数f(z)及び角周波数ω(z)は、順次変化する時間の順序を規定するインデックスi(i=1〜n)を用いて、適宜、f(z)[i]及びω(z)[i]と表記する。nは、時間的に順次変化する空間周波数f(z)の総数であり、計測内容に応じて予め設定されるが、本実施形態では、一例として、100〜1000程度の範囲内で設定される。また、空間周波数f(z)[i]のパターン画像が投影されている期間を時点[i]と称す。従って、時点[i]では、空間周波数f(z)[i]のパターン画像だけが、1時点前の空間周波数f(z)[i−1]のパターン画像、及び、1時点後の空間周波数f(z)[i+1]のパターン画像の何れとも重複されずに投影される。つまり、各時点[i]の期間内では、空間周波数f(z)[i]のパターン画像は、静止画像として投影される。 In the following description, the spatial frequency f(z) and the angular frequency ω(z) that sequentially change with time use the index i (i=1 to n) that defines the order of the sequentially changing time. Therefore, they are appropriately expressed as f(z)[i] and ω(z)[i]. n is the total number of spatial frequencies f(z) that sequentially change with time and is preset according to the content of measurement, but in the present embodiment, as an example, it is set within the range of about 100 to 1000. .. Further, a period during which the pattern image having the spatial frequency f(z)[i] is projected is referred to as a time point [i]. Therefore, at the time point [i], only the pattern image with the spatial frequency f(z)[i] is the pattern image with the spatial frequency f(z)[i-1] one time before and the spatial frequency after the one time point. It is projected without overlapping with any of the pattern images of f(z)[i+1]. That is, within each period [i], the pattern image of the spatial frequency f(z)[i] is projected as a still image.

一方、或る特定の時点[i]で撮像装置30の撮像面上で結像した画像は、物体60の表面及び内部の各3次元位置(x,y,z)まで、それより前方(‐z方向)に存在する物体60を透過して到達した光の一部が、当該3次元位置(x,y,z)での反射率に応じて反射し、反射しなかった他の一部が、それより後方(+z方向)に向けて透過し、当該後方の3次元位置(x,y,z+Δz)で当該3次元位置での反射率に応じて反射した光を、全て合成して得られる合成画像となる。尚、各時点[i]の時間的な長さは、撮像面上での当該合成画像の露光時間より長くなるように設定され、使用するプロジェクタ20及び撮像装置30の仕様に依存して決まる。従って、撮像装置30側では、各時点[i]の期間中、静止画像として投影された空間周波数f(z)[i]のパターン画像だけに対応した合成画像が撮像面上で結像するため、各時点[i]に同期して、各時点[i]の合成画像に対応したディジタル画像信号D2が離散的に出力される。ここで、各時点[i]において、パターン画像は静止画像として一定期間継続して投影されるため、プロジェクタ20と撮像装置30の間の同期は容易に確立することができる。 On the other hand, the image formed on the imaging surface of the imaging device 30 at a specific time point [i] is up to the three-dimensional positions (x, y, z) on the surface and inside of the object 60, in front of (-). Part of the light that has reached through the object 60 existing in the z direction) is reflected according to the reflectance at the three-dimensional position (x, y, z), and the other part that is not reflected is reflected. , Light that is transmitted rearward (+z direction) and reflected at the three-dimensional position (x, y, z+Δz) at the rear in accordance with the reflectance at the three-dimensional position is obtained by combining them all. It becomes a composite image. The time length of each time point [i] is set to be longer than the exposure time of the combined image on the imaging surface, and is determined depending on the specifications of the projector 20 and the imaging device 30 used. Therefore, on the imaging device 30 side, during each period [i], a composite image corresponding to only the pattern image of the spatial frequency f(z)[i] projected as a still image is formed on the imaging surface. , The digital image signal D2 corresponding to the composite image at each time point [i] is discretely output in synchronization with each time point [i]. Here, at each time point [i], the pattern image is continuously projected as a still image for a certain period, so that the synchronization between the projector 20 and the imaging device 30 can be easily established.

以上より、或る特定の時点[i]で撮像装置30から出力されるディジタル画像信号D2が示す合成画像内には、当該特定の時点[i]におけるz軸上の各位置の第1平面上の2次元位置(x,y)におけるパターン画像の光強度の振幅と物体60の反射率及び透過率の情報がz方向に重畳されて含まれている。 As described above, in the composite image represented by the digital image signal D2 output from the imaging device 30 at a specific time point [i], the position on the z-axis at the specific time point [i] is on the first plane. The information of the amplitude of the light intensity of the pattern image and the reflectance and the transmittance of the object 60 at the two-dimensional position (x, y) is included in the z direction in a superimposed manner.

パターン画像生成部40は、例えば、パーソナルコンピュータ等の汎用コンピュータ上で、各時点[i]における上述のパターン画像の画像データD1を生成する処理(本方法のパターン画像生成工程に相当)コンピュータ・プログラムを実行するコンピュータ・ソフトウェア手段として構成することができる。 The pattern image generation unit 40 is, for example, on a general-purpose computer such as a personal computer, a processing (corresponding to the pattern image generation step of the present method) computer program for generating the image data D1 of the pattern image at each time [i]. Can be configured as a computer software means for executing.

データ処理部50は、パターン画像生成部40において生成された画像データD1における複数の空間周波数f(z)[i](i=1〜n)、及び、撮像装置30から出力される複数の空間周波数f(z)[i]に各別に対応した複数の合成画像の前記ディジタル画像信号D2を入力として、これらの入力に対して後述する相関演算処理を行い、物体60の表面及び内部の特定の3次元位置(x,y,z)から反射した光の信号振幅を抽出して、抽出した各3次元位置(x,y,z)の信号振幅に基づいて、後述する要領で、物体60の表面及び内部の各3次元位置(x,y,z)における光学特性を算出する。尚、本実施形態では、当該光学特性として、反射率R(x,y,z)を算出する。 The data processing unit 50 includes a plurality of spatial frequencies f(z)[i] (i=1 to n) in the image data D1 generated by the pattern image generating unit 40, and a plurality of spaces output from the imaging device 30. The digital image signals D2 of a plurality of composite images corresponding to the frequencies f(z)[i] are input, and a correlation calculation process described later is performed on these inputs to identify the surface and the inside of the object 60. The signal amplitude of the light reflected from the three-dimensional position (x, y, z) is extracted, and based on the extracted signal amplitude of each three-dimensional position (x, y, z), the object 60 of the object 60 is extracted as described later. The optical characteristics at each three-dimensional position (x, y, z) on the surface and inside are calculated. In this embodiment, the reflectance R(x, y, z) is calculated as the optical characteristic.

データ処理部50は、例えば、パーソナルコンピュータ等の汎用コンピュータ上で、物体60の表面及び内部の特定の3次元位置(x,y,z)から反射した光の信号振幅を抽出する処理、及び、抽出した各3次元位置(x,y,z)の信号振幅に基づいて、物体60の表面及び内部の各3次元位置(x,y,z)における光学特性を算出する処理(両処理は、本方法のデータ処理工程に相当)を行うコンピュータ・プログラムを実行するコンピュータ・ソフトウェア手段として構成することができる。 The data processing unit 50, for example, on a general-purpose computer such as a personal computer, a process of extracting a signal amplitude of light reflected from a specific three-dimensional position (x, y, z) on the surface and inside of the object 60, and A process of calculating the optical characteristics at each of the three-dimensional positions (x, y, z) on the surface and inside of the object 60 based on the extracted signal amplitudes of the three-dimensional positions (x, y, z) (both processes are It can be configured as computer software means for executing a computer program for performing the data processing step of the method).

パターン画像生成部40及びデータ処理部50は、夫々、コンピュータ・ソフトウェア手段として構成することができるが、夫々のコンピュータ・プログラムを実行するハードウェアとしてのコンピュータは、1台または2台の汎用コンピュータに限定されるものではなく、単体の専用のハードウェアとして構成されてもよく、更に、パターン画像生成部40及びデータ処理部50の各専用のハードウェアを個別に設けてもよい。 The pattern image generation unit 40 and the data processing unit 50 can each be configured as computer software means. However, the computer as hardware that executes each computer program can be one or two general-purpose computers. The hardware is not limited to this, and may be configured as a single dedicated hardware, and the dedicated hardware of the pattern image generation unit 40 and the data processing unit 50 may be individually provided.

次に、撮像装置30の撮像面上で観測される合成画像と、当該合成画像のディジタル画像信号D2から任意の第1平面上の任意の3次元位置(x,y,z)における物体60の反射率(x,y,z)の算出手順を説明する。 Next, the composite image observed on the imaging surface of the imaging device 30 and the object 60 at an arbitrary three-dimensional position (x, y, z) on an arbitrary first plane from the digital image signal D2 of the composite image. The procedure for calculating the reflectance (x, y, z) will be described.

以下、説明を容易にするため、図2に示すように、プロジェクタ・カメラシステムは、プロジェクタ20が透視投影プロジェクタであり、撮像装置30が平行投影カメラで構成され、プロジェクタ20及び撮像装置30の各光学系の光軸が第1平面と直交するようにプロジェクタ20及び撮像装置30が好適に配置されている場合を想定する。つまり、プロジェクタ20の投影面と撮像装置30の撮像面と第1平面が互いに平行である。 2, in the projector/camera system, the projector 20 is a perspective projection projector, the imaging device 30 is a parallel projection camera, and each of the projector 20 and the imaging device 30 is illustrated to facilitate description. It is assumed that the projector 20 and the imaging device 30 are preferably arranged such that the optical axis of the optical system is orthogonal to the first plane. That is, the projection surface of the projector 20, the imaging surface of the imaging device 30, and the first plane are parallel to each other.

尚、図2に示すシステム構成では、プロジェクタ20が物体60と撮像装置30の間を遮蔽しないように、ビームスプリッタ(ハーフミラー)21をプロジェクタ20と物体60の間に介装して、プロジェクタ20の光学系の光軸を屈曲させている。これにより、プロジェクタ20及び撮像装置30の各光学系の光軸を同軸にでき、プロジェクタ20の投影面と撮像装置30の撮像面と第1平面の各xy座標の原点(x=0、y=0)を一致させることができる。ここで、プロジェクタ20の投影中心を、z=0であると規定する。尚、実際のシステム構成(例えば、後述する図3に示す実験用のシステム構成)において、必ずしもビームスプリッタは必要ではなく、プロジェクタ20及び撮像装置30の各光学系の光軸が同軸でなく平行に設定されていれば、プロジェクタ20の投影面上の座標系と撮像装置30の撮像面上の座標系の相対関係は平行移動のみとなるので、以下に説明する演算内容と同様の演算が可能である。尚、以下の説明において、z=0からの光軸(z軸)上の距離を「深さ」と称する場合、z値を深さzと称する場合がある。 In the system configuration shown in FIG. 2, the beam splitter (half mirror) 21 is interposed between the projector 20 and the object 60 so that the projector 20 does not block the space between the object 60 and the imaging device 30. The optical axis of the optical system is bent. Thereby, the optical axes of the optical systems of the projector 20 and the imaging device 30 can be made coaxial, and the origin of each xy coordinate of the projection surface of the projector 20, the imaging surface of the imaging device 30, and the first plane (x=0, y= 0) can be matched. Here, the projection center of the projector 20 is defined as z=0. In an actual system configuration (for example, an experimental system configuration shown in FIG. 3 to be described later), the beam splitter is not always necessary, and the optical axes of the optical systems of the projector 20 and the imaging device 30 are not coaxial but parallel to each other. If set, the relative relationship between the coordinate system on the projection surface of the projector 20 and the coordinate system on the imaging surface of the imaging device 30 is only parallel movement, and thus the same calculation as the calculation content described below can be performed. is there. In the following description, when the distance on the optical axis (z axis) from z=0 is referred to as “depth”, the z value may be referred to as depth z.

また、撮像装置30が平行投影カメラで構成されているため、第1平面上のパターン画像は同じ寸法で、つまり、拡大も縮小もされずに、撮像面上に結像される。 Further, since the image pickup device 30 is configured by a parallel projection camera, the pattern image on the first plane has the same size, that is, it is formed on the image pickup surface without being enlarged or reduced.

尚、プロジェクタ20が透視投影プロジェクタであり、撮像装置30が平行投影カメラで構成される場合は、各光学系の焦点距離は当然に等しくない。本装置及び本方法において、プロジェクタ20と撮像装置30の各光学系の焦点距離が等しくないことが必要条件となる。従って、図2に示すプロジェクタ・カメラシステムの構成は、当該条件を満足する一実施態様である。実際の実施態様において、プロジェクタ・カメラシステムの構成として、プロジェクタ20が透視投影プロジェクタであり、撮像装置30が透視投影カメラで構成されてもよく、また、プロジェクタ20が平行投影プロジェクタであり、撮像装置30が透視投影カメラで構成されてもよい。 When the projector 20 is a perspective projection projector and the imaging device 30 is a parallel projection camera, the focal lengths of the optical systems are not equal to each other. In this device and this method, it is a necessary condition that the focal lengths of the optical systems of the projector 20 and the imaging device 30 are not equal. Therefore, the configuration of the projector/camera system shown in FIG. 2 is an embodiment that satisfies the condition. In an actual embodiment, as a configuration of the projector/camera system, the projector 20 may be a perspective projection projector and the imaging device 30 may be a perspective projection camera. Further, the projector 20 is a parallel projection projector and the imaging device 30 may be a perspective projection camera.

[撮像装置の撮像面上で観測される合成画像]
先ず、撮像装置30の撮像面上で観測される合成画像について説明する。上述したように、第1平面上に投影されるパターン画像は、上記数1に示すようにxを変数とする正弦関数で表され、角周波数ω(z)はzの増加とともに低下する。ここで、物体60の最前面の第1平面のz値をzとし、当該第1平面(z=z)でのパターン画像の角周波数ω(z)をωとすると、任意のzでの第1平面における角周波数ω(z)は、下記の数2で示される。つまり、プロジェクタ20として透視投影プロジェクタを使用することで、パターン画像に対して、z方向に自然な空間周波数の変調が得られる。
[Composite image observed on the imaging surface of the imaging device]
First, a composite image observed on the imaging surface of the imaging device 30 will be described. As described above, the pattern image projected on the first plane is represented by the sine function having x as a variable as shown in the above mathematical expression 1, and the angular frequency ω(z) decreases as z increases. Here, if the z value of the first plane at the forefront of the object 60 is z 1 and the angular frequency ω(z) of the pattern image on the first plane (z=z 1 ) is ω 1 , then arbitrary z The angular frequency ω(z) on the first plane at is expressed by the following equation 2. That is, by using a perspective projection projector as the projector 20, a natural spatial frequency modulation in the z direction can be obtained for the pattern image.

Figure 2020085618
Figure 2020085618

撮像面上の画素(x,y)で観測される合成画像の光強度I(x,y)は、異なる深さzでの全ての光強度の積分値として、下記の数3で表される。ここで、撮像装置30と物体60の最前面(z=z)の間には、何も存在しないと想定する。 The light intensity I(x, y) of the composite image observed at the pixel (x, y) on the imaging surface is expressed by the following mathematical expression 3 as an integrated value of all the light intensities at different depths z. .. Here, it is assumed that nothing exists between the imaging device 30 and the frontmost surface (z=z 1 ) of the object 60.

Figure 2020085618
Figure 2020085618

各3次元位置(x,y,z)が上記数1で示される光強度L(x,y,z)のパターン画像で照射され、各3次元位置(x,y,z)において反射率R(x,y,z)で反射した光が、撮像面上の画素(x,y)に到達するまでに、物体60内を通過する場合は減衰するので、上記数3の右辺内の各3次元位置(x,y,z)から画素(x,y)に到達する光の強度I(x,y,z)は、下記の数4で表される。 Each three-dimensional position (x, y, z) is illuminated with the pattern image of the light intensity L(x, y, z) shown by the above formula 1, and the reflectance R at each three-dimensional position (x, y, z). When the light reflected by (x, y, z) passes through the object 60 before reaching the pixel (x, y) on the imaging surface, the light is attenuated. The intensity I p (x, y, z) of the light that reaches the pixel (x, y) from the dimension position (x, y, z) is represented by the following Expression 4.

Figure 2020085618
Figure 2020085618

上記数4のE(x,y,z)は、3次元位置(x,y,z)で反射した光が画素(x,y)に至るまでの光強度の減衰率であり、3次元位置(x,y,z)での光の透過率をT(x,y,z)とすると、下記の数5のように定式化できる。 The E(x, y, z) of the equation 4 is the attenuation rate of the light intensity until the light reflected at the three-dimensional position (x, y, z) reaches the pixel (x, y), and the three-dimensional position. When the light transmittance at (x, y, z) is T(x, y, z), it can be formulated as the following Expression 5.

Figure 2020085618
Figure 2020085618

ここで、上述のように、撮像装置30と物体60の最前面(z=z)の間には、何も存在しないと想定しているため、上述のビームスプリッタ21は、仮想的なもので、物体60から撮像面に向けて入射する光は、ビームスプリッタ21で反射せず、100%透過するものと想定している。しかし、仮に、ビームスプリッタ21が物理的に存在し、ビームスプリッタ21での光の透過率が100%でない場合は、上記数5の右辺に一定の透過率を乗ずればよい。 Here, as described above, since it is assumed that nothing exists between the imaging device 30 and the forefront (z=z 1 ) of the object 60, the beam splitter 21 described above is a virtual one. Then, it is assumed that the light incident from the object 60 toward the imaging surface is not reflected by the beam splitter 21 and is 100% transmitted. However, if the beam splitter 21 is physically present and the light transmittance of the beam splitter 21 is not 100%, the right side of the above equation 5 may be multiplied by a certain transmittance.

任意の深さzの第1平面上に照射されるパターン画像の光強度L(x,y,z)のオフセット値D(z)と振幅A(z)は、理想的には深さzに対して均質であるが、実際は、物体60の影響を受ける。例えば、深さz(z>z)への照射は、深さzの各点から減衰している場合があり得るため、結果として不均質なオフセット値D(x,y,z)と振幅A(x,y,z)となる。 Ideally, the offset value D(z) and the amplitude A(z) of the light intensity L(x, y, z) of the pattern image irradiated on the first plane with an arbitrary depth z are set to the depth z. On the other hand, it is homogeneous, but is actually affected by the object 60. For example, the irradiation to the depth z 2 (z 2 >z 1 ) may be attenuated from each point of the depth z 1 , resulting in a non-uniform offset value D(x, y, z ) And the amplitude A(x, y, z).

深さzにおけるオフセット値D(z)と振幅A(z)は、パターン画像生成部40が生成した画像データD1により一意的に決まる。深さz(z>z)でのオフセット値D(x,y,z)と振幅A(x,y,z)は、深さzにおけるオフセット値D(z)と振幅A(z)に、深さzから3次元位置(x,y,z)までの光の減衰率G(x,y,z)を乗じて、下記の数6及び数7で表される。また、減衰率G(x,y,z)は、下記の数8のように定式化できる。但し、数8右辺中の変数xと変数yは、数9で与えられる。 The offset value D(z 1 ) and the amplitude A(z 1 ) at the depth z 1 are uniquely determined by the image data D1 generated by the pattern image generation unit 40. The offset value D(x,y,z) and the amplitude A(x,y,z) at the depth z (z>z 1 ) are the offset value D(z 1 ) and the amplitude A(z at the depth z 1 . 1 ) is multiplied by the attenuation rate G(x, y, z) of light from the depth z 1 to the three-dimensional position (x, y, z), and is expressed by the following formulas 6 and 7. Further, the attenuation rate G(x, y, z) can be formulated as the following Expression 8. However, the variable x * and the variable y * in the right side of the equation 8 are given by the equation 9.

Figure 2020085618
Figure 2020085618

Figure 2020085618
Figure 2020085618

Figure 2020085618
Figure 2020085618

Figure 2020085618
Figure 2020085618

以上より、撮像面上の画素(x,y)で観測される合成画像の光強度I(x,y)は、数3から変形して、下記の数10で表される。但し、数10右辺のオフセット値D(x,y,z)と振幅A(x,y,z)は、下記の数11及び数12で与えられる。 From the above, the light intensity I(x, y) of the combined image observed at the pixel (x, y) on the image pickup surface is modified from Equation 3 and expressed by Equation 10 below. However, the offset value D * (x, y, z) and the amplitude A * (x, y, z) on the right side of Expression 10 are given by Expressions 11 and 12 below.

Figure 2020085618
Figure 2020085618

Figure 2020085618
Figure 2020085618

Figure 2020085618
Figure 2020085618

[反射率(x,y,z)の算出手順(データ処理工程)]
次に、数10で与えられる撮像面上の合成画像の光強度I(x,y)を示すディジタル画像信号D2から任意の第1平面上の任意の3次元位置(x,y,z)における物体60の反射率(x,y,z)の算出手順を説明する。
[Calculation procedure of reflectance (x, y, z) (data processing step)]
Next, at an arbitrary three-dimensional position (x, y, z) on an arbitrary first plane from the digital image signal D2 indicating the light intensity I(x, y) of the composite image on the image pickup surface given by Expression 10. A procedure for calculating the reflectance (x, y, z) of the object 60 will be described.

光強度I(x,y)は、数10に示すように、深さzに依存する空間周波数f(z)(=ω(z)/2π)によって空間的に変調されている。よって、空間的な相関処理によって、特定の空間周波数を有する信号、つまり、特定の深さzの信号を抽出できる。しかし、空間的な相関処理は、反射率マップの空間周波数の影響を受ける。本願発明者は、本問題を解くために、直接変換技術(ホモダイン検波)を採用する。直接変換により、複雑な信号中から特定の周波数を有する信号を検出することができる。 The light intensity I(x, y) is spatially modulated by the spatial frequency f(z) (=ω(z)/2π) depending on the depth z, as shown in Expression 10. Therefore, a signal having a specific spatial frequency, that is, a signal having a specific depth z can be extracted by the spatial correlation processing. However, the spatial correlation process is affected by the spatial frequency of the reflectance map. The inventor of the present application adopts a direct conversion technique (homodyne detection) in order to solve this problem. The direct conversion makes it possible to detect a signal having a specific frequency in a complex signal.

ここで、本装置及び本方法において、プロジェクタ20と撮像装置30の各光学系の焦点距離が等しくないことが必要条件となっているが、仮に、当該条件が満足されない場合、物体60を横切る第1平面上において、上記数2で示される角周波数ω(z)による空間的な変調が、撮像面上で合成画像が形成される過程でそのまま真逆の空間的な復調が生じるため、光強度I(x,y)が空間的に変調された状態でなくなり、よって後述するような直接変換による反射率(x,y,z)の算出が不可能となる。 Here, in the present device and the present method, it is a necessary condition that the focal lengths of the optical systems of the projector 20 and the imaging device 30 are not equal. However, if the condition is not satisfied, the first crossing of the object 60 is performed. On one plane, spatial modulation by the angular frequency ω(z) represented by the above mathematical expression 2 causes the exact reverse spatial demodulation in the process of forming a composite image on the imaging surface, so that the light intensity Since I(x, y) is not spatially modulated, the reflectance (x, y, z) cannot be calculated by direct conversion as described later.

さて、上述したように、パターン画像生成部40は、空間周波数f(z)(=ω(z)/2π)を時間的に順次変化させながら、空間周波数f(z)の異なる複数のパターン画像に対応する画像データD1を作成し、プロジェクタ20は、受信した画像データD1に基づいて、空間周波数f(z)の異なる複数のパターン画像を順次、物体60に向けて投影する。従って、時点[i]において撮像面上で観測される合成画像の光強度I(x,y)をI(x,y)[i]とすると、撮像装置30は、プロジェクタ20が複数のパターン画像を順次投影する時点[i]に同期して、各時点[i]で投影され撮像面上で観測される合成画像の光強度I(x,y)[i]を光電変換して得られるディジタル画像信号D2を出力する。 By the way, as described above, the pattern image generation unit 40 sequentially changes the spatial frequency f(z) (=ω(z)/2π) temporally, and at the same time, a plurality of pattern images having different spatial frequencies f(z) are generated. And the projector 20 sequentially projects a plurality of pattern images having different spatial frequencies f(z) toward the object 60 based on the received image data D1. Therefore, when the light intensity I(x, y) of the combined image observed on the imaging surface at time [i] is I(x, y) [i], the imaging device 30 causes the projector 20 to generate a plurality of pattern images. , Which is obtained by photoelectrically converting the light intensity I(x, y) [i] of the composite image projected at each time [i] and observed on the imaging surface in synchronization with the time [i] at which the images are sequentially projected. The image signal D2 is output.

従って、データ処理部50がディジタル画像信号D2から得られる時点[i]での合成画像の光強度I(x,y)[i]は、下記の数13で表される。 Therefore, the light intensity I(x, y) [i] of the combined image at the time [i] obtained by the data processing unit 50 from the digital image signal D2 is represented by the following Expression 13.

Figure 2020085618
Figure 2020085618

上記数13の両辺に、角周波数がω(w)[i]の正弦波信号を乗じると、下記の数14が得られる。 By multiplying both sides of the above Expression 13 by a sine wave signal having an angular frequency of ω(w)[i], the following Expression 14 is obtained.

Figure 2020085618
Figure 2020085618

上記数14右辺の積分内の全ての項は、時間の順序を規定するインデックスiに依存する。ここで、z=wの場合のみ、つまり、ω(z)[i]−ω(w)[i]=0となる場合には、上記数14右辺の積分内の第3項は、上記インデックスiに依存しなくなり、上記数14の連続的な信号I(x,y)[i]sin(ω(w)[i]x)の直流(DC)成分となる。当該連続的な信号のDC成分は、周知の離散的フーリエ変換(DFT)を行うことで、容易に抽出することができる。離散的フーリエ変換の演算子を〈F{s[i]}〉DCと規定すると、上記数14右辺の積分内の第3項は、下記の数15に示すように抽出される。 All terms in the integral on the right-hand side of Equation 14 above depend on the index i that defines the order of time. Here, only in the case of z=w, that is, in the case of ω(z)[i]−ω(w)[i]=0, the third term in the integral on the right-hand side of Equation 14 is the index It does not depend on i, and becomes a direct current (DC) component of the continuous signal I(x,y)[i]sin(ω(w)[i]x) of the above-mentioned equation 14. The DC component of the continuous signal can be easily extracted by performing a well-known discrete Fourier transform (DFT). When the operator of the discrete Fourier transform is defined as <F{s[i]}> DC , the third term in the integral on the right-hand side of Expression 14 above is extracted as shown in Expression 15 below.

Figure 2020085618
Figure 2020085618

同様に、上記数13の両辺に、角周波数がω(w)[i]の余弦波信号を乗じて、上述の離散的フーリエ変換(DFT)を行うと、下記の数16が得られる。 Similarly, when both sides of Expression 13 are multiplied by a cosine wave signal having an angular frequency of ω(w)[i] and the discrete Fourier transform (DFT) is performed, Expression 16 below is obtained.

Figure 2020085618
Figure 2020085618

cosφ+sinφ=1であるので、数15及び数16から下記の数17が導出される。 Since cos 2 φ+sin 2 φ=1, the following Equation 17 is derived from Equation 15 and Equation 16.

Figure 2020085618
Figure 2020085618

本項の算出対象である任意の3次元位置(x,y,z)における物体60の反射率R(x,y,z)は、上記数12を変形して、下記の数18で与えられる。 The reflectance R(x, y, z) of the object 60 at an arbitrary three-dimensional position (x, y, z) which is the calculation target of this section is given by the following Equation 18 by modifying the above Equation 12. ..

Figure 2020085618
Figure 2020085618

上述したように、深さzの前方(z<z)に何も存在しないと想定しているので、数18右辺の分母のE(x,y,z)は、深さzでは、E(x,y,z)=1となる。更に、深さzにおける振幅A(x,y,z)は、A(z)として既知である。以上より、深さzにおける物体60の反射率R(x,y,z)は、下記の数19で表される。 As described above, since it is assumed that nothing exists in front of the depth z 1 (z<z 1 ), the denominator E(x, y, z) of the right-hand side of Equation 18 is at the depth z 1 . , E(x, y, z 1 )=1. Furthermore, the amplitude A(x,y,z 1 ) at depth z 1 is known as A(z 1 ). From the above, the reflectance R(x, y, z 1 ) of the object 60 at the depth z 1 is represented by the following Expression 19.

Figure 2020085618
Figure 2020085618

次に、任意の3次元位置(x,y,z)における物体60の透過率T(x,y,z)は、下記の数20で与えられると想定する。 Next, it is assumed that the transmittance T(x, y, z) of the object 60 at an arbitrary three-dimensional position (x, y, z) is given by the following Expression 20.

Figure 2020085618
Figure 2020085618

ここで、深さzより僅かに後方の深さz(z=z+Δz)における減衰率E(x,y,z)と振幅A(x,y,z)は、夫々、数5と数7で算出できる。従って、深さzにおける物体60の反射率R(x,y,z)は、数18に基づいて算出できる。上記手順を繰り返すと、深さzより後方の任意の深さz(z>z)における物体60の反射率R(x,y,z)を算出できる。 Here, the depth of the back slightly from the depth z 1 z 2 (z 2 = z 1 + Δz) attenuation in E (x, y, z 2 ) and amplitude A (x, y, z 2 ) , respectively , And can be calculated by Equations 5 and 7. Therefore, the reflectance R(x, y, z 2 ) of the object 60 at the depth z 2 can be calculated based on Equation 18. Repeating the above procedure, the reflectivity R of the object 60 at the depth z 1 from the rear of any depth z (z> z 1) ( x, y, z) can be calculated.

[評価実験]
次に、図3に示す実験用のプロジェクタ・カメラシステムを用いて、上記本装置及び本方法を評価した結果を説明する。尚、上記システムでは、プロジェクタ20としてSKテレコム社製のレーザプロジェクタ202(型番:LB−UH6CB、解像度:1280×720)を使用し、撮像装置30として、エドモンド・オプティクス社製のテレセントリックレンズ31(商品コード:#55−348)を装着したFLIR社製のRGBカメラ32(商品名:Grasshopper3、解像度:1920×1440)を使用した。また、投影パターンの観測を阻害する物体60からの鏡面反射が撮像装置30の撮像面に入射するのを防止するため、レーザプロジェクタ202とテレセントリックレンズ31の各前面(物体60側)に、偏光子23,33を設置している。図3に示す実験用のシステム設定では、図2の説明用のシステム構成で想定したビームスプリッタ21は使用していない。このため、プロジェクタ20及び撮像装置30の各光学系の光軸は互いに平行であるが、同軸ではない。また、当該システム設定では、深さzは252.83mmであり、深さzにおけるオフセット値と振幅をD(z)=A(z)=127に設定した。また、深さzにおける正弦波パターンの空間周波数を、0.78125≦f(z)≦500mHz(Hz=1/m)の範囲内で0.78125mHz刻みで順次変化させた。インデックスiの総数nは600となる。
[Evaluation experiment]
Next, the results of evaluating the present apparatus and the present method using the experimental projector-camera system shown in FIG. 3 will be described. In the above system, a laser projector 202 (model number: LB-UH6CB, resolution: 1280×720) manufactured by SK Telecom Co., Ltd. is used as the projector 20, and a telecentric lens 31 (product by Edmond Optics Co., Ltd. An RGB camera 32 (trade name: Grasshopper 3, resolution: 1920×1440) manufactured by FLIR Co. equipped with a code: #55-348) was used. In addition, in order to prevent specular reflection from the object 60 that obstructs the observation of the projection pattern from entering the imaging surface of the imaging device 30, a polarizer is provided on each front surface (on the object 60 side) of the laser projector 202 and the telecentric lens 31. 23 and 33 are installed. In the experimental system setting shown in FIG. 3, the beam splitter 21 assumed in the explanatory system configuration of FIG. 2 is not used. Therefore, the optical axes of the optical systems of the projector 20 and the imaging device 30 are parallel to each other, but not coaxial. Further, in the system setting, the depth z 1 is 252.83 mm, and the offset value and the amplitude at the depth z 1 are set to D(z 1 )=A(z 1 )=127. Further, the spatial frequency of the sine wave pattern at the depth z 1 was sequentially changed in 0.78125 mHz steps within the range of 0.78125≦f(z)≦500 mHz (Hz=1/m). The total number n of the indexes i is 600.

使用したレーザプロジェクタ202は完全なフォーカス・フリーではなく、我々が確認したところ、合焦範囲として少なくとも250mmが必要である。 The laser projector 202 used is not completely focus free and we have determined that a focus range of at least 250 mm is required.

また、使用したテレセントリックレンズ31は、実用上の制約があり、被写界深度が浅く、作動距離も限られている。設定した撮像装置30では、被写界深度が60mm、近端の作動距離が130mmである。 Further, the used telecentric lens 31 has practical limitations, has a shallow depth of field, and has a limited working distance. In the set imaging device 30, the depth of field is 60 mm and the working distance at the near end is 130 mm.

計測対象の物体60として、図4に示すように、4枚のオーバーヘッド・プロジェクタ(OHP)用のシート61〜64を10mm間隔で前後(z方向)に重ね合わせたものを使用した。各シート61〜64には、手前から順に文字A,B,C,Dが夫々印刷されている。 As the object 60 to be measured, as shown in FIG. 4, four overhead projector (OHP) sheets 61 to 64 are stacked at 10 mm intervals in the front-rear direction (z direction). Characters A, B, C, and D are printed on the sheets 61 to 64 in order from the front.

図5(A)〜(D)に、最前面からの+z方向の深さが0mm、10mm、20mm、30mmでの各内部反射率の算出結果を示す。図5(A)(深さ:0mm)では、文字Aが他の文字B〜Dに比べて極めて鮮明に確認できる。図5(B)(深さ:10mm)及び図5(C)(深さ:20mm)においても、文字B及びCが夫々、他の文字に比べて鮮明に確認できる。図5(D)(深さ:30mm)では、文字C及びDの両方が確認できるが、文字A及びBは殆ど確認できない。 5A to 5D show the calculation results of the internal reflectances when the depth in the +z direction from the front surface is 0 mm, 10 mm, 20 mm, and 30 mm. In FIG. 5(A) (depth: 0 mm), the character A can be confirmed more clearly than the other characters B to D. In FIG. 5B (depth: 10 mm) and FIG. 5(C) (depth: 20 mm), the letters B and C can be clearly confirmed as compared with other letters. In FIG. 5D (depth: 30 mm), both the characters C and D can be confirmed, but the characters A and B can hardly be confirmed.

図5(A)〜(D)に示す実験結果は、本装置及び本方法によって、様々な物体内部の反射率を復元できることを十分に示している。 The experimental results shown in FIGS. 5A to 5D sufficiently show that the present apparatus and method can restore the reflectance inside various objects.

[別実施形態]
次に、上記実施形態の変形例(別実施形態)について説明する。
[Another embodiment]
Next, a modified example (another embodiment) of the above embodiment will be described.

〈1〉上記実施形態では、プロジェクタ20及び撮像装置30の各光学系の光軸が同軸であり、各光軸が第1平面に直交するため、第1平面は、プロジェクタ20の投影面及び撮像装置30の撮像面の両方と平行である。このため、第1平面上に投影されたx方向に正弦関数で表される光強度の周期的な振幅変化を有するパターン画像は、プロジェクタ20の投影面上においても同じx方向に正弦関数で表される光強度の周期的な振幅変化を有し、撮像装置30の撮像面上においても、結像された合成画像の内の当該パターン画像に対応する成分は、同じx方向に正弦関数で表される光強度の周期的な振幅変化を有する。 <1> In the above embodiment, the optical axes of the optical systems of the projector 20 and the imaging device 30 are coaxial, and the optical axes are orthogonal to the first plane. Therefore, the first plane is the projection surface of the projector 20 and the imaging plane. It is parallel to both imaging planes of device 30. Therefore, the pattern image projected on the first plane and having the periodic amplitude change of the light intensity represented by the sine function in the x direction is represented by the sine function in the same x direction on the projection surface of the projector 20. The component corresponding to the pattern image in the combined image formed on the image pickup surface of the image pickup apparatus 30 is represented by a sine function in the same x direction. It has a periodic amplitude change of the light intensity.

このため、xy平面が投影面と平行でプロジェクタ20の光学系の光軸がz軸となるプロジェクタ20側の直交座標系と、第1平面上の3次元位置を規定する直交座標系の間で座標変化を行う必要がなく、パターン画像生成部40は、第1平面上において方向に正弦関数で表される光強度の周期的な振幅変化を有するパターン画像の画像データD1を、同じ座標系で作成することができる。 Therefore, between the orthogonal coordinate system on the projector 20 side in which the xy plane is parallel to the projection plane and the optical axis of the optical system of the projector 20 is the z axis, and the orthogonal coordinate system that defines the three-dimensional position on the first plane. There is no need to change the coordinates, and the pattern image generation unit 40 uses the same coordinate system to generate the image data D1 of the pattern image having the periodic amplitude change of the light intensity represented by the sine function in the direction on the first plane. Can be created.

更に、xy平面が撮像面と平行で撮像装置30の光学系の光軸がz軸となる撮像装置30側の直交座標系と、第1平面上の3次元位置を規定する直交座標系の間で座標変化を行う必要がないため、数10で与えられる撮像面上の合成画像の光強度I(x,y)を示すディジタル画像信号D2から任意の第1平面上の任意の3次元位置(x,y,z)における物体60の反射率(x,y,z)の算出する過程において、第1平面上の直交座標系と撮像装置30側の直交座標系の間で座標変換を行うことなく、同じ座標系で処理を行うことができる。 Further, between the orthogonal coordinate system on the side of the imaging device 30 in which the xy plane is parallel to the imaging surface and the optical axis of the optical system of the imaging device 30 is the z axis, and the orthogonal coordinate system that defines the three-dimensional position on the first plane. Since it is not necessary to change the coordinates at, the digital image signal D2 indicating the light intensity I(x, y) of the composite image on the image pickup surface given by the equation 10 is used to determine an arbitrary three-dimensional position on the arbitrary first plane ( In the process of calculating the reflectance (x, y, z) of the object 60 at (x, y, z), coordinate conversion is performed between the orthogonal coordinate system on the first plane and the orthogonal coordinate system on the side of the imaging device 30. Instead, processing can be performed in the same coordinate system.

しかしながら、プロジェクタ20と撮像装置30の間の配置は、図2及び図3に例示した相対的な位置関係に限定されるものではないため、一般的に、プロジェクタ20と撮像装置30の各光学系の光軸は互いに平行とはならないシステム設定もあり得る。この場合、プロジェクタ20側の直交座標系と撮像装置30側の直交座標系の一方を、第1平面上の直交座標系に一致させ、他方と第1平面上の直交座標系の間で座標変換を行えば、パターン画像生成部40とデータ処理部50は、上記実施形態で説明した内容の処理が同様に行える。 However, the arrangement between the projector 20 and the imaging device 30 is not limited to the relative positional relationship illustrated in FIGS. 2 and 3, and therefore, the optical systems of the projector 20 and the imaging device 30 are generally arranged. There may be system settings where the optical axes of the are not parallel to each other. In this case, one of the orthogonal coordinate system on the side of the projector 20 and the orthogonal coordinate system on the side of the imaging device 30 is made to coincide with the orthogonal coordinate system on the first plane, and coordinate conversion is performed between the other and the orthogonal coordinate system on the first plane. Then, the pattern image generation unit 40 and the data processing unit 50 can perform the same processing as that described in the above embodiment.

ここで、プロジェクタ20と撮像装置30の各光学系の光軸は互いに平行とはならない設定では、プロジェクタ20側の直交座標系を第1平面上の直交座標系に一致させる第1の実施態様の方が、撮像装置30側の直交座標系を第1平面上の直交座標系に一致させる第2の実施態様より好ましいと考えられる。その理由として、一般的に、撮像装置30に使用する撮像素子に比べて、プロジェクタ用素子の空間解像度が低く、ダイナミックレンジも低いため、第2の実施態様より第1の実施態様の方が、座標変換に伴う誤差を抑制できると考えられる。 Here, in a setting in which the optical axes of the optical systems of the projector 20 and the image pickup apparatus 30 are not parallel to each other, the orthogonal coordinate system on the projector 20 side matches the orthogonal coordinate system on the first plane. It is considered that this is more preferable than the second embodiment in which the orthogonal coordinate system on the side of the imaging device 30 matches the orthogonal coordinate system on the first plane. The reason is that, in general, the projector element has a lower spatial resolution and a lower dynamic range than the image pickup element used in the image pickup apparatus 30, and thus the first embodiment is more preferable than the second embodiment. It is considered that the error caused by coordinate conversion can be suppressed.

〈2〉上記実施形態では、合成画像の光強度I(x,y)に対して、空間的な相関処理として、直接変換技術(ホモダイン検波)を採用して、特定の深さzの信号を抽出した。しかし、空間的な相関処理として、ヘテロダイン検波を採用しても同様の結果が得られる。 <2> In the above-described embodiment, the direct conversion technique (homodyne detection) is adopted as the spatial correlation processing with respect to the light intensity I(x, y) of the combined image to obtain a signal of a specific depth z. Extracted. However, the same result can be obtained even if the heterodyne detection is adopted as the spatial correlation processing.

ヘテロダイン検波の場合、数14において、数13の両辺に乗じる正弦波信号の角周波数がω(w)[i]=ω(z)[i]ではなく、ω(w)[i]=ω(z)[i]+Δωとする。その結果、数14右辺の積分内の第3項の角周波数は、Δωとなる。ここで、Δωとして、微小な値を設定すると、ローパスフィルタ処理を施すことで、当該第3項を抽出することができる。また、当該第3項には、DCからΔωまでの周波数成分が含まれるため、更に、ホモダイン検波を行うことで、角周波数Δωの信号を抽出することもできる。しかし、本装置及び本方法において、ヘテロダイン検波を採用した場合、直接変換技術(ホモダイン検波)を採用する場合と比較して、数15及び数16に示すDC成分を抽出するための処理数が増えるので、直接変換技術(ホモダイン検波)を使用すれば十分である。 In the case of heterodyne detection, in Equation 14, the angular frequency of the sine wave signal multiplied on both sides of Equation 13 is not ω(w)[i]=ω(z)[i], but ω(w)[i]=ω( z) [i]+Δω. As a result, the angular frequency of the third term in the integral on the right side of Expression 14 is Δω. Here, if a small value is set as Δω, the third term can be extracted by performing low-pass filter processing. Further, since the third term includes frequency components from DC to Δω, homodyne detection can be further performed to extract a signal of angular frequency Δω. However, in the present apparatus and the present method, when heterodyne detection is adopted, the number of processes for extracting the DC component shown in Expressions 15 and 16 is increased as compared with the case where the direct conversion technique (homodyne detection) is adopted. Therefore, it is sufficient to use the direct conversion technique (homodyne detection).

〈3〉上記実施形態では、パターン画像は、第1平面上の光の強度L(x,y,z)が、xを変数とする正弦関数で表される1方向(x方向)に沿って周期的に振幅変化する場合を想定したが、x及びyを変数とする正弦関数で表される2方向(例えば、x方向とy方向、つまり、直交する2方向)に沿って周期的な振幅変化するようにしてもよい。 <3> In the above embodiment, the pattern image has the light intensity L(x, y, z) on the first plane along one direction (x direction) represented by a sine function having x as a variable. It is assumed that the amplitude changes periodically, but the amplitude is cyclic along two directions (for example, the x direction and the y direction, that is, two directions that are orthogonal) represented by a sine function having x and y as variables. It may be changed.

上述の評価実験とは別にシミュレーションにより、上述の評価実験より複雑な内部構造の物体60を計測対象とした場合について評価した結果、パターン画像が1方向(x方向)に沿って周期的に振幅変化する場合は、物体内部の反射率の算出結果の誤差の大きい部分が、物体内部の比較的深い箇所で、当該1方向と直交する方向(y方向)に沿って発生し易いことが確認されている。従って、パターン画像を、x及びyを変数とする正弦関数で表される2方向に沿って周期的な振幅変化させると、上述の誤差の発生が抑制され好ましい。 As a result of evaluation of a case where the object 60 having a more complicated internal structure is measured as a measurement target by simulation separately from the above-described evaluation experiment, the pattern image periodically changes in amplitude along one direction (x direction). In this case, it has been confirmed that a portion having a large error in the calculation result of the reflectance inside the object is likely to occur at a relatively deep portion inside the object along the direction (y direction) orthogonal to the one direction. There is. Therefore, it is preferable to change the amplitude of the pattern image periodically along two directions represented by a sine function having x and y as variables, because the above-mentioned error is suppressed.

以下、パターン画像の光強度L(x,y,z)が2方向に沿って周期的な振幅変化する場合について、上述の反射率(x,y,z)の算出手順で説明した数式がどのように変更されるかを、主要な数式についてのみ説明する。 In the following, in the case where the light intensity L(x, y, z) of the pattern image changes periodically along two directions, which of the mathematical expressions has been described in the procedure for calculating the reflectance (x, y, z) is Only the major formulas will be explained.

数13は、下記の数21のように変更され、数2は、下記の数22及び数23に分解される。 Expression 13 is changed to Expression 21 below, and Expression 2 is decomposed into Expressions 22 and 23 below.

Figure 2020085618
Figure 2020085618

Figure 2020085618
Figure 2020085618
Figure 2020085618
Figure 2020085618

次に、数21の両辺に、x方向に対して、角周波数がω(w)[i]の正弦波信号を乗じると、上記数14に代えて、下記の数24が得られる。 Next, by multiplying both sides of Expression 21 by a sine wave signal having an angular frequency ω x (w)[i] in the x direction, the following Expression 24 is obtained instead of Expression 14 above.

Figure 2020085618
Figure 2020085618

ここで、z=wの場合のみ、上記数24右辺の積分内の第3項は、上記インデックスiに依存しなくなり、上記数24の連続的な信号I(x,y)[i]sin(ω(w)[i]x)のDC成分となる。当該連続的な信号のDC成分は、周知の離散的フーリエ変換(DFT)を行うことで、上記数15に代えて、下記の数25として、容易に抽出することができる。 Here, only when z=w, the third term in the integral on the right side of the equation 24 does not depend on the index i, and the continuous signal I(x, y)[i]sin(24) of the equation 24 is obtained. It becomes a DC component of ω x (w)[i]x). The DC component of the continuous signal can be easily extracted as the following Expression 25 instead of Expression 15 by performing the well-known discrete Fourier transform (DFT).

Figure 2020085618
Figure 2020085618

同様に、上記数21の両辺に、角周波数がω(w)[i]の余弦波信号を乗じて、上述の離散的フーリエ変換(DFT)を行うと、上記数16に代えて、下記の数26が得られる。 Similarly, when the discrete Fourier transform (DFT) described above is performed by multiplying both sides of Expression 21 by a cosine wave signal having an angular frequency of ω x (w)[i], instead of Expression 16 below, 26 is obtained.

Figure 2020085618
Figure 2020085618

cosφ+sinφ=1であるので、数25及び数26から、上記数17に代えて、下記の数27が導出される。 Since cos 2 φ x +sin 2 φ x =1, the following Equation 27 is derived from Equation 25 and Equation 26 instead of Equation 17 above.

Figure 2020085618
Figure 2020085618

次に、数21の両辺に、y方向に対して、角周波数がω(w)[i]の正弦波信号を乗じると、上記数14に代えて、下記の数28が得られる。 Next, by multiplying both sides of Expression 21 by a sine wave signal having an angular frequency of ω y (w)[i] in the y direction, the following Expression 28 is obtained instead of Expression 14 above.

Figure 2020085618
Figure 2020085618

ここで、z=wの場合のみ、上記数28右辺の積分内の第5項は、上記インデックスiに依存しなくなり、上記数28の連続的な信号I(x,y)[i]sin(ω(w)[i]y)のDC成分となる。当該連続的な信号のDC成分は、周知の離散的フーリエ変換(DFT)を行うことで、上記数15に代えて、下記の数29として、容易に抽出することができる。 Here, only when z=w, the fifth term in the integral on the right-hand side of Equation 28 does not depend on the index i, and the continuous signal I(x,y)[i]sin( It becomes the DC component of ω y (w)[i]y). The DC component of the continuous signal can be easily extracted by the well-known Discrete Fourier Transform (DFT) as the following Equation 29 instead of the above Equation 15.

Figure 2020085618
Figure 2020085618

同様に、上記数21の両辺に、角周波数がωy(w)[i]の余弦波信号を乗じて、上述の離散的フーリエ変換(DFT)を行うと、上記数16に代えて、下記の数30が得られる。 Similarly, when both sides of the equation 21 are multiplied by a cosine wave signal having an angular frequency of ω y (w)[i] and the discrete Fourier transform (DFT) is performed, Is obtained.

Figure 2020085618
Figure 2020085618

cosφ+sinφ=1であるので、数29及び数30から、上記数17に代えて、下記の数31が導出される。 Since cos 2 φ y +sin 2 φ y =1, the following Equation 31 is derived from Equation 29 and Equation 30 instead of Equation 17 above.

Figure 2020085618
Figure 2020085618

以上より、振幅A(x,y,z)は、x方向及びy方向夫々での直接変換処理により、数27及び数31の2通りの算出結果が得られる。このため、上記数18で与えられる本項の算出対象である任意の3次元位置(x,y,z)における物体60の反射率R(x,y,z)も2通りの算出結果が得られる。よって、最も簡易な方法としては、上記数18右辺の分子の振幅A(x,y,z)として、数27及び数31の2通りの算出結果の平均値を使用することが考えられる。更に、任意の3次元位置(x,y,z)において、振幅A(x,y,z)の2通りの算出結果の差分ΔA(x,y,z)が所定の閾値A th以上の場合(ΔA(x,y,z)≧A th)、振幅A(x,y,z)の2通りの算出結果の内、周囲の振幅A(x,y,z)との差が小さい方の算出結果を選択する等の方法も考えられる。 From the above, the amplitude A * (x, y, z) can be obtained by two direct conversion processes in the x-direction and the y-direction, respectively, as two calculation results of Expressions 27 and 31. Therefore, the reflectance R(x, y, z) of the object 60 at an arbitrary three-dimensional position (x, y, z), which is the calculation target of this section given by the above-mentioned Equation 18, also has two calculation results. Be done. Therefore, as the simplest method, it is conceivable to use the average value of the two calculation results of the equations 27 and 31 as the numerator amplitude A * (x, y, z) on the right side of the equation 18. Further, in any three-dimensional position (x, y, z), an amplitude A * (x, y, z ) the difference between the calculation results of the two types of ΔA * (x, y, z ) is the predetermined threshold value A * th for more than (ΔA * (x, y, z) ≧ a * th), * the amplitude a * (x, y, z ) of the two types of calculation results of the periphery of the amplitude a (x, y, z) A method such as selecting the calculation result having the smaller difference from is also conceivable.

以上の要領で、本項の算出対象である任意の3次元位置(x,y,z)における物体60の反射率R(x,y,z)が算出されると、パターン画像の第1平面上の光の強度L(x,y,z)が、x及びyを変数とする正弦関数で表される2方向に沿って周期的な振幅変化する場合においても、上記実施形態で説明したパターン画像の第1平面上の光の強度L(x,y,z)が、xを変数とする正弦関数で表される1方向(x方向)に沿って周期的に振幅変化する場合と同様に、上記数19により、深さzにおける物体60の反射率R(x,y,z)を算出し、以降、同じ手順を繰り返して、深さzより後方の任意の深さz(z>z)における物体60の反射率R(x,y,z)を算出できる。 When the reflectance R(x, y, z) of the object 60 at an arbitrary three-dimensional position (x, y, z) which is the calculation target of this section is calculated in the above manner, the first plane of the pattern image is calculated. Even when the upper light intensity L(x, y, z) changes periodically in amplitude along two directions represented by a sine function having x and y as variables, the pattern described in the above embodiment Similar to the case where the light intensity L(x, y, z) on the first plane of the image periodically changes in amplitude along one direction (x direction) represented by a sine function having x as a variable. , The reflectance R(x, y, z 1 ) of the object 60 at the depth z 1 is calculated, and thereafter, the same procedure is repeated to determine an arbitrary depth z() after the depth z 1. The reflectance R(x, y, z) of the object 60 when z>z 1 ) can be calculated.

〈4〉上記実施形態では、物体内部の光学特性として、任意の3次元位置(x,y,z)における物体60内部の反射率(x,y,z)を算出する実施態様を具体的に説明したが、反射率に代えて、或いは、追加して、物体内部の各3次元位置(x,y,z)における物体60内部の透過率、散乱係数、吸収係数等を、反射率(x,y,z)と同様に、撮像面上の合成画像の光強度I(x,y)を示すディジタル画像信号D2から算出するようにしてもよい。 <4> In the above embodiment, as an optical characteristic inside the object, a specific embodiment in which the reflectance (x, y, z) inside the object 60 at an arbitrary three-dimensional position (x, y, z) is calculated. As described above, instead of or in addition to the reflectance, the transmittance, the scattering coefficient, the absorption coefficient, etc. inside the object 60 at each three-dimensional position (x, y, z) inside the object are calculated as the reflectance (x , Y, z), the light intensity I(x, y) of the combined image on the imaging surface may be calculated from the digital image signal D2.

本発明の計測装置及び方法は、物体内部の3次元空間における光学特性を計測する計測装置及び方法に利用できる。一例として、人体や食品等の物体内部の可視化装置に応用できる。より具体的には、本発明の計測装置及び方法によって、眼底検査装置や皮下撮像装置等の医療機器を安価に実現でき、更に、家庭向けの簡易装置の実現も期待できる。 INDUSTRIAL APPLICABILITY The measuring device and method of the present invention can be used as a measuring device and method for measuring optical characteristics in a three-dimensional space inside an object. As an example, it can be applied to a visualization device inside an object such as a human body or food. More specifically, with the measuring device and method of the present invention, medical devices such as a fundus examination device and a subcutaneous imaging device can be realized at low cost, and further, a simple device for home use can be expected.

10 : 計測装置
21 : ビームスプリッタ
22 : レーザプロジェクタ
23 : 偏光子
20 : プロジェクタ
30 : 撮像装置
31 : テレセントリックレンズ
32 : RGBカメラ
33 : 偏光子
40 : パターン画像生成部
50 : データ処理部
60 : 物体(計測対象物)
61〜64: OHPシート
10: Measuring device 21: Beam splitter 22: Laser projector 23: Polarizer 20: Projector 30: Imaging device 31: Telecentric lens 32: RGB camera 33: Polarizer 40: Pattern image generating unit 50: Data processing unit 60: Object ( Measurement object)
61-64: OHP sheet

Claims (10)

物体内部の光学特性を計測する計測装置であって、
前記物体を透過可能な光を用いてパターン画像を前記物体に向けて投影するプロジェクタと、
前記プロジェクタから投影された前記パターン画像の光の内、前記物体の表面及び内部の各3次元位置で反射した光が、前記光を感知可能な撮像面上に入射して結像することにより合成された合成画像をディジタル画像信号に変換して出力する撮像装置と、
前記物体を横切る所定の第1平面内において少なくとも1方向に正弦関数で表される光強度の周期的な振幅変化を有する前記パターン画像の画像データであって、前記正弦関数の互いに異なる複数の空間周波数に各別に対応する複数の前記パターン画像の前記画像データを生成して、前記プロジェクタに入力することにより、前記プロジェクタに対して前記空間周波数が互いに異なる複数の前記パターン画像を、前記空間周波数を時間的に順次変化させながら各別に、前記物体に向けて投影させるパターン画像生成部と、
前記パターン画像生成部において生成された前記画像データにおける複数の前記空間周波数、及び、前記撮像装置から出力される前記複数の空間周波数に各別に対応した複数の前記合成画像の前記ディジタル画像信号を入力として、これらの入力に対して所定の相関演算処理を行い、前記物体の表面及び内部の特定の3次元位置から反射した光の信号振幅を抽出して、抽出した各3次元位置の前記信号振幅に基づいて前記物体の表面及び内部の各3次元位置における前記光学特性を算出するデータ処理部と、を備え、
前記プロジェクタと前記撮像装置の各光学系の焦点距離が互いに異なっていることを特徴とする計測装置。
A measuring device for measuring optical characteristics inside an object,
A projector that projects a pattern image toward the object using light that can pass through the object;
Of the light of the pattern image projected from the projector, the light reflected at each of the three-dimensional positions on the surface and the inside of the object is incident on the imaging surface where the light can be sensed and is imaged to be combined. An imaging device for converting the synthesized image thus converted into a digital image signal and outputting the digital image signal;
Image data of the pattern image having a periodic amplitude change of a light intensity represented by a sine function in at least one direction in a predetermined first plane across the object, the plurality of spaces having different sine functions. By generating the image data of the plurality of pattern images respectively corresponding to frequencies and inputting the image data to the projector, the plurality of pattern images having different spatial frequencies from each other with respect to the projector, A pattern image generation unit for projecting toward the object separately while sequentially changing in time,
Input the plurality of spatial frequencies in the image data generated by the pattern image generation unit and the digital image signals of the plurality of composite images respectively corresponding to the plurality of spatial frequencies output from the imaging device. As a result, a predetermined correlation calculation process is performed on these inputs to extract the signal amplitude of the light reflected from a specific three-dimensional position on the surface and inside of the object, and the signal amplitude of each extracted three-dimensional position. A data processing unit that calculates the optical characteristics at each of the three-dimensional positions on the surface and inside of the object based on
A measuring apparatus, wherein focal lengths of optical systems of the projector and the image pickup apparatus are different from each other.
前記プロジェクタと前記撮像装置の各光学系の光軸が互いに平行であって、前記第1平面と直交していることを特徴とする請求項1に記載の計測装置。 The measuring device according to claim 1, wherein the optical axes of the optical systems of the projector and the imaging device are parallel to each other and orthogonal to the first plane. 前記プロジェクタが透視投影プロジェクタであり、前記撮像装置が平行投影カメラで構成されていることを特徴とする請求項1または2に記載の計測装置。 The measuring device according to claim 1, wherein the projector is a perspective projection projector, and the imaging device is a parallel projection camera. 前記データ処理部が、前記複数の前記ディジタル画像信号の順次変化する前記各空間周波数に各別に対応する複数の光強度に、前記各空間周波数に対応する角周波数の正弦関数値を各別に乗じて得られる第1データ列と、前記複数の光強度に、前記各空間周波数に対応する前記角周波数の余弦関数値を各別に乗じて得られる第2データ列に対して、離散的フーリエ変換を各別に施して得られた各演算結果に基づいて、前記信号振幅の抽出を行うことを特徴とする請求項1〜3の何れか1項に記載の計測装置。 The data processing unit multiplies a plurality of light intensities corresponding to the spatial frequencies that sequentially change of the plurality of digital image signals, respectively, by a sine function value of an angular frequency corresponding to each spatial frequency. A discrete Fourier transform is performed on each of the obtained first data sequence and the second data sequence obtained by multiplying the plurality of light intensities by the cosine function value of the angular frequency corresponding to each spatial frequency. The measuring device according to claim 1, wherein the signal amplitude is extracted based on each calculation result obtained separately. 前記パターン画像の前記光強度の周期的な振幅変化が、前記第1平面内の直交する2方向の変化であることを特徴とする請求項1〜4の何れか1項に記載の計測装置。 The measuring apparatus according to claim 1, wherein the periodic amplitude change of the light intensity of the pattern image is a change in two orthogonal directions in the first plane. 物体内部の光学特性を計測する計測方法であって、
前記物体を透過可能な光を用いてパターン画像を前記物体に向けて投影するプロジェクタと、
前記プロジェクタから投影された前記パターン画像の光の内、前記物体の表面及び内部の各3次元位置で反射した光が、前記光を感知可能な撮像面上に入射して結像することにより合成された合成画像をディジタル画像信号に変換して出力する撮像装置を用いて、
前記物体を横切る所定の第1平面内において少なくとも1方向に正弦関数で表される光強度の周期的な振幅変化を有する前記パターン画像の画像データであって、前記正弦関数の互いに異なる複数の空間周波数に各別に対応する複数の前記パターン画像の前記画像データを生成して、前記プロジェクタに入力することにより、前記プロジェクタに対して前記空間周波数が互いに異なる複数の前記パターン画像を、前記空間周波数を時間的に順次変化させながら各別に、前記物体に向けて投影させるパターン画像生成工程と、
前記パターン画像生成工程において生成された前記画像データにおける複数の前記空間周波数、及び、前記撮像装置から出力される前記複数の空間周波数に各別に対応した複数の前記合成画像の前記ディジタル画像信号を入力として、これらの入力に対して所定の相関演算処理を行い、前記物体の表面及び内部の特定の3次元位置から反射した光の信号振幅を抽出して、抽出した各3次元位置の前記信号振幅に基づいて前記物体の表面及び内部の各3次元位置における前記光学特性を算出するデータ処理工程と、を備え、
前記プロジェクタと前記撮像装置の各光学系の焦点距離が互いに異なっていることを特徴とする計測方法。
A measurement method for measuring optical characteristics inside an object,
A projector that projects a pattern image toward the object using light that can pass through the object;
Of the light of the pattern image projected from the projector, the light reflected at each of the three-dimensional positions on the surface and the inside of the object is incident on the imaging surface where the light can be sensed and is imaged to be combined. By using the image pickup device that converts the synthesized image into a digital image signal and outputs it,
Image data of the pattern image having a periodic amplitude change of a light intensity represented by a sine function in at least one direction in a predetermined first plane across the object, the plurality of spaces having different sine functions. By generating the image data of the plurality of pattern images respectively corresponding to frequencies and inputting the image data to the projector, the plurality of pattern images having different spatial frequencies from each other with respect to the projector, A pattern image generating step of projecting toward the object separately while sequentially changing in time;
Input the plurality of spatial frequencies in the image data generated in the pattern image generation step, and the digital image signals of the plurality of composite images respectively corresponding to the plurality of spatial frequencies output from the imaging device. As a result, a predetermined correlation calculation process is performed on these inputs to extract the signal amplitude of the light reflected from a specific three-dimensional position on the surface and inside of the object, and the signal amplitude of each extracted three-dimensional position. A data processing step of calculating the optical characteristic at each of the three-dimensional positions on the surface and inside of the object based on
A measuring method characterized in that focal lengths of respective optical systems of the projector and the imaging device are different from each other.
前記プロジェクタと前記撮像装置の各光学系の光軸が互いに平行であって、前記第1平面と直交していることを特徴とする請求項6に記載の計測方法。 7. The measuring method according to claim 6, wherein the optical axes of the optical systems of the projector and the imaging device are parallel to each other and orthogonal to the first plane. 前記プロジェクタが透視投影プロジェクタであり、前記撮像装置が平行投影カメラで構成されていることを特徴とする請求項6または7に記載の計測方法。 8. The measuring method according to claim 6, wherein the projector is a perspective projection projector, and the imaging device is a parallel projection camera. 前記データ処理工程において、前記複数の前記ディジタル画像信号の順次変化する前記各空間周波数に各別に対応する複数の光強度に、前記各空間周波数に対応する角周波数の正弦関数値を各別に乗じて得られる第1データ列と、前記複数の光強度に、前記各空間周波数に対応する前記角周波数の余弦関数値を各別に乗じて得られる第2データ列に対して、離散的フーリエ変換を各別に施して得られた各演算結果に基づいて、前記信号振幅の抽出を行うことを特徴とする請求項6〜8の何れか1項に記載の計測方法。 In the data processing step, a plurality of light intensities corresponding to the spatial frequencies of the plurality of digital image signals that sequentially change are respectively multiplied by a sine function value of an angular frequency corresponding to the spatial frequencies. A discrete Fourier transform is performed on each of the obtained first data sequence and the second data sequence obtained by multiplying the plurality of light intensities by the cosine function value of the angular frequency corresponding to each spatial frequency. 9. The measuring method according to claim 6, wherein the signal amplitude is extracted based on each calculation result obtained separately. 前記パターン画像の前記光強度の周期的な振幅変化が、前記第1平面内の直交する2方向の変化であることを特徴とする請求項6〜9の何れか1項に記載の計測方法。
The measuring method according to claim 6, wherein the periodic amplitude change of the light intensity of the pattern image is a change in two orthogonal directions in the first plane.
JP2018219125A 2018-11-22 2018-11-22 Measuring device and method for measuring optical properties inside an object Active JP7222524B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018219125A JP7222524B2 (en) 2018-11-22 2018-11-22 Measuring device and method for measuring optical properties inside an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018219125A JP7222524B2 (en) 2018-11-22 2018-11-22 Measuring device and method for measuring optical properties inside an object

Publications (2)

Publication Number Publication Date
JP2020085618A true JP2020085618A (en) 2020-06-04
JP7222524B2 JP7222524B2 (en) 2023-02-15

Family

ID=70907623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018219125A Active JP7222524B2 (en) 2018-11-22 2018-11-22 Measuring device and method for measuring optical properties inside an object

Country Status (1)

Country Link
JP (1) JP7222524B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016080393A (en) * 2014-10-10 2016-05-16 キヤノン株式会社 Three-dimensional measuring device, three-dimensional measuring method, and program
WO2017168711A1 (en) * 2016-03-31 2017-10-05 株式会社ニコン Imaging element, imaging system, and imaging method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016080393A (en) * 2014-10-10 2016-05-16 キヤノン株式会社 Three-dimensional measuring device, three-dimensional measuring method, and program
WO2017168711A1 (en) * 2016-03-31 2017-10-05 株式会社ニコン Imaging element, imaging system, and imaging method

Also Published As

Publication number Publication date
JP7222524B2 (en) 2023-02-15

Similar Documents

Publication Publication Date Title
CN110132175B (en) Single-pixel phase imaging method and device based on amplitude modulation
US20120281087A1 (en) Three-dimensional scanner for hand-held phones
EP2905575B1 (en) Image sequence and evaluation method, system and computer program for structured illumination microscopy for measuring a 3D height map
US10206580B2 (en) Full-field OCT system using wavelength-tunable laser and three-dimensional image correction method
JP2012507690A (en) Analysis method, radiation imaging apparatus using the analysis method, and analysis program for executing the analysis method
JP2011064482A (en) Device and method of high-speed three-dimensional measurement
Ettl et al. Flying triangulation—an optical 3D sensor for the motion-robust acquisition of complex objects
JP6590339B2 (en) Measuring method, measuring apparatus, measuring program, and computer-readable recording medium recording the measuring program
Budianto et al. Marker encoded fringe projection profilometry for efficient 3D model acquisition
EP3989169A1 (en) Hybrid photogrammetry
EP3582183B1 (en) Deflectometric techniques
CN105844623A (en) Target object depth information obtaining method based on De sequence hybrid coding
JP7222524B2 (en) Measuring device and method for measuring optical properties inside an object
KR100871270B1 (en) Method of Generating Image Information of Sample Using Optical Interferometer And Apparatus Using The Same
Gong et al. High-resolution, high-speed three-dimensional shape measurement using projector defocusing
Liu et al. Investigation of phase pattern modulation for digital fringe projection profilometry
Jawad et al. Measuring object dimensions and its distances based on image processing technique by analysis the image using sony camera
Visentini-Scarzanella et al. Tissue shape acquisition with a hybrid structured light and photometric stereo endoscopic system
Ricci et al. High-resolution laser radar for 3D imaging in artwork cataloging, reproduction, and restoration
Zhang et al. Three-dimensional data merging using Holoimage
CN116385515A (en) Pixel depth of field determining method, three-dimensional reconstruction method, system and electronic equipment
Chávez et al. Graphical user interface (GUIDE) for the control of two methods of recovery profiles for tridimensional objects
JP6945106B2 (en) Inspection system
JP6909377B2 (en) Inspection system and inspection method
RU2522840C1 (en) Electronic space scanning method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230127

R150 Certificate of patent or registration of utility model

Ref document number: 7222524

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150