JP7058901B1 - 3D imager - Google Patents

3D imager Download PDF

Info

Publication number
JP7058901B1
JP7058901B1 JP2021211632A JP2021211632A JP7058901B1 JP 7058901 B1 JP7058901 B1 JP 7058901B1 JP 2021211632 A JP2021211632 A JP 2021211632A JP 2021211632 A JP2021211632 A JP 2021211632A JP 7058901 B1 JP7058901 B1 JP 7058901B1
Authority
JP
Japan
Prior art keywords
dimensional
light
light receiving
optical path
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021211632A
Other languages
Japanese (ja)
Other versions
JP2023095625A (en
Inventor
達夫 長▲崎▼
のりこ 安間
広朗 長▲崎▼
聡美 森久保
Original Assignee
のりこ 安間
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by のりこ 安間 filed Critical のりこ 安間
Priority to JP2021211632A priority Critical patent/JP7058901B1/en
Priority to PCT/JP2022/017973 priority patent/WO2022224917A1/en
Application granted granted Critical
Publication of JP7058901B1 publication Critical patent/JP7058901B1/en
Publication of JP2023095625A publication Critical patent/JP2023095625A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】簡易な構造で、被写体に対し3次元の解像と分光画像の検出を同時に実現できる3次元撮像装置を提供すること。【解決手段】 3次元撮像装置は、光の周波数、もしくは、光の振幅変調の周波数を掃引して被写体を照明する照明光を供給する光源と、被写体からの反射光と参照光を合波して干渉縞を発生させる光干渉計と、2次元配列の受光素子、及び1次元配列の受光素子と1次元走査の組合せ、及び単体受光素子と1次元走査の組合せの、いずれかによって、干渉縞を2次元の位置で電気信号として検出する2次元検出機構と、2次元検出機構の2次元の検出位置における反射光と参照光の光路差を、3次元の画素ごとに算出する光路差算出手段と、を備え、干渉縞と光路差の情報を使用した処理によって、被写体を3次元に解像する。【選択図】図1PROBLEM TO BE SOLVED: To provide a three-dimensional image pickup apparatus capable of simultaneously realizing three-dimensional resolution and detection of a spectroscopic image for a subject with a simple structure. SOLUTION: A three-dimensional image pickup device combines a light source that supplies illumination light for illuminating a subject by sweeping the frequency of light or the frequency of amplitude modulation of light, and the reflected light and reference light from the subject. Interference fringes depending on the combination of an optical interferometer that generates interference fringes, a two-dimensional array of light receiving elements, a one-dimensional array of light receiving elements and one-dimensional scanning, and a single light receiving element and one-dimensional scanning combination. A two-dimensional detection mechanism that detects as an electric signal at a two-dimensional position, and an optical path difference calculation means that calculates the optical path difference between the reflected light and the reference light at the two-dimensional detection position of the two-dimensional detection mechanism for each three-dimensional pixel. And, the subject is resolved three-dimensionally by the processing using the information of the interference fringe and the optical path difference. [Selection diagram] Fig. 1

Description

本発明は3次元撮像装置に関する。特に、光干渉法によって反射光の振幅と位相を検出し、検出結果を使用した電気的な処理によって3次元の解像を行い、3次元の画素ごとに、合焦と、光波面の乱れで劣化した解像度の回復と、スペクトル解析ができる3次元撮像装置に関する。 The present invention relates to a three-dimensional image pickup device. In particular, the amplitude and phase of the reflected light are detected by the optical interferometry, and three-dimensional resolution is performed by electrical processing using the detection results. It relates to a three-dimensional image pickup device capable of recovering a deteriorated resolution and analyzing a spectrum.

被写体を3次元に解像し、その情報から、被写体の表面や内部の画像(断面像、断層像、透過像)を検出したり、3次元の被写体の形状を測定したりするニーズが、工業用途、医療用途を問わず強い。そのため、後述するように、様々な撮像技術や測定技術が存在している。 There is a need to resolve the subject in three dimensions, detect the surface and internal images (cross-sectional image, tomographic image, transmission image) of the subject from the information, and measure the shape of the three-dimensional subject. Strong regardless of use or medical use. Therefore, as will be described later, there are various imaging techniques and measurement techniques.

さらに近年、上述の3次元の撮像と同時に、3次元の画素ごとの組成成分を、反射スペクトルの解析によって非接触に分析したいというニーズが、工業用途、医療用途を問わず強くなっている(例えば、特許文献1参照)。 Further, in recent years, there has been a growing need for non-contact analysis of the composition components of each three-dimensional pixel by analyzing the reflection spectrum at the same time as the above-mentioned three-dimensional imaging (for example, for both industrial and medical applications). , Patent Document 1).

(3次元形状検出技術)
非接触に3次元形状を測定する技術として、焦点移動方式、共焦点移動方式、光干渉方式、フリンジ投影法式などが知られている。
(3D shape detection technology)
As a technique for measuring a three-dimensional shape in a non-contact manner, a focal movement method, a confocal movement method, an optical interference method, a fringe projection method, and the like are known.

(分光画像検出技術)
分光画像検出技術として、ライン分光方式を用いるハイパースペクトルカメラが知られている。
(Spectroscopic image detection technology)
As a spectroscopic image detection technique, a hyperspectral camera using a line spectroscopic method is known.

特開2006―153654号公報Japanese Unexamined Patent Publication No. 2006-153654

このように、反射スペクトルの解析によって被写体の組成成分を分析するために、分光画像を検出する技術も、様々な撮像技術や測定技術が存在する。 As described above, there are various imaging techniques and measurement techniques for detecting a spectroscopic image in order to analyze the composition component of the subject by analyzing the reflection spectrum.

ところが、これら3次元形状検出技術と分光画像検出技術を組合せて3次元の解像と分光画像の検出を同時に行える撮像装置を構成しようとすると、いずれの組合せにおいても、以下の不具合を生じるため、実現性が困難である。
・組み合わせることが原理的に不可能であること、
・ハードウエアの規模が大きくなること、構造が複雑化すること、
・処理時間が膨大になること、
・検出精度が大幅に低下すること。
However, if an attempt is made to construct an image pickup device capable of simultaneously performing three-dimensional resolution and detection of a spectroscopic image by combining these three-dimensional shape detection techniques and spectroscopic image detection techniques, the following problems will occur in either combination. It is difficult to realize.
・ In principle, it is impossible to combine
・ The scale of hardware will increase, the structure will become complicated,
・ The processing time will be enormous.
-The detection accuracy is significantly reduced.

このため、精度の高い3次元の解像と分光精度の高い分光画像の検出を同時に達成する撮像装置は現存しない。 For this reason, there is no existing image pickup device that simultaneously achieves high-precision three-dimensional resolution and detection of a spectroscopic image with high spectral accuracy.

本発明は、かかる事情に鑑みてなされたものである。すなわち、本発明は、簡易な構造で、被写体に対し3次元の解像と分光画像の検出を同時に実現できる3次元撮像装置を提供することを目的とする。 The present invention has been made in view of such circumstances. That is, an object of the present invention is to provide a three-dimensional image pickup apparatus capable of simultaneously realizing three-dimensional resolution and detection of a spectroscopic image for a subject with a simple structure.

上述した課題を解決し、目的を達成するために、本発明の少なくとも幾つかの実施形態に係る3次元撮像装置は、光の周波数、もしくは、光の振幅変調の周波数を掃引して被写体を照明する光源と、被写体からの反射光と参照光を合波して干渉縞を発生させる光干渉計と、2次元配列の受光素子、1次元配列の受光素子と1次元走査の組合せ、及び単体受光素子と1次元走査の組合せの、いずれかによって、干渉縞を2次元の位置で電気信号として検出する2次元検出機構と、2次元検出機構の2次元の検出位置における反射光と参照光の光路差を、3次元の画素ごとに算出する光路差算出手段と、を備え、干渉縞と光路差の情報を使用した処理によって、被写体を3次元に解像する。 In order to solve the above-mentioned problems and achieve the object, the three-dimensional image pickup apparatus according to at least some embodiments of the present invention sweeps the frequency of light or the frequency of amplitude modulation of light to illuminate the subject. Light source, an optical interferometer that combines reflected light and reference light from the subject to generate interference fringes, a two-dimensional array of light-receiving elements, a one-dimensional array of light-receiving elements and a combination of one-dimensional scanning, and a single light-receiving device. Depending on the combination of the element and the one-dimensional scanning, the two-dimensional detection mechanism that detects the interference fringes as an electric signal at the two-dimensional position, and the optical path of the reflected light and the reference light at the two-dimensional detection position of the two-dimensional detection mechanism. It is provided with an optical path difference calculation means for calculating the difference for each three-dimensional pixel, and the subject is resolved three-dimensionally by processing using the information of the interference fringes and the optical path difference.

また、本実施形態の第2の好ましい態様によれば、干渉縞信号をフーリエ変換して受光方向を解像し、振幅と位相の複素信号の3次元データ列を検出するフーリエ変換処理部と、
3次元データ列から、2次元の検出位置から解像する画素までの光路長に一致するデータを、光路差を用いて抽出し、光路差から算出したフィルタ係数を重畳積分することで、受光方向と交差する面を解像する2次元フィルタ処理部と、を備える。
Further, according to the second preferred embodiment of the present embodiment, a Fourier transform processing unit that Fourier transforms the interference fringe signal to resolve the light receiving direction and detects a three-dimensional data string of a complex signal of amplitude and phase.
Data that matches the optical path length from the two-dimensional detection position to the pixel to be resolved is extracted from the three-dimensional data string using the optical path difference, and the filter coefficient calculated from the optical path difference is superimposed and integrated to receive the light receiving direction. It is provided with a two-dimensional filter processing unit that resolves a surface intersecting with.

また、本実施形態の第3の好ましい態様によれば、3次元データ列を記憶する記憶部と、
記憶部から、2次元検出機構の検出位置から解像する反射点までの光路長に一致するデータを読み出すためのアドレスを、光路差を用いて生成するアドレス生成部と、
アドレスを用いて、データを読み出し、受光方向のデータ補間と、初期位相の整合と、結像の開口の重みづけを行うフィルタ係数を生成するフィルタ係数生成部と、
フィルタ係数を複素信号のデータに重畳積分するローパスフィルタ部と、
を備える。
Further, according to the third preferred embodiment of the present embodiment, a storage unit for storing a three-dimensional data string and a storage unit.
An address generation unit that uses the optical path difference to generate an address that matches the optical path length from the detection position of the two-dimensional detection mechanism to the reflection point to be resolved from the storage unit.
A filter coefficient generator that reads data using the address, interpolates the data in the light receiving direction, matches the initial phase, and weights the aperture of the image.
A low-pass filter unit that superimposes and integrates the filter coefficient on complex signal data,
To prepare for.

また、本実施形態の第4の好ましい態様によれば、2次元フィルタ処理を行う開口を複数のブロックに分割し、ブロックごとに、2次元フィルタ処理と同じ処理によって、解像する画素を中心とした近傍画素の解像を行い、各ブロックで得た近傍画素の複素信号のデータの相互相関演算から、光波面の乱れを検出し、アドレス部のアドレス生成に反映させることで、光波面の乱れを補正する補正手段を備える。 Further, according to the fourth preferred embodiment of the present embodiment, the opening for which the two-dimensional filter processing is performed is divided into a plurality of blocks, and each block is centered on the pixel to be resolved by the same processing as the two-dimensional filter processing. The disturbance of the light wave surface is detected from the mutual correlation calculation of the complex signal data of the neighboring pixels obtained in each block and reflected in the address generation of the address part. A correction means for correcting the above is provided.

また、本実施形態の第5の好ましい態様によれば、光源の周波数掃引の歪みと変動を検出し、歪みによって生じる干渉縞の周波数成分の分散を、位相整合フィルタによって補正する補正手段を備える。 Further, according to the fifth preferred embodiment of the present embodiment, there is provided a correction means for detecting the distortion and fluctuation of the frequency sweep of the light source and correcting the dispersion of the frequency component of the interference fringe caused by the distortion by the phase matching filter.

また、本実施形態の第6の好ましい態様によれば、クラスタが既知の被写体の反射スペクトルから、フィッシャーレシオが大きい順にスペクトル成分を算出し、スペクトル成分を用い、クラスタが未知の被写体の反射スペクトルから被写体の識別を行う識別手段を備える。 Further, according to the sixth preferred embodiment of the present embodiment, the spectral components are calculated from the reflection spectrum of the subject whose cluster is known in descending order of the Fisher ratio, and the spectral component is used from the reflection spectrum of the subject whose cluster is unknown. It is provided with an identification means for identifying a subject.

また、本実施形態の第7の好ましい態様によれば、前記識別手段は、ディープラーニングを実行するAIを用いる。 Further, according to the seventh preferred embodiment of the present embodiment, the identification means uses an AI that performs deep learning.

また、本実施形態の第8の好ましい態様によれば、前記光源の代りに、低コヒーレンス光源と、分光器と、を備え、前記干渉縞信号を検出し、前記フーリエ変換処理部と前記2次元フィルタ処理部によって3次元の解像を行う。 Further, according to the eighth preferred embodiment of the present embodiment, instead of the light source, a low coherence light source and a spectroscope are provided, the interference fringe signal is detected, and the Fourier transform processing unit and the two-dimensional structure are provided. Three-dimensional resolution is performed by the filter processing unit.

また、本実施形態の第9の好ましい態様によれば、2次元検出機構で検出した干渉縞信号に、3次元の解像とスペクトルの解析に必要な情報を付加するデータフォーマット作成部と、3次元の解像とスペクトルの解析に必要な情報を付加した干渉縞信号を、RAWデータとして記憶する記憶部と、を備える。 Further, according to the ninth preferred embodiment of the present embodiment, a data format creation unit that adds information necessary for three-dimensional resolution and spectral analysis to the interference fringe signal detected by the two-dimensional detection mechanism, and three. It is provided with a storage unit for storing interference fringe signals to which information necessary for dimensional resolution and spectrum analysis is added as RAW data.

また、本実施形態の第10の好ましい態様によれば、光源のコヒーレンス度と周波数掃引の帯域特性(歪を含む)と指向性、2次元検出機構の検出位置の座標と受光素子の指向性、2次元検出機構の検出位置に対する照明光と参照光の出射位置の3次元座標、そして、被写体に関する情報などを備える。 Further, according to the tenth preferred embodiment of the present embodiment, the coherence degree of the light source, the band characteristics (including distortion) and the directivity of the frequency sweep, the coordinates of the detection position of the two-dimensional detection mechanism, and the directivity of the light receiving element. It includes three-dimensional coordinates of the emission position of the illumination light and the reference light with respect to the detection position of the two-dimensional detection mechanism, and information about the subject.

本発明によれば、簡易な構造で、被写体に対し3次元の解像と分光画像の検出を同時に実現できる3次元撮像装置を提供できる。 According to the present invention, it is possible to provide a three-dimensional image pickup apparatus capable of simultaneously realizing three-dimensional resolution and detection of a spectroscopic image for a subject with a simple structure.

実施形態に係る3次元撮像装置の構成を示す構成図である。It is a block diagram which shows the structure of the 3D image pickup apparatus which concerns on embodiment. 3次元撮像装置において干渉縞を生じる原理を説明する図である。It is a figure explaining the principle which causes the interference fringe in a 3D image pickup apparatus. 3次元撮像装置において干渉縞を生じる原理を説明する他の図である。It is another figure explaining the principle which causes the interference fringe in a 3D image pickup apparatus. 反射点から2次元フィルタ処理までの構成を示す図である。It is a figure which shows the structure from a reflection point to a two-dimensional filter processing. 2次元フィルタ処理の処理動作を説明する図である。It is a figure explaining the processing operation of 2D filter processing. (a)-(g)は、受光素子の配列間隔と指向性を説明する図である。(A)-(g) is a figure explaining the arrangement interval and directivity of a light receiving element. 光波面の乱れによって劣化した解像度を、2次元フィルタ処理によって回復する構成を説明する図である。It is a figure explaining the structure which recovers the resolution deteriorated by the turbulence of a light wave surface by a two-dimensional filter processing. 干渉縞のRAWデータからRGB画像を生成する構成を示す図である。It is a figure which shows the structure which generates the RGB image from the RAW data of the interference fringe. フーリエ変換によって生成する各種スペクトル画像の波長帯域を示す図である。It is a figure which shows the wavelength band of various spectrum images generated by a Fourier transform. AIによる特定する物質の非線形な切り分けを説明する図である。It is a figure explaining the non-linear separation of the substance to be specified by AI. レーザー光源の周波数掃引の直線性に歪みがある場合を説明する図である。It is a figure explaining the case where the linearity of the frequency sweep of a laser light source is distorted. 周波数掃引の直線性の歪みを検出する構成について説明する図である。It is a figure explaining the structure which detects the linear distortion of a frequency sweep. 本実施形態の応用例の構成を示す図である。It is a figure which shows the structure of the application example of this embodiment. (a)は、反射点の結像位置が、撮像素子より前にあるときの結像光束を示し、(b)は、反射点の結像位置が、撮像素子より後にあるときの結像光束を示す図である。(A) shows the imaged luminous flux when the image formation position of the reflection point is in front of the image pickup element, and (b) shows the image formation light flux when the image formation position of the reflection point is after the image pickup element. It is a figure which shows. 本実施形態において低コヒーレンス光源を用いた構成を示す図である。It is a figure which shows the structure which used the low coherence light source in this embodiment. (a)、(b)、(c)は、それぞれ反射点の反射光を、紙面の縦方向に走査しながら検出するときの光路を示す図である。(a), (b), and (c) are diagrams showing an optical path when the reflected light at the reflection point is detected while scanning in the vertical direction of the paper surface, respectively. 冠状動脈を診断する場合に必要な合焦範囲を示す図である。It is a figure which shows the focusing range necessary for diagnosing a coronary artery. 本実施形態を血管内OCT装置に適用した構成を示す図である。It is a figure which shows the structure which applied this embodiment to the intravascular OCT apparatus. 血管内OCT装置を使用して冠状動脈の画像を検出する方法を説明する図である。It is a figure explaining the method of detecting the image of the coronary artery using the intravascular OCT apparatus. 本実施形態をX線撮像やγ線撮像に応用する構成を説明する図である。It is a figure explaining the structure which applies this embodiment to X-ray image pickup and γ-ray image pickup. (a)は、反射点から2次元フィルタ処理までの構成を示す他の図である。(b)は、光軸と垂直な面を結像レンズで解像し、受光方向をフーリエ変換処理によって解像する3次元の解像処理を示す図である。(A) is another diagram showing the configuration from the reflection point to the two-dimensional filter processing. (B) is a diagram showing a three-dimensional resolution process in which a plane perpendicular to the optical axis is resolved by an imaging lens and the light receiving direction is resolved by a Fourier transform process.

実施例の説明に先立ち、本発明のある態様にかかる実施形態の作用効果を説明する。なお、本実施形態の作用効果を具体的に説明するに際しては、具体的な例を示して説明することになる。しかし、後述する実施例の場合と同様に、それらの例示される態様はあくまでも本発明に含まれる態様のうちの一部に過ぎず、その態様には数多くのバリエーションが存在する。したがって、本発明は例示される態様に限定されるものではない。 Prior to the description of the examples, the effects of the embodiments according to certain aspects of the present invention will be described. In addition, when concretely explaining the action and effect of this embodiment, a concrete example will be shown and explained. However, as in the case of the examples described later, those exemplary embodiments are merely a part of the embodiments included in the present invention, and there are many variations in the embodiments. Therefore, the present invention is not limited to the exemplary embodiments.

(実施形態)
本発明の実施形態に係る3次元撮像装置は、光干渉法によって反射光の振幅と位相を検出し、それを使用した電気的な処理によって3次元の解像を行う。そして、3次元撮像装置は、3次元の画素ごとに、合焦と、光波面の乱れで劣化した解像度の回復と、スペクトルの解析を行う。
(Embodiment)
The three-dimensional image pickup apparatus according to the embodiment of the present invention detects the amplitude and phase of the reflected light by the optical interferometry, and performs three-dimensional resolution by electrical processing using the same. Then, the three-dimensional image pickup device performs focusing, recovery of the resolution deteriorated due to the disturbance of the light wave surface, and spectrum analysis for each three-dimensional pixel.

3次元撮像装置は、光干渉計によって生じた反射光の干渉縞を2次元に検出する。次に、後述するフーリエ変換処理によって、2次元に検出した各位置において、受光方向を解像する。そして、フーリエ変換処理によって得た反射光の振幅と位相(以下、複素信号)と反射点までの光路長を使用して、後述する2次元フィルタ処理によって、受光方向と交差する面の解像を行う。3次元撮像装置は、この2つの処理によって被写体を3次元に解像する。 The three-dimensional image pickup device two-dimensionally detects the interference fringes of the reflected light generated by the optical interferometer. Next, the light receiving direction is resolved at each position detected two-dimensionally by the Fourier transform process described later. Then, using the amplitude and phase (hereinafter referred to as complex signal) of the reflected light obtained by the Fourier transform process and the optical path length to the reflection point, the resolution of the surface intersecting the light receiving direction is obtained by the two-dimensional filter process described later. conduct. The three-dimensional image pickup device resolves the subject in three dimensions by these two processes.

上記の2次元フィルタ処理によって、画素ごとの合焦(ダイナミックフォーカシング)と、後述する光波面の乱れで劣化した解像度の回復を行う。また、受光方向の解像処理に使用する照明光の周波数掃引を利用して、反射光のスペクトルの解析を行い、画素ごとに被写体の組成の識別を行う。 By the above two-dimensional filter processing, focusing (dynamic focusing) for each pixel and recovery of the resolution deteriorated due to the disturbance of the light wave surface, which will be described later, are performed. Further, the spectrum of the reflected light is analyzed by utilizing the frequency sweep of the illumination light used for the resolution processing in the light receiving direction, and the composition of the subject is identified for each pixel.

また、本実施形態は、可視光帯に限らず、結像光学系が存在しない構成、結像光学系が存在していても高価であったりする電磁波の波長帯、例えば、赤外光、テラヘルツ波、ミリ波、X線、γ線などにも適用することができる。 Further, the present embodiment is not limited to the visible light band, but has a configuration in which an imaging optical system does not exist, or an electromagnetic wave wavelength band that is expensive even if an imaging optical system exists, for example, infrared light or terahertz. It can also be applied to waves, millimeter waves, X-rays, γ-rays, and the like.

図1を用いて、3次元撮像装置の基本構成を説明する。
図1は、実施形態に係る3次元撮像装置の構成を示す構成図である。
光源1は、撮像時間内に周波数掃引された光を出射する。光源1から出射された照明光である掃引光は、光干渉計13のビームスプリッタ2で分離される。分割面で反射した一方の掃引光は被写体3を照明する。分割面を透過した他方の掃引光はミラー4で反射される。ミラー4で反射した参照光は、ビームスプリッタ2で被写体3からの反射光7と合波され、干渉縞を生じる。
The basic configuration of the three-dimensional image pickup apparatus will be described with reference to FIG.
FIG. 1 is a configuration diagram showing a configuration of a three-dimensional image pickup apparatus according to an embodiment.
The light source 1 emits frequency-swept light within the imaging time. The sweeping light, which is the illumination light emitted from the light source 1, is separated by the beam splitter 2 of the optical interferometer 13. One of the sweep lights reflected by the dividing surface illuminates the subject 3. The other sweep light transmitted through the dividing surface is reflected by the mirror 4. The reference light reflected by the mirror 4 is combined with the reflected light 7 from the subject 3 by the beam splitter 2 to generate interference fringes.

生じた干渉縞は、2次元配列の受光素子8(以下、「撮像素子」という。)で受光される。干渉縞信号を撮像素子8で検出する方法は後述する。 The generated interference fringes are received by the light receiving element 8 (hereinafter referred to as "imaging element") having a two-dimensional arrangement. The method of detecting the interference fringe signal by the image pickup device 8 will be described later.

撮像素子8で受光した干渉縞信号は、メモリ5にRAWデータとして記憶される。そして、メモリ5から解像に必要な分の干渉縞信号が読み出され、フーリエ変換処理11によって受光方向を解像する。 The interference fringe signal received by the image pickup device 8 is stored in the memory 5 as RAW data. Then, the interference fringe signal required for resolution is read from the memory 5, and the light receiving direction is resolved by the Fourier transform process 11.

その後、後述する2次元フィルタ処理12によって光軸9と垂直な面の解像を行い、反射点6を3次元に検出する。フーリエ変換処理11と2次元フィルタ処理12に関しては、後述する。 After that, the surface perpendicular to the optical axis 9 is resolved by the two-dimensional filter processing 12 described later, and the reflection point 6 is detected three-dimensionally. The Fourier transform process 11 and the two-dimensional filter process 12 will be described later.

被写体3の反射点6から反射した反射光は、ビームスプリッタ2によって参照光と合波されると、後述するように、反射点6の反射光と参照光の光路差に比例した周波数の干渉縞を生じる。 When the reflected light reflected from the reflection point 6 of the subject 3 is combined with the reference light by the beam splitter 2, interference fringes having a frequency proportional to the optical path difference between the reflected light at the reflection point 6 and the reference light are described later. Produces.

上記の光路差は、光源1から出射された照明光がビームスプリッタ2を介して反射点6で反射され、撮像素子8の各受光素子に受光されるまでの反射光の光路長と、光源1からビームスプリッタ2を透過して反射ミラー4とビームスプリッタ2を介し、撮像素子8の各受光素子に受光されるまでの参照光の光路長の差である。 The above optical path difference is the optical path length of the reflected light until the illumination light emitted from the light source 1 is reflected at the reflection point 6 via the beam splitter 2 and is received by each light receiving element of the image pickup element 8, and the light source 1. It is the difference in the optical path length of the reference light from the beam splitter 2 to the light receiving element of the image pickup element 8 through the reflection mirror 4 and the beam splitter 2.

ゆえに、反射点6の位置と撮像素子8の各受光素子の位置に対応した周波数の干渉縞が生じる。これを利用して、後述するフーリエ変換処理11と、2次元フィルタ処理12によって、反射点6を3次元に解像することができる。 Therefore, interference fringes having a frequency corresponding to the position of the reflection point 6 and the position of each light receiving element of the image pickup element 8 are generated. Utilizing this, the reflection point 6 can be resolved three-dimensionally by the Fourier transform process 11 and the two-dimensional filter process 12, which will be described later.

ここで、光源1は、光軸9と垂直な面の解像に必要な空間的コヒーレンス(点光源性)を有し、周波数掃引は、受光方向の解像に必要な直線性と周波数帯域と時間的コヒーレンスを有している。これらの条件を満足する光源として、MEMS(Micro Electro-Mechanical system)やKTN(タンタル酸ニオブ酸カリウム)などの偏向素子と分光器を用いた、周波数掃引型レーザー光源などを用いることができる。 Here, the light source 1 has spatial coherence (point light source property) required for resolution of a plane perpendicular to the optical axis 9, and frequency sweeping has linearity and frequency band required for resolution in the light receiving direction. Has temporal coherence. As a light source that satisfies these conditions, a frequency sweep type laser light source using a deflection element such as MEMS (Micro Electro-Mechanical System) or KTN (potassium niobate tantalate) and a spectroscope can be used.

または、光源1は、光軸9と垂直な面の解像に必要な空間的コヒーレンス(点光源性)を有するインコヒーレント光源(パーシャルコヒーレント光源)であって、出射光の振幅に周波数掃引の変調がなされている構成でも良い。 Alternatively, the light source 1 is an incoherent light source (partial coherent light source) having spatial coherence (point light source property) necessary for resolving a surface perpendicular to the optical axis 9, and the amplitude of the emitted light is modulated by frequency sweep. The configuration may be made.

前者の光源は、コヒーレンス長の点から、比較的近距離にある小さな被写体を、高解像度を以って3次元に解像するときに使用される。後者の光源は、遠距離にある大きな被写体を、3次元に解像するときに使用される。 The former light source is used to resolve a small subject at a relatively short distance from the point of view of coherence length in three dimensions with high resolution. The latter light source is used when resolving a large subject at a long distance in three dimensions.

図1では、干渉縞を2次元に検出する機構として撮像素子8を示している。しかしながら、これに限られず、1次元配列の受光素子と1次元走査の組合せ、もしくは、単一の受光素子と2次元走査の組合せによって、干渉縞を2次元に検出する機構であっても良い。 In FIG. 1, the image pickup device 8 is shown as a mechanism for detecting interference fringes in two dimensions. However, the mechanism is not limited to this, and a mechanism for detecting interference fringes two-dimensionally by a combination of a one-dimensional array of light-receiving elements and one-dimensional scanning, or a combination of a single light-receiving element and two-dimensional scanning may be used.

また、コヒーレンスが損なわれずに光源1から各受光素子までの反射光と参照光の光路長が算出できれば、照明光、反射光、参照光の各光路中に光学系が配置されても良い。 Further, if the optical path lengths of the reflected light and the reference light from the light source 1 to each light receiving element can be calculated without impairing the coherence, the optical system may be arranged in each optical path of the illumination light, the reflected light, and the reference light.

また、光干渉計13は、受光路上であれば、どこに配置されても良く、ビームスプリッタ2を、参照波の合波用と照明光の分離用に分けて配置しても良い。 Further, the optical interferometer 13 may be arranged anywhere as long as it is on the light receiving path, and the beam splitter 2 may be arranged separately for the combined wave of the reference wave and for the separation of the illumination light.

図1の光干渉計13は、原理説明のために基本構成を示している。これに限られず、光干渉計は、様々な方式があり、用途に応じて方式を選択できる。例えば、構成寸法を小さくするために、Mirau方式のような光干渉計を使用しても良い。 The optical interferometer 13 of FIG. 1 shows a basic configuration for explaining the principle. Not limited to this, there are various types of optical interferometers, and the method can be selected according to the application. For example, an optical interferometer such as the Mirau method may be used to reduce the constituent dimensions.

また、波長帯域を満足すれば、光の利用効率を上げるために、ファラデー回転子を用いた光サーキュレータを使用しても良い。 Further, if the wavelength band is satisfied, an optical circulator using a Faraday rotator may be used in order to increase the efficiency of light utilization.

ただし、いずれの構成の場合も、途中の光学系と、光干渉計13を構成するビームスプリッタ2やミラー4は、照明光、反射光、参照光のコヒーレンスが損なわれず、光源1から撮像素子8の各受光素子までの反射光と参照光の光路長が算出できる形状でなければならない。 However, in any of the configurations, the optical system in the middle and the beam splitter 2 and the mirror 4 constituting the optical interferometer 13 do not impair the coherence of the illumination light, the reflected light, and the reference light, and the light source 1 to the image pickup element 8 are not impaired. The shape must be such that the optical path lengths of the reflected light and the reference light to each light receiving element can be calculated.

例えば、ミラー4は、表面の精度が波長の1/16以下と充分に小さく、点反射体や平板に加えて、凹面、凸面、楕円面のように焦点を有し、光路長を算出しやすいものが使用される。 For example, the mirror 4 has a sufficiently small surface accuracy of 1/16 or less of the wavelength, has a focal point such as a concave surface, a convex surface, and an ellipsoidal surface in addition to a point reflector and a flat plate, and it is easy to calculate the optical path length. Things are used.

コヒーレンスが損なわれず、光源1から各受光素子8までの反射光と参照光の光路長が算出できれば、上記のいずれの構成の場合においても、後述するフーリエ変換処理11と2次元フィルタ処理12による3次元の解像を行うことができる。 If the optical path lengths of the reflected light and the reference light from the light source 1 to each light receiving element 8 can be calculated without impairing the coherence, in any of the above configurations, the Fourier transform process 11 and the two-dimensional filter process 12 described later 3 Dimensional resolution can be performed.

(フーリエ変換処理の説明)
以下に、受光方向を解像する図1のフーリエ変換処理11について説明する。
周波数と位相が異なる2つの光を合波すると、それらの差の周波数と差の位相からなる干渉縞を生じる。これを光ヘテロダイン検波と言う。
(Explanation of Fourier transform processing)
The Fourier transform process 11 of FIG. 1 that resolves the light receiving direction will be described below.
When two lights having different frequencies and phases are combined, an interference fringe consisting of the frequency of the difference and the phase of the difference is generated. This is called optical heterodyne detection.

光ヘテロダイン検波は、周波数が大変高い光のキャリアを周波数の低い干渉縞のキャリアに変換することができる。そして、光の振幅と位相の情報を保持した干渉縞を、受光素子によって電気信号に変換することができる。また、光ヘテロダイン検波は、振幅変調されたインコヒーレント光の振幅と位相の検出にも適用できる。 Optical heterodyne detection can convert carriers of very high frequency light into carriers of low frequency interference fringes. Then, the interference fringes holding the information on the amplitude and phase of the light can be converted into an electric signal by the light receiving element. Optical heterodyne detection can also be applied to detect the amplitude and phase of amplitude-modulated incoherent light.

図2は、3次元撮像装置において干渉縞を生じる原理を説明する図である。
受光方向を解像するフーリエ変換処理は、この光ヘテロダイン検波の原理に基づいている。図2に示すように、周波数掃引がなされた参照光18と反射光19の光路長の差から僅かな時間差(光路差)14が生じる。これによって、参照光18と反射光19の周波数と位相に僅かな時間差15が生じる。そして、差の周波数と差の位相からなる干渉縞を生じる。
FIG. 2 is a diagram illustrating a principle of generating interference fringes in a three-dimensional image pickup apparatus.
The Fourier transform process for resolving the light receiving direction is based on this principle of optical heterodyne detection. As shown in FIG. 2, a slight time difference (optical path difference) 14 is generated from the difference in the optical path length between the frequency-swept reference light 18 and the reflected light 19. This causes a slight time difference 15 in the frequency and phase of the reference light 18 and the reflected light 19. Then, an interference fringe consisting of the frequency of the difference and the phase of the difference is generated.

図2から分かるように、周波数掃引の直線性が高ければ、差の周波数と差の位相が掃引時間にわたって一定になる。このため、反射光と参照光の周波数掃引に従い、一定の周波数の干渉縞を生じる。 As can be seen from FIG. 2, if the linearity of the frequency sweep is high, the frequency of the difference and the phase of the difference become constant over the sweep time. Therefore, interference fringes having a constant frequency are generated according to the frequency sweep of the reflected light and the reference light.

そして、参照光18と反射光19の光路差14が、点線16に示すように大きくなると、干渉縞の周波数15も、点線17に示すように高くなる。 When the optical path difference 14 between the reference light 18 and the reflected light 19 increases as shown by the dotted line 16, the frequency 15 of the interference fringes also increases as shown by the dotted line 17.

図3は、3次元撮像装置において干渉縞を生じる原理を説明する他の図である。
また、図3に示すように、掃引する周波数掃引の帯域幅21を、点線22に示すように広くすると、光路差25が同じでも、干渉縞の周波数23が点線24に示すように高くなる。
FIG. 3 is another diagram illustrating the principle of causing interference fringes in a three-dimensional image pickup apparatus.
Further, as shown in FIG. 3, when the bandwidth 21 of the frequency sweep to be swept is widened as shown by the dotted line 22, the frequency 23 of the interference fringe becomes higher as shown by the dotted line 24 even if the optical path difference 25 is the same.

このような干渉縞信号をフーリエ変換すると、干渉縞の周波数が、周波数軸上のスペクトル(複素信号)として検出される。ここで、周波数軸上のスペクトルの位置が、図1における光源(点光源)1から受光素子8までの反射光と参照光の光路差に比例する。そして、撮像素子8の受光素子から反射点6までの距離を検出することができる。 When such an interference fringe signal is Fourier transformed, the frequency of the interference fringe is detected as a spectrum (complex signal) on the frequency axis. Here, the position of the spectrum on the frequency axis is proportional to the optical path difference between the reflected light from the light source (point light source) 1 to the light receiving element 8 in FIG. 1 and the reference light. Then, the distance from the light receiving element of the image pickup element 8 to the reflection point 6 can be detected.

そして、スペクトルの分解能(単スペクトルの幅)は、周波数掃引の包絡線をフーリエ変換した波形で決まる。図3の干渉縞の周波数掃引の帯域幅23を、点線24のように広くすると、光路差に対するフーリエ変換後のスペクトルの数が増えるため、受光方向の解像度を上げることができる。 The resolution of the spectrum (width of a single spectrum) is determined by the Fourier transform of the envelope of the frequency sweep. When the bandwidth 23 of the frequency sweep of the interference fringes in FIG. 3 is widened as shown by the dotted line 24, the number of spectra after the Fourier transform with respect to the optical path difference increases, so that the resolution in the light receiving direction can be increased.

そして、上述の処理は、インコヒーレント光の振幅変調を周波数掃引したときにも、そのまま適用できる。
参照光Esと反射光Erは、それぞれ以下の式(1)、(2)として表すことができる。
Es=As×cos{2π[f0+(Δf/2T)t]t+θ} (1)
Er=Ar×cos{2π[f0+(Δf/2T)(t-td)](t-td)+θ} (2)
ここで、
Δfは、周波数掃引の帯域幅、
Tは、掃引時間、
f0は、掃引開始の周波数、
θは、掃引開始の初期位相、
tは、時間、
tdは、参照光と反射光の時間差(光路差)、
参照光の振幅をAs、
反射光の振幅をAr、
である。
Then, the above-mentioned processing can be applied as it is even when the amplitude modulation of the incoherent light is frequency-swept.
The reference light Es and the reflected light Er can be expressed by the following equations (1) and (2), respectively.
Es = As × cos {2π [f0 + (Δf / 2T) t] t + θ 0 } (1)
Er = Ar × cos {2π [f0 + (Δf / 2T) (t-td)] (t-td) + θ 0 } (2)
here,
Δf is the frequency sweep bandwidth,
T is the sweep time,
f0 is the frequency at which the sweep starts.
θ 0 is the initial phase of the start of sweep,
t is the time,
td is the time difference between the reference light and the reflected light (optical path difference),
As the amplitude of the reference light,
Ar, the amplitude of the reflected light
Is.

参照光と反射光を合波し受光素子で受光すると、受光素子の周波数応答(LPF:ローパスフィルタ)から光の高い周波数を含む項が直流成分になり、低い周波数成分の干渉縞の項だけが残る。そして、三角関数の積和の式から、以下の式(3)が得られる。
LPF[(Es+Er)]=A×cos{2π[f0+(Δf/2T)t]t-2π[f0+(Δf/2T)(t-td)](t-td)}+K (3)
ここで、
AとKは、それぞれ参照光の振幅Asと反射光の振幅Arで決まる定数である。
When the reference light and the reflected light are combined and received by the light receiving element, the term including the high frequency of the light becomes the DC component from the frequency response (LPF: low pass filter) of the light receiving element, and only the term of the interference fringe of the low frequency component becomes. Remain. Then, the following equation (3) is obtained from the equation of the sum of products of trigonometric functions.
LPF [(Es + Er) 2 ] = A × cos {2π [f0 + (Δf / 2T) t] t-2π [f0 + (Δf / 2T) (t-td)] (t-td)} + K (3)
here,
A and K are constants determined by the amplitude As of the reference light and the amplitude Ar of the reflected light, respectively.

式(3)から、さらに定数AとKを除いて整理すると、以下の式(4)となる。
cos{2π[2(Δf/2T)td]t+2π[(Δf/2T)td+f0×td]} (4)
When the constants A and K are further removed from the equation (3), the following equation (4) is obtained.
cos {2π [2 (Δf / 2T) td] t + 2π [(Δf / 2T) td 2 + f0 × td]} (4)

式(4)の第1項から、2(Δf/2T)tdは、干渉縞信号の周波数であり、時間差(光路差)tdが変化すると干渉縞の周波数が直線的に変化することが分かる。
また、式(4)の第2項から、2π[(Δf/2T)td+f0×td]は、干渉縞信号の初期位相であり、tdに対して初期位相が放物線状に変化することが分かる。
From the first term of the equation (4), it can be seen that 2 (Δf / 2T) td is the frequency of the interference fringe signal, and the frequency of the interference fringe changes linearly when the time difference (optical path difference) td changes.
Further, from the second term of the equation (4), 2π [(Δf / 2T) td 2 + f0 × td] is the initial phase of the interference fringe signal, and the initial phase may change parabolic with respect to td. I understand.

そして、周波数掃引の包絡線が矩形波の場合、スペクトル分解能は、矩形波をフーリエ変換したsinc関数((sinx)/x)の半値全幅=1/Tになる。このため、スペクトル分解能に相当する時間差tdを求めると、2(Δf/2T)td=1/Tから、td=1/Δfとなる。ゆえに、受光方向の分解能ρは解像度であり、伝播媒体中の光速をCとし、反射が往復であることを考慮すると、ρ=C/2Δfとなる。 When the frequency sweep envelope is a square wave, the spectral resolution is half-value full width = 1 / T of the sinc function ((sinx) / x) obtained by Fourier transforming the square wave. Therefore, when the time difference td corresponding to the spectral resolution is obtained, it becomes td = 1 / Δf from 2 (Δf / 2T) td = 1 / T. Therefore, the resolution ρ in the light receiving direction is the resolution, and considering that the speed of light in the propagation medium is C 0 and the reflection is reciprocating, ρ = C 0/2 Δf.

以上に述べた原理は、インコヒーレント光源を用い、その振幅変調について周波数掃引を行った場合も、そのまま適用できる。 The principle described above can be applied as it is even when an incoherent light source is used and frequency sweep is performed for the amplitude modulation thereof.

包絡線を矩形波にすると、矩形波をフーリエ変換したsinc関数のサイドローブが発生する。包絡線をガウシアン(ガウス関数)にすると、サイドローブを抑えることができるが、解像度が多少落ちるため、掃引の帯域幅をその分増やして対応する。 When the envelope is a square wave, a sidelobes of the sinc function obtained by Fourier transforming the square wave is generated. If the envelope is Gaussian (Gaussian function), the sidelobes can be suppressed, but the resolution will be slightly reduced, so the sweep bandwidth will be increased accordingly.

図1に示す単一の受光素子mによって反射点6の干渉縞信号を検出し、フーリエ変換したときの3次元点像分布関数(3次元PSF(Point Spread Function))は、図1の曲線10に示すように、受光方向7の点像分布関数を受光素子mの指向性の範囲に球面状に広げた形となる。 The three-dimensional point image distribution function (three-dimensional PSF (Point Spread Function)) when the interference fringe signal at the reflection point 6 is detected by the single light receiving element m shown in FIG. 1 and Fourier transformed is obtained by the curve 10 in FIG. As shown in the above, the point image distribution function in the light receiving direction 7 is expanded in a spherical shape within the directional range of the light receiving element m.

本願の説明文中で「受光方向を解像する」という表記は、この3次元点像分布関数の複素信号を受光方向7のデータ列として検出することを示している。 The notation "resolving the light receiving direction" in the description of the present application indicates that the complex signal of this three-dimensional point image distribution function is detected as a data string in the light receiving direction 7.

各受光素子で得られる干渉縞信号、もしくは、それをフーリエ変換して解像した複素信号に、光源のコヒーレンス度と周波数掃引の帯域特性と指向性、受光素子の指向性と素子数と配列間隔、撮像素子の受光面に対する照明光と参照光の出射位置の3次元座標、そして、被写体の情報を付加し、RAWデータとしてアーカイブすれば、後から位相情報を利用した様々な処理を行うことができる。 The coherence degree of the light source, the band characteristics and directionality of frequency sweep, the directionality of the light receiving element, the number of elements, and the arrangement spacing are used for the interference fringe signal obtained by each light receiving element or the complex signal resolved by Fourier transforming it. If the three-dimensional coordinates of the emission position of the illumination light and the reference light with respect to the light receiving surface of the image pickup element and the information of the subject are added and archived as RAW data, various processing using the phase information can be performed later. can.

反射光が、反射点から受光素子に到達する僅かな時間を検出することは、技術的に困難である。しかしながら、上述したように、参照光との干渉縞を検出してフーリエ変換を行なえば、僅かな時間差(光路差)を、干渉縞の周波数の違いに変換して検出することができる。 It is technically difficult to detect a short time for the reflected light to reach the light receiving element from the reflection point. However, as described above, if the interference fringe with the reference light is detected and the Fourier transform is performed, a slight time difference (optical path difference) can be converted into a difference in the frequency of the interference fringe and detected.

反射光には、光干渉法によって生じた干渉縞が、被写体の反射点の数だけ重畳されているので、フーリエ変換を行なえば、受光方向を解像することができる。フーリエ変換処理による受光方向の解像は、レーダーのパルス圧縮の解像と原理は同じである。即ち、反射光の周波数成分の位相を整合して加算した(位相整合フィルタを通した)ことになり、あたかも、ミクロンオーダーの光のパルスをレーダーのように送受信して、受光方向を解像したことになる。 Since the interference fringes generated by the optical interferometry are superimposed on the reflected light by the number of reflection points of the subject, the light receiving direction can be resolved by performing the Fourier transform. The resolution in the light receiving direction by the Fourier transform process has the same principle as the resolution of radar pulse compression. That is, the phases of the frequency components of the reflected light are matched and added (passed through a phase matching filter), and pulses of light on the order of microns are transmitted and received like a radar to resolve the light receiving direction. It will be.

(干渉縞信号の検出の説明)
次に、干渉縞信号を図1の撮像素子8で検出する方法について説明する。
「(フーリエ変換処理の説明)」欄で上述したように、干渉縞信号をフーリエ変換すると受光方向の点像分布関数が得られ、その半値全幅が受光方向の解像度となる。標本化定理に従い、受光方向の標本化の間隔を解像度より小さく設定する。このため、受光方向の解像範囲を標本化間隔で除したものが受光方向の画素数になる。
(Explanation of detection of interference fringe signal)
Next, a method of detecting the interference fringe signal by the image pickup device 8 of FIG. 1 will be described.
As described above in the "(Explanation of Fourier transform process)" column, when the interference fringe signal is Fourier transformed, a point image distribution function in the light receiving direction is obtained, and the full width at half maximum is the resolution in the light receiving direction. According to the sampling theorem, the sampling interval in the light receiving direction is set smaller than the resolution. Therefore, the number of pixels in the light receiving direction is obtained by dividing the resolution range in the light receiving direction by the sampling interval.

照明光の周波数掃引の間に、撮像素子8の撮像を、受光方向の画素数と同じ回数だけ繰り返すことにより、フーリエ変換対の関係から、干渉縞信号を、標本化定理を満たして検出できる。検出時間を短くするときは、周波数掃引時間を短くし、それに合わせてフレームレートの高い撮像素子8を使用する。撮像素子8は、基本的にグローバルシャッタ動作が可能なものが使用される。 By repeating the imaging of the image pickup element 8 as many times as the number of pixels in the light receiving direction during the frequency sweep of the illumination light, the interference fringe signal can be detected by satisfying the sampling theorem from the relationship of the Fourier transform pair. When the detection time is shortened, the frequency sweep time is shortened, and the image sensor 8 having a high frame rate is used accordingly. As the image sensor 8, basically, an image sensor 8 capable of a global shutter operation is used.

受光方向の画素数を1000画素とし、一般的な60フレーム/秒の撮像素子を使用して干渉縞信号を標本化する場合、干渉縞信号の検出に要する時間は1000÷60=16.7秒になる。この場合、光源1の掃引時間は16.7秒に設定される。検出時間の長さから静止物の3次元の解像や形状測定などに応用される。 When the number of pixels in the light receiving direction is 1000 and the interference fringe signal is sampled using a general 60 frame / sec image sensor, the time required to detect the interference fringe signal is 1000 ÷ 60 = 16.7 seconds. become. In this case, the sweep time of the light source 1 is set to 16.7 seconds. Due to the length of the detection time, it is applied to three-dimensional resolution and shape measurement of stationary objects.

市販されている高速撮像素子(2000×1000画素、1000フレーム/秒)を使用した場合の検出時間は、1秒となる。 When a commercially available high-speed image sensor (2000 × 1000 pixels, 1000 frames / sec) is used, the detection time is 1 second.

現存する最高速の撮像素子(2000×1000画素、20000フレーム/秒)を使用する場合、撮像時間は50msとなる。このため、動く被写体への用途が広がる。また、多板プリズムによって複数の撮像素子のタイミングをずらして撮像すると、撮像時間を更に縮めることができる。 When the existing fastest image sensor (2000 × 1000 pixels, 20000 frames / sec) is used, the image pickup time is 50 ms. Therefore, it can be used for moving subjects. Further, if the timings of the plurality of image pickup elements are staggered by the multi-plate prism, the image pickup time can be further shortened.

また 、撮像素子の撮像時間を短くしていくと、感度が得られなくなるように感ずる。しかしながら、図1のフーリエ変換処理11を行うと、受光方向の画素数分だけ感度が向上する、換言すると、単スペクトルのSN比が、画素数の平方根分向上する。 In addition, if the image pickup time of the image sensor is shortened, it seems that the sensitivity cannot be obtained. However, when the Fourier transform process 11 of FIG. 1 is performed, the sensitivity is improved by the number of pixels in the light receiving direction, in other words, the SN ratio of the single spectrum is improved by the square root of the number of pixels.

加えて、図1の2次元フィルタ処理12を行うと、図4の仮想レンズ35の受光素子の数だけ感度が向上する。このため、結果として、光学系を使用した撮像装置のシャッタ動作と同程度の感度になり、問題は生じない。 In addition, when the two-dimensional filter processing 12 of FIG. 1 is performed, the sensitivity is improved by the number of light receiving elements of the virtual lens 35 of FIG. Therefore, as a result, the sensitivity becomes the same as that of the shutter operation of the image pickup apparatus using the optical system, and no problem occurs.

シャッタ動作(1ms以下)を行う場合は、干渉縞を各受光素子で受光し、並列にデジタル化し、並列にメモリに記憶できる撮像素子が必要になる。並列処理に必要な配線数と、そのストレーキャパシティによる電力消費を考えると、並列処理回路は撮像素子に内装されないと実現性がない。 When performing a shutter operation (1 ms or less), an image sensor that can receive interference fringes by each light receiving element, digitize them in parallel, and store them in a memory in parallel is required. Considering the number of wires required for parallel processing and the power consumption due to its stray capacity, it is not feasible unless the parallel processing circuit is built in the image sensor.

進捗が著しい半導体の多層構造化技術を使用すれば、その実現性は高い。例えば、画素ごとに記録用の転送メモリ部を設けた200万画素、250万フレーム/秒の裏面照射型撮像素子の開発報告が知られている。多層構造化技術によって同様にメモリを構成すれば、0.4msのシャッタ動作が可能になる。 The feasibility is high if the semiconductor multi-layer structuring technology, which is making remarkable progress, is used. For example, there is known a development report of a back-illuminated image sensor with 2 million pixels and 2.5 million frames / sec, which is provided with a transfer memory unit for recording for each pixel. If the memory is similarly configured by the multi-layer structuring technique, a shutter operation of 0.4 ms becomes possible.

(2次元フィルタ処理の説明)
次に、フーリエ変換処理11(図1)で得た反射光の複素信号を使用し、光軸と垂直な面を解像する図1の2次元フィルタ処理12について説明する。
(Explanation of 2D filtering)
Next, the two-dimensional filter processing 12 of FIG. 1 for resolving a plane perpendicular to the optical axis using the complex signal of the reflected light obtained by the Fourier transform process 11 (FIG. 1) will be described.

図4は、反射点から2次元フィルタ処理までの構成を示す図である。
図4に示すように、合波部32において参照光と合波されて生じた干渉縞は、撮像素子の受光素子33-1~33-nで受光される。検出した干渉縞信号は、メモリ5(図1)に記憶される。その後、仮想レンズ35の開口に相当する干渉縞信号をメモリから読み出し、フーリエ変換処理34(図1の11)を行う。これにより、各受光素子33-1~33-nの受光方向を解像し、受光方向の複素信号の3次元のデータ列36-1~36-nを得る。
FIG. 4 is a diagram showing a configuration from a reflection point to a two-dimensional filter processing.
As shown in FIG. 4, the interference fringes generated by the combined wave with the reference light in the combined wave unit 32 are received by the light receiving elements 33-1 to 33-n of the image pickup element. The detected interference fringe signal is stored in the memory 5 (FIG. 1). After that, the interference fringe signal corresponding to the aperture of the virtual lens 35 is read out from the memory, and the Fourier transform process 34 (11 in FIG. 1) is performed. As a result, the light receiving direction of each light receiving element 33-1 to 33-n is resolved, and the three-dimensional data strings 36-1 to 36-n of the complex signal in the light receiving direction are obtained.

そして、反射点31を焦点とする仮想レンズ(コリメートレンズ)35で集光したかのように、2次元フィルタ処理37によって、受光方向の複素信号の3次元データ列36-1~36-nから、反射点31から各受光素子33-1~33-nまでの光路長に一致する画素の複素信号を抽出する。そして、結像の開口の中心位置の複素信号に位相を整合させて加算すると、反射点31を解像することができる。被写体空間の全ての反射点(画素)に対して、この処理を行ない、被写体を3次元に解像する。 Then, from the three-dimensional data strings 36-1 to 36-n of the complex signal in the light receiving direction by the two-dimensional filter processing 37, as if the light was focused by the virtual lens (colimating lens) 35 having the reflection point 31 as the focal point. , The complex signal of the pixel corresponding to the optical path length from the reflection point 31 to each light receiving element 33-1 to 33-n is extracted. Then, the reflection point 31 can be resolved by matching the phase with the complex signal at the center position of the aperture of the image formation and adding the phase. This process is performed for all reflection points (pixels) in the subject space to resolve the subject in three dimensions.

図4の処理の構成を、図21(a)に示す。
図21(a)は、反射点から2次元フィルタ処理までの構成を示す他の図である。
The configuration of the process of FIG. 4 is shown in FIG. 21 (a).
FIG. 21A is another diagram showing the configuration from the reflection point to the two-dimensional filter processing.

Figure 0007058901000002
一つの反射点からの反射光P1~Pnは、上記の式(5)で表すことができる。
ここで、
Rは、参照光、
Lpは、受光素子によるローパスフィルタの係数、
F(カリグラフィ書体)は、受光方向のフーリエ変換、である。
Figure 0007058901000002
The reflected light P1 to Pn from one reflection point can be expressed by the above equation (5).
here,
R is the reference light,
Lp is the coefficient of the low-pass filter by the light receiving element.
F (calligraphic typeface) is a Fourier transform in the light receiving direction.

Figure 0007058901000003
式(5)を分配則に従って整理すると、上記の式(6)で表すことができる。
Figure 0007058901000003
If the equation (5) is arranged according to the distributive law, it can be expressed by the above equation (6).

式(6)は、図21(b)に示すように、光軸と垂直な面を結像レンズで解像し、受光方向をフーリエ変換処理によって解像する3次元の解像処理を表している。 Equation (6) represents a three-dimensional resolution process in which a plane perpendicular to the optical axis is resolved by an imaging lens and the light receiving direction is resolved by a Fourier transform process, as shown in FIG. 21 (b). There is.

上述の「フーリエ変換処理の説明」欄で述べたように、光路差tdが変化すると、干渉縞の周波数が直線的に変化する。
そして、干渉縞信号の初期位相は、
2π[(Δf/T)td+f0×td]
の式となって、tdに対して放物線状に変化する。
As described in the above-mentioned "Explanation of Fourier Transform Process" column, when the optical path difference td changes, the frequency of the interference fringes changes linearly.
And the initial phase of the interference fringe signal is
2π [(Δf / T) td 2 + f0 × td]
It becomes a parabolic shape with respect to td.

反射点31から各受光素子33-1~33-nまでの光路長に一致する画素の複素信号を抽出し加算を行う際に、この初期位相の整合が行われる。初期位相の整合は、後述する図5のローパスフィルタ42-1~42-nによって、データ補間の処理と合わせて行われる。後述する図5のフィルタ係数生成部50において、データ補間用の係数と、位相整合用の複素信号の係数の乗算が行われ、ローパスフィルタ42-1~42-nの係数47-1~47-nが生成される。 This initial phase matching is performed when complex signals of pixels matching the optical path lengths from the reflection points 31 to the light receiving elements 33-1 to 33-n are extracted and added. The initial phase matching is performed by the low-pass filters 42-1 to 42-n of FIG. 5, which will be described later, together with the data interpolation processing. In the filter coefficient generation unit 50 of FIG. 5, which will be described later, the coefficient for data interpolation is multiplied by the coefficient of the complex signal for phase matching, and the coefficients 47-1 to 47- of the low-pass filters 42-1 to 42-n are multiplied. n is generated.

(2次元フィルタ処理37の処理動作の説明)
図5は、2次元フィルタ処理37の処理動作を説明する図である。
図4の受光方向の複素信号のデータ列36-1~36-nを、図5のラインメモリ41-1~41-nに記憶する。ラインメモリ41-1~41-nから、アドレス44-1~44-nによって、結像する開口に相当するデータ列の中から、図4の反射点31から各受光素子33-1~33-nまでの光路長に一致するアドレスに記憶されている複素信号48-1~48-nを読み出す。
(Explanation of processing operation of two-dimensional filter processing 37)
FIG. 5 is a diagram illustrating the processing operation of the two-dimensional filter processing 37.
The data strings 36-1 to 36-n of the complex signal in the light receiving direction of FIG. 4 are stored in the line memories 41-1 to 41-n of FIG. From the line memory 41-1 to 41-n, from the data string corresponding to the opening to be imaged by the addresses 44-1 to 44-n, from the reflection point 31 in FIG. 4, each light receiving element 33-1 to 33- The complex signals 48-1 to 48-n stored in the address corresponding to the optical path length up to n are read out.

そして、光路長の量子化誤差の影響を抑えるために、ローパスフィルタ42-1~42-nによって、複素信号48-1~48-nの受光方向のデータ補間と、上述した位相の整合を行ってから加算器49で加算を行う。 Then, in order to suppress the influence of the quantization error of the optical path length, the low-pass filters 42-1 to 42-n perform data interpolation in the light receiving direction of the complex signals 48-1 to 48-n and the above-mentioned phase matching. After that, addition is performed by the adder 49.

データ補間の精度は、受光方向の解像度の1/16以下が望ましい。データ補間は、スプライン補間が望ましい。ただし、近傍データを使用した直線補間でも十分である。反射点31から各受光素子33-1~33-nまでの光路長に一致する複素信号の近傍のデータが、ラインメモリ41-1~41-nから読み出される。読みだされたデータは、ローパスフィルタ42-1~42-nに入力されてデータ補間がなされる。 The accuracy of data interpolation is preferably 1/16 or less of the resolution in the light receiving direction. Spline interpolation is desirable for data interpolation. However, linear interpolation using neighborhood data is also sufficient. Data in the vicinity of the complex signal corresponding to the optical path length from the reflection point 31 to each light receiving element 33-1 to 33-n is read from the line memory 41-1 to 41-n. The read data is input to the low-pass filters 42-1 to 42-n, and data interpolation is performed.

データ補間と位相整合用のフィルタの係数47-1~47-nは、アドレス44-1~44-pに従い、フィルタ係数生成部50で生成される。サイドローブを抑えるために、補正用の重み係数を乗じてから加算を行っても良い。重み係数の乗算は、フィルタ係数生成部50において、ローパスフィルタ42-1~42-nのフィルタ係数47-1~47-nに乗ずることで行われる。 The coefficients 47-1 to 47-n of the filter for data interpolation and phase matching are generated by the filter coefficient generation unit 50 according to the addresses 44-1 to 44-p. In order to suppress the sidelobes, the addition may be performed after multiplying by the weighting coefficient for correction. The multiplication of the weighting coefficients is performed by multiplying the filter coefficients 47-1 to 47-n of the low-pass filters 42-1 to 42-n in the filter coefficient generation unit 50.

光路長が一致する複素信号48-1~48-nをラインメモリ41-1~41-nから読み出すためのアドレス44-1~44-nと、それにデータ補間用の下位アドレスを加えたアドレス44-1~44-pが、アドレス生成部45で生成される。 Addresses 44-1 to 44-n for reading complex signals 48-1 to 48-n having the same optical path length from line memories 41-1 to 41-n, and addresses 44 to which lower addresses for data interpolation are added. -1-44-p are generated by the address generation unit 45.

これらのアドレス44-1~44-pは、計算によって生成すること、もしくは、事前に算出したものをルックアップテーブルに記憶しておくこと、または、計算時間とメモリ規模のバランスを考慮して、それらの複合方式によること、により生成される。 These addresses 44-1 to 44-p may be generated by calculation, stored in a look-up table in advance, or in consideration of the balance between the calculation time and the memory scale. It is generated by the combined method.

また、反射光と参照光の光路長は、図4の各受光素子33-1~33-nの位置を含めて、光路中に配置された光学系や、反射ミラーの形状や位置によって、光源から各受光素子33-1~33-nまでの光路長に違いが生じる。このため、反射光と参照光の光路長がアドレス生成部45において正確に算出され、アドレス44-1~44-pに反映される。 The optical path length of the reflected light and the reference light depends on the optical system arranged in the optical path including the positions of the light receiving elements 33-1 to 33-n in FIG. 4 and the shape and position of the reflecting mirror. There is a difference in the optical path length from each light receiving element 33-1 to 33-n. Therefore, the optical path lengths of the reflected light and the reference light are accurately calculated by the address generation unit 45 and reflected in the addresses 44-1 to 44-p.

例えば、図1の構成の反射光と参照光の光路長を算出する。
撮像素子8の受光面の中心の位置を3次元座標の原点(0,0,0)とし、
紙面と垂直の方向をX軸、縦方向をY軸、光軸9の方向をZ軸とする。
For example, the optical path lengths of the reflected light and the reference light having the configuration of FIG. 1 are calculated.
The position of the center of the light receiving surface of the image sensor 8 is set as the origin (0,0,0) of the three-dimensional coordinates.
The direction perpendicular to the paper surface is the X-axis, the vertical direction is the Y-axis, and the direction of the optical axis 9 is the Z-axis.

反射光の光路長は、光源1の位置をビームスプリッタ2の反射面で折り返し、そのときの光軸9上の光源1の位置(0,0,s)から反射点6の位置(x,y,z)までの光路長に、反射点6の位置(x,y,z)から撮像素子8の各受光素子の位置(dx,dy,0)までの光路長を加えることになる。 The optical path length of the reflected light is such that the position of the light source 1 is folded back at the reflecting surface of the beam splitter 2, and the position of the light source 1 (0,0, s) on the optical axis 9 at that time is changed to the position of the reflection point 6 (x, y). , Z), the optical path length from the position of the reflection point 6 (x, y, z) to the position of each light receiving element of the image pickup element 8 (dx, dy, 0) is added.

反射光の光路長は、以下の式(7)で表される。
[x+y+(z-s)]1/2+[(x-dx)+(y-dy)+z] 1/2 (7)
The optical path length of the reflected light is expressed by the following equation (7).
[x 2 + y 2 + (zs) 2 ] 1/2 + [(x-dx) 2 + (y-dy) 2 + z 2 ] 1/2 (7)

また、参照光の光路長は、光源1の位置を反射ミラー4の反射面で折り返し、更に、それをビームスプリッタ2の反射面で折り返し、そのときの光源1の光軸9上の位置(0,0,r)から撮像素子8の各受光素子の位置(dx,dy,0)までの光路長となる。 Further, the optical path length of the reference light is such that the position of the light source 1 is folded back at the reflecting surface of the reflection mirror 4, and further folded back at the reflecting surface of the beam splitter 2, and the position (0) of the light source 1 at that time on the optical axis 9. , 0, r) to the position (dx, dy, 0) of each light receiving element of the image pickup element 8.

参照光の光路長は、以下の式(8)で表される。
[dx+dy+r] 1/2 (8)
The optical path length of the reference light is expressed by the following equation (8).
[dx 2 + dy 2 + r 2 ] 1/2 (8)

このように図1の場合は、反射光と参照光の光路長が容易に算出できるため、反射光と参照光の光路差が算出できる。そして、反射光と参照光の光路差を受光方向の標本化間隔で除した値が、フーリエ変換処理11によって受光方向を解像したときの画素のアドレスに対応する。このようにして、アドレス44-1~44-nを生成することができる。 As described above, in the case of FIG. 1, since the optical path lengths of the reflected light and the reference light can be easily calculated, the optical path difference between the reflected light and the reference light can be calculated. Then, the value obtained by dividing the optical path difference between the reflected light and the reference light by the sampling interval in the light receiving direction corresponds to the address of the pixel when the light receiving direction is resolved by the Fourier transform process 11. In this way, addresses 44-1 to 44-n can be generated.

また、2次元フィルタ処理を行う際に、ローパスフィルタ42-1~42-nのデータ補間によって、立方等配列の3次元画素へ変換することができる。このため、アドレス44-1~44-pは、それに対応して生成される。 Further, when performing the two-dimensional filter processing, it is possible to convert the pixels into three-dimensional pixels having a cubic or equal array by data interpolation of the low-pass filters 42-1 to 42-n. Therefore, the addresses 44-1 to 44-p are generated correspondingly.

また、3次元の解像は、被写体空間からの反射光を3次元にフーリエ変換すれば良い。フーリエ変換は、フーリエ変換後に乗算するフィルタの特性が一定(スペースインバリアントフィルタ)の場合に、バタフライ演算の効果によってトータルの乗算数を大きく減らすことができる。 Further, for three-dimensional resolution, the reflected light from the subject space may be Fourier transformed into three dimensions. In the Fourier transform, when the characteristics of the filter to be multiplied after the Fourier transform are constant (space invariant filter), the total multiplication number can be greatly reduced by the effect of the butterfly operation.

ところが、実際は、画素ごとに開口の大きさと焦点位置を変える(フィルタの特性を変える)必要がある。さらに、後述する光波面の乱れの補正では、光波面の乱れに合わせて画素ごとにフィルタの係数を変える必要がある。このため、本実施形態は、受光方向の1次元フーリエ変換処理に、3次元の画素ごとにフィルタの係数を最適化して重畳積分を行う2次元フィルタ処理12を組合せている。 However, in reality, it is necessary to change the size of the aperture and the focal position (change the characteristics of the filter) for each pixel. Further, in the correction of the disturbance of the light wave surface, which will be described later, it is necessary to change the coefficient of the filter for each pixel according to the disturbance of the light wave surface. Therefore, in the present embodiment, the one-dimensional Fourier transform process in the light receiving direction is combined with the two-dimensional filter process 12 that optimizes the coefficient of the filter for each three-dimensional pixel and performs superimposition integration.

また、2次元フィルタ処理の原理を説明する都合上、受光方向の複素信号36-1~36-nに対して並列に処理するシステム構成を中心に説明したが、実際は、回路規模との兼ね合いで、直列と並列の処理を適宜織り交ぜることになる。 In addition, for the convenience of explaining the principle of two-dimensional filter processing, the system configuration that processes complex signals 36-1 to 36-n in the light receiving direction in parallel has been mainly described, but in reality, in consideration of the circuit scale. , Series and parallel processing will be interwoven as appropriate.

また、上述したように、2次元フィルタ処理12はパラメータを適応的に切換えることが多いため、高速のCPUによるソフトウエア処理や、高速並列処理が得意で汎用言語によるプログラミングが可能なGPU(Graphics Processing Unit)などを組み合わせ、回路規模と処理時間のバランスをとり、システム構成の変更や、機能のバージョンアップをやり易くすることが望ましい。 Further, as described above, since the two-dimensional filter processing 12 often switches parameters adaptively, GPU (Graphics Processing), which is good at high-speed CPU processing and high-speed parallel processing and can be programmed in a general-purpose language, is possible. It is desirable to combine Unit) etc. to balance the circuit scale and processing time, and make it easier to change the system configuration and upgrade the functions.

(2次元フィルタ処理に必要な受光素子の配列間隔と指向性についての説明)
次に、図1の2次元フィルタ処理12に必要な受光素子の配列間隔と指向性について説明する。2次元フィルタ処理12は、反射光を2次元フーリエ変換することと同じである。
(Explanation of arrangement spacing and directivity of light receiving elements required for 2D filter processing)
Next, the arrangement spacing and directivity of the light receiving elements required for the two-dimensional filter processing 12 of FIG. 1 will be described. The two-dimensional filter processing 12 is the same as the two-dimensional Fourier transform of the reflected light.

図6(a)-(g)は、受光素子の配列間隔と指向性を説明する図である。
説明を簡素化するために、図6(a)-(g)に、反射光を1次元配列の受光素子で受光し、配列方向についてフーリエ変換したフーリエ変換対を示し、受光素子の配列間隔と指向性について説明を行う。y軸は、配列方向の位置を示し、Y軸は、y軸をフーリエ変換した焦点面の位置を示す。
6 (a)-(g) are diagrams for explaining the arrangement spacing and directivity of the light receiving elements.
In order to simplify the explanation, FIGS. 6A-(g) show a Fourier transform pair in which reflected light is received by a light receiving element having a one-dimensional arrangement and Fourier transformed with respect to the arrangement direction. I will explain the directionality. The y-axis indicates the position in the arrangement direction, and the Y-axis indicates the position of the focal plane obtained by Fourier transforming the y-axis.

図6(a)は、光軸上にある反射点からの反射光を、開口52によって受光したときの受光感度分布51を示している。受光感度分布51は、設定した開口52と受光素子単体の指向性(焦点面上の受光感度分布)53の積となる。ゆえに、開口52は、指向性53の範囲を超えて設定しても意味がない。 FIG. 6A shows a light receiving sensitivity distribution 51 when the reflected light from the reflection point on the optical axis is received by the aperture 52. The light receiving sensitivity distribution 51 is the product of the set aperture 52 and the directivity (light receiving sensitivity distribution on the focal plane) 53 of the light receiving element alone. Therefore, it is meaningless to set the opening 52 beyond the range of the directivity 53.

言い換えると、検出できる最大の解像度は、受光素子の指向性53で決まる。指向性53は、受光素子単体の開口とマイクロレンズによって形成される。図6(a)に示した受光感度分布51の波形は、開口52が指向性53より小さい場合を示している。また、受光素子単体の指向性53が常に光軸方向にあるため、検出する反射点が光軸から離れると、受光感度分布51の波形が変わる。図6(a)の波形は、反射点が光軸上にある場合を示している。 In other words, the maximum resolution that can be detected is determined by the directivity 53 of the light receiving element. The directivity 53 is formed by the aperture of the light receiving element alone and the microlens. The waveform of the light receiving sensitivity distribution 51 shown in FIG. 6A shows the case where the aperture 52 is smaller than the directivity 53. Further, since the directivity 53 of the light receiving element alone is always in the direction of the optical axis, the waveform of the light receiving sensitivity distribution 51 changes when the reflection point to be detected is separated from the optical axis. The waveform of FIG. 6A shows the case where the reflection point is on the optical axis.

図6(b)は、間隔Pの受光素子配列を示している。図6(c)は、受光素子単体の受光面上の感度分布を示している。 FIG. 6B shows an array of light receiving elements having an interval P. FIG. 6C shows the sensitivity distribution on the light receiving surface of the light receiving element alone.

図6(a)の関数をフーリエ変換すると図6(d)の関数になる。図6(b)の関数をフーリエ変換すると図6(e)の関数になる。図6(c)の関数をフーリエ変換すると図6(f)の関数になる。 The Fourier transform of the function of FIG. 6 (a) yields the function of FIG. 6 (d). The Fourier transform of the function of FIG. 6 (b) yields the function of FIG. 6 (e). The Fourier transform of the function of FIG. 6 (c) yields the function of FIG. 6 (f).

重畳積分の定理に従い、フーリエ変換により乗算は重畳積分(コンボリューション)に置き換わり、重畳積分は乗算に置き換わっている。 According to the fundamental theorem of superimposition integral, the Fourier transform replaces multiplication with superimposition integral (convolution) and superimposition integral with multiplication.

図6(d)は、受光感度分布51をフーリエ変換した焦点面上の点像分布関数(半値全幅が解像度)54を示す。図6(e)は、受光素子の配列によって起きる回折の極を示す。極の間隔は1/Pとなる。図6(f)は、マイクロレンズで形成される(マイクロレンズのフーリエ変換で形成される)受光素子単体の焦点面上の指向性(受光感度分布)53を示す。ちなみに、Y軸上の実際の数値は、焦点距離の逆数と中心波長に比例した係数を乗じた値になるが、本項の説明と直接の関りがないため、図は省略する。 FIG. 6D shows a point image distribution function (half width at half maximum is resolution) 54 on the focal plane obtained by Fourier transforming the light receiving sensitivity distribution 51. FIG. 6 (e) shows the poles of diffraction caused by the arrangement of the light receiving elements. The distance between the poles is 1 / P. FIG. 6 (f) shows the directivity (light receiving sensitivity distribution) 53 on the focal plane of the light receiving element unit formed by the micro lens (formed by the Fourier transform of the micro lens). Incidentally, the actual value on the Y-axis is the value obtained by multiplying the reciprocal of the focal length by a coefficient proportional to the center wavelength, but the figure is omitted because it is not directly related to the explanation in this section.

図6(d)の関数と図6(e)の関数を重畳積分し、さらに図6(f)の関数を乗算すると、図6(g)に示す波形となる。解像度57は、フーリエ変換対の関係から、受光感度分布51の開口τの逆数、1/τに比例する。上述したように、合成できる解像度(開口数)は受光素子の指向性53で決まる。目的とする解像度に応じてマイクロレンズの指向性が設定される。 When the function of FIG. 6 (d) and the function of FIG. 6 (e) are superimposed and integrated, and further multiplied by the function of FIG. 6 (f), the waveform shown in FIG. 6 (g) is obtained. The resolution 57 is proportional to the reciprocal of the aperture τ of the light receiving sensitivity distribution 51, 1 / τ, due to the relationship of the Fourier transform pair. As described above, the resolution (numerical aperture) that can be combined is determined by the directivity 53 of the light receiving element. The directivity of the microlens is set according to the target resolution.

そして、図6(g)の波形から分かるように、受光素子単体の指向性53が乗ぜられることで、第2主極55以上の回折(ゴースト画像の要因になる )が除去される。回折の極の間隔1/Pを、指向性53がnull(0)になる位置56より大きく設定しなくてはならない。言い換えると、受光素子の配列間隔Pは、解像度より小さく設定する必要がある。 Then, as can be seen from the waveform of FIG. 6 (g), the diffraction of the second main pole 55 or more (which becomes a factor of the ghost image) is removed by multiplying the directivity 53 of the light receiving element alone. The diffraction pole spacing 1 / P must be set larger than the position 56 where the directivity 53 is null (0). In other words, the array spacing P of the light receiving elements needs to be set smaller than the resolution.

例えば、図1の2次元フィルタ処理12によって1μの解像度を得るとき、受光素子の配列間隔は1μm以下が必要になる。ちなみに、撮像素子の画素間隔の製造限界は、現状、1μmを僅かに下回っている。また、マイクロレンズの指向性も、製造プロセスにおいて制御することが可能である。 For example, when a resolution of 1 μm is obtained by the two-dimensional filter processing 12 of FIG. 1, the arrangement spacing of the light receiving elements needs to be 1 μm or less. Incidentally, the manufacturing limit of the pixel spacing of the image sensor is currently slightly less than 1 μm. The directivity of the microlens can also be controlled during the manufacturing process.

画角の端にある反射点を検出する場合、±第2主極55の位置が光軸に最も近づく。これに対して、受光素子の指向性53は常に光軸方向にある。このため、±第2主極55が受光素子の指向性53内に入らないように、配列間隔Pを小さ目に設定するか、もしくは、画角を狭める必要がある。 When detecting the reflection point at the end of the angle of view, the position of ± 2nd main pole 55 is closest to the optical axis. On the other hand, the directivity 53 of the light receiving element is always in the optical axis direction. Therefore, it is necessary to set the arrangement interval P small or narrow the angle of view so that the ± second main pole 55 does not enter the directivity 53 of the light receiving element.

そこで、フーリエ変換処理11(図1)は、干渉縞信号を周波数成分ごとに直交検波をするのと同じである。フーリエ変換処理により、干渉縞のキャリア(搬送波成分)が消え、受光方向の点像分布関数の複素信号が得られる。 Therefore, the Fourier transform process 11 (FIG. 1) is the same as performing orthogonal detection of the interference fringe signal for each frequency component. By the Fourier transform process, the carriers (carrier components) of the interference fringes disappear, and a complex signal having a point image distribution function in the light receiving direction is obtained.

複素信号という2チャンネルの信号になるが、干渉縞のキャリアが無くなる分、その周波数帯域は狭くなり、点像分布関数の包絡線の帯域幅となる。これによって、光を複素信号に変換してから行なう2次元フィルタ処理12(図1)に必要な受光素子の配列間隔は、解像度の1/2以下であるミクロンオーダーで良いことになる。 It becomes a two-channel signal called a complex signal, but the frequency band becomes narrower as the carriers of the interference fringes disappear, and the bandwidth of the envelope of the point image distribution function becomes. As a result, the arrangement spacing of the light receiving elements required for the two-dimensional filter processing 12 (FIG. 1) performed after converting the light into a complex signal may be on the order of microns, which is ½ or less of the resolution.

これに対して、結像レンズの場合は、光の周波数をキャリアとするフーリエ変換であるため、その表面精度は光の波長の1/16以下(数10ナノオーダー)という高い精度が要求される。 On the other hand, in the case of an imaging lens, since it is a Fourier transform using the frequency of light as a carrier, its surface accuracy is required to be as high as 1/16 or less (several tens of nanometers) of the wavelength of light. ..

ただし、結像レンズは、結像を瞬時に行なえる大変優れた2次元フーリエ変換器であり、2次元フィルタ処理のように処理時間を必要としない。ただし、焦点位置、開口、倍率などの変更や光波面の乱れの補正を行う場合、複雑な光学系と機構が必要となり、その切換に時間を要する。 However, the imaging lens is a very excellent two-dimensional Fourier transform that can perform imaging instantly, and does not require processing time unlike the two-dimensional filter processing. However, when changing the focal position, aperture, magnification, etc., or correcting the disturbance of the light wave surface, a complicated optical system and mechanism are required, and it takes time to switch between them.

その点、2次元フィルタ処理は、それらの切換を電気的に行なうこと、画素ごとに最適化が図れること、劣化した解像度を回復すること、高解像を以って被写界深度を拡大することなどが可能になる。 In that respect, the two-dimensional filter processing electrically switches between them, optimizes each pixel, recovers the deteriorated resolution, and expands the depth of field with high resolution. Things can be done.

そこで、光学系と2次元フィルタ処理を組合せ、それぞれの特徴を活かすことで、用途と目的に応じたシステムの最適化を図ることができる。また、応用例は、後述する。 Therefore, by combining the optical system and the two-dimensional filter processing and making the best use of the characteristics of each, it is possible to optimize the system according to the application and purpose. Further, an application example will be described later.

反射光の通過媒体中に、屈折率の異なる組成の混在や途中光学系の収差などがあると、光波面に乱れを生じ、解像度が劣化する。次に、光波面の乱れによって劣化した解像度を、2次元フィルタ処理によって回復する構成、方法を説明する。 If a composition having a different refractive index is mixed or an aberration of the optical system is present in the medium through which the reflected light passes, the light wave surface is disturbed and the resolution is deteriorated. Next, a configuration and a method for recovering the resolution deteriorated due to the disturbance of the light wave surface by the two-dimensional filter processing will be described.

(2次元フィルタ処理により解像度を回復する説明)
図7は、光波面の乱れによって劣化した解像度を、2次元フィルタ処理によって回復する構成を説明する図である。
(Explanation to restore resolution by 2D filtering)
FIG. 7 is a diagram illustrating a configuration in which the resolution deteriorated due to the disturbance of the light wave surface is restored by the two-dimensional filter processing.

図7に示すように、開口を複数のブロック61-1~61-m~61-nに分割する。各ブロックに相当する干渉縞信号をメモリ5(図1)から読みだし、フーリエ変換62-1~62-nを行う。 As shown in FIG. 7, the opening is divided into a plurality of blocks 61-1 to 61-m to 61-n. The interference fringe signal corresponding to each block is read from the memory 5 (FIG. 1), and Fourier transforms 62-1 to 62-n are performed.

受光方向の複素信号を得た後、ブロックごとに2次元フィルタ処理63-1~63-nを行って、各ブロックの主光線67の方向に、反射点66の画素の前後数画素、例えば、計5画素の複素信号を検出する。 After obtaining a complex signal in the light receiving direction, two-dimensional filtering processing 63-1 to 63-n is performed for each block, and several pixels before and after the pixel of the reflection point 66, for example, in the direction of the main ray 67 of each block, for example. A complex signal with a total of 5 pixels is detected.

次に、各ブロックで検出した5画素の複素信号と、中央のブロック61-mの5画素の複素信号の相互相関処理64-1~64-nを行い、光路長のずれを検出する。相互相関処理64-1~64-nは、中央ブロック61-mの5画素の複素共役信号を、他のブロックの5画素の複素信号に重畳積分することで行われる。 Next, cross-correlation processing 64-1 to 64-n of the 5-pixel complex signal detected in each block and the 5-pixel complex signal in the central block 61-m is performed to detect the deviation in the optical path length. The cross-correlation processing 64-1 to 64-n is performed by superimposing and integrating the 5-pixel complex conjugate signal of the central block 61-m on the 5-pixel complex signal of the other block.

そのとき、重畳積分は、光路長のずれを示すピーク値の検出精度が、受光方向の解像度の1/16以下になるように、5画素についてデータ補間がなされて行われる。 At that time, the superimposition integration is performed by data interpolation for 5 pixels so that the detection accuracy of the peak value indicating the deviation of the optical path length is 1/16 or less of the resolution in the light receiving direction.

光波面の乱れが大きい場合は、相互相関処理を行う5画素の数を増やすことで対応する。光波面の乱れの空間周波数が高い場合は、標本化数を増やすためにブロック数を増やして対応する。ブロックの受光素子の出力にガウシアンの重み付けを施し、開口を重ねることでブロック数を2倍に増やしても良い。 If the turbulence of the light wave surface is large, it can be dealt with by increasing the number of 5 pixels that perform cross-correlation processing. If the spatial frequency of the turbulence of the light wave surface is high, increase the number of blocks to increase the number of samplings. Gaussian weighting may be applied to the output of the light receiving element of the block, and the number of blocks may be doubled by overlapping the openings.

相互相関処理64-1~64-nで検出した中央ブロックと各ブロックとの光路長のずれが、光波面の乱れを示す。このブロックごとの光路長のずれを、データ補間部66によって、図4の受光素子33-1~33-nに対応するようにデータの補間を行う。そして、図5に示す光路長整合のアドレス発生部45に送ってアドレス46に反映させる(アドレス46に加算する)。これによって、光波面の乱れを補正した2次元フィルタ処理ができることになる。 The difference in the optical path length between the central block and each block detected by the cross-correlation process 64-1 to 64-n indicates the disturbance of the optical wave surface. The data interpolation unit 66 interpolates the difference in the optical path length for each block so as to correspond to the light receiving elements 33-1 to 33-n in FIG. Then, it is sent to the address generation unit 45 of the optical path length matching shown in FIG. 5 and reflected in the address 46 (added to the address 46). This makes it possible to perform a two-dimensional filter process that corrects the disturbance of the light wave surface.

また、顕微鏡撮像のように開口数が大きいと、中央ブロックと開口端のブロックの相関性が薄れる。相関性が薄れを回避する方法を説明する。先ず、中央の1番目のブロックと相関性が高い隣の2番目のブロックとの相関処理を行う。次に、2番目のブロックと3番目のブロックとのあいだで相関処理を行う。これを順次外側に移行しながら繰り返し、光路長のずれを累積することで検出しても良い。 Further, when the numerical aperture is large as in the case of microscopic imaging, the correlation between the central block and the block at the open end is weakened. Explain how to avoid fading of correlation. First, the correlation process is performed between the first block in the center and the second block next to it, which has a high correlation. Next, a correlation process is performed between the second block and the third block. This may be detected by repeating this while sequentially shifting to the outside and accumulating the deviation of the optical path length.

検出誤差も累積されるが、受光方向の解像度がミクロンオーダーで、そのSN比が40db以上ある場合、受光方向の複素信号をデータ補間して相互相関処理を行うと、ずれの検出精度は、十数ナノオーダーという高い精度が得られる。このため、累積誤差を無視できる。開口数とSN比を鑑みて、相関処理の方法を選択することが望ましい。 Detection errors are also accumulated, but if the resolution in the light receiving direction is on the order of microns and the SN ratio is 40db or more, if cross-correlation processing is performed by data interpolation of the complex signal in the light receiving direction, the deviation detection accuracy will be ten. High accuracy on the order of several nanometers can be obtained. Therefore, the cumulative error can be ignored. It is desirable to select the correlation processing method in consideration of the numerical aperture and the SN ratio.

途中の光学系の収差で生じる光波面の乱れは、緩やかであり、光波面における空間周波数成分は低い。それに比して、通過媒体中に屈折率の異なる組成が解像度並みの大きさで混在する場合、光波面の乱れによる空間周波数成分が高くなる。 The disturbance of the light wave surface caused by the aberration of the optical system on the way is gentle, and the spatial frequency component in the light wave surface is low. On the other hand, when compositions having different refractive indexes are mixed in the passing medium with a size comparable to that of the resolution, the spatial frequency component due to the disturbance of the light wave surface becomes high.

空間周波数成分が高い場合、標本化定理に従ってブロック数を増やすことになる。ブロック数とブロックの開口数(NA)はトレードオフの関係にある。このため、ブロック数を増やすと相互相関の精度が落ちる。 If the spatial frequency component is high, the number of blocks will be increased according to the sampling theorem. There is a trade-off between the number of blocks and the numerical aperture of blocks (NA). Therefore, increasing the number of blocks reduces the accuracy of cross-correlation.

そこで、被写体ごとに光波面の乱れを統計的に把握し、それとSN比を拘束条件とする。次に、ブロックの数と開口数、および、相互相関の画素範囲の組合せを、組合せ最適化問題によって被写体ごとに事前に解いておく。そして、被写体ごとに最適なバランスに切換えてから補正を行う。 Therefore, the turbulence of the light wave surface is statistically grasped for each subject, and the SN ratio is used as a constraint condition. Next, the combination of the number of blocks, the numerical aperture, and the pixel range of the cross-correlation is solved in advance for each subject by the combinatorial optimization problem. Then, the correction is performed after switching to the optimum balance for each subject.

また、ブロック数と開口数と相互相関の範囲、SN比を変数として、2次元フィルタ処理後の画像のOTFの伸びを指標としたアニーリングやイテレーションによって、被写体ごとに最適な組み合わせを検出しておく。そして、被写体ごとに最適なバランスに切換えて補正を行っても良い。 In addition, the optimum combination is detected for each subject by annealing and iteration using the growth of OTF of the image after the two-dimensional filter processing as an index, with the number of blocks, the numerical aperture, the range of cross-correlation, and the SN ratio as variables. .. Then, the correction may be performed by switching to the optimum balance for each subject.

または、それらの変数に、統計的に把握した通過媒体中の屈折率の混在状況をパラメータとして加え、2次元フィルタ処理後のOTFの伸びを教師情報として、AIに最適なバランスを学習させる。そして、最適な組み合わせを判定、被写体ごとに最適なバランスに切換えて補正を行っても良い。 Alternatively, the statistically grasped mixed state of the refractive index in the passing medium is added to those variables as a parameter, and the elongation of OTF after the two-dimensional filter processing is used as teacher information to learn the optimum balance for AI. Then, the optimum combination may be determined, and the balance may be switched to the optimum balance for each subject to perform correction.

ちなみに、本実施形態の光波面の乱れを補正する原理は、天文学などで行われる補償光学と基本は同じである。ただし、補償光学の場合は、光波面の乱れを検出するために被写体空間にガイド星(点像)を設定する必要がある。高度90kmにあるナトリウム原子層にレーザー光を照射し,ナトリウムを励起して光らせることでガイド星を設定する。 Incidentally, the principle of correcting the disturbance of the light wave surface of this embodiment is basically the same as that of adaptive optics performed in astronomy or the like. However, in the case of adaptive optics, it is necessary to set a guide star (point image) in the subject space in order to detect the disturbance of the light wave surface. A guide star is set by irradiating a sodium atomic layer at an altitude of 90 km with laser light and exciting sodium to shine.

これと同様に、赤外光などで被写体の表面に点像を設定しても良いが、本実施形態の方法は、被写体の信号を使用した相互相関処理によって光波面の乱れを検知する。このため、被写体空間にガイド星と同じ点像を設定する必要がない。 Similarly, a point image may be set on the surface of the subject by infrared light or the like, but in the method of the present embodiment, the disturbance of the light wave surface is detected by the cross-correlation processing using the signal of the subject. Therefore, it is not necessary to set the same point image as the guide star in the subject space.

また、電気的な処理のため、補償光学の波面センサーや波面制御器に相当する図7のブロック61-1~61-nの数と大きさを、用途に応じて適宜設定することができる。そして、それらのバランスを最適化問題などの処理を活用して最適化することができる。 Further, for electrical processing, the number and size of blocks 61-1 to 61-n in FIG. 7, which correspond to the wavefront sensor and the wavefront controller of adaptive optics, can be appropriately set according to the application. Then, the balance can be optimized by utilizing a process such as an optimization problem.

また、更に精度の高い光波面の乱れの補正方法を説明する。各ブロック61-1~61-m~61-nの2次元フィルタ処理によって、検出点を中心とした5×5×5画素の3次元の複素信号データを検出する。その3次元の複素信号を使用した6軸(x,y,z,xθ,yθ,zθ)の相互相関処理をブロック間で行う。その結果から、光波面の乱れの補正に加えて、受光素子の受光位置の補正を行う。その後、2次元フィルタ処理を行う。 Further, a method for correcting the disturbance of the light wave surface with higher accuracy will be described. By the two-dimensional filter processing of each block 61-1 to 61-m to 61-n, three-dimensional complex signal data of 5 × 5 × 5 pixels centered on the detection point is detected. Cross-correlation processing of 6 axes (x, y, z, x θ , y θ , z θ ) using the three-dimensional complex signal is performed between blocks. From the result, in addition to the correction of the disturbance of the light wave surface, the light receiving position of the light receiving element is corrected. After that, a two-dimensional filter process is performed.

これによって、光波面の乱れの補正に留まらず、機械走査によって起きるブレを高い精度で補正しながら、2次元フィルタ処理を行うことができる。ただし、この補正方法は処理数が膨大となるため、処理時間が許される用途での適用となる。 As a result, it is possible to perform the two-dimensional filter processing while correcting the blur caused by the mechanical scanning with high accuracy as well as the correction of the disturbance of the light wave surface. However, since this correction method requires a huge number of processes, it is applied to applications where processing time is allowed.

次に、図8を用いて、図1のメモリ5に記憶した干渉縞のRAWデータからRGB画像を生成する構成、処理について説明する。 Next, a configuration and processing for generating an RGB image from the RAW data of the interference fringes stored in the memory 5 of FIG. 1 will be described with reference to FIG.

図8に示すように、図1のメモリ5から開口に相当する干渉縞信号71を順次、または、並列に読み出す。読みだされた信号は、FFT72によって、図9に示す可視光帯域81aのフーリエ変換が行われる。そして、受光方向が解像されたW(White)の複素信号が生成される。図9は、フーリエ変換によって生成する各種スペクトル画像の波長帯域を示す図である。 As shown in FIG. 8, the interference fringe signal 71 corresponding to the opening is read out sequentially or in parallel from the memory 5 of FIG. The read signal is subjected to Fourier transform of the visible light band 81a shown in FIG. 9 by FFT72. Then, a W (White) complex signal in which the light receiving direction is resolved is generated. FIG. 9 is a diagram showing wavelength bands of various spectral images generated by the Fourier transform.

被写体が生体などで、その内層を含めて透過像を検出する場合は、図9に示す生体透過性の高い近赤外領域82を含めてWの帯域とし、その範囲についてフーリエ変換を行ってWを生成しても良い。 When the subject is a living body or the like and the transmission image including the inner layer thereof is detected, the band is set to W including the near infrared region 82 having high biotransparency shown in FIG. 9, and the range is subjected to Fourier transform to perform W. May be generated.

Wの複素信号の生成に並行して、FFT73によって、図9に示すR帯域83のフーリエ変換が行われ、Rの複素信号が生成される。同じく、図8に示すFFT74によって、図9に示すB帯域84のフーリエ変換が行なわれ、Bの複素信号が生成される。
図9は、フーリエ変換によって生成する各種スペクトル画像の波長帯域を示す図である。
In parallel with the generation of the W complex signal, the FFT 73 performs the Fourier transform of the R band 83 shown in FIG. 9, and the R complex signal is generated. Similarly, the FFT 74 shown in FIG. 8 performs the Fourier transform of the B band 84 shown in FIG. 9, and the complex signal of B is generated.
FIG. 9 is a diagram showing wavelength bands of various spectral images generated by the Fourier transform.

そして、以上のW、R、Bの複素信号について、それぞれ2次元フィルタ処理を行い、W、R、Bの3次元の解像を行う。光路中に光学系を併用する場合、R、Bの2次元フィルタ処理の際に色収差(光路長のずれ)を補正することができる。また、前述したように、2次元フィルタ処理を行う際に、立方等配列の画素に変換しても良い。 Then, two-dimensional filter processing is performed on each of the above W, R, and B complex signals, and three-dimensional resolution of W, R, and B is performed. When an optical system is used together in the optical path, chromatic aberration (deviation in the optical path length) can be corrected during the two-dimensional filter processing of R and B. Further, as described above, when performing the two-dimensional filter processing, the pixels may be converted into pixels having a cubic or equal arrangement.

図8に示した各FFTと各2次元フィルタ処理は、図1のフーリエ変換処理11と2次元フィルタ12で説明したのと同じ機能を受け持つ。 Each FFT and each two-dimensional filter process shown in FIG. 8 have the same functions as those described in the Fourier transform process 11 and the two-dimensional filter 12 of FIG.

次に、図8のマトリクス変換器75でマトリクス変換を行なって、3次元に解像されたRGB信号を生成する。そして、表面画像、断面像、透過像、CGによる3次元構築画像など、目的に応じた画像を表示する。 Next, matrix conversion is performed by the matrix converter 75 of FIG. 8 to generate a three-dimensionally resolved RGB signal. Then, an image according to the purpose such as a surface image, a cross-sectional image, a transmission image, and a three-dimensional construction image by CG is displayed.

ちなみに、図9のR信号83とB信号84は、W信号よりも波長帯域幅が狭く、中心波長も異なる。このため、R信号83とB信号84の受光方向の解像度は、W信号の1/3程度になる。しかしながら、RとBに対する人の目の解像度が同じく1/3程度のため問題はない。 Incidentally, the R signal 83 and the B signal 84 in FIG. 9 have a narrower wavelength bandwidth than the W signal and have different center wavelengths. Therefore, the resolution of the R signal 83 and the B signal 84 in the light receiving direction is about 1/3 of that of the W signal. However, there is no problem because the resolution of the human eye for R and B is also about 1/3.

可視光81aの帯域を分割したR帯域とB帯域の干渉縞信号をフーリエ変換すると、R信号83とB信号84の複素信号が生成できる理由を述べる。広帯域の掃引光は、R、G、B、赤外など、複数の掃引光の線形和から成り立っていると考えられる。 The reason why the complex signal of the R signal 83 and the B signal 84 can be generated by Fourier transforming the interference fringe signal of the R band and the B band obtained by dividing the band of the visible light 81a will be described. The broadband sweep light is considered to consist of a linear sum of a plurality of sweep lights such as R, G, B, and infrared.

照明、反射、参照光との干渉、干渉縞の検出、フーリエ変換など、すべての処理は線形処理である。このため、重ね合わせの原理から、干渉縞信号からRやBの帯域に相当する周波数掃引の部分を抜き出して、フーリエ変換を行うことで、RやBの掃引光源を単独に用いて光干渉解像処理を行ったのと同じ結果が得られる。 All processes such as illumination, reflection, interference with reference light, interference fringe detection, and Fourier transform are linear processes. Therefore, from the principle of superposition, the frequency sweep portion corresponding to the band of R or B is extracted from the interference fringe signal, and the Fourier transform is performed to solve the optical interference by using the sweep light source of R or B alone. The same result as the image processing is obtained.

この原理から、正確な色再現が必要なときは、掃引された可視光帯の干渉縞信号にXYZ等色関数を乗じてフーリエ変換することで、XYZの複素信号を得ることができる。 From this principle, when accurate color reproduction is required, an XYZ complex signal can be obtained by performing a Fourier transform by multiplying the swept visible light band interference fringe signal by an XYZ color matching function.

(特徴軸へ正射影した受光方向の複素信号を得る構成の説明)
また、同じ原理から、特徴軸に直交変換する係数を干渉縞信号に乗じてフーリエ変換することで、特徴軸へ正射影した受光方向の複素信号を得ることができる。
(Explanation of the configuration for obtaining a complex signal in the light receiving direction that is orthographically projected onto the feature axis)
Further, from the same principle, a complex signal in the light receiving direction that is orthographically projected onto the feature axis can be obtained by performing a Fourier transform by multiplying the interference fringe signal by a coefficient that is orthogonally transformed to the feature axis.

図1のメモリ5に記憶した干渉縞のRAWデータを使用して行なうマルチスペクトルの解析について説明する。 A multispectral analysis performed using the RAW data of the interference fringes stored in the memory 5 of FIG. 1 will be described.

可視光帯の反射スペクトルを例にすると、主に、原子の外殻電子を励起する波長の吸収や、分子振動やスピンや分子間振動を励起する波長の吸収、屈折率の配列による回折散乱などによって、スペクトル成分が変化する。 Taking the reflection spectrum of the visible light band as an example, it mainly absorbs wavelengths that excite the outer shell electrons of atoms, absorbs wavelengths that excite molecular vibrations, spins, and intermolecular vibrations, and diffraction scattering due to the arrangement of refractive coefficients. Changes the spectral component.

これらによるスペクトル成分の変化は、物質の組成や構造と高い相関性を有しているが、多重的に生じることと、また、回折散乱などのように、照明や撮像の角度によってもある程度変化する。このため、スペクトル成分が類似している物質ごとのクラスタとして扱うことになる。 The changes in the spectral components due to these have a high correlation with the composition and structure of the substance, but they occur multiple times and also change to some extent depending on the illumination and the angle of imaging, such as diffraction and scattering. .. Therefore, it is treated as a cluster for each substance having similar spectral components.

このようなクラスタを識別する方法として、統計的な解析、例えば、多変量解析や、深層学習型のAIなどを使用すると、良い結果が得られる。このような方法によって2つのクラスタを識別する手順を以下に述べる。 Good results can be obtained by using statistical analysis, such as multivariate analysis, deep learning AI, etc., as a method of identifying such clusters. The procedure for identifying the two clusters by such a method is described below.

先ず、本実施形態の3次元撮像装置によって識別する2つの物質の干渉縞信号を、出来るだけ数多く取得する。次に、図8に示すデータフォーマット作成部81にて、付加情報70を付加し、RAWデータとして外部のコンピュータに送る。そして、記録装置にアーカイブする。 First, as many interference fringe signals of the two substances as identified by the three-dimensional image pickup apparatus of the present embodiment are acquired. Next, the data format creation unit 81 shown in FIG. 8 adds additional information 70 and sends it to an external computer as RAW data. Then, it is archived in a recording device.

付加情報70には、識別するクラスタの分散を小さくして、クラスタ間を識別しやすくする正規化処理の情報と、識別する物質を画像から切出すアドレスと、画像を生成するのに必要な諸々の情報とが含まれる。 The additional information 70 includes information on normalization processing that makes it easier to distinguish between clusters by reducing the dispersion of the clusters to be identified, an address that cuts out the substance to be identified from the image, and various information necessary for generating the image. Information and is included.

正規化処理の情報は、照明光の輝度、照明光の波長帯域特性などである。切り出しアドレスは、物質を識別できる専門家が、RGB画像や、後述するスペクトルの解析画像を観察してマウスなどで指定する。外部のコンピュータで画像を生成してから指定しても良い。画像を生成するのに必要な情報は、周波数掃引の帯域、直線性、受光素子の配列間隔と指向性などに対応する。 The information of the normalization process includes the brightness of the illumination light, the wavelength band characteristics of the illumination light, and the like. The cutout address is specified by a specialist who can identify the substance by observing an RGB image or an analysis image of a spectrum described later with a mouse or the like. You may specify it after generating the image on an external computer. The information required to generate the image corresponds to the frequency sweep band, linearity, array spacing and directivity of the light receiving elements, and the like.

記録装置から干渉縞信号を読み出し、コンピュータによって、取得したデータの正規化処理を行う。その後、フーリエ変換処理と2次元フィルタ処理を行って3次元画像を生成する。 The interference fringe signal is read from the recording device, and the acquired data is normalized by the computer. After that, a Fourier transform process and a two-dimensional filter process are performed to generate a three-dimensional image.

次に、切出しアドレスに従って、3次元画像から識別する物質の画像部分を切り出す。このとき、切り出した画素の受光方向の複素信号は、被写体表面からの反射光の複素信号が主となる。特に、可視光の場合は伝播減衰が大きいため、被写体表面の反射のみとなる。透明の被写体の場合は、目的とする受光方向の画素データを3次元に切り出す。 Next, the image portion of the substance to be identified from the three-dimensional image is cut out according to the cutout address. At this time, the complex signal in the light receiving direction of the cut out pixel is mainly the complex signal of the reflected light from the surface of the subject. In particular, in the case of visible light, since the propagation attenuation is large, only the reflection on the surface of the subject is performed. In the case of a transparent subject, the pixel data in the target light receiving direction is cut out in three dimensions.

切り出した画素の受光方向の複素信号の逆フーリエ変換を行う。逆フーリエ変換の結果から振幅信号を取り出すと、切り出した部分のマルチスペクトルデータを検出することができる。 Inverse Fourier transform is performed on the complex signal in the light receiving direction of the cut out pixel. By extracting the amplitude signal from the result of the inverse Fourier transform, the multispectral data of the cut out portion can be detected.

ちなみに、被写体が生体などの場合、透過性の高い近赤外帯を使用すれば、生体中の反射光を得ることができる。しかしながら、生体中を伝播するときの減衰が波長によって大きく異なり。また、伝播経路中にある組織の減衰が重畳される。 By the way, when the subject is a living body or the like, the reflected light in the living body can be obtained by using the near-infrared band having high transparency. However, the attenuation when propagating in the living body varies greatly depending on the wavelength. Also, the attenuation of the tissue in the propagation path is superimposed.

このため、クラスタの分散が大きくなり過ぎて、定量的なスペクトルの解析が難しい。従って、スペクトルの解析は、透明度の高い被写体の場合以外は、主として被写体表面の画像に対して行なうことになる。 Therefore, the dispersion of the cluster becomes too large, and it is difficult to analyze the spectrum quantitatively. Therefore, the spectrum analysis is mainly performed on the image on the surface of the subject, except for the case of a highly transparent subject.

次に、コンピュータによって、各スペクトル成分を直交軸とした多次元座標空間で、識別する2つ物質の大量のマルチスペクトルデ-タについて、FS(Foley-Sammon)変換を行なう。 Next, a computer performs FS (Folley-Sammon) conversion on a large amount of multispectral data of two substances to be identified in a multidimensional coordinate space with each spectral component as an orthogonal axis.

そして、2つのクラスタのフィッシャーレシオが大きい特徴軸を絞り込み、その特徴軸に射影変換するマトリクス変換係数、図8の77-1~77-nを取得する。FS変換は、2つのクラスタのフィッシャーレシオが大きくなる特徴軸を、大きい順に算出する直交変換である。データ圧縮と同様に、累積寄与率や経験上から、多くても5~6の特徴軸に絞り込むことができる。 Then, the feature axes having a large Fisher ratio of the two clusters are narrowed down, and the matrix conversion coefficients for projective transformation to the feature axes, 77-1 to 77-n in FIG. 8, are acquired. The FS transformation is an orthogonal transformation in which the feature axes in which the Fisher ratios of the two clusters increase are calculated in descending order. Similar to data compression, it can be narrowed down to at most 5 to 6 feature axes based on the cumulative contribution rate and experience.

次に、マルチスペクトルデータを特徴軸に射影変換した大量のデータを、図8のAI80と同じ構成のコンピュータ上のAIに学習させる。そして、学習済みの係数76(ニューロンの係数)を取得する。 Next, a large amount of data obtained by projecting and transforming the multispectral data to the feature axis is trained by an AI on a computer having the same configuration as the AI80 in FIG. Then, the learned coefficient 76 (neuron coefficient) is acquired.

AIの入力端子数は、FS変換によって絞り込んだ特徴軸の5~6となる。このため、AIの規模が、層数を含めて遥かに小さくなる。AIによる識別の特徴は、図10に示すように、非線形な切り分けZよる識別が可能になるところにある。 The number of input terminals of AI is 5 to 6 of the feature axes narrowed down by FS conversion. Therefore, the scale of AI is much smaller including the number of layers. As shown in FIG. 10, the feature of the discrimination by AI is that the discrimination by the non-linear separation Z becomes possible.

そして、図8に示すように、コンピュータから制御部78に送られ記憶されたマトリクス変換係数77-1~77-nを、乗算器79-1~79-nによって干渉縞信号71に乗ずる。これにより、干渉縞信号71の特徴軸EU1~EU6への射影変換がなされる。 Then, as shown in FIG. 8, the matrix conversion coefficients 77-1 to 77-n sent from the computer to the control unit 78 and stored are multiplied by the interference fringe signal 71 by the multipliers 79-1 to 79-n. As a result, the projective transformation of the interference fringe signal 71 into the feature axes EU1 to EU6 is performed.

図10は、AIによる特定する物質の非線形な切り分けを説明する図である。
特徴軸EU1~EU6へ射影変換された干渉縞信号は、フーリエ変換処理と2次元フィルタ処理によって、特徴軸EU1~EU6の画像であるスペクトルの解析画像が生成される。
FIG. 10 is a diagram illustrating a non-linear separation of a substance to be specified by AI.
The interference fringe signal projected onto the feature axes EU1 to EU6 is subjected to a Fourier transform process and a two-dimensional filter process to generate an analysis image of a spectrum which is an image of the feature axes EU1 to EU6.

スペクトルの解析画像の上位EU1、EU2、EU3を、視覚感度の大きい順のYIQ(NTSCの内部処理で使用されるコンポーネント方式)に割り当てて、RGBへマトリクス変換を行ってから表示しても良い。後は、観察者の視覚脳が非線形な識別を行う。 The upper EU1, EU2, and EU3 of the spectrum analysis image may be assigned to YIQ (component method used in the internal processing of NTSC) in descending order of visual sensitivity, and may be displayed after performing matrix conversion to RGB. After that, the observer's visual brain makes a non-linear discrimination.

または、スペクトルの解析画像を画素ごとにAI80に入力し、2つの物質の識別を画素ごとに行っても良い。このとき、AIのニューロン係数76は、コンピュータから制御部78を介してAI80に概にローディングされている。 Alternatively, the analysis image of the spectrum may be input to the AI80 for each pixel, and the two substances may be identified for each pixel. At this time, the neuron coefficient 76 of AI is generally loaded from the computer into AI80 via the control unit 78.

AI80で識別した結果は、識別した物質の画素部分を疑似カラー化して、RGB画像と融合表示しても良い。 The result identified by AI80 may be displayed by fusing with an RGB image by pseudo-coloring the pixel portion of the identified substance.

上述したFS変換による識別は、あくまでも2つのクラスタを識別する方式である。複数の物質を特定する場合は、その都度、特徴軸を切換えることになる。その切換えをツリー状に組合せて複数回行なったとしても、特徴軸が5~6に絞り込まれているのと、AI80の回路規模が小さいため、ツリー状の識別動作を高速に行なうことができる。 The above-mentioned identification by FS conversion is a method for identifying two clusters. When specifying a plurality of substances, the characteristic axis is switched each time. Even if the switching is performed a plurality of times in combination in a tree shape, the feature axis is narrowed down to 5 to 6 and the circuit scale of the AI80 is small, so that the tree shape identification operation can be performed at high speed.

または、特定する複数の物質のマルチスペクトル波形を、直接、AIに学習(教師あり)させて、複数の物質を特定しても良い。ただし、そのときのAIの入力端子の数がマルチスペクトルの数だけ必要になる。このため、AIの規模が大きくなる。 Alternatively, the multispectral waveforms of the plurality of substances to be specified may be directly learned (supervised) by AI to specify the plurality of substances. However, the number of AI input terminals at that time is required as many as the number of multi-spectrums. Therefore, the scale of AI becomes large.

次に、光源の周波数掃引に歪みがある場合、もしくは時間や温度で変動する場合の補正方法について説明する。周波数掃引の直線性と変動が補償されたレーザー光源は少なく、また、高価であるため、電気的に補正ができれば本実施形態の用途が広がる。 Next, a correction method will be described when the frequency sweep of the light source is distorted or when it fluctuates with time or temperature. Since there are few laser light sources that are compensated for the linearity and fluctuation of frequency sweep and they are expensive, the applications of this embodiment will be expanded if they can be electrically corrected.

図11は、レーザー光源の周波数掃引の直線性に歪みがある場合を説明する図である。
周波数掃引の直線性に歪みがあると、図11に示すように、反射光101と参照光102の光路差103によって、干渉縞信号に周波数変調(周波数分散)104が生ずる。これにより、フーリエ変換後のスペクトル幅が広がり、解像度が落ちる。そして、光路差103が変わると、その周波数変調104も変化する。
FIG. 11 is a diagram illustrating a case where the linearity of the frequency sweep of the laser light source is distorted.
When the linearity of the frequency sweep is distorted, as shown in FIG. 11, the optical path difference 103 between the reflected light 101 and the reference light 102 causes frequency modulation (frequency dispersion) 104 in the interference fringe signal. As a result, the spectral width after the Fourier transform is widened and the resolution is lowered. Then, when the optical path difference 103 changes, the frequency modulation 104 also changes.

このような掃引の歪みで起きる周波数変調104は、フーリエ変換後のスペクトル分散に位相整合のフィルタリングを行うことで、補正することができる。位相整合は、図5に示すように、FIRフィルタ(Finite Impulse Response Filter)86-1~86-nを使用し、周波数変調104をフーリエ変換して生成した複素共役信号を重畳積分することで行なう。FIRフィルタの長さは、フーリエ変換後の周波数分散の範囲を見越して設定される。 The frequency modulation 104 caused by such sweep distortion can be corrected by performing phase matching filtering on the spectral dispersion after the Fourier transform. As shown in FIG. 5, the phase matching is performed by superimposing and integrating the complex conjugate signal generated by Fourier transforming the frequency modulation 104 using an FIR filter (Filine Impulse Response Filter) 86-1 to 86-n. .. The length of the FIR filter is set in anticipation of the range of frequency dispersion after the Fourier transform.

上述したように、図11に示す受光方向の光路差103が変わると、干渉縞の周波数変調が変わる。このため、受光方向の画素ごとに位相整合フィルタの係数87-1~87-n(図5)を切換えて乗算する。 As described above, when the optical path difference 103 in the light receiving direction shown in FIG. 11 changes, the frequency modulation of the interference fringes changes. Therefore, the coefficients 87-1 to 87-n (FIG. 5) of the phase matching filter are switched and multiplied for each pixel in the light receiving direction.

ただし、周波数の掃引時間に対して、光路差103の変化による時間の変化は極わずかとなるため、フーリエ変換後のスペクトル分散は殆んど変化がない。周波数掃引の時間と帯域幅と歪の大きさによってスペクトル分散の変化が変わるため、それに応じて位相整合フィルタの係数87-1~87-n(図5)の切換えの必要性を判断する。 However, since the change in time due to the change in the optical path difference 103 is extremely small with respect to the frequency sweep time, there is almost no change in the spectral variance after the Fourier transform. Since the change in the spectral variance changes depending on the time of frequency sweep, the bandwidth, and the magnitude of distortion, the necessity of switching the coefficients 87-1 to 87-n (FIG. 5) of the phase matching filter is determined accordingly.

位相整合フィルタの係数87-1~87-n(図5)は、図11に示した周波数変調104をフーリエ変換して生成した複素共役信号が使用される。光源周波数掃引の直線性の歪みの変化を適切な時間周期で検出し、図5のFIR係数発生部88において位相整合フィルタの係数87-1~87-nを算出し、FIR係数発生部88(図5)内のメモリに保存して使用する。 As the coefficients 87-1 to 87-n (FIG. 5) of the phase matching filter, the complex conjugate signal generated by Fourier transforming the frequency modulation 104 shown in FIG. 11 is used. Changes in the linear distortion of the light source frequency sweep are detected at an appropriate time cycle, and the coefficients 87-1 to 87-n of the phase matching filter are calculated in the FIR coefficient generating section 88 of FIG. 5, and the FIR coefficient generating section 88 ( Save and use in the memory in Fig. 5).

また、位相整合フィルタの係数87-1~87-nは、図8の制御部78を介して、付加情報70に追加され、データフォーマット作成部81に送られる。 Further, the coefficients 87-1 to 87-n of the phase matching filter are added to the additional information 70 via the control unit 78 of FIG. 8 and sent to the data format creation unit 81.

次に、周波数掃引の直線性の歪みを検出する方法について説明する。分光器を使用して周波数掃引を検知する。図12に示すように、周波数掃引点光源1(図1)からの出射光をビームスプリッタ111によって分割し、コリメート光学系112によって平行光に変換する。
図12は、周波数掃引の直線性の歪みを検出する構成について説明する図である。
Next, a method of detecting the linear distortion of the frequency sweep will be described. A spectroscope is used to detect frequency sweeps. As shown in FIG. 12, the light emitted from the frequency sweep point light source 1 (FIG. 1) is split by the beam splitter 111 and converted into parallel light by the collimating optical system 112.
FIG. 12 is a diagram illustrating a configuration for detecting a linear distortion of frequency sweep.

その後、分光器113によって波長成分に分光し、結像光学系115によって分光方向に配置された1次元配列の受光素子(ラインセンサー)114に結像させ、受光する。光源1からの出射光はスポット状に結像され、周波数掃引に従って1次元受光素子114上を移動する。 After that, it is separated into wavelength components by a spectroscope 113, imaged on a light receiving element (line sensor) 114 having a one-dimensional arrangement arranged in the spectral direction by an imaging optical system 115, and received light. The light emitted from the light source 1 is imaged in a spot shape and moves on the one-dimensional light receiving element 114 according to the frequency sweep.

光源の周波数掃引の間に、1次元受光素子114の読出しを複数回繰返し、スポット光の移動を検出し、掃引周波数の歪みを検出する。ピーク値検出回路115によって、受光素子の画素データを補間してピーク値を検出し、スポット光の位置の精度を高める。 During the frequency sweep of the light source, the reading of the one-dimensional light receiving element 114 is repeated a plurality of times to detect the movement of the spot light and detect the distortion of the sweep frequency. The peak value detection circuit 115 interpolates the pixel data of the light receiving element to detect the peak value, and improves the accuracy of the position of the spot light.

周波数変調104(図11)の位相は、FIR係数発生部88(図5)において、FM変調の位相を計算するときの時間積分の式を用いて算出される。 The phase of the frequency modulation 104 (FIG. 11) is calculated by the FIR coefficient generator 88 (FIG. 5) using the time integration formula when calculating the phase of the FM modulation.

1次元受光素子114で検出されたスポット光の位置が、メモリ116に一旦記憶され、周波数変調の波形にされた後、図5のFIR係数発生部88に送られ、直線性の歪みを補正するFIRフィルタの係数87-1~87-nが計算によって生成され、FIRフィルタ86-1~86-nに送られて補正が行われる。 The position of the spot light detected by the one-dimensional light receiving element 114 is temporarily stored in the memory 116, converted into a frequency modulation waveform, and then sent to the FIR coefficient generating unit 88 in FIG. 5 to correct the linear distortion. The coefficients 87-1 to 87-n of the FIR filter are generated by calculation and sent to the FIR filters 86-1 to 86-n for correction.

1次元受光素子114の読み出しの繰返し周波数は、光源の周波数掃引の歪みが緩やかであるため、多く値を必要としない。データ補間で周波数掃引の特性を再現できる。周波数掃引の歪みの検出精度は、受光方向の解像度に対応した値が必要とされる。 The repetition frequency of reading of the one-dimensional light receiving element 114 does not require a large value because the distortion of the frequency sweep of the light source is gentle. The characteristics of frequency sweep can be reproduced by data interpolation. The frequency sweep distortion detection accuracy requires a value corresponding to the resolution in the light receiving direction.

または、上述したように、光路差103に対するフーリエ変換後のスペクトル分散の変化を無視できる場合、位相整合フィルタの係数(図5の87-1~87-n)を切換える必要がない。このため、基準反射点からの反射光の複素信号を、光干渉計を利用して検出し、それをフーリエ変換した複素共役信号を位相整合フィルタの係数(図5の87-1~87-n)として使用しても良い。 Alternatively, as described above, when the change in the spectral variance after the Fourier transform with respect to the optical path difference 103 can be ignored, it is not necessary to switch the coefficients of the phase matching filter (87-1 to 87-n in FIG. 5). Therefore, the complex signal of the reflected light from the reference reflection point is detected by using an optical interferometer, and the complex conjugate signal obtained by Fourier transforming the complex signal is the coefficient of the phase matching filter (87-1 to 87-n in FIG. 5). ) May be used.

(応用例) 次に、本実施形態の応用例について説明する。
(第1の応用例)
撮像素子8(図1)の代わりに単一の受光素子を使用し、2次元の走査機構によって、被写体からの反射光を2次元に検出し、フーリエ変換処理と2次元フィルタ処理によって3次元の解像を行う。単一の受光素子は、超高感度のものや、可視光以外の特殊な波長帯域を検出できるものがあるため、そのような波長帯域を利用する3次元撮像装置や検査装置に応用できる。
(Application Example) Next, an application example of this embodiment will be described.
(First application example)
A single light receiving element is used instead of the image pickup element 8 (FIG. 1), the reflected light from the subject is detected in two dimensions by the two-dimensional scanning mechanism, and the three-dimensional by Fourier transform processing and two-dimensional filter processing. Resolve. Since a single light receiving element can detect an ultrasensitive element or a special wavelength band other than visible light, it can be applied to a three-dimensional image pickup device or an inspection device using such a wavelength band.

(第2の応用例)
また、撮像素子8(図1)の代わりに、1次元配列の受光素子(ラインセンサー)を使用し、配列と交差する方向に1次元走査機構によって走査を行ない、被写体からの反射光を2次元に検出し、フーリエ変換処理と2次元フィルタ処理によって3次元の解像を行う。
(Second application example)
Further, instead of the image pickup element 8 (FIG. 1), a light receiving element (line sensor) having a one-dimensional arrangement is used, scanning is performed by a one-dimensional scanning mechanism in a direction intersecting the arrangement, and the reflected light from the subject is two-dimensional. Is detected, and three-dimensional resolution is performed by Fourier transform processing and two-dimensional filter processing.

ラインセンサーは、画素数の多いものや、高感度のもの、特殊な波長帯域を検出できるものがあり、3次元計測とスペクトルの解析による組成識別のできるFA( Factory Automation)用の検査装置や、FA用ロボットの視覚センサーなどに応用することができる。 Line sensors include those with a large number of pixels, those with high sensitivity, and those that can detect a special wavelength band, such as inspection equipment for FA (Factory Automation) that can identify the composition by three-dimensional measurement and spectral analysis. It can be applied to the visual sensor of FA robots.

(第3の応用例)
本実施形態は、結像光学系を使用せずとも3次元を解像することができる。しかしながら、上述したように、本実施形態と結像光学系と組み合わせることで、2次元フィルタの処理数を減らすことができる。
(Third application example)
In this embodiment, three-dimensional resolution can be achieved without using an imaging optical system. However, as described above, by combining this embodiment with the imaging optical system, the number of processing of the two-dimensional filter can be reduced.

図13は、本実施形態の応用例の構成を示す図である。
図13に示すように、主光線123の方向の解像をフーリエ変換処理によって行う。光軸121と垂直な面の解像は、結像光学系122によって行う。得られた3次元の複素信号を使用して、結像光学系122の被写界深度の拡大と、光波面の乱れによる解像度劣化の回復を、2次元フィルタ処理によって行うことができる。光波面の乱れの補正によって光学系の収差も補正できる。4aは、反射ミラーである。
FIG. 13 is a diagram showing a configuration of an application example of the present embodiment.
As shown in FIG. 13, the resolution in the direction of the main ray 123 is performed by the Fourier transform process. The resolution of the plane perpendicular to the optical axis 121 is performed by the imaging optical system 122. Using the obtained three-dimensional complex signal, the depth of field of the imaging optical system 122 can be expanded and the resolution deterioration due to the disturbance of the light wave surface can be recovered by the two-dimensional filtering process. Aberrations in the optical system can also be corrected by correcting the disturbance of the light wave surface. Reference numeral 4a is a reflection mirror.

図14(a)は、反射点124(図13)の結像位置が、撮像素子125(図13)より前(被写体側)にあるときの結像光束126を示す。図14(b)は、撮像素子より後(像側)にあるときの結像光束127を示す。 FIG. 14A shows an imaged luminous flux 126 when the image forming position of the reflection point 124 (FIG. 13) is in front of the image pickup element 125 (FIG. 13) (subject side). FIG. 14B shows the image luminous flux 127 when it is behind (image side) the image sensor.

点線の光束128-1と128-2は、2次元フィルタ処理による仮想レンズ129-1と129-2によって、それぞれ再結像したときの光束を示している。2次元フィルタ処理を主光線123の方向の画素に対して行うことで、被写界深度の拡大と、上述した光波面の乱れで劣化した解像度の回復を行うことができる。 The dotted line luminous fluxes 128-1 and 128-2 show the luminous flux when re-imaged by the virtual lenses 129-1 and 129-2, which are processed by a two-dimensional filter. By performing the two-dimensional filter processing on the pixels in the direction of the main ray 123, it is possible to increase the depth of field and recover the resolution deteriorated due to the above-mentioned disturbance of the light wave surface.

このように結像光学系と2次元フィルタ処理を組み合わせると、2次元フィルタ処理を行う範囲を小さくすることができ、処理数が大きく減る。このため、実時間での処理が可能になる。 By combining the imaging optical system and the two-dimensional filter processing in this way, the range in which the two-dimensional filter processing is performed can be reduced, and the number of processes can be greatly reduced. Therefore, processing in real time becomes possible.

これにより、3次元形状測定装置やロボットの視覚センサーなどに応用できる。白色干渉顕微鏡と比較して、水平分解能、測定スピード、角度特性に優れ、スペクトルの解析が同時にできる3次元形状測定が可能になる。 This can be applied to a three-dimensional shape measuring device, a visual sensor of a robot, and the like. Compared to a white interference microscope, it has excellent horizontal resolution, measurement speed, and angular characteristics, and enables three-dimensional shape measurement that enables simultaneous spectral analysis.

また、本実施形態を眼底撮像装置に応用すれば、対物光学系や眼球光学系の表面の不要反射や、硝子体の濁りによる不要反射を、光路長の違いから除去することができる。また、従来、眼球光学系からの不要反射を避けるために、照明用と撮像用にリング分割していた眼球光学系の開口を、全て使用できるようになる。このため、高精細で高コントラストの眼底撮像を高速に行うことができ、網膜の断層像を3次元で検出することができる。 Further, if this embodiment is applied to a fundus imaging device, unnecessary reflections on the surface of the objective optical system and the eyeball optical system and unnecessary reflections due to turbidity of the vitreous body can be removed from the difference in the optical path length. Further, in order to avoid unnecessary reflection from the eyeball optical system, all the openings of the eyeball optical system, which have been divided into rings for illumination and for imaging, can be used. Therefore, high-definition and high-contrast fundus imaging can be performed at high speed, and a tomographic image of the retina can be detected in three dimensions.

図13において、撮像機構を1次元に走査して断層像を検出し、フーリエ変換処理と2次元フィルタ処理によって光軸方向121のみの解像と被写界深度の拡大を行う。これにより、被写界深度の拡大に必要な撮像素子の素子数は100画素以下で済む。このため、2次元フィルタの処理数を更に大きく減らすことができ、水平解像度が高く被写界深度の深い断層像を実時間で検出できるようになる。 In FIG. 13, a tomographic image is detected by scanning the imaging mechanism one-dimensionally, and resolution and depth of field are expanded only in the optical axis direction 121 by Fourier transform processing and two-dimensional filter processing. As a result, the number of image sensor elements required to increase the depth of field is 100 pixels or less. Therefore, the number of processing of the two-dimensional filter can be further reduced, and a tomographic image having a high horizontal resolution and a deep depth of field can be detected in real time.

光波面の乱れの補正に時間を要する場合は、静止画をフリーズしたときに解像度劣化の回復を行うことが望ましい。 If it takes time to correct the disturbance of the light wave surface, it is desirable to recover the resolution deterioration when the still image is frozen.

また、周波数掃引光源を低コヒーレンス光源(例えば、SLD:Super Luminescent Diode)に置き換えて、干渉縞信号を分光器で分光する。これにより、周波数掃引光源で得たのと同じように、周波数掃引された干渉縞信号を得ることができ、これをフーリエ変換処理と2次元フィルタ処理することで、3次元の解像を行うことができる。 Further, the frequency sweep light source is replaced with a low coherence light source (for example, SLD: Super Luminescent Diode), and the interference fringe signal is separated by a spectroscope. As a result, a frequency-swept interference fringe signal can be obtained in the same manner as that obtained with a frequency-swept light source, and this can be subjected to Fourier transform processing and two-dimensional filtering to perform three-dimensional resolution. Can be done.

図15は、本実施形態において低コヒーレンス光源を用いた構成を示す図である。
図15に示すように、低コヒーレンス光源(SLD)131から出射された広帯域光は、ビームスプリッタ132で反射され、被写体133を照明する。反射点130からの反射光は、対物光学系134によって結像され、結像面に設置されたスリット135を介して不要光が除去される。
FIG. 15 is a diagram showing a configuration using a low coherence light source in the present embodiment.
As shown in FIG. 15, the wideband light emitted from the low coherence light source (SLD) 131 is reflected by the beam splitter 132 and illuminates the subject 133. The reflected light from the reflection point 130 is imaged by the objective optical system 134, and unnecessary light is removed through the slit 135 installed on the image forming surface.

その後、コリメート光学系136によって平行光に変換され、分光器137に入光される。スリット135の開口の中心が、対物光学系134の光軸上に位置している。反射光は、分光器137で分光された後、結像光学系138によって撮像素子139上に結像される。 After that, it is converted into parallel light by the collimated optical system 136 and is input to the spectroscope 137. The center of the opening of the slit 135 is located on the optical axis of the objective optical system 134. The reflected light is separated by the spectroscope 137 and then imaged on the image pickup device 139 by the imaging optical system 138.

ビームスプリッタ132で分離された一方の光は、シリンドリカル光学系140によって反射ミラー141上に線分142として結像される。線分142から反射した光は、シリンドリカル光学系140と対物光学系134と、スリット135と、コリメート光学系136を介して平行光に変換される。 One of the lights separated by the beam splitter 132 is imaged as a line segment 142 on the reflection mirror 141 by the cylindrical optical system 140. The light reflected from the line segment 142 is converted into parallel light via the cylindrical optical system 140, the objective optical system 134, the slit 135, and the collimated optical system 136.

平行光は、分光器137で分光された後、結像光学系138によって撮像素子139上に結像される。そして、撮像素子139の受光面上で反射光と参照光の合波がなされ、生じた干渉縞は撮像素子によって電気信号に変換される。 The parallel light is separated by the spectroscope 137 and then imaged on the image pickup device 139 by the imaging optical system 138. Then, a combined wave of the reflected light and the reference light is formed on the light receiving surface of the image pickup element 139, and the generated interference fringes are converted into an electric signal by the image pickup element.

このとき、ビームスプリッタ132の反射面で折り返したシリンドリカル光学系140の光軸が、対物光学系134の光軸と一致し、かつ線分142とスリット135の開口が光学的に共役になるように、シリンドリカル光学系140と反射ミラー141が配置されている。 At this time, the optical axis of the cylindrical optical system 140 folded back at the reflection surface of the beam splitter 132 coincides with the optical axis of the objective optical system 134, and the openings of the line segment 142 and the slit 135 are optically coupled. , Cylindrical optical system 140 and reflection mirror 141 are arranged.

そして、分光器137によって分光する方向とその範囲が、撮像素子139の画素の縦配列の方向とその範囲に一致するように、分光器137と撮像素子139と結像光学系138が配置されている。 Then, the spectroscope 137, the image pickup element 139, and the imaging optical system 138 are arranged so that the direction and the range of spectroscopy by the spectroscope 137 coincide with the direction of the vertical arrangement of the pixels of the image pickup element 139 and the range thereof. There is.

以上の構成により、対物光学系134によってスリット135の開口に結像された被写体像が、撮像素子139の横の画素配列に結像される。そして、横の配列画素ごとに分光され、生じた干渉縞信号が、縦の画素配列から検出される。 With the above configuration, the subject image formed in the opening of the slit 135 by the objective optical system 134 is formed in the pixel array on the side of the image pickup device 139. Then, the interference fringe signal generated by being dispersed for each horizontal array pixel is detected from the vertical pixel array.

撮像素子139から干渉縞信号が順次読み出され、メモリ(不図示)に記憶される。そして、走査機構143によって、被写体133、もしくは、光軸144を、図15の縦方向130に走査し、干渉縞信号を2次元に取得してメモリに記憶する。 Interference fringe signals are sequentially read from the image sensor 139 and stored in a memory (not shown). Then, the subject 133 or the optical axis 144 is scanned by the scanning mechanism 143 in the vertical direction 130 of FIG. 15, and the interference fringe signal is acquired two-dimensionally and stored in the memory.

そして、メモリから干渉縞信号を読み出し、フーリエ変換処理によって受光方向を解像し、3次元の解像を得る。そして、2次元フィルタ処理によって被写界深度の拡大と光波面の乱れの補正を行う。 Then, the interference fringe signal is read out from the memory, and the light receiving direction is resolved by the Fourier transform process to obtain a three-dimensional resolution. Then, the depth of field is expanded and the disturbance of the light wave surface is corrected by the two-dimensional filter processing.

図16(a)、(b)、(c)は、対物光学系134(図15)の合焦位置145から外れた位置にある反射点146の反射光を、光軸144を紙面の縦方向に走査しながら検出するときの反射光の光路147-1、147-m、147-nを示す。 16 (a), (b), and (c) show the reflected light of the reflection point 146 located outside the in-focus position 145 of the objective optical system 134 (FIG. 15), and the optical axis 144 in the vertical direction of the paper surface. The optical path of the reflected light when detecting while scanning is shown as 147-1, 147-m, and 147-n.

図16(a)、(b)、(c)は、反射点146が光軸144上にある場合と、受光束148の両端にある場合の3つのパターン147-1、147-m、147-nを示している。 16 (a), (b), and (c) show three patterns 147-1, 147-m, and 147- when the reflection point 146 is on the optical axis 144 and when it is at both ends of the light receiving bundle 148. Shows n.

図16(a)、(b)、(c)から分かるように、反射点146が合焦位置145から離れていても、縦方向に走査を行なって検出すると、受光束148の範囲において反射光147-1~147-nを検出することができる。 As can be seen from FIGS. 16A, 16B, and 16C, even if the reflection point 146 is far from the in-focus position 145, when it is detected by scanning in the vertical direction, the reflected light is reflected in the range of the light receiving bundle 148. 147-1 to 147-n can be detected.

これらの反射光147-1~147-nを使用し、受光方向のフーリエ変換処理と2次元フィルタ処理によって、反射点146を解像することができる。反射点146が、合焦位置145より後側に外れた場合も、同様に解像することができる。 Using these reflected lights 147-1 to 147-n, the reflection point 146 can be resolved by the Fourier transform process in the light receiving direction and the two-dimensional filter process. When the reflection point 146 deviates to the rear side from the in-focus position 145, the resolution can be similarly obtained.

反射点146が、対物光学系134(図15)の合焦位置145から外れると、スリット149によって光束が蹴られて感度が落ちるが、2次元フィルタ処理によって再結像すると、2次元フィルタ処理を行う反射光147-1~147-nの振幅が加算されるため、反射点146が合焦位置145にあるときと同じ感度が得られる。 When the reflection point 146 deviates from the in-focus position 145 of the objective optical system 134 (FIG. 15), the light beam is kicked by the slit 149 and the sensitivity drops. Since the amplitudes of the reflected light 147-1 to 147-n to be performed are added, the same sensitivity as when the reflection point 146 is at the in-focus position 145 can be obtained.

(血管内OCT装置への応用)
次に、本発明を血管内OCT装置に応用する例について説明する。
血管内OCT(Optical Coherence Tomography)装置は、脚の付け根や腕、手首などの血管から、X線透視下にて経皮的にガイドワイヤーを心臓の冠状動脈まで挿入する。そして、そのガイドワイヤーに沿って1mmφのOCT用カテーテルを挿入し、回転させて、冠状動脈(2~4mmφ、長さ15cm)の断層像を検出する装置である。
(Application to intravascular OCT device)
Next, an example of applying the present invention to an intravascular OCT device will be described.
An intravascular OCT (Optical Coherence Tomography) device inserts a guide wire percutaneously from a blood vessel such as the base of a leg, an arm, or a wrist to the coronary artery of the heart under fluoroscopy. Then, a 1 mmφ OCT catheter is inserted along the guide wire and rotated to detect a tomographic image of a coronary artery (2 to 4 mmφ, length 15 cm).

血管の狭窄状態や、狭窄を広げるために設置したステントの設置状況、また、その後の再狭窄の状況などを診断する装置である。経皮的冠動脈インターベンション治療(PCI)の増加に伴い、血管内OCTの需要が増えている。 It is a device for diagnosing the stenosis state of blood vessels, the installation status of stents installed to widen the stenosis, and the subsequent restenosis status. With the increase in percutaneous coronary intervention therapy (PCI), the demand for intravascular OCT is increasing.

血管内OCT装置の課題は、血管内の狭窄を起こす物質、プラーク(脂肪やコレステロールの塊り)や血栓や石灰化などを識別し、それらの危険度のグレードを見極める質的診断にある。 The task of the intravascular OCT device lies in the qualitative diagnosis of identifying substances that cause stenosis in blood vessels, such as plaques (masses of fat and cholesterol), thrombi, and calcification, and determining the grade of their risk.

現状は、断層像の形態情報(形状やテクスチャー、輝度の濃淡)から質的なものを診断しているが、高度な経験が必要とされる。狭窄を起こしている物質と、そのグレードによって治療方法が変わる。特に、油質のプラークは、剥がれると細い血管を詰まらせ、狭心症や心筋梗塞のもとになるため、質的診断が重要である。 Currently, qualitative ones are diagnosed from the morphological information (shape, texture, and brightness) of the tomographic image, but advanced experience is required. Treatment depends on the substance causing the stenosis and its grade. In particular, oily plaques, when peeled off, clog small blood vessels and cause angina pectoris and myocardial infarction, so qualitative diagnosis is important.

また、冠状動脈の15cmに渡って起因物質の存在状況とグレードが分かれば、治療はもとより、狭心症や心筋梗塞などについて様々な予防措置を施すことができる。 In addition, if the presence and grade of the causative substance are known over 15 cm of the coronary artery, various preventive measures can be taken not only for treatment but also for angina pectoris and myocardial infarction.

質的診断を行うには、起因物質と相関性が高い反射スペクトルを解析するのが有効であるが、断層像(OCT)は、生体中を伝播するときの減衰が、波長によって大きく異なる。また、伝播経路中に存在する組織の減衰が重畳(積分)されるため、定量的なスペクトルの解析が難しい。また、OCTに使用される近赤外帯においては、プラークなど起因物質の特徴を示すスペクトル成分が明確になっていない。 In order to make a qualitative diagnosis, it is effective to analyze the reflection spectrum that has a high correlation with the causative substance, but in the tomographic image (OCT), the attenuation when propagating in the living body differs greatly depending on the wavelength. In addition, it is difficult to quantitatively analyze the spectrum because the attenuation of the tissue existing in the propagation path is superimposed (integrated). Further, in the near-infrared band used for OCT, the spectral component indicating the characteristics of the causative substance such as plaque has not been clarified.

これに対して、ファイバー血管内視鏡の可視光画像によって、プラークや血栓や石灰化が色で判別できることが明確になっている。たとえば、プラークは、黄色系、血栓は、フィブリンとの混合で決まる赤色系、石灰化と正常粘膜は、ともに白色系であるが、透明度を含めて色調がわずかに異なる。 On the other hand, the visible light image of the fiber angiography makes it clear that plaques, thrombi and calcification can be distinguished by color. For example, plaque is yellowish, thrombus is reddish, which is determined by mixing with fibrin, and calcification and normal mucosa are both whiteish, but the color tone including transparency is slightly different.

可視光帯のスペクトルについて、上述したようにスペクトルの解析を行い、起因物質を識別するのに最適な特徴スペクトルを抽出し、強調すれば、起因物質の特定とグレードの判定精度を高めることができる。 By analyzing the spectrum of the visible light band as described above, extracting and emphasizing the optimum feature spectrum for identifying the causative substance, it is possible to improve the accuracy of identifying the causative substance and determining the grade. ..

このことから、血管内OCT装置は、断層像による形態診断に加え、血管壁のスペクトルの解析による質的診断が同時に行なえることが望ましい。そして、これらの診断が、冠状動脈の長さ15cmにわたってできることが望ましい。 For this reason, it is desirable that the intravascular OCT device can simultaneously perform qualitative diagnosis by analyzing the spectrum of the blood vessel wall in addition to morphological diagnosis using a tomographic image. And it is desirable that these diagnoses can be made over a length of 15 cm in the coronary arteries.

図17は、冠状動脈を診断する場合に必要な合焦範囲を示す図である。
また、血管内OCT装置のもう一つの課題は、図17に示すように、最大径4mmの冠状動脈を診断する場合に必要な合焦範囲150が、1mm~4mmと広いため、断層像の水平解像度を高く設定することができない。水平解像度が低いと、水平方向の反射が重畳されて、深さ方向の解像度も結果的に落ちることになる。
FIG. 17 is a diagram showing a focus range required when diagnosing a coronary artery.
Another problem with the intravascular OCT device is that, as shown in FIG. 17, the in-focus range 150 required for diagnosing a coronary artery having a maximum diameter of 4 mm is as wide as 1 mm to 4 mm, so that the tomographic image is horizontal. The resolution cannot be set high. If the horizontal resolution is low, the horizontal reflections will be superimposed, and the resolution in the depth direction will also be reduced as a result.

更にもう一つの課題は、現状、OCTカテーテルを高速回転させながらプルバックを行い、15cmの冠状動脈の血管壁の画像を検出している。プルバックは、X線透視下で光学的に透明な造影剤をフラッシュしながら行なうため、造影剤フラッシュの制限時間2~3秒(生体の安全性による推奨時間)の間に、OCTカテーテルを高速回転させても、血管壁の画像は、ミリオーダーの解像度しか得られない。また、上述したように、近赤外帯では、起因物質の特徴を示すスペクトルが、可視光帯ほど明確になっていない。 Yet another task is to perform pullback while rotating the OCT catheter at high speed to detect an image of the blood vessel wall of a 15 cm coronary artery. Since the pullback is performed while flashing the optically transparent contrast medium under fluoroscopy, the OCT catheter is rotated at high speed during the time limit of the contrast medium flash of 2 to 3 seconds (recommended time according to the safety of the living body). Even so, the image of the blood vessel wall can only obtain millimeter-order resolution. Further, as described above, in the near-infrared band, the spectrum showing the characteristics of the causative substance is not as clear as in the visible light band.

本実施形態を血管内OCT装置に適用することで、以上の課題を解決し、高解像で被写界深度の深い断層像、および、血管壁の画像の検出が可能になり、血管壁画像のスペクトルの解析によって質的診断の精度を向上させることができる。以下に、その応用例を説明する。 By applying this embodiment to an intravascular OCT device, the above problems can be solved, and a tomographic image with high resolution and a deep depth of field and an image of the blood vessel wall can be detected, and the blood vessel wall image can be detected. The accuracy of qualitative diagnosis can be improved by analyzing the spectrum of. The application example will be described below.

図18は、本実施形態を血管内OCT装置に適用した構成を示す図である。
図18の撮像カテーテル151は、ガイドワイヤーを介して下肢大動脈から冠状動脈に挿入されたシース内で回転とプルバックがなされる。ガイドワイヤーとシースは、現存する治療器具のため、図示していない。
FIG. 18 is a diagram showing a configuration in which the present embodiment is applied to an intravascular OCT device.
The imaging catheter 151 of FIG. 18 is rotated and pulled back in a sheath inserted from the lower limb aorta into the coronary artery via a guide wire. Guide wires and sheaths are not shown because they are existing treatment instruments.

コネクタ152は、撮像カテーテル151の着脱に加え、撮像カテーテル151をローター部153に固定(チャッキング)する役目を有する。 The connector 152 has a role of fixing (chucking) the image pickup catheter 151 to the rotor portion 153 in addition to attaching / detaching the image pickup catheter 151.

コネクタ152は、撮像カテーテル151をローター部153と一緒に回転させることと、撮像カテーテル151に内装された1次元配列のファイバー列154とラインセンサー155の画素配列が、テレセントリック光学系168を介して一対一に対応するように固定する。 The connector 152 rotates the image pickup catheter 151 together with the rotor portion 153, and the one-dimensional array of fiber rows 154 and the pixel array of the line sensor 155 contained in the image pickup catheter 151 are paired via the telecentric optical system 168. Fix it so that it corresponds to one.

撮像カテーテル151とローター部153には、以下に説明する機構が内装されている。
装置本体に設置された周波数掃引光源(不図示)から、可視から近赤外まで周波数掃引がなされた光が出射される。出射された光は、光ロータリージョイント156を介し、ファイバー157によってファイバーカップラ158に導光され、照明光と参照光に分離される。
The imaging catheter 151 and the rotor portion 153 are equipped with a mechanism described below.
A frequency-swept light source (not shown) installed in the main body of the device emits light that has been frequency-swept from visible to near-infrared. The emitted light is guided to the fiber coupler 158 by the fiber 157 via the optical rotary joint 156, and is separated into illumination light and reference light.

照明光はファイバー159で導光され、コリメート光学系160によって平行光に変換され、シリンドリカル光学系161を介し、ビームスプリッタ162で反射され、1次元に配列にされた100本程のファイバー列154の端163に集光される。 The illumination light is guided by the fiber 159, converted into parallel light by the collimated optical system 160, reflected by the beam splitter 162 via the cylindrical optical system 161 and is reflected by the beam splitter 162, and the fiber row 154 of about 100 fibers arranged in one dimension. It is focused on the end 163.

シリンドリカル光学系161のNA(開口数)は、ファイバー列154のNAに一致するように設定されている。ファイバー列154の配列を、1次元の千鳥配列にして、配列数を200本に増やしても良い。 The NA (numerical aperture) of the cylindrical optical system 161 is set to match the NA of the fiber row 154. The arrangement of the fiber row 154 may be made into a one-dimensional staggered arrangement, and the number of arrangements may be increased to 200.

そして、ファイバー列154で導光された照明光は、ファイバー列154の端164から出射され、対物光学系165とミラー166を介して血管内を照明する。対物光学系165は、像側テレセントリック系で、その焦点は、図17の150に示した範囲の中心に設定されている。そして、血管内と血管壁、及び血管壁内層からの反射光が、対物光学系165によってファイバー列154の端164に結像され、ローター部153へ導光される。 Then, the illumination light guided by the fiber row 154 is emitted from the end 164 of the fiber row 154 and illuminates the inside of the blood vessel via the objective optical system 165 and the mirror 166. The objective optical system 165 is an image-side telecentric system, and its focal point is set to the center of the range shown in FIG. 17, 150. Then, the reflected light from the inside of the blood vessel, the blood vessel wall, and the inner layer of the blood vessel wall is imaged at the end 164 of the fiber row 154 by the objective optical system 165 and guided to the rotor portion 153.

ローター部153において、ファイバー列154の端163から出射された反射光は、ビームスプリッタ162によって参照光と合波され干渉縞を生じる。ファイバーカップラ158から参照光を導光するファイバー167の長さは、ファイバー列154の往復の長さに対応している。 In the rotor portion 153, the reflected light emitted from the end 163 of the fiber row 154 is combined with the reference light by the beam splitter 162 to generate interference fringes. The length of the fiber 167 that guides the reference light from the fiber coupler 158 corresponds to the reciprocating length of the fiber row 154.

干渉縞は、テレセントリック光学系168によってラインセンサー155上に結像される。テレセントリック光学系168は、ファイバー列154の端163の像を拡大し、かつ、ファイバー列154のNAと1次元受光素子155の指向性が一対一に対応するように、両側テレセントリックの光学系になっている。 The interference fringes are imaged on the line sensor 155 by the telecentric optical system 168. The telecentric optical system 168 is a telecentric optical system on both sides so that the image of the end 163 of the fiber row 154 is enlarged and the directivity of the NA of the fiber row 154 and the one-dimensional light receiving element 155 have a one-to-one correspondence. ing.

そして、1次元受光素子155を高速駆動することによって、1次元受光素子155の各素子で受光した干渉縞信号が標本化される。1次元受光素子155の画素が100個と少ないため、高速駆動が充分に達成できる。 Then, by driving the one-dimensional light receiving element 155 at high speed, the interference fringe signal received by each element of the one-dimensional light receiving element 155 is sampled. Since the number of pixels of the one-dimensional light receiving element 155 is as small as 100, high-speed driving can be sufficiently achieved.

また、高速駆動のため、一見、1次元受光素子155の感度に余裕がないようにみえるが、干渉縞をフーリエ変換処理した後の振幅(SN比)は、フーリエ変換の位相整合によって、受光方向の画素数倍に(単スペクトルの帯域幅のSN比に)なるため、問題は生じない。 In addition, because of the high-speed drive, it seems that there is no margin in the sensitivity of the one-dimensional light receiving element 155, but the amplitude (SN ratio) after the interference fringes are Fourier transformed is the light receiving direction due to the phase matching of the Fourier transform. Since it is multiplied by the number of pixels (in the SN ratio of the bandwidth of a single spectrum), no problem occurs.

そして、回転とプルバックを行う駆動系169によって、ローター部153と一体に撮像カテーテル151の回転とプルバックなされ、冠状動脈15cmに渡って干渉縞信号が順次検出される。干渉縞信号は、ロータリートランス170を介して装置本体に送られ、装置本体にあるメモリ(図示にない)に記憶される。 Then, the drive system 169 that rotates and pulls back rotates and pulls back the imaging catheter 151 integrally with the rotor portion 153, and the interference fringe signal is sequentially detected over the coronary artery 15 cm. The interference fringe signal is sent to the device main body via the rotary transformer 170 and stored in a memory (not shown) in the device main body.

ロータリートランス170の代りに、光ロータリージョイント156を多チャンネルにして、その他のコントロール信号を含め光変調を行い、装置本体とインタフェースを行っても良い。電源についてはスリップリングを使用する。 Instead of the rotary transformer 170, the optical rotary joint 156 may be made into multiple channels, optical modulation including other control signals may be performed, and an interface may be performed with the main body of the apparatus. Use a slip ring for the power supply.

装置本体のメモリから干渉縞信が読み出され、可視光帯と近赤外帯の部分の干渉縞信号に分けられて、フーリエ変換が行われる。そして、フーリエ変換によって得られた複素信号を使用して、図14(a)、(b)で説明した被写界深度の拡大と、光波面の乱れの補正を、2次元フィルタ処理によって行う。 The interference fringe signal is read out from the memory of the main body of the apparatus, divided into the interference fringe signal in the visible light band and the near infrared band, and the Fourier transform is performed. Then, using the complex signal obtained by the Fourier transform, the expansion of the depth of field and the correction of the disturbance of the light wave surface described in FIGS. 14 (a) and 14 (b) are performed by the two-dimensional filter processing.

これにより、血管壁のRGB画像と3次元の形状測定、および、スペクトルの解析画像の検出が可能になり、同時に、近赤外による血管内、および、血管壁内の3次元画像や断層像の検出が可能になる。 This makes it possible to detect RGB images and three-dimensional shape measurements of blood vessel walls and analysis images of spectra, and at the same time, it is possible to detect three-dimensional images and tomographic images in blood vessels by near infrared rays and in blood vessel walls. Detection becomes possible.

CG技術による自由な視点からの3D画像の構築や、透過像、断層像の表示ができ、上述したように、それらの画素ごとのスペクトルの解析によって、起因物質の質的診断を行うことができる。 3D images can be constructed from a free viewpoint by CG technology, transmission images and tomographic images can be displayed, and as described above, qualitative diagnosis of the causative substance can be performed by analyzing the spectra of each pixel. ..

実時間で画像を観察するときは、多くの処理時間を必要とする被写界深度の拡大と光波面の乱れの補正を、静止画表示のときにだけ行なうようにして、焦点の移動をマニュアルで行えば、実時間の観察ができる。 When observing an image in real time, the depth of field is expanded and the disturbance of the light wave surface, which requires a lot of processing time, is corrected only when the still image is displayed, and the focus is moved manually. If you do it in, you can observe it in real time.

次に、本実施形態が適用された血管内OCT装置を使用して冠状動脈15cmの画像を検出する方法を、図19を用いて説明する。図18の撮像カテーテル151に最も近い撮像範囲171(図19の画像の幅181に相当する)が、1.5mmになるように、対物光学系165の画角を設定する。そして、撮像カテーテル151とローター部153を、75回転/秒の速度で回転させながら、15cmの冠状動脈の中を2秒間プルバックして3次元の画像を取得する。 Next, a method of detecting an image of a coronary artery 15 cm using an intravascular OCT device to which the present embodiment is applied will be described with reference to FIG. The angle of view of the objective optical system 165 is set so that the imaging range 171 (corresponding to the width 181 of the image in FIG. 19) closest to the imaging catheter 151 in FIG. 18 is 1.5 mm. Then, while rotating the imaging catheter 151 and the rotor portion 153 at a speed of 75 rotations / second, the image is pulled back in the 15 cm coronary artery for 2 seconds to acquire a three-dimensional image.

図19は、プルバックで取得して切り開いた血管壁の画像を示している。重複部分182を除いた幅1mmの血管壁の画像が、血管長15cmに渡って150枚検出される。重複部分182の幅は、血管壁までの距離によって変わる。 FIG. 19 shows an image of a blood vessel wall obtained by pullback and cut open. 150 images of the blood vessel wall having a width of 1 mm excluding the overlapping portion 182 are detected over a blood vessel length of 15 cm. The width of the overlap portion 182 depends on the distance to the vessel wall.

検出された3次元画像の画素の位置データから、CGの技術によって、重複部分182の画素の位置と倍率を補正し、プルバックの方向に対して画像の振幅強度をスムージングさせて加算すると、画像を貼り合わせることができる。 From the detected pixel position data of the 3D image, the position and magnification of the pixel of the overlapping portion 182 are corrected by CG technology, and the amplitude intensity of the image is smoothed and added in the pullback direction to obtain the image. Can be pasted together.

冠状動脈15cmに渡って3次元に解像した画像データを、自由な視点と倍率を以って表示することが可能である。そして、上述したスペクトルの解析画像によって、質的診断の精度を上げることができる。 It is possible to display three-dimensionally resolved image data over a coronary artery of 15 cm with a free viewpoint and magnification. Then, the accuracy of the qualitative diagnosis can be improved by the above-mentioned analysis image of the spectrum.

また、フーリエ変換処理によって得られる受光方向の解像度は、ファイバーの配列間隔で決まる水平解像度より高くなる。このため、ミラー166(図18)の角度を調整して、血管壁を斜めに照射して撮像するようにすると、血管壁の画像の解像度を上げることができる。 Further, the resolution in the light receiving direction obtained by the Fourier transform process is higher than the horizontal resolution determined by the fiber arrangement spacing. Therefore, by adjusting the angle of the mirror 166 (FIG. 18) to irradiate the blood vessel wall at an angle to take an image, the resolution of the image of the blood vessel wall can be increased.

また、図18の説明では、ファイバー列155に、可視光帯と近赤外帯の両方を導光する広帯域光ファイバーを使用しているが、可視光帯用と近赤外帯用のファイバー列を縦に並列に配置し、処理回路を2系統用意するようにしても良い。また、周波数掃引光源も可視光帯用と近赤外帯用に分けて用意しても良い。 Further, in the description of FIG. 18, a wideband optical fiber that guides both the visible light band and the near infrared band is used for the fiber row 155, but the fiber rows for the visible light band and the near infrared band are used. It may be arranged vertically in parallel and two processing circuits may be prepared. Further, the frequency sweep light source may be prepared separately for the visible light band and the near infrared band.

また、近赤外光によって断層像を検出する代わりに、撮像カテーテル151の先端に超音波振動子を併設し、超音波によって断層像を検出する機構と、上述した血管壁の画像検出とスペクトルの解析の機構を組合せても良い。超音波断層は、近赤外に比べると解像度が落ちるが、断層像の検出深度が深い。また、形態診断においてもそれぞれ独自の特徴を有している。 Further, instead of detecting the tomographic image by near-infrared light, an ultrasonic vibrator is installed at the tip of the imaging catheter 151 to detect the tomographic image by ultrasonic waves, and the above-mentioned image detection and spectrum of the blood vessel wall. A combination of analysis mechanisms may be used. The resolution of the ultrasonic tomography is lower than that of the near infrared, but the detection depth of the tomographic image is deep. In addition, each has its own characteristics in morphological diagnosis.

次に、図20は、本実施形態をX線撮像やγ線撮像に応用する例を説明する図である。
図20のX線源191から出射されるX線は、検出する解像度に見合った周波数掃引とコヒーレンスを有している。または、X線の振幅に、検出する解像度に見合った周波数掃引の振幅変調がなされている。
Next, FIG. 20 is a diagram illustrating an example of applying this embodiment to X-ray imaging and γ-ray imaging.
The X-rays emitted from the X-ray source 191 of FIG. 20 have frequency sweep and coherence commensurate with the resolution to be detected. Alternatively, the amplitude of the X-ray is modulated by frequency sweep according to the resolution to be detected.

X線源191から照射されたX線は、X線用のビームスプリッタ192を通過して被写体193を照射する。ビームスプリッタ192の形状は、楕円球面であって、焦点の一つはX線源191の出射口に位置し、もう一つの焦点は反射体194の反射面に位置している。 The X-rays emitted from the X-ray source 191 pass through the beam splitter 192 for X-rays and irradiate the subject 193. The shape of the beam splitter 192 is an elliptical spherical surface, one of which is located at the exit of the X-ray source 191 and the other of which is located at the reflecting surface of the reflector 194.

X線源191から照射されたX線がX線用のビームスプリッタ192よって一部が反射され、さらに、反射体194によって反射され、参照用のX線として、2次元受光素子195面を照射する。 A part of the X-rays emitted from the X-ray source 191 is reflected by the beam splitter 192 for X-rays, and further reflected by the reflector 194, and irradiates the two-dimensional light receiving element 195 surface as X-rays for reference. ..

X線用のビームスプリッタ192は、表面がEEM(Elastic Emission Machining)方式によって研磨された±1~2nmの非常に高い表面精度を有するX線専用のミラーである。近年、このようなX線専用のミラーが市販されるようになっている。X線用ミラーの設置する角度を調整することで、反射率と透過率を調整し、ビームスプリッタ192として使用する。 The beam splitter 192 for X-rays is a mirror dedicated to X-rays having a very high surface accuracy of ± 1 to 2 nm whose surface is polished by an EEM (Elastic Emission Machining) method. In recent years, such mirrors dedicated to X-rays have become commercially available. By adjusting the angle at which the X-ray mirror is installed, the reflectance and transmittance are adjusted and used as a beam splitter 192.

被写体から反射(後方散乱)したX線は、ビームスプリッタ192によって、反射体194から反射した参照用X線と合波され、干渉縞を生じる。干渉縞は、CMOSやCCD撮像素子、もしくは、フラットパネルディテクタ(FPD)などの2次元受光素子195によって電気信号に変換される。 The X-rays reflected (backscattered) from the subject are combined with the reference X-rays reflected from the reflector 194 by the beam splitter 192 to generate interference fringes. The interference fringes are converted into an electric signal by a CMOS or CCD image sensor, or a two-dimensional light receiving element 195 such as a flat panel detector (FPD).

X線の掃引時間内に2次元受光素子195の撮像を高速に繰り返すことで、検出方向におけるX線の干渉縞を検出し、フーリエ変換によって検出方向を解像する。そして、前述した2次元フィルタ処理によって検出方向と垂直な面の解像を行って、被写体を3次元に解像する。 By repeating the imaging of the two-dimensional light receiving element 195 at high speed within the X-ray sweep time, the X-ray interference fringes in the detection direction are detected, and the detection direction is resolved by the Fourier transform. Then, the surface perpendicular to the detection direction is resolved by the above-mentioned two-dimensional filter processing, and the subject is resolved three-dimensionally.

最新鋭のCTでは、3次元データを取得する時間が、1秒程度に早くなっている。しかし、あくまでも位相情報を使用せずに、吸収情報のみで解像するため、解像度がミリオーダーに留まっている。 With the latest CT, the time to acquire 3D data is as fast as 1 second. However, the resolution remains on the order of millimeters because the resolution is achieved only by the absorption information without using the phase information.

それに比して、本実施形態の撮像方式によれば、3次元データを取得する時間は、シャッタ動作と同じ数msにできる可能性があるのと、また、位相情報を使用して解像を行うため、2次元受光素子195の画素配列の間隔から、ミクロンオーダーの解像度を得ることができる。そして、目的応じて画角や拡大倍率、解像度を自由に設定できる。装置の規模もCTに比して簡素な構成で済む。 On the other hand, according to the imaging method of the present embodiment, the time for acquiring the three-dimensional data may be set to several ms, which is the same as the shutter operation, and the phase information is used for resolution. Therefore, it is possible to obtain a resolution on the order of microns from the interval of the pixel arrangement of the two-dimensional light receiving element 195. Then, the angle of view, the magnification, and the resolution can be freely set according to the purpose. The scale of the device can be simpler than that of CT.

また、X線の波長は可視光に比べて二桁ほど短いため、ミクロンオーダーの解像度を得るのに必要な周波数掃引は、ごく狭い比帯域幅で済み、X線蛍光などの非線形な散乱が起きる波長を避けて設定することができる。また、撮像素子195の開口を小さくすることができるため、3次元フィルタ処理の処理数を少なくすることができる。周波数掃引ができるX線源の発表も近年盛んになってきている。 In addition, since the wavelength of X-rays is about two orders of magnitude shorter than that of visible light, the frequency sweep required to obtain micron-order resolution requires a very narrow specific bandwidth, and non-linear scattering such as X-ray fluorescence occurs. It can be set avoiding the wavelength. Further, since the opening of the image pickup device 195 can be reduced, the number of three-dimensional filter processes can be reduced. In recent years, the announcement of X-ray sources capable of frequency sweeping has become popular.

上述したように、撮像素子の配列間隔を製造限界の1μmとした場合、数μmオーダーの3次元の解像が可能になり、撮像倍率や、それに応じた解像度の設定が自由にでき、目的に応じて、透過像、断面像、3次元構築した画像の表示ができる。また、物質の特徴が表れるスペクトル吸収帯域に周波数掃引を合わせれば、スペクトルの解析による物質特定の可能性がある。 As described above, when the arrangement interval of the image sensor is set to the manufacturing limit of 1 μm, three-dimensional resolution on the order of several μm becomes possible, and the image pickup magnification and the resolution corresponding to it can be freely set for the purpose. Accordingly, a transmission image, a cross-sectional image, and a three-dimensionally constructed image can be displayed. In addition, if the frequency sweep is adjusted to the spectral absorption band where the characteristics of the substance appear, there is a possibility of identifying the substance by analyzing the spectrum.

以上、本発明を適用した実施形態およびその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除しても良い。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせても良い。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。 Although the embodiments to which the present invention is applied and the modified examples thereof have been described above, the present invention is not limited to the respective embodiments and the modified examples as they are, and at the implementation stage, the present invention is within a range that does not deviate from the gist of the invention. The components can be transformed and embodied with. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the above-described embodiments and modifications. For example, some components may be deleted from all the components described in each embodiment or modification. Further, the components described in different embodiments and modifications may be combined as appropriate. As described above, various modifications and applications are possible within a range that does not deviate from the gist of the invention.

以上のように、本発明は、簡易な構造で、被写体に対し3次元の解像と分光画像の検出を同時に実現できる3次元撮像装置に適している。 As described above, the present invention is suitable for a three-dimensional image pickup apparatus having a simple structure and capable of simultaneously realizing three-dimensional resolution and detection of a spectroscopic image on a subject.

1 光源
2 ビームスプリッタ
3 被写体
4 ミラー
5 メモリ
6 反射点
7 反射光
8 撮像素子
9 光軸
10 曲線
11 フーリエ変換処理
12 2次元フィルタ処理
13 光干渉計
14 光路差
15 周波数
16 点線
17 点線
18 参照光
19 反射光
21 掃引の帯域幅
22 掃引の帯域幅
23 干渉縞の周波数
24 点線
25 光路差
32 合波部
33-1~33-n 受光素子
34 フーリエ変換処理
36-1~36-n 複素信号
37 2次元フィルタ処理
1 Light source 2 Beam splitter 3 Subject 4 Mirror 5 Memory 6 Reflection point 7 Reflected light 8 Imaging element 9 Optical axis 10 Curve 11 Fourier conversion processing 12 Two-dimensional filter processing 13 Optical interferometer 14 Optical path difference 15 Frequency 16 dotted line 17 dotted line 18 Reference light 19 Reflected light
21 Sweep bandwidth 22 Sweep bandwidth 23 Interference fringe frequency 24 Dotted line 25 Optical path difference 32 Combined part 33-1 to 33-n Light receiving element 34 Fourier transform processing 36-1 to 36-n Complex signal 37 Two-dimensional filter process

Claims (10)

光の周波数、もしくは、光の振幅変調の周波数を掃引して被写体を照明する照明光を供給する光源と、
前記被写体からの反射光と参照光を合波して干渉縞を発生させる光干渉計と、
2次元配列される受光素子により又は1次元配列される前記受光素子1次元走査されることにより又は単体の前記受光素子が2次元走査されることにより、前記干渉縞を2次元の検出位置で干渉縞信号として検出する2次元検出機構と、
前記被写体の3次元に分布する反射点を反射する前記反射光の、前記光源から前記2次元検出機構の2次元の検出位置までの光路長と、前記光源により出射される前記参照光の、前記光源から前記2次元検出機構の2次元の検出位置までの光路長との光路差を、解像する全ての前記反射点について、前記2次元の検出位置ごとに算出する光路差算出手段と、
前記干渉縞信号の周波数を検出することで、前記2次元の検出位置ごとに受光方向を解像し3次元データ列を取得する検出部と、
前記検出部により取得される前記3次元データ列と、前記光路差算出手段により算出される前記光路差の情報と、を使用し、電気的な処理による結像を行うことで、前記受光方向と交差する面の解像を行う2次元フィルタ処理部と、を備え、
前記被写体3次元に分布する反射点を3次元に解像することを特徴とする3次元撮像装置。
A light source that supplies illumination light to illuminate the subject by sweeping the frequency of light or the frequency of amplitude modulation of light.
An optical interferometer that combines the reflected light from the subject and the reference light to generate interference fringes.
Two-dimensional detection of the interference fringes by two-dimensionally arranged light-receiving elements, by one-dimensional scanning of the one-dimensionally arranged light-receiving elements, or by two -dimensional scanning of a single light-receiving element. A two-dimensional detection mechanism that detects as an interference fringe signal at the position,
The optical path length of the reflected light that reflects the reflection points distributed in three dimensions of the subject from the light source to the two-dimensional detection position of the two-dimensional detection mechanism, and the reference light emitted by the light source. An optical path difference calculation means for calculating the optical path difference from the optical path length from the light source to the two-dimensional detection position of the two-dimensional detection mechanism for each of the two-dimensional detection positions for all the reflection points to be resolved .
A detection unit that resolves the light receiving direction for each of the two-dimensional detection positions and acquires a three-dimensional data string by detecting the frequency of the interference fringe signal.
Using the three-dimensional data string acquired by the detection unit and the optical path difference information calculated by the optical path difference calculation means, an image is formed by electrical processing to obtain the light receiving direction. It is equipped with a two-dimensional filter processing unit that resolves intersecting surfaces .
A three-dimensional image pickup apparatus characterized in that the reflection points distributed in three dimensions of the subject are resolved in three dimensions.
前記検出部は、前記干渉縞信号をフーリエ変換することにより前記3次元データ列を検出し前記3次元データ列は、振幅と位相の複素信号であり
前記2次元フィルタ処理部は、前記3次元データ列から、前記結像の開口に相当するデータ列を選択し、前記選択された前記データ列から、前記2次元の検出位置から前記反射点までの光路長に一致するデータを、前記光路差の情報を用いて抽出し、前記光路差から算出したフィルタ係数を乗算し、加算することで、前記結像を行って前記反射点を解像し、同様に、解像する全ての前記反射点について前記フィルタ係数を重畳積分することで、前記受光方向と交差する面を解像することを特徴とする請求項1に記載の3次元撮像装置。
The detection unit detects the three-dimensional data string by Fourier transforming the interference fringe signal, and the three-dimensional data string is a complex signal of amplitude and phase.
The two-dimensional filter processing unit selects a data string corresponding to the opening of the image formation from the three-dimensional data string, and from the selected data string, from the two-dimensional detection position to the reflection point . Data matching the optical path length is extracted using the information of the optical path difference, and the filter coefficient calculated from the optical path difference is multiplied and added to perform the image formation and resolve the reflection point. Similarly, the three-dimensional image pickup apparatus according to claim 1, wherein the surface intersecting the light receiving direction is resolved by superimposing and integrating the filter coefficients for all the reflection points to be resolved.
前記3次元データ列を記憶する記憶部と、
前記記憶部から、前記2次元検出機構の検出位置から解像する前記反射点までの光路長に一致する前記データを読み出すためのアドレスを、前記光路差を用いて生成するアドレス生成部と、
前記アドレスを用いて、前記データを読み出し、前記受光方向のデータ補間と、初期位相の整合と、前記結像の開口の重みづけを行う前記フィルタ係数を生成するフィルタ係数生成部と、を備え、
前記2次元フィルタ処理部が前記フィルタ係数を前記複素信号のデータに重畳積分することを特徴とする請求項2に記載の3次元撮像装置。
A storage unit that stores the three-dimensional data string and
An address generation unit that generates an address for reading the data corresponding to the optical path length from the detection position of the two-dimensional detection mechanism to the reflection point to be resolved from the storage unit by using the optical path difference.
Using the address, the data is read out, the data is interpolated in the light receiving direction, the initial phase is matched, and the filter coefficient generator for generating the filter coefficient for weighting the aperture of the image formation is provided.
The three-dimensional image pickup apparatus according to claim 2, wherein the two-dimensional filter processing unit superimposes and integrates the filter coefficient on the data of the complex signal.
前記2次元フィルタ処理を行う前記結像の開口を複数のブロックに分割し、前記ブロックごとに、前記2次元フィルタ処理と同じ処理によって、解像する前記反射点を中心とした近傍の反射点の解像を行い、各前記ブロックで得た前記近傍の反射点の複素信号のデータの相互相関演算から、光波面の乱れを検出し、前記アドレス生成による前記アドレス生成に反映させることで、前記光波面の乱れを補正する補正手段を備えることを特徴とする請求項3に記載の3次元撮像装置。 The opening of the image formation to be subjected to the two-dimensional filter processing is divided into a plurality of blocks, and the reflection points in the vicinity centering on the reflection point to be resolved by the same processing as the two-dimensional filter processing for each block. By performing resolution, the disturbance of the light wave surface is detected from the mutual correlation calculation of the complex signal data of the reflection points in the vicinity obtained in each of the blocks, and reflected in the generation of the address by the address generation unit. The three-dimensional image pickup apparatus according to claim 3 , further comprising a correction means for correcting the disturbance of the light wave surface. 前記光源の周波数掃引の歪みと変動を検出し、前記歪みによって生じる干渉縞の周波数成分の分散を、位相整合フィルタによって補正する補正手段を備えることを特徴とする請求項1~4の何れか一項に記載の3次元撮像装置。 Any one of claims 1 to 4, further comprising a correction means for detecting the distortion and fluctuation of the frequency sweep of the light source and correcting the dispersion of the frequency component of the interference fringes caused by the distortion by a phase matching filter. The three-dimensional image pickup device according to the section. クラスタが既知の被写体の反射スペクトルから、フィッシャーレシオが大きい順にスペクトル成分を算出し、前記スペクトル成分を用い、クラスタが未知の被写体の反射スペクトルから被写体の識別を行う識別手段を備えることを特徴とする請求項1~5の何れか一項に記載の3次元撮像装置。 It is characterized in that a spectral component is calculated from the reflection spectrum of a subject whose cluster is known in descending order of Fisher ratio, and the cluster is provided with an identification means for identifying the subject from the reflection spectrum of an unknown subject by using the spectral component. The three-dimensional image pickup apparatus according to any one of claims 1 to 5. 前記識別手段は、ディープラーニングを実行するAIを用いることを特徴とする請求項6に記載の3次元撮像装置。 The three-dimensional imaging device according to claim 6, wherein the identification means uses an AI that performs deep learning. 前記光源の代りに、低コヒーレンス光源と、分光器と、を備え、前記検出部と前記2次元フィルタ処理部によって3次元の解像を行うことを特徴とする請求項1~7の何れか一項に記載の3次元撮像装置。 Any one of claims 1 to 7, further comprising a low coherence light source and a spectroscope instead of the light source, and performing three-dimensional resolution by the detection unit and the two-dimensional filter processing unit. The three-dimensional image pickup device according to the section. 前記2次元検出機構で検出した干渉縞信号に、3次元の解像とスペクトルの解析に必要な情報を付加するデータフォーマット作成部と、前記3次元の解像と前記スペクトルの解析に必要な情報を付加した前記干渉縞信号を、RAWデータとして記憶する記憶部と、を備えることを特徴とする請求項1~8の何れか一項に記載の3次元撮像装置。 A data format creation unit that adds information necessary for three-dimensional resolution and spectrum analysis to the interference fringe signal detected by the two-dimensional detection mechanism, and information necessary for analysis of the three-dimensional resolution and the spectrum. The three-dimensional image pickup apparatus according to any one of claims 1 to 8, further comprising a storage unit for storing the interference fringe signal to which the above-mentioned interference fringe signal is added as RAW data. 前記光源のコヒーレンス度と周波数掃引の帯域特性(歪を含む)と指向性、前記2次元検出機構の検出位置の座標と前記受光素子の指向性、前記2次元検出機構の検出位置に対する前記照明光と前記参照光の出射位置の3次元座標、そして、被写体に関する情報などを備えることを特徴とする請求項9に記載の3次元撮像装置。 The coherence degree of the light source, the band characteristics (including distortion) and directionality of the frequency sweep, the coordinates of the detection position of the two-dimensional detection mechanism and the directionality of the light receiving element, and the illumination light with respect to the detection position of the two-dimensional detection mechanism. The three-dimensional image pickup apparatus according to claim 9, wherein the three-dimensional coordinates of the emission position of the reference light, information about the subject, and the like are provided.
JP2021211632A 2021-04-19 2021-12-24 3D imager Active JP7058901B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021211632A JP7058901B1 (en) 2021-12-24 2021-12-24 3D imager
PCT/JP2022/017973 WO2022224917A1 (en) 2021-04-19 2022-04-16 Three-dimensional image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021211632A JP7058901B1 (en) 2021-12-24 2021-12-24 3D imager

Publications (2)

Publication Number Publication Date
JP7058901B1 true JP7058901B1 (en) 2022-04-25
JP2023095625A JP2023095625A (en) 2023-07-06

Family

ID=81378508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021211632A Active JP7058901B1 (en) 2021-04-19 2021-12-24 3D imager

Country Status (1)

Country Link
JP (1) JP7058901B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023095442A1 (en) * 2021-11-29 2023-06-01 浜松ホトニクス株式会社 Observation device and observation method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002139422A (en) 2001-09-10 2002-05-17 Fuji Photo Film Co Ltd Light absorption measuring instrument for light scattering medium
WO2012005315A1 (en) 2010-07-07 2012-01-12 兵庫県 Holographic microscope, microscopic subject hologram image recording method, method of creation of hologram for reproduction of high-resolution image, and method for reproduction of image
US20150168125A1 (en) 2012-07-30 2015-06-18 Adom, Advanced Optical Technologies Ltd. System for Performing Dual Path, Two-Dimensional Optical Coherence Tomography (OCT)
JP6918395B1 (en) 2021-04-19 2021-08-11 のりこ 安間 Imaging device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0886745A (en) * 1994-09-14 1996-04-02 Naohiro Tanno Spatial-coherence type light wave reflection measuring device and light-wave echo tomographic device using same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002139422A (en) 2001-09-10 2002-05-17 Fuji Photo Film Co Ltd Light absorption measuring instrument for light scattering medium
WO2012005315A1 (en) 2010-07-07 2012-01-12 兵庫県 Holographic microscope, microscopic subject hologram image recording method, method of creation of hologram for reproduction of high-resolution image, and method for reproduction of image
US20150168125A1 (en) 2012-07-30 2015-06-18 Adom, Advanced Optical Technologies Ltd. System for Performing Dual Path, Two-Dimensional Optical Coherence Tomography (OCT)
JP6918395B1 (en) 2021-04-19 2021-08-11 のりこ 安間 Imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023095442A1 (en) * 2021-11-29 2023-06-01 浜松ホトニクス株式会社 Observation device and observation method

Also Published As

Publication number Publication date
JP2023095625A (en) 2023-07-06

Similar Documents

Publication Publication Date Title
JP4389032B2 (en) Optical coherence tomography image processing device
US20210007601A1 (en) Frequency-domain interferometric based imaging systems and methods
US7602501B2 (en) Interferometric synthetic aperture microscopy
JP5623028B2 (en) Imaging method and apparatus for taking optical coherence tomographic image
EP2905645B1 (en) Holographic microscope and holographic image generation method
CN104684457B (en) Use OCT light source and the two-dimentional confocal imaging of scanning optics
JP6765786B2 (en) Image pickup device, operation method of image pickup device, information processing device, and operation method of information processing device
JP6874055B2 (en) Devices, methods and storage media for the detection of lumens and artifacts in one or more images, such as optical coherence tomography images.
JP2008542758A (en) System, method and apparatus capable of using spectrally encoded heterodyne interferometry for imaging
JP2009523040A (en) Data generation system and method using endoscopic technology for encoding one or more spectra
US20200129068A1 (en) Intraoral oct with color texture
JP2009008393A (en) Optical image measuring device
JP6685673B2 (en) Imaging device
JP2017047110A (en) Imaging apparatus
JP2006162485A (en) Optical tomographic imaging system
CN105748041A (en) System and method for suppressing speckle noise in optic coherence tomography
JP5557397B2 (en) Method and apparatus for imaging translucent materials
WO2016023502A1 (en) Phase-inverted sidelobe-annihilated optical coherence tomography
JP6292860B2 (en) Optical coherence tomography
JP7058901B1 (en) 3D imager
JP2015114284A (en) Optical coherence tomography
JP2010164351A (en) Optical tomographic imaging apparatus
JP4904209B2 (en) Optical tomographic imaging system
JP2006322767A (en) Optical tomographic imaging system
JP2016090280A (en) Optical tomographic image imaging device and imaging method using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211230

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211230

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220406

R150 Certificate of patent or registration of utility model

Ref document number: 7058901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150