JP2022130354A - Data generation method and data generation system - Google Patents

Data generation method and data generation system Download PDF

Info

Publication number
JP2022130354A
JP2022130354A JP2022028231A JP2022028231A JP2022130354A JP 2022130354 A JP2022130354 A JP 2022130354A JP 2022028231 A JP2022028231 A JP 2022028231A JP 2022028231 A JP2022028231 A JP 2022028231A JP 2022130354 A JP2022130354 A JP 2022130354A
Authority
JP
Japan
Prior art keywords
image
data generation
measured
photographing
fiber
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022028231A
Other languages
Japanese (ja)
Inventor
大輔 茨田
Daisuke Ibarada
孝宏 和泉
Takahiro Izumi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Utsunomiya University
Rion Co Ltd
Original Assignee
Utsunomiya University
Rion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Utsunomiya University, Rion Co Ltd filed Critical Utsunomiya University
Publication of JP2022130354A publication Critical patent/JP2022130354A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide a technique suitable for shape measurement of a tube body internal surface.SOLUTION: A data generation system 100 comprises: a spatial light modulator 140 and the like that continuously create images having a periodic pattern projected on a measurement target surface while shifting the phase for every predetermined time; an image fiber 110 that can project the created images toward the measurement target surface; an image pickup device 150 that can photograph the images projected on the measurement target surface through the image fiber 110; and an analysis and reconfiguration unit 164 that generates three-dimensional data according to the shape of the measurement target surface based on three-dimensional Fourier transformation on time and a two-dimensional space obtained from a plurality of photographed images photographed by the image pickup device 150 through a process in which a photographing position of the image fiber 110 relatively stops and changes, and a plurality of photographing positions at which the photographed images are obtained.SELECTED DRAWING: Figure 1

Description

本発明は、被測定面の立体的な形状をデータ上で再現するデータ生成方法及びデータ生成システムに関する。 The present invention relates to a data generation method and a data generation system for reproducing the three-dimensional shape of a surface to be measured on data.

この種のデータ生成技術は従来、様々な分野で用いられてきた。例えば、非接触で三次元的な形状計測を行う方法としては、複数台のカメラを用いるステレオ法や、レーザスキャニング法、縞パターン投影法(例えば、特許文献1参照。)等が公知である。これらの方法は、主に測定対象物の表面形状を外側から計測するものであるが、管体内壁面形状の計測については、上記とは別の手法が用いられる。 This type of data generation technology has been used in various fields in the past. For example, known non-contact three-dimensional shape measurement methods include a stereo method using a plurality of cameras, a laser scanning method, and a fringe pattern projection method (see, for example, Patent Document 1). These methods mainly measure the surface shape of the object to be measured from the outside, but a method different from the above is used for measuring the shape of the inner wall surface of the tube.

例えば、オーダーメイド補聴器等のシェルを作成するためには、人体外耳道の内壁面形状の計測が必要となる。この場合の従来方法は、先に印象材を用いて使用者の耳型を採取しておき、その耳型形状を3Dスキャナ等でデータに取り込むというものであったが、これに代えて近年、非接触で三次元的な外耳道形状の計測を行う方法が既に知られている(例えば、特許文献2,3参照。)。 For example, in order to create a shell for custom-made hearing aids, etc., it is necessary to measure the shape of the inner wall surface of the human ear canal. In this case, the conventional method is to collect the user's ear shape using an impression material in advance and capture the ear shape as data using a 3D scanner or the like. A method for measuring the three-dimensional shape of the ear canal in a non-contact manner is already known (see, for example, Patent Documents 2 and 3).

特開2004-317495号公報JP 2004-317495 A 特開平9-10254号公報JP-A-9-10254 特開2019-150574号公報JP 2019-150574 A

人体外耳道のように狭小な管体内壁面の形状計測を目的とする場合、複数台のカメラを用いるステレオ法は、装置が大がかりであるため適用が難しい。また、レーザスキャンを行う場合は、狭い管体内ではレーザ光の照射方法が制限される上、計測が必要な壁面全体を余すことなくスキャンするためには、計測者に熟練が必要であり、外耳道形状を安定的に計測することは難しい。 When the purpose is to measure the shape of the inner wall surface of a narrow tube such as the human ear canal, the stereo method using multiple cameras is difficult to apply due to the large scale of the apparatus. In addition, when laser scanning is performed, the method of irradiating the laser light is limited in a narrow tube, and in order to scan the entire wall surface that needs to be measured without leaving anything, the measurer must be highly skilled. It is difficult to stably measure the shape.

また、先に挙げた先行技術(特許文献1等)の縞パターン投影法は、撮影位置で画像が得られる(外側から見えている)範囲でしか形状計測ができないため、原理としては知られていても、管体内壁のような測定面に投影されたパターンの解析方法が知られていない。 In addition, the stripe pattern projection method of the prior art (Patent Document 1, etc.) mentioned above can only measure the shape in the range where an image can be obtained at the shooting position (visible from the outside), so the principle is not known. However, there is no known method for analyzing patterns projected onto a measurement surface such as the inner wall of a tube.

一方、後に挙げた先行技術(特許文献2,3等)は、管体内壁面の形状計測に特化したものであり、いくつか実用化に進んではいるものもあるが、複雑狭小な管体内壁面の形状を非接触で測定するためには、画像データ処理に長時間を要するなど、依然として改善の余地は多分にある。 On the other hand, the prior art mentioned later (Patent Documents 2, 3, etc.) is specialized for measuring the shape of the inner wall surface of the tubular body, and some of them have been put into practical use. There is still much room for improvement, such as the long time required for image data processing in order to measure the shape of .

そこで本発明は、管体内壁面の形状計測に適した技術を提供する。 Accordingly, the present invention provides a technique suitable for measuring the shape of the inner wall surface of a tubular body.

本発明は、データ生成方法及びデータ生成システムを提供する。データ生成方法は、以下のステップを有する。 The present invention provides a data generation method and data generation system. The data generation method has the following steps.

〔第1ステップ〕
本ステップでは、被測定面に投射する周期的なパターンを有した画像の位相を所定時間毎にずらして画像(投影画像)を撮影する。また、このような動作を、被測定面に対する画像の投射及び撮影位置を相対的に停止及び変化させながら実行する。ここで、本ステップで撮影する画像は、被測定面に対して変調光等を「投射」した結果として「投影」されるものであり、「投射」の段階では未だ像として写らない潜在的な意味の「画像」である。したがって、本ステップでは、結果として「周期的なパターンを有した画像」を「被測定面」に写し、これを「投影された画像(投影画像)」として撮影可能な状態にするために「投射」していることになる。また、「投射及び撮影位置」のうち「投射位置」は、上記のように潜在的な画像(変調光等)を被測定面に向けて発する位置であり、画像の元となる光等を照射する位置とも言える。「撮影位置」は、画像が投影された状態の被測定面を「撮影」するときの受光位置である。
〔第2ステップ〕
本ステップでは、第1ステップでの複数の投射及び撮影位置と、複数の撮影画像から得られる時間及び二次元空間での三次元フーリエ解析に基づいて、被測定面の形状に応じた三次元データを生成する。
[First step]
In this step, an image (projection image) is taken by shifting the phase of an image having a periodic pattern projected onto the surface to be measured at every predetermined time. Further, such an operation is performed while relatively stopping and changing the image projection and photographing positions on the surface to be measured. Here, the image captured in this step is "projected" as a result of "projecting" the modulated light or the like onto the surface to be measured. It is an "image" in meaning. Therefore, in this step, as a result, the "image having a periodic pattern" is projected onto the "surface to be measured", and the "projection image" is performed in order to make it ready for photographing as a "projected image (projection image)". ”. In addition, the “projection position” of the “projection and photographing positions” is the position where the latent image (modulated light, etc.) is emitted toward the surface to be measured as described above, and the light that is the source of the image is irradiated. It can also be said that it is a position to do. The “shooting position” is the light receiving position when “shooting” the surface to be measured on which the image is projected.
[Second step]
In this step, three-dimensional data corresponding to the shape of the surface to be measured is obtained based on three-dimensional Fourier analysis in time and two-dimensional space obtained from multiple projection and imaging positions in the first step and multiple captured images. to generate

本発明のデータ生成方法は、例えば外耳道壁面のように一度の撮影では全貌が得られない被測定面に対して有効である。すなわち、上記のような被測定面に画像として現れる画像パターンの投射及び撮影位置を変化させることで複数回の撮影を行い、一度の撮影では得られなかった陰面等の画像についても取得可能とする。投射及び撮影位置の変化は、停止時の画像パターンから得られる周期とは違った周期特性として画像パターンに現れるため、時間と二次元空間の三次元フーリエ解析により各撮影位置で得た複数の結果をつなぎ合わせることで、被測定面全体をデータ上で再構成(再現)することができる。 The data generation method of the present invention is effective for a surface to be measured, such as the wall surface of the ear canal, for which the entire image cannot be obtained in one shot. That is, by changing the projection of the image pattern that appears as an image on the surface to be measured and the shooting position, multiple shots are taken, and images of the hidden surface, etc., which could not be obtained in one shot, can also be acquired. . Changes in the projection and shooting positions appear in the image pattern as periodic characteristics different from the period obtained from the image pattern at rest, so multiple results obtained at each shooting position by three-dimensional Fourier analysis of time and two-dimensional space. By connecting the , the entire surface to be measured can be reconstructed (reproduced) on the data.

また、本発明のデータ生成方法は、時間と二次元空間の三次元フーリエ解析に用いる要素を特徴的な手法により取得する。 Also, the data generation method of the present invention acquires elements used for three-dimensional Fourier analysis of time and two-dimensional space by a characteristic method.

〔第1手法〕
すなわち、画像の周期的なパターンを光強度の分布として変調した光をイメージファイバの端面から被測定面に投射したとき、その端面から投射方向に離れた位置に仮想的に配置したピンホールを通して被測定面からの戻り光を端面に入射させて仮想的な撮像面上に結像させたとする。この場合に、戻り光を発した被測定面の位置と仮想的なピンホールの位置とを結ぶ延長線上に仮想的な撮像面上の座標を規定して撮影を行うことにより(第1ステップ)、仮想的な撮像面に結像させた画像の時間と二次元空間での三次元フーリエ解析に基づいて、被測定面の位置を表す座標を求めることができる(第2ステップ)。なお、ここではイメージファイバの端面が上記の「投射及び撮影位置」となる。
[First method]
That is, when the light modulated by the periodic pattern of the image as the light intensity distribution is projected from the end face of the image fiber onto the surface to be measured, the measured light passes through a pinhole virtually arranged at a position away from the end face in the projection direction. Suppose that the return light from the measurement surface is made incident on the end surface to form an image on a virtual imaging surface. In this case, by defining the coordinates on the virtual imaging plane on an extension line connecting the position of the surface to be measured that emits the return light and the position of the virtual pinhole, and performing the photographing (first step). , the coordinates representing the position of the surface to be measured can be obtained based on the time of the image formed on the virtual imaging surface and the three-dimensional Fourier analysis in the two-dimensional space (second step). Here, the end face of the image fiber is the above-mentioned "projection and imaging position".

〔第2手法〕
あるいは、イメージファイバを光の投射用(照明用)と戻り光の入射用(観察用)で別々にすることができる。すなわち、画像の周期的なパターンを光強度の分布として変調した光を第1のイメージファイバの端面から被測定面に投射する第1の光学系と、第1の端面から光を投射したときの被測定面からの戻り光を第2のイメージファイバの端面に入射させて撮影を行う第2の光学系とを使用する(第1ステップ)。そして、第2の光学系を用いて撮影した画像の時間と二次元空間での三次元フーリエ解析に基づいて、被測定面の位置を表す座標を求めることができる(第2ステップ)。この場合、第1のイメージファイバの端面が画像の「投射位置」となり、第2のイメージファイバの端面が「撮影位置」となる。
[Second method]
Alternatively, separate image fibers can be provided for light projection (illumination) and return light incidence (observation). That is, a first optical system for projecting light modulated by a periodic image pattern as a light intensity distribution from the end surface of a first image fiber onto a surface to be measured; A second optical system is used for photographing by making the return light from the surface to be measured enter the end face of the second image fiber (first step). Then, the coordinates representing the position of the surface to be measured can be obtained based on the time of the image captured using the second optical system and the three-dimensional Fourier analysis in the two-dimensional space (second step). In this case, the end face of the first image fiber is the "projection position" of the image, and the end face of the second image fiber is the "photographing position".

上記の第2方法において、第2のイメージファイバの端面にロッドレンズを配置して撮影を行う。ロッドレンズは、第2のイメージファイバの端面から投射方向にずれた位置にある主点を通して被測定面からの戻り光を端面に入射させる。 In the second method, photographing is performed by arranging a rod lens on the end face of the second image fiber. The rod lens causes return light from the surface to be measured to enter the end face of the second image fiber through a principal point at a position shifted in the projection direction from the end face.

また本発明のデータ生成方法は、画像の投影及び撮影位置を知るための方法を開示する。 The data generation method of the present invention also discloses a method for knowing the projection and shooting positions of an image.

〔第1方法〕
すなわち、所定の基準平面を既知として、この基準平面に対する撮影位置を始点として連続的に被測定面に対する画像の投射及び撮影を行うことで、以後の被測定面に対する画像の投影及び撮影位置を求めることができる。
[First method]
That is, a predetermined reference plane is known, and by continuously projecting and photographing images onto the surface to be measured starting from the photographing position with respect to this reference plane, subsequent projection and photographing positions of images onto the surface to be measured are obtained. be able to.

〔第2方法〕
あるいは、並列に配置した複数本の第2のイメージファイバを用いて複数の第2の光学系を用いて撮影を行い、複数の第2の光学系により撮影した複数の画像を用いてステレオ法により求めた始点となる撮影位置から連続的に被測定面に対する画像の投射及び撮影を行うことで、投射及び撮影位置を求めることもできる。
[Second method]
Alternatively, a plurality of second image fibers arranged in parallel are used to perform photographing using a plurality of second optical systems, and a plurality of images photographed by the plurality of second optical systems are used by a stereo method. By continuously projecting and photographing an image onto the surface to be measured from the obtained photographing position as the starting point, the projection and photographing positions can also be obtained.

これにより、外耳道内のように狭く複雑な形状の空間内を移動しながら測定する場合でも、撮影画像を取得した際の撮影位置を基準平面からの連続性により既知とすることで、解析結果を高精度に求めることが可能になる。 As a result, even when measuring while moving in a narrow and complex space such as the ear canal, analysis results can be obtained by knowing the shooting position when the captured image is acquired by continuity from the reference plane. It becomes possible to obtain with high precision.

また、本発明のデータ生成システムは、上記のデータ生成方法を実現する構成を備える。すなわち、システムは画像生成手段、イメージファイバ、撮像手段及び生成手段を備える。画像生成手段は、被測定面に投射する周期的なパターンを有した画像を、所定時間毎に位相をずらして連続的に生成する。また、イメージファイバは、画像生成手段で生成する画像(生成の段階では潜在的な画像)を被測定面に向けて投射可能である。撮像手段は、被測定面に投影された画像をイメージファイバを通じて撮影可能である。 A data generation system of the present invention has a configuration for realizing the above data generation method. That is, the system comprises an image generating means, an image fiber, an imaging means and a generating means. The image generating means continuously generates an image having a periodic pattern to be projected onto the surface to be measured by shifting the phase every predetermined time. Further, the image fiber can project an image generated by the image generating means (a latent image at the stage of generation) toward the surface to be measured. The imaging means can capture an image projected on the surface to be measured through an image fiber.

そして、生成手段は、被測定面に対するイメージファイバの画像の投射及び撮影位置が相対的に停止及び変化する過程を通じて、撮像手段により撮影した複数の撮影画像から得られる時間及び二次元空間での三次元フーリエ解析と、各撮影画像が得られた複数の投射及び撮影位置とに基づいて、被測定面の形状に応じた三次元データを生成する。これにより、本発明のデータ生成方法を実行可能なシステムが構築される。 Then, the generation means generates three-dimensional data in time and two-dimensional space obtained from a plurality of captured images captured by the imaging means through the process of relatively stopping and changing the projection of the image of the image fiber on the surface to be measured and the capturing position. Three-dimensional data corresponding to the shape of the surface to be measured is generated based on the original Fourier analysis and the plurality of projections and imaging positions from which each captured image was obtained. Thereby, a system capable of executing the data generation method of the present invention is constructed.

なお、イメージファイバは、画像の投射用(照明用)である第1のイメージファイバと、撮影用(観察用)の第2のイメージファイバとで別々に構成してもよい。また、画像生成手段は、レーザ光を2つの偏光成分に分岐させ、第2のイメージファイバ上で干渉させて画像を生成することもできるし、非偏光性の光を2つの成分に偏光させ、これら2つの偏光成分の間の位相差を変化させつつ分離させ、再度、第2のイメージファイバ上で合流させて画像を生成することもできる。あるいは、専用のマイクロディスプレイで生成した画像を第2のイメージファイバに入射させることもできる。 Note that the image fibers may be composed separately of a first image fiber for projecting an image (for illumination) and a second image fiber for photographing (for observation). In addition, the image generation means can generate an image by splitting the laser light into two polarized components and causing them to interfere on the second image fiber, or can polarize the non-polarized light into two components, These two polarization components can also be separated with varying phase differences and merged again on a second image fiber to produce an image. Alternatively, an image generated by a dedicated microdisplay can be launched into the second image fiber.

本発明によれば、管体内壁面の形状計測に適した技術を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the technique suitable for the shape measurement of the wall surface in a tubular body can be provided.

一実施形態のデータ生成システム100の構成例を概略的に示す図である。It is a figure showing roughly an example of composition of data generation system 100 of one embodiment. データ生成システム100を用いて計測を行う場合の操作概要を示す図である。FIG. 4 is a diagram showing an outline of operations when performing measurement using the data generation system 100; イメージファイバ110から投射される縞パターンとその位相変化を示す連続図である。FIG. 4 is a series of diagrams showing a fringe pattern projected from an image fiber 110 and its phase change; 縞パターン画像のx方向位置と画素値との関係を静止撮影データと近接撮影データとを対比して示した図である。It is the figure which showed the relationship between the x direction position of a striped pattern image, and a pixel value by contrasting still photography data and close-up photography data. 縞パターン画像のy方向位置と画素値との関係を静止撮影データと近接撮影データとを対比して示した図である。It is the figure which showed the relationship of the y direction position of a striped pattern image, and a pixel value by contrasting still photography data and close-up photography data. 静止撮影データと近接撮影データを時間方向で対比して示した図である。FIG. 4 is a diagram showing static photographing data and close-up photographing data in comparison with each other in the time direction; データ生成システム100の光学系モデルを単独で示した斜視図である。2 is a perspective view showing an optical system model of the data generation system 100 alone; FIG. 図7の光学系モデルの平面図である。FIG. 8 is a plan view of the optical system model of FIG. 7; イメージファイバ110の端面110A’近傍の拡大図である。3 is an enlarged view of the vicinity of an end face 110A' of the image fiber 110; FIG. 磁気マーカ170を用いた位置及び姿勢の検出方法の説明図である。FIG. 4 is an explanatory diagram of a position and orientation detection method using a magnetic marker 170; 磁気マーカ170を用いた位置及び姿勢の検出方法の説明図である。FIG. 4 is an explanatory diagram of a position and orientation detection method using a magnetic marker 170; 磁気マーカ170を用いた位置及び姿勢の検出方法の説明図である。FIG. 4 is an explanatory diagram of a position and orientation detection method using a magnetic marker 170; 磁気マーカ170を用いた位置及び姿勢の検出方法の説明図である。FIG. 4 is an explanatory diagram of a position and orientation detection method using a magnetic marker 170; 実施形態の手法を用いたシミュレーション結果を示す連続図である。FIG. 4 is a series of diagrams showing simulation results using the technique of the embodiment; 実施形態の手法を用いたシミュレーション結果を示す連続図である。FIG. 4 is a series of diagrams showing simulation results using the technique of the embodiment; 実施形態の手法を用いたシミュレーション結果を示す連続図である。FIG. 4 is a series of diagrams showing simulation results using the technique of the embodiment; シミュレーション結果から管体壁面EEの形状を三次元データ上で再構成した結果を示す図である。It is a figure which shows the result of reconstructing the shape of the tubular body wall surface EE on three-dimensional data from the simulation result. 光学系モデルの第1変形構成例を示した図である。It is a figure showing the example of the 1st modification composition of an optical system model. 光学系モデルの第2変形構成例を示した図である。It is the figure which showed the 2nd modified structural example of an optical system model. 光学系モデルの第3変形構成例を示した図である。FIG. 11 is a diagram showing a third modified configuration example of the optical system model; 光学系モデルの第4変形構成例を示した図である。It is the figure which showed the 4th modification structural example of an optical system model.

以下、本発明の実施形態について図面を参照しながら説明する。以下の説明では、データ生成システムの構成を挙げつつ、システムを用いて実施可能なデータ生成方法についても開示する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, while citing the configuration of the data generation system, a data generation method that can be implemented using the system will also be disclosed.

〔システム構成〕
図1は、一実施形態のデータ生成システム100の周辺環境を含めた構成例を概略的に示す図である。したがって、図1に示されていても、データ生成システム100に必須の構成とはならない要素もあるし、図1には示されていない要素がデータ生成システム100を構成することもある。
〔System configuration〕
FIG. 1 is a diagram schematically showing a configuration example including a surrounding environment of a data generation system 100 of one embodiment. Therefore, even if shown in FIG. 1, there are elements that are not essential components of the data generation system 100, and elements that are not shown in FIG. 1 may constitute the data generation system 100.

本実施形態のデータ生成システム100は、計測対象の管体として人体の外耳道EEを例に挙げ、外耳道EEの壁面を被測定面として管体内壁面の形状データを生成する用途に適した構成である。なお、このような用途はあくまで一例であり、計測対象の管体は外耳道EE、鼻腔、喉頭、消化管、ひいては人体に限られず、各種配管、管路、流体ダクト等、撮影可能な各種形状の管体についても計測対象とすることができる。 The data generation system 100 of the present embodiment has a configuration suitable for generating shape data of the inner wall surface of the tube by taking the external auditory canal EE of the human body as an example of the tubular body to be measured and using the wall surface of the external auditory canal EE as the surface to be measured. . In addition, such a use is only an example, and the tubular body to be measured is not limited to the external auditory canal EE, nasal cavity, larynx, digestive tract, and even the human body, various pipes, ducts, fluid ducts, etc. A tubular body can also be measured.

データ生成システム100は、少なくとも以下の光学系要素を備える。すなわち、イメージファイバ110、レーザ光源120、レンズ130,131,132,133及び偏光ビームスプリッタ134である。また適宜、偏光ビームスプリッタ134とレンズ130との間に1/4波長板135が配置される。なお、偏光でないビームスプリッタを用いる構成で実現することも可能であるが、その場合には1/4波長板135は不要となる。 The data generation system 100 comprises at least the following optical system elements. That is, an image fiber 110, a laser light source 120, lenses 130, 131, 132, 133 and a polarizing beam splitter 134. FIG. Also, a quarter-wave plate 135 is appropriately arranged between the polarizing beam splitter 134 and the lens 130 . It should be noted that it is also possible to realize a configuration using a non-polarizing beam splitter, but in that case the quarter-wave plate 135 becomes unnecessary.

データ生成システム100は、電子的デバイスとして空間光変調器140及び撮像素子150を備える。空間光変調器140は、光学系の偏光ビームスプリッタ134と組み合わせて使用される。すなわち、レーザ光源120からの光は、偏光ビームスプリッタ134で反射して空間光変調器140に向かい、空間光変調器140で変調を受けた画素の光だけが偏光ビームスプリッタ134を透過し、レンズ130,131,133を経てイメージファイバ110の端面110Aに入射する。ここで、偏光ビームスプリッタ134の後段に配置した1/4波長板135は、往路方向と復路方向とで偏光状態を90度回転させるために使用するものである。これにより、外耳道EEからイメージファイバ110に入ってきた戻り光が偏光ビームスプリッタ134で反射して撮像素子150へ向かうことになる。なお、空間光変調器140は、プロジェクタ内で使用されるものも含む。 The data generation system 100 includes a spatial light modulator 140 and an imaging device 150 as electronic devices. The spatial light modulator 140 is used in combination with the polarizing beamsplitter 134 of the optical system. That is, the light from the laser light source 120 is reflected by the polarizing beam splitter 134 toward the spatial light modulator 140, and only the pixel light modulated by the spatial light modulator 140 is transmitted through the polarizing beam splitter 134, and the lens 130 , 131 , 133 to enter the end face 110 A of the image fiber 110 . Here, the quarter-wave plate 135 arranged after the polarizing beam splitter 134 is used to rotate the polarization state by 90 degrees between the forward and backward directions. As a result, the return light that has entered the image fiber 110 from the ear canal EE is reflected by the polarization beam splitter 134 and travels toward the imaging device 150 . Note that the spatial light modulator 140 also includes those used within the projector.

光学系のイメージファイバ110は、管体内部に挿入する対物器具として用いられ、本実施形態では、測定対象である外耳道EEへの挿入に適したサイズ(例えば、外径1.7mm、内径1.4mmの管形状)が選定されている。また、外耳道EEの長さは一般的には約3.5cm(成人平均)であると言われているため、全ての人に適用することを考慮し、イメージファイバ110の長さは、少なくとも約60mm程度とすることができる。ただし、イメージファイバ110の取り回し(操作性)を考慮し、イメージファイバ110の全長を適宜に延長することもできる。また、上記のようにデータ生成システム100の用途を他の管体に向けた場合は、それらの測定対象に合わせたサイズや長さが適宜に選定されることとなる。 The image fiber 110 of the optical system is used as an objective instrument to be inserted inside the tubular body. 4 mm tube geometry) is selected. In addition, since the length of the ear canal EE is generally said to be about 3.5 cm (average for adults), considering that it applies to all people, the length of the image fiber 110 should be at least about It can be about 60 mm. However, the total length of the image fiber 110 can be extended as appropriate in consideration of handling (operability) of the image fiber 110 . In addition, when the data generation system 100 is used for other tubular bodies as described above, the size and length are appropriately selected in accordance with the objects to be measured.

レーザ光源120(発光素子)の特性としては、例えば波長が532nm、光強度は100mW程度のものが好適に選定される。このような特性を持つ発光素子は、比較的安価で高光強度のものが入手しやすいという利点がある。また、発光素子にレーザ光源を使用する別の利点としては、簡易的なレンズ系で理想に近い特性を得やすいこともあげられる。ただし、発光素子の特性についても、今回の例に限られず、適宜所望により選定することができる。例えば、必要な光強度を満たしていれば、LEDやその他の光源であっても構わない。ただし、レーザ光源以外を用いる場合は、図1などに記載の光学系に限定されない高度な光学系(レンズ)設計をしないと、例え光源が高光強度であっても、本発明の実施には不十分な可能性がある。 As the characteristics of the laser light source 120 (light emitting element), for example, a wavelength of 532 nm and a light intensity of about 100 mW are preferably selected. A light-emitting element having such characteristics has the advantage of being relatively inexpensive and readily available with high light intensity. Another advantage of using a laser light source as a light emitting element is that it is easy to obtain characteristics close to the ideal with a simple lens system. However, the characteristics of the light-emitting element are not limited to this example, and can be appropriately selected as desired. For example, LEDs or other light sources may be used as long as they meet the required light intensity. However, if a light source other than a laser is used, an advanced optical system (lens) design that is not limited to the optical system shown in FIG. Enough possibilities.

空間光変調器140の特性としては、入力されたレーザ光を本システム100によるデータ生成(形状計測)に必要な縞模様に変換できるものであることとする。なお、空間光変調器140を用いた光変調(縞模様変換)の例については、別の図を用いてさらに後述する。 A characteristic of the spatial light modulator 140 is that it can convert an input laser beam into a striped pattern necessary for data generation (shape measurement) by the system 100 . An example of light modulation (stripe pattern conversion) using the spatial light modulator 140 will be described later with reference to another drawing.

撮像素子150については、本実施形態では人体の外耳道EEといった狭小な管体の中でその内壁を照らして撮影するということを考えると、得られる戻り光の明るさが極めて限定的である中、所望の撮像範囲を撮影するに足りる解像度と画素数を選択することが必要になる。なお、計測(データ生成)の原理が成り立つ最小の画素数(解像度)は3×3であるが、この程度の解像度で得られる結果に高精度を期待することはできないし、一度に形状を再構成できる範囲も非常に狭くなるため、実用的にはある程度の余裕(冗長性)を持たせた解像度とすることが望ましい。 Regarding the imaging element 150, in this embodiment, considering that the inner wall of a narrow tubular body such as the external auditory canal EE of the human body is illuminated and photographed, the brightness of the returned light obtained is extremely limited. It is necessary to select the resolution and the number of pixels sufficient to capture the desired imaging range. The minimum number of pixels (resolution) that satisfies the principle of measurement (data generation) is 3 × 3, but high accuracy cannot be expected from results obtained with this degree of resolution, and the shape can be reproduced at once. Since the configurable range is also very narrow, it is desirable to set the resolution to have some degree of margin (redundancy) practically.

その他、レンズ130、131,132,133や偏光ビームスプリッタ134、1/4波長板135等の光学素子は、外耳道EEの管体内壁画像を必要十分なデータとして得られる特性のものを選定したり、それらの配置の校正をしたりして構成するものとする。 In addition, optical elements such as the lenses 130, 131, 132, 133, the polarization beam splitter 134, and the quarter wave plate 135 are selected with characteristics that can obtain necessary and sufficient data for the inner wall image of the ear canal EE. , shall be configured by calibrating their arrangement.

また、データ生成システム100は、電子ユニット160を備える。電子ユニット160は、例えばコンピュータ機器等のハードウエアで構成することができる。そして電子ユニット160は、その内部にソフトウェア処理を用いた各種の機能的要素を構成することができ、本実施形態では、例えば画像処理部162、解析・再構成部164、検出処理部166等の機能的要素を設けている。 The data generation system 100 also comprises an electronic unit 160 . The electronic unit 160 can be configured by hardware such as computer equipment. The electronic unit 160 can include various functional elements using software processing in its interior. It has functional elements.

画像処理部162は、例えば空間光変調器140の駆動を制御し、入射したレーザ光を必要な縞パターンに変調する。また、画像処理部162は撮像素子150の駆動を制御し、各画素の撮像信号をデータ処理して解析・再構成部164に送る。解析・再構成部164は、撮像信号のデータに基づいて三次元解析処理を実行し、所望のデータを生成する。測定対象である外耳道EEの壁面形状は、生成したデータ上で再構成(再現)されることになる。 The image processing unit 162 controls the driving of the spatial light modulator 140, for example, and modulates the incident laser light into a necessary fringe pattern. Also, the image processing unit 162 controls the driving of the imaging device 150 , data-processes the imaging signal of each pixel, and sends the data to the analysis/reconstruction unit 164 . The analysis/reconstruction unit 164 executes three-dimensional analysis processing based on the data of the imaging signal to generate desired data. The shape of the wall surface of the ear canal EE, which is the object of measurement, is reconstructed (reproduced) on the generated data.

データ生成システム100は、周辺機器として例えば、画像表示器168を備えることができる。画像表示器168は、上記の画像処理部162により駆動することで、その画面上に撮像素子150が撮像した画像を表示させることができる。これにより、使用者・操作者が外耳道EEの内部画像を視認しながらイメージファイバ110を挿入することが可能である。 The data generation system 100 can include, for example, an image display 168 as a peripheral device. The image display device 168 is driven by the image processing unit 162 to display an image captured by the imaging device 150 on its screen. This allows the user/operator to insert the image fiber 110 while viewing the internal image of the ear canal EE.

また、データ生成システム100は、例えばイメージファイバ110に駆動機構112を付加した構成とすることができる。駆動機構112は、イメージファイバ110を機械的に駆動し、外耳道EEへの進入動作や内部からの退出動作を機械的に行わせるものである。また適宜、駆動機構112には操作部114を付属させ、使用者・操作者が操作部114を操作して駆動機構112の作動を制御することもできる。駆動機構112には、例えばイメージファイバ110の対物側の端面110A’を微小ステップ単位で移動させることが可能な精度を持たせることができる。イメージファイバ110の移動ステップは、例えば手動操作の場合には、使用者・操作者が画像表示器168の画面を視認しながら手動で調整することになるが、駆動機構112を自動化する場合は、外耳道EE壁への衝突を避けるため、例えば0.1mm程度で移動ステップを制御できることが望ましい。 Further, the data generation system 100 can have a configuration in which a driving mechanism 112 is added to the image fiber 110, for example. The drive mechanism 112 mechanically drives the image fiber 110 to mechanically perform an operation to enter the external auditory canal EE and an operation to exit from the inside. In addition, an operation unit 114 may be attached to the drive mechanism 112 as appropriate, and the user/operator may operate the operation unit 114 to control the operation of the drive mechanism 112 . The driving mechanism 112 can be given a precision capable of moving, for example, the object-side end surface 110A' of the image fiber 110 in minute steps. For example, in the case of manual operation, the moving step of the image fiber 110 is manually adjusted while the user/operator visually recognizes the screen of the image display device 168. However, in the case of automating the drive mechanism 112, In order to avoid collision with the ear canal EE wall, it is desirable to be able to control the movement step, for example, on the order of 0.1 mm.

また本実施形態では、イメージファイバ110をワイヤ操作等により、所望に屈曲させることが可能である。これにより、イメージファイバ110を外耳道EE形状に応じて変形させながら、奥まで非接触に挿入することが可能となる。イメージファイバ110のワイヤ操作に必要な構成は駆動機構112に備えるものとし、その構成及び動作には、医療機器(内視鏡)等の分野で公知のものを適用することができるので、ここでは詳細な説明を省略する。 Further, in this embodiment, the image fiber 110 can be bent as desired by wire manipulation or the like. This makes it possible to insert the image fiber 110 deep into the ear canal EE without contact while deforming the image fiber 110 according to the shape of the ear canal EE. The configuration necessary for wire manipulation of the image fiber 110 is provided in the drive mechanism 112, and the configuration and operation thereof can be applied to those known in the field of medical equipment (endoscopes) and the like. Detailed description is omitted.

その他にも、データ生成システム100は、周辺機器(補機類)として検出デバイスを備えることができる。具体的には、イメージファイバ110の挿入端部に磁気マーカ170を設置するとともに、測定対象である外耳道EEの外側周囲に複数の磁気センサ170a~170fを配置した構成とする。磁気センサ170a~170fは、磁気マーカ170の磁界強度(磁束密度)をそれぞれの位置で検出し、その検出信号を電子ユニット160に入力する。検出処理部166は、検出信号を処理し、磁気マーカ170の位置及び姿勢(角度)を既知データ化する。なお、このような検出デバイスを用いた検出処理についても、さらに別の図を用いて後述する。 In addition, the data generation system 100 can include detection devices as peripheral equipment (auxiliaries). Specifically, a magnetic marker 170 is installed at the insertion end of the image fiber 110, and a plurality of magnetic sensors 170a to 170f are arranged around the external auditory canal EE to be measured. The magnetic sensors 170 a to 170 f detect the magnetic field intensity (magnetic flux density) of the magnetic marker 170 at respective positions and input the detection signals to the electronic unit 160 . The detection processing unit 166 processes the detection signal and converts the position and orientation (angle) of the magnetic marker 170 into known data. A detection process using such a detection device will also be described later using another figure.

〔操作概要〕
図2は、データ生成システム100を用いて計測を行う場合の操作概要を示す図である。また図2には、データ生成システム100の一部構成をハンドユニットHUに具現化した場合の形態例も示されている。
[Operation overview]
FIG. 2 is a diagram showing an outline of operations when performing measurement using the data generation system 100. As shown in FIG. FIG. 2 also shows a form example in which a part of the configuration of the data generation system 100 is embodied in the hand unit HU.

図2(A):データ生成システム100の構成要素を実装(搭載)したハンドユニットHUは、例えば使用者・操作者が片手で把持することができる形態に具現化されている。一例としてハンドユニットHUをガン形状とし、そのグリップ部分を持ち手として使用者・操作者が携行することができる。ハンドユニットHUの前端部からはイメージファイバ110が延びており、使用者・操作者がもう片方の手でイメージファイバ110を把持しながら、その先端部分を人の外耳道EE内に挿入する。なお、このとき上記のように駆動機構112を用いて自動化することもできるし、イメージファイバ110を所望に屈曲させることもできる。また、ハンドユニットHUの後端面等には、画像表示器168の画面を設けてもよい。なお、磁気マーカ170はなくてもよい。 FIG. 2A: The hand unit HU on which the components of the data generation system 100 are mounted (mounted) is embodied in a form that can be held by a user/operator with one hand, for example. As an example, the hand unit HU can be made into a gun shape, and the user/operator can carry it by using the grip portion as a handle. An image fiber 110 extends from the front end of the hand unit HU, and the user/operator inserts the tip portion into the human ear canal EE while holding the image fiber 110 with the other hand. At this time, the driving mechanism 112 can be used as described above to automate the process, and the image fiber 110 can be bent as desired. Also, the screen of the image display device 168 may be provided on the rear end surface of the hand unit HU or the like. Note that the magnetic marker 170 may be omitted.

あるいは、電子ユニット160の機能を図示しない外部機器に置き、ハンドユニットHUに通信機器を内蔵させることで、無線あるいは有線で外部機器との通信を可能としてもよい。この場合、画像表示器168や解析・再構成部164はハンドユニットHUの内部に置いてもよいし、外部機器に置いてもよい。これらを外部機器に置く場合には、撮像素子150の撮像データを逐次送信するために十分な伝送容量を持つプロトコルを用いた有線接続又は無線接続で送信される。 Alternatively, the function of the electronic unit 160 may be placed in an external device (not shown), and the hand unit HU may incorporate a communication device to enable wireless or wired communication with the external device. In this case, the image display device 168 and the analysis/reconstruction unit 164 may be placed inside the hand unit HU or may be placed in an external device. When they are placed in an external device, they are transmitted by wired connection or wireless connection using a protocol having a sufficient transmission capacity for sequentially transmitting the imaging data of the imaging element 150 .

上記のレーザ光源120は、ハンドユニットHUに内蔵していてもよいし、別体のレーザ発振器等を用いて外部でレーザ光を生成し、図示しないファイバ等で必要な部分まで導入してもよい。この場合、ハンドユニットHUには、外部のレーザ光源120から光を導入するための光コネクタ、フェルール等が設けられる。 The laser light source 120 described above may be built in the hand unit HU, or a separate laser oscillator or the like may be used to generate laser light externally, and a fiber or the like (not shown) may be used to introduce the laser light to a required portion. . In this case, the hand unit HU is provided with an optical connector, a ferrule, etc. for introducing light from the external laser light source 120 .

ハンドユニットHUに供給する電源については、外部からの供給でもよいし、内蔵バッテリによる駆動でもよい。バッテリ駆動とする場合は、ハンドユニットHUを使用者・操作者が手に持ちながら繊細に外耳道EEの壁面形状を計測するために取り廻すことになるため、内蔵バッテリや電源回路を軽量とすることが求められる。 The power supplied to the hand unit HU may be supplied from the outside, or may be driven by an internal battery. When the hand unit HU is driven by a battery, the hand unit HU is held in the hand of the user/operator in order to delicately measure the wall shape of the external auditory canal EE. is required.

外耳道EEの形状計測は、イメージファイバ110の対物側先端面から縞パターン光を投射して行う。このような縞パターン光が被測定面に投影されて縞パターン画像となる。このとき、図2(A)に示すように、耳甲介腔E1に小さなステッカSを貼り付けておく。これは、一般的に人の耳甲介腔E1が平面形状であることを利用して、外耳道EEに通じる基準平面を撮像したデータを得るためである。本実施形態の手法では、撮影した画像データから形状を再構成する際に、イメージファイバ110の端面110A’の位置と姿勢(投射方向)が既知である必要があり、その位置と姿勢も複数枚の画像データから解析することとしている。例えば、平面であることが分かっている部位が画像に写り込むように撮影することにより、その平面を基準として端面110A’の位置と姿勢を推定する。そのための具体的な方法の一つとして、耳甲介腔E1に小さなステッカSを貼り付けている。なお、このような基準平面の撮像データから位置と姿勢を推定する方法については、さらに詳しく後述する。 The shape of the ear canal EE is measured by projecting stripe pattern light from the tip of the image fiber 110 on the object side. Such striped pattern light is projected onto the surface to be measured to form a striped pattern image. At this time, as shown in FIG. 2A, a small sticker S is affixed to the concha E1. This is to obtain the imaged data of the reference plane leading to the external auditory canal EE by utilizing the fact that the human ear concha E1 generally has a planar shape. In the technique of this embodiment, when reconstructing the shape from the photographed image data, the position and orientation (projection direction) of the end surface 110A' of the image fiber 110 must be known, and the position and orientation are also available in a plurality of images. It is supposed to analyze from the image data of For example, by taking an image so that a portion known to be a flat surface is captured in the image, the position and orientation of the end surface 110A' are estimated based on the flat surface. As one specific method for this purpose, a small sticker S is attached to the concha E1. A method for estimating the position and orientation from the imaging data of the reference plane will be described later in detail.

図2(B):外耳道EEの外側(入口外)で撮像された画像の例である。なお、ここでは画像の例を概念的に示している(以降も同様。)。外耳道EEとその外側周辺の耳甲介腔E1には、縞パターンFGが投影されて画像として写っている。また、耳甲介腔E1に貼り付けたステッカSも画像に写り込んでいる。縞パターンFGは、空間光変調器140で変調した元の状態では平行な直線パターンであるが、画像では、投影面の形状に応じて変形して写る。なお、縞パターンFGは画面全体に写っていると考えられるが、ここでは図示の都合及び煩雑化を防止するため、縞パターンFGは一部のみ図示し、多くは省略している(以降も同様。)。 FIG. 2(B): An example of an image captured outside the ear canal EE (outside the entrance). It should be noted that examples of images are conceptually shown here (the same applies hereinafter). A fringe pattern FG is projected as an image on the external auditory canal EE and the ear concha cavity E1 around it. In addition, the sticker S attached to the concha E1 is also reflected in the image. The fringe pattern FG is a parallel straight line pattern in the original state modulated by the spatial light modulator 140, but in the image, it appears deformed according to the shape of the projection plane. Although the striped pattern FG is considered to appear on the entire screen, only a portion of the striped pattern FG is shown here, and most of it is omitted for convenience of illustration and to prevent complication (the same applies hereinafter). .).

図2(C):イメージファイバ110の端面110A’が外耳道EEに入っていくときの画像である。外耳道EEの形状が複雑であるため、この撮影位置と角度(姿勢)では画像に写りきらない陰面があることが分かる。本実施形態では、イメージファイバ110を外耳道EE内に挿入しつつ、撮影位置と角度を変えて複数回の撮影を行うことで、ある回の撮影では陰となった面についても撮影する。 FIG. 2(C): An image when the end surface 110A' of the image fiber 110 enters the ear canal EE. Since the shape of the ear canal EE is complicated, it can be seen that there is a hidden surface that cannot be fully captured in the image at this photographing position and angle (orientation). In this embodiment, by inserting the image fiber 110 into the ear canal EE and taking multiple shots at different shooting positions and angles, even a shadowed surface is shot in one shot.

図2(D):イメージファイバ110の端面110A’が外耳道EEの奥まで挿入されたときの画像である。オーダーメイド補聴器シェルの作成には、さらに外耳道EEの奥まで形状計測する必要がある。このような狭い管体内壁面の形状計測は、従来公知のステレオ法や物体外面への縞投影法だけでは実現困難であることが分かる。 FIG. 2(D): An image when the end face 110A' of the image fiber 110 is inserted deep into the ear canal EE. In order to create a custom-made hearing aid shell, it is necessary to measure the shape further into the ear canal EE. It can be seen that it is difficult to measure the shape of such a narrow tube inner wall surface only by the conventionally known stereo method or fringe projection method on the outer surface of the object.

〔縞パターン〕
図3は、イメージファイバ110から投射される縞パターンとその位相変化を示す連続図である。このうち、図3中上段の(A)~(D)は、空間光変調器140で変調した元データ状態の縞パターンの位相変化を示し、図3中下段の(I)~(IV)は、イメージファイバ110を移動させながら上段の縞パターンを被測定面に投影し、連続撮影して得た画像の縞パターンの位相変化(シミュレーション結果)を示している。
[Stripe pattern]
FIG. 3 is a series of diagrams showing the fringe pattern projected from the image fiber 110 and its phase change. Among them, (A) to (D) in the upper part of FIG. 3 show the phase change of the fringe pattern in the original data state modulated by the spatial light modulator 140, and (I) to (IV) in the lower part of FIG. 8 shows the phase change (simulation result) of the fringe pattern of images obtained by projecting the upper fringe pattern onto the surface to be measured while moving the image fiber 110 and continuously photographing the fringe pattern.

本実施形態では、投影する縞パターンは一定時間毎に位相をずらし、その時間と同期して画像を取得する。すなわち、図3(A)の画像を1枚目の縞パターンFGS01とし、空間光変調器140で変調する元データの画素数を100×100とすると、横方向(x方向)と縦方向(y方向)の二次元空間(アドレス空間)で周期的なパターンが生成される。図示の濃淡は、変調された光強度分布を表している。なお、ここでは画素のアドレス表記を(1,1)~(100,100)としているが、(0,0)~(99,99)としてもよい。 In this embodiment, the phase of the projected fringe pattern is shifted at regular time intervals, and an image is acquired in synchronization with that time. 3A is the first stripe pattern FGS01, and the number of pixels of the original data modulated by the spatial light modulator 140 is 100×100, the horizontal direction (x direction) and the vertical direction (y direction) are 100×100. A periodic pattern is generated in the two-dimensional space (address space) of the direction). The shading in the drawing represents the modulated light intensity distribution. Although the pixel address notation is (1, 1) to (100, 100) here, it may be (0, 0) to (99, 99).

〔縞パターンの静止撮影データ〕
一定時間毎に位相をずらした縞パターンは、図3(A)→(B)→(C)→(D)のように位相変化していく。一定時間毎に画像枚数が切り替わるとすると、図3(B)の画像は23枚目の縞パターンFGS23であり、図3(C)の画像は46枚目の縞パターンFGS46であり、図3(D)の画像は92枚目の縞パターンFGS92である。図3(A)~(D)で同じ1画素(例えば、アドレス(100,100)の画素)を比較すると分かるように、縞パターンの位相変化によって画素値が変化していることが分かる。このような画像は、被測定面に投影した縞パターンを、静止(相対的に停止)した撮影位置で撮影した場合の結果になる。
[Still photography data of striped pattern]
The fringe pattern whose phase is shifted at regular time intervals changes in phase as shown in FIG. 3(A)→(B)→(C)→(D). Assuming that the number of images changes at regular intervals, the image in FIG. 3B is the 23rd striped pattern FGS23, the image in FIG. 3C is the 46th striped pattern FGS46, and The image of D) is the 92nd striped pattern FGS92. As can be seen by comparing the same one pixel (for example, the pixel of address (100, 100)) in FIGS. 3A to 3D, it can be seen that the pixel value changes due to the phase change of the fringe pattern. Such an image is the result of photographing the fringe pattern projected onto the surface to be measured at a still (relatively stationary) photographing position.

〔縞パターンの近接撮影データ〕
上記の図3(A)~(D)は、縞パターンの元データ(静止撮影時のもの)であるが、このような縞パターンを、被測定面に対して相対的に変化(近接)していく撮影位置で撮影した結果は図3(I)~(IV)の画像で表される。撮影は、縞パターンの位相をずらす一定時間毎のタイミングに同期して行い、図3(A)~(D)の1枚目、23枚目、46枚目、92枚目の画像をそれぞれ撮影したものが図3(I)~(IV)の縞パターンFGM01,FGM23,FGM46,FGM92となる。図3(I)~(IV)で同じ1画素(例えば、アドレス(100,100)の画素)を比較すると分かるように、撮影された縞パターンFGM01,FGM23,FGM46,FGM92についても、元データの位相変化によって画素値が変化しているが、これに加えて、撮影位置の移動の影響によっても画素値が変化していることが分かる。したがって、図3上段の(A)~(D)と下段の(I)~(IV)とで同じ1画素(例えば、アドレス(100,100)の画素)を比較すると、元データ(静止時)と撮影データ(近接時)とでは、周期的な縞パターンの特性に違いが生じていることが分かる。
[Close-up data of striped pattern]
3A to 3D are the original data of the striped pattern (at the time of static photography), and such a striped pattern is changed (approached) relatively to the surface to be measured. The results of photographing at progressive photographing positions are represented by images in FIGS. 3(I) to (IV). Photographing is performed in synchronization with the timing of shifting the phase of the fringe pattern at regular intervals, and the 1st, 23rd, 46th, and 92nd images in FIGS. 3(A) to (D) are photographed respectively. The results are the stripe patterns FGM01, FGM23, FGM46, and FGM92 of FIGS. 3(I) to (IV). As can be seen by comparing the same one pixel (for example, the pixel of address (100, 100)) in FIGS. It can be seen that the pixel value changes due to the phase change, and in addition to this, the pixel value also changes due to the influence of the movement of the shooting position. Therefore, comparing the same one pixel (for example, the pixel at the address (100, 100)) between (A) to (D) in the upper part of FIG. 3 and (I) to (IV) in the lower part of FIG. It can be seen that there is a difference in the characteristic of the periodic fringe pattern between the photographed data (during proximity) and the photographed data (during close proximity).

〔二次元空間〕
図4は、縞パターン画像のx方向位置と画素値との関係を静止撮影データと近接撮影データとを対比して示した図である。また、図5は、縞パターン画像のy方向位置と画素値との関係を静止撮影データと近接撮影データとを対比して示した図である。図4及び図5は、それぞれ横軸が画素の位置(何番目の画素であるか)を表し、縦軸が画素値(例えば最大255)を表している。なお、図4はx方向でアドレス(1,1)~(100,1)の画素についてプロットしており、図5はy方向でアドレス(1,1)~(1,100)の画素についてプロットしている。これら図4、図5から明らかなように、画像のx方向及びy方向のいずれについても、静止撮影データに対して近接撮影データは、二次元空間で周期的なパターンに変化が現れていることが分かる。
[Two-dimensional space]
FIG. 4 is a diagram showing the relationship between the x-direction position of the striped pattern image and the pixel value by comparing the static photographed data and the close-up photographed data. FIG. 5 is a diagram showing the relationship between the y-direction position of the striped pattern image and the pixel value by comparing the static photographed data and the close-up photographed data. In FIGS. 4 and 5, the horizontal axis represents the position of the pixel (what number the pixel is), and the vertical axis represents the pixel value (for example, maximum 255). 4 plots pixels with addresses (1, 1) to (100, 1) in the x direction, and FIG. 5 plots pixels with addresses (1, 1) to (1, 100) in the y direction. is doing. As is clear from FIGS. 4 and 5, in both the x direction and the y direction of the image, the close-up data changes in a periodic pattern in the two-dimensional space with respect to the still image data. I understand.

〔時間方向〕
図6は、静止撮影データと近接撮影データを時間方向で対比して示した図である。ここでは、撮影画像のある1画素(例えば、上段及び下段に示すアドレス(100,100)の画素)に着目し、横軸に時間(何枚目に撮影した画像であるか)をとった場合に、そのときの画素値を縦軸で表している。図6から明らかなように、画素のデータは、時間方向にも周期的なパターンとして現れるとともに、静止撮影データに対して近接撮影データは、時間方向でも周期的なパターンに変化が現れていることが分かる(例えば、23画像目の静止撮影データ画素値PVS23と近接撮影データ画素値PVM23との違い、46画像目の静止撮影データ画素値PVS46と近接撮影データ画素値PVM46との違い、92画像目の静止撮影データ画素値PVS92と近接撮影データ画素値PVM92との違い、100画像目の静止撮影データ画素値PVS100と近接撮影データ画素値PVM100との違い等。)。
[Time direction]
FIG. 6 is a diagram showing static photographing data and close-up photographing data in comparison in the time direction. Here, one pixel with a photographed image (for example, the pixel at the address (100, 100) shown in the upper and lower rows) is focused, and the horizontal axis is time (which image was photographed). , the vertical axis represents the pixel value at that time. As is clear from FIG. 6, the pixel data appears as a periodic pattern also in the time direction, and the close-up data changes in the periodic pattern also in the time direction with respect to the still image data. (for example, the difference between the still image data pixel value PVS23 in the 23rd image and the close-up image data pixel value PVM23, the difference between the still image data pixel value PVS46 in the 46th image and the close-up image data pixel value PVM46, the 92nd image difference between the still photographing data pixel value PVS92 and the close-up photographing data pixel value PVM92, the difference between the still photographing data pixel value PVS100 of the 100th image and the close-up photographing data pixel value PVM100, etc.).

このように本実施形態では、投影する縞パターンについて一定時間毎に位相をずらし、その時間と同期して画像を取得していくと、時間方向と二次元空間で周期的なパターンが生成される。これにより、時間と二次元空間の三次元フーリエ解析から、管体内壁形状をデータ上で再構成することができる。以下、解析・再構成についてさらに説明する。 Thus, in this embodiment, when the phase of the fringe pattern to be projected is shifted at regular time intervals and images are acquired in synchronization with that time, a periodic pattern is generated in the time direction and in the two-dimensional space. . As a result, it is possible to reconstruct the shape of the inner wall of the tube on data from three-dimensional Fourier analysis of time and two-dimensional space. The analysis/reconstruction will be further described below.

〔生成する縞パターン〕
上記のように、データ生成システム100は縞パターンを空間光変調器140で生成する。ここで、空間光変調器140の画素位置の座標を(x(M),y(M))と定義すると、空間光変調器140で生成する縞パターンは、次の4通り(式(1)~(4))のいずれか、又は、その組み合わせで表現することができる。

Figure 2022130354000002
[Generated stripe pattern]
As described above, data generation system 100 generates fringe patterns with spatial light modulator 140 . Here, if the coordinates of the pixel position of the spatial light modulator 140 are defined as (x (M) , y (M) ), the fringe patterns generated by the spatial light modulator 140 are the following four types (equation (1) (4)) or a combination thereof.
Figure 2022130354000002

ここで、上式(1)~(4)のa(M),b(M),K,K,Ω,φは定数であり、a(M)≧b(M),K>0,K>0,Ω>0の条件がある。φは任意とすることができる。
は、空間光変調器140のx方向の画素ピッチがΔx(M)であるとすると、KΔx(M)<πとなるように設定する。ここでは例えば、KΔx(M)=π/2とする。
は、空間光変調器140のy方向の画素ピッチがΔy(M)であるとすると、KΔy(M)<πとなるように設定する。ここでは例えば、KΔy(M)=π/2とする。
tは時間であり、空間光変調器140の縞パターンは、一定時間Δtごとに変化させることとする。これは、ΩΔt<πの条件で変化させる。ここでは例えば、ΩΔt=π/2とする。
Here, a (M) , b (M) , K x , K y , Ω, and φ 0 in the above equations (1) to (4) are constants, and a (M) ≧b (M) , K x >0, K y >0, and Ω>0. φ 0 can be arbitrary.
K x is set so that K x Δx (M) < π, where Δx (M) is the pixel pitch in the x direction of the spatial light modulator 140 . Here, for example, K x Δx (M) = π/2.
K y is set so that K y Δy (M) < π, where Δy (M) is the pixel pitch in the y direction of the spatial light modulator 140 . Here, for example, K y Δy (M) =π/2.
t is time, and the fringe pattern of the spatial light modulator 140 is changed every constant time Δt. This is changed under the condition of ΩΔt<π. Here, for example, ΩΔt=π/2.

このような条件で生成した縞パターンを外耳道EE等の管体内壁に投影するためには、その縞パターンを距離に応じて広げる必要がある。このためデータ生成システム100では、上記のように光学系を使用する。 In order to project the fringe pattern generated under such conditions onto the inner wall of the tube such as the external auditory canal EE, the fringe pattern must be widened according to the distance. Therefore, the data generation system 100 uses an optical system as described above.

〔光学系モデル〕
図7は、データ生成システム100の光学系モデルを単独で示した斜視図である。図8は、図7の光学系モデルの平面図である。また、図9は、イメージファイバ110の端面110A’近傍の拡大図である。なお、光学系の各構成要素については既に説明済みであるため、ここでは図1に示した構成要素と同じものには同一の符号を付し、重複した説明を省略する。また、ここでは単純化のため、計測対象を直管形状の管体PTとして表し、その内部が外耳道EEであるものと想定する。また、既知の平面である耳甲介腔E1を管体PT入口周辺の基準平面E1’とする。
[Optical system model]
FIG. 7 is a perspective view showing an optical system model of the data generation system 100 alone. 8 is a plan view of the optical system model of FIG. 7. FIG. 9 is an enlarged view of the vicinity of the end face 110A' of the image fiber 110. FIG. Since each component of the optical system has already been described, the same components as those shown in FIG. 1 are denoted by the same reference numerals, and redundant description is omitted. For the sake of simplification, it is assumed here that the object to be measured is represented as a tubular body PT having a straight tubular shape, and that the interior thereof is the external auditory canal EE. Also, the concha cavity E1, which is a known plane, is defined as a reference plane E1' around the inlet of the tubular body PT.

図8(A),(B):レンズ130,131,133系の焦点をイメージファイバ110の端面110Aに合わせれば、もう一方の対物側の端面110A’に焦点面のパターンが転送されるため、もう一方の端面110A’を焦点面とみなすことができる。このとき、レンズ130,131,133系の焦点距離をF、端面110A’から法線方向の距離をz’(S)とすると、縞パターンの倍率は、次式(数2)

Figure 2022130354000003
で表される。つまり、端面110A’と光軸の交点を原点とした投影位置を(x'(S),y'(S),z'(S))とすると、次式(5)(6)
Figure 2022130354000004
の関係になる。 8A and 8B: If the focal point of the system of lenses 130, 131, 133 is adjusted to the end face 110A of the image fiber 110, the pattern of the focal plane is transferred to the other end face 110A' on the objective side. The other end face 110A' can be considered the focal plane. At this time, if the focal length of the lens system 130, 131, 133 is F, and the distance in the normal direction from the end surface 110A' is z' (S) , the magnification of the fringe pattern is given by the following equation (Equation 2)
Figure 2022130354000003
is represented by That is, if the projection position with the origin being the intersection of the end face 110A' and the optical axis is (x' (S) , y' (S) , z' (S) ), the following equations (5) and (6)
Figure 2022130354000004
become a relationship.

光学系モデルは、投影位置(x'(S),y'(S),z'(S))からの戻り光を撮像素子150で取得することになるが、このとき、戻り光を受けるイメージファイバ110の端面110A’から縞パターンの投射方向に離れた面上に仮想的な点152’(図7(B))を配置したと仮定して、撮像素子150には、その素子面よりも入射方向手前の面をレンズ132により結像する物理構成とする。例えば、撮像素子150とレンズ132との間に物理的なピンホール152(空間フィルタ)を配置することで、イメージファイバ110の端面110A’から離れた点152’に仮想的なピンホールが配置された状況と等価な光学系が構築されることになる。 The optical system model acquires the return light from the projection position (x' (S) , y' (S) , z' (S) ) with the image sensor 150. At this time, the image of the return light Assuming that a virtual point 152' (FIG. 7(B)) is placed on a plane away from the end face 110A' of the fiber 110 in the projection direction of the fringe pattern, the imaging element 150 has The physical configuration is such that an image is formed by the lens 132 on the front surface in the incident direction. For example, by placing a physical pinhole 152 (spatial filter) between the imaging element 150 and the lens 132, a virtual pinhole is placed at a point 152' away from the end face 110A' of the image fiber 110. An optical system equivalent to the situation is constructed.

この点152’を光学系モデルにおいて仮想ピンホール152’と呼称する。イメージファイバ110の端面110A’側に仮想ピンホール152’を配置した状況を生み出すことで、投影位置(x'(S),y'(S),z'(S))と仮想ピンホール152’の位置を結ぶ延長線上に仮想撮像素子面150’が置かれる(図9参照)。このとき仮想撮像素子面150’の画素(実際には撮像素子150の画素)には、投影位置(x'(S),y'(S),z'(S))からの戻り光が入ることになる。 This point 152' is called a virtual pinhole 152' in the optical system model. By creating a situation in which the virtual pinhole 152' is arranged on the end face 110A' side of the image fiber 110, the projection position (x' (S) , y' (S) , z' (S) ) and the virtual pinhole 152' A virtual imaging element plane 150' is placed on an extension line connecting the positions of (see FIG. 9). At this time, return light from the projection positions (x' (S) , y' (S) , z' (S) ) enters the pixels of the virtual image sensor plane 150' (actually the pixels of the image sensor 150). It will be.

なお、図9では、仮想撮像素子面150’を仮想的に置いているが、イメージファイバ110の端面110A’を光学系モデルによって実体的な撮像素子150側に移動させたとした場合、この端面110A’が図7(A)及び図8(A)に示す撮像素子150手前の仮想端面110A”に対応することになる。 In FIG. 9, the virtual imaging element surface 150′ is imaginarily placed. ' corresponds to the imaginary end surface 110A'' in front of the imaging device 150 shown in FIGS. 7A and 8A.

図8(A):このピンホール152の位置を原点とした撮像素子150面上の座標を(x,y,z)とすると、次式(7)~(9)

Figure 2022130354000005
という関係が成り立つ。ここで、仮想ピンホール152’の位置を(x(p),y(p),z(p))としている。また、各画素における(x'(S),y'(S),z'(S))は,その画素とピンホール152を結ぶ直線の延長線上のどこかの点になるが、この直線上を動く点の位置を表現する媒介変数がlとなる。そうすると、上記4種類の縞パターンは、撮像素子150面上では、次式(10)
Figure 2022130354000006
と表すことができ、上式のφが次の4種類となる(式(11)~(14))。
Figure 2022130354000007
FIG. 8A: Assuming that the position of the pinhole 152 is the origin and the coordinates on the surface of the imaging element 150 are (x, y, z), the following equations (7) to (9) are obtained.
Figure 2022130354000005
A relationship is established. Here, the position of the virtual pinhole 152' is (x (p) , y (p) , z (p) ). In addition, (x' (S) , y' (S) , z' (S) ) at each pixel is somewhere on the extension line of the straight line connecting the pixel and the pinhole 152. On this straight line A parameter representing the position of the point moving is l. Then, the above four stripe patterns are expressed by the following equation (10) on the surface of the imaging element 150.
Figure 2022130354000006
φ in the above equation has the following four types (equations (11) to (14)).
Figure 2022130354000007

また、上式のa,bは戻り光の強さに依存し、a≧bの関係がある。ここで仮に、なんらかの手段でφが求まれば、式(11)~(14)のいずれかを使ってlを求めることができると考えられる。lが求まれば、式(7)~(9)より焦点面中心を原点とした壁面座標(x'(S),y'(S),z'(S))が求まる。 Also, a and b in the above equation depend on the intensity of the return light, and have a relationship of a≧b. Here, if φ can be obtained by some means, it is considered that l can be obtained using any one of equations (11) to (14). Once l is obtained, the wall surface coordinates (x' (S) , y' (S) , z' (S) ) with the center of the focal plane as the origin are obtained from equations (7) to (9).

ここで、イメージファイバ110の端面110A’の位置と姿勢を考慮すれば、壁面座標(x'(S),y'(S),z'(S))は、次式(数7)

Figure 2022130354000008
のように求まる。上式のaijは、変換行列であるアフィン行列の要素である。アフィン行列は、回転行列や並進移動を表す行列を掛け合わせて構成され、任意の座標変換を表現できる。そして、φが得られ、アフィン行列が既知であれば、上式の壁面座標(x(S),y(S),z(S))が得られることになる。 Here, considering the position and attitude of the end surface 110A' of the image fiber 110, the wall surface coordinates (x' (S) , y' (S) , z' (S) ) are expressed by the following equation (Equation 7)
Figure 2022130354000008
It is found like aij in the above equation is an element of an affine matrix, which is a transformation matrix. Affine matrices are constructed by multiplying rotation matrices and translation matrices, and can express any coordinate transformation. Then, if φ is obtained and the affine matrix is known, the wall surface coordinates (x (S) , y (S) , z (S) ) of the above equation will be obtained.

〔三次元フーリエ解析手法〕
ここで、式(10)の形の時間変化する縞パターン画像からφを得る方法には、三次元フーリエ解析手法を用いることができる。式(14)は、オイラーの公式より、次式(15)

Figure 2022130354000009
のように変形できるが、これをx,y,tで三次元フーリエ変換すると、次式(16)
Figure 2022130354000010
のようになり、3つの項は(ν,ν,ν)空間上で分離される。ここで、FTはフーリエ変換を表す演算子を意味する。 [Three-dimensional Fourier analysis method]
Here, a three-dimensional Fourier analysis method can be used as a method of obtaining φ from the time-varying fringe pattern image in the form of Equation (10). Equation (14) is obtained by the following equation (15) from Euler's formula
Figure 2022130354000009
When this is three-dimensionally Fourier-transformed with x, y, and t, the following equation (16)
Figure 2022130354000010
and the three terms are separated on the (ν x , ν y , ν t ) space. Here, FT means an operator representing Fourier transform.

三次元空間は、8つの象限からなるが、式(16)の第1項は原点周辺、第2項と第3項は、原点に対して点対称となる象限に分離される。このとき、1種類の縞パターンで2つの象限を占有することになるが、4種類の縞パターンは、すべて別の象限を占有することになるので、4種類の縞パターンをすべて重ねたとしても、ここでは分離することができる。式(16)の第2項または第3項を用いればよいが、ここで、第2項を取り出すとして、次式(17)

Figure 2022130354000011
とする。ここでは大きさは重要ではないため、1/2という定数は省略している。これを逆フーリエ変換すると、次式(18)
Figure 2022130354000012

が求まる。さらに、ν,ν,νの逆フーリエ変換を求めると、それぞれ次式(19)~(21)
Figure 2022130354000013
となる。ここで、iFTは逆フーリエ変換の演算子を意味する。上式(18)~(21)より、次式(22)~(24)
Figure 2022130354000014
のように、φの勾配が求まる。Reは実部を表す。これを(x,y,t)空間における任意の経路Cで座標(x,y,t)まで線積分すると、φが求まることになる(次式(25))。
Figure 2022130354000015
ここで、dlは線素ベクトルである。ただし、線積分の始点におけるφが既知でなければならないが、従来これを既知とする方法が知られていなかった。 The three-dimensional space consists of eight quadrants. The first term in Equation (16) is separated around the origin, and the second and third terms are separated into quadrants that are symmetrical with respect to the origin. At this time, one striped pattern occupies two quadrants, but the four striped patterns occupy different quadrants. , which can be separated here. The second or third term of formula (16) may be used, but here, the second term is taken out, and the following formula (17)
Figure 2022130354000011
and The constant 1/2 has been omitted, since size is not important here. Inverse Fourier transform of this gives the following equation (18)
Figure 2022130354000012

is sought. Further, the inverse Fourier transforms of ν x G 1 , ν y G 1 , and ν t G 1 are obtained by the following equations (19) to (21), respectively.
Figure 2022130354000013
becomes. Here, iFT means an inverse Fourier transform operator. From the above formulas (18) to (21), the following formulas (22) to (24)
Figure 2022130354000014
The gradient of φ is obtained as follows. Re represents the real part. By line-integrating this to coordinates (x, y, t) along an arbitrary path C in the (x, y, t) space, φ can be obtained (equation (25) below).
Figure 2022130354000015
where dl is the line element vector. However, although φ at the starting point of the line integral must be known, there has been no known method of making this known.

そこで、本発明の発明者は、始点を求める方法として以下を提示する。
先ず、1枚目に撮影する画像では、管体PTの周囲に平面(予め平面と分かっているもの)が写るように撮影する。このとき平面上の座標は、次式(26)~(28)

Figure 2022130354000016
のように表すことができる。ここで、(x(S),y(S))は平面上の座標であり、a,aは平面の傾きを表すパラメータであるとする。
上式(26)~(28)と式(7)~(9)より、次式(29)~(31)
Figure 2022130354000017
という連立方程式を立てることができる。これを解くと、次式(32)~(34)
Figure 2022130354000018
となる。上式(34)のlを用いて4種類の縞パターンに対応する∂φ/∂x,∂φ/∂yを表現すると、次式(35)~(42)
Figure 2022130354000019
となる。ここから上式(35)~(42)を使って、画像の基準平面E1’が映っている部分、例えば画像の枠線上における∂φ/∂x,∂φ/∂yを用いて関数フィッティングを行えば、a,aが求まることになる。a,aが求まれば、次に式(32)~(34)より、平面上の座標(x(S),y(S))とlが求められる。そして、lが求まれば、式(7)~(9)より、(x’(S),y’(S),z’(S))が求められる。また、式(28)において、x(S)=0,y(S)=0としたときのz’(S)の値をz(S)とする。これにより、傾きがない場合の平面上の座標(x(S),y(S),z(S))を求めることができる。 Therefore, the inventor of the present invention presents the following as a method for obtaining the starting point.
First, the first image is captured so that a plane (which is known to be a plane in advance) appears around the tubular body PT. At this time, the coordinates on the plane are given by the following equations (26) to (28)
Figure 2022130354000016
can be expressed as Here, (x (S) , y (S) ) are coordinates on the plane, and a x , a y are parameters representing the inclination of the plane.
From the above formulas (26) to (28) and formulas (7) to (9), the following formulas (29) to (31)
Figure 2022130354000017
A system of equations can be established. Solving this, the following equations (32) to (34)
Figure 2022130354000018
becomes. When ∂φ/∂x and ∂φ/∂y corresponding to the four stripe patterns are expressed using l in the above equation (34), the following equations (35) to (42) are obtained.
Figure 2022130354000019
becomes. From this, using the above equations (35) to (42), function fitting is performed using ∂φ/∂x and ∂φ/∂y on the portion where the reference plane E1′ of the image is reflected, for example, on the frame line of the image. By doing so, a x and a y are obtained. Once a x and a y have been obtained, coordinates (x (S) , y (S) ) and l on the plane are obtained from equations (32) to (34). Then, if l is found, (x' (S) , y' (S) , z' (S) ) can be found from equations (7) to (9). In equation (28), let z ( S) be the value of z' (S) when x (S) =0 and y (S) =0. As a result, the coordinates (x (S) , y (S) , z (S) ) on the plane when there is no tilt can be obtained.

これにより、1枚目の撮影画像に写る基準平面E1’上の任意の位置を求めることができる。すなわち、必ず基準平面E1’からの撮像データであることが分かっている画素を3つ選び、その3つの画素における(x(S),y(S),z(S))及び(x’(S),y’(S),z’(S))を用いれば、初期の姿勢を表すアフィン行列を求めることができる。また、このデータを線積分の始点として、x-y面内で線積分すれば、管体PT入り口付近の形状を得ることができる。 As a result, an arbitrary position on the reference plane E1' that appears in the first photographed image can be obtained. That is, select three pixels that are known to be imaging data from the reference plane E1′, and (x (S) , y (S) , z (S) ) and (x′ ( S) , y' (S) , z' (S) ) can be used to obtain an affine matrix representing the initial orientation. Further, by using this data as the starting point of line integration and performing line integration within the xy plane, the shape of the vicinity of the inlet of the tubular body PT can be obtained.

最初に選ぶ3つの画素としては、例えば画像の枠(長方形)の3つの頂点があげられる。この3つの画素において時間方向に線積分すれば、その画素に映る壁面の(x’(S),y’(S),z’(S))の時間変化を得ることができる。2枚目の撮影画像における(x’(S),y’(S),z’(S))は、1枚目の撮影画像で求まった壁面位置のどこかを示していると考えらえる。したがって、並進移動と回転を表すアフィン行列の要素を未知パラメータとして、1枚目の撮影画像で求まった壁面位置を使って未知パラメータを含む目的関数φを考え、3つの画素の(x’(S),y’(S),z’(S))を用いて関数フィッティングを行えば、アフィン行列が求まる。これで2枚目の撮影画像における壁面位置が求まることになる。 The first three pixels to be selected are, for example, the three vertices of the frame (rectangle) of the image. By linearly integrating these three pixels in the time direction, it is possible to obtain the temporal change of (x' (S) , y' (S) , z' (S) ) of the wall surface reflected in the pixel. (x' (S) , y' (S) , z' (S) ) in the second photographed image can be considered to indicate the position of the wall found in the first photographed image. . Therefore, with the elements of the affine matrix representing translational movement and rotation as unknown parameters, an objective function φ containing unknown parameters is considered using the wall surface position obtained from the first photographed image, and three pixels (x' (S ) , y' (S) , z' (S) ) to obtain an affine matrix. Thus, the position of the wall surface in the second photographed image is obtained.

次に、2枚目の撮影画像で求まった壁面位置を使って、3枚目の撮影画像に壁面位置を求めていく。以下、このようにして、壁面を順次つなげていくことができる。ただし、最小数の3つでは、実用上の精度が得られない可能性があることから、画像の枠の頂点4つ、さらには枠線上の複数の点で、時間毎の位置と姿勢の情報を取得しておくことがより好ましい。 Next, the wall surface position obtained in the second photographed image is used to obtain the wall surface position in the third photographed image. Thereafter, the wall surfaces can be sequentially connected in this manner. However, since the minimum number of 3 may not be practically accurate, we use 4 vertices of the frame of the image, as well as multiple points on the frame, for each time position and orientation information. is more preferable.

関数フィッティングを行うためには、使用する点の全てで、φが連続かつ微分可能である必要がある。時間方向に線積分したとき、途中で壁面からの戻り光の強度が弱くて撮影画像を取得できない場合があったり、イメージファイバ110の移動速度が速すぎて、縞パターンの位相がπ以上変化した瞬間があったりすると、その画素のφは以後使えなくなるものとして扱う。 In order to perform function fitting, φ needs to be continuous and differentiable at all the points used. When line integration was performed in the time direction, the intensity of the light returned from the wall surface was weak and the photographed image could not be obtained in some cases. If there is a moment, the φ of that pixel is treated as something that cannot be used thereafter.

また、同一画像において、既知のφをもつ画素から、x-y面内で線積分すれば他の画素におけるφを得ることができるが、仮に正常にφを取得できていない場合には、複数の始点から線積分して求めたφが一致しなくなる。これにより、φが正常に取得できているか否かを判定することとする。正常に取得できている撮影画素が少なくなった場合は、最初から撮影画像を取得しなおすか、もしくは、上記の磁気マーカ170を用いた手法でイメージファイバ110の端面110A’の位置と姿勢を求め、その時点で求まっている外壁形状から各画素に写っている外壁の位置を求めることができる。 Further, in the same image, φ in other pixels can be obtained by performing line integration in the xy plane from a pixel having a known φ. φ obtained by line integration from the starting point of does not match. By this, it is determined whether or not φ can be acquired normally. If the number of photographed pixels that can be normally acquired decreases, the photographed image is acquired again from the beginning, or the position and orientation of the end surface 110A' of the image fiber 110 are obtained by the method using the magnetic marker 170 described above. , the position of the outer wall reflected in each pixel can be obtained from the shape of the outer wall obtained at that time.

〔磁気マーカを用いた手法〕
図10から図13は、磁気マーカ170を用いた位置及び姿勢の検出方法の説明図である。以下、順を追って説明する。
[Method using a magnetic marker]
10 to 13 are explanatory diagrams of the position and orientation detection method using the magnetic marker 170. FIG. A description will be given below in order.

磁気マーカ170の形状を例えば円柱状(円盤状)とし、x-y方向の直径を例えば4mm、z方向の高さ(厚み)を例えば1mmとする。また、磁気マーカ170の材質を例えばNC52(JIS)とし、残留磁束密度は1.45T程度である。このとき、図10は、磁気マーカ170の磁場方向を示し、図10(A)がx-y-z空間内でプロットしたものであり、図10(B)はx-y平面、図10(C)はy-z平面でプロットしたものである。いずれもシミュレーション結果を参考として示している。 The shape of the magnetic marker 170 is, for example, cylindrical (disk-like), the diameter in the xy direction is 4 mm, and the height (thickness) in the z direction is 1 mm, for example. The material of the magnetic marker 170 is, for example, NC52 (JIS), and the residual magnetic flux density is about 1.45T. At this time, FIG. 10 shows the magnetic field direction of the magnetic marker 170, FIG. 10(A) is plotted in the xyz space, FIG. C) is plotted in the yz plane. In both cases, simulation results are shown for reference.

磁気マーカ170は、y方向の半分170NがN極であり、もう半分170SがS極である。図10に示されているように、磁気マーカ170の磁場方向が径方向に分布することで、以下のように位置及び姿勢の検出が容易となる。 The magnetic marker 170 has a north pole in the y half 170N and a south pole in the other half 170S. As shown in FIG. 10, the magnetic field directions of the magnetic markers 170 are distributed in the radial direction, thereby facilitating detection of the position and orientation as follows.

〔座標系定義〕
先ず、図11に示されているように、イメージファイバ110の先端部に取り付けたリング型の磁気マーカ170の初期位置を原点とする座標系を定義する。すなわち、磁気マーカ170周辺の任意の点の位置と磁束密度の対応関係を数式化し、その方程式を用いて磁気センサ170a~170d等の取得値をフィッティングする。これにより、磁気マーカ170と磁気センサ170a~170d等との位置関係が求まる。図11の例では、x方向、y方向、z方向のそれぞれにおいて、初期位置を原点とした磁場分布曲線が得られている。
[Coordinate system definition]
First, as shown in FIG. 11, a coordinate system whose origin is the initial position of a ring-shaped magnetic marker 170 attached to the tip of the image fiber 110 is defined. That is, the correspondence relationship between the position of an arbitrary point around the magnetic marker 170 and the magnetic flux density is formulated, and the obtained values of the magnetic sensors 170a to 170d are fitted using the equation. Thereby, the positional relationship between the magnetic marker 170 and the magnetic sensors 170a to 170d and the like is obtained. In the example of FIG. 11, magnetic field distribution curves are obtained with the initial position as the origin in each of the x, y, and z directions.

〔最小二乗法〕
次に、磁気マーカ170の位置及び姿勢の推定には、未知数である位置ベクトル(三次元)と、磁気マーカ170の初期位置に対する回転角ベクトル(三次元)を求める必要がある。そこで、これらの6変数を求めるために、図1に示したように既知の異なる6箇所に磁気センサ170a~170f(図11には示されていない)を配置する。例えば、外耳道EE(人の頭部)に対して相対的に位置が固定された器具等に磁気センサ170a~170fを固定し、計測中に頭部が動いても、座標系を不動の状態にする。そして、フィッティング後の方程式に再度最小二乗法を適用し、6変数を求めることにより位置及び姿勢を推定する。なお、各磁気センサ170a~170fは、3軸方向に感度を有しているため、それぞれ1つで3つのデータが得られる。したがって、3箇所でも9個のデータが得られるので、そこから6変数を求めることは可能である。ただし、本発明の発明者等が行ったシミュレーションでは、5箇所以上あるほうが好ましい結果が得られることが分かっている。
[Least-squares method]
Next, to estimate the position and orientation of the magnetic marker 170, it is necessary to obtain a position vector (three-dimensional), which is an unknown quantity, and a rotation angle vector (three-dimensional) with respect to the initial position of the magnetic marker 170. FIG. Therefore, in order to obtain these six variables, magnetic sensors 170a-170f (not shown in FIG. 11) are arranged at six known different locations as shown in FIG. For example, the magnetic sensors 170a to 170f are fixed to a device whose position is relatively fixed with respect to the ear canal EE (human head), and the coordinate system is kept stationary even if the head moves during measurement. do. Then, the least-squares method is applied again to the equation after fitting, and the position and orientation are estimated by finding six variables. Since each of the magnetic sensors 170a to 170f has sensitivities in three axial directions, three data can be obtained from each one. Therefore, 9 data are obtained even at 3 locations, and it is possible to obtain 6 variables from them. However, according to simulations conducted by the inventors of the present invention, it has been found that a preferable result can be obtained when there are five or more positions.

〔位置推定〕
図12及び図13に示すように、イメージファイバ110を移動させると、付随して磁気マーカ170も移動する。ここから上記の手法により、磁気マーカ170の推定位置座標(x,y,z)や(x,y,z)を求めることができる。同様にして、姿勢についても求めることができる。
[Position estimation]
As shown in FIGS. 12 and 13, moving the image fiber 110 also moves the magnetic marker 170 accordingly. From this, the estimated position coordinates (x 1 , y 1 , z 1 ) and (x 3 , y 3 , z 3 ) of the magnetic marker 170 can be obtained by the above method. Similarly, the posture can also be obtained.

〔シミュレーション結果〕
図14から図16は、本実施形態の上記手法を用いて縞パターンの位相をずらして投影し、管体PTの内部を移動しつつイメージファイバ110で撮影した場合のシミュレーション結果を示す連続図である。
〔simulation result〕
FIGS. 14 to 16 are continuous diagrams showing the simulation results when the fringe pattern is projected with a phase shift using the above method of the present embodiment and photographed by the image fiber 110 while moving inside the tubular body PT. be.

図14(A)では、縞パターンFG1が基準平面E1’及び管体壁面EEに投影されている。このような基準平面E1’を撮影画像データを少なくとも3枚用いて上記のように始点を推測する。このとき、基準平面E1’に比べて管体壁面EEからの戻り光の強度が弱く、画像が暗くなっていることが分かる。また、管体PTの最奥は縞パターンの画像が得られていない。 In FIG. 14A, the fringe pattern FG1 is projected onto the reference plane E1' and the tube wall surface EE. The starting point is estimated as described above by using at least three photographed image data of such a reference plane E1'. At this time, it can be seen that the intensity of the return light from the tubular body wall surface EE is weaker than that on the reference plane E1', and the image is dark. In addition, no stripe pattern image is obtained at the deepest part of the tubular body PT.

図14(B)では、イメージファイバ110が始点位置から移動し、管体壁面EEに近接している。縞パターンFG2は、基準平面E1’よりも管体壁面EEの方に多く投射されている。また、縞パターンFG2には二次元空間の周期的なパターン変化が現れている。 In FIG. 14B, the image fiber 110 has moved from the starting position and is close to the tubular body wall surface EE. More of the fringe pattern FG2 is projected onto the tubular body wall surface EE than on the reference plane E1'. Moreover, periodic pattern changes in two-dimensional space appear in the stripe pattern FG2.

図15(C)では、イメージファイバ110がさらに移動し、管体壁面EEに極めて近接している。縞パターンFG3は、ほとんどが管体壁面EEに投射されている。
図15(D)では、イメージファイバ110が管体内部に挿入されている。このため縞パターンFG4は、管体壁面EEにのみ投射されている。
In FIG. 15C, the image fiber 110 has moved further and is very close to the tube wall surface EE. Most of the fringe pattern FG3 is projected onto the tube wall surface EE.
In FIG. 15(D), the image fiber 110 is inserted inside the tube. Therefore, the stripe pattern FG4 is projected only on the tube wall surface EE.

図16(E)では、イメージファイバ110が管体内部でさらに奥まで挿入されている。同じく縞パターンFG5は、管体壁面EEにのみ投射されている。
図16(F)では、イメージファイバ110が管体内部の最奥位置まで挿入されている。縞パターンFG6は、管体壁面EEにのみ投射されている。
In FIG. 16(E), the image fiber 110 is inserted further inside the tubular body. Similarly, the striped pattern FG5 is projected only on the tubular body wall surface EE.
In FIG. 16F, the image fiber 110 is inserted to the deepest position inside the tubular body. The fringe pattern FG6 is projected only on the tube wall surface EE.

図17は、上記のシミュレーション結果から管体壁面EEの形状を三次元データ上で再構成した結果を示す図である。このように、本実施形態によれば、イメージファイバ110を管体内部に挿入しながら縞パターンを投影及び撮影し、そこから被測定面の形状に応じたデータDTを生成することができる。 FIG. 17 is a diagram showing a result of reconstructing the shape of the tubular body wall surface EE on three-dimensional data from the above simulation results. As described above, according to the present embodiment, it is possible to project and photograph a fringe pattern while inserting the image fiber 110 into the tubular body, and generate data DT corresponding to the shape of the surface to be measured therefrom.

〔データ生成方法のまとめ〕
また、以上をデータ生成方法としてまとめた場合は、以下となる。
(1)外耳道EEのような管体内壁にイメージファイバ110を通して位相が時間変化する縞パターンを投影(照射)し、その投影された縞の画像を撮影する。また、管体内壁の撮影画像は、同じイメージファイバ110を通して取得する。
(2)縞パターンは、上記のように位相を90度ずつ変更して投影し、かつ撮影するが、撮影は360度分ではなく、複数周期にわたって撮影することとする。縞パターンの位相のスタート地点に条件はないが、横方向、縦方向ともに、1周期は少なくとも3画素を用いて表現する必要がある。このため、被測定面の場所によっては、条件を満たさない箇所も現れてくるが、そのような場所は解析・再構成部164によるデータ化、再構成の際に排除することとする。
[Summary of data generation method]
Moreover, when the above is put together as a data generation method, it becomes the following.
(1) A fringe pattern whose phase changes with time is projected (irradiated) onto the inner wall of a tube such as the external auditory canal EE through the image fiber 110, and an image of the projected fringes is captured. Also, a photographed image of the inner wall of the tube is acquired through the same image fiber 110 .
(2) The fringe pattern is projected and photographed while changing the phase by 90 degrees as described above. Although there is no condition for the starting point of the phase of the fringe pattern, it is necessary to express one cycle using at least three pixels in both the horizontal and vertical directions. For this reason, depending on the location of the surface to be measured, some locations that do not satisfy the conditions will appear, but such locations are excluded when data conversion and reconstruction are performed by the analysis/reconstruction unit 164 .

(3)縞パターンの位相を変化させるのは、イメージファイバ110がその場で留まっているか、動いているかを識別するためである。イメージファイバ110が移動している場合は撮影位置が移動しており、移動していない場合は撮影位置が停止している。
(4)同一撮影位置での画像の撮影枚数については、例えば画像表示器168等のモニタを視認しながら使用者・操作者が判断することができる。このとき、外耳道EEの壁面に近づいたり遠のいたりすると、縞パターンの位相変化が90度からずれるため、そのような撮影位置の変化を検出するためには、同一の撮影位置で少なくとも3枚の画像撮影が必要となる。
(5)さらに、外耳道EEのように曲がった管体の内壁形状を撮影した画像からデータ化、再構成する場合、一度の撮影では映らない陰面が出てくるので、管体内壁の一地点(ある一範囲)の形状を再構成するために、イメージファイバ110からの撮影位置や角度(視点)を変えた複数回の撮影によって得た画像から形状をデータ化、再構成する。
(3) The reason for changing the phase of the fringe pattern is to identify whether the image fiber 110 is stationary or moving. When the image fiber 110 is moving, the imaging position is moving, and when it is not moving, the imaging position is stopped.
(4) The number of images to be shot at the same shooting position can be determined by the user/operator while viewing the monitor such as the image display 168, for example. At this time, if the wall surface of the ear canal EE is approached or moved away from the wall surface of the ear canal EE, the phase change of the fringe pattern deviates from 90 degrees. Shooting is required.
(5) Furthermore, when converting and reconstructing data from an image of the inner wall shape of a curved tubular body such as the external auditory canal EE, there are hidden surfaces that cannot be captured in a single shot, so there is a point ( In order to reconstruct the shape of a certain range), the shape is reconstructed from images obtained by taking multiple shots at different shooting positions and angles (viewpoints) from the image fiber 110 and converted into data.

(6)投影する縞パターンは、上記のように一定時間毎に位相をずらし、その時間と同期して画像を撮影・取得する。撮影間隔の一定時間は、任意に設定することができるが、撮影のタイミングと縞パターンの位相変化のタイミングが一致していることが条件となる。
(7)イメージファイバ110の端面110A’の移動ステップについては、位相変化が90度ずつの分を含めて180度以上変化しない程度とすることが望ましい。
(8)上記のように縞パターンの時間的変化については、イメージファイバ110が静止して同じ画像が写っている状態では、撮影毎に位相が90度変化するように設定することを一例とする。
(9)また、空間的な周期については、これを細かくするほどデータ化される形状の精度が高くなる反面、イメージファイバ110の移動に対して敏感に変化するようになる。つまり、空間内でイメージファイバ110を微細に動かさないと、位相の変化が過度に大きくなり、データ生成の際に問題となる。
(10)最終的に、オーダーメイド補聴器用シェルを作成するための外耳道形状のデータを取得したい場合には、製作物に0.1mm程度の精度が必要になるので、縞パターンの投影時の繰り返し周期は、大きくても1mmよりは小さくしなければならない。また、縞パターンの周期は、イメージファイバ110の端面110A’からの距離によって変化するため、撮影範囲全体でも周期が1mmより小さくなるように光学系を設定する必要がある。
なお、イメージファイバ110の先端には対物のレンズを設けないことを想定しているが、レンズを設けた構成も実現可能であり、例えば、魚眼レンズのような特殊レンズを設置すれば、イメージファイバ110の端面110A’から後側も撮影することができる。
(6) The phase of the projected fringe pattern is shifted at regular time intervals as described above, and an image is photographed/obtained in synchronization with the time. The fixed time of the photographing interval can be arbitrarily set, but the condition is that the timing of photographing and the timing of phase change of the fringe pattern match.
(7) It is desirable that the movement step of the end face 110A' of the image fiber 110 is such that the phase change does not change by 180 degrees or more, including the 90-degree phase change.
(8) As for the temporal change of the fringe pattern as described above, in the state where the image fiber 110 is stationary and the same image is captured, one example is to set the phase so that it changes by 90 degrees for each photographing. .
(9) As for the spatial period, the finer the period, the higher the accuracy of the shape converted into data, but the more sensitive it changes to the movement of the image fiber 110 . In other words, unless the image fiber 110 is finely moved in space, the phase change becomes excessively large, which becomes a problem during data generation.
(10) Ultimately, when it is desired to obtain data on the shape of the ear canal for creating a custom-made shell for a hearing aid, a precision of about 0.1 mm is required for the manufactured product, so repetition of the projection of the fringe pattern is required. The period should be at most less than 1 mm. In addition, since the period of the fringe pattern varies depending on the distance from the end face 110A' of the image fiber 110, it is necessary to set the optical system so that the period is less than 1 mm over the entire photographing range.
Although it is assumed that no objective lens is provided at the tip of the image fiber 110, a configuration with a lens is also possible. The rear side from the end surface 110A' of the can also be photographed.

上述した実施形態のデータ生成システム100は、以下に挙げるいくつかの構成例に一部を変形して実施することもできる。 The data generation system 100 of the embodiment described above can also be implemented by partially modifying some configuration examples given below.

〔第1変形構成例〕
図18は、データ生成システム100の光学系モデルの第1変形構成例を示した図である。ここでは、変形に伴い先の実施形態とは異なる構成要素を中心に説明することとし、既に図1及び図7に示した構成要素と同じものには同一の符号を付し、重複した説明を省略する。
[First modified configuration example]
FIG. 18 is a diagram showing a first modified configuration example of the optical system model of the data generation system 100. As shown in FIG. Here, the description will focus on the components that are different from the previous embodiment due to the modification, and the components that are the same as those already shown in FIGS. omitted.

〔縞パターン光の投射用と撮影用のイメージファイバを別々にした構成例〕
図18(A):第1変形構成例では、イメージファイバ110を縞パターン光の投射用として単独の照射光学系を構成し、これとは別の撮影用イメージファイバ210を追加している。撮影用イメージファイバ210は、対物側の端面210A’が投射用イメージファイバ110の対物側の端面110A’と並列になる配置とし、管体内部に挿入される先端部分が投射用イメージファイバ110と並列に束ねられている。撮影用イメージファイバ210は、対物側の端面210A’に外耳道EEからの戻り光を入射させ、反対側の端面210Aからは、投射用イメージファイバ110とは別の独立した光学系を通じて撮像素子150に結像させることができる。
[Configuration example with separate image fibers for projecting stripe pattern light and for photographing]
FIG. 18(A): In the first modified configuration example, the image fiber 110 is used for projecting the fringe pattern light to form a single irradiation optical system, and a photographing image fiber 210 is added. The imaging image fiber 210 has an object-side end face 210A′ arranged in parallel with the object-side end face 110A′ of the projection image fiber 110, and the tip portion inserted into the tubular body is parallel to the projection image fiber 110. bundled in The photographing image fiber 210 causes the return light from the ear canal EE to be incident on the end surface 210A′ on the object side, and from the opposite end surface 210A to the imaging element 150 through an optical system independent from the projection image fiber 110. can be imaged.

先の実施形態(図7~図9)の光学系モデルでは、縞パターン光の投射と戻り光の撮影を1つのイメージファイバ110で共通の構成としているため、端面110Aのところで反射した光が撮像素子150の素子面の方に向かうと、ノイズ成分となることも考えられる。この場合でも、端面110Aでの反射を防止するようにイメージファイバ110の設計を行えばよいので、ノイズの問題は十分に解消することができる。 In the optical system model of the previous embodiment (FIGS. 7 to 9), one image fiber 110 has a common configuration for projecting the striped pattern light and photographing the returned light, so the light reflected at the end surface 110A is imaged. It is conceivable that a noise component may be generated toward the element surface of the element 150 . Even in this case, the image fiber 110 can be designed to prevent reflection on the end face 110A, so the noise problem can be sufficiently resolved.

これに対し、変形構成例の場合は、投射用イメージファイバ110と撮影用イメージファイバ210を別経路にしているため、端面110Aでの反射による影響を防ぐことができる。なお、ここでは独立した光学系を強調するため、撮影用イメージファイバ210を屈曲させて示しているが、光学系同士の干渉が生じなければ、特にイメージファイバ210等を屈曲させる必要はない。 On the other hand, in the case of the modified configuration example, since the image fiber for projection 110 and the image fiber for photographing 210 are provided in separate paths, it is possible to prevent the influence of reflection on the end surface 110A. Although the imaging image fiber 210 is shown bent here to emphasize the independent optical system, it is not necessary to bend the image fiber 210 and the like unless interference between the optical systems occurs.

〔ステレオ法を用いる構成例〕
図18(A)(B):また、第1変形構成例では、撮影用イメージファイバ210を複数本(ここでは2本)配置している。2本の撮影用イメージファイバ210は、投射用イメージファイバ110と並列に束ねて配置されることで、これらを一緒に外耳道EE内に挿入可能である。そして、2本の撮影用イメージファイバ210が通じる2系統の光学系を別々に構成し、2つの撮像素子150を用いてステレオ画像を取得すれば、画像処理部162等でステレオ法により始点を求めることができる。
[Configuration example using the stereo method]
FIGS. 18A and 18B: In the first modified configuration example, a plurality of (here, two) imaging image fibers 210 are arranged. The two imaging image fibers 210 are bundled in parallel with the projection image fiber 110 so that they can be inserted together into the external auditory canal EE. Then, if a stereo image is acquired using two imaging elements 150 by separately constructing two systems of optical systems through which two imaging image fibers 210 are communicated, the image processing unit 162 or the like obtains the starting point by the stereo method. be able to.

先の実施形態では、基準平面E1’に投影された縞パターンFGの画像から始点を求めるという方法を用いているが、ステレオ法を用いる場合、任意の撮影画像から始点を求めることができるため、耳甲介腔E1にステッカSを貼り付けて撮影する必要はない。なお、ステレオ法を用いない場合、撮影用イメージファイバ210は1本でもよい。あるいは、撮影用イメージファイバ210は3本以上でもよい。 In the previous embodiment, the method of determining the starting point from the image of the fringe pattern FG projected onto the reference plane E1' is used. It is not necessary to attach the sticker S to the concha E1 for photographing. If the stereo method is not used, one imaging fiber 210 may be used. Alternatively, the number of imaging image fibers 210 may be three or more.

〔撮影用イメージファイバ先端にロッドレンズを付ける構成例〕
図18(C):また、変形構成例では、撮影用イメージファイバ210の対物側の端面210A’に、例えばGRIN(GRadient INdex)ロッドレンズ212が配置された構成とすることができる。そして、撮影用イメージファイバ210は、GRINロッドレンズ212の主点を通して戻り光を端面210A’に入射させる構成とする。この場合、GRINロッドレンズ212の主点を通る仮想的な平面が仮想撮像素子面150’(図9参照)に対応する。
[Configuration example in which a rod lens is attached to the tip of the imaging fiber]
FIG. 18C: In a modified configuration, for example, a GRIN (GRadient Index) rod lens 212 may be arranged on the end surface 210A′ of the imaging image fiber 210 on the object side. The photographing image fiber 210 is configured to pass the principal point of the GRIN rod lens 212 and cause the returning light to enter the end face 210A'. In this case, a virtual plane passing through the principal point of the GRIN rod lens 212 corresponds to the virtual imaging element plane 150' (see FIG. 9).

GRINロッドレンズ212は、主点を通る仮想的な平面の位置が投射用イメージファイバ110の端面110A’の位置からずれるように性能が調整されている。なお、縞パターン光は、端面110A’にある点を原点として投射方向に広がるが、縞パターン光を広げることは必須でない。GRINロッドレンズ212で仮想的な平面を端面110A’からずらす構成を採用することで、縞パターン光を撮影したときの遠近感を容易に得ることができる。 The performance of the GRIN rod lens 212 is adjusted so that the position of the virtual plane passing through the principal point is shifted from the position of the end face 110A' of the projection image fiber 110. FIG. Although the striped pattern light spreads in the projection direction with a point on the end face 110A' as the origin, it is not essential to spread the striped pattern light. By adopting a configuration in which the GRIN rod lens 212 shifts the virtual plane from the end surface 110A', it is possible to easily obtain a sense of perspective when photographing the striped pattern light.

この点、先の実施形態(図7~図9)の光学系モデルは、撮像素子150とレンズ132との間にピンホール152を配置し、イメージファイバ110の端面110A’側に仮想ピンホール152’を配置した状況を生み出しているが、GRINロッドレンズ212を配置した構成例ではピンホール152を用いていない。ピンホール152は、投射用と撮影用で光の経路を共通にしている場合には必要となるが、変形構成例のように独立した経路に分けた場合、撮影用イメージファイバ210の対物側の端面210A’にGRINロッドレンズ212を付けることで、撮像素子150の素子面で結像させることができる。また、先の実施形態で挙げたレンズ133は、レンズ132と合わせて仮想撮像素子面150’に縞パターンの戻り光を結像させるために必要な構成であるため、撮影用の光学系を別系統とする変形構成例ではレンズ133は必ずしも必要ではなく、ここでは省略している。 In this respect, the optical system model of the previous embodiment (FIGS. 7 to 9) arranges the pinhole 152 between the imaging device 150 and the lens 132, and the virtual pinhole 152 on the end surface 110A' side of the image fiber 110. ' is placed, but the pinhole 152 is not used in the configuration example in which the GRIN rod lens 212 is placed. The pinhole 152 is necessary when the optical path is shared for projection and imaging. By attaching the GRIN rod lens 212 to the end face 210A′, an image can be formed on the device surface of the imaging device 150. FIG. In addition, since the lens 133 mentioned in the previous embodiment is a configuration necessary for forming an image of the returned light of the striped pattern on the virtual image pickup device surface 150′ together with the lens 132, an optical system for photographing is separately provided. The lens 133 is not necessarily required in the system modified configuration example, and is omitted here.

〔投射用イメージファイバ先端にロッドレンズを付ける構成例〕
図18(D):また、一実施形態(図1、図7等)で用いていたレンズ133の代わりに、投射用イメージファイバ110の端面110A’にGRINロッドレンズ133’を配置してもよい。GRINロッドレンズ133’を配置する場合は、GRINロッドレンズ212と主点位置の異なるものを用いるか、投射用イメージファイバ110の端面A’と110と撮影用イメージファイバ210の端面210A’を投射方向にずらし、GRINロッドレンズ133’とGRINロッドレンズ212の主点の位置を投射方向にずらす必要がある。
[Configuration example in which a rod lens is attached to the tip of the image fiber for projection]
FIG. 18(D): In place of the lens 133 used in the embodiment (FIGS. 1, 7, etc.), a GRIN rod lens 133' may be arranged on the end surface 110A' of the projection image fiber 110. . When the GRIN rod lens 133' is arranged, a lens having a principal point position different from that of the GRIN rod lens 212 is used, or the end surfaces A' and 110 of the image fiber 110 for projection and the end surface 210A' of the image fiber 210 for photographing are arranged in the projection direction. It is necessary to shift the positions of the principal points of the GRIN rod lens 133' and the GRIN rod lens 212 in the projection direction.

〔第2変形構成例〕
図19は、データ生成システム100の光学系モデルの第2変形構成例を示した図である。ここでも同様に、変形に伴い先の実施形態とは異なる構成要素を中心に説明することとし、既に図1に示した構成要素と同じものには同一の符号を付し、重複した説明を省略する。また、以下の変形構成例は、投射用イメージファイバ110と撮影用イメージファイバ210を別系統とした構成例を前提としている(これ以降も同様)。
[Second modified configuration example]
FIG. 19 is a diagram showing a second modified configuration example of the optical system model of the data generation system 100. As shown in FIG. Here, similarly, the explanation will focus on the constituent elements that are different from the previous embodiment due to the modification, and the constituent elements that are the same as those already shown in FIG. do. Further, the following modified configuration example is based on a configuration example in which the image fiber for projection 110 and the image fiber for photographing 210 are separate systems (same hereafter).

第2変形構成例では、空間光変調器140を用いることなく縞パターン光を生成させている。具体的には、偏光ビームスプリッタ234の入射側位置に1/2波長板240及び1/4波長板244を順に配置し、レーザ光を2つの成分に偏光させる。また、1/2波長板240は、駆動機構242により光軸回りに回転駆動される構成となっている。 In the second modified configuration example, stripe pattern light is generated without using the spatial light modulator 140 . Specifically, a half-wave plate 240 and a quarter-wave plate 244 are arranged in order at the incident side position of the polarizing beam splitter 234 to polarize the laser light into two components. Also, the half-wave plate 240 is configured to be rotationally driven around the optical axis by a drive mechanism 242 .

偏光ビームスプリッタ234の2つの分岐側位置には、それぞれ1/4波長板246,250及びミラー248,252が配置されており、また、ミラー248,252は、それぞれ駆動機構254,256により角度調整が可能となっている。 Quarter wavelength plates 246, 250 and mirrors 248, 252 are arranged at the two branching positions of the polarizing beam splitter 234, respectively. is possible.

また、偏光ビームスプリッタ234の出射側位置には偏光子235が配置されるとともに、投射用イメージファイバ110の端面110Aに向かってレンズ230,231が配置されている。 A polarizer 235 is arranged on the output side of the polarizing beam splitter 234, and lenses 230 and 231 are arranged facing the end face 110A of the image fiber 110 for projection.

レーザ光の2つの偏光成分は、偏光ビームスプリッタ234で2方向に分岐され、それぞれミラー248,252で反射されて偏光ビームスプリッタ234を通過し、レンズ230,231を経て投射用イメージファイバ110の端面110Aで重ね合わせられる。このとき、2つのミラー248,252の角度を異ならせることで2つの偏光成分が縞干渉を発生して縞パターン光となる。好適な縞パターン光が得られるように、駆動機構254,256でミラー248,252の角度を調整する。そして、入射側の1/2波長板240を回転させることで2つの偏光成分の間の位相差が変化する。これにより、先の実施形態と同様に縞パターン光の位相(明暗の位置)を変化させることができる。 The two polarized light components of the laser light are split into two directions by the polarized beam splitter 234, reflected by the mirrors 248 and 252 respectively, pass through the polarized beam splitter 234, pass through the lenses 230 and 231, and reach the end face of the projection image fiber 110. Superimposed at 110A. At this time, by making the angles of the two mirrors 248 and 252 different, the two polarized light components generate fringe interference and become fringe pattern light. The angles of mirrors 248 and 252 are adjusted by driving mechanisms 254 and 256 so that a suitable fringe pattern of light is obtained. By rotating the half-wave plate 240 on the incident side, the phase difference between the two polarization components is changed. This makes it possible to change the phase of the fringe pattern light (position of light and dark) as in the previous embodiment.

また、各ミラー248,252の手前側の1/4波長板246,250は、反射光をイメージファイバ110の光路に向かわせるための素子であり、これにより、偏光ビームスプリッタ234から入射側に反射光が戻ることが防止されている。 Also, the quarter-wave plates 246 and 250 on the front side of the mirrors 248 and 252 are elements for directing the reflected light toward the optical path of the image fiber 110, thereby reflecting the light from the polarizing beam splitter 234 to the incident side. Light is prevented from returning.

偏光子235は、直交する2つの偏光成分から共通の向きを取り出して重ね合わせるための素子である。例えば、2つの偏光の向きを0°と90°と定義すれば、それぞれから45°の成分を取り出して重ね合わせればよい。また、偏光子235の後段位置の2つのレンズ230,231は、端面110Aへの集光に用いるものであり、先の実施形態のレンズ130,131と同様である。 The polarizer 235 is an element for extracting a common direction from two orthogonal polarization components and superimposing them. For example, if the directions of two polarizations are defined as 0° and 90°, the 45° components from each are extracted and superimposed. Also, two lenses 230 and 231 located behind the polarizer 235 are used for condensing light onto the end face 110A, and are the same as the lenses 130 and 131 in the previous embodiment.

なお、1/2波長板240を回転させることなく、2つのミラー248,252の位置をずらして光の進む距離を変化させれば、縞パターン光の位相差を変化させることもできる。ただし、ミラー248,252を光路方向に移動させることができる距離には構造上の制約があるため、無限に回転が可能な1/2波長板240の回転を用いた方がより実用上利便である。 The phase difference of the fringe pattern light can be changed by shifting the positions of the two mirrors 248 and 252 without rotating the half-wave plate 240 to change the distance the light travels. However, since there are structural restrictions on the distance over which the mirrors 248 and 252 can be moved in the optical path direction, it is practically more convenient to use the infinitely rotatable half-wave plate 240. be.

〔第3変形構成例〕
図20は、データ生成システム100の光学系モデルの第3変形構成例を示した図である。第3変形構成例は、第2変形構成例の光学系モデルをより簡素化したものである。
[Third modified configuration example]
FIG. 20 is a diagram showing a third modified configuration example of the optical system model of the data generation system 100. As shown in FIG. The third modified configuration example is obtained by further simplifying the optical system model of the second modified configuration example.

第3変形構成例では、例えばLED258を光源に用いている。LED258の光は、レーザ光とは違って非偏光性であるため、偏光子262で偏光させている。また、偏光子262は駆動機構264を用いて光軸回りに回転駆動する構成とし、偏光子262で偏光させた光に回転による位相差を変化させ、さらに1/2波長板240及び1/4波長板250で2つの偏光成分に位相差を発生させる構成とする。 In the third modified configuration example, for example, an LED 258 is used as the light source. Since the light from the LED 258 is non-polarized unlike the laser light, it is polarized by the polarizer 262 . In addition, the polarizer 262 is configured to rotate around the optical axis by using a drive mechanism 264, and the light polarized by the polarizer 262 changes the phase difference due to the rotation. The wavelength plate 250 is configured to generate a phase difference between the two polarization components.

そして、2つの偏光成分をウォラストンプリズム260に入射させ、このウォラストンプリズム260により微小な角度で2つの光に分離させる。この分離した2つの光を偏光子235で偏光させ、2つのレンズ230,231を用いてイメージファイバ110の端面110Aに集光させる構成とする。なお、ウォラストンプリズム260は、偏光分離型偏光子の一例であり、その他の同機能を有した偏光子を用いてもよい。 Then, the two polarized light components are made incident on the Wollaston prism 260, and the Wollaston prism 260 separates them into two light beams at a minute angle. The two separated lights are polarized by a polarizer 235 and condensed on the end surface 110A of the image fiber 110 using two lenses 230 and 231 . The Wollaston prism 260 is an example of a polarization splitting polarizer, and other polarizers having the same function may be used.

このように、ウォラストンプリズム260で分離させた光を再び重ね合わせるという手法は、LED258の光に好適する。すなわち、レーザ光ではない光の場合は可干渉性が低く、通常は干渉縞が得にくいが、第3変形構成例の方法では、同じ距離Lの中で一度分離したものを元に戻しているだけであるため、可干渉性が低い光であっても、これらを容易に干渉させることができる。したがって、比較的高価なレーザ光源120を用いなくとも、時間変化する干渉縞を実現することができる。また、レーザ光を使わない場合は、レーザ光の高い可干渉性(スペックルパターン)もなくなるため、ノイズ低減の意味でも有用である。 In this way, the technique of recombining the light separated by the Wollaston prism 260 is suitable for the light of the LED 258 . That is, in the case of light other than laser light, the coherence is low and it is usually difficult to obtain interference fringes. Therefore, even light with low coherence can easily interfere with each other. Therefore, it is possible to realize time-varying interference fringes without using the relatively expensive laser light source 120 . Moreover, when laser light is not used, the high coherence (speckle pattern) of laser light also disappears, which is useful in terms of noise reduction.

〔第4変形構成例〕
図21は、データ生成システム100の光学系モデルの第4変形構成例を示した図である。
[Fourth Modified Configuration Example]
FIG. 21 is a diagram showing a fourth modified configuration example of the optical system model of the data generation system 100. As shown in FIG.

第4変形構成例は、縞パターン光を発生させる手法として、マイクロディスプレイ266を用いた構成である。そして、マイクロディスプレイ266で生成した縞パターン光をレンズ230,231で投射用イメージファイバ110の端面110Aに集光させ、対物側の端面110A’から投射して縞パターンFGを外耳道EE内壁に投影する。 A fourth modified configuration example is a configuration using a microdisplay 266 as a technique for generating stripe pattern light. Then, the fringe pattern light generated by the microdisplay 266 is focused on the end surface 110A of the projection image fiber 110 by the lenses 230 and 231, and projected from the end surface 110A' on the object side to project the fringe pattern FG onto the inner wall of the external auditory canal EE. .

これにより、極めて簡素な構成でデータ生成システム100の光学系を構成することができる。なお、マイクロディスプレイ266は、使用目的に応じたイメージファイバ110の端面110Aに結像可能なパターン光を出力するデバイスとして、専用に設計されている必要がある。 Thereby, the optical system of the data generation system 100 can be configured with a very simple configuration. The microdisplay 266 must be specially designed as a device for outputting patterned light that can be imaged on the end face 110A of the image fiber 110 according to the purpose of use.

以上のように、各種変形構成例を含む本実施形態のデータ生成システム100及びこれを用いたデータ生成方法によれば、以下の利点が得られる。
(1)非接触による光学的な外耳道形状計測が可能となるため、オーダーメイド補聴器作成などのための外耳道形状の計測を簡便に行うことが可能となる。
(2)また、各補聴器販売現場にデータ生成システム100を適用した外耳道形状計測装置を配置することにより、補聴器購入者の耳型を採取して工場に送る手間が必要なくなり、工場には外耳道形状データだけを送ればよい。このため、オーダーメイド補聴器製作日数の短縮につながる。
(3)さらに、耳型を採取しないため印象材を人体に使用することがなくなり、印象材に関する事故(鼓膜や内耳損傷等)の発生をなくすことができる。
(4-1)一実施形態の場合は単一のイメージファイバで照光(投影)と撮像ができるので、装置全体を小型に構成することができる。
(4-2)各種変形構成例の場合であっても、並列に束ねた少本数のイメージファイバで構成可能であるため、装置全体の大型化を抑制することができる。
(5)イメージファイバの先端を外耳道内で自在に移動させることにより、耳介表面から見ると隠れている部分の形状もデータ化することができる。
(6)時間と二次元空間の三次元フーリエ解析により、外耳道のように複雑な管体内壁面の形状であっても、正確に三次元形状を再現することができる。
As described above, according to the data generation system 100 of this embodiment including various modified configuration examples and the data generation method using the same, the following advantages are obtained.
(1) Since non-contact optical measurement of the shape of the ear canal is possible, it is possible to easily measure the shape of the ear canal for custom-made hearing aids.
(2) In addition, by installing an ear canal shape measuring device to which the data generation system 100 is applied at each hearing aid sales site, there is no need to take the ear mold of the hearing aid purchaser and send it to the factory, and the factory can measure the shape of the ear canal. Just send the data. As a result, the number of days required for custom-made hearing aids can be shortened.
(3) Furthermore, since an ear mold is not taken, the impression material is not used on the human body, and accidents related to the impression material (damage to the eardrum, inner ear, etc.) can be eliminated.
(4-1) In the case of one embodiment, illumination (projection) and imaging can be performed with a single image fiber, so the entire apparatus can be made compact.
(4-2) Even in the case of various modified configuration examples, it is possible to configure with a small number of image fibers bundled in parallel, so it is possible to suppress an increase in the size of the entire device.
(5) By freely moving the tip of the image fiber within the external auditory canal, the shape of the portion that is hidden from the surface of the auricle can also be converted into data.
(6) By three-dimensional Fourier analysis of time and two-dimensional space, it is possible to accurately reproduce the three-dimensional shape of even the complicated shape of the inner wall surface of the tube such as the external auditory canal.

本発明は上述した実施形態に制約されることなく、種種に変形して実施することができる。
データ生成システム100の構成は、図1等に例示したものに限らず、適宜に変形して実施することができる。また、ハンドユニットHUの形態はあくまで例示に過ぎず、実施に際して適切な形態とすることができる。
The present invention can be modified in various ways without being restricted by the above-described embodiments.
The configuration of the data generation system 100 is not limited to that illustrated in FIG. Also, the form of the hand unit HU is merely an example, and any suitable form may be adopted upon implementation.

縞パターンの周期や位相は、測定対象(被測定面)や使用するイメージファイバのサイズ、光学系の特性等に応じて適宜に調整することができる。
一実施形態や変形構成例では、頭部を動かさずに外耳道EE内にイメージファイバ110等を挿入して相対的に撮影位置を変化させているが、頭部を動かしながらイメージファイバ110等が挿入される態様であってもよいし、静止させたイメージファイバ110等に対して頭部(外耳道EE)の方を動かし、イメージファイバ110等を外耳道EE内に相対的に挿入して撮影位置を変化させてもよい。
The period and phase of the fringe pattern can be appropriately adjusted according to the object to be measured (surface to be measured), the size of the image fiber to be used, the characteristics of the optical system, and the like.
In one embodiment and modified configuration example, the image fiber 110 or the like is inserted into the external auditory canal EE without moving the head to relatively change the imaging position, but the image fiber 110 or the like is inserted while moving the head. Alternatively, the imaging position may be changed by moving the head (external auditory canal EE) with respect to the stationary image fiber 110 or the like and relatively inserting the image fiber 110 or the like into the external auditory canal EE. You may let

100 データ生成システム
110,210 イメージファイバ
120 レーザ光源
130 レンズ
134 偏光ビームスプリッタ
140 空間光変調器
150 撮像素子
152 ピンホール
162 画像処理部
164 解析・再構成部
170 磁気マーカ
170a 磁気センサ
212 GRINロッドレンズ
266 プロジェクタ
100 Data generation system 110, 210 Image fiber 120 Laser light source 130 Lens 134 Polarization beam splitter 140 Spatial light modulator 150 Image sensor 152 Pinhole 162 Image processing unit 164 Analysis/reconstruction unit 170 Magnetic marker 170a Magnetic sensor 212 GRIN rod lens 266 projector

Claims (18)

被測定面に投射する周期的なパターンを有した画像の位相を所定時間毎にずらして画像を撮影する動作を、被測定面に対する画像の投射及び撮影位置を相対的に停止及び変化させながら実行する第1ステップと、
前記第1ステップでの複数の投射及び撮影位置と、複数の撮影画像から得られる時間及び二次元空間での三次元フーリエ解析に基づいて、被測定面の形状に応じた三次元データを生成する第2ステップと
を有するデータ生成方法。
The phase of an image having a periodic pattern projected onto the surface to be measured is shifted every predetermined time, and the image is captured while the projection and shooting positions of the image on the surface to be measured are relatively stopped and changed. a first step to
Three-dimensional data corresponding to the shape of the surface to be measured is generated based on three-dimensional Fourier analysis in time and two-dimensional space obtained from the plurality of projection and photographing positions in the first step and the plurality of photographed images. and a second step.
請求項1に記載のデータ生成方法において、
前記第1ステップでは、
画像の周期的なパターンを光強度の分布として変調した光をイメージファイバの端面から被測定面に投射したとき、前記端面から投射方向に離れた位置に仮想的に配置したピンホールを通して被測定面からの戻り光を前記端面に入射させて仮想的な撮像面上に結像させたとした場合に、前記戻り光を発した被測定面の位置と前記ピンホールの位置とを結ぶ延長線上に前記仮想的な撮像面上の座標を規定して撮影を行い、
前記第2ステップでは、
前記第1ステップで前記仮想的な撮像面に結像させた画像の時間と二次元空間での三次元フーリエ解析に基づいて、被測定面の位置を表す座標を求めることを特徴とするデータ生成方法。
In the data generation method according to claim 1,
In the first step,
When light modulated with a periodic pattern of an image as a light intensity distribution is projected from the end surface of the image fiber onto the surface to be measured, the surface to be measured passes through a pinhole virtually arranged at a position away from the end surface in the projection direction. If the return light from the Photographing is performed by defining coordinates on a virtual imaging plane,
In the second step,
Data generation characterized by obtaining coordinates representing the position of the surface to be measured based on three-dimensional Fourier analysis in time and two-dimensional space of the image formed on the virtual imaging surface in the first step. Method.
請求項1に記載のデータ生成方法において、
前記第1ステップでは、
画像の周期的なパターンを光強度の分布として変調した光を第1のイメージファイバの端面から被測定面に投射する第1の光学系と、前記第1のイメージファイバの端面から光を投射したときの被測定面からの戻り光を第2のイメージファイバの端面に入射させて撮影を行う第2の光学系とを使用し、
前記第2ステップでは、
前記第2の光学系を用いて撮影した画像の時間と二次元空間での三次元フーリエ解析に基づいて、被測定面の位置を表す座標を求めることを特徴とするデータ生成方法。
In the data generation method according to claim 1,
In the first step,
a first optical system for projecting light modulated by a periodic pattern of an image as a light intensity distribution from the end face of a first image fiber onto a surface to be measured; and projecting the light from the end face of the first image fiber. and a second optical system for photographing by causing the return light from the surface to be measured to enter the end face of the second image fiber,
In the second step,
A data generation method, wherein coordinates representing the position of a surface to be measured are obtained based on time and three-dimensional Fourier analysis in a two-dimensional space of an image captured using the second optical system.
請求項3に記載のデータ生成方法において、
前記第1ステップでは、
前記第2のイメージファイバの端面に、当該端面から投射方向にずれた位置にある主点を通して被測定面からの戻り光を前記端面に入射させるロッドレンズを配置して撮影を行うことを特徴とするデータ生成方法。
In the data generation method according to claim 3,
In the first step,
Photographing is performed by arranging a rod lens on the end face of the second image fiber so that return light from the surface to be measured is incident on the end face through a principal point at a position shifted from the end face in the projection direction. data generation method.
請求項1から4のいずれかに記載のデータ生成方法において、
前記第2ステップでは、
基準平面に対する撮影位置を始点として連続的に被測定面に対する画像の投射及び撮影を行うことで、投射及び撮影位置を求めることを特徴とするデータ生成方法。
In the data generation method according to any one of claims 1 to 4,
In the second step,
1. A data generation method characterized by obtaining projected and photographed positions by continuously projecting and photographing images onto a surface to be measured starting from a photographing position on a reference plane.
請求項3又は4に記載のデータ生成方法において、
前記第1ステップでは、
並列に配置した複数本の前記第2のイメージファイバを用いて複数の前記第2の光学系を用いて撮影を行い、
前記第2ステップでは、
複数の前記第2の光学系により撮影した複数の画像を用いてステレオ法により求めた始点となる撮影位置から連続的に被測定面に対する画像の投射及び撮影を行うことで、投射及び撮影位置を求めることを特徴とするデータ生成方法。
In the data generation method according to claim 3 or 4,
In the first step,
photographing using a plurality of the second optical systems using a plurality of the second image fibers arranged in parallel;
In the second step,
By continuously projecting and photographing images onto the surface to be measured from a photographing position which is a starting point determined by a stereo method using a plurality of images photographed by a plurality of the second optical systems, the projection and photographing positions are determined. A data generation method characterized by:
請求項1から4のいずれかに記載のデータ生成方法において、
前記第2ステップでは、
投射及び撮影位置の移動に追従して移動する磁気マーカの磁場分布に基づいて、被測定面に対する画像の投射及び撮影位置を求めることを特徴とするデータ生成方法。
In the data generation method according to any one of claims 1 to 4,
In the second step,
A data generating method, comprising determining the projection and imaging positions of an image on a surface to be measured based on the magnetic field distribution of a magnetic marker that moves following the movement of the projection and imaging positions.
被測定面に投射する周期的なパターンを有した画像を、所定時間毎に位相をずらして連続的に生成する画像生成手段と、
前記画像生成手段で生成する画像を、被測定面に向けて投射可能なイメージファイバと、
被測定面に投影された画像を前記イメージファイバを通じて撮影可能な撮像手段と、
被測定面に対する前記イメージファイバの画像の投射及び撮影位置が相対的に停止及び変化する過程を通じて前記撮像手段により撮影した複数の撮影画像から得られる時間及び二次元空間での三次元フーリエ解析と、各撮影画像が得られた複数の投射及び撮影位置とに基づいて、被測定面の形状に応じた三次元データを生成する生成手段と
を備えたデータ生成システム。
an image generating means for continuously generating an image having a periodic pattern to be projected onto the surface to be measured, with the phase shifted every predetermined time;
an image fiber capable of projecting an image generated by the image generating means toward a surface to be measured;
an imaging means capable of capturing an image projected on the surface to be measured through the image fiber;
Three-dimensional Fourier analysis in time and two-dimensional space obtained from a plurality of captured images captured by the imaging means through the process of relatively stopping and changing the projection and capturing positions of the image of the image fiber on the surface to be measured; A data generating system comprising a generating means for generating three-dimensional data corresponding to the shape of a surface to be measured based on a plurality of projections and photographing positions from which each photographed image was obtained.
請求項8に記載のデータ生成システムにおいて、
前記撮像手段は、
撮像面を有した撮像素子と、
前記撮像素子の撮像面よりも入射側の像面に配置されたピンホールと、
前記ピンホールを通じて前記撮像素子の撮像面より入射側の面を結像するレンズとを有することで、
前記イメージファイバの端面から画像を被測定面に投射したとき、前記端面から投射方向に離れた位置に仮想的に配置したピンホールを通して被測定面からの戻り光を前記端面に入射させて仮想的な撮像面上に結像させる仮想的な状況を発生可能であることを特徴とするデータ生成システム。
In the data generation system according to claim 8,
The imaging means is
an imaging device having an imaging surface;
a pinhole arranged on an image plane on the incident side of the imaging surface of the imaging device;
By having a lens that forms an image on the incident side surface from the imaging surface of the imaging element through the pinhole,
When an image is projected onto the surface to be measured from the end surface of the image fiber, the return light from the surface to be measured is incident on the end surface through a pinhole that is virtually arranged at a position away from the end surface in the projection direction. A data generation system capable of generating a virtual situation in which an image is formed on an imaging plane.
請求項9に記載のデータ生成システムにおいて、
前記生成手段は、
前記戻り光を発した被測定面の位置と前記仮想的に配置したピンホールの位置とを結ぶ延長線上に前記仮想的な撮像面上の座標を規定することにより、前記仮想的な撮像面に結像させた画像の時間と二次元空間での三次元フーリエ解析に基づいて、被測定面の位置を表す座標を求めることを特徴とするデータ生成システム。
In the data generation system according to claim 9,
The generating means is
By defining the coordinates on the virtual imaging plane on the extension line connecting the position of the surface to be measured that emits the return light and the position of the virtually arranged pinhole, A data generation system that obtains coordinates representing the position of a surface to be measured based on time and three-dimensional Fourier analysis in a two-dimensional space of a formed image.
請求項8から10のいずれかに記載のデータ生成システムにおいて、
前記生成手段は、
前記イメージファイバの基準平面に対する撮影位置を始点として連続的に被測定面に対する画像の投射及び撮影位置を求めることを特徴とするデータ生成システム。
In the data generation system according to any one of claims 8 to 10,
The generating means is
A data generation system characterized in that, starting from a photographing position of the image fiber with respect to a reference plane, the image projection and photographing positions of the image on the surface to be measured are obtained continuously.
請求項8から10のいずれかに記載のデータ生成システムにおいて、
前記イメージファイバに設置され、前記イメージファイバによる画像の撮影位置の変化に追従する磁気マーカと、
被測定面の周囲に配置され、前記磁気マーカの磁場分布を複数の異なる箇所で検出する複数の磁気センサと、
複数の前記磁気センサからの検出結果に基づいて、前記イメージファイバの被測定面に対する画像の投射及び撮影位置を求める検出手段と
をさらに備えるデータ生成システム。
In the data generation system according to any one of claims 8 to 10,
a magnetic marker installed on the image fiber and following a change in an image capturing position of the image fiber;
a plurality of magnetic sensors arranged around the surface to be measured and detecting the magnetic field distribution of the magnetic marker at a plurality of different locations;
A data generation system further comprising a detection means for obtaining projection and photographing positions of an image on the surface to be measured of the image fiber based on detection results from the plurality of magnetic sensors.
請求項8に記載のデータ生成システムにおいて、
前記イメージファイバは、
前記画像生成手段で生成する画像を第1の光学系を通じて投射する第1のイメージファイバであり、
前記撮像手段は、
前記第1の光学系とは別の第2の光学系を構成する第2のイメージファイバを通じて画像を撮影し、
前記生成手段は、
被測定面に対する前記第1のイメージファイバの画像の投射位置及び前記第2のイメージファイバの画像の撮影位置が相対的に停止及び変化する過程を通じて前記撮像手段により撮影した複数の撮影画像から得られる時間及び二次元空間での三次元フーリエ解析と、各撮影画像が得られた複数の投射及び撮影位置とに基づいて、被測定面の形状に応じた三次元データを生成することを特徴とするデータ生成システム。
In the data generation system according to claim 8,
The image fiber is
a first image fiber that projects an image generated by the image generating means through a first optical system;
The imaging means is
photographing an image through a second image fiber constituting a second optical system different from the first optical system;
The generating means is
Obtained from a plurality of photographed images photographed by the photographing means through a process in which the projection position of the image of the first image fiber and the photographing position of the image of the second image fiber with respect to the surface to be measured are relatively stopped and changed. It is characterized by generating three-dimensional data according to the shape of the surface to be measured based on three-dimensional Fourier analysis in time and two-dimensional space, and a plurality of projections and shooting positions from which each shot image was obtained. Data generation system.
請求項13に記載のデータ生成システムにおいて、
前記第2のイメージファイバの端面に取り付けられ、当該端面から投射方向にずれた位置にある主点を通して被測定面からの戻り光を前記端面に入射させるロッドレンズをさらに備えたことを特徴とするデータ生成システム。
In the data generation system of claim 13,
A rod lens is further provided which is attached to the end face of the second image fiber and causes return light from the surface to be measured to enter the end face through a principal point located at a position shifted from the end face in the projection direction. Data generation system.
請求項13又は14に記載のデータ生成システムにおいて、
前記撮像手段は、
並列に配置された複数本の前記第2のイメージファイバを含み、
前記生成手段は、
複数本の前記第2のイメージファイバを用いて撮影した複数の画像を用いてステレオ法により撮影位置の始点を求めることで、当該始点から連続的に被測定面に対する画像の投射及び撮影位置を求めることを特徴とするデータ生成システム。
In the data generation system according to claim 13 or 14,
The imaging means is
including a plurality of the second image fibers arranged in parallel,
The generating means is
By obtaining the starting point of the photographing position by the stereo method using a plurality of images photographed using the plurality of second image fibers, the projection and photographing positions of the images on the surface to be measured are obtained continuously from the starting point. A data generation system characterized by:
請求項13から15のいずれかに記載のデータ生成システムにおいて、
前記画像生成手段は、
レーザ光の2つの偏光成分の間の位相差を変化させつつ、前記2つの偏光成分を別光路に分岐させた後に入射させる側の前記第1のイメージファイバの端面で互いに干渉させることにより、前記周期的なパターンを有した画像を所定時間毎に位相をずらして連続的に生成することを特徴とするデータ生成システム。
In the data generation system according to any one of claims 13 to 15,
The image generation means is
While changing the phase difference between the two polarized light components of the laser beam, the two polarized light components are branched into different optical paths and then interfered with each other at the end face of the first image fiber on the incident side. A data generation system characterized by continuously generating images having a periodic pattern with a phase shift at predetermined time intervals.
請求項13から15のいずれかに記載のデータ生成システムにおいて、
前記画像生成手段は、
非偏光性の光を2つの成分に偏光させる偏光子と、
前記偏光子で偏光させた2つの偏光成分の間の位相差を変化させる変調器と、
前記2つの偏光成分を分離させる偏光分離型偏光子と、
前記偏光分離型偏光子で分離させた前記2つの偏光成分を前記第2のイメージファイバ上で合流させる光学機器と
を有することを特徴とするデータ生成システム。
In the data generation system according to any one of claims 13 to 15,
The image generation means is
a polarizer that polarizes unpolarized light into two components;
a modulator that changes the phase difference between the two polarization components polarized by the polarizer;
a polarization separating polarizer that separates the two polarization components;
and an optical device for combining the two polarized light components separated by the polarization separation type polarizer on the second image fiber.
請求項13から15のいずれかに記載のデータ生成システムにおいて、
前記画像生成手段は、
前記第2のイメージファイバが被測定面に向けて投射する画像を生成し、前記第2のイメージファイバに入射させるマイクロディスプレイを有することを特徴とするデータ生成システム。
In the data generation system according to any one of claims 13 to 15,
The image generation means is
A data generation system comprising a microdisplay that generates an image that is projected onto a surface to be measured by the second image fiber and that is incident on the second image fiber.
JP2022028231A 2021-02-25 2022-02-25 Data generation method and data generation system Pending JP2022130354A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021029311 2021-02-25
JP2021029311 2021-02-25

Publications (1)

Publication Number Publication Date
JP2022130354A true JP2022130354A (en) 2022-09-06

Family

ID=83150858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022028231A Pending JP2022130354A (en) 2021-02-25 2022-02-25 Data generation method and data generation system

Country Status (1)

Country Link
JP (1) JP2022130354A (en)

Similar Documents

Publication Publication Date Title
US10746540B2 (en) Confocal surface topography measurement with fixed focal positions
US9219907B2 (en) Method and apparatus for quantitative 3-D imaging
US9444981B2 (en) Portable structured light measurement module/apparatus with pattern shifting device incorporating a fixed-pattern optic for illuminating a subject-under-test
Chen et al. Cluster approach based multi-camera digital image correlation: Methodology and its application in large area high temperature measurement
CN107131848B (en) It is able to achieve the optical triangle method device of quick and fine and close SHAPE DETECTION
US7916309B2 (en) Single-lens, single-aperture, single-sensor 3-D imaging device
EP2979059B1 (en) Portable structured light measurement module with pattern shifting device incorporating a fixed-pattern optic for illuminating a subject-under-test
TW488145B (en) Three-dimensional profile scanning system
US20080204656A1 (en) Image processing apparatus
KR20110105720A (en) 3-d imaging using telecentric defocus
JP2007298327A (en) Particle measuring device and method
CN103654699A (en) Fluorescence excitation binocular endoscopic system
US20210368154A1 (en) Process and apparatus for the capture of plenoptic images between arbitrary planes
Pösch et al. Rigid and flexible endoscopes for three dimensional measurement of inside machine parts using fringe projection
CN111465885A (en) Apparatus and process for simultaneous capture of standard and plenoptic images
JP2004271381A (en) Speckle interferometry unit
JP2022130354A (en) Data generation method and data generation system
JP2013240590A (en) Three-dimensional shape acquisition device from stereoscopic endoscopic image
KR20150041901A (en) Apparatus and Method Matching Dimension of One Image Up with Dimension of the Other Image Using Pattern Recognition
WO2019112073A1 (en) Improved holographic reconstruction device and method
JP2023543345A (en) Inspection procedures for optical devices and objects
Munkelt et al. Large-volume NIR pattern projection sensor for continuous low-latency 3D measurements
Lv et al. Full-Stokes polarimetric light-field imaging using only a single detector
CN202908667U (en) Medical short-distance imaging system and probe
Geng Three-dimensional endoscopic surface imaging techniques

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220228