JP2019150574A - Three-dimensional shape data creation method and three-dimensional shape data creation system - Google Patents
Three-dimensional shape data creation method and three-dimensional shape data creation system Download PDFInfo
- Publication number
- JP2019150574A JP2019150574A JP2019032814A JP2019032814A JP2019150574A JP 2019150574 A JP2019150574 A JP 2019150574A JP 2019032814 A JP2019032814 A JP 2019032814A JP 2019032814 A JP2019032814 A JP 2019032814A JP 2019150574 A JP2019150574 A JP 2019150574A
- Authority
- JP
- Japan
- Prior art keywords
- shape data
- imaging
- minute surface
- dimensional shape
- optical system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、3次元形状データ作成方法、及び3次元形状データ作成システムに関するものであり、特に外耳道のような管体の内側の3次元形状を非接触で取得して再現することが可能な方法及びシステムに関する。 The present invention relates to a three-dimensional shape data creation method and a three-dimensional shape data creation system, and in particular, a method capable of obtaining and reproducing a three-dimensional shape inside a tubular body such as an external auditory canal without contact. And the system.
補聴器においては、外耳道に挿入して使用するために、使用者の外耳道に合せて製作される耳あな型のオーダーメイド補聴器やイヤモールドが知られている。例えば耳型を製作するには、使用者の外耳道の内側形状を採取する必要があり、そのために従来は、外耳道にシリンジで印象材を注入し、硬化した印象材を取り出して使用者の耳型を採取する耳型採取を行っている(例えば特許文献1参照)。 For hearing aids, in order to be inserted into the external auditory canal and used, custom-made ear hearing aids and ear molds manufactured according to the user's external auditory canal are known. For example, in order to produce an ear mold, it is necessary to collect the inner shape of the user's external auditory canal. For this reason, conventionally, an impression material is injected into the ear canal with a syringe, and the cured impression material is taken out to remove the user's ear mold. Ear type sampling is performed (see, for example, Patent Document 1).
ところで耳型採取を行うにあたり、例えば外耳道の途中での曲がりが急な場合には、希に硬化した印象材が取り出せなくなることがある。また高齢者は、外耳道の皮膚にたるみがある(皺がある)ことがあり、この場合は印象材を注入すると皮膚も移動してしまうため、採取した耳型が本来の形状とは異なることがある。また、耳型の精度は、耳型を採取する者の技量にも左右されるため、採取する者によって耳型の形状が変わるおそれもある。このため、印象材によらずに外耳道の内側の形状を知ることができる技術が求められている。 By the way, when performing ear type collection, for example, when the curve in the middle of the external auditory canal is abrupt, a rarely cured impression material may not be taken out. Elderly people may have sagging (has wrinkles) in the ear canal skin, and in this case, when the impression material is injected, the skin also moves, so the collected ear shape may differ from the original shape. is there. In addition, since the accuracy of the ear mold depends on the skill of the person who collects the ear mold, the shape of the ear mold may change depending on the person who collects the ear mold. For this reason, the technique which can know the inner shape of an ear canal irrespective of an impression material is calculated | required.
一方、近年は非接触で物体の形状を計測する技術も進んでいる。しかし、これまでのものは物体の外形を計測するものが大半であって、外耳道のような管体の内側における3次元形状データを取得できるものは未だ一般的ではない。 On the other hand, in recent years, techniques for measuring the shape of an object in a non-contact manner have also advanced. However, most of the conventional ones measure the outer shape of an object, and it is not yet common to obtain three-dimensional shape data inside a tubular body such as the ear canal.
本発明はこのような問題点を解決することを課題とするものであり、外耳道のような管体の内側における形状を非接触で取得して再現することが可能な3次元形状データ作成方法、及び3次元形状データ作成システムを提供することを目的とする。 An object of the present invention is to solve such problems, and a three-dimensional shape data creation method capable of acquiring and reproducing the shape inside a tubular body such as the ear canal in a non-contact manner, It is another object of the present invention to provide a three-dimensional shape data creation system.
本発明の一つである3次元形状データ作成方法は、管体の内側を移動可能であって該管体の内側を撮像する撮像手段からの信号に基づき複数の2次元画像データを生成するステップと、前記撮像手段に設置されたモーションセンサからの信号に基づき撮像時における前記撮像手段の空間情報を取得するステップと、前記2次元画像データと前記空間情報とを関連付けるとともに、該2次元画像データと該空間情報に基づいて、前記管体の内側における3次元形状データを生成するステップと、を有することを特徴とする。 The three-dimensional shape data creation method according to one aspect of the present invention includes a step of generating a plurality of two-dimensional image data based on a signal from an imaging unit that is movable inside the tube and images the inside of the tube. And acquiring the spatial information of the imaging means at the time of imaging based on a signal from a motion sensor installed in the imaging means, associating the two-dimensional image data and the spatial information, and the two-dimensional image data And generating three-dimensional shape data inside the tubular body based on the spatial information.
この3次元形状データ作成方法において、前記撮像手段は、照明と、対物光学系と、該対物光学系による結像位置に配置されて前記管体の内側からの反射光を受光する撮像素子と、を含み、前記3次元形状データを生成するステップは、前記空間情報に基づいて前記撮像手段の移動に伴う前記対物光学系の主点の移動軌跡を算出して、該移動軌跡を中心軸とする円筒座標を設定するとともに、該円筒座標に基づいて前記撮像手段の周囲の空間を離散化して、該周囲の空間が該円筒座標に従う複数の微小面で構成されると設定するステップと、前記撮像素子の各受光素子と前記主点とを結ぶ直線を設定するステップと、前記微小面が前記直線上に存在するか否かを判別するステップと、前記微小面からの反射光が前記撮像素子の各受光素子に入射可能であるか否かを判別するステップと、前記2次元画像データの各画素における画素値を、前記直線上に存在し、かつ前記各受光素子に入射可能である前記微小面のそれぞれからの反射光強度の和であると設定するとともに、該画素値に基づいて該直線上に存在する該微小面のそれぞれにおける反射光強度を算出するステップと、前記直線上に存在する前記微小面の反射光強度の分布に基づいて実在する前記管体の内側における微小面を推定し、推定した該微小面に基づいて該管体の内側における3次元形状データを構築するステップと、を含むことが好ましい。 In this three-dimensional shape data creation method, the imaging means includes an illumination, an objective optical system, an imaging element that is disposed at an imaging position by the objective optical system and receives reflected light from the inside of the tubular body, The step of generating the three-dimensional shape data includes calculating a movement locus of the principal point of the objective optical system accompanying movement of the imaging means based on the spatial information, and using the movement locus as a central axis Setting cylindrical coordinates, discretizing the surrounding space of the imaging means based on the cylindrical coordinates, and setting the surrounding space to be composed of a plurality of minute surfaces according to the cylindrical coordinates; and the imaging A step of setting a straight line connecting each light receiving element of the element and the principal point; a step of determining whether or not the minute surface exists on the straight line; and reflected light from the minute surface Enter each photo detector A step of determining whether or not it is possible, and a reflection of a pixel value at each pixel of the two-dimensional image data from each of the minute surfaces that are on the straight line and can enter the light receiving elements. A step of calculating a reflected light intensity at each of the minute surfaces existing on the straight line based on the pixel value, and a reflected light of the minute surface existing on the straight line. It is preferable that the method includes estimating a minute surface inside the tubular body that actually exists based on an intensity distribution, and constructing three-dimensional shape data inside the tubular body based on the estimated minute surface.
またこの3次元形状データ作成方法において、前記撮像手段は、照明と、対物光学系と、該対物光学系による結像位置に配置されて前記管体の内側からの反射光を受光する撮像素子と、を含み、前記3次元形状データを生成するステップは、予め前記対物光学系の主点と管体内側との距離に応じた画素値に関する基準データを取得するステップと、前記空間情報に基づいて前記撮像手段の移動に伴う前記対物光学系の主点の移動軌跡を算出して、該移動軌跡を中心軸とする円筒座標を設定するとともに、該円筒座標に従う複数の微小面で構成される所定半径の円筒を設定するステップと、前記撮像素子の各受光素子と前記主点とを結ぶ直線を設定するステップと、前記微小面が前記直線上に存在するか否かを判別するステップと、前記2次元画像データに対応する前記微小面を抽出するステップと、抽出された前記微小面に対応する画素値から、前記基準データに基づき、該2次元画像データを取得した位置での主点と前記微小面との距離を求めるステップと、この距離に応じて管体の形状を算出するステップと、を含むものでもよい。 Further, in this three-dimensional shape data creation method, the imaging means includes an illumination, an objective optical system, and an imaging element that is disposed at an image forming position by the objective optical system and receives reflected light from the inside of the tubular body. The step of generating the three-dimensional shape data includes acquiring reference data relating to pixel values according to the distance between the principal point of the objective optical system and the inside of the tube in advance, and based on the spatial information The movement locus of the principal point of the objective optical system accompanying the movement of the imaging means is calculated, cylindrical coordinates with the movement locus as a central axis are set, and a predetermined configuration composed of a plurality of minute surfaces according to the cylinder coordinates Setting a cylinder with a radius, setting a straight line connecting each light receiving element of the image sensor and the principal point, determining whether or not the minute surface exists on the straight line, Two dimensions A step of extracting the minute surface corresponding to the image data; and a principal point and the minute surface at a position where the two-dimensional image data is acquired based on the reference data from the pixel value corresponding to the extracted minute surface And a step of calculating the shape of the tube according to the distance.
また、前記モーションセンサによって得られる前記撮像手段の前記空間情報を、他のモーションセンサによって得られる撮像時における前記管体の空間情報に基づいて補正するステップを更に含むことが好ましい。 It is preferable that the method further includes a step of correcting the spatial information of the imaging unit obtained by the motion sensor based on the spatial information of the tubular body at the time of imaging obtained by another motion sensor.
そして本発明の一つである3次元形状データ作成システムは、管体の内側を移動可能であって該管体の内側を撮像する撮像手段からの信号に基づき複数の2次元画像データを生成する2次元画像データ生成手段と、前記撮像手段に設置されたモーションセンサからの信号に基づき撮像時における前記撮像手段の空間情報を取得する空間情報取得手段と、前記2次元画像データと前記空間情報を関連付けるとともに、該2次元画像データと該空間情報に基づいて、前記管体の内側における3次元形状データを生成する3次元形状データ生成手段と、を備えることを特徴とする。 The three-dimensional shape data creation system according to one aspect of the present invention generates a plurality of two-dimensional image data based on a signal from an imaging unit that can move inside the tubular body and images the inside of the tubular body. Two-dimensional image data generation means, spatial information acquisition means for acquiring spatial information of the imaging means at the time of imaging based on a signal from a motion sensor installed in the imaging means, the two-dimensional image data and the spatial information And 3D shape data generating means for generating 3D shape data inside the tubular body based on the 2D image data and the spatial information.
この3次元形状データ作成システムにおいて、前記撮像手段は、照明と、前記管体の内側からの反射光が入射する対物光学系を備える先端部と、該先端部を支持するとともに屈曲可能に設けられる屈曲部と、前記対物光学系による結像位置に配置されて前記管体の内側からの反射光を受光する撮像素子と、を備え、前記モーションセンサは、前記先端部に設けられることが好ましい。 In this three-dimensional shape data creation system, the imaging means is provided so as to be able to be bent while supporting the distal end portion including illumination, an objective optical system on which reflected light from the inside of the tubular body is incident. It is preferable that a bending portion and an image sensor that receives reflected light from the inside of the tubular body are disposed at an imaging position by the objective optical system, and the motion sensor is provided at the distal end portion.
このような3次元形状データ作成システムにおいては、予め前記対物光学系の主点と管体内側との距離に応じた画素値に関する基準データを取得し記憶する記憶手段を有し、前記3次元形状データ生成手段は、前記空間情報に基づいて前記撮像手段の移動に伴う前記対物光学系の主点の移動軌跡を算出して、該移動軌跡を中心軸とする円筒座標を設定するとともに、該円筒座標に従う複数の微小面で構成される所定半径の円筒を設定し、前記撮像素子の各受光素子と前記主点とを結ぶ直線を設定し、前記微小面が前記直線上に存在するか否かを判別し、前記2次元画像データに対応する前記微小面を抽出し、抽出された前記微小面に対応する画素値から、前記基準データに基づき、該2次元画像データを取得した位置での主点と前記微小面との距離を求めることが好ましい。 Such a three-dimensional shape data creation system has storage means for acquiring and storing reference data relating to pixel values according to the distance between the principal point of the objective optical system and the inside of the tube in advance, and the three-dimensional shape data The data generation means calculates a movement locus of the principal point of the objective optical system accompanying the movement of the imaging means based on the spatial information, sets cylindrical coordinates with the movement locus as a central axis, and sets the cylinder Whether a cylinder having a predetermined radius composed of a plurality of minute surfaces according to coordinates is set, a straight line connecting each light receiving element of the image sensor and the principal point is set, and whether or not the minute surface exists on the straight line And extracting the minute surface corresponding to the two-dimensional image data, and from the pixel value corresponding to the extracted minute surface, based on the reference data, the main surface at the position where the two-dimensional image data is acquired. A point and the microfacet It is preferable to determine the distance.
また、前記管体を直接的に又は間接的に保持する保持手段を更に備えることが好ましい。 Moreover, it is preferable to further comprise holding means for holding the tube body directly or indirectly.
本発明によれば、撮像手段によって得られる管体の内側における複数の2次元画像データと、モーションセンサによって得られる撮像手段の空間情報とによって、管体の内側における3次元形状データを生成することができる。すなわち、管体の内側における形状を非接触で取得して再現することができるため、本発明によって外耳道の内側における3次元形状データを生成することにより、印象材を使用して耳型を採取していたときの問題を解決することができる。 According to the present invention, the three-dimensional shape data inside the tubular body is generated from the plurality of two-dimensional image data inside the tubular body obtained by the imaging means and the spatial information of the imaging means obtained by the motion sensor. Can do. That is, since the shape inside the tube can be acquired and reproduced without contact, by generating three-dimensional shape data inside the ear canal according to the present invention, an ear shape is collected using an impression material. You can solve the problem when you were.
以下、図面を参照しながら、本発明に従う管体の内側における3次元形状データ作成方法、及び3次元形状データ作成システムの一実施形態について説明する。なお本実施形態では、外耳道の3次元形状データを作成する場合について説明する。 Hereinafter, an embodiment of a three-dimensional shape data creation method and a three-dimensional shape data creation system inside a tubular body according to the present invention will be described with reference to the drawings. In the present embodiment, a case where three-dimensional shape data of the ear canal is created will be described.
本実施形態の3次元形状データ作成システムは、図1に示すように、撮像手段1と、モーションセンサ2と、コンピュータ3で構成されている。
As shown in FIG. 1, the three-dimensional shape data creation system according to this embodiment includes an
撮像手段1は、外耳道の内側を移動可能であって、外耳道の内側を撮像するものである。このようなものとしては、例えば図1(a)に示すオトスコープ10や、図1(b)に示すようなビデオスコープ11(外耳道に挿入される側の端部に対物光学系12と撮像素子13を備える)が挙げられる。なお、図示は省略するが、外耳道に挿入される側の端部に対物光学系を備え、対物光学系から入射した光をファイバーケーブルで導光して、反対側の端部に配置した撮像素子で対物光学系からの光を電気信号に変換するファイバースコープを採用してもよい。
The imaging means 1 is movable inside the ear canal and images the inside of the ear canal. Examples of such a device include an
撮像手段1には、図1(b)に示すように対物光学系12が設けられている。対物光学系12は、単一のレンズで構成されるものでもよいし、複数のレンズを組み合わせたものでもよい。対物光学系12の結像位置には、対物光学系12から入射する外耳道の内側からの反射光を受光して、これを電気信号に変換する撮像素子13が配置されている。ここで撮像素子13は、図2に示すように複数の受光素子13aで構成されている。なお図示は省略するが、撮像手段1には、撮像する対象物に向けて光を照射する照明手段が設けられているため、外から光が入りにくい外耳道の内側においても良好に撮像を行うことができる。
The
モーションセンサ2は、撮像手段1の空間情報(位置や姿勢に関する情報)を取得するものである。具体的には、3軸加速度センサと3軸角速度センサを含むものであって、直交座標における撮像手段1の位置、及び姿勢を検出することができる。なお、撮像手段1が一定の姿勢で1軸方向にのみ移動するように規制されている、などの場合においては、モーションセンサ2で検知する撮像手段1の空間情報は1軸方向の位置だけでよく、撮像手段1が取り得る位置や姿勢を考慮して、種々のモーションセンサ2を選択することができる。
The
このようなモーションセンサ2は、撮像手段1における対物光学系12及び撮像素子13に対して、位置や姿勢が変わらない場所に設けられることが好ましい。例えばオトスコープ10に設ける場合は、図1(a)に示すように外耳道に挿入される部位に近い場所でもよいし、これとは反対側の場所でもよい。またビデオスコープ11が、図1(b)に示すように、対物光学系12及び撮像素子13を備える先端部11aと、先端部11aを支持するとともに屈曲可能に設けられる屈曲部11bとを備える場合、モーションセンサ2は、対物光学系12及び撮像素子13との位置や姿勢が変わらない先端部11aに設けることが好ましい。なお、モーションセンサ2を先端部11aに設ける場合、屈曲部11bのうち、ビデオスコープ11を外耳道に挿入した際に外耳道の外側に位置する外側部分11cに対して、別のモーションセンサ2aを設けてもよい。この場合、モーションセンサ2aが3軸角速度センサを備えていれば、その情報からモーションセンサ2の姿勢を推定できる。このように複数のモーションセンサを用いる場合、先端部11aに設けるモーションセンサ2には3軸角速度センサは必ずしも必要ない。なお、ファイバースコープにモーションセンサ2を設ける場合も、対物光学系を設けた先端部に設けることが好ましい。
Such a
コンピュータ3は、撮像手段1、及びモーションセンサ2に接続されていて、撮像手段1、及びモーションセンサ2から出力される電気信号を取得する。本実施形態のコンピュータ3は、2次元画像データ生成手段30、空間情報取得手段31、3次元形状データ生成手段32として機能するものである。後述するように2次元画像データ生成手段30は、撮像手段1から出力される電気信号に基づいて、外耳道の内側における2次元画像データを生成するものである。また空間情報取得手段31は、モーションセンサ2から出力される電気信号に基づいて、撮像時における撮像手段1の空間情報を取得するものである。また3次元形状データ生成手段32は、2次元画像データと空間情報とを関連付けるとともに、関連付けた2次元画像データと空間情報に基づいて、外耳道の内側における3次元形状データを生成するものである。なお、図示は省略するが、コンピュータ3には各種の周辺機器(マウスやキーボードなどの入力手段や、モニタやプリンタなどの出力手段など)も接続可能である。
The computer 3 is connected to the
なお、図示は省略するが、本実施形態の3次元形状データ作成システムには、モーションセンサ2とは別のモーションセンサであって、外耳道の空間情報を取得するために使用される外耳道用モーションセンサを設けてもよい。外耳道用モーションセンサは、外耳道の内側に直接取り付ける必要はなく、例えば撮像される者の頭部など、外耳道に対する相対的な位置や姿勢が変わらない部位に取り付ければよい。撮像される者が撮像中に動いてしまうと、実際には撮像手段1と外耳道との相対的な位置や姿勢が変わらなくても、モーションセンサ2で得られる撮像手段1の空間情報が変わってくるが、外耳道用モーションセンサを設ける場合は、外耳道の位置や姿勢の変化量が分かるため、モーションセンサ2で得られる撮像手段1の空間情報をこの変化量に基づいて補正することによって、撮像される者の動きの影響を取り除くことができる。なお、外耳道用モーションセンサに替えて(併用してもよい)、外耳道のような管体が直接的に又は間接的に保持される保持手段を使用してもよい。このような保持手段としては、例えば撮像される者の顎をのせて頭部が動かないようにする(外耳道が動かないようにする)顎のせ台が挙げられる。
Although not shown, the three-dimensional shape data creation system of the present embodiment is a motion sensor different from the
次に、このような3次元形状データ作成システムによる3次元形状データ作成方法について説明する。 Next, a 3D shape data creation method using such a 3D shape data creation system will be described.
まず、撮像素子13によって撮像可能な範囲について説明する。図1(b)、図2に示すように、撮像素子13をxy平面に対して平行に配置した場合、撮像素子13の撮像可能範囲は、図1(b)に示した二点鎖線の内側領域となる。図示したように、撮像素子13の幅(x方向長さ)をxw、撮像素子13の高さ(y方向長さ)をyh、画角(対角画角)をθ、焦点距離をfとする場合、これらは下記の式(数1)の関係にある。
First, the range that can be imaged by the
従って、外耳道の内側における3次元形状データを生成するにあたっては、撮像素子13で撮像可能な範囲に基づき、撮像素子13の位置や姿勢を変えながら撮像を行って、所期する全ての部分が写されるようにする。ファイバースコープにおいては、撮像素子13の像面は、ファイバースコープ内にあるため、ファイバースコープを用いる場合、3次元形状データ生成手段32は、撮像素子13の受光素子位置の代わりに像面位置を用いる。
Accordingly, when generating the three-dimensional shape data inside the ear canal, imaging is performed while changing the position and orientation of the
上述したように撮像素子13は、図2に示すような複数の受光素子13aで構成されていて、各受光素子13aに入射した光の強度に対応する電圧に変換し、電気信号を出力する。また2次元画像データ生成手段30は、各受光素子13aの電圧に対応する画素値に変換した画素を生成し、この画素を受光素子13aの配列に対応させて配置することによって、外耳道の内側における2次元画像データを生成する。
As described above, the
なお、各受光素子13aにおける中心のx、y位置(xix、yiy)は、撮像素子13の幅(x方向長さ)をxw、撮像素子13の高さ(y方向長さ)をyh、撮像素子13のx方向における解像度をNx、撮像素子13のy方向における解像度をNy、各受光素子13aのx方向のピッチをdx、各受光素子13aのy方向のピッチをdyとし、撮像素子13の中心位置の座標を(xc、yc、zc0)とする場合において、変数ix、iyを使うと、下記の式(数2)、(数3)のように表すことができる。
Incidentally, x in the center of the
そして空間情報取得手段31は、モーションセンサ2から出力される電気信号を元にして、撮像時における撮像手段1の空間情報を取得する。具体的には、モーションセンサ2から電気信号を出力しておき、撮像手段1によって撮像が行われたタイミングでモーションセンサ2の電気信号を捉えることによって、撮像手段1の空間情報を取得する手法が挙げられる。なお、通常時はモーションセンサ2からの電気信号を停止しておく一方、撮像手段1によって撮像が行われた際に出力される電気信号をトリガとして、モーションセンサ2から電気信号が出力されるようにしてもよい。
And the spatial information acquisition means 31 acquires the spatial information of the imaging means 1 at the time of imaging based on the electrical signal output from the
上述のようにして得られた外耳道の内側における2次元画像データと撮像手段1の空間情報は、3次元形状データ生成手段32で関連付けられる。これにより、得られた2次元画像データが、外耳道の内側における何れの部位に相当するかが分かる。
The two-dimensional image data inside the ear canal obtained as described above and the spatial information of the
更に3次元形状データ生成手段32は、関連付けられた2次元画像データと空間情報に基づいて、外耳道の内側における3次元形状データを生成する。具体的には、次の手順で行われる。 Further, the three-dimensional shape data generating means 32 generates three-dimensional shape data inside the ear canal based on the associated two-dimensional image data and spatial information. Specifically, the following procedure is performed.
まず、外耳道の3次元形状データが必要なところまで、撮像手段1を移動させ、所定間隔(例えば0.1mm)で2次元画像データと空間情報を取得する。取得した2次元画像データと空間情報は、コンピュータ3に内蔵されるメモリ(不図示)に記憶される。取得した空間情報に基づいて、撮像手段1の移動に伴う対物光学系12の主点の移動軌跡を算出して、この移動軌跡を中心軸とする円筒座標を設定し、外耳道を管体と仮定する。更に、設定した円筒座標に基づいて、管体の内面に複数の微小面を設定する。また、コンピュータ3は記憶部(不図示)を有し、管体の内壁面の反射強度を均一の所定値と仮定した場合の主点と微小面の距離lに応じた画素値の基準データを予め記憶部に保存しておく。
First, the imaging means 1 is moved to a place where three-dimensional shape data of the ear canal is necessary, and two-dimensional image data and spatial information are acquired at a predetermined interval (for example, 0.1 mm). The acquired two-dimensional image data and spatial information are stored in a memory (not shown) built in the computer 3. Based on the acquired spatial information, the movement trajectory of the principal point of the objective
この点を、図面を参照しながら具体的に説明する。図3は、上述した円筒座標と微小面との関係について示している。なお、実際は外耳道空間は曲がった管体形状をしているが、まずは、概念の説明を簡略化するため、ここでは、図1(b)に示す撮像手段1はz軸に沿って移動した(対物光学系12の主点の移動軌跡はz軸に一致する)として説明する。この状態において、対物光学系12の主点の移動軌跡を中心軸とする円筒座標は、図3のように表すことができる。ここで、外耳道の内面がこの円筒座標に基づいて離散化されて、この円筒座標に従う複数の微小面で構成されると仮定する場合、この微小面は、図3に示すように、ある半径の円筒面上に存在する矩形状の面として示すことができる。図3では、微小面は半径がr0の円筒面上にあるとし、また、微小面における一つの頂点(点A)の方位角はφ0、z位置はz0であるとする。この場合、点Aの座標は(r0、φ0、z0)と表すことができる。また点Aからz位置が僅かに異なるz1に存在する頂点(点B)の座標は(r0、φ0、z1)と表すことができ、点Aから方位角が僅かに異なるφ1に存在する頂点(点C)の座標は(r0、φ1、z0)と表すことができる。
This point will be specifically described with reference to the drawings. FIG. 3 shows the relationship between the above-described cylindrical coordinates and minute surfaces. In practice, the external auditory canal space has a curved tubular shape, but first, in order to simplify the explanation of the concept, here, the imaging means 1 shown in FIG. 1B has moved along the z-axis ( In the following description, the movement locus of the principal point of the objective
ここで、図3に示す点A、点B、点Cを通る平面を媒介変数s1、s2を使って表す場合、パラメータax1、ax2、sx0、ay1、ay2、sy0、az1、az2、sz0を用いると、下記の式(数4)のように表すことができる。 Here, when the planes passing through the points A, B, and C shown in FIG. 3 are expressed using parameters s 1 and s 2 , the parameters a x1 , a x2 , s x0 , a y1 , a y2 , s y0. , A z1 , a z2 , and s z0 can be expressed as the following formula (Equation 4).
また式(数4)を、点A、点B、点Cの座標を用いるとともに、点Aにおいてs1=0、s2=0、点Bにおいてs1=1、s2=0、点Cにおいてs1=0、s2=1として示すと、下記の式(数5)のように表すことができる。 Further, using the coordinates of point A, point B, and point C, Equation (Equation 4) is used, and at point A, s 1 = 0, s 2 = 0, at point B, s 1 = 1, s 2 = 0, point C In the case of s 1 = 0 and s 2 = 1, it can be expressed as the following formula (Formula 5).
そして、上記の式(数5)の連立方程式を解くことで、パラメータax1、ax2、sx0、ay1、ay2、sy0、az1、az2、sz0を求めることができる。 Then, the parameters a x1 , a x2 , s x0 , a y1 , a y2 , s y0 , a z1 , a z2 , s z0 can be obtained by solving the simultaneous equations of the above equation (Equation 5).
次に、撮像素子13と対物光学系12の主点とを結ぶ直線を設定する。本実施形態における撮像素子13は、複数の受光素子13aで構成されており、ここでは、図4(a)に示すように、受光素子13aのそれぞれの中心と対物光学系12の主点を通る直線を設定するものとする。ここで、媒介変数lを使って直線を表す場合、パラメータax、lx0、ay、ly0、az、lz0を用いると、下記の式(数6)のように表すことができる。
Next, a straight line connecting the
また、受光素子13aの中心における座標を(xp、yp、zp)、対物光学系12の主点の座標を(xf、yf、zf)とし、この直線が受光素子13aの中心と対物光学系12の主点を通る場合において、受光素子13aの中心を始点(l=0)、対物光学系12の主点を終点(l=1)と定めると、上記の式(数6)は、下記の式(数7)のように表すことができる。
The coordinates at the center of the
そして、上記式(数7)の連立方程式を解くことで、パラメータax、lx0、ay、ly0、az、lz0を求めることができ、受光素子13aと対物光学系12の主点を通る直線を定めることができる。
The parameters a x , l x0 , a y , l y0 , a z , and l z0 can be obtained by solving the simultaneous equations of the above formula (Equation 7), and the main elements of the
次に、各受光素子と各微小面の対応を決定する。つまり、上述した微小面がこの直線上に存在するか否かを判別する。具体的には、式(数4)で示されるある平面と、式(数6)で示されるある直線との交点を求め、この交点が想定している微小面の内側にあるか否か及び円筒の内側から交わっているかを判別する。すなわち、交点が微小面の内側にあると判別できる場合は微小面が直線上に存在するといえ、外側にあると判別できる場合は直線上に微小面は存在しないといえる。さらに、実際には外耳道は曲がっているので、直線が外耳道内壁と再度交差する場合が想定されるため、直線上に微小面が複数存在しても、撮像手段1に内面が向いている場合のみを考慮する。これにより、撮像手段1で撮影された微小面を特定できる。 Next, the correspondence between each light receiving element and each minute surface is determined. That is, it is determined whether or not the above-described minute surface exists on this straight line. Specifically, an intersection of a certain plane represented by the equation (Equation 4) and a certain straight line represented by the equation (Equation 6) is obtained, and whether or not the intersection is inside the assumed minute surface and Determine if they intersect from the inside of the cylinder. That is, if it can be determined that the intersection is inside the minute surface, it can be said that the minute surface exists on the straight line, and if it can be determined that the intersection is outside, it can be said that the minute surface does not exist on the straight line. Furthermore, since the external auditory canal is actually bent, it is assumed that the straight line intersects the inner wall of the external auditory canal again. Therefore, even when there are a plurality of minute surfaces on the straight line, only when the inner surface faces the imaging means 1. Consider. Thereby, the micro surface image | photographed with the imaging means 1 can be specified.
本実施形態においては、図5に示すように、受光素子13aの中心がz軸上にあるとした状態で、円筒面と直線との交点を算出する。式(数4)と式(数6)により、円筒面と直線との交点は、下記の式(数8)のように表すことができる。
In the present embodiment, as shown in FIG. 5, the intersection of the cylindrical surface and the straight line is calculated in a state where the center of the
ここで、円筒面のパラメータax1、ax2、sx0、ay1、ay2、sy0、az1、az2、sz0は式(数5)により既知であり、直線のパラメータax、lx0、ay、ly0、az、lz0は式(数7)により既知であるため、上述した式(数8)は、s1、s2、lを変数とする3元1次連立方程式であるといえる。従って、s1、s2、lの値が定まるため、求めたs1、s2を式(数4)に代入する、又は求めたlを式(数6)に代入することによって、円筒面と直線との交点を導出することができる。なお、円筒面上に存在する微小面からの光が受光素子13aに入射する可能性があるのは、受光素子13aから見て主点より遠い場合、すなわちl>1となる場合である。
Here, the parameters a x1 , a x2 , s x0 , a y1 , a y2 , s y0 , a z1 , a z2 , s z0 of the cylindrical surface are known from the equation (Equation 5), and the linear parameters a x , Since l x0 , a y , l y0 , a z , and l z0 are known from the equation (Equation 7), the equation (Equation 8) described above is a ternary primary with s 1 , s 2 , and l as variables. It can be said that it is a simultaneous equation. Accordingly, since the values of s 1 , s 2 , and l are determined, the cylindrical surface is obtained by substituting the obtained s 1 and s 2 into the equation (Equation 4) or by substituting the obtained l into the equation (Equation 6). And the point of intersection with the straight line. Note that light from a minute surface existing on the cylindrical surface may be incident on the
そして、導出した交点(以下、判定点Pと称する)について、これが微小面の内側にあるか否かの判別を行う。図6はその判別方法を示している。本判別方法では、まず、判定点Pと、微小面における隣り合う2つの頂点A、Bに着目する。ここで図6(a)は、判定点Pが微小面の内側にある状態を例示していて、図6(b)は微小面の外側にある状態を例示している。なお、図6(a)、(b)に示すPAベクトルとPBベクトルは、何れも判定点Pを基準とした2点A、Bの相対位置ベクトルとなっており、nは面の法線ベクトルとなっている。また、図6(a)に示したPAベクトルとPBベクトルのなす角度(符号付き角度)θ1は、次の式(数9)のように表すことができる。ここで、PA・PBは、PAベクトルとPBベクトルの内積であり、PA×PB・nは、PAベクトル、PBベクトルの外積と法線ベクトルnの内積である。なお、図6(b)に示した符号付き角度θ1’も、式(数9)と同じ式で表すことができる。 Then, it is determined whether or not the derived intersection point (hereinafter referred to as determination point P) is inside the minute surface. FIG. 6 shows the determination method. In this determination method, attention is first paid to the determination point P and two adjacent vertices A and B on the minute surface. Here, FIG. 6A illustrates a state where the determination point P is inside the minute surface, and FIG. 6B illustrates a state where the determination point P is outside the minute surface. Note that the PA vector and the PB vector shown in FIGS. 6A and 6B are both relative position vectors of two points A and B with reference to the determination point P, and n is a normal vector of the surface. It has become. Further, the angle (signed angle) θ 1 formed by the PA vector and the PB vector shown in FIG. Here, PA · PB is an inner product of the PA vector and the PB vector, and PA × PB · n is an inner product of the outer product of the PA vector and the PB vector and the normal vector n. The signed angle θ 1 ′ shown in FIG. 6B can also be expressed by the same expression as Expression (Equation 9).
そして、この符号付き角度の算出を、微小面の隣り合う頂点の組み合わせ全てに対して行う。ここで、図6(a)に示すように判定点Pが微小面の内側に存在し、かつ撮像手段1から見て微小面の内側の面が撮像手段1側を向いている(内向き)場合は、算出した4つの符号付き角度の総和は理論上2πとなる。また、微小面の外側の面が撮像手段1側を向いている(外向き)場合は、算出した4つの符号付き角度の総和は理論上−2πとなる。一方、図6(b)に示すように判定点Pが微小面の外側に存在する場合は、算出した4つの符号付き角度の総和は理論上0になる。なお、実際に撮像手段1で撮像したデータに基づいて符号付き角度を算出した場合は、誤差等を含んで理論値通りの値が求まらないことがあるため、絶対値がある値(例えばπ)より大きければ判定点Pが微小面の内側に存在するとして判別することもある。次に、判定点Pが内側に存在する微小面が複数ある場合、lが小さい順番(撮像手段1に近い順番)に撮像手段1から見て内向きであるか、外向きであるかを判別する。符号付き角度の総和が負である場合は、外向きと判別され、反射光は受光不可能と判別する。符号付き角度の総和が正である場合は、内向きであると判別し、受光可能であるとする。lが小さい順番にこの判別を繰り返すが、一度外向きと判別された場合は、それ以降は撮像されていないと判別する。
The signed angle is calculated for all combinations of adjacent vertices of the minute surface. Here, as shown in FIG. 6A, the determination point P exists inside the minute surface, and the surface inside the minute surface as viewed from the image pickup means 1 faces the image pickup means 1 side (inward). In this case, the sum of the calculated four signed angles is theoretically 2π. Further, when the outer surface of the minute surface faces the imaging means 1 side (outward), the sum of the calculated four signed angles is theoretically −2π. On the other hand, when the determination point P exists outside the minute surface as shown in FIG. 6B, the total of the four calculated signed angles is theoretically zero. Note that when the signed angle is calculated based on the data actually captured by the
このようにして各微小面に対応する受光素子が決まると、当該2次元画像データの画素値から、各微小面に対応する画素値が決まる。各微小面について、前述の基準データに基づき、取得した画素値が対応する距離lをlPとし、当該微小面と主点との距離がlPとなるときの管体の半径rPを算出する。ここで半径rPは、主点軌跡に垂直な管体断面における主点軌跡から内面までの距離となる。すべての抽出された微小面について、半径rPを算出する。 When the light receiving element corresponding to each minute surface is determined in this way, the pixel value corresponding to each minute surface is determined from the pixel value of the two-dimensional image data. For each microfacet, based on the above-mentioned reference data, the distance l which acquired pixel value corresponding to the l P, calculating a radius r P of the tubular body when the distance between the micro-surface and the principal point is l P To do. Here radius r P is a distance from the main point trajectory in perpendicular tube cross section principal point trajectory to the inner surface. For all of the extracted micro-area, calculates the radius r P.
全ての2次元画像データについて上記のように各微小面に対応する半径rPの算出を行う。各微小面は複数の2次元画像データに撮像されているため、各微小面に対応する半径rPは複数算出されることになる。この場合、半径rPの平均値を当該微小面の半径rPとしても良い。当該微小面の半径rPは、各微小面と主点軌跡の距離であるので、微小面を順次つなぐことによって、管体の内側における3次元形状データを構築することができる。 For all of the two-dimensional image data for calculating the radius r P corresponding to each micro surface as described above. Each microfacet because it is captured in a plurality of 2-dimensional image data, the radius r P corresponding to each micro surface will be more calculated. In this case, the average value of the radius r P may radius r P of the fine surface. Radius r P of the micro surface, since the distance of each minute surface and principal point trajectory, by connecting the small surface sequentially, it is possible to construct a three-dimensional shape data inside the tube.
また、微小面が直線上に存在し、かつ受光可能であるか否かを判別した後は、2次元画像データの各画素における画素値を、上述した直線上に存在する微小面のそれぞれからの反射光強度の和であると設定するとともに、この画素値に基づいて、直線上に存在し、かつ受光可能である微小面のそれぞれにおける反射光強度を算出する。例えば、ある画素mでの画素値をvmとし、円筒座標における位置nでの円筒面上に存在する微小面からの反射光強度をunとする。ここで、係数amnを使用して、上述した直線上に存在し、かつ受光可能であると判別される微小面については、amn≠0(例えばamn=1)、存在しないと判別される微小面についてはamn=0であるとすると、2次元画像データの各画素における画素値と、直線上に存在する微小面のそれぞれからの反射光強度の和との関係は、以下の式(数10)のように表すことができる。 Further, after determining whether or not the minute surface exists on the straight line and can receive light, the pixel value in each pixel of the two-dimensional image data is obtained from each of the minute surfaces existing on the straight line. The sum of the reflected light intensities is set, and the reflected light intensities on each of the minute surfaces that exist on the straight line and can receive light are calculated based on the pixel values. For example, a pixel value of a certain pixel m and v m, the reflected light intensity from the microscopic surface present on the cylindrical surface at position n in a cylindrical coordinate to u n. Here, using the coefficient a mn , it is determined that a minute surface that exists on the above-described straight line and that can be received is a mn ≠ 0 (for example, a mn = 1) and does not exist. Assuming that a mn = 0, the relationship between the pixel value of each pixel of the two-dimensional image data and the sum of the reflected light intensities from each of the minute surfaces existing on the straight line is It can be expressed as (Equation 10).
そしてこの関係を全ての画素について考えると、以下の式(数11)のような行列で表すことができる。ここで、式(数11)におけるMは、総画素数(取得した複数の2次元画像データにおいて、各2次元画像データが持つ有効画素数を足し合せた数)を示している。ただし、ある撮影において、ある受光素子が受光可能な撮像面がひとつもない場合は、その受光素子は除外する。さらに、すべての撮影において、どの受光素子にも受光されない撮像面も除外する。 When this relationship is considered for all the pixels, it can be expressed by a matrix such as the following equation (Equation 11). Here, M in the equation (Equation 11) indicates the total number of pixels (the number obtained by adding the number of effective pixels of each two-dimensional image data in a plurality of acquired two-dimensional image data). However, if there is no imaging surface that can be received by a certain light receiving element in a certain photographing, the light receiving element is excluded. Further, an imaging surface that is not received by any light receiving element is excluded in all photographing.
ここで、式(数11)におけるv1、v2、・・・vMで構成された行列をv、a11、a12、・・・aMNで構成された行列をA、u1、u2、・・・uNで構成された行列をuとすると、式(数11)は、v=Auのように記載できる。この式は、下記の式(数12)のように変換することができるため、行列uを求めることができる。このように式(数12)に基づいて、未知であった直線上に存在する微小面のそれぞれからの反射光強度を算出することができる。 Here, the matrix composed of v 1 , v 2 ,... V M in the equation (Equation 11) is represented by v, a 11 , a 12 ,... A MN is represented by A, u 1 , If u is a matrix composed of u 2 ,..., u N , equation (Equation 11) can be written as v = Au. Since this equation can be converted as the following equation (Equation 12), the matrix u can be obtained. Thus, based on the equation (Equation 12), the reflected light intensity from each of the minute surfaces existing on the unknown straight line can be calculated.
その後は、上述した直線上に存在する微小面の反射光強度の分布に基づいて実在する前記管体の内側における微小面を推定し、推定した微小面に基づいて管体の内側における3次元形状データを構築する。例えば、この直線上に存在する微小面を受光素子13aからの距離順に並べた場合において、このときの反射光強度の分布が正規分布となる場合は、その極値となる微小面が、実在する管体の内側における微小面であると推定できる。なお、反射強度の分布から微小面を推定する手法は、種々選択可能である。そして推定した微小面を順次つなぐことによって、管体の内側における3次元形状データを構築することができる。
Thereafter, the minute surface inside the tube is estimated based on the distribution of reflected light intensity of the minute surface existing on the straight line, and the three-dimensional shape inside the tube is estimated based on the estimated minute surface. Build data. For example, when the minute surfaces existing on this straight line are arranged in the order of distance from the
なお、上述した円筒座標は、中心軸が直線上に延在するものであったが、撮像手段1が曲がって移動する(対物光学系12の主点の移動軌跡が曲線になる)場合は、その曲線を中心軸とする曲がり円筒座標に基づいて微小面を設定すればよい。微小面からの反射光の強さは、受光素子13aと対物光学系12の主点を結ぶ直線の方向ベクトルと曲がり円筒座標系の微小面の内向き法線ベクトルとの内積や照明条件によって変わるので、基準データやamnの値はそれに応じて決めてもよい。
In the above-described cylindrical coordinates, the central axis extends on a straight line. However, when the
また本発明は、上述した外耳道の内側における3次元形状データを作成するものに限定されず、例えば腸など消化管や気道、水道管など、種々の管体の内側形状を再現するものや、それを応用した病態や破損箇所の自動識別の手段としても適用可能である。 Further, the present invention is not limited to the above-described three-dimensional shape data creation inside the external auditory canal. For example, the one that reproduces the inner shape of various tubular bodies such as digestive tract such as intestine, airway, and water pipe, It can also be applied as a means of automatic identification of pathological conditions and damaged parts by applying.
1:撮像手段
2:モーションセンサ
3:コンピュータ
10:オトスコープ
11:ビデオスコープ
11a:先端部
11b:屈曲部
12:対物光学系
13:撮像素子
13a:受光素子
30:2次元画像データ生成手段
31:空間情報取得手段
32:3次元形状データ生成手段
1: imaging means 2: motion sensor 3: computer 10: otoscope 11:
Claims (8)
前記撮像手段に設置されたモーションセンサからの信号に基づき撮像時における前記撮像手段の空間情報を取得するステップと、
前記2次元画像データと前記空間情報とを関連付けるとともに、該2次元画像データと該空間情報に基づいて、前記管体の内側における3次元形状データを生成するステップと、を有することを特徴とする3次元形状データ作成方法。 Generating a plurality of two-dimensional image data based on a signal from an imaging means that is movable inside the tube and images the inside of the tube;
Obtaining spatial information of the imaging means at the time of imaging based on a signal from a motion sensor installed in the imaging means;
A step of associating the two-dimensional image data with the spatial information, and generating three-dimensional shape data inside the tubular body based on the two-dimensional image data and the spatial information. 3D shape data creation method.
照明と、対物光学系と、該対物光学系による結像位置に配置されて前記管体の内側からの反射光を受光する撮像素子と、を含み、
前記3次元形状データを生成するステップは、
前記空間情報に基づいて前記撮像手段の移動に伴う前記対物光学系の主点の移動軌跡を算出して、該移動軌跡を中心軸とする円筒座標を設定するとともに、該円筒座標に基づいて前記撮像手段の周囲の空間を離散化して、該周囲の空間が該円筒座標に従う複数の微小面で構成されると設定するステップと、
前記撮像素子の各受光素子と前記主点とを結ぶ直線を設定するステップと、
前記微小面が前記直線上に存在するか否かを判別するステップと、
前記微小面からの反射光が前記撮像素子の各受光素子に入射可能であるか否かを判別するステップと、
前記2次元画像データの各画素における画素値を、前記直線上に存在し、かつ前記各受光素子に入射可能である前記微小面のそれぞれからの反射光強度の和であると設定するとともに、該画素値に基づいて該直線上に存在する該微小面のそれぞれにおける反射光強度を算出するステップと、
前記直線上に存在する前記微小面の反射光強度の分布に基づいて実在する前記管体の内側における微小面を推定し、推定した該微小面に基づいて該管体の内側における3次元形状データを構築するステップと、を含むことを特徴とする請求項1に記載の3次元形状データ作成方法。 The imaging means includes
Illumination, an objective optical system, and an image sensor that receives reflected light from the inside of the tubular body arranged at an image forming position by the objective optical system,
The step of generating the three-dimensional shape data includes:
Based on the spatial information, the movement locus of the principal point of the objective optical system accompanying the movement of the imaging means is calculated, and the cylindrical coordinates with the movement locus as the central axis are set. Discretizing the space around the imaging means and setting the surrounding space to be composed of a plurality of minute surfaces according to the cylindrical coordinates;
Setting a straight line connecting each light receiving element of the image sensor and the principal point;
Determining whether the minute surface is present on the straight line; and
Determining whether reflected light from the minute surface can be incident on each light receiving element of the imaging element;
The pixel value in each pixel of the two-dimensional image data is set to be the sum of the reflected light intensity from each of the minute surfaces that exist on the straight line and can enter the light receiving elements, Calculating a reflected light intensity at each of the minute surfaces existing on the straight line based on a pixel value;
3D shape data inside the tubular body is estimated based on the estimated minute surface by estimating the minute surface inside the tubular body based on the distribution of reflected light intensity of the minute surface existing on the straight line. The method for creating three-dimensional shape data according to claim 1, further comprising:
照明と、対物光学系と、該対物光学系による結像位置に配置されて前記管体の内側からの反射光を受光する撮像素子と、を含み、
前記3次元形状データを生成するステップは、
予め前記対物光学系の主点と管体内側との距離に応じた画素値に関する基準データを取得するステップと、
前記空間情報に基づいて前記撮像手段の移動に伴う前記対物光学系の主点の移動軌跡を算出して、該移動軌跡を中心軸とする円筒座標を設定するとともに、該円筒座標に従う複数の微小面で構成される所定半径の円筒を設定するステップと、
前記撮像素子の各受光素子と前記主点とを結ぶ直線を設定するステップと、
前記微小面が前記直線上に存在するか否かを判別するステップと、
前記2次元画像データに対応する前記微小面を抽出するステップと、
抽出された前記微小面に対応する画素値から、前記基準データに基づき、該2次元画像データを取得した位置での主点と前記微小面との距離を求めるステップと、
この距離に応じて管体の形状を算出するステップと、を含むことを特徴とする請求項1に記載の3次元形状データ作成方法。 The imaging means includes
Illumination, an objective optical system, and an image sensor that receives reflected light from the inside of the tubular body arranged at an image forming position by the objective optical system,
The step of generating the three-dimensional shape data includes:
Obtaining reference data relating to pixel values according to the distance between the principal point of the objective optical system and the inside of the tube in advance;
Based on the spatial information, a movement trajectory of the principal point of the objective optical system accompanying the movement of the imaging means is calculated, cylindrical coordinates with the movement trajectory as a central axis are set, and a plurality of minute coordinates according to the cylindrical coordinates are set. Setting a cylinder of a predetermined radius composed of faces;
Setting a straight line connecting each light receiving element of the image sensor and the principal point;
Determining whether the minute surface is present on the straight line; and
Extracting the minute surface corresponding to the two-dimensional image data;
Obtaining a distance between the principal point at the position where the two-dimensional image data is acquired and the minute surface from the extracted pixel value corresponding to the minute surface based on the reference data;
The method for generating three-dimensional shape data according to claim 1, further comprising: calculating a shape of the tube according to the distance.
前記撮像手段に設置されたモーションセンサからの信号に基づき撮像時における前記撮像手段の空間情報を取得する空間情報取得手段と、
前記2次元画像データと前記空間情報を関連付けるとともに、該2次元画像データと該空間情報に基づいて、前記管体の内側における3次元形状データを生成する3次元形状データ生成手段と、を備えることを特徴とする3次元形状データ作成システム。 Two-dimensional image data generating means that is movable inside the tubular body and that generates a plurality of two-dimensional image data based on a signal from an imaging means that images the inside of the tubular body;
Spatial information acquisition means for acquiring spatial information of the imaging means at the time of imaging based on a signal from a motion sensor installed in the imaging means;
3D shape data generation means for associating the 2D image data with the spatial information and generating 3D shape data inside the tubular body based on the 2D image data and the spatial information. 3D shape data creation system characterized by
照明と、
前記管体の内側からの反射光が入射する対物光学系を備える先端部と、
該先端部を支持するとともに屈曲可能に設けられる屈曲部と、
前記対物光学系による結像位置に配置されて前記管体の内側からの反射光を受光する撮像素子と、を備え、
前記モーションセンサは、前記先端部に設けられることを特徴とする請求項5に記載の3次元形状データ作成システム。 The imaging means includes
Lighting,
A tip having an objective optical system on which reflected light from the inside of the tubular body is incident;
A bent portion that supports the distal end portion and bendable;
An image sensor that is disposed at an imaging position by the objective optical system and receives reflected light from the inside of the tubular body, and
The three-dimensional shape data creation system according to claim 5, wherein the motion sensor is provided at the tip portion.
前記3次元形状データ生成手段は、前記空間情報に基づいて前記撮像手段の移動に伴う前記対物光学系の主点の移動軌跡を算出して、該移動軌跡を中心軸とする円筒座標を設定するとともに、該円筒座標に従う複数の微小面で構成される所定半径の円筒を設定し、前記撮像素子の各受光素子と前記主点とを結ぶ直線を設定し、前記微小面が前記直線上に存在するか否かを判別し、前記2次元画像データに対応する前記微小面を抽出し、抽出された前記微小面に対応する画素値から、前記基準データに基づき、該2次元画像データを取得した位置での主点と前記微小面との距離を求めることを特徴とする請求項6に記載の3次元形状データ作成システム。 Storage means for acquiring and storing reference data relating to pixel values according to the distance between the principal point of the objective optical system and the inside of the tube in advance;
The three-dimensional shape data generation means calculates a movement locus of the principal point of the objective optical system as the imaging means moves based on the spatial information, and sets cylindrical coordinates with the movement locus as a central axis. In addition, a cylinder having a predetermined radius composed of a plurality of minute surfaces according to the cylindrical coordinates is set, a straight line connecting each light receiving element of the imaging element and the principal point is set, and the minute surface exists on the straight line Determining whether or not to extract the minute surface corresponding to the two-dimensional image data, and obtaining the two-dimensional image data based on the reference data from the extracted pixel value corresponding to the minute surface The three-dimensional shape data creation system according to claim 6, wherein a distance between a principal point at a position and the minute surface is obtained.
The three-dimensional shape data creation system according to any one of claims 5 to 7, further comprising holding means for directly or indirectly holding the tubular body.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/288,466 US10878563B2 (en) | 2018-03-05 | 2019-02-28 | Three-dimensional shape data production method and three-dimensional shape data production system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018039011 | 2018-03-05 | ||
JP2018039011 | 2018-03-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019150574A true JP2019150574A (en) | 2019-09-12 |
JP7236689B2 JP7236689B2 (en) | 2023-03-10 |
Family
ID=67947501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019032814A Active JP7236689B2 (en) | 2018-03-05 | 2019-02-26 | 3D shape data creation system operation method and 3D shape data creation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7236689B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11954834B2 (en) | 2019-09-23 | 2024-04-09 | Boston Scientific Scimed, Inc. | System and method for endoscopic video enhancement, quantitation and surgical guidance |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006523124A (en) * | 2003-03-11 | 2006-10-12 | シーメンス ヒアリング インストルメンツ インコーポレイテッド | A device and a method for determining the three-dimensional geometry and dimensions of a lumen within the device, a method for obtaining a three-dimensional digital representation of at least a portion of an object, and obtaining a relative position of two or more points in space Method |
WO2007139187A1 (en) * | 2006-05-31 | 2007-12-06 | National University Corporation Chiba University | Three-dimensional image forming device, three-dimensional image forming method and program |
JP2008194108A (en) * | 2007-02-09 | 2008-08-28 | Shiyoufuu:Kk | Three-dimensional characteristic measuring and displaying apparatus with positional direction detecting function |
JP2013106752A (en) * | 2011-11-21 | 2013-06-06 | National Cancer Center | Electronic endoscopic system |
WO2016136579A1 (en) * | 2015-02-25 | 2016-09-01 | テルモ株式会社 | Imaging diagnostic device, control method, program, and computer readable storage medium therefor |
WO2016164311A1 (en) * | 2015-04-06 | 2016-10-13 | Intuitive Surgical Operations, Inc. | Systems and methods of registration compensation in image guided surgery |
-
2019
- 2019-02-26 JP JP2019032814A patent/JP7236689B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006523124A (en) * | 2003-03-11 | 2006-10-12 | シーメンス ヒアリング インストルメンツ インコーポレイテッド | A device and a method for determining the three-dimensional geometry and dimensions of a lumen within the device, a method for obtaining a three-dimensional digital representation of at least a portion of an object, and obtaining a relative position of two or more points in space Method |
WO2007139187A1 (en) * | 2006-05-31 | 2007-12-06 | National University Corporation Chiba University | Three-dimensional image forming device, three-dimensional image forming method and program |
JP2008194108A (en) * | 2007-02-09 | 2008-08-28 | Shiyoufuu:Kk | Three-dimensional characteristic measuring and displaying apparatus with positional direction detecting function |
JP2013106752A (en) * | 2011-11-21 | 2013-06-06 | National Cancer Center | Electronic endoscopic system |
WO2016136579A1 (en) * | 2015-02-25 | 2016-09-01 | テルモ株式会社 | Imaging diagnostic device, control method, program, and computer readable storage medium therefor |
WO2016164311A1 (en) * | 2015-04-06 | 2016-10-13 | Intuitive Surgical Operations, Inc. | Systems and methods of registration compensation in image guided surgery |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11954834B2 (en) | 2019-09-23 | 2024-04-09 | Boston Scientific Scimed, Inc. | System and method for endoscopic video enhancement, quantitation and surgical guidance |
Also Published As
Publication number | Publication date |
---|---|
JP7236689B2 (en) | 2023-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210160471A1 (en) | Motion blur compensation | |
US6445814B2 (en) | Three-dimensional information processing apparatus and method | |
US20180266814A1 (en) | Confocal surface topography measurement with fixed focal positions | |
US20180213207A1 (en) | Endoscope employing structured light providing physiological feature size measurement | |
EP2825087B1 (en) | Otoscanner | |
TWI520576B (en) | Method and system for converting 2d images to 3d images and computer-readable medium | |
KR20140067970A (en) | Optical scanning device | |
JP2014502174A (en) | Endoscope with 3D function | |
CN107249427B (en) | Medical device, medical image generation method and medical image generate program | |
JP2001512241A (en) | Scanning apparatus and method | |
KR20190074841A (en) | Optical tracking system and optical tracking method | |
TWI672937B (en) | Apparatus and method for processing three dimensional images | |
JP5278878B2 (en) | Pipe inner surface shape measuring device | |
WO2019182623A1 (en) | Endoscope employing structured light providing physiological feature size measurement | |
JP7236689B2 (en) | 3D shape data creation system operation method and 3D shape data creation system | |
JP2006258543A (en) | Three-dimensional shape detector and three-dimensional shape detection method | |
JP5487946B2 (en) | Camera image correction method, camera apparatus, and coordinate transformation parameter determination apparatus | |
JP6210483B2 (en) | 3D shape acquisition device from stereoscopic endoscope image | |
US20230284933A1 (en) | Portable three-dimensional image measuring device, three-dimensional image measuring method using same, and medical image matching system | |
JP6646133B2 (en) | Image processing device and endoscope | |
US10878563B2 (en) | Three-dimensional shape data production method and three-dimensional shape data production system | |
JP3897079B2 (en) | Parallax image input device and imaging device | |
JP2000350733A (en) | Positioning frame and operation navigating system | |
CN111870211A (en) | Three-dimensional endoscope with instrument pose navigation function and navigation method thereof | |
JP4003274B2 (en) | Distance measuring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190228 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7236689 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |