JP2019150574A - Three-dimensional shape data creation method and three-dimensional shape data creation system - Google Patents

Three-dimensional shape data creation method and three-dimensional shape data creation system Download PDF

Info

Publication number
JP2019150574A
JP2019150574A JP2019032814A JP2019032814A JP2019150574A JP 2019150574 A JP2019150574 A JP 2019150574A JP 2019032814 A JP2019032814 A JP 2019032814A JP 2019032814 A JP2019032814 A JP 2019032814A JP 2019150574 A JP2019150574 A JP 2019150574A
Authority
JP
Japan
Prior art keywords
shape data
imaging
minute surface
dimensional shape
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019032814A
Other languages
Japanese (ja)
Other versions
JP7236689B2 (en
Inventor
武 中川
Takeshi Nakagawa
武 中川
大輔 茨田
Daisuke Ibarada
大輔 茨田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Utsunomiya University
Rion Co Ltd
Original Assignee
Utsunomiya University
Rion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Utsunomiya University, Rion Co Ltd filed Critical Utsunomiya University
Priority to US16/288,466 priority Critical patent/US10878563B2/en
Publication of JP2019150574A publication Critical patent/JP2019150574A/en
Application granted granted Critical
Publication of JP7236689B2 publication Critical patent/JP7236689B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a three-dimensional shape creation method and a three-dimensional shape creation system, capable of acquiring and reproducing a shape of a tube's inner side in a non-contact manner.SOLUTION: A three-dimensional shape creation method of the present invention includes: a step of creating a plurality of pieces of two-dimensional image data on the basis of a signal from imaging means, capable of moving on an inner side of a tube, for imaging the inner side of the tube; a step of acquiring space information on the imaging means 1 at the time of imaging, the space information being acquired by a motion sensor 2 installed at the imaging means; and a step of associating the two-dimensional image data with the space information and creating three-dimensional shape data at the tube's inner side on the basis of the two-dimensional image data and the space information.SELECTED DRAWING: Figure 1

Description

本発明は、3次元形状データ作成方法、及び3次元形状データ作成システムに関するものであり、特に外耳道のような管体の内側の3次元形状を非接触で取得して再現することが可能な方法及びシステムに関する。   The present invention relates to a three-dimensional shape data creation method and a three-dimensional shape data creation system, and in particular, a method capable of obtaining and reproducing a three-dimensional shape inside a tubular body such as an external auditory canal without contact. And the system.

補聴器においては、外耳道に挿入して使用するために、使用者の外耳道に合せて製作される耳あな型のオーダーメイド補聴器やイヤモールドが知られている。例えば耳型を製作するには、使用者の外耳道の内側形状を採取する必要があり、そのために従来は、外耳道にシリンジで印象材を注入し、硬化した印象材を取り出して使用者の耳型を採取する耳型採取を行っている(例えば特許文献1参照)。   For hearing aids, in order to be inserted into the external auditory canal and used, custom-made ear hearing aids and ear molds manufactured according to the user's external auditory canal are known. For example, in order to produce an ear mold, it is necessary to collect the inner shape of the user's external auditory canal. For this reason, conventionally, an impression material is injected into the ear canal with a syringe, and the cured impression material is taken out to remove the user's ear mold. Ear type sampling is performed (see, for example, Patent Document 1).

特開2000−210327号公報JP 2000-210327 A

ところで耳型採取を行うにあたり、例えば外耳道の途中での曲がりが急な場合には、希に硬化した印象材が取り出せなくなることがある。また高齢者は、外耳道の皮膚にたるみがある(皺がある)ことがあり、この場合は印象材を注入すると皮膚も移動してしまうため、採取した耳型が本来の形状とは異なることがある。また、耳型の精度は、耳型を採取する者の技量にも左右されるため、採取する者によって耳型の形状が変わるおそれもある。このため、印象材によらずに外耳道の内側の形状を知ることができる技術が求められている。   By the way, when performing ear type collection, for example, when the curve in the middle of the external auditory canal is abrupt, a rarely cured impression material may not be taken out. Elderly people may have sagging (has wrinkles) in the ear canal skin, and in this case, when the impression material is injected, the skin also moves, so the collected ear shape may differ from the original shape. is there. In addition, since the accuracy of the ear mold depends on the skill of the person who collects the ear mold, the shape of the ear mold may change depending on the person who collects the ear mold. For this reason, the technique which can know the inner shape of an ear canal irrespective of an impression material is calculated | required.

一方、近年は非接触で物体の形状を計測する技術も進んでいる。しかし、これまでのものは物体の外形を計測するものが大半であって、外耳道のような管体の内側における3次元形状データを取得できるものは未だ一般的ではない。   On the other hand, in recent years, techniques for measuring the shape of an object in a non-contact manner have also advanced. However, most of the conventional ones measure the outer shape of an object, and it is not yet common to obtain three-dimensional shape data inside a tubular body such as the ear canal.

本発明はこのような問題点を解決することを課題とするものであり、外耳道のような管体の内側における形状を非接触で取得して再現することが可能な3次元形状データ作成方法、及び3次元形状データ作成システムを提供することを目的とする。   An object of the present invention is to solve such problems, and a three-dimensional shape data creation method capable of acquiring and reproducing the shape inside a tubular body such as the ear canal in a non-contact manner, It is another object of the present invention to provide a three-dimensional shape data creation system.

本発明の一つである3次元形状データ作成方法は、管体の内側を移動可能であって該管体の内側を撮像する撮像手段からの信号に基づき複数の2次元画像データを生成するステップと、前記撮像手段に設置されたモーションセンサからの信号に基づき撮像時における前記撮像手段の空間情報を取得するステップと、前記2次元画像データと前記空間情報とを関連付けるとともに、該2次元画像データと該空間情報に基づいて、前記管体の内側における3次元形状データを生成するステップと、を有することを特徴とする。   The three-dimensional shape data creation method according to one aspect of the present invention includes a step of generating a plurality of two-dimensional image data based on a signal from an imaging unit that is movable inside the tube and images the inside of the tube. And acquiring the spatial information of the imaging means at the time of imaging based on a signal from a motion sensor installed in the imaging means, associating the two-dimensional image data and the spatial information, and the two-dimensional image data And generating three-dimensional shape data inside the tubular body based on the spatial information.

この3次元形状データ作成方法において、前記撮像手段は、照明と、対物光学系と、該対物光学系による結像位置に配置されて前記管体の内側からの反射光を受光する撮像素子と、を含み、前記3次元形状データを生成するステップは、前記空間情報に基づいて前記撮像手段の移動に伴う前記対物光学系の主点の移動軌跡を算出して、該移動軌跡を中心軸とする円筒座標を設定するとともに、該円筒座標に基づいて前記撮像手段の周囲の空間を離散化して、該周囲の空間が該円筒座標に従う複数の微小面で構成されると設定するステップと、前記撮像素子の各受光素子と前記主点とを結ぶ直線を設定するステップと、前記微小面が前記直線上に存在するか否かを判別するステップと、前記微小面からの反射光が前記撮像素子の各受光素子に入射可能であるか否かを判別するステップと、前記2次元画像データの各画素における画素値を、前記直線上に存在し、かつ前記各受光素子に入射可能である前記微小面のそれぞれからの反射光強度の和であると設定するとともに、該画素値に基づいて該直線上に存在する該微小面のそれぞれにおける反射光強度を算出するステップと、前記直線上に存在する前記微小面の反射光強度の分布に基づいて実在する前記管体の内側における微小面を推定し、推定した該微小面に基づいて該管体の内側における3次元形状データを構築するステップと、を含むことが好ましい。   In this three-dimensional shape data creation method, the imaging means includes an illumination, an objective optical system, an imaging element that is disposed at an imaging position by the objective optical system and receives reflected light from the inside of the tubular body, The step of generating the three-dimensional shape data includes calculating a movement locus of the principal point of the objective optical system accompanying movement of the imaging means based on the spatial information, and using the movement locus as a central axis Setting cylindrical coordinates, discretizing the surrounding space of the imaging means based on the cylindrical coordinates, and setting the surrounding space to be composed of a plurality of minute surfaces according to the cylindrical coordinates; and the imaging A step of setting a straight line connecting each light receiving element of the element and the principal point; a step of determining whether or not the minute surface exists on the straight line; and reflected light from the minute surface Enter each photo detector A step of determining whether or not it is possible, and a reflection of a pixel value at each pixel of the two-dimensional image data from each of the minute surfaces that are on the straight line and can enter the light receiving elements. A step of calculating a reflected light intensity at each of the minute surfaces existing on the straight line based on the pixel value, and a reflected light of the minute surface existing on the straight line. It is preferable that the method includes estimating a minute surface inside the tubular body that actually exists based on an intensity distribution, and constructing three-dimensional shape data inside the tubular body based on the estimated minute surface.

またこの3次元形状データ作成方法において、前記撮像手段は、照明と、対物光学系と、該対物光学系による結像位置に配置されて前記管体の内側からの反射光を受光する撮像素子と、を含み、前記3次元形状データを生成するステップは、予め前記対物光学系の主点と管体内側との距離に応じた画素値に関する基準データを取得するステップと、前記空間情報に基づいて前記撮像手段の移動に伴う前記対物光学系の主点の移動軌跡を算出して、該移動軌跡を中心軸とする円筒座標を設定するとともに、該円筒座標に従う複数の微小面で構成される所定半径の円筒を設定するステップと、前記撮像素子の各受光素子と前記主点とを結ぶ直線を設定するステップと、前記微小面が前記直線上に存在するか否かを判別するステップと、前記2次元画像データに対応する前記微小面を抽出するステップと、抽出された前記微小面に対応する画素値から、前記基準データに基づき、該2次元画像データを取得した位置での主点と前記微小面との距離を求めるステップと、この距離に応じて管体の形状を算出するステップと、を含むものでもよい。   Further, in this three-dimensional shape data creation method, the imaging means includes an illumination, an objective optical system, and an imaging element that is disposed at an image forming position by the objective optical system and receives reflected light from the inside of the tubular body. The step of generating the three-dimensional shape data includes acquiring reference data relating to pixel values according to the distance between the principal point of the objective optical system and the inside of the tube in advance, and based on the spatial information The movement locus of the principal point of the objective optical system accompanying the movement of the imaging means is calculated, cylindrical coordinates with the movement locus as a central axis are set, and a predetermined configuration composed of a plurality of minute surfaces according to the cylinder coordinates Setting a cylinder with a radius, setting a straight line connecting each light receiving element of the image sensor and the principal point, determining whether or not the minute surface exists on the straight line, Two dimensions A step of extracting the minute surface corresponding to the image data; and a principal point and the minute surface at a position where the two-dimensional image data is acquired based on the reference data from the pixel value corresponding to the extracted minute surface And a step of calculating the shape of the tube according to the distance.

また、前記モーションセンサによって得られる前記撮像手段の前記空間情報を、他のモーションセンサによって得られる撮像時における前記管体の空間情報に基づいて補正するステップを更に含むことが好ましい。   It is preferable that the method further includes a step of correcting the spatial information of the imaging unit obtained by the motion sensor based on the spatial information of the tubular body at the time of imaging obtained by another motion sensor.

そして本発明の一つである3次元形状データ作成システムは、管体の内側を移動可能であって該管体の内側を撮像する撮像手段からの信号に基づき複数の2次元画像データを生成する2次元画像データ生成手段と、前記撮像手段に設置されたモーションセンサからの信号に基づき撮像時における前記撮像手段の空間情報を取得する空間情報取得手段と、前記2次元画像データと前記空間情報を関連付けるとともに、該2次元画像データと該空間情報に基づいて、前記管体の内側における3次元形状データを生成する3次元形状データ生成手段と、を備えることを特徴とする。   The three-dimensional shape data creation system according to one aspect of the present invention generates a plurality of two-dimensional image data based on a signal from an imaging unit that can move inside the tubular body and images the inside of the tubular body. Two-dimensional image data generation means, spatial information acquisition means for acquiring spatial information of the imaging means at the time of imaging based on a signal from a motion sensor installed in the imaging means, the two-dimensional image data and the spatial information And 3D shape data generating means for generating 3D shape data inside the tubular body based on the 2D image data and the spatial information.

この3次元形状データ作成システムにおいて、前記撮像手段は、照明と、前記管体の内側からの反射光が入射する対物光学系を備える先端部と、該先端部を支持するとともに屈曲可能に設けられる屈曲部と、前記対物光学系による結像位置に配置されて前記管体の内側からの反射光を受光する撮像素子と、を備え、前記モーションセンサは、前記先端部に設けられることが好ましい。   In this three-dimensional shape data creation system, the imaging means is provided so as to be able to be bent while supporting the distal end portion including illumination, an objective optical system on which reflected light from the inside of the tubular body is incident. It is preferable that a bending portion and an image sensor that receives reflected light from the inside of the tubular body are disposed at an imaging position by the objective optical system, and the motion sensor is provided at the distal end portion.

このような3次元形状データ作成システムにおいては、予め前記対物光学系の主点と管体内側との距離に応じた画素値に関する基準データを取得し記憶する記憶手段を有し、前記3次元形状データ生成手段は、前記空間情報に基づいて前記撮像手段の移動に伴う前記対物光学系の主点の移動軌跡を算出して、該移動軌跡を中心軸とする円筒座標を設定するとともに、該円筒座標に従う複数の微小面で構成される所定半径の円筒を設定し、前記撮像素子の各受光素子と前記主点とを結ぶ直線を設定し、前記微小面が前記直線上に存在するか否かを判別し、前記2次元画像データに対応する前記微小面を抽出し、抽出された前記微小面に対応する画素値から、前記基準データに基づき、該2次元画像データを取得した位置での主点と前記微小面との距離を求めることが好ましい。   Such a three-dimensional shape data creation system has storage means for acquiring and storing reference data relating to pixel values according to the distance between the principal point of the objective optical system and the inside of the tube in advance, and the three-dimensional shape data The data generation means calculates a movement locus of the principal point of the objective optical system accompanying the movement of the imaging means based on the spatial information, sets cylindrical coordinates with the movement locus as a central axis, and sets the cylinder Whether a cylinder having a predetermined radius composed of a plurality of minute surfaces according to coordinates is set, a straight line connecting each light receiving element of the image sensor and the principal point is set, and whether or not the minute surface exists on the straight line And extracting the minute surface corresponding to the two-dimensional image data, and from the pixel value corresponding to the extracted minute surface, based on the reference data, the main surface at the position where the two-dimensional image data is acquired. A point and the microfacet It is preferable to determine the distance.

また、前記管体を直接的に又は間接的に保持する保持手段を更に備えることが好ましい。   Moreover, it is preferable to further comprise holding means for holding the tube body directly or indirectly.

本発明によれば、撮像手段によって得られる管体の内側における複数の2次元画像データと、モーションセンサによって得られる撮像手段の空間情報とによって、管体の内側における3次元形状データを生成することができる。すなわち、管体の内側における形状を非接触で取得して再現することができるため、本発明によって外耳道の内側における3次元形状データを生成することにより、印象材を使用して耳型を採取していたときの問題を解決することができる。   According to the present invention, the three-dimensional shape data inside the tubular body is generated from the plurality of two-dimensional image data inside the tubular body obtained by the imaging means and the spatial information of the imaging means obtained by the motion sensor. Can do. That is, since the shape inside the tube can be acquired and reproduced without contact, by generating three-dimensional shape data inside the ear canal according to the present invention, an ear shape is collected using an impression material. You can solve the problem when you were.

本発明に従う3次元形状データ作成システムの一実施形態を概略的に示した図である。It is the figure which showed roughly one Embodiment of the three-dimensional shape data creation system according to this invention. 撮像素子の一実施形態を示した図である。It is a figure showing one embodiment of an image sensor. 円筒座標について示した図である。It is the figure shown about cylindrical coordinates. 撮像素子と対物光学系の主点とを結ぶ直線について説明する図である。It is a figure explaining the straight line which connects an image pick-up element and the principal point of an objective optical system. 円筒座標における円筒面と図4に示した直線との交点について説明する図である。It is a figure explaining the intersection of the cylindrical surface in a cylindrical coordinate, and the straight line shown in FIG. 図5に示した交点が微小面の内側にあるか否かを判別するための方法について説明する図である。It is a figure explaining the method for discriminating whether the intersection shown in FIG. 5 exists inside a micro surface.

以下、図面を参照しながら、本発明に従う管体の内側における3次元形状データ作成方法、及び3次元形状データ作成システムの一実施形態について説明する。なお本実施形態では、外耳道の3次元形状データを作成する場合について説明する。   Hereinafter, an embodiment of a three-dimensional shape data creation method and a three-dimensional shape data creation system inside a tubular body according to the present invention will be described with reference to the drawings. In the present embodiment, a case where three-dimensional shape data of the ear canal is created will be described.

本実施形態の3次元形状データ作成システムは、図1に示すように、撮像手段1と、モーションセンサ2と、コンピュータ3で構成されている。   As shown in FIG. 1, the three-dimensional shape data creation system according to this embodiment includes an imaging unit 1, a motion sensor 2, and a computer 3.

撮像手段1は、外耳道の内側を移動可能であって、外耳道の内側を撮像するものである。このようなものとしては、例えば図1(a)に示すオトスコープ10や、図1(b)に示すようなビデオスコープ11(外耳道に挿入される側の端部に対物光学系12と撮像素子13を備える)が挙げられる。なお、図示は省略するが、外耳道に挿入される側の端部に対物光学系を備え、対物光学系から入射した光をファイバーケーブルで導光して、反対側の端部に配置した撮像素子で対物光学系からの光を電気信号に変換するファイバースコープを採用してもよい。   The imaging means 1 is movable inside the ear canal and images the inside of the ear canal. Examples of such a device include an otoscope 10 shown in FIG. 1A and a video scope 11 shown in FIG. 1B (an objective optical system 12 and an image sensor at the end inserted into the ear canal). 13). Although not shown in the drawings, an imaging device provided with an objective optical system at the end inserted into the ear canal, guiding light incident from the objective optical system with a fiber cable, and arranging it at the opposite end A fiberscope that converts light from the objective optical system into an electrical signal may be employed.

撮像手段1には、図1(b)に示すように対物光学系12が設けられている。対物光学系12は、単一のレンズで構成されるものでもよいし、複数のレンズを組み合わせたものでもよい。対物光学系12の結像位置には、対物光学系12から入射する外耳道の内側からの反射光を受光して、これを電気信号に変換する撮像素子13が配置されている。ここで撮像素子13は、図2に示すように複数の受光素子13aで構成されている。なお図示は省略するが、撮像手段1には、撮像する対象物に向けて光を照射する照明手段が設けられているため、外から光が入りにくい外耳道の内側においても良好に撮像を行うことができる。   The imaging unit 1 is provided with an objective optical system 12 as shown in FIG. The objective optical system 12 may be composed of a single lens or a combination of a plurality of lenses. At the imaging position of the objective optical system 12, an image sensor 13 that receives reflected light from the inside of the ear canal that enters from the objective optical system 12 and converts it into an electrical signal is disposed. Here, the imaging element 13 is composed of a plurality of light receiving elements 13a as shown in FIG. Although illustration is omitted, since the imaging means 1 is provided with illumination means for irradiating light toward the object to be imaged, it is possible to perform good imaging even inside the ear canal where it is difficult for light to enter from the outside. Can do.

モーションセンサ2は、撮像手段1の空間情報(位置や姿勢に関する情報)を取得するものである。具体的には、3軸加速度センサと3軸角速度センサを含むものであって、直交座標における撮像手段1の位置、及び姿勢を検出することができる。なお、撮像手段1が一定の姿勢で1軸方向にのみ移動するように規制されている、などの場合においては、モーションセンサ2で検知する撮像手段1の空間情報は1軸方向の位置だけでよく、撮像手段1が取り得る位置や姿勢を考慮して、種々のモーションセンサ2を選択することができる。   The motion sensor 2 acquires spatial information (information regarding position and orientation) of the imaging unit 1. Specifically, it includes a triaxial acceleration sensor and a triaxial angular velocity sensor, and can detect the position and orientation of the imaging means 1 in orthogonal coordinates. In the case where the imaging unit 1 is restricted to move only in one axis direction with a fixed posture, the spatial information of the imaging unit 1 detected by the motion sensor 2 is only in the position in the one axis direction. It is possible to select various motion sensors 2 in consideration of the positions and postures that the imaging means 1 can take.

このようなモーションセンサ2は、撮像手段1における対物光学系12及び撮像素子13に対して、位置や姿勢が変わらない場所に設けられることが好ましい。例えばオトスコープ10に設ける場合は、図1(a)に示すように外耳道に挿入される部位に近い場所でもよいし、これとは反対側の場所でもよい。またビデオスコープ11が、図1(b)に示すように、対物光学系12及び撮像素子13を備える先端部11aと、先端部11aを支持するとともに屈曲可能に設けられる屈曲部11bとを備える場合、モーションセンサ2は、対物光学系12及び撮像素子13との位置や姿勢が変わらない先端部11aに設けることが好ましい。なお、モーションセンサ2を先端部11aに設ける場合、屈曲部11bのうち、ビデオスコープ11を外耳道に挿入した際に外耳道の外側に位置する外側部分11cに対して、別のモーションセンサ2aを設けてもよい。この場合、モーションセンサ2aが3軸角速度センサを備えていれば、その情報からモーションセンサ2の姿勢を推定できる。このように複数のモーションセンサを用いる場合、先端部11aに設けるモーションセンサ2には3軸角速度センサは必ずしも必要ない。なお、ファイバースコープにモーションセンサ2を設ける場合も、対物光学系を設けた先端部に設けることが好ましい。   Such a motion sensor 2 is preferably provided in a place where the position and orientation thereof do not change with respect to the objective optical system 12 and the imaging element 13 in the imaging means 1. For example, when it is provided in the otoscope 10, it may be a location close to the site inserted into the ear canal as shown in FIG. 1 (a) or a location on the opposite side. In addition, as shown in FIG. 1B, the video scope 11 includes a distal end portion 11a including the objective optical system 12 and the imaging element 13, and a bent portion 11b that supports the distal end portion 11a and is provided so as to be bendable. The motion sensor 2 is preferably provided at the distal end portion 11a where the position and orientation of the objective optical system 12 and the image sensor 13 do not change. When the motion sensor 2 is provided at the distal end portion 11a, another motion sensor 2a is provided for the outer portion 11c located outside the external auditory canal when the video scope 11 is inserted into the external auditory canal. Also good. In this case, if the motion sensor 2a includes a triaxial angular velocity sensor, the posture of the motion sensor 2 can be estimated from the information. When a plurality of motion sensors are used in this way, a triaxial angular velocity sensor is not necessarily required for the motion sensor 2 provided at the distal end portion 11a. In addition, also when providing the motion sensor 2 in a fiberscope, providing in the front-end | tip part which provided the objective optical system is preferable.

コンピュータ3は、撮像手段1、及びモーションセンサ2に接続されていて、撮像手段1、及びモーションセンサ2から出力される電気信号を取得する。本実施形態のコンピュータ3は、2次元画像データ生成手段30、空間情報取得手段31、3次元形状データ生成手段32として機能するものである。後述するように2次元画像データ生成手段30は、撮像手段1から出力される電気信号に基づいて、外耳道の内側における2次元画像データを生成するものである。また空間情報取得手段31は、モーションセンサ2から出力される電気信号に基づいて、撮像時における撮像手段1の空間情報を取得するものである。また3次元形状データ生成手段32は、2次元画像データと空間情報とを関連付けるとともに、関連付けた2次元画像データと空間情報に基づいて、外耳道の内側における3次元形状データを生成するものである。なお、図示は省略するが、コンピュータ3には各種の周辺機器(マウスやキーボードなどの入力手段や、モニタやプリンタなどの出力手段など)も接続可能である。   The computer 3 is connected to the imaging unit 1 and the motion sensor 2 and acquires an electrical signal output from the imaging unit 1 and the motion sensor 2. The computer 3 of this embodiment functions as a two-dimensional image data generation unit 30, a spatial information acquisition unit 31, and a three-dimensional shape data generation unit 32. As will be described later, the two-dimensional image data generating unit 30 generates two-dimensional image data inside the ear canal based on the electrical signal output from the imaging unit 1. The spatial information acquisition unit 31 acquires spatial information of the imaging unit 1 at the time of imaging based on the electrical signal output from the motion sensor 2. The three-dimensional shape data generating unit 32 associates the two-dimensional image data with the spatial information and generates three-dimensional shape data inside the ear canal based on the associated two-dimensional image data and the spatial information. Although not shown, the computer 3 can be connected to various peripheral devices (input means such as a mouse and keyboard, output means such as a monitor and a printer).

なお、図示は省略するが、本実施形態の3次元形状データ作成システムには、モーションセンサ2とは別のモーションセンサであって、外耳道の空間情報を取得するために使用される外耳道用モーションセンサを設けてもよい。外耳道用モーションセンサは、外耳道の内側に直接取り付ける必要はなく、例えば撮像される者の頭部など、外耳道に対する相対的な位置や姿勢が変わらない部位に取り付ければよい。撮像される者が撮像中に動いてしまうと、実際には撮像手段1と外耳道との相対的な位置や姿勢が変わらなくても、モーションセンサ2で得られる撮像手段1の空間情報が変わってくるが、外耳道用モーションセンサを設ける場合は、外耳道の位置や姿勢の変化量が分かるため、モーションセンサ2で得られる撮像手段1の空間情報をこの変化量に基づいて補正することによって、撮像される者の動きの影響を取り除くことができる。なお、外耳道用モーションセンサに替えて(併用してもよい)、外耳道のような管体が直接的に又は間接的に保持される保持手段を使用してもよい。このような保持手段としては、例えば撮像される者の顎をのせて頭部が動かないようにする(外耳道が動かないようにする)顎のせ台が挙げられる。   Although not shown, the three-dimensional shape data creation system of the present embodiment is a motion sensor different from the motion sensor 2 and used for acquiring spatial information of the ear canal. May be provided. The motion sensor for the external auditory canal need not be directly attached to the inside of the external auditory canal. If the person to be imaged moves during imaging, the spatial information of the imaging means 1 obtained by the motion sensor 2 changes even if the relative position and orientation of the imaging means 1 and the ear canal actually do not change. However, in the case where a motion sensor for the external auditory canal is provided, the amount of change in the position and posture of the external auditory canal is known. The effect of the movement of the In place of the motion sensor for the external auditory canal (may be used in combination), a holding unit that directly or indirectly holds the tubular body such as the external auditory canal may be used. Examples of such holding means include a chin rest that prevents the head from moving by placing the chin of the person to be imaged (to prevent the external auditory canal from moving).

次に、このような3次元形状データ作成システムによる3次元形状データ作成方法について説明する。   Next, a 3D shape data creation method using such a 3D shape data creation system will be described.

まず、撮像素子13によって撮像可能な範囲について説明する。図1(b)、図2に示すように、撮像素子13をxy平面に対して平行に配置した場合、撮像素子13の撮像可能範囲は、図1(b)に示した二点鎖線の内側領域となる。図示したように、撮像素子13の幅(x方向長さ)をx、撮像素子13の高さ(y方向長さ)をy、画角(対角画角)をθ、焦点距離をfとする場合、これらは下記の式(数1)の関係にある。 First, the range that can be imaged by the image sensor 13 will be described. As shown in FIGS. 1B and 2, when the image sensor 13 is arranged in parallel to the xy plane, the imageable range of the image sensor 13 is the inner side of the two-dot chain line shown in FIG. It becomes an area. As illustrated, the width (length in the x direction) of the image sensor 13 is x w , the height (length in the y direction) of the image sensor 13 is y h , the angle of view (diagonal angle of view) is θ, and the focal length is When f is assumed, these are in the relationship of the following formula (Equation 1).

Figure 2019150574
Figure 2019150574

従って、外耳道の内側における3次元形状データを生成するにあたっては、撮像素子13で撮像可能な範囲に基づき、撮像素子13の位置や姿勢を変えながら撮像を行って、所期する全ての部分が写されるようにする。ファイバースコープにおいては、撮像素子13の像面は、ファイバースコープ内にあるため、ファイバースコープを用いる場合、3次元形状データ生成手段32は、撮像素子13の受光素子位置の代わりに像面位置を用いる。   Accordingly, when generating the three-dimensional shape data inside the ear canal, imaging is performed while changing the position and orientation of the image sensor 13 based on the range that can be imaged by the image sensor 13, and all expected portions are captured. To be. In the fiberscope, since the image plane of the image sensor 13 is in the fiberscope, when the fiberscope is used, the three-dimensional shape data generation unit 32 uses the image plane position instead of the light receiving element position of the image sensor 13. .

上述したように撮像素子13は、図2に示すような複数の受光素子13aで構成されていて、各受光素子13aに入射した光の強度に対応する電圧に変換し、電気信号を出力する。また2次元画像データ生成手段30は、各受光素子13aの電圧に対応する画素値に変換した画素を生成し、この画素を受光素子13aの配列に対応させて配置することによって、外耳道の内側における2次元画像データを生成する。   As described above, the image pickup device 13 is composed of a plurality of light receiving elements 13a as shown in FIG. 2, and converts it into a voltage corresponding to the intensity of light incident on each light receiving element 13a, and outputs an electric signal. Further, the two-dimensional image data generating means 30 generates pixels converted into pixel values corresponding to the voltages of the respective light receiving elements 13a, and arranges these pixels in correspondence with the arrangement of the light receiving elements 13a, thereby enabling the inside of the ear canal to be formed. Two-dimensional image data is generated.

なお、各受光素子13aにおける中心のx、y位置(xix、yiy)は、撮像素子13の幅(x方向長さ)をx、撮像素子13の高さ(y方向長さ)をy、撮像素子13のx方向における解像度をN、撮像素子13のy方向における解像度をN、各受光素子13aのx方向のピッチをdx、各受光素子13aのy方向のピッチをdyとし、撮像素子13の中心位置の座標を(x、y、zc0)とする場合において、変数i、iを使うと、下記の式(数2)、(数3)のように表すことができる。 Incidentally, x in the center of the light receiving elements 13a, y position (x ix, y iy), the width of the image pickup device 13 (x-direction length) x w, the height of the image pickup device 13 (y-direction length) y h , the resolution of the image sensor 13 in the x direction is N x , the resolution of the image sensor 13 in the y direction is N y , the pitch of each light receiving element 13a in the x direction is dx, and the pitch of each light receiving element 13a in the y direction is dy. When the coordinates of the center position of the image sensor 13 are (x c , y c , z c0 ) and the variables i x and i y are used, the following equations (Equation 2) and (Equation 3) are used. Can be expressed as

Figure 2019150574
Figure 2019150574

Figure 2019150574
Figure 2019150574

そして空間情報取得手段31は、モーションセンサ2から出力される電気信号を元にして、撮像時における撮像手段1の空間情報を取得する。具体的には、モーションセンサ2から電気信号を出力しておき、撮像手段1によって撮像が行われたタイミングでモーションセンサ2の電気信号を捉えることによって、撮像手段1の空間情報を取得する手法が挙げられる。なお、通常時はモーションセンサ2からの電気信号を停止しておく一方、撮像手段1によって撮像が行われた際に出力される電気信号をトリガとして、モーションセンサ2から電気信号が出力されるようにしてもよい。   And the spatial information acquisition means 31 acquires the spatial information of the imaging means 1 at the time of imaging based on the electrical signal output from the motion sensor 2. Specifically, there is a method of acquiring spatial information of the imaging unit 1 by outputting an electrical signal from the motion sensor 2 and capturing the electrical signal of the motion sensor 2 at the timing when the imaging unit 1 performs imaging. Can be mentioned. It should be noted that while the electrical signal from the motion sensor 2 is stopped in normal times, the electrical signal is output from the motion sensor 2 with the electrical signal output when the imaging unit 1 performs imaging as a trigger. It may be.

上述のようにして得られた外耳道の内側における2次元画像データと撮像手段1の空間情報は、3次元形状データ生成手段32で関連付けられる。これにより、得られた2次元画像データが、外耳道の内側における何れの部位に相当するかが分かる。   The two-dimensional image data inside the ear canal obtained as described above and the spatial information of the imaging unit 1 are associated by the three-dimensional shape data generation unit 32. Thereby, it can be understood which part of the inner side of the ear canal corresponds to the obtained two-dimensional image data.

更に3次元形状データ生成手段32は、関連付けられた2次元画像データと空間情報に基づいて、外耳道の内側における3次元形状データを生成する。具体的には、次の手順で行われる。   Further, the three-dimensional shape data generating means 32 generates three-dimensional shape data inside the ear canal based on the associated two-dimensional image data and spatial information. Specifically, the following procedure is performed.

まず、外耳道の3次元形状データが必要なところまで、撮像手段1を移動させ、所定間隔(例えば0.1mm)で2次元画像データと空間情報を取得する。取得した2次元画像データと空間情報は、コンピュータ3に内蔵されるメモリ(不図示)に記憶される。取得した空間情報に基づいて、撮像手段1の移動に伴う対物光学系12の主点の移動軌跡を算出して、この移動軌跡を中心軸とする円筒座標を設定し、外耳道を管体と仮定する。更に、設定した円筒座標に基づいて、管体の内面に複数の微小面を設定する。また、コンピュータ3は記憶部(不図示)を有し、管体の内壁面の反射強度を均一の所定値と仮定した場合の主点と微小面の距離lに応じた画素値の基準データを予め記憶部に保存しておく。   First, the imaging means 1 is moved to a place where three-dimensional shape data of the ear canal is necessary, and two-dimensional image data and spatial information are acquired at a predetermined interval (for example, 0.1 mm). The acquired two-dimensional image data and spatial information are stored in a memory (not shown) built in the computer 3. Based on the acquired spatial information, the movement trajectory of the principal point of the objective optical system 12 accompanying the movement of the imaging means 1 is calculated, cylindrical coordinates having the movement trajectory as the central axis are set, and the ear canal is assumed to be a tubular body. To do. Further, a plurality of minute surfaces are set on the inner surface of the tubular body based on the set cylindrical coordinates. Further, the computer 3 has a storage unit (not shown), and pixel value reference data corresponding to the distance l between the principal point and the minute surface when the reflection intensity of the inner wall surface of the tube is assumed to be a uniform predetermined value. Save in the storage unit in advance.

この点を、図面を参照しながら具体的に説明する。図3は、上述した円筒座標と微小面との関係について示している。なお、実際は外耳道空間は曲がった管体形状をしているが、まずは、概念の説明を簡略化するため、ここでは、図1(b)に示す撮像手段1はz軸に沿って移動した(対物光学系12の主点の移動軌跡はz軸に一致する)として説明する。この状態において、対物光学系12の主点の移動軌跡を中心軸とする円筒座標は、図3のように表すことができる。ここで、外耳道の内面がこの円筒座標に基づいて離散化されて、この円筒座標に従う複数の微小面で構成されると仮定する場合、この微小面は、図3に示すように、ある半径の円筒面上に存在する矩形状の面として示すことができる。図3では、微小面は半径がrの円筒面上にあるとし、また、微小面における一つの頂点(点A)の方位角はφ、z位置はzであるとする。この場合、点Aの座標は(r、φ、z)と表すことができる。また点Aからz位置が僅かに異なるzに存在する頂点(点B)の座標は(r、φ、z)と表すことができ、点Aから方位角が僅かに異なるφに存在する頂点(点C)の座標は(r、φ、z)と表すことができる。 This point will be specifically described with reference to the drawings. FIG. 3 shows the relationship between the above-described cylindrical coordinates and minute surfaces. In practice, the external auditory canal space has a curved tubular shape, but first, in order to simplify the explanation of the concept, here, the imaging means 1 shown in FIG. 1B has moved along the z-axis ( In the following description, the movement locus of the principal point of the objective optical system 12 coincides with the z axis. In this state, the cylindrical coordinates having the central axis of the movement locus of the principal point of the objective optical system 12 can be expressed as shown in FIG. Here, when it is assumed that the inner surface of the ear canal is discretized based on the cylindrical coordinates and is configured by a plurality of minute surfaces according to the cylindrical coordinates, the minute surface has a certain radius as shown in FIG. It can be shown as a rectangular surface present on the cylindrical surface. In FIG. 3, it is assumed that the minute surface is on a cylindrical surface having a radius r 0 , the azimuth angle of one vertex (point A) on the minute surface is φ 0 , and the z position is z 0 . In this case, the coordinates of the point A can be expressed as (r 0 , φ 0 , z 0 ). The coordinates of the vertex (point B) existing at z 1 whose z position is slightly different from point A can be expressed as (r 0 , φ 0 , z 1 ), and φ 1 whose azimuth is slightly different from point A The coordinates of the vertex (point C) existing in can be expressed as (r 0 , φ 1 , z 0 ).

ここで、図3に示す点A、点B、点Cを通る平面を媒介変数s、sを使って表す場合、パラメータax1、ax2、sx0、ay1、ay2、sy0、az1、az2、sz0を用いると、下記の式(数4)のように表すことができる。 Here, when the planes passing through the points A, B, and C shown in FIG. 3 are expressed using parameters s 1 and s 2 , the parameters a x1 , a x2 , s x0 , a y1 , a y2 , s y0. , A z1 , a z2 , and s z0 can be expressed as the following formula (Equation 4).

Figure 2019150574
Figure 2019150574

また式(数4)を、点A、点B、点Cの座標を用いるとともに、点Aにおいてs=0、s=0、点Bにおいてs=1、s=0、点Cにおいてs=0、s=1として示すと、下記の式(数5)のように表すことができる。 Further, using the coordinates of point A, point B, and point C, Equation (Equation 4) is used, and at point A, s 1 = 0, s 2 = 0, at point B, s 1 = 1, s 2 = 0, point C In the case of s 1 = 0 and s 2 = 1, it can be expressed as the following formula (Formula 5).

Figure 2019150574
Figure 2019150574

そして、上記の式(数5)の連立方程式を解くことで、パラメータax1、ax2、sx0、ay1、ay2、sy0、az1、az2、sz0を求めることができる。 Then, the parameters a x1 , a x2 , s x0 , a y1 , a y2 , s y0 , a z1 , a z2 , s z0 can be obtained by solving the simultaneous equations of the above equation (Equation 5).

次に、撮像素子13と対物光学系12の主点とを結ぶ直線を設定する。本実施形態における撮像素子13は、複数の受光素子13aで構成されており、ここでは、図4(a)に示すように、受光素子13aのそれぞれの中心と対物光学系12の主点を通る直線を設定するものとする。ここで、媒介変数lを使って直線を表す場合、パラメータa、lx0、a、ly0、a、lz0を用いると、下記の式(数6)のように表すことができる。 Next, a straight line connecting the image sensor 13 and the principal point of the objective optical system 12 is set. The imaging element 13 in the present embodiment is composed of a plurality of light receiving elements 13a. Here, as shown in FIG. 4A, each center of the light receiving element 13a and the principal point of the objective optical system 12 are passed. A straight line shall be set. Here, when the straight line is expressed using the parameter l, it can be expressed as the following equation (Equation 6) using the parameters a x , l x0 , a y , l y0 , a z , and l z0. .

Figure 2019150574
Figure 2019150574

また、受光素子13aの中心における座標を(x、y、z)、対物光学系12の主点の座標を(x、y、z)とし、この直線が受光素子13aの中心と対物光学系12の主点を通る場合において、受光素子13aの中心を始点(l=0)、対物光学系12の主点を終点(l=1)と定めると、上記の式(数6)は、下記の式(数7)のように表すことができる。 The coordinates at the center of the light receiving element 13a are (x p , y p , z p ), the coordinates of the principal point of the objective optical system 12 are (x f , y f , z f ). When passing through the center and the principal point of the objective optical system 12, the center of the light receiving element 13a is defined as the start point (l = 0) and the principal point of the objective optical system 12 is defined as the end point (l = 1). 6) can be expressed as the following equation (Formula 7).

Figure 2019150574
Figure 2019150574

そして、上記式(数7)の連立方程式を解くことで、パラメータa、lx0、a、ly0、a、lz0を求めることができ、受光素子13aと対物光学系12の主点を通る直線を定めることができる。 The parameters a x , l x0 , a y , l y0 , a z , and l z0 can be obtained by solving the simultaneous equations of the above formula (Equation 7), and the main elements of the light receiving element 13a and the objective optical system 12 can be obtained. A straight line passing through the points can be defined.

次に、各受光素子と各微小面の対応を決定する。つまり、上述した微小面がこの直線上に存在するか否かを判別する。具体的には、式(数4)で示されるある平面と、式(数6)で示されるある直線との交点を求め、この交点が想定している微小面の内側にあるか否か及び円筒の内側から交わっているかを判別する。すなわち、交点が微小面の内側にあると判別できる場合は微小面が直線上に存在するといえ、外側にあると判別できる場合は直線上に微小面は存在しないといえる。さらに、実際には外耳道は曲がっているので、直線が外耳道内壁と再度交差する場合が想定されるため、直線上に微小面が複数存在しても、撮像手段1に内面が向いている場合のみを考慮する。これにより、撮像手段1で撮影された微小面を特定できる。   Next, the correspondence between each light receiving element and each minute surface is determined. That is, it is determined whether or not the above-described minute surface exists on this straight line. Specifically, an intersection of a certain plane represented by the equation (Equation 4) and a certain straight line represented by the equation (Equation 6) is obtained, and whether or not the intersection is inside the assumed minute surface and Determine if they intersect from the inside of the cylinder. That is, if it can be determined that the intersection is inside the minute surface, it can be said that the minute surface exists on the straight line, and if it can be determined that the intersection is outside, it can be said that the minute surface does not exist on the straight line. Furthermore, since the external auditory canal is actually bent, it is assumed that the straight line intersects the inner wall of the external auditory canal again. Therefore, even when there are a plurality of minute surfaces on the straight line, only when the inner surface faces the imaging means 1. Consider. Thereby, the micro surface image | photographed with the imaging means 1 can be specified.

本実施形態においては、図5に示すように、受光素子13aの中心がz軸上にあるとした状態で、円筒面と直線との交点を算出する。式(数4)と式(数6)により、円筒面と直線との交点は、下記の式(数8)のように表すことができる。   In the present embodiment, as shown in FIG. 5, the intersection of the cylindrical surface and the straight line is calculated in a state where the center of the light receiving element 13a is on the z axis. From the equations (Equation 4) and (Equation 6), the intersection of the cylindrical surface and the straight line can be expressed as the following equation (Equation 8).

Figure 2019150574
Figure 2019150574

ここで、円筒面のパラメータax1、ax2、sx0、ay1、ay2、sy0、az1、az2、sz0は式(数5)により既知であり、直線のパラメータa、lx0、a、ly0、a、lz0は式(数7)により既知であるため、上述した式(数8)は、s、s、lを変数とする3元1次連立方程式であるといえる。従って、s、s、lの値が定まるため、求めたs、sを式(数4)に代入する、又は求めたlを式(数6)に代入することによって、円筒面と直線との交点を導出することができる。なお、円筒面上に存在する微小面からの光が受光素子13aに入射する可能性があるのは、受光素子13aから見て主点より遠い場合、すなわちl>1となる場合である。 Here, the parameters a x1 , a x2 , s x0 , a y1 , a y2 , s y0 , a z1 , a z2 , s z0 of the cylindrical surface are known from the equation (Equation 5), and the linear parameters a x , Since l x0 , a y , l y0 , a z , and l z0 are known from the equation (Equation 7), the equation (Equation 8) described above is a ternary primary with s 1 , s 2 , and l as variables. It can be said that it is a simultaneous equation. Accordingly, since the values of s 1 , s 2 , and l are determined, the cylindrical surface is obtained by substituting the obtained s 1 and s 2 into the equation (Equation 4) or by substituting the obtained l into the equation (Equation 6). And the point of intersection with the straight line. Note that light from a minute surface existing on the cylindrical surface may be incident on the light receiving element 13a when it is far from the principal point when viewed from the light receiving element 13a, that is, when l> 1.

そして、導出した交点(以下、判定点Pと称する)について、これが微小面の内側にあるか否かの判別を行う。図6はその判別方法を示している。本判別方法では、まず、判定点Pと、微小面における隣り合う2つの頂点A、Bに着目する。ここで図6(a)は、判定点Pが微小面の内側にある状態を例示していて、図6(b)は微小面の外側にある状態を例示している。なお、図6(a)、(b)に示すPAベクトルとPBベクトルは、何れも判定点Pを基準とした2点A、Bの相対位置ベクトルとなっており、nは面の法線ベクトルとなっている。また、図6(a)に示したPAベクトルとPBベクトルのなす角度(符号付き角度)θは、次の式(数9)のように表すことができる。ここで、PA・PBは、PAベクトルとPBベクトルの内積であり、PA×PB・nは、PAベクトル、PBベクトルの外積と法線ベクトルnの内積である。なお、図6(b)に示した符号付き角度θ’も、式(数9)と同じ式で表すことができる。 Then, it is determined whether or not the derived intersection point (hereinafter referred to as determination point P) is inside the minute surface. FIG. 6 shows the determination method. In this determination method, attention is first paid to the determination point P and two adjacent vertices A and B on the minute surface. Here, FIG. 6A illustrates a state where the determination point P is inside the minute surface, and FIG. 6B illustrates a state where the determination point P is outside the minute surface. Note that the PA vector and the PB vector shown in FIGS. 6A and 6B are both relative position vectors of two points A and B with reference to the determination point P, and n is a normal vector of the surface. It has become. Further, the angle (signed angle) θ 1 formed by the PA vector and the PB vector shown in FIG. Here, PA · PB is an inner product of the PA vector and the PB vector, and PA × PB · n is an inner product of the outer product of the PA vector and the PB vector and the normal vector n. The signed angle θ 1 ′ shown in FIG. 6B can also be expressed by the same expression as Expression (Equation 9).

Figure 2019150574
Figure 2019150574

そして、この符号付き角度の算出を、微小面の隣り合う頂点の組み合わせ全てに対して行う。ここで、図6(a)に示すように判定点Pが微小面の内側に存在し、かつ撮像手段1から見て微小面の内側の面が撮像手段1側を向いている(内向き)場合は、算出した4つの符号付き角度の総和は理論上2πとなる。また、微小面の外側の面が撮像手段1側を向いている(外向き)場合は、算出した4つの符号付き角度の総和は理論上−2πとなる。一方、図6(b)に示すように判定点Pが微小面の外側に存在する場合は、算出した4つの符号付き角度の総和は理論上0になる。なお、実際に撮像手段1で撮像したデータに基づいて符号付き角度を算出した場合は、誤差等を含んで理論値通りの値が求まらないことがあるため、絶対値がある値(例えばπ)より大きければ判定点Pが微小面の内側に存在するとして判別することもある。次に、判定点Pが内側に存在する微小面が複数ある場合、lが小さい順番(撮像手段1に近い順番)に撮像手段1から見て内向きであるか、外向きであるかを判別する。符号付き角度の総和が負である場合は、外向きと判別され、反射光は受光不可能と判別する。符号付き角度の総和が正である場合は、内向きであると判別し、受光可能であるとする。lが小さい順番にこの判別を繰り返すが、一度外向きと判別された場合は、それ以降は撮像されていないと判別する。   The signed angle is calculated for all combinations of adjacent vertices of the minute surface. Here, as shown in FIG. 6A, the determination point P exists inside the minute surface, and the surface inside the minute surface as viewed from the image pickup means 1 faces the image pickup means 1 side (inward). In this case, the sum of the calculated four signed angles is theoretically 2π. Further, when the outer surface of the minute surface faces the imaging means 1 side (outward), the sum of the calculated four signed angles is theoretically −2π. On the other hand, when the determination point P exists outside the minute surface as shown in FIG. 6B, the total of the four calculated signed angles is theoretically zero. Note that when the signed angle is calculated based on the data actually captured by the imaging unit 1, a value as the theoretical value including an error or the like may not be obtained. If it is larger than π), it may be determined that the determination point P exists inside the minute surface. Next, when there are a plurality of minute surfaces on which the determination point P exists inside, it is determined whether l is inward or outward when viewed from the image capturing unit 1 in the order of decreasing l (the order close to the image capturing unit 1). To do. When the sum of the signed angles is negative, it is determined to be outward and it is determined that the reflected light cannot be received. If the sum of the signed angles is positive, it is determined that it is inward and light can be received. This determination is repeated in ascending order of l, but if it is once determined to be outward, it is determined that no more images have been captured thereafter.

このようにして各微小面に対応する受光素子が決まると、当該2次元画像データの画素値から、各微小面に対応する画素値が決まる。各微小面について、前述の基準データに基づき、取得した画素値が対応する距離lをlとし、当該微小面と主点との距離がlとなるときの管体の半径rを算出する。ここで半径rは、主点軌跡に垂直な管体断面における主点軌跡から内面までの距離となる。すべての抽出された微小面について、半径rを算出する。 When the light receiving element corresponding to each minute surface is determined in this way, the pixel value corresponding to each minute surface is determined from the pixel value of the two-dimensional image data. For each microfacet, based on the above-mentioned reference data, the distance l which acquired pixel value corresponding to the l P, calculating a radius r P of the tubular body when the distance between the micro-surface and the principal point is l P To do. Here radius r P is a distance from the main point trajectory in perpendicular tube cross section principal point trajectory to the inner surface. For all of the extracted micro-area, calculates the radius r P.

全ての2次元画像データについて上記のように各微小面に対応する半径rの算出を行う。各微小面は複数の2次元画像データに撮像されているため、各微小面に対応する半径rは複数算出されることになる。この場合、半径rの平均値を当該微小面の半径rとしても良い。当該微小面の半径rは、各微小面と主点軌跡の距離であるので、微小面を順次つなぐことによって、管体の内側における3次元形状データを構築することができる。 For all of the two-dimensional image data for calculating the radius r P corresponding to each micro surface as described above. Each microfacet because it is captured in a plurality of 2-dimensional image data, the radius r P corresponding to each micro surface will be more calculated. In this case, the average value of the radius r P may radius r P of the fine surface. Radius r P of the micro surface, since the distance of each minute surface and principal point trajectory, by connecting the small surface sequentially, it is possible to construct a three-dimensional shape data inside the tube.

また、微小面が直線上に存在し、かつ受光可能であるか否かを判別した後は、2次元画像データの各画素における画素値を、上述した直線上に存在する微小面のそれぞれからの反射光強度の和であると設定するとともに、この画素値に基づいて、直線上に存在し、かつ受光可能である微小面のそれぞれにおける反射光強度を算出する。例えば、ある画素mでの画素値をvとし、円筒座標における位置nでの円筒面上に存在する微小面からの反射光強度をuとする。ここで、係数amnを使用して、上述した直線上に存在し、かつ受光可能であると判別される微小面については、amn≠0(例えばamn=1)、存在しないと判別される微小面についてはamn=0であるとすると、2次元画像データの各画素における画素値と、直線上に存在する微小面のそれぞれからの反射光強度の和との関係は、以下の式(数10)のように表すことができる。 Further, after determining whether or not the minute surface exists on the straight line and can receive light, the pixel value in each pixel of the two-dimensional image data is obtained from each of the minute surfaces existing on the straight line. The sum of the reflected light intensities is set, and the reflected light intensities on each of the minute surfaces that exist on the straight line and can receive light are calculated based on the pixel values. For example, a pixel value of a certain pixel m and v m, the reflected light intensity from the microscopic surface present on the cylindrical surface at position n in a cylindrical coordinate to u n. Here, using the coefficient a mn , it is determined that a minute surface that exists on the above-described straight line and that can be received is a mn ≠ 0 (for example, a mn = 1) and does not exist. Assuming that a mn = 0, the relationship between the pixel value of each pixel of the two-dimensional image data and the sum of the reflected light intensities from each of the minute surfaces existing on the straight line is It can be expressed as (Equation 10).

Figure 2019150574
Figure 2019150574

そしてこの関係を全ての画素について考えると、以下の式(数11)のような行列で表すことができる。ここで、式(数11)におけるMは、総画素数(取得した複数の2次元画像データにおいて、各2次元画像データが持つ有効画素数を足し合せた数)を示している。ただし、ある撮影において、ある受光素子が受光可能な撮像面がひとつもない場合は、その受光素子は除外する。さらに、すべての撮影において、どの受光素子にも受光されない撮像面も除外する。   When this relationship is considered for all the pixels, it can be expressed by a matrix such as the following equation (Equation 11). Here, M in the equation (Equation 11) indicates the total number of pixels (the number obtained by adding the number of effective pixels of each two-dimensional image data in a plurality of acquired two-dimensional image data). However, if there is no imaging surface that can be received by a certain light receiving element in a certain photographing, the light receiving element is excluded. Further, an imaging surface that is not received by any light receiving element is excluded in all photographing.

Figure 2019150574
Figure 2019150574

ここで、式(数11)におけるv、v、・・・vで構成された行列をv、a11、a12、・・・aMNで構成された行列をA、u、u、・・・uで構成された行列をuとすると、式(数11)は、v=Auのように記載できる。この式は、下記の式(数12)のように変換することができるため、行列uを求めることができる。このように式(数12)に基づいて、未知であった直線上に存在する微小面のそれぞれからの反射光強度を算出することができる。 Here, the matrix composed of v 1 , v 2 ,... V M in the equation (Equation 11) is represented by v, a 11 , a 12 ,... A MN is represented by A, u 1 , If u is a matrix composed of u 2 ,..., u N , equation (Equation 11) can be written as v = Au. Since this equation can be converted as the following equation (Equation 12), the matrix u can be obtained. Thus, based on the equation (Equation 12), the reflected light intensity from each of the minute surfaces existing on the unknown straight line can be calculated.

Figure 2019150574
Figure 2019150574

その後は、上述した直線上に存在する微小面の反射光強度の分布に基づいて実在する前記管体の内側における微小面を推定し、推定した微小面に基づいて管体の内側における3次元形状データを構築する。例えば、この直線上に存在する微小面を受光素子13aからの距離順に並べた場合において、このときの反射光強度の分布が正規分布となる場合は、その極値となる微小面が、実在する管体の内側における微小面であると推定できる。なお、反射強度の分布から微小面を推定する手法は、種々選択可能である。そして推定した微小面を順次つなぐことによって、管体の内側における3次元形状データを構築することができる。   Thereafter, the minute surface inside the tube is estimated based on the distribution of reflected light intensity of the minute surface existing on the straight line, and the three-dimensional shape inside the tube is estimated based on the estimated minute surface. Build data. For example, when the minute surfaces existing on this straight line are arranged in the order of distance from the light receiving element 13a, if the distribution of the reflected light intensity at this time is a normal distribution, the minute surface that is the extreme value actually exists. It can be estimated that it is a minute surface inside the tube. Various methods for estimating the minute surface from the distribution of the reflection intensity can be selected. Then, three-dimensional shape data inside the tubular body can be constructed by sequentially connecting the estimated minute surfaces.

なお、上述した円筒座標は、中心軸が直線上に延在するものであったが、撮像手段1が曲がって移動する(対物光学系12の主点の移動軌跡が曲線になる)場合は、その曲線を中心軸とする曲がり円筒座標に基づいて微小面を設定すればよい。微小面からの反射光の強さは、受光素子13aと対物光学系12の主点を結ぶ直線の方向ベクトルと曲がり円筒座標系の微小面の内向き法線ベクトルとの内積や照明条件によって変わるので、基準データやamnの値はそれに応じて決めてもよい。 In the above-described cylindrical coordinates, the central axis extends on a straight line. However, when the imaging unit 1 is bent and moved (the movement locus of the principal point of the objective optical system 12 is a curve), A minute surface may be set based on the curved cylindrical coordinates with the curve as the central axis. The intensity of the reflected light from the minute surface varies depending on the inner product of the direction vector of the straight line connecting the principal point of the light receiving element 13a and the objective optical system 12 and the inward normal vector of the minute surface of the curved cylindrical coordinate system and the illumination condition. Therefore, the reference data and the value of a mn may be determined accordingly.

また本発明は、上述した外耳道の内側における3次元形状データを作成するものに限定されず、例えば腸など消化管や気道、水道管など、種々の管体の内側形状を再現するものや、それを応用した病態や破損箇所の自動識別の手段としても適用可能である。   Further, the present invention is not limited to the above-described three-dimensional shape data creation inside the external auditory canal. For example, the one that reproduces the inner shape of various tubular bodies such as digestive tract such as intestine, airway, and water pipe, It can also be applied as a means of automatic identification of pathological conditions and damaged parts by applying.

1:撮像手段
2:モーションセンサ
3:コンピュータ
10:オトスコープ
11:ビデオスコープ
11a:先端部
11b:屈曲部
12:対物光学系
13:撮像素子
13a:受光素子
30:2次元画像データ生成手段
31:空間情報取得手段
32:3次元形状データ生成手段

1: imaging means 2: motion sensor 3: computer 10: otoscope 11: video scope 11a: tip portion 11b: bent portion 12: objective optical system 13: imaging element 13a: light receiving element 30: two-dimensional image data generating means 31: Spatial information acquisition means 32: three-dimensional shape data generation means

Claims (8)

管体の内側を移動可能であって該管体の内側を撮像する撮像手段からの信号に基づき複数の2次元画像データを生成するステップと、
前記撮像手段に設置されたモーションセンサからの信号に基づき撮像時における前記撮像手段の空間情報を取得するステップと、
前記2次元画像データと前記空間情報とを関連付けるとともに、該2次元画像データと該空間情報に基づいて、前記管体の内側における3次元形状データを生成するステップと、を有することを特徴とする3次元形状データ作成方法。
Generating a plurality of two-dimensional image data based on a signal from an imaging means that is movable inside the tube and images the inside of the tube;
Obtaining spatial information of the imaging means at the time of imaging based on a signal from a motion sensor installed in the imaging means;
A step of associating the two-dimensional image data with the spatial information, and generating three-dimensional shape data inside the tubular body based on the two-dimensional image data and the spatial information. 3D shape data creation method.
前記撮像手段は、
照明と、対物光学系と、該対物光学系による結像位置に配置されて前記管体の内側からの反射光を受光する撮像素子と、を含み、
前記3次元形状データを生成するステップは、
前記空間情報に基づいて前記撮像手段の移動に伴う前記対物光学系の主点の移動軌跡を算出して、該移動軌跡を中心軸とする円筒座標を設定するとともに、該円筒座標に基づいて前記撮像手段の周囲の空間を離散化して、該周囲の空間が該円筒座標に従う複数の微小面で構成されると設定するステップと、
前記撮像素子の各受光素子と前記主点とを結ぶ直線を設定するステップと、
前記微小面が前記直線上に存在するか否かを判別するステップと、
前記微小面からの反射光が前記撮像素子の各受光素子に入射可能であるか否かを判別するステップと、
前記2次元画像データの各画素における画素値を、前記直線上に存在し、かつ前記各受光素子に入射可能である前記微小面のそれぞれからの反射光強度の和であると設定するとともに、該画素値に基づいて該直線上に存在する該微小面のそれぞれにおける反射光強度を算出するステップと、
前記直線上に存在する前記微小面の反射光強度の分布に基づいて実在する前記管体の内側における微小面を推定し、推定した該微小面に基づいて該管体の内側における3次元形状データを構築するステップと、を含むことを特徴とする請求項1に記載の3次元形状データ作成方法。
The imaging means includes
Illumination, an objective optical system, and an image sensor that receives reflected light from the inside of the tubular body arranged at an image forming position by the objective optical system,
The step of generating the three-dimensional shape data includes:
Based on the spatial information, the movement locus of the principal point of the objective optical system accompanying the movement of the imaging means is calculated, and the cylindrical coordinates with the movement locus as the central axis are set. Discretizing the space around the imaging means and setting the surrounding space to be composed of a plurality of minute surfaces according to the cylindrical coordinates;
Setting a straight line connecting each light receiving element of the image sensor and the principal point;
Determining whether the minute surface is present on the straight line; and
Determining whether reflected light from the minute surface can be incident on each light receiving element of the imaging element;
The pixel value in each pixel of the two-dimensional image data is set to be the sum of the reflected light intensity from each of the minute surfaces that exist on the straight line and can enter the light receiving elements, Calculating a reflected light intensity at each of the minute surfaces existing on the straight line based on a pixel value;
3D shape data inside the tubular body is estimated based on the estimated minute surface by estimating the minute surface inside the tubular body based on the distribution of reflected light intensity of the minute surface existing on the straight line. The method for creating three-dimensional shape data according to claim 1, further comprising:
前記撮像手段は、
照明と、対物光学系と、該対物光学系による結像位置に配置されて前記管体の内側からの反射光を受光する撮像素子と、を含み、
前記3次元形状データを生成するステップは、
予め前記対物光学系の主点と管体内側との距離に応じた画素値に関する基準データを取得するステップと、
前記空間情報に基づいて前記撮像手段の移動に伴う前記対物光学系の主点の移動軌跡を算出して、該移動軌跡を中心軸とする円筒座標を設定するとともに、該円筒座標に従う複数の微小面で構成される所定半径の円筒を設定するステップと、
前記撮像素子の各受光素子と前記主点とを結ぶ直線を設定するステップと、
前記微小面が前記直線上に存在するか否かを判別するステップと、
前記2次元画像データに対応する前記微小面を抽出するステップと、
抽出された前記微小面に対応する画素値から、前記基準データに基づき、該2次元画像データを取得した位置での主点と前記微小面との距離を求めるステップと、
この距離に応じて管体の形状を算出するステップと、を含むことを特徴とする請求項1に記載の3次元形状データ作成方法。
The imaging means includes
Illumination, an objective optical system, and an image sensor that receives reflected light from the inside of the tubular body arranged at an image forming position by the objective optical system,
The step of generating the three-dimensional shape data includes:
Obtaining reference data relating to pixel values according to the distance between the principal point of the objective optical system and the inside of the tube in advance;
Based on the spatial information, a movement trajectory of the principal point of the objective optical system accompanying the movement of the imaging means is calculated, cylindrical coordinates with the movement trajectory as a central axis are set, and a plurality of minute coordinates according to the cylindrical coordinates are set. Setting a cylinder of a predetermined radius composed of faces;
Setting a straight line connecting each light receiving element of the image sensor and the principal point;
Determining whether the minute surface is present on the straight line; and
Extracting the minute surface corresponding to the two-dimensional image data;
Obtaining a distance between the principal point at the position where the two-dimensional image data is acquired and the minute surface from the extracted pixel value corresponding to the minute surface based on the reference data;
The method for generating three-dimensional shape data according to claim 1, further comprising: calculating a shape of the tube according to the distance.
前記モーションセンサによって得られる前記撮像手段の前記空間情報を、他のモーションセンサによって得られる撮像時における前記管体の空間情報に基づいて補正するステップを更に含むことを特徴とする請求項1〜3の何れか一項に記載の3次元形状データ作成方法。   The method further comprises a step of correcting the spatial information of the imaging unit obtained by the motion sensor based on spatial information of the tubular body at the time of imaging obtained by another motion sensor. The three-dimensional shape data creation method according to any one of the above. 管体の内側を移動可能であって該管体の内側を撮像する撮像手段からの信号に基づき複数の2次元画像データを生成する2次元画像データ生成手段と、
前記撮像手段に設置されたモーションセンサからの信号に基づき撮像時における前記撮像手段の空間情報を取得する空間情報取得手段と、
前記2次元画像データと前記空間情報を関連付けるとともに、該2次元画像データと該空間情報に基づいて、前記管体の内側における3次元形状データを生成する3次元形状データ生成手段と、を備えることを特徴とする3次元形状データ作成システム。
Two-dimensional image data generating means that is movable inside the tubular body and that generates a plurality of two-dimensional image data based on a signal from an imaging means that images the inside of the tubular body;
Spatial information acquisition means for acquiring spatial information of the imaging means at the time of imaging based on a signal from a motion sensor installed in the imaging means;
3D shape data generation means for associating the 2D image data with the spatial information and generating 3D shape data inside the tubular body based on the 2D image data and the spatial information. 3D shape data creation system characterized by
前記撮像手段は、
照明と、
前記管体の内側からの反射光が入射する対物光学系を備える先端部と、
該先端部を支持するとともに屈曲可能に設けられる屈曲部と、
前記対物光学系による結像位置に配置されて前記管体の内側からの反射光を受光する撮像素子と、を備え、
前記モーションセンサは、前記先端部に設けられることを特徴とする請求項5に記載の3次元形状データ作成システム。
The imaging means includes
Lighting,
A tip having an objective optical system on which reflected light from the inside of the tubular body is incident;
A bent portion that supports the distal end portion and bendable;
An image sensor that is disposed at an imaging position by the objective optical system and receives reflected light from the inside of the tubular body, and
The three-dimensional shape data creation system according to claim 5, wherein the motion sensor is provided at the tip portion.
予め前記対物光学系の主点と管体内側との距離に応じた画素値に関する基準データを取得し記憶する記憶手段を有し、
前記3次元形状データ生成手段は、前記空間情報に基づいて前記撮像手段の移動に伴う前記対物光学系の主点の移動軌跡を算出して、該移動軌跡を中心軸とする円筒座標を設定するとともに、該円筒座標に従う複数の微小面で構成される所定半径の円筒を設定し、前記撮像素子の各受光素子と前記主点とを結ぶ直線を設定し、前記微小面が前記直線上に存在するか否かを判別し、前記2次元画像データに対応する前記微小面を抽出し、抽出された前記微小面に対応する画素値から、前記基準データに基づき、該2次元画像データを取得した位置での主点と前記微小面との距離を求めることを特徴とする請求項6に記載の3次元形状データ作成システム。
Storage means for acquiring and storing reference data relating to pixel values according to the distance between the principal point of the objective optical system and the inside of the tube in advance;
The three-dimensional shape data generation means calculates a movement locus of the principal point of the objective optical system as the imaging means moves based on the spatial information, and sets cylindrical coordinates with the movement locus as a central axis. In addition, a cylinder having a predetermined radius composed of a plurality of minute surfaces according to the cylindrical coordinates is set, a straight line connecting each light receiving element of the imaging element and the principal point is set, and the minute surface exists on the straight line Determining whether or not to extract the minute surface corresponding to the two-dimensional image data, and obtaining the two-dimensional image data based on the reference data from the extracted pixel value corresponding to the minute surface The three-dimensional shape data creation system according to claim 6, wherein a distance between a principal point at a position and the minute surface is obtained.
前記管体を直接的に又は間接的に保持する保持手段を更に備えることを特徴とする請求項5〜7の何れか一項に記載の3次元形状データ作成システム。

The three-dimensional shape data creation system according to any one of claims 5 to 7, further comprising holding means for directly or indirectly holding the tubular body.

JP2019032814A 2018-03-05 2019-02-26 3D shape data creation system operation method and 3D shape data creation system Active JP7236689B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/288,466 US10878563B2 (en) 2018-03-05 2019-02-28 Three-dimensional shape data production method and three-dimensional shape data production system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018039011 2018-03-05
JP2018039011 2018-03-05

Publications (2)

Publication Number Publication Date
JP2019150574A true JP2019150574A (en) 2019-09-12
JP7236689B2 JP7236689B2 (en) 2023-03-10

Family

ID=67947501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019032814A Active JP7236689B2 (en) 2018-03-05 2019-02-26 3D shape data creation system operation method and 3D shape data creation system

Country Status (1)

Country Link
JP (1) JP7236689B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11954834B2 (en) 2019-09-23 2024-04-09 Boston Scientific Scimed, Inc. System and method for endoscopic video enhancement, quantitation and surgical guidance

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006523124A (en) * 2003-03-11 2006-10-12 シーメンス ヒアリング インストルメンツ インコーポレイテッド A device and a method for determining the three-dimensional geometry and dimensions of a lumen within the device, a method for obtaining a three-dimensional digital representation of at least a portion of an object, and obtaining a relative position of two or more points in space Method
WO2007139187A1 (en) * 2006-05-31 2007-12-06 National University Corporation Chiba University Three-dimensional image forming device, three-dimensional image forming method and program
JP2008194108A (en) * 2007-02-09 2008-08-28 Shiyoufuu:Kk Three-dimensional characteristic measuring and displaying apparatus with positional direction detecting function
JP2013106752A (en) * 2011-11-21 2013-06-06 National Cancer Center Electronic endoscopic system
WO2016136579A1 (en) * 2015-02-25 2016-09-01 テルモ株式会社 Imaging diagnostic device, control method, program, and computer readable storage medium therefor
WO2016164311A1 (en) * 2015-04-06 2016-10-13 Intuitive Surgical Operations, Inc. Systems and methods of registration compensation in image guided surgery

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006523124A (en) * 2003-03-11 2006-10-12 シーメンス ヒアリング インストルメンツ インコーポレイテッド A device and a method for determining the three-dimensional geometry and dimensions of a lumen within the device, a method for obtaining a three-dimensional digital representation of at least a portion of an object, and obtaining a relative position of two or more points in space Method
WO2007139187A1 (en) * 2006-05-31 2007-12-06 National University Corporation Chiba University Three-dimensional image forming device, three-dimensional image forming method and program
JP2008194108A (en) * 2007-02-09 2008-08-28 Shiyoufuu:Kk Three-dimensional characteristic measuring and displaying apparatus with positional direction detecting function
JP2013106752A (en) * 2011-11-21 2013-06-06 National Cancer Center Electronic endoscopic system
WO2016136579A1 (en) * 2015-02-25 2016-09-01 テルモ株式会社 Imaging diagnostic device, control method, program, and computer readable storage medium therefor
WO2016164311A1 (en) * 2015-04-06 2016-10-13 Intuitive Surgical Operations, Inc. Systems and methods of registration compensation in image guided surgery

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11954834B2 (en) 2019-09-23 2024-04-09 Boston Scientific Scimed, Inc. System and method for endoscopic video enhancement, quantitation and surgical guidance

Also Published As

Publication number Publication date
JP7236689B2 (en) 2023-03-10

Similar Documents

Publication Publication Date Title
US20210160471A1 (en) Motion blur compensation
US6445814B2 (en) Three-dimensional information processing apparatus and method
US20180266814A1 (en) Confocal surface topography measurement with fixed focal positions
US20180213207A1 (en) Endoscope employing structured light providing physiological feature size measurement
EP2825087B1 (en) Otoscanner
TWI520576B (en) Method and system for converting 2d images to 3d images and computer-readable medium
KR20140067970A (en) Optical scanning device
JP2014502174A (en) Endoscope with 3D function
CN107249427B (en) Medical device, medical image generation method and medical image generate program
JP2001512241A (en) Scanning apparatus and method
KR20190074841A (en) Optical tracking system and optical tracking method
TWI672937B (en) Apparatus and method for processing three dimensional images
JP5278878B2 (en) Pipe inner surface shape measuring device
WO2019182623A1 (en) Endoscope employing structured light providing physiological feature size measurement
JP7236689B2 (en) 3D shape data creation system operation method and 3D shape data creation system
JP2006258543A (en) Three-dimensional shape detector and three-dimensional shape detection method
JP5487946B2 (en) Camera image correction method, camera apparatus, and coordinate transformation parameter determination apparatus
JP6210483B2 (en) 3D shape acquisition device from stereoscopic endoscope image
US20230284933A1 (en) Portable three-dimensional image measuring device, three-dimensional image measuring method using same, and medical image matching system
JP6646133B2 (en) Image processing device and endoscope
US10878563B2 (en) Three-dimensional shape data production method and three-dimensional shape data production system
JP3897079B2 (en) Parallax image input device and imaging device
JP2000350733A (en) Positioning frame and operation navigating system
CN111870211A (en) Three-dimensional endoscope with instrument pose navigation function and navigation method thereof
JP4003274B2 (en) Distance measuring device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230217

R150 Certificate of patent or registration of utility model

Ref document number: 7236689

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150