JPH0412724A - Measuring endoscope - Google Patents

Measuring endoscope

Info

Publication number
JPH0412724A
JPH0412724A JP2116253A JP11625390A JPH0412724A JP H0412724 A JPH0412724 A JP H0412724A JP 2116253 A JP2116253 A JP 2116253A JP 11625390 A JP11625390 A JP 11625390A JP H0412724 A JPH0412724 A JP H0412724A
Authority
JP
Japan
Prior art keywords
fan
measuring object
image
light
shaped light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2116253A
Other languages
Japanese (ja)
Inventor
Hiroshi Naruse
央 成瀬
Atsushi Ide
井手 敦志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2116253A priority Critical patent/JPH0412724A/en
Publication of JPH0412724A publication Critical patent/JPH0412724A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Abstract

PURPOSE:To execute the detailed three-dimensional position measurement to a measuring object without executing a large scale correlation calculation by sweeping a sector light, processing an image of the sector light projected to the measuring object, and obtaining three-dimensional information of the measuring object. CONSTITUTION:An output signal of an image pickup element 51 being a part of an image pickup device 12 is subjected to processing such as amplification, etc., by a controller 52, sampled and quantized by an A/D converter 53, inputted to a computer 54 and various arithmetic processings are performed. On the other hand, a controller 56 applies a control signal for sweeping a sector light 14 to a sector light projecting device 55 (13), and outputs a signal for showing the sector light projecting direction to a computer 56. In such a state, by varying an intersection angle of the center line of the sector light 14 and a visual line of a camera to the tip side of the scope and sweeping the sector light 14, a measuring object is photographed, and by a trigonometrical survey principle between the sector light position and the image pickup position in an image, three-dimensional information of a measuring object is derived. Accordingly, the three-dimensional information of the measuring object is obtained densely without using a correlation operation between plural images, which necessitates a long processing time and a large-sized computer.

Description

【発明の詳細な説明】[Detailed description of the invention] 【発明の属する技術分野】[Technical field to which the invention pertains]

本発明は医療用内視鏡装置の改良に関するものであり、
詳しくは臓器内部の3次元情報を得ることによりポリー
プなどの病変の大きさ、位置を正確に測定し、診断に役
立てるようにして計測内視鏡に関するものである。
The present invention relates to improvement of a medical endoscope device,
More specifically, the present invention relates to a measuring endoscope that accurately measures the size and position of lesions such as polyps by obtaining three-dimensional information inside an organ, which is useful for diagnosis.

【従来の技術および発明が解決しようとする課題】内視
鏡は、胃、腸、あるいは膀胱などの臓器診断にとって不
可欠なものである。しかし、従来の内視鏡では観察か主
であり、ポリープなどの病変の大きさを正確に計測する
ことが困難であった。 すなわち、2次元平面に投影された測定対象の3次元情
報を医師が勘に基づいて推定しなければならないので、
医師の熟練が必要であったり、測定に医師の個人差が出
てしまい、客観的なデータが得られないという問題があ
った。 そこで、計測機能を付加したいくつかの内視鏡が開発さ
れている。ここでは、従来技術として、このような内視
鏡の2つの代表例について説明し、その問題点を述べる
。 (従来例1) 異なる視点における複数の画像から測定対象の3次元情
報を得る内視鏡 この従来技術の例としては特願昭63−20 ]618
号がある。この従来技術は、異なる視点て撮像した複数
の画像を用いて立体視を行うものである。 この計測方法(ごおける基本原理について第2図を用い
て簡単に説明する。第2図において、01、O2は、対
物レンズの中心位置、C1vC2は、画像面p1.1)
tの中心位置、fはレンズの焦点距離、1は2枚のレン
ズの中心間距離である。、Aは測定対象表面上の計測点
、ZAはC3、O2を含み画像面P、、P、と平行な面
から点Aまでの距離である。 この場合、点Aは画像面pIではa、の位置に、画像面
p、ではa、の位置に写る。したがって、これら2枚の
画像の中心を重ね合わせると、a、は画像面p、上では
a、−の位置に相当する。この2点a、  a、”に三
角測定の原理を適用すると、すなわち、△A O、O、
と△02 a (−a 2の相似関係から、 ZA=  f  −1/c1.       (])と
求めることができる。ただしd、は、a、   a。 間の距離である。一方、△○、c 、a lと△O,H
Aの相似関係から、 xA=e、+ ZA/f     (2)であるので、
式(1)を式(2)に代入すると、xA=e、−1/d
a    (3) と水平位置XAが求められる。ここで、e、はCa1間
の距離である。垂直位置も水平位置の場合と全く同様に
して求めることができる。このように、複数の画像につ
いて対応点を決定すると、式(1)、(3)より計測点
の3次元情報を得ることができ、例えば任意の2点間の
長さなどを求めることができる。 この対応点の決定は、複数の画像について、フーリエ変
換などを用いて最も相関の高い小領域を選び出すことに
よって行われる。そして、選び出された小領域の間隔を
2対対応点間の距離d、をして決定するという方法が用
いられている。縦横数100画像から成る画像に対して
この方法を用いると、相関計算のために長い処理時間を
要するたけでなく、大型コンピュータが必要となるなど
の問題点があった。 この問題を解決するための内視鏡が、特願昭1−145
619で提案されている。この方法は、モニタ上に写し
出された複数(通常は2枚)の画像に対しオペレーダが
計測点を教示することによって、対応決定点のための相
関計算を省略し、上記の欠点を改善するものである。こ
れによって、簡単に指示された計測点の3次元情報を得
ることができる。しかし、詳細な3次元情報を得るため
には、何回もの教示作業が必要であるという問題がある
。また、この方法では1画素単位での正確な教示が不可
欠なので、オペレータへの負担が大きいとともに、教示
にはオペレータの主観が入るために客観的な計測ではな
いという問題がある。 (従来例2) 2次元スポット光パターンを投影して測定対象の3次元
情報を得る内視鏡(この従来技術の例には特願昭63−
240831がある)。 この発明は、図3に示すように、レーザ光源31から出
射されたレーザ光32を透過形ファイバ回折格子33に
入射し、行列状に配列された2次元のスポット光34を
測定対象に投影する。そして、このスポット光パターン
が投影されている画像を撮像する。このスポット光パタ
ーンの画像は、測定対象の形状に応じて、行列状に並ん
だスボ。 ト間隔が変化しているので、画像中のスポット光の位置
を求めることによって測定対象の3次元情報を得ること
ができるというものである。 この計測方法における基本原理について、第4図を用い
て簡単に説明する。第4図においてφ、はh次項のスポ
ットの方向、φゎはh次項のスポットが見える方向であ
る。他のものは第2図と同一の記号を用いている。 第4図より、ZAは ZA= 1 / (t a nθh −t a nφh
)=l/ (e、/f−tanφh)   (4)より
求められる。一方、XAについては得られたZAを式(
2)に代入することにより求められる。 なお、φ、は、 φ、==5 in−’(h2./D)   (5)で求
められる。ここで、λはレーザ光の波長、Dは回折格子
のピッチである。 以上説明したように、この方法は、スポット光投影位置
について計測を行うものである。したがって、測定対象
の粗い3次元情報しか得られない。 すなわち、分解能がスポット光の投影間隔に等しいとい
う問題がある。この結果、例えばポリープの大きさなど
を計測する場合、精度の良い情報を得ることができない
という欠点が生じる。また、この方法においては、計測
すべきスポット光の回折次数を正確に認識して、すなわ
ち正しいφ7を用いて式(4)を計算する必要がある。 したがって、もしこの認識を誤れば、式(4)で算出さ
れるZA大きな誤差を含むことになる。このため、回折
格子を工夫することによって計測の基準となる0次のス
ポット光のみを明るくする方法が考えられている。 (山口ら、G astroenteliongical
 E ndoscopy pp86B−874vol、
 (25) 6.  J un、 1983)しかし、
0次以外のスポット光の鏡面反射や0次のスポット光が
反射率の低い部分に投影されることにより、他の次数の
スポットが0次と誤認識されたり、あるいはある次数の
スポット光が欠落して観測されないなど、次数の認識が
失敗する場合が予想される。 本発明の目的は、大がかりな相関計算をすることなく、
測定対象に対し詳細な3次元位置測定ができる内視鏡を
提供することにある。
BACKGROUND OF THE INVENTION Endoscopes are essential for diagnosis of organs such as the stomach, intestines, or bladder. However, conventional endoscopes mainly rely on observation, making it difficult to accurately measure the size of lesions such as polyps. In other words, the doctor must estimate the three-dimensional information of the measurement object projected onto the two-dimensional plane based on intuition.
There are problems in that it requires the skill of a doctor, individual differences in measurement occur between doctors, and objective data cannot be obtained. Therefore, several endoscopes with additional measurement functions have been developed. Here, two representative examples of such endoscopes will be described as prior art, and their problems will be described. (Conventional Example 1) An endoscope that obtains three-dimensional information of a measurement target from multiple images from different viewpoints.An example of this conventional technology is Japanese Patent Application No. 1983-20]618
There is a number. This conventional technology performs stereoscopic viewing using a plurality of images taken from different viewpoints. The basic principle of this measurement method will be briefly explained using Fig. 2. In Fig. 2, 01 and O2 are the center positions of the objective lens, and C1vC2 is the image plane p1.1.
t is the center position, f is the focal length of the lens, and 1 is the distance between the centers of the two lenses. , A is a measurement point on the surface of the object to be measured, and ZA is the distance from a plane including C3 and O2 and parallel to the image plane P, , P to point A. In this case, point A appears at position a on the image plane pI, and at position a on the image plane p. Therefore, when the centers of these two images are superimposed, a, corresponds to the position of a, - on the image plane p. Applying the principle of trigonometric measurement to these two points a, a,'', △A O, O,
From the similarity relationship of and △02 a (-a 2, ZA= f -1/c1. (]) can be obtained. However, d is the distance between a and a. On the other hand, △○, c, a l and △O, H
From the similarity relationship of A, xA=e, + ZA/f (2), so
Substituting equation (1) into equation (2), xA=e, -1/d
a (3) and the horizontal position XA are found. Here, e is the distance between Ca1. The vertical position can also be determined in exactly the same way as the horizontal position. In this way, when corresponding points are determined for multiple images, three-dimensional information of the measurement points can be obtained from equations (1) and (3), and for example, the length between any two points can be determined. . This determination of corresponding points is performed by selecting a small region with the highest correlation from a plurality of images using Fourier transform or the like. Then, a method is used in which the interval between the selected small areas is determined by calculating the distance d between two pairs of corresponding points. When this method is used for an image consisting of several hundred horizontal and vertical images, there are problems such as not only a long processing time is required for correlation calculation, but also a large-sized computer is required. An endoscope to solve this problem was developed in the patent application filed in 1977-145.
619. This method improves the above drawback by having the operator teach measurement points to multiple (usually two) images displayed on a monitor, thereby omitting the correlation calculation for corresponding determination points. It is. This makes it possible to easily obtain three-dimensional information about the specified measurement point. However, there is a problem in that multiple teaching operations are required to obtain detailed three-dimensional information. In addition, this method requires accurate teaching on a pixel-by-pixel basis, which places a heavy burden on the operator, and there is also the problem that the teaching is not an objective measurement because the operator's subjectivity is involved. (Conventional Example 2) An endoscope that projects a two-dimensional spot light pattern to obtain three-dimensional information on the measurement target (this example of the conventional technology uses a
240831). As shown in FIG. 3, in this invention, a laser beam 32 emitted from a laser light source 31 is incident on a transmission type fiber diffraction grating 33, and two-dimensional spot beams 34 arranged in a matrix are projected onto a measurement target. . Then, an image on which this spot light pattern is projected is captured. The image of this spot light pattern consists of spots arranged in a matrix according to the shape of the object to be measured. Since the interval between the two images changes, three-dimensional information about the object to be measured can be obtained by determining the position of the spot light in the image. The basic principle of this measurement method will be briefly explained using FIG. 4. In FIG. 4, φ is the direction of the h-th order spot, and φゎ is the direction in which the h-th order spot is visible. The same symbols as in FIG. 2 are used for other parts. From Fig. 4, ZA is ZA=1/(tanθh −tanφh
)=l/(e,/f−tanφh) (4). On the other hand, regarding XA, the obtained ZA is expressed by the formula (
It can be found by substituting 2). Note that φ is obtained by φ,==5 in-'(h2./D) (5). Here, λ is the wavelength of the laser beam, and D is the pitch of the diffraction grating. As explained above, this method measures the spot light projection position. Therefore, only coarse three-dimensional information of the measurement target can be obtained. That is, there is a problem that the resolution is equal to the projection interval of the spotlight. As a result, when measuring the size of a polyp, for example, there is a drawback that accurate information cannot be obtained. Furthermore, in this method, it is necessary to accurately recognize the diffraction order of the spot light to be measured, that is, to calculate equation (4) using the correct φ7. Therefore, if this recognition is incorrect, ZA calculated by equation (4) will include a large error. For this reason, a method has been considered in which the diffraction grating is modified to brighten only the zero-order spot light, which serves as the reference for measurement. (Yamaguchi et al., Gastroentelionical
Endoscopy pp86B-874vol,
(25) 6. Jun, 1983) However,
Due to specular reflection of non-zero-order spot light or zero-order spot light being projected onto areas with low reflectance, spots of other orders may be mistakenly recognized as zero-order, or spot light of a certain order may be missing. It is expected that recognition of the order will fail, such as not being observed. The purpose of the present invention is to
An object of the present invention is to provide an endoscope that can perform detailed three-dimensional position measurement of a measurement target.

【課題を解決するための手段】[Means to solve the problem]

本発明は、細いビーム光を出射する手段と、出射された
細いビーム光を扇形光に変換する手段と、扇形光の中心
線がカメラの視軸と交わり、この交わりの角度を変化さ
せて測定対象に投影する扇形光を掃引する手段から成る
扇形投影手段と、測定対象および投影された腰元を撮像
する撮像手段とをスコープ先端側に備え、 前記撮像手
段によって得られた、測定対象上に投影されたスリ・ノ
ド光の画像上の位置に基づいて測定対象の3次元情報を
求める画像処理手段を有する構成としてなるものである
The present invention provides a means for emitting a narrow beam of light, a means for converting the emitted narrow beam of light into a fan-shaped light, and a center line of the fan-shaped light intersects with the visual axis of the camera, and measurement is performed by changing the angle of this intersection. The distal end of the scope is equipped with a fan-shaped projection means consisting of a means for sweeping fan-shaped light projected onto the object, and an imaging means for taking an image of the measurement object and the projected waist, and a fan-shaped projection means configured to sweep the fan-shaped light projected onto the object, and an imaging means for taking an image of the measurement object and the projected waist. The apparatus has an image processing means for obtaining three-dimensional information of the measurement target based on the position of the projected pickpocket light on the image.

【作用】[Effect]

上記構成によれば、スコープ先端側に扇形光の中心線と
カメラの視軸との交わり角を変化させて扇形光を掃引す
ることにより測定対象を撮像し、撮像した画像内の゛扇
形光位置と撮像位置との間に三角測量の原理を適用して
測定対象の3次元情報を求めることができる。
According to the above configuration, the object to be measured is imaged by sweeping the fan-shaped light by changing the intersection angle between the center line of the fan-shaped light and the visual axis of the camera on the distal end side of the scope, and the position of the fan-shaped light in the captured image is The three-dimensional information of the measurement target can be obtained by applying the principle of triangulation between the camera and the imaging position.

【実施例】【Example】

以下、図面を参照して本発明を具体的に説明する。 第1図、第5図、第6図、第7図は本発明の詳細な説明
するための図である。第1図は測定内視鏡スコープ先端
部の概観図であり、側視内視鏡の例を示している。11
は本体、12は対物レンズ、撮像素子などから成る撮像
装置、13は扇形光投影装置、14は投影された扇形光
、15は照明装置である。ただし、各瞬間に投影される
扇形光は、1本でありこれが掃引される。14は、これ
を重ね書きしたものである。 第5図はブロック図を示したものである。第1図12の
一部であるCCDなどの撮像素子51の出力信号は、コ
ントローラ52で増幅などの処理を受け、A/D (ア
ナログ/ディジタル)変換器53によって標本化、量子
化され、計算機54に入力される。この計算機によって
、後述の種々の演算処理が施される。一方、コントロー
ラ56は、扇形光投影装置55に第1図符号14で示し
たような掃引を行うためのフントロール信号を与工、計
算機54には扇形光投影方向を示す信号を出力する。 第6図、第7図は、扇形光投影装置を構成する細いビー
ムを出射する手段と、このビーム光を扇形光に変換する
手段と、扇形光を掃引する手段とを示したものである。 第6図は扇形光中心線とカメラ視軸のつくる平面で切っ
た断面図、第7図はその平面に垂直な方向の断面図であ
る。両図において、61は計測用の光を伝送するための
ファイバ、62はこの光を扇形光に変換するためのレン
ズで、このレンズによって、掃引方向に絞られた扇形光
63ができる。扇形光63は回転ミラー64によって反
射され、この回転によって扇形光65が掃引され、測定
対象に投影される。6日は第1図11で示したスコープ
本体である。回転軸67は、歯車66を介して回転ミラ
ー64に回転運動を与える。これによって回転ミラーは
回転し、扇形光は掃引される。回転軸67は、スコープ
内部、あるいは手元に装着したモータによって駆動され
る。 以上説明した実施例を用いて、測定対象上に投影された
扇形光の画像上の位置から測定対象の3次元情報を求め
る画像処理手段について説明する。 第8図は計測原理を説明するための図であり、回転ミラ
ーは回転中心Rのまわりで回転する。この中心Rに扇形
光は入射し掃引される。第8図において点Aは扇形売上
の任意の一点であり、計算は扇形光を構成する全点につ
いて同様に行う。第2図と同様の簡単な幾何学計算によ
って、ZAは、6°  tanφ と求められる。 ZAが求められると、水平位置XAは a xA=     ZA               
    (7)で計算される。垂直位置についても、e
、の代わりに光軸と垂直方向の扇形光の位置を用いるこ
とによって、式(7)と同様に得ることかできる。 式(6)において、l、s、fについては予め計測して
おき、φはモータの回転角と歯車比から得る。 なお、撮像時間間隔に対してφを小さくすることによっ
て測定対象の詳細な3次元情報を得ることができる。 以上の測定原理に基づく画像処理手段の実施例について
説明する。 第9図は実施例のフローチャートである。 ステップ101 撮像 撮像装置によって扇形光が投影された計測対象が撮像さ
れる。撮像された画像は前述したようにコントローラ、
A/D変換器を介して計算機の画像メモリに記憶される
。画像メモリに記憶された扇形光画像を第10図に示す
。画像は、x、y方向とも数100個の画素に標本化さ
れ、明るさも100〜数100階調に量子化されている
。 ステップ102:扇形光投影方向入力 扇形光投影位置の3次元位置の計算に必要な扇形光投影
方向を第5図に示したコントローラ56から計算機54
へ入力する。 ステップ103:扇形光位置検出 第10図に示した画像中の扇形光の位置を検出する。第
10図では、扇形光の広がり方向の標本点であるV座標
ごとに、U座標e6を検出する。 ここでU座標はX座標と、■座標はX座標と平行である
。通常、扇形光は絞られた方向についても複数画素に分
布する。このためその中心位置である最も明るい画素の
座標を扇形光の位置として用いる。特に高精度な計測が
要求される場合には、例えば特願昭60−244051
号に示されたような方法を用いて扇形光位置を正確に決
定すればよい。 ステップ104・3次元位置測定 ステップ102で得た扇形光投影方向φとステ、プ10
3で検出した扇形光位置を式(6)に代入して、距離Z
Aを算出する。次いで式(7)より水平位置XAを算出
する。垂直位置は、式(7)において、e6の代わりに
v、、を代入することによって得られる。 以上のステップ101〜104を扇形光が全画面を掃引
するまで繰り返す。なお、ステップ101〜103を繰
り返し、扇形光位置を全てメモリに記憶しておき、最後
に一括してステップ104を処理しても良い。
Hereinafter, the present invention will be specifically explained with reference to the drawings. FIG. 1, FIG. 5, FIG. 6, and FIG. 7 are diagrams for explaining the present invention in detail. FIG. 1 is a general view of the distal end of a measuring endoscope, and shows an example of a side-viewing endoscope. 11
12 is a main body, 12 is an imaging device including an objective lens, an image sensor, etc., 13 is a fan-shaped light projection device, 14 is a projected fan-shaped light, and 15 is an illumination device. However, only one fan-shaped light is projected at each moment, and this fan-shaped light is swept. 14 is an overwritten version of this. FIG. 5 shows a block diagram. The output signal of an image sensor 51 such as a CCD, which is a part of FIG. 54. This computer performs various calculation processes described below. On the other hand, the controller 56 provides a fan troll signal to the fan-shaped light projection device 55 to perform a sweep as indicated by reference numeral 14 in FIG. 1, and outputs a signal indicating the fan-shaped light projection direction to the computer 54. FIGS. 6 and 7 show means for emitting a narrow beam, means for converting this beam into fan-shaped light, and means for sweeping the fan-shaped light, which constitute the fan-shaped light projection device. FIG. 6 is a sectional view taken along a plane defined by the center line of the fan-shaped light and the camera viewing axis, and FIG. 7 is a sectional view taken in a direction perpendicular to the plane. In both figures, 61 is a fiber for transmitting measurement light, and 62 is a lens for converting this light into fan-shaped light. This lens creates fan-shaped light 63 focused in the sweeping direction. The fan-shaped light 63 is reflected by a rotating mirror 64, and due to this rotation, the fan-shaped light 65 is swept and projected onto the measurement target. The 6th is the scope body shown in FIG. 11. The rotating shaft 67 provides rotational movement to the rotating mirror 64 via the gear 66 . This causes the rotating mirror to rotate and the fan-shaped light to be swept. The rotating shaft 67 is driven by a motor mounted inside the scope or at hand. Using the embodiment described above, an image processing means for obtaining three-dimensional information of the measurement object from the position on the image of the fan-shaped light projected onto the measurement object will be explained. FIG. 8 is a diagram for explaining the measurement principle, in which the rotating mirror rotates around the rotation center R. The fan-shaped light enters the center R and is swept. In FIG. 8, point A is an arbitrary point on the fan-shaped sales, and calculations are performed in the same way for all points forming the fan-shaped light. By simple geometrical calculations similar to those shown in FIG. 2, ZA is determined to be 6° tanφ. When ZA is determined, the horizontal position XA is a xA= ZA
Calculated in (7). Regarding the vertical position, e
By using the position of the fan-shaped light in the direction perpendicular to the optical axis instead of , it can be obtained similarly to equation (7). In equation (6), l, s, and f are measured in advance, and φ is obtained from the rotation angle and gear ratio of the motor. Note that detailed three-dimensional information of the measurement target can be obtained by making φ smaller than the imaging time interval. An embodiment of the image processing means based on the above measurement principle will be described. FIG. 9 is a flowchart of the embodiment. Step 101: The imaging device images the measurement target onto which the fan-shaped light is projected. As mentioned above, the captured image is sent to the controller,
The image is stored in the computer's image memory via an A/D converter. The fan-shaped light image stored in the image memory is shown in FIG. The image is sampled into several hundred pixels in both the x and y directions, and the brightness is quantized into 100 to several 100 gradations. Step 102: Fan-shaped light projection direction input The fan-shaped light projection direction necessary for calculating the three-dimensional position of the fan-shaped light projection position is input from the controller 56 to the calculator 54 shown in FIG.
Enter. Step 103: Detecting the position of the fan-shaped light The position of the fan-shaped light in the image shown in FIG. 10 is detected. In FIG. 10, a U coordinate e6 is detected for each V coordinate, which is a sample point in the spreading direction of the fan-shaped light. Here, the U coordinate is parallel to the X coordinate, and the ■ coordinate is parallel to the X coordinate. Normally, fan-shaped light is distributed over multiple pixels even in the focused direction. Therefore, the coordinates of the brightest pixel, which is the center position, is used as the position of the fan-shaped light. In particular, when highly accurate measurement is required, for example, Japanese Patent Application No. 60-244051
The fan-shaped light position can be accurately determined using the method shown in the above issue. Step 104 - Three-dimensional position measurement The fan-shaped light projection direction φ obtained in step 102 and Step 10
Substituting the fan-shaped light position detected in step 3 into equation (6), the distance Z
Calculate A. Next, the horizontal position XA is calculated using equation (7). The vertical position is obtained by substituting v, , in place of e6 in equation (7). The above steps 101 to 104 are repeated until the fan-shaped light sweeps the entire screen. Note that steps 101 to 103 may be repeated, all fan-shaped light positions may be stored in memory, and finally step 104 may be processed all at once.

【発明の効果】【Effect of the invention】

以上発明したように、本発明の計測内視鏡は、扇形光を
掃引し、測定対象に投影された扇形光の画像を処理する
ことによって測定対象の3次元情報を得るものである。 したがって、従来の計測内視鏡と比較し、長い処理時間
や大型コンピュータを必要とする複数の画像間の相関演
算を用いることなく、しかも、測定対象の3次元情報を
密に得ることができる利点がある。この結果、臓器診断
に重要であるポリープなどの病変の大きさ、形状を正確
に得ることが可能となる。
As described above, the measurement endoscope of the present invention obtains three-dimensional information of the measurement target by sweeping the fan-shaped light and processing the image of the fan-shaped light projected onto the measurement target. Therefore, compared to conventional measurement endoscopes, it has the advantage of being able to obtain detailed three-dimensional information about the measurement target without using correlation calculations between multiple images that require long processing times and large computers. There is. As a result, it becomes possible to accurately obtain the size and shape of lesions such as polyps, which are important for organ diagnosis.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明の計測内視鏡スコープ先端部の概観を
示した図、 第2図は異なる視点における複数に画像から測定対象の
3次元情報を得る従来の内視鏡の計測原理を説明するた
めの図、 第3図、第4図は2次元スポット光パターンを投影して
測定対象の3次元情報を得る従来の内視鏡について説明
するための図であり、第3図は2次元スポット光パター
ンを投影する装置を、第4図は計測原理を説明するため
の図、 第5図は本発明のブロック図、 第6図、第7図は本発明の計測内視鏡、スフーブ先端部
に取り付けられる扇形光投影装置を示した図であり、第
6図は側面図、第7図は正面図、第8図は本発明の計測
内視鏡の計測原理を説明するための図、 第9図は撮像された画像から計測対象の3次元情報を得
るためのフローチャートを示した図、第1o図は、画像
メモリに記憶された扇形光を撮像した画像の例を示した
図である。 11・・・内視鏡本体、12・・・・対物レンズ、撮像
素子などからなる撮像装置、13 ・扇形光投影装置、
14・・・・扇形光、15・・・・照明装置、61・・
・・・計測用の光を伝送するためのファイバ 62・・
・・・扇形光に変換するためのレンズ、63扇形光、6
4・−・回転ミラー 65・・・掃引される扇形光、6
6・・・歯車、67・・・・回転軸、68・・・・内視
鏡本体。 第1図 第3図 第2図 第4図 第5図 第7図 第9図 第8図 座標
Figure 1 shows an overview of the distal end of the measuring endoscope of the present invention. Figure 2 shows the measurement principle of a conventional endoscope that obtains three-dimensional information of a measurement target from multiple images from different viewpoints. Diagrams for explaining, Figures 3 and 4 are diagrams for explaining a conventional endoscope that projects a two-dimensional spot light pattern to obtain three-dimensional information of a measurement target. Fig. 4 is a diagram for explaining the measurement principle; Fig. 5 is a block diagram of the present invention; Figs. 6 and 7 are the measurement endoscope and Shubbu of the present invention. FIG. 6 is a side view, FIG. 7 is a front view, and FIG. 8 is a diagram for explaining the measurement principle of the measurement endoscope of the present invention. , Fig. 9 is a flowchart for obtaining three-dimensional information of a measurement target from a captured image, and Fig. 1o is a diagram showing an example of an image obtained by capturing a fan-shaped light stored in an image memory. be. 11... Endoscope main body, 12... Imaging device consisting of an objective lens, image sensor, etc., 13 - Fan-shaped light projection device,
14... Fan-shaped light, 15... Lighting device, 61...
...Fiber for transmitting light for measurement 62...
... Lens for converting into fan-shaped light, 63 Fan-shaped light, 6
4... Rotating mirror 65... Swept fan-shaped light, 6
6... Gear, 67... Rotating shaft, 68... Endoscope body. Figure 1 Figure 3 Figure 2 Figure 4 Figure 5 Figure 7 Figure 9 Figure 8 Coordinates

Claims (1)

【特許請求の範囲】 細いビーム光を出射する手段と、出射された細いビーム
光を扇形光に変換する手段と、扇形光の中心線が、カメ
ラの視軸と交わり、この交わりの角度を変化させて測定
対象に投影する扇形光を掃引する手段から成る扇形投影
手段と、測定対象および投影された扇光を撮像する撮像
手段とをスコープ先端側に備え、 前記撮像手段によって得られた、測定対象上に投影され
たスリット光の画像上の位置に基づいて測定対象の3次
元情報を求める画像処理手段を有することを特徴とする
計測内視鏡。
[Claims] Means for emitting a narrow beam of light, means for converting the emitted narrow beam of light into a fan-shaped light, a center line of the fan-shaped light intersects with the visual axis of the camera, and the angle of this intersection is changed. a fan-shaped projection means comprising a means for sweeping a fan-shaped light projected onto a measuring object; and an imaging means for taking an image of the measuring object and the projected fan light at the distal end of the scope; A measurement endoscope comprising an image processing means for obtaining three-dimensional information of a measurement target based on a position on an image of a slit light projected onto the target.
JP2116253A 1990-05-02 1990-05-02 Measuring endoscope Pending JPH0412724A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2116253A JPH0412724A (en) 1990-05-02 1990-05-02 Measuring endoscope

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2116253A JPH0412724A (en) 1990-05-02 1990-05-02 Measuring endoscope

Publications (1)

Publication Number Publication Date
JPH0412724A true JPH0412724A (en) 1992-01-17

Family

ID=14682551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2116253A Pending JPH0412724A (en) 1990-05-02 1990-05-02 Measuring endoscope

Country Status (1)

Country Link
JP (1) JPH0412724A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0642914A (en) * 1992-07-24 1994-02-18 Canon Inc Displacement measuring apparatus
JP2013502939A (en) * 2009-08-27 2013-01-31 ナヴィスウィス エージー Endoscope and how to use the endoscope
US10054428B2 (en) 2011-09-30 2018-08-21 Olympus Corporation Inner surface shape measurement device, detection head, and endoscope device
WO2019017018A1 (en) 2017-07-18 2019-01-24 富士フイルム株式会社 Endoscope device and measurement support method
WO2019017019A1 (en) 2017-07-18 2019-01-24 富士フイルム株式会社 Endoscope device and measurement assistance method
EP3571976A1 (en) 2018-04-20 2019-11-27 Fujifilm Corporation Endoscope apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0642914A (en) * 1992-07-24 1994-02-18 Canon Inc Displacement measuring apparatus
JP2013502939A (en) * 2009-08-27 2013-01-31 ナヴィスウィス エージー Endoscope and how to use the endoscope
US10054428B2 (en) 2011-09-30 2018-08-21 Olympus Corporation Inner surface shape measurement device, detection head, and endoscope device
WO2019017018A1 (en) 2017-07-18 2019-01-24 富士フイルム株式会社 Endoscope device and measurement support method
WO2019017019A1 (en) 2017-07-18 2019-01-24 富士フイルム株式会社 Endoscope device and measurement assistance method
JPWO2019017019A1 (en) * 2017-07-18 2020-04-09 富士フイルム株式会社 Endoscope apparatus and measurement support method
JPWO2019017018A1 (en) * 2017-07-18 2020-04-09 富士フイルム株式会社 Endoscope apparatus and measurement support method
US11160438B2 (en) 2017-07-18 2021-11-02 Fujifilm Corporation Endoscope device and measurement support method
EP3571976A1 (en) 2018-04-20 2019-11-27 Fujifilm Corporation Endoscope apparatus

Similar Documents

Publication Publication Date Title
US11246689B2 (en) Intraoral scanning system with registration warnings
JP6355710B2 (en) Non-contact optical three-dimensional measuring device
JP3347385B2 (en) Endoscope image processing device
JP4885584B2 (en) Rangefinder calibration method and apparatus
JPH03102202A (en) Testing method of objective part by photographing means
JP2016516993A (en) Three-dimensional coordinate scanner and operation method
JP6968568B2 (en) Shape measurement system and shape measurement method
JP2001523827A (en) Three-dimensional imaging by triangulation using dual-wavelength light
US11857153B2 (en) Systems and methods for multi-modal sensing of depth in vision systems for automated surgical robots
US11727635B2 (en) Hybrid photogrammetry
JPH0412724A (en) Measuring endoscope
JP2002318344A (en) Method and device for autofocusing for optical equipment
JPS63246716A (en) Method for taking-in of endoscope image
JPH01209415A (en) Endoscope device with measuring function
CN107835931B (en) Method for monitoring linear dimension of three-dimensional entity
EP3590408B1 (en) Endoscope apparatus
US20230032791A1 (en) Measuring method and a measuring device
US20230217003A1 (en) Stereo camera calibration using screen based target projections
WO2022272002A1 (en) Systems and methods for time of flight imaging
JP2021149081A (en) Microscope imaging stitching device and method thereof
JP3052427B2 (en) Optical processing equipment
JPH11264722A (en) Three-dimensional measuring device
WO2017064746A1 (en) Imaging device, endoscopic device and imaging method
JPH11211470A (en) Distance measuring equipment
JPH0432702A (en) Distance measuring instrument