JPH01209415A - Endoscope device with measuring function - Google Patents

Endoscope device with measuring function

Info

Publication number
JPH01209415A
JPH01209415A JP63032662A JP3266288A JPH01209415A JP H01209415 A JPH01209415 A JP H01209415A JP 63032662 A JP63032662 A JP 63032662A JP 3266288 A JP3266288 A JP 3266288A JP H01209415 A JPH01209415 A JP H01209415A
Authority
JP
Japan
Prior art keywords
points
light
pattern
coordinate values
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63032662A
Other languages
Japanese (ja)
Other versions
JPH07104491B2 (en
Inventor
Satoshi Saito
智 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP63032662A priority Critical patent/JPH07104491B2/en
Publication of JPH01209415A publication Critical patent/JPH01209415A/en
Publication of JPH07104491B2 publication Critical patent/JPH07104491B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Endoscopes (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

PURPOSE:To facilitate the three-dimensional measurement of an object to be measured which utilizes an endoscope by indicating coordinates of one or plural optional points on the surface of the object to be measured on a screen and obtaining array information. CONSTITUTION:A projecting means 2 projects projection light which has a two-dimensional regular pattern on the object in an object of observation from the tip part of a scope 3, a pattern projection image obtained by picking up the reflected light of the light projected on the object is displayed by a specifying means 10, and one or plural optional points are specified on the projection image to calculate their coordinate values. Further, the array information on the pattern corresponding to the one or plural specified points is obtained and an arithmetic means 16 calculates at least three-dimensional coordinate values regarding the one or plural points from the array information on those points and the coordinate values of the points specified by the specifying means 10 on the projection image. Consequently, three-dimensional measurement information on the unevenness of the object surface is easily obtained.

Description

【発明の詳細な説明】 [発明の目的コ (産業上の利用分野) この発明は二次元の規則的なパターン光を照射して撮像
し、パターンの歪みから被写体の凹凸等を非接触に計測
する計測機能付き内視鏡装置に関する。
[Detailed Description of the Invention] [Purpose of the Invention (Industrial Application Field) This invention captures an image by irradiating it with a two-dimensional regular pattern of light, and non-contactly measures the unevenness of the subject from the distortion of the pattern. The present invention relates to an endoscope device with a measurement function.

(従来の技術) 一般に内視鏡装置は、生体あるいは機械装置等の観察対
象体の内部(以下、体腔内等と称す)に内視鏡スコープ
を導入し、このスコープの先端部に設けた光学撮像系に
より体腔内等の被写体を撮像し観察するのに利用されて
いる。
(Prior art) Generally, an endoscope device is an endoscope that is introduced into the inside of an object to be observed such as a living body or a mechanical device (hereinafter referred to as the inside of a body cavity), and an optical device installed at the tip of the scope. An imaging system is used to image and observe a subject such as inside a body cavity.

この内視鏡にレーザスポットアレイや変形格子等の二次
元の規則的なパターン光を被写体に投射する手段を設け
、撮像した画像における前記パターンの歪みを計測して
被写体表面各部分の三次元的な位置情報を求め、凹凸等
の形状情報を得る計測機能を持つ内視鏡装置がある。
This endoscope is equipped with a means for projecting a two-dimensional regular pattern of light, such as a laser spot array or a deformed grid, onto the subject, and the distortion of the pattern in the captured image is measured to create a three-dimensional image of each part of the subject's surface. There is an endoscope device that has a measurement function that obtains positional information and shape information such as unevenness.

二次元の規則的なパターン光を得る方法の一例を第8図
に示す0例えば直径的20μm程の透過型グラスファイ
バ26a、27aを並列に一層に隙間なく並べた数mm
角程度の2枚のシート26.27を各層のファイバが互
いに直交するように貼合せた回折格子23を用いる。こ
の回折格子23に、第9図に示すようにレーザ光源のオ
シレータ28から発したレーザ光29を垂直入射するこ
とにより、そあ前方に正方格子状の輝点アレイ(以下、
スポット光と称す)25を発生させることができる。
An example of a method for obtaining two-dimensional regular pattern light is shown in FIG.
A diffraction grating 23 is used, which is made by laminating two sheets 26 and 27 of approximately square shape so that the fibers of each layer are orthogonal to each other. As shown in FIG. 9, a laser beam 29 emitted from an oscillator 28 of a laser light source is perpendicularly incident on this diffraction grating 23, so that a square lattice-shaped bright spot array (hereinafter referred to as
(referred to as spot light) 25 can be generated.

このようなパターン光発生手段を用いて、第6図および
第7図に示すように、内視鏡スコープ先端部21から被
写体24にスポット光25を投射し、視差Paをもって
撮像部(例えば固体撮像素子:CCD)22により撮影
する。
Using such a pattern light generating means, as shown in FIGS. 6 and 7, a spot light 25 is projected from the endoscope tip 21 onto the subject 24, and the spot light 25 is projected onto the subject 24 with the parallax Pa. Photographs are taken using an element (CCD) 22.

なお、実際には撮像素子22の直前に対物レンズ等の光
学系が配されているが、ここでは説明を簡易にするため
図示省略し、撮像素子22と一体として説明する。また
第6図において、内視鏡スコープ先端部21には、図示
しない照明用ライトガイドおよび照射レンズを嵌めた照
明孔、送気・送水孔、吸引孔を兼ねた鉗子孔等を備えて
いる。
Note that, although an optical system such as an objective lens is actually arranged just in front of the image sensor 22, it is omitted from illustration here to simplify the explanation, and will be described as one with the image sensor 22. Further, in FIG. 6, the endoscope tip 21 is provided with an illumination light guide (not shown), an illumination hole in which an irradiation lens is fitted, an air/water supply hole, a forceps hole that also serves as a suction hole, and the like.

回折格子23と、この回折格子に内視鏡本体内のパター
ン投射光源としてのレーザ光源オシレータ等からの投射
光を導光するライトガイド34とは、上記鉗子孔および
その通路を利用してスコープ先端部21まで導入しても
よいし、あるいは別途に専用に設けてもよい。
The diffraction grating 23 and the light guide 34, which guides projected light from a laser light source oscillator or the like as a pattern projection light source inside the endoscope body, are connected to the diffraction grating 23 and the light guide 34, which guides the projected light from a laser light source oscillator or the like as a pattern projection light source inside the endoscope body to the diffraction grating 23. It may be introduced up to the section 21, or it may be provided separately for exclusive use.

第5図はこのようにして被写体24にスポット光25を
投射して撮像した画像の一例である。
FIG. 5 is an example of an image captured by projecting the spotlight 25 onto the subject 24 in this manner.

このようなスポット光の他にも、規則的なパターン光と
して縦縞状パターンを発生して被写体に投射してもよい
、第4図は縦縞状パターン光により撮像した画像の一例
である。
In addition to such spot light, a vertical striped pattern may be generated as regular patterned light and projected onto the subject. FIG. 4 is an example of an image captured using the vertically striped patterned light.

゛被写体に凹凸があると、前記の視差Paにより撮像画
像のパターンに歪みが生じる。この歪みの度合いを計測
することにより被写体表面の各点の三次元位置を算出す
ることができる。この算出時の原理については後述する
゛If the subject has irregularities, the pattern of the captured image will be distorted due to the parallax Pa. By measuring the degree of this distortion, the three-dimensional position of each point on the surface of the subject can be calculated. The principle of this calculation will be described later.

(発明が解決しようとする課題) ところが、上述したようなパターンの歪みを自動的に検
出するためには、投影したパターンと撮影画像上のパタ
ーンとの各点の対応を正しく認識する必要がある。
(Problem to be solved by the invention) However, in order to automatically detect pattern distortion as described above, it is necessary to correctly recognize the correspondence between each point of the projected pattern and the pattern on the photographed image. .

上述のようにパターン光投射部(回折格子23)と撮像
部(レンズ等を含む撮像素子22)との間の視差Paに
より、画像上のパターン光の歪みが生じるが、この歪み
は、視差Paと平行な方向(第5図の左右方向)にのみ
現れる。
As described above, distortion of the pattern light on the image occurs due to the parallax Pa between the pattern light projection section (diffraction grating 23) and the imaging section (imaging element 22 including a lens etc.), but this distortion is caused by the parallax Pa. It appears only in the direction parallel to (the left-right direction in Fig. 5).

パターン上の各スポットを判別するのに、視差Paと垂
直な方向(第5図の上下方向)において同系列にあるス
ポット列を、例えば同じ次数あるいは同次項と呼称する
In determining each spot on the pattern, spot rows that are in the same series in the direction perpendicular to the parallax Pa (vertical direction in FIG. 5) are called, for example, the same order or homogeneous term.

そして丁度中心にあるスポット列を0次項とし、第5図
の右方向に順次+1次項、+2次項、・・・、また第5
図の左方向に一1次項、−2次項、・・・と命名して区
分する。
Then, the spot row at the exact center is taken as the 0th order term, and the +1st order term, +2nd order term, etc. are sequentially added to the right side of Fig. 5, and the 5th order term.
They are named and divided into linear terms, -quadratic terms, . . . in the left direction of the figure.

このとき、どの次数の項もほぼ同じ光量で投射すると、
撮像画像を0と1との値のみを持つ二値データ化してパ
ターンを検出するとき、どの次数のパターンも略同じ大
きさとなり、次数の判別が困難になる。このため次数の
判別が容易になるように、従来は特定の次数のスポット
列、例えば0次項についてのみ、′他の次数のスポット
光よりも大きな光量で強調投射するような方法が採られ
ていた。
At this time, if terms of any order are projected with approximately the same amount of light,
When detecting a pattern by converting a captured image into binary data having only values of 0 and 1, patterns of any order have approximately the same size, making it difficult to distinguish the order. For this reason, in order to make it easier to distinguish between orders, conventionally a method has been adopted in which only the spot array of a specific order, for example, the 0th order term, is projected with a larger light intensity than the spot lights of other orders. .

しかしながら、被写体表面は当然ながら平坦ではなく、
凹凸や遠近等があり、また人体内部の臓器であれば粘膜
の濡れなどがあるように表面の状態も撮影に好適とは限
らない、このため二値化処理によるパターンの検出の際
に、強調した0次項の撮像パターンにしみ出しなどが生
じ、隣接する+1次項のパターンとの分離が困難になる
ような場合も発生する。また、同一の光源から発した光
を0次項により多くの光量を配分するようにして投射す
るため、周辺の多次項の光量が不足気味となり、スポッ
トの検出抜けが生じる場合などもある。さらに上記検出
の際には、二値化された画像データに対し、1の値を持
つデータ領域について退縮を行ない細線化して中心点等
の抽出を行なうなどの複雑な画像処理が必要である。
However, the surface of the subject is naturally not flat;
Surface conditions are not always suitable for photographing, such as unevenness, distance, etc., and wet mucous membranes in the case of internal organs of the human body.For this reason, when detecting patterns using binarization processing, emphasis is placed on In some cases, the imaged pattern of the zero-order term may ooze out, making it difficult to separate it from the adjacent pattern of the +1-order term. Furthermore, since the light emitted from the same light source is projected such that a larger amount of light is distributed to the 0th-order term, the amount of light in the surrounding multi-order terms may be insufficient, and a spot may not be detected. Further, in the above detection, complex image processing is required for the binarized image data, such as performing regression on a data region having a value of 1, thinning the line, and extracting the center point.

このように、画像上の各点の対応を正しく認識するため
には極度に複雑かつ困難な処理を伴うことになる。また
こうした複雑かつ困難な処理を実行するには当然長時間
を要することにもなる。
As described above, extremely complicated and difficult processing is required to correctly recognize the correspondence between points on an image. Furthermore, it naturally takes a long time to execute such complicated and difficult processing.

この発明は、このような従来の事情に鑑みこれを解決す
べき課題とするものであり、撮像画像上のパターンの中
心点等の抽出などの複雑な画像処理を行なわなくとも、
容易かつ迅速に、被写体上の望む部位の少なくとも三次
元位置情報を計算することができ、これを元にした複数
点間の距離・高さなどの情報を得ることが可能な計測機
能付き内視鏡装置を提供することを発明の目的とするも
のである。
The present invention aims to solve this problem in view of the conventional circumstances, and it is an object of the present invention to solve this problem without performing complex image processing such as extracting the center point of a pattern on a captured image.
An endoscope with a measurement function that can easily and quickly calculate at least three-dimensional position information of a desired part of the subject, and based on this information, can obtain information such as distance and height between multiple points. An object of the invention is to provide a mirror device.

[発明の構成] (課題を解決するための手段) このような目的を達成するために、この発明に係る計測
機能付き内視鏡装置では、観察対象体の内部に導入し、
被写体を撮像するスコープの先端部から二次元の規則的
なパターンを持つ照射光を被写体に投射する投射手段と
、この投射手段により被写体に投射された光の反射光を
撮像して得たパターン投影画像を表示し、この投影画像
上の任意の1点ないし複数点の指定を受付けてその座標
値を算出する指定手段と、この指定手段により指定され
た1点ないし複数点の各々に対応する前記パターン上の
配列情報を得、この各点の配列情報と前記指定手段によ
り指定された各点の前記投影画像上の座標値とから、こ
の1点ないし複数点に関する少なくとも三次元座標値を
算出する演算手段と、を備えたことを特徴とするもので
ある。
[Structure of the Invention] (Means for Solving the Problems) In order to achieve such an object, the endoscope device with a measurement function according to the present invention includes
A projection means for projecting illumination light having a two-dimensional regular pattern onto the object from the tip of a scope for imaging the object, and a pattern projection obtained by imaging the reflected light of the light projected onto the object by the projection means. a designating means for displaying an image, accepting designation of one or more arbitrary points on the projected image and calculating the coordinate values thereof; Obtain array information on the pattern, and calculate at least three-dimensional coordinate values regarding the one or more points from the array information of each point and the coordinate values of each point designated by the designation means on the projected image. The present invention is characterized by comprising a calculation means.

(作用) 。(effect).

上述したような各構成手段を備える計測機能付き内視鏡
装置によれば、投射手段により観察対象体内部の被写体
に対してスコープの先端部から二次元の規則的なパター
ンを持つ照射光を投射し、この被写体に投射された光の
反射光を撮像して得たパターン投影画像を指定手段によ
って表示するとともに、この投影画像上の任意の1点な
いし複数点の指定を受付けてその座標値を算出する。ま
た、前記指定された1点ないし複数点の各々に対応する
前記パターン上の配列情報を得、この各点の配列情報と
前記指定手段により指定された各点の前記投影画像上の
座標値とから、演算手段によって、1点ないし複数点に
関する少なくとも三次元座標値が算出される。
According to the endoscope device with a measurement function that includes each of the configuration means described above, the projection means projects illumination light having a two-dimensional regular pattern from the distal end of the scope to the subject inside the observation object. The designation means displays a pattern projection image obtained by capturing the reflected light of the light projected onto the object, and also accepts designation of one or more arbitrary points on this projection image and calculates the coordinate values thereof. calculate. Further, array information on the pattern corresponding to each of the designated one or more points is obtained, and the array information of each point and the coordinate value of each point designated by the designation means on the projected image are obtained. From this, at least three-dimensional coordinate values regarding one or more points are calculated by the calculation means.

こうして算出された各点の三次元座標値を元に、複数点
間の距離や高低差などを容易に求め、表示することも可
能にすることができる。
Based on the three-dimensional coordinate values of each point calculated in this way, it is also possible to easily determine and display distances, elevation differences, etc. between multiple points.

このようにして、簡易に被写体表面の凹凸等の計測情報
が得られるようになる。こうして、上述の課題を解決す
ることが可能になる。
In this way, measurement information such as irregularities on the surface of the subject can be easily obtained. In this way, it becomes possible to solve the above-mentioned problems.

(実施例) 第1図は、この発明に係る一実施例の計測機能付き内視
鏡装置の要部の構成を示すブロック図である。この一実
施例装置においては、第2図に示したような投影パター
ンの撮影画像上で2つの点を指定し、その2点間の距離
および高低差を求めて表示するように為されている。
(Embodiment) FIG. 1 is a block diagram showing the configuration of a main part of an endoscope apparatus with a measurement function according to an embodiment of the present invention. In the device of this embodiment, two points are designated on a photographed image of a projection pattern as shown in FIG. 2, and the distance and height difference between the two points are determined and displayed. .

第1図において、通常の内視鏡照射光源1の他に、二次
元の規則的なパターンを持つ照射光を発生させるための
光源であるパターン投射光源2が設けられている。パタ
ーン投射光源2としては、例えば特定の波長の°レーザ
光を発するオシレータ等により構成することができる。
In FIG. 1, in addition to a normal endoscope irradiation light source 1, a pattern projection light source 2, which is a light source for generating irradiation light having a two-dimensional regular pattern, is provided. The pattern projection light source 2 can be configured by, for example, an oscillator that emits a laser beam of a specific wavelength.

また、通常の内視鏡装置の本体部構成要素である、カメ
ラコントロールユニット(以下、CCUと略称する)4
、デコーダ5、A/D6、フレームメモリ7、D/A8
、およびモニタ9の他に、撮影画像上の点の指定、配列
情報の入力、演算およびその結果の表示等を行なうため
の各部が設けられている。
In addition, a camera control unit (hereinafter abbreviated as CCU) 4, which is a component of the main body of a normal endoscope device.
, decoder 5, A/D6, frame memory 7, D/A8
, and the monitor 9, various units are provided for specifying points on the photographed image, inputting array information, calculations, and displaying the results.

すなわち、モニタ9に表示された第2図のような投影パ
ターンの撮影画像上で2つの点を指定するためのポイン
ティングデバイスであるマウス10がある。また、その
2点の配列情報である。スポットの次数をキー人力する
場合等に使用するキーボード11がある。さらに、同図
において符号12ないし17を付した各処理部がある。
That is, there is a mouse 10 which is a pointing device for specifying two points on a photographed image of a projection pattern as shown in FIG. 2 displayed on a monitor 9. Also, this is the array information for those two points. There is a keyboard 11 used for inputting the order of the spot manually. Furthermore, there are processing units numbered 12 to 17 in the figure.

また、第6図は内視鏡スコープの先端部の要部の構成例
を示した図である。この例ではスコープの長手方向に対
し垂直な方向の被写体を観察する側視型のスコープを示
している。
Further, FIG. 6 is a diagram showing an example of the configuration of the main parts of the distal end portion of the endoscope. This example shows a side-view scope that observes a subject in a direction perpendicular to the longitudinal direction of the scope.

第1図のパターン投射光源2から発された、例えば特定
の波長のレーザ光は、第6図のライトガイド34の一端
に導入され、スコープ先端部21まで導光されてスコー
プ先端部21のライトガイド34の他端から回折格子2
3に向けて放射される。そして回折格子23を通過し、
二次元の規則的なパターン光(スポット光)25となっ
て被写体24に投射される。このとき回折格子23に放
射するレーザ光の当て方を工夫することにより、0次項
だけを他の次数の各項よりも強調したスポット光25を
得ることも可能である。
Laser light of a specific wavelength, for example, emitted from the pattern projection light source 2 shown in FIG. 1 is introduced into one end of the light guide 34 shown in FIG. Diffraction grating 2 from the other end of guide 34
It is radiated towards 3. Then, it passes through the diffraction grating 23,
The light becomes a two-dimensional regular pattern light (spot light) 25 and is projected onto the subject 24. At this time, by devising the method of applying the laser light to the diffraction grating 23, it is possible to obtain a spot light 25 in which only the 0th order term is emphasized more than each term of other orders.

被写体24に投射されたスポット光25は被写体24の
表面部分で乱反射され、その反射光かり示しない光学系
を介して撮像素子22に受光され撮像される。撮像素子
22にて撮像されたスポット光25による被写体の画像
は、図示しない信号線により内視鏡本体に送られる。
The spot light 25 projected onto the subject 24 is diffusely reflected on the surface of the subject 24, and is received by the image sensor 22 through an optical system that does not show the reflected light and is imaged. An image of the subject captured by the spotlight 25 by the image sensor 22 is sent to the endoscope body via a signal line (not shown).

なお、スコープ先端部21には、この他に図示しない、
第1図の内視鏡照射光源1からの照明光を導光する照明
用ライトガイドや、送気・送水孔、吸引孔、鉗子孔等が
゛ある。
Note that the scope tip 21 includes other parts not shown in the figure.
There are an illumination light guide for guiding illumination light from the endoscope irradiation light source 1 shown in FIG. 1, air/water supply holes, suction holes, forceps holes, etc.

撮像素子22に入射して撮像され、図示しない信号線に
より内視鏡本体に送られた被写体の画像信号は、第1図
のカメラコントロールユニット(CCU)4に送られる
。CCU4ではこの画像信号を信号処理し、例えばアナ
ログ映像信号の輝度信号Eyと2つの色差信号(Ey−
Er)および(Ey−Eb)として、デコーダ5に出力
する。
An image signal of the subject that is incident on the image sensor 22, captured, and sent to the endoscope body via a signal line (not shown) is sent to the camera control unit (CCU) 4 shown in FIG. The CCU 4 processes this image signal and converts it into, for example, a luminance signal Ey of an analog video signal and two color difference signals (Ey-
Er) and (Ey-Eb) are output to the decoder 5.

デコーダ5では、上記アナログ映像信号を、例えばR〈
赤)、G(緑)、B(青)のカラー信号に分離・再編す
る。そしてA/D6にてデジタル信号に変換された後、
R,G、Bそれぞれのフレームメモリ7に格納される。
The decoder 5 converts the analog video signal into, for example, R<
Separate and reorganize into color signals of red), G (green), and B (blue). After being converted into a digital signal by A/D6,
The images are stored in the R, G, and B frame memories 7, respectively.

フレームメモリ7に格納されたカラー映像情報は、D/
A8にて再びアナログ信号化され、モニタ9に表示され
る。
The color video information stored in the frame memory 7 is
The signal is converted into an analog signal again at A8 and displayed on the monitor 9.

第2図は、この一実施例における投影パターンの撮影画
像の例を示した図であり、第3図は、回倒の装置におけ
る照射系および撮像系等の光学配置を示した図である。
FIG. 2 is a diagram showing an example of a captured image of a projection pattern in this embodiment, and FIG. 3 is a diagram showing an optical arrangement of an irradiation system, an imaging system, etc. in the rotation device.

第2図に示したようなスポット光の撮影画面上での任意
のスポットの中心点く撮影点と称す)の座標と、この点
に対応する被写体表面の実際の点く対応点と称す)の3
次元座標値との関係について説明する。第3図において
、U−V平面で示される撮影画面上での撮影点の座標を
(U、V)、レンズ20を座標中心としたXYZ座標空
間における対応点の3次元座標を(x、y、z)とする
と: z=d/(tanθ1 +tanθ2)−・・・■x=
u−z/1  ・・・・・・・・・・・・・・・・・・
・・・ψ■y=v−2/l ・・・・・・・・・・・・
・・・・・・・・・・■で表わされる。ここで、lは対
物レンズ20と撮像素子22間の距離(即ち視差Pa)
である、また、θ2はレンズ20から見た対応点のZ軸
との角度で;   − θ2=tan−璽(u/l)・・・・・・・・・・・・
・・■により求められる。θ1はパターン光(スポット
光)の投影される方向で、パターン光の次数りにより; θ1 = sin’  (h・λ/D)  ・・・・・
・・・・・■(但し、λ:レーザ光波長、D=回折格子
間隔)と表わされる。
The coordinates of the center point of an arbitrary spot on the photographing screen of the spotlight as shown in Figure 2 (referred to as the photographing point) and the actual corresponding point on the surface of the subject corresponding to this point 3
The relationship with dimensional coordinate values will be explained. In FIG. 3, the coordinates of the shooting point on the shooting screen indicated by the UV plane are (U, V), and the three-dimensional coordinates of the corresponding point in the XYZ coordinate space centered on the lens 20 are (x, y , z): z=d/(tanθ1 +tanθ2)−・・・■x=
u-z/1 ・・・・・・・・・・・・・・・・・・
・・・ψ■y=v−2/l ・・・・・・・・・・・・
・・・・・・・・・・Represented by ■. Here, l is the distance between the objective lens 20 and the image sensor 22 (that is, the parallax Pa)
, and θ2 is the angle between the corresponding point and the Z axis as seen from the lens 20;
...It is determined by ■. θ1 is the direction in which the pattern light (spot light) is projected, depending on the order of the pattern light; θ1 = sin' (h・λ/D) ...
....■ (where λ: laser light wavelength, D=diffraction grating spacing).

従って、三次元計測を行なう場合には、各パターン光の
中心点の撮影画面上での座標(u、v)およびその点の
次数りが認識されれば、三次元座標値を算出することが
できる。
Therefore, when performing three-dimensional measurement, if the coordinates (u, v) of the center point of each pattern light on the photographing screen and the order of that point are recognized, the three-dimensional coordinate values can be calculated. can.

ところが、このような処理を自動的に行なうには、撮影
画像からのパターンの正確な抽出やその次数の対応付は
等、困難かつ複雑な処理が必要であり、当然ながら処理
時間も長くかかる。
However, automatically performing such processing requires difficult and complicated processing such as accurate extraction of patterns from photographed images and correspondence of their orders, and of course requires a long processing time.

そのため、この発明においては、被写体画像上の任意の
1点ないし複数点についてのみ、その画像上の座標およ
び対応する次数をマウスやキーボード等を利用して指定
・入力することにより、上記抽出等の複雑な処理に要す
る時間を節約し、簡易かつ迅速に望む点の、少なくとも
三次元座標値を算出できるようにしたものである。
Therefore, in the present invention, the above-mentioned extraction etc. can be performed by specifying and inputting the coordinates and the corresponding order on the image of one or more arbitrary points on the subject image using a mouse, keyboard, etc. This saves the time required for complicated processing and allows at least the three-dimensional coordinate values of a desired point to be calculated simply and quickly.

さらに、この一実施例装置にあっては、任意の2点につ
いて上記座標および次数を指定・入力することにより、
この2点の各三次元座標値を算出し、これらの値から2
点間の距離と高低差を求めて表示するように構成してい
る。このような構成とすることにより、最も要求頻度の
高い、被写体表面の任意の2点間の距離と高低差が簡単
に即時に得られるようになる。
Furthermore, in this embodiment device, by specifying and inputting the above coordinates and orders for any two points,
Calculate each three-dimensional coordinate value of these two points, and calculate 2 from these values.
It is configured to calculate and display the distance and height difference between points. With this configuration, the distance and height difference between any two points on the surface of the subject, which are most frequently requested, can be easily and instantly obtained.

例えば、計測対象の被写体にパターン光を投影し、観察
しているときに、表示画面上に第2図のようなパターン
光分布が得られたとする。そして第2図上の2点A、B
間の距離と高低差を測定したいとした場合に、先ずマウ
ス10を用いて図示しない画面上のカーソルを動かし、
モニタ9の画面上で2点A、Bを措定する。
For example, suppose that a patterned light distribution as shown in FIG. 2 is obtained on the display screen when patterned light is projected onto an object to be measured and observed. And the two points A and B on Figure 2
If you want to measure the distance and height difference between the two, first move the cursor on the screen (not shown) using the mouse
Two points A and B are set on the screen of the monitor 9.

第1図において、「2点A、Bの座標指定」12はマウ
ス10の移動に応じ、モニタ9の画面上のカーソルを追
従・移動させる。そして、マウス10により2点A、B
が指定されると、「2点A、Bの座標指定」12にてそ
れぞれの画面上の座標が読取られ、ru、V、θ2の算
出」14に送られる。ru、V、θ2の算出」14では
、2点A、Bそれぞれについて、上記画面上の座標から
撮像素子22上の座標u’、 vと、角度θ2が、上述
の式■等に従って算出される。
In FIG. 1, "coordinate designation of two points A and B" 12 causes the cursor on the screen of the monitor 9 to follow and move according to the movement of the mouse 10. Then, use the mouse 10 to make two points A and B.
When specified, the coordinates on each screen are read in ``Specify coordinates of two points A and B'' 12 and sent to ``Calculate ru, V, θ2'' 14. In "Calculation of ru, V, θ2" 14, the coordinates u', v on the image sensor 22 and the angle θ2 are calculated from the coordinates on the screen for each of the two points A and B according to the above-mentioned formula (■), etc. .

一方、2点A、Bそれぞれについての次数が、観察者に
より目で見て判断され、各次数の値がキーボード11よ
り入力される1例えば、第2図の場合であれば、点Aが
+2次、点Bが一2次となる。そして「2点A、Bの次
数入力」13にてその入力値が受取られ、「θ1の算出
」15に送られる。「θ1の算出」15では、この次数
の値から角度θ1が上述の式■により算出される。
On the other hand, the order of each of the two points A and B is determined visually by the observer, and the value of each order is input from the keyboard 11.For example, in the case of FIG. 2, point A is +2 Next, point B becomes quadratic. Then, the input value is received at the "order input of two points A and B" 13 and sent to the "calculation of θ1" 15. In "Calculation of θ1" 15, the angle θ1 is calculated from the value of this order using the above-mentioned formula (2).

こうして得られた座標u、vと角度θ2および角度θ1
の値を元に、上述の式■〜■に従って、「2点A、Bの
x、y、zK出」16により2点A、Bの三次元座標値
x、y、zが各々算出される。
Coordinates u, v and angle θ2 and angle θ1 obtained in this way
Based on the values of , the three-dimensional coordinate values x, y, and z of the two points A and B are calculated by the "x, y, and zK outputs of the two points A and B" 16 according to the above formulas ■ to ■. .

この2点A、Bの三次元座標値x、y、zから2点間の
距離および高低差が「高低差、距離の算出」17におい
て計算される。さらに「高低差、距離の算出」17にお
いて数値情報あるいは認識し易い図形に編集される。こ
うして形成された認識容易な表示画像が、フレームメモ
リ7に保持される原画像とともに、モニタ9に表示され
る。
From the three-dimensional coordinate values x, y, and z of these two points A and B, the distance and height difference between the two points are calculated in "Calculation of height difference and distance" 17. Further, in "Calculation of height difference and distance" 17, the information is edited into numerical information or easily recognizable figures. The easily recognizable display image thus formed is displayed on the monitor 9 together with the original image held in the frame memory 7.

こうして、観察対象の体腔内等の被写体表面上の2点間
の高低差や距離の情報が簡便に計測されるようになる。
In this way, information on the height difference and distance between two points on the surface of a subject such as the inside of a body cavity to be observed can be easily measured.

もちろん、このようにして2点間の高低差と距離だけを
求めるようにするのではなく、1点の指定・次数入力だ
けでも、上述の式■〜■によりその三次元座標を算出す
ることも可能である。また複数の点を同時に指定・入力
して、その各三次元座標値の算出・表示や、各点の間の
距離等の情報を求め、数値や図形により表示するように
構成してもよい。
Of course, instead of just finding the height difference and distance between two points in this way, you can also calculate the three-dimensional coordinates by specifying one point and inputting the order using the above formulas. It is possible. Alternatively, it may be configured such that a plurality of points are specified and input at the same time, and the three-dimensional coordinate values of each point are calculated and displayed, and information such as the distance between each point is obtained and displayed using numerical values or figures.

なお、この発明は上述の実施例構成に限定されるもので
はなく、例えば第4図に示したような縦縞状の投影パタ
ーンなどについても適用することができる。その場合の
点の指定および次数の入力方法は上述の実施例と全く同
じでもよい。
Note that the present invention is not limited to the configuration of the above-described embodiment, and can also be applied to, for example, a vertical striped projection pattern as shown in FIG. In that case, the method of specifying points and inputting the order may be exactly the same as in the above embodiment.

また、二次元の規則的なパターンの投射光を実現する方
法も、上述したような透過型グラスファイバを並列に一
層に並べたシートを縦横に重ねた構造の回折格子を利用
する方法だけでなく、例えば変形格子等の別の方法によ
ることも勿論可能である。
In addition, the method of realizing a two-dimensional regular pattern of projected light is not limited to the method described above, which uses a diffraction grating structure in which sheets of transmissive glass fibers are arranged in parallel in a single layer are stacked vertically and horizontally. Of course, it is also possible to use other methods such as, for example, a deformed grid.

[発明の効果] 以上詳細に説明したように、この発明に係る計!機能付
き内視鏡装置によれば、計測対象の被写体表面上の任意
の1点ないし複数点について、その画面上での座標を指
示し、かつ配置情報を得るようにしたため、パターンの
抽出や配置情報の検出のための困難かつ複雑な長時間を
要する処理を省略することができる。従って、計測対象
の任意の1点ないし複数点についての、少なくとも次元
座標値が簡便かつ迅速に算出されるようになり、望む情
報が容易に即時に得られるようになるという効果が得ら
れる。こうして内視鏡を利用した被写体の三次元計測が
非常に簡便に行なえるようになり、内視鏡診療の効率を
高めることが可能になる。
[Effects of the Invention] As explained in detail above, the invention has the following advantages: According to the endoscopic device with this function, it is possible to specify the coordinates on the screen of any one or more points on the surface of the subject to be measured, and to obtain the arrangement information, making it easy to extract patterns and arrange them. Difficult, complicated, and time-consuming processing for detecting information can be omitted. Therefore, at least the dimensional coordinate values of any one or more points of the measurement target can be calculated easily and quickly, and desired information can be easily and immediately obtained. In this way, three-dimensional measurement of a subject using an endoscope can be performed very easily, making it possible to improve the efficiency of endoscopic medical treatment.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明に係る一実施例の計測機能付き内視鏡
装置の要部ブロック図、第2図は一実施例における投影
パターンの撮影画像例の説明図、第3図は一実施例装置
における照射系および撮像系等の光学配置を示した図、
第4図は縦縞状パターンの投射光による撮影画像例を示
す図、第5図はスポット光による撮影画像例を示す図、
第6図および第7図は内視鏡スコープ先端部と被写体と
の関係図、第8図および第9図はファイバ回折格子の構
造とスポット光の発生状態との説明図である。 1・・・光源 2・・・パターン投射光源 3・・・ス
コープ 4・・・カメラコントロールユニット 5・・
・デコーダ 6・・・A/D  7・・・フレームメモ
リ 8・・・D/A  9・・・モニタ 10・・・マ
ウス 11・・・キーボード 12・・・2点A、Bの
座標指定 13・・・2点A、Bの次数人力 14・・
・U、V、θ2の算出15・・・θ1の算出 16・・
・2点A、BのX、Y。
FIG. 1 is a block diagram of essential parts of an endoscope device with a measurement function according to an embodiment of the present invention, FIG. 2 is an explanatory diagram of an example of a photographed image of a projection pattern in an embodiment, and FIG. 3 is an embodiment of the present invention. A diagram showing the optical arrangement of the irradiation system, imaging system, etc. in the device,
FIG. 4 is a diagram showing an example of an image taken with a vertical striped pattern of projected light; FIG. 5 is a diagram showing an example of an image taken with spot light;
FIGS. 6 and 7 are diagrams of the relationship between the tip of the endoscope and the subject, and FIGS. 8 and 9 are diagrams illustrating the structure of the fiber diffraction grating and the state of spot light generation. 1... Light source 2... Pattern projection light source 3... Scope 4... Camera control unit 5...
・Decoder 6...A/D 7...Frame memory 8...D/A 9...Monitor 10...Mouse 11...Keyboard 12...Coordinate specification of two points A and B 13 ...order human power of 2 points A and B 14...
・Calculation of U, V, θ2 15...Calculation of θ1 16...
・X and Y of 2 points A and B.

Claims (1)

【特許請求の範囲】[Claims] (1)観察対象体の内部にスコープを導入して被写体を
撮像する内視鏡装置において、 二次元の規則的なパターンを持つ照射光を被写体に投射
する投射手段と、 この投射手段により被写体に投射された光の反射光を撮
像して得たパターン投影画像を表示し、この投影画像上
の任意の1点ないし複数点の指定を受付けてその座標値
を算出する指定手段と、この指定手段により指定された
1点ないし複数点の各々に対応する前記パターン上の配
列情報を得、 この各点の配列情報と前記指定手段により指定された各
点の前記投影画像上の座標値とから、この1点ないし複
数点に関する、少なくとも三次元座標値を算出する演算
手段と、 を備えたことを特徴とする計測機能付き内視鏡装置。
(1) In an endoscope device that images a subject by introducing a scope into the object to be observed, a projection means for projecting illumination light having a two-dimensional regular pattern onto the subject; A designation means for displaying a pattern projection image obtained by capturing reflected light of the projected light, accepting designation of one or more arbitrary points on the projection image, and calculating coordinate values thereof; and this designation means Obtaining array information on the pattern corresponding to each of the one or more points specified by, and from this array information of each point and the coordinate values of each point specified by the specifying means on the projected image, An endoscope device with a measurement function, comprising: arithmetic means for calculating at least three-dimensional coordinate values regarding the one or more points.
JP63032662A 1988-02-17 1988-02-17 Endoscope with measuring function Expired - Lifetime JPH07104491B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63032662A JPH07104491B2 (en) 1988-02-17 1988-02-17 Endoscope with measuring function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63032662A JPH07104491B2 (en) 1988-02-17 1988-02-17 Endoscope with measuring function

Publications (2)

Publication Number Publication Date
JPH01209415A true JPH01209415A (en) 1989-08-23
JPH07104491B2 JPH07104491B2 (en) 1995-11-13

Family

ID=12365074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63032662A Expired - Lifetime JPH07104491B2 (en) 1988-02-17 1988-02-17 Endoscope with measuring function

Country Status (1)

Country Link
JP (1) JPH07104491B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012242364A (en) * 2011-05-24 2012-12-10 Olympus Corp Endoscopic device and measurement method
JP2016193144A (en) * 2015-04-01 2016-11-17 オリンパス株式会社 Endoscope system and measurement method
US9622644B2 (en) 2011-05-24 2017-04-18 Olympus Corporation Endoscope
US10342459B2 (en) 2011-04-27 2019-07-09 Olympus Corporation Endoscope apparatus and measuring method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10342459B2 (en) 2011-04-27 2019-07-09 Olympus Corporation Endoscope apparatus and measuring method
US10898110B2 (en) 2011-04-27 2021-01-26 Olympus Corporation Endoscope apparatus and measuring method
JP2012242364A (en) * 2011-05-24 2012-12-10 Olympus Corp Endoscopic device and measurement method
US9581802B2 (en) 2011-05-24 2017-02-28 Olympus Corporation Endoscope device, and measurement method
US9622644B2 (en) 2011-05-24 2017-04-18 Olympus Corporation Endoscope
US10368721B2 (en) 2011-05-24 2019-08-06 Olympus Corporation Endoscope
JP2016193144A (en) * 2015-04-01 2016-11-17 オリンパス株式会社 Endoscope system and measurement method

Also Published As

Publication number Publication date
JPH07104491B2 (en) 1995-11-13

Similar Documents

Publication Publication Date Title
US11723758B2 (en) Intraoral scanning system with visual indicators that facilitate scanning
CN102402799B (en) Object classification for measured three-dimensional object scenes
CN102397113B (en) For the data acquisition method of three-dimensional imaging
JP6454489B2 (en) Observation system
JPH0695009B2 (en) Method of inspecting target part by imaging means
JP2009204991A (en) Compound-eye imaging apparatus
CN107249427A (en) Medical treatment device, medical image generation method and medical image generation program
JP3446272B2 (en) Endoscope with measurement function
JP6706026B2 (en) Endoscope system and operating method of endoscope apparatus
JP6210483B2 (en) 3D shape acquisition device from stereoscopic endoscope image
JP6738465B2 (en) Endoscope system
EP3737285B1 (en) Endoscopic non-contact measurement device
JPH01209415A (en) Endoscope device with measuring function
JPH0285706A (en) Measurable endoscope
JPS5970908A (en) Distance measuring apparatus of endoscope
JP7402252B2 (en) Endoscope device, its operating method, and program for endoscope device
JP2005287900A (en) Endoscope
JPH0412724A (en) Measuring endoscope
JPH01209416A (en) Measuring endoscope device
JPS63242232A (en) Measuring endoscopic apparatus
JPH02297515A (en) Stereoscopic electronic endoscope
JPH01200214A (en) Measuring endoscope device
JP6335839B2 (en) Medical device, medical image generation method, and medical image generation program
JPH0552533A (en) Endoscope apparatus for three-dimensional measurement
Sakamoto et al. Development of A Three-Dimensional Shape Measurement System Using A Phase-Shift Method