JPH0547812B2 - - Google Patents

Info

Publication number
JPH0547812B2
JPH0547812B2 JP63032663A JP3266388A JPH0547812B2 JP H0547812 B2 JPH0547812 B2 JP H0547812B2 JP 63032663 A JP63032663 A JP 63032663A JP 3266388 A JP3266388 A JP 3266388A JP H0547812 B2 JPH0547812 B2 JP H0547812B2
Authority
JP
Japan
Prior art keywords
pattern
light
image
level
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63032663A
Other languages
Japanese (ja)
Other versions
JPH01209416A (en
Inventor
Satoshi Saito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Tokyo Shibaura Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Shibaura Electric Co Ltd filed Critical Tokyo Shibaura Electric Co Ltd
Priority to JP63032663A priority Critical patent/JPH01209416A/en
Publication of JPH01209416A publication Critical patent/JPH01209416A/en
Publication of JPH0547812B2 publication Critical patent/JPH0547812B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Endoscopes (AREA)

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) この発明は二次元の規則的なパターン光を照射
して撮像し、パターンの歪みから被写体の凹凸等
の形状情報を非接触に計測する計測内視鏡装置に
関する。
[Detailed Description of the Invention] [Objective of the Invention] (Industrial Application Field) This invention captures an image by irradiating it with a two-dimensional regular pattern of light, and extracts shape information such as unevenness of the subject from the distortion of the pattern. This invention relates to a measuring endoscope device that measures by contact.

(従来の技術) 一般に内視鏡装置は、生体腔内や機械装置内部
等(以下、体腔内等と称す)にスコープを導入
し、このスコープの先端部に設けた光学撮像系に
より体腔内等の被写体を撮像し観察するのに利用
されている。
(Prior art) Generally, an endoscope device introduces a scope into a living body cavity or a mechanical device (hereinafter referred to as "inside the body cavity"), and uses an optical imaging system installed at the tip of the scope to capture the inside of the body cavity. It is used to image and observe objects.

この内視鏡装置に、二次元の規則的なパターン
光、例えばレーザスポツトアレイや変形格子等を
発生して被写体に投射する手段を設け、撮像した
画像における前記パターンの歪みを計測して被写
体表面各部分の三次元的な位置情報を求め、凹凸
等の形状情報を得る、いわゆる計測内視鏡装置が
ある。
This endoscope device is equipped with a means for generating a two-dimensional regular pattern of light, such as a laser spot array or a deformed grid, and projecting it onto the subject, and measures the distortion of the pattern in the captured image to determine the surface of the subject. There is a so-called measuring endoscope device that obtains three-dimensional positional information of each part and obtains shape information such as unevenness.

二次元の規則的なパターン光を得る方法の一例
を第13図に示す。例えば直径約20μm程の透過
型グラスフアイバ26a,27aを並列に一層に
隙間なく並べた数mm角程度の2枚のシート26,
27を各層のフアイバが互いに直交するように貼
合せた回折格子23を用いる。この回折格子23
に、第14図に示すようにレーザ光源のオシレー
タ28から発したレーザ光29を垂直入射するこ
とにより、その前方に正方格子状の輝点アレイ
(以下、スポツト光と称す)25を発生させるこ
とができる。
FIG. 13 shows an example of a method for obtaining two-dimensional regular pattern light. For example, two sheets 26 of several mm square are made by arranging transparent glass fibers 26a and 27a with a diameter of about 20 μm in parallel without any gaps,
A diffraction grating 23 is used in which 27 are bonded together so that the fibers of each layer are orthogonal to each other. This diffraction grating 23
As shown in FIG. 14, by vertically entering laser light 29 emitted from an oscillator 28 of a laser light source, a square lattice-shaped bright spot array (hereinafter referred to as spot light) 25 is generated in front of the laser light 29. I can do it.

このようなパターン光発生手段を用いて、第1
1図および第12図に示すように、内視鏡スコー
プ先端部21から被写体24にスポツト光25を
投射し、視差Paをもつて撮像部(例えば固体撮
像素子;CCD)22により撮影する。
Using such a pattern light generating means, the first
As shown in FIGS. 1 and 12, a spot light 25 is projected onto a subject 24 from an endoscope distal end 21, and an image is captured with a parallax Pa by an imaging unit (for example, a solid-state imaging device; CCD) 22.

なお、実際には撮像素子22の直前に対物レン
ズ等の光学系が配されているが、ここでは説明を
簡易にするため図示省略し、撮像素子22と一体
として説明する。また、第11図において、内視
鏡スコープ先端部21には、図示しない照明用ラ
イトガイドおよび照射レンズを嵌めた照明孔、送
気・送水孔、吸引孔を兼ねた鉗子孔等を備えてい
る。回折格子23と、この回折格子に内視鏡本体
内のパターン投射光源としてのレーザ光源オシレ
ータ等からの照射光を導光するライトガイド34
とは、上記鉗子孔およびその通路を利用してスコ
ープ先端部21まで導入してもよいし、あるいは
別途に専用に設けてもよい。
Note that, although an optical system such as an objective lens is actually arranged just in front of the image sensor 22, it is omitted from illustration here to simplify the explanation, and will be described as one with the image sensor 22. Further, in FIG. 11, the endoscope scope tip 21 is equipped with an illumination light guide (not shown), an illumination hole in which an irradiation lens is fitted, an air/water supply hole, a forceps hole that also serves as a suction hole, etc. . A diffraction grating 23 and a light guide 34 that guides irradiated light from a laser light source oscillator or the like as a pattern projection light source inside the endoscope body to the diffraction grating 23
That is, the forceps may be introduced to the distal end portion 21 of the scope using the forceps hole and its passage, or may be provided separately for exclusive use.

第10図はこのようにして被写体24にスポツ
ト光25を投射して撮像した画像の一例である。
FIG. 10 shows an example of an image captured by projecting the spot light 25 onto the subject 24 in this manner.

このようなスポツト光の他にも、規則的なパタ
ーン光として縦縞状パターンを発生して被写体に
投射してもよい。第9図は縦縞状パターン光によ
り撮像した画像の一例である。
In addition to such spot light, a vertical striped pattern may be generated as a regular pattern of light and projected onto the subject. FIG. 9 is an example of an image captured using vertical striped pattern light.

被写体に凹凸があると、前記の視差Paにより
撮像画像のパターンに歪みが生じる。この歪みの
度合いを計測することにより被写体表面の各点の
三次元位置を算出することができる。この算出時
の原理については周知であるので、その説明は省
略する。
If the subject has irregularities, the parallax Pa will cause distortion in the pattern of the captured image. By measuring the degree of this distortion, the three-dimensional position of each point on the surface of the subject can be calculated. Since the principle of this calculation is well known, its explanation will be omitted.

(発明が解決しようとする課題) ところが、上述したようなパターンの歪みを正
確に検出するには、投影したパターンと撮像画像
上のパターンとの各点の対応が正しくとれていな
いと算出結果に誤りが生じる。
(Problem to be Solved by the Invention) However, in order to accurately detect pattern distortion as described above, the calculation result will be incorrect if the correspondence between each point of the projected pattern and the pattern on the captured image is not correct. Errors occur.

上述のようにパターン光投射部(回折格子2
3)と撮像部(レンズ等を含む撮像素子22)と
の間の視差Paにより、画像上のパターン光の歪
みが生じるが、この歪みは、視差Paと平行な方
向(第10図の左右方向)にのみ現れる。
As mentioned above, the pattern light projection section (diffraction grating 2
3) and the imaging unit (image sensor 22 including lenses, etc.) causes distortion of the pattern light on the image, but this distortion occurs in a direction parallel to the parallax Pa (left and right direction in Fig. 10). ) appears only in

パターン上の各スポツトを判別するのに、視差
Paと垂直な方向(第10図の上下方向)におい
て同系列にあるスポツト列を、例えば同じ次数あ
るいは同次項と呼称する。そして丁度中心にある
スポツト列を0次項とし、第10図の右方向に順
次+1次項、+2次項、……、また第10図の左
方向に一1次項、−2次項、……と命名して区分
する。
Parallax is used to distinguish each spot on the pattern.
Spot rows that are in the same series in the direction perpendicular to Pa (vertical direction in FIG. 10) are called, for example, the same order or the same order term. Then, let the spot row at the exact center be the 0th order term, and sequentially name it to the right in Figure 10 as +1st order term, +2nd order term, ..., and to the left in Figure 10 as 11th order term, -2nd order term, etc. Classify by.

このとき、どの次数の項もほぼ同じ光量で投射
すると、撮像画像を二値化してパターンを検出し
たときどの次数のパターンも略同じ大きさとな
り、次数の判別が困難になる。このため次数の判
別が容易になるように、従来は特定の次数のスポ
ツト列、例えば0次項についてのみ、他の次数の
スポツト光よりも大きな光量で強調投射するよう
な方法が採られていた。
At this time, if terms of all orders are projected with substantially the same amount of light, when the captured image is binarized and patterns are detected, the patterns of all orders will have substantially the same size, making it difficult to distinguish the orders. For this reason, in order to facilitate the discrimination of orders, a method has conventionally been adopted in which only the spot array of a specific order, for example, the 0th order term, is projected with a larger light intensity than the spot light of other orders.

しかしながら、被写体表面は当然ながら平坦で
はなく、凹凸や遠近等があり、また人体内部の臓
器であれば粘膜の濡れなどがあるように表面の状
態も撮像に好適とは限らない。このため二値化処
理によるパターンの検出の際に、強調した0次項
の撮像パターンにしみ出しなどが生じ、隣接する
±1次項のパターンとの分離が困難になるような
場合も発生する。また、同一の光源から発した光
を0次項により多くの光量を配分するようにして
投射するため、周辺の多次項の光量が不足気味と
なり、スポツトの検出抜けが生じる場合などもあ
る。このため、画像上の各点の対応が正しくとれ
ず、計測を誤らせる原因となる。
However, the surface of the object is naturally not flat, and has irregularities, distance, and distance, and the surface condition is not always suitable for imaging, such as wet mucous membranes in the case of internal organs of the human body. For this reason, when detecting a pattern by binarization processing, an imaged pattern with an emphasized zero-order term may ooze out, and it may become difficult to separate it from an adjacent pattern with a ±1-order term. Furthermore, since the light emitted from the same light source is projected so that a larger amount of light is distributed to the zero-order term, the amount of light in the surrounding multi-order terms may be insufficient, which may result in spot detection failure. For this reason, the correspondence between each point on the image cannot be determined correctly, causing errors in measurement.

この発明は、このような従来の事情に鑑みこれ
を解決すべき課題とするものであり、撮像画像上
のパターンを抽出する際の二値化レベルを関数に
より与えるとともに、この関数を当該画像上の輝
度分布に応じて決定するよう可変にして、パター
ン検出時のしみ出しや抜けなどが生じ難くした、
計測内視鏡装置を提供することを発明の目的とす
るものである。
The present invention aims to solve this problem in view of the conventional circumstances, and provides a binarization level when extracting a pattern on a captured image using a function, and also uses this function on the image. It is made variable so that it is determined according to the brightness distribution of
An object of the invention is to provide a measurement endoscope device.

[発明の構成] (課題を解決するための手段) このような目的を達成するために、この発明に
係る計測内視鏡装置では、二次元の規則的なパタ
ーンを持つ照射光を被写体に投射してその反射光
を撮像した投影画像の、画像上の輝度分布に応
じ、前記パターンを抽出する二値化レベルの強度
関数を決定する関数決定手段と、この関数決定手
段により決定された二値化レベルの強度関数によ
り与えられるレベルに従い、前記投影画像上の前
記パターンを抽出する抽出手段と、を備えたこと
を特徴とするものである。
[Structure of the Invention] (Means for Solving the Problems) In order to achieve the above object, the measurement endoscope device according to the present invention projects illumination light having a two-dimensional regular pattern onto a subject. function determining means for determining an intensity function of a binarization level for extracting the pattern according to the luminance distribution on the image of a projected image obtained by capturing the reflected light; and a binary value determined by the function determining means. The present invention is characterized by comprising an extracting means for extracting the pattern on the projected image according to a level given by an intensity function of a conversion level.

(作用) 上述したような各構成手段を備える計測内視鏡
装置によれば、二次元の規則的なパターンを持つ
照射光を被写体に投射してその反射光を撮像した
投影画像において、関数決定手段により、この画
像上の輝度分布に応じた、前記パターンを抽出す
る二値化レベルの強度関数が決定され、この強度
関数により与えられる二値化レベルに従い、前記
投影画像上の前記パターンが、抽出手段により抽
出されるようになる。このため、画像の輝度レベ
ルに応じて画面の位置により二値化レベルを変え
てパターンの抽出を容易にすることが可能にな
り、より正確な被写体表面の凹凸等の計測が行な
えるようになる。こうして、上述の課題を解決す
ることが可能になる。
(Function) According to the measuring endoscope device equipped with each of the configuration means described above, a function is determined in a projected image obtained by projecting irradiation light having a two-dimensional regular pattern onto a subject and capturing the reflected light. The means determines an intensity function of a binarization level for extracting the pattern according to the luminance distribution on the image, and according to the binarization level given by this intensity function, the pattern on the projected image is It comes to be extracted by the extraction means. This makes it possible to easily extract patterns by changing the binarization level depending on the screen position according to the brightness level of the image, making it possible to more accurately measure irregularities on the surface of the subject. . In this way, it becomes possible to solve the above-mentioned problems.

(実施例) 以下、この発明を適用した計測内視鏡装置の各
実施例について図面に基づき詳細に説明する。
(Example) Hereinafter, each example of the measuring endoscope apparatus to which the present invention is applied will be described in detail based on the drawings.

第1図はこの発明に係る一実施例の計測内視鏡
装置の要部構成を示すブロツク図である。
FIG. 1 is a block diagram showing the main structure of a measuring endoscope apparatus according to an embodiment of the present invention.

第1図において、通常の内視鏡照射光源1の他
に、二次元の規則的なパターンを持つ照射光を発
生させるための光源であるパターン投射光源2が
設けられている。
In FIG. 1, in addition to a normal endoscope irradiation light source 1, a pattern projection light source 2, which is a light source for generating irradiation light having a two-dimensional regular pattern, is provided.

また、通常の内視鏡装置の本体部構成要素であ
る、カメラコントロールユニツト(以下、CCU
と略称する)4、デコーダ5、A/D6、フレー
ムメモリ7、D/A8、およびモニタ9の他に、
計測・演算およびその結果の表示を行なう各部が
設けられている。
In addition, the camera control unit (hereinafter referred to as CCU) is a component of the main body of a normal endoscope device.
) 4, decoder 5, A/D 6, frame memory 7, D/A 8, and monitor 9,
Each section is provided to perform measurement, calculation, and display of the results.

すなわち、CCU4からのアナログ映像信号を
デジタル信号値に変換するA/D10と、二次元
の規則的なパターンを持つ照射光による撮影画像
を記憶する画像メモリ11とがある。この画像メ
モリ11に記憶される、例えば画素あたり8ビツ
トの深さを持つた画像データを所定のレベル値よ
りも大か小かにより1と0だけの二値データに変
換処理する際の、二値化の基準レベルを提供する
基準レベル発生部13と、この基準レベルと前記
の各画像データとを比較する比較部14と、この
比較結果に応じて0もしくは1のみにより表わさ
れる二値データ化して保持する二値化処理部15
がある。
That is, there is an A/D 10 that converts analog video signals from the CCU 4 into digital signal values, and an image memory 11 that stores images captured by irradiation light having a two-dimensional regular pattern. When converting image data stored in this image memory 11, for example having a depth of 8 bits per pixel, into binary data of only 1 and 0 depending on whether it is larger or smaller than a predetermined level value, A reference level generation section 13 that provides a reference level for value conversion, a comparison section 14 that compares this reference level with each of the above-mentioned image data, and a binary data that is expressed only by 0 or 1 according to the comparison result. Binarization processing unit 15 that holds
There is.

こうして得られる二値化画像を元に、パターン
の中心点(あるいは中心線)を検出する細線化処
理部16およびスポツト中心検出部17がある。
There is a thinning processing section 16 and a spot center detection section 17 that detect the center point (or center line) of the pattern based on the binarized image obtained in this way.

また、このパターンの中心点等の座標値の元の
パターンからの歪み量から、その各点の三次元座
標値を算出する演算部18がある。算出された各
点の3次元座標値から、数値情報あるいは認識し
易い図形に編集した表示画像を形成し、モニタ9
に表示させる出力処理部19がある。
Further, there is a calculation unit 18 that calculates the three-dimensional coordinate value of each point from the amount of distortion of the coordinate value of the center point of this pattern etc. from the original pattern. From the calculated three-dimensional coordinate values of each point, a display image edited into numerical information or an easily recognizable figure is formed and displayed on the monitor 9.
There is an output processing unit 19 that displays the image.

さらに、第2図のようなパターン光撮影画像の
表示画面において、計測対象とするY座標を指定
するためのマウス30と、このマウス30による
Y座標指定位置の移動を検出するY座標選択部3
1がある。この選択された画面上のY座標に応じ
て二値化レベルのピーク値および関数のプロフイ
ールを設定する、二値化レベル設定部32および
プロフイール作成部12がある。プロフイール作
成部12からは、前述の基準レベル発生部13に
上記Y座標上の各点に対応した二値化レベルの値
が供給される。なお、マウス30を用いて上記二
値化レベルの設定を指定することも可能である。
プロフイール表示33は、上記の設定された二値
化レベルのピーク値やプロフイールを、上記撮影
画像と重ねて表示する表示画面を編成する。
Furthermore, on the display screen of the patterned light photographed image as shown in FIG.
There is 1. There is a binarization level setting section 32 and a profile creation section 12 that set the peak value of the binarization level and the profile of the function according to the selected Y coordinate on the screen. The profile creation section 12 supplies the above-mentioned reference level generation section 13 with the value of the binarization level corresponding to each point on the Y coordinate. Note that it is also possible to specify the setting of the binarization level using the mouse 30.
The profile display 33 organizes a display screen that displays the peak value and profile of the binarization level set above, superimposed on the photographed image.

次に、この実施例の計測内視鏡装置の動作につ
いて説明する。
Next, the operation of the measuring endoscope device of this embodiment will be explained.

内視鏡光源1と別個に設けられた、パターン光
投射光源2から発された均一な照射光は、図示し
ない導光ライトガイドの一端から導入され、内視
鏡スコープの内部を通り、スコープ3の先端部ま
で導光される。なお、均一な照射光を発生させる
パターン光投射光源2としては、例えばレーザ光
を放出するオシレータ等により構成することがで
きる。
Uniform irradiation light emitted from a patterned light projection light source 2 provided separately from the endoscope light source 1 is introduced from one end of a light guiding light guide (not shown), passes through the inside of the endoscope scope, and is directed to the scope 3. The light is guided to the tip of the Note that the patterned light projection light source 2 that generates uniform irradiation light can be configured by, for example, an oscillator that emits laser light.

第11図は、内視鏡スコープの先端部21の内
部構成の概略を示した説明図である。この図では
スコープの長手方向に対し垂直な側面方向を観察
する、側視型の内視鏡スコープを例として示して
ある。
FIG. 11 is an explanatory diagram schematically showing the internal configuration of the distal end portion 21 of the endoscope. This figure shows an example of a side-viewing endoscope that observes in the side direction perpendicular to the longitudinal direction of the scope.

パターン光投射光源2からの照射光を導光して
きたライトガイド34の他端から、回折格子23
に上記均一な照射光が放射される。回折格子23
に放射された光は、二次元の規則的なパターンを
持つスポツト光25となつて被写体24に投射さ
れる。
The diffraction grating 23 is connected from the other end of the light guide 34 that has guided the irradiation light from the pattern light projection light source 2.
The uniform irradiation light is emitted. Diffraction grating 23
The emitted light becomes a spot light 25 having a two-dimensional regular pattern and is projected onto the subject 24.

被写体24に投射された光は、被写体表面で反
射され、内視鏡スコープ3の先端部21に配設さ
れた撮像素子22に入射して撮像される。
The light projected onto the subject 24 is reflected on the subject surface, enters the image sensor 22 disposed at the distal end portion 21 of the endoscope 3, and is imaged.

撮像素子22にて撮像された被写体画像は、電
気信号として、第1図のカメラコントロールユニ
ツト(CCU)4に送られる。CCU4ではこの電
気信号を信号処理し、例えばアナログ映像信号の
輝度信号Eyと2つの色差信号(Ey−Er)および
(Ey−Eb)として出力する。
The subject image captured by the image sensor 22 is sent as an electrical signal to the camera control unit (CCU) 4 shown in FIG. 1. The CCU 4 processes this electrical signal and outputs it as, for example, a luminance signal Ey of an analog video signal and two color difference signals (Ey-Er) and (Ey-Eb).

CCU4から出力された上記アナログ映像信号
は、一方では、デコーダ5によりR(赤)、G
(緑)、B(青)の各カラー信号に分離され、A/
D6にてデジタル化された後、R、G、Bのフレ
ームメモリ7に格納され、D/A8を経てモニタ
9に画像表示される。また他方では、例えば輝度
信号Eyについて、A/D10によりデジタル化
され、照射および撮像のタイミングに同期して画
像メモリ11に記憶され、パターンの検出並びに
歪み量からの三次元位置の演算処理等に供され
る。
On the one hand, the analog video signal outputted from the CCU 4 is processed by the decoder 5 into R (red), G
(green), B (blue), and A/
After being digitized at D6, it is stored in the R, G, and B frame memories 7, and the image is displayed on the monitor 9 via the D/A8. On the other hand, for example, the luminance signal Ey is digitized by the A/D 10, stored in the image memory 11 in synchronization with the timing of irradiation and imaging, and used for pattern detection and calculation processing of three-dimensional position from the amount of distortion. Served.

パターンの検出には、画像メモリ11に記憶さ
れる、例えば画素あたり8ビツトの深さを持つた
画像データを所定のレベル値よりも大か小かによ
り1と0だけの二値データに変換する二値化処理
が用いられている。
To detect a pattern, image data stored in the image memory 11, which has a depth of, for example, 8 bits per pixel, is converted into binary data containing only 1 and 0 depending on whether it is larger or smaller than a predetermined level value. Binarization processing is used.

パターン光の出力信号レベルに比較して、二値
化処理を行なう際の基準レベルとなる二値化レベ
ルが大き過ぎると、パターン光の抜けが生じ易く
なり、二値化レベルが小さ過ぎるとパターン光が
分離されなくなる。従つて、撮影画像の信号レベ
ルに応じて二値化レベルも可変にしてやる必要が
ある。
If the binarization level, which is the reference level for binarization processing, is too large compared to the output signal level of the pattern light, the pattern light is likely to drop out, and if the binarization level is too small, the pattern Light is no longer separated. Therefore, it is necessary to make the binarization level variable according to the signal level of the photographed image.

第2図および第4図は、パターン光による撮影
画像の各例を示した図である。
FIGS. 2 and 4 are diagrams showing examples of images taken with patterned light.

パターン光の強度分布は、例えば第2図および
第4図に示すように、0次項が判別し易いよう、
この0次項を極度に明るくなるように設定して照
射されている。このため、±1次項以降は急激に
光量が落ち、高次項になるに従つて少しずつ暗く
なる傾向がある。
The intensity distribution of the patterned light is, for example, as shown in FIGS. 2 and 4, so that the zero-order term can be easily distinguished.
The 0th order term is set to be extremely bright and irradiated. For this reason, the amount of light decreases rapidly after the ±1st order terms, and as the terms become higher order terms, there is a tendency for the light to gradually become darker.

しかしながら、上記傾向は被写体の形状や撮影
方向等によつても異なる。比較的平坦な被写体を
その正面から撮影した場合には、第2図に示すよ
うに周辺部まであまり差のない強度分布の画像が
得られる。また、画面中央付近でゆるく隆起して
いるような場合には、第4図のように中央が明る
く周辺部に行くほど光量が落込んだ画像となる。
However, the above-mentioned tendency also differs depending on the shape of the subject, the shooting direction, etc. When a relatively flat object is photographed from the front, an image is obtained with an intensity distribution that does not differ much up to the periphery, as shown in FIG. 2. Furthermore, if the screen is gently raised near the center, the image will be bright at the center and the amount of light decreases toward the periphery, as shown in FIG. 4.

第2図のような画像であれば、そのY座標が例
えばYiであるような線上のパターン光の強度は、
第3図に曲線で示したような分布となる。このよ
うな場合には、第3図に水平な直線で示すような
二値化レベルの関数でも、その基準レベルさえ正
しく選択すれば誤りなくパターンを抽出すること
が可能である。
For an image like the one shown in Figure 2, the intensity of the pattern light on a line whose Y coordinate is Yi, for example, is
The distribution is as shown by the curve in Figure 3. In such a case, even if the function of the binarization level is as shown by the horizontal straight line in FIG. 3, it is possible to extract the pattern without error as long as the reference level is selected correctly.

ところが、第4図のような画像であれば、その
Y座標が例えばYiであるような線上のパターン
光の強度は、第5図に曲線で示したような分布と
なり、二値化レベルの関数を直線としたのでは、
第5図に示すように、その基準レベルをどこにお
いても正しくパターンを抽出することができな
い。
However, in the case of an image like that shown in Figure 4, the intensity of the pattern light on a line whose Y coordinate is Yi, for example, will be distributed as shown by the curve in Figure 5, and will be a function of the binarization level. If we take it as a straight line,
As shown in FIG. 5, a pattern cannot be extracted correctly no matter where the reference level is set.

このため、第6図ないし第8図に示すように、
二値化レベルの関数をパターン光の強度分布に応
じた曲線として求めねばならない。
For this reason, as shown in Figures 6 to 8,
The function of the binarization level must be determined as a curve corresponding to the intensity distribution of the pattern light.

先ず、パターン光の強度分布の最大値とその位
置を検出することにより、0次項の位置Pmaxお
よび強度Imaxを求める。この強度Imaxを基準に
して、二値化レベルの最大値Bmaxを設定し、次
に0次項の位置Pmaxに応じて二値化レベルプロ
フイールB−profileを求める。
First, by detecting the maximum value and its position of the intensity distribution of pattern light, the position Pmax and intensity Imax of the zero-order term are determined. Based on this intensity Imax, a maximum value Bmax of the binarization level is set, and then a binarization level profile B-profile is determined according to the position Pmax of the zero-order term.

このとき0次項の位置Pmaxの画面上の座標値
により、内視鏡スコープ上のパターン光投影部位
および撮像部位から被写体表面までの基準距離が
異なり、各次数のパターン間隔が異なつてくるた
め、上記B−profileも変化させる必要が生じて
くる。すなわち、0次項の距離が遠いところで
は、第7図に示すように、二値化レベルプロフイ
ールB−profileを急峻なものにする。また0次
項の距離が近ければ、第8図のように、二値化レ
ベルプロフイールB−profileをなだらかなもの
にする。
At this time, depending on the coordinate value on the screen of the position Pmax of the 0th order term, the reference distance from the pattern light projection area on the endoscopic scope and the imaging area to the object surface differs, and the pattern interval of each order differs. It becomes necessary to change the B-profile as well. That is, where the zero-order term is far away, the binarization level profile B-profile is made steep, as shown in FIG. Furthermore, if the distance between the zero-order terms is short, the binarization level profile B-profile is made gentle as shown in FIG.

このような二値化レベルの基準値の設定、およ
びそのプロフイールの作成等が、第1図の二値化
レベル設定部32およびプロフイール作成部12
により、実行される。なお、これらの設定および
作成などは、上記各部において必ずしも自動的に
行われるよう構成しなくとも、例えばマウス30
などを用いて計測内視鏡の操作者が目で見ながら
任意に設定等を行なうようにしてもよい。
The setting of the reference value of the binarization level and the creation of the profile are carried out by the binarization level setting section 32 and the profile creation section 12 in FIG.
It is executed by Note that these settings and creation, etc., do not necessarily have to be configured to be performed automatically in each of the above parts, but, for example, the mouse 30
Alternatively, the operator of the measurement endoscope may perform the settings as desired while visually viewing the measurement endoscope.

操作者は、パターン光の撮影画像をモニタ9で
観察しながら、計測すべき被写体上のラインに応
じたY座標をマウス30により指定する。マウス
30を机上等で移動させることにより、Y座標選
択部31がこれを検出し、当該Y座標を示す直線
を移動させながら、プロフイール作成部12およ
びプロフイール表示部33を介してモニタ9のパ
ターン光画像表示画面上に重ねて表示する。そし
てY座標が選択されると、その座標値をプロフイ
ール作成部12に転送する。
The operator specifies, using the mouse 30, the Y coordinate corresponding to the line on the subject to be measured while observing the photographed image of the patterned light on the monitor 9. By moving the mouse 30 on a desk or the like, the Y coordinate selection section 31 detects this, and while moving the straight line indicating the Y coordinate, the pattern light on the monitor 9 is displayed through the profile creation section 12 and the profile display section 33. Overlay the image on the display screen. When the Y coordinate is selected, the coordinate value is transferred to the profile creation section 12.

プロフイール作成部12では、二値化レベル設
定部32と強力して上述したような手順により、
二値化レベルの基準レベルを設定し、二値化レベ
ル関数のプロフイールを作成して、プロフイール
表示部33を介しモニタ9に表示する。
The profile creation unit 12 and the binarization level setting unit 32 perform the steps described above.
A reference level for the binarization level is set, a profile of the binarization level function is created, and the profile is displayed on the monitor 9 via the profile display section 33.

このとき、マウス30を利用して、二値化レベ
ルの基準レベルや二値化レベル関数のプロフイー
ルを指定することも可能である。
At this time, it is also possible to specify the reference level of the binarization level and the profile of the binarization level function using the mouse 30.

こうして二値化レベル関数のプロフイールが作
成されると、プロフイール作成部12から基準レ
ベル発生部13に、当該Y座標上の各点のレベル
値が送られる。
When the profile of the binarization level function is created in this way, the level value of each point on the Y coordinate is sent from the profile creation section 12 to the reference level generation section 13.

そして基準レベル発生部13により、1と0だ
けの二値データに変換処理する際の二値化レベル
が比較部14に出力される。この二値化レベルに
対し、パターン光による投影画像を記憶する画像
メモリ11内の画像データの各画素の値が、比較
部14により比較される。この比較結果に応じ、
二値化処理部15により0もしくは1のみにより
表わされる二値データ化して保持される。
Then, the reference level generation section 13 outputs to the comparison section 14 the binary level at which the data is converted into binary data of only 1 and 0. The comparator 14 compares the value of each pixel of the image data in the image memory 11 that stores the projected image by the patterned light with respect to this binarization level. Depending on the results of this comparison,
The binary data is converted into binary data represented by only 0 or 1 by the binarization processing unit 15 and is held.

こうして得られた二値化画像を元に、細線化処
理部16において1の値を持つデータ領域につい
てその周辺部を縮小する細線化処理が行われる。
Based on the binarized image thus obtained, the thinning processing section 16 performs thinning processing to reduce the peripheral portion of the data area having a value of 1.

さらにスポツト中心検出部17により、パター
ンの中心点(あるいは中心線)が検出されるとと
もに、検出された2種の画像の対応するパターン
の中心点(あるいは中心線)が判別される。
Further, the spot center detecting section 17 detects the center point (or center line) of the pattern, and also discriminates the center point (or center line) of the corresponding patterns of the two detected images.

そして演算部18において、上記パターンの中
心点等の座標値と、元のパターンの対応点との間
の歪み量から各点の二次元座標が算出される。
Then, in the calculation unit 18, the two-dimensional coordinates of each point are calculated from the amount of distortion between the coordinate value of the center point of the pattern, etc., and the corresponding point of the original pattern.

ここで、スポツト光座標とその被写体表面の対
応点の距離との関係は、h次項に関するスポツト
光座標をXs(h)、中心座標をXc、視野角を2βと
し、第11図においてh次項の被写体表面上の対
応点と撮像素子22の中心点Oとを結んだ線と画
面中心のZ軸との成す角をθhとすると; tanθh=(Xs(h)−Xc)tanβ/Xc により表わされる。
Here, the relationship between the spot light coordinates and the distance of the corresponding point on the surface of the subject is as follows: Let the spot light coordinates for the h-th term be Xs(h), the center coordinate be Xc, and the viewing angle be 2β, and in Fig. 11, for the h-th term, If the angle formed by the line connecting the corresponding point on the object surface and the center point O of the image sensor 22 and the Z-axis at the center of the screen is θh; it is expressed by tanθh=(Xs(h)−Xc) tanβ/Xc. .

またh次項の被写体表面までの垂直距離Zh
は; Zh=Pa/(tanθh−tanψh) で表わされる。ここでPaは視差、ψhはh次項の
回折角である。
Also, the vertical distance Zh to the surface of the subject in the hth order
is expressed as; Zh=Pa/(tanθh−tanψh). Here, Pa is the parallax and ψh is the diffraction angle of the h-order term.

このようにして算出された各点の三次元座標値
は、出力処理部19において数値情報あるいは認
識し易い図形に編集される。こうして形成された
認識容易な表示画像がモニタ9に表示される。
The three-dimensional coordinate values of each point calculated in this way are edited into numerical information or easily recognizable figures in the output processing section 19. The easily recognizable display image thus formed is displayed on the monitor 9.

このようにして、パターン光を投影した被写体
野撮影画像から、被写体表面の凹凸等の形状情報
が算出され、見やすい形でモニタ9の画面上に表
示されるようになる。
In this way, shape information such as irregularities on the surface of the subject is calculated from the photographed image of the subject field onto which patterned light is projected, and is displayed on the screen of the monitor 9 in an easy-to-read form.

なお、この発明は上述の実施例構成に限定され
るものではなく、例えば第9図に示したような縦
縞状の投影パターンなどについても勿論適用する
ことができるものである。
Note that the present invention is not limited to the configuration of the above-described embodiment, and can of course be applied to, for example, a vertical striped projection pattern as shown in FIG.

また、内視鏡スコープについても、上述の例で
示した側視型スコープに限らず、前方視型や斜視
型のスコープであつても勿論構わない。
Furthermore, the endoscope is not limited to the side-viewing scope shown in the above example, but may of course be a forward-viewing or oblique-viewing scope.

さらに、二次元の規則的なパターンの投射光を
実現する方法も、上述したような、レーザ光を用
い、透過型グラスフアイバを並列に一層に並べた
シートを縦横に重ねた構造の回折格子を利用する
方法だけでなく、例えば変形格子等の別の方法に
よることも勿論可能である。
Furthermore, a method to realize a two-dimensional regular pattern of projected light is to use a laser beam, as described above, to create a diffraction grating, which has a structure in which sheets of transmissive glass fibers are stacked vertically and horizontally in parallel. It is of course possible to use other methods such as a deformed lattice, for example.

[発明の効果] 以上詳細に説明したように、この発明に係る計
測内視鏡装置であれば、二次元の規則的なパター
ンの照射光を被写体に投射して撮像した投影画像
上の輝度分布に応じてパターンを抽出する二値化
処理の二値化レベルを変化させられる構成として
いる。すなわち、二値化レベルの基準レベル値お
よび二値化レベルのプロフイールを決定する関数
を上記輝度データに対応して可変に設定可能とし
ているので、適正な二値化レベルを得て、より正
確に誤りなくパターンの抽出を行うことが可能に
なる。こうして計測内視鏡装置による正確な距離
等の被写体表面の形状の測定がより容易かつ迅速
に実行できるようになる。
[Effects of the Invention] As explained in detail above, the measuring endoscope device according to the present invention can improve the brightness distribution on a projected image captured by projecting a two-dimensional regular pattern of illumination light onto a subject. The structure is such that the binarization level of the binarization process for extracting patterns can be changed depending on the pattern. In other words, since the function that determines the reference level value of the binarization level and the profile of the binarization level can be variably set in accordance with the luminance data, an appropriate binarization level can be obtained and more accurate It becomes possible to extract patterns without errors. In this way, the measuring endoscope device can more easily and quickly measure the shape of the object surface, such as accurate distance.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明に係る一実施例の計測内視鏡
装置の要部ブロツク図、第2図および第4図はパ
ターン光の投影画像例を示した図、第3図および
第5図ないし第8図は一実施例装置において第2
図および第4図の各画像例に応じ二値化レベル関
数を設定する際の説明図、第9図は縦縞状パター
ンの投射光による撮影画像例を示す図、第10図
はスポツト光による撮影画像例を示す図、第11
図および第12図は内視鏡スコープ先端部と被写
体との関係図、第13図および第14図はフアイ
バ回折格子の構造とスポツト光の発生状態との説
明図である。 1……光源、2……パターン投射光源、3……
スコープ、4……カメラコントロールユニツト、
5……デコーダ、6……A/D、7……フレーム
メモリ、8……D/A、9……モニタ、10……
A/D、11……画像メモリ、12……プロフイ
ール作成部、13……基準レベル発生部、14…
…比較部、15……二値化処理部、16……細線
化処理部、17……スポツト中心検出部、18…
…演算部、19……出力処理部、20……レン
ズ、21……内視鏡スコープ先端部、22……撮
像素子、23……回折格子、24……被写体、2
5……スポツト光、26,27……一次元フアイ
バ回折格子、26a,27a……グラスフアイ
バ、28……オシレータ、29……レーザ光、3
0……マウス、31……Y座標選択部、32……
二値化レベル設定部、33……プロフイール表示
部。
FIG. 1 is a block diagram of the main parts of a measuring endoscope device according to an embodiment of the present invention, FIGS. 2 and 4 are diagrams showing examples of projected images of patterned light, and FIGS. FIG. 8 shows the second
An explanatory diagram for setting the binarization level function according to each image example shown in Fig. 4 and Fig. 4. Fig. 9 is a diagram showing an example of an image taken with vertical striped pattern projection light, and Fig. 10 is taken with spot light. Diagram showing an example of an image, No. 11
1 and 12 are diagrams of the relationship between the tip of the endoscope and the subject, and FIGS. 13 and 14 are explanatory diagrams of the structure of the fiber diffraction grating and the state of spot light generation. 1...Light source, 2...Pattern projection light source, 3...
Scope, 4...Camera control unit,
5...Decoder, 6...A/D, 7...Frame memory, 8...D/A, 9...Monitor, 10...
A/D, 11...image memory, 12...profile creation section, 13...reference level generation section, 14...
... Comparison section, 15 ... Binarization processing section, 16 ... Thinning processing section, 17 ... Spot center detection section, 18 ...
... Arithmetic unit, 19... Output processing unit, 20... Lens, 21... Endoscope tip, 22... Image pickup element, 23... Diffraction grating, 24... Subject, 2
5... Spot light, 26, 27... One-dimensional fiber diffraction grating, 26a, 27a... Glass fiber, 28... Oscillator, 29... Laser light, 3
0... Mouse, 31... Y coordinate selection section, 32...
Binarization level setting section, 33...profile display section.

Claims (1)

【特許請求の範囲】 1 二次元の規則的なパターンを持つ照射光を被
写体に投射し、その反射光を撮像した投影画像上
での前記パターンの基準点からの歪みから被写体
の凹凸等の形状情報を認識する計測内視鏡装置に
おいて、 前記投影画像上の輝度分布に応じ、前記パター
ンを抽出する二値化レベルの強度関数を決定する
関数決定手段と、 この関数決定手段により決定された二値化レベ
ルの強度関数により与えられるレベルに従い、前
記投影画像上の前記パターンを抽出する抽出手段
と、 を備えたことを特徴とする計測内視鏡装置。
[Scope of Claims] 1. Irradiation light having a two-dimensional regular pattern is projected onto the subject, and the reflected light is captured on the projected image. The shape of the subject, such as unevenness, is determined from the distortion of the pattern from the reference point. In the measurement endoscope device for recognizing information, a function determining means determines an intensity function of a binarization level for extracting the pattern according to the luminance distribution on the projected image; A measurement endoscope apparatus comprising: extraction means for extracting the pattern on the projection image according to a level given by an intensity function of a value level.
JP63032663A 1988-02-17 1988-02-17 Measuring endoscope device Granted JPH01209416A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63032663A JPH01209416A (en) 1988-02-17 1988-02-17 Measuring endoscope device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63032663A JPH01209416A (en) 1988-02-17 1988-02-17 Measuring endoscope device

Publications (2)

Publication Number Publication Date
JPH01209416A JPH01209416A (en) 1989-08-23
JPH0547812B2 true JPH0547812B2 (en) 1993-07-19

Family

ID=12365103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63032663A Granted JPH01209416A (en) 1988-02-17 1988-02-17 Measuring endoscope device

Country Status (1)

Country Link
JP (1) JPH01209416A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060033752A1 (en) * 2004-08-13 2006-02-16 Gering David T Method and apparatus for displaying pixel data

Also Published As

Publication number Publication date
JPH01209416A (en) 1989-08-23

Similar Documents

Publication Publication Date Title
JP4739242B2 (en) Imaging of embedded structures
CN102402799B (en) Object classification for measured three-dimensional object scenes
JP6045417B2 (en) Image processing apparatus, electronic apparatus, endoscope apparatus, program, and operation method of image processing apparatus
US5372502A (en) Optical probe and method for the three-dimensional surveying of teeth
JP6454489B2 (en) Observation system
KR20160147980A (en) Systems, methods, apparatuses, and computer-readable storage media for collecting color information about an object undergoing a 3d scan
JP3418480B2 (en) Medical support equipment
JP6706026B2 (en) Endoscope system and operating method of endoscope apparatus
JP6738465B2 (en) Endoscope system
JP2008061659A (en) Imaging device
JPS5970908A (en) Distance measuring apparatus of endoscope
JP2013240590A (en) Three-dimensional shape acquisition device from stereoscopic endoscopic image
JPH0547812B2 (en)
US20220330850A1 (en) Endoscope apparatus, method of operating the same, and non-transitory computer readable medium
JPH01209415A (en) Endoscope device with measuring function
JP2012217762A (en) Dental observation apparatus
JP3906640B2 (en) Laser beam evaluation method for laser marking device
JP3377027B2 (en) Non-contact type 3D shape measuring device
JP2004226072A (en) Shape measuring device
JPH0552533A (en) Endoscope apparatus for three-dimensional measurement
WO2022269817A1 (en) Calibration device, endoscopic system, calibration method, and calibration program
JPH0547811B2 (en)
JP7503019B2 (en) Processor for electronic endoscope and electronic endoscope system
JP7255288B2 (en) Image processing system, image processing apparatus, and image processing method
JP5314518B2 (en) Fundus image acquisition and display device