JPS63246716A - Method for taking-in of endoscope image - Google Patents

Method for taking-in of endoscope image

Info

Publication number
JPS63246716A
JPS63246716A JP62168791A JP16879187A JPS63246716A JP S63246716 A JPS63246716 A JP S63246716A JP 62168791 A JP62168791 A JP 62168791A JP 16879187 A JP16879187 A JP 16879187A JP S63246716 A JPS63246716 A JP S63246716A
Authority
JP
Japan
Prior art keywords
image
endoscope
value
images
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62168791A
Other languages
Japanese (ja)
Other versions
JP2911894B2 (en
Inventor
Junpei Tsujiuchi
辻内 順平
Toshio Honda
本田 捷夫
Nagaaki Ooyama
永昭 大山
Susumu Kikuchi
菊地 奨
Badeike Eriku
エリク・バディケ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to US07/119,784 priority Critical patent/US4895431A/en
Priority to DE19873738667 priority patent/DE3738667A1/en
Publication of JPS63246716A publication Critical patent/JPS63246716A/en
Application granted granted Critical
Publication of JP2911894B2 publication Critical patent/JP2911894B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To permit easy taking-in of images together with factors to associate the relations between the plural images by taking in the 2nd image superposely on part of the 1st image. CONSTITUTION:The endoscope image which is picked up by a TV camera 12 and is digitized is recorded in a 1st frame memory 14 by the instruction from a recording instruction means 26. The value of a counter 23 of this time is recorded in a 1st latch 24 simultaneously therewith. Then, an operator slightly rotates an angle knob 20 to put the curved part 5 of the endoscope to a 2nd curved state. The digitized endoscope image in the position of the 2nd curved state is recorded in a 2nd frame memory 15 by using the means 26 in this state. The value of the counter 23 is stored in a 2nd latch 25 simultaneously at this time. The height between the two points of a specimen 4 and the information on the ruggedness of the specimen 4 are determined in accordance with the above-mentioned information and are displayed in an image processor 16. The easy taking-in of the plural images together with the information to associate the relations between the images is thereby permitted.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、内視鏡画像取込み方法に関する。[Detailed description of the invention] [Industrial application field] The present invention relates to an endoscopic image capture method.

〔従来の技術〕[Conventional technology]

従来、内視鏡には像伝送をイメージファイバー東で行う
ファイバースコープ、先端に固体撮像素子を配置した電
子スコープ等が知られており、主に画像観察を行ってき
た。一方、画像記録が必要な場合にはファイバースコー
プの接眼部に接続したカメラによる写真記録、電子スコ
ープからの信号の画像メモリによる記録により対応して
いる。
Conventionally, known endoscopes include fiberscopes that transmit images through image fibers, and electronic scopes that have a solid-state image pickup device at their tips, and have been mainly used for image observation. On the other hand, if image recording is required, this can be done by recording photographs with a camera connected to the eyepiece of the fiberscope, or by recording signals from the electronic scope in an image memory.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

従来の写真記録、画像記録は記録時点での単一の画像を
記録しており、相前後して複数の画像を記録してもいる
が、画像相互の関係は付けられていなかった。従って、
記録した画像を処理する場合でも、単一の画像内の情報
のみで種々の処理が行われているのみである。
Conventional photographic recording and image recording record a single image at the time of recording, and also record a plurality of images one after the other, but there is no relationship between the images. Therefore,
Even when a recorded image is processed, various processes are only performed using information within a single image.

本発明は上述した問題点に着目してなされたもので、複
数の画像を相互の関係を関連付けるファクターと共に簡
単に取込むことができる内視鏡画像取込み方法を提供す
ることを目的とする。
The present invention has been made in view of the above-mentioned problems, and it is an object of the present invention to provide an endoscopic image capture method that can easily capture a plurality of images together with factors that relate their mutual relationships.

〔問題点を解決するための手段および作用〕本発明は、
内視鏡を介して第1の位置で第1の画像を取込み、上記
第1の位置に対する第2の位置の相対位置を検知しなが
ら第2の位置で第2の画像を取込み、上記第1の画像と
第2の画像とがその一部において重複していることを特
徴とする。
[Means and effects for solving the problems] The present invention has the following features:
Capturing a first image at a first position via an endoscope; capturing a second image at the second position while detecting the relative position of the second position with respect to the first position; The second image is characterized in that a portion of the image overlaps with the second image.

〔実施例〕〔Example〕

以下、図面を参照してこの発明の詳細な説明する。第1
図はこの発明の第1実施例を示す構成図である。内視鏡
の弯曲部5の先端部には、対物レンズ1が設けられてい
る。この対物レンズ1は、被検体の像をイメージガイド
ファイバ8の端面に結像させる機能を持っている。また
、弯曲部5の先端部には凹レンズ7が設けられている。
Hereinafter, the present invention will be described in detail with reference to the drawings. 1st
The figure is a configuration diagram showing a first embodiment of the present invention. An objective lens 1 is provided at the distal end of the curved portion 5 of the endoscope. This objective lens 1 has a function of forming an image of the subject on the end face of the image guide fiber 8. Further, a concave lens 7 is provided at the tip of the curved portion 5.

この凹レンズ7は、照明光を外部から導光するためのガ
ラスファイバ等で構成されるライトガイド6を通ってき
た光を配光よく出射させる機能を持っている。イメージ
ガイドファイバ8の他端は、内視鏡の操作部に形成され
た接眼部10まで導かれており、接眼レンズ(図示せず
)、結像レンズ11を介して、TVカメラ12によって
イメージガイドファイバ8の内視鏡先端側に結像された
像が撮像されるようになっている。TVカメラ12の出
力は、A/D(アナログ/デジタル)コンバータ13に
よってデジタル信号に変換され、第1フレームメモリ1
4あるいは第2フレースムメモリ15に入力されるよう
になっている。第1および第2フレームメモ!714゜
15の出力は詳細は後述する画像処理装置16に人力さ
れるようになっている。一方、内視鏡の弯曲部5を弯曲
させるためのアングルワイヤ17が内視鏡の操作部内に
配設された回転ドラム18に巻きつけられている。回転
ドラム18は、操作部内に配設されるパターン円板19
および操作部において露出して配設されるアングルノブ
20と同軸に固定されている。パターン円板19の円周
端面には、白黒の等間隔のパターンが形成されており、
反射型フォトセンサ等で構成されるセンサ21によって
読み取れるようになっている。センサ21の出力はアン
プ22に入力され、アンプ22の出力はカウンタ23へ
入力されるようになっている。カウンタ23の出力は、
第1ラツチ24および第2ラツチ25に人力され、これ
らの出力は画像処理装置16へ入力されるようになって
いる。操作スイッチ、タイミング回路等で構成される記
録指示手段26の出力は第1および第2フレームメモリ
14.15、第1および第2ラツチ24、25に入力さ
れるようになっている。
This concave lens 7 has a function of emitting light that has passed through a light guide 6 made of a glass fiber or the like for guiding illumination light from the outside with good distribution. The other end of the image guide fiber 8 is guided to an eyepiece 10 formed in the operating section of the endoscope, and is imaged by a TV camera 12 via an eyepiece (not shown) and an imaging lens 11. An image formed on the endoscope end side of the guide fiber 8 is captured. The output of the TV camera 12 is converted into a digital signal by an A/D (analog/digital) converter 13, and is stored in the first frame memory 1.
4 or the second frame memory 15. 1st and 2nd frame memo! The output of 714.degree. 15 is manually input to an image processing device 16, the details of which will be described later. On the other hand, an angle wire 17 for bending the curved portion 5 of the endoscope is wound around a rotating drum 18 disposed within the operating section of the endoscope. The rotating drum 18 includes a pattern disc 19 disposed within the operating section.
and is fixed coaxially with the angle knob 20 which is exposed and disposed in the operation section. A black and white pattern at equal intervals is formed on the circumferential end surface of the pattern disk 19.
It can be read by a sensor 21 composed of a reflective photosensor or the like. The output of the sensor 21 is input to an amplifier 22, and the output of the amplifier 22 is input to a counter 23. The output of the counter 23 is
The first latch 24 and the second latch 25 are manually operated, and their outputs are input to the image processing device 16. The output of the recording instruction means 26, which is composed of operation switches, timing circuits, etc., is inputted to the first and second frame memories 14,15, and the first and second latches 24,25.

次に上記実施例の動作を説明する。内視鏡弯曲部5が第
2図に示すように、第1の弯曲状態(この実施例では実
線で示す弯曲してない状態)にふいて、記録指示手段2
6からの指示により、TVカメラ12で撮像され、A/
Dコンバータ13でデジタル化された内視鏡画像が第1
フレームメモ1J14に記録される。これと同時に、こ
の時のカウンタ23の値が第1ラツチ24に記録される
。次に、アングルノブ20を少し回し、内視鏡弯曲部5
を第2図に破線で示す第2の弯曲状態にする。この時ア
ングルノブ20の回転にともないパターン円板19も回
転し、センサ21は白黒パターンの変化を検知する。
Next, the operation of the above embodiment will be explained. As shown in FIG. 2, when the endoscope curved section 5 is in the first curved state (in this embodiment, the uncurved state shown by the solid line), the recording instruction means 2
According to the instructions from 6, the image is captured by the TV camera 12, and the A/
The endoscopic image digitized by the D converter 13 is the first
It is recorded in frame memo 1J14. At the same time, the value of the counter 23 at this time is recorded in the first latch 24. Next, turn the angle knob 20 slightly to adjust the curved portion 5 of the endoscope.
is brought into the second curved state shown by the broken line in FIG. At this time, as the angle knob 20 rotates, the pattern disk 19 also rotates, and the sensor 21 detects a change in the black and white pattern.

すなわち、回転エンコーダを構成し、パターン円板19
の回転量と同時に、回転方向の情報もアンプ22を介し
てカウンタ23に伝えられる。この第2の弯曲状態で記
録指示手段26を用いて、第2の弯曲状態の位置でのデ
ジダル化された内視鏡画像が第2フレームメモリ15に
記録される。この時、同時にカウンタ23の値が第2ラ
ツチ25に記憶される。
That is, the pattern disk 19 constitutes a rotary encoder.
At the same time as the amount of rotation, information on the direction of rotation is also transmitted to the counter 23 via the amplifier 22. In this second curved state, a digitized endoscopic image at the position of the second curved state is recorded in the second frame memory 15 using the recording instruction means 26. At this time, the value of the counter 23 is simultaneously stored in the second latch 25.

このようにして、第2図に斜線部と接している被検体4
の像が第2図A’−B’で示される視差を持って2種類
得られたことになる。また、この2種類の画像の位置関
係が記憶されたことになる。
In this way, the subject 4 in contact with the shaded area in FIG.
This means that two types of images were obtained with the parallaxes shown in FIG. 2 A'-B'. Also, the positional relationship between these two types of images is stored.

第1および第2フレームメモリ14.15に記憶された
画像は画像処理装置16へ供給される。また、第1およ
び第2ラッチ24.25に記憶された値は、画像処理装
置16へ供給され、角度情報θに変換されるようになっ
ている。これらの情報に基づき画像処理装置16におい
て後述するように、被検体4の2点間の高さや、被検体
4の凹凸情報を求め表示するようになっている。
The images stored in the first and second frame memories 14 , 15 are supplied to an image processing device 16 . Further, the values stored in the first and second latches 24 and 25 are supplied to the image processing device 16 and converted into angle information θ. Based on this information, the image processing device 16 calculates and displays the height between two points on the subject 4 and unevenness information on the subject 4, as will be described later.

なお、この実施例では、イメージガイドファイバを有す
る内視鏡の場合について述べたが、内視鏡先端部に固体
撮像素子を備えた電子スコープに適用してもよいことは
もちろんである。この場合には、内視鏡先端部に設けら
れた固体撮像素子から得られる画像信号を信号処理して
、A/D変換した後第1および第2フレームメモ1J1
4.15に2つの位置の画像を記憶させるようにすれば
よい。
Although this embodiment has been described with respect to an endoscope having an image guide fiber, it goes without saying that the present invention may also be applied to an electronic scope having a solid-state image pickup device at the distal end of the endoscope. In this case, after signal processing and A/D conversion of the image signal obtained from the solid-state image sensor provided at the tip of the endoscope, the first and second frame memo 1J1
4.15 may be configured to store images at two positions.

この場合の実施例については後述の第3実施例(第4図
)に示されている。
An embodiment in this case is shown in the third embodiment (FIG. 4) described later.

次に、第2実施例を第3図を用いて説明する。Next, a second embodiment will be explained using FIG. 3.

第3図(A)に示すように、内視鏡接眼部10にはカメ
ラ27が装着され、イメージガイドファイバ3の他端の
像、すなわち内視鏡画像がフィルム28に結像する様に
配置されている。カメラ27にはフィルム28にデータ
を写込む為のLED等で構成されるデータ耳語み手段2
9が設けられており、データ耳語み手段29はデータ耳
語み制御手段30に接続されている。一方、第1実施例
におけるパターン円板19の代わりにスリット円板60
がアングルノブ20および回転ドラム18に直結されて
おり、LEDドライバー31によって発光されるL E
 D32からの光はスリット円板60を横切ってフォト
トランジスタ等で構成される受光素子33に到る様に配
置されている。この受光素子33の出力はアンプ22を
介してカウンタ23へ人力され、カウンタ23の出力は
データ耳語み制御手段30に接続されている。また、レ
リーズスイッチ等で構成されるレリーズ指示手段34も
データ耳語み制御手段30に接続されている。
As shown in FIG. 3(A), a camera 27 is attached to the endoscope eyepiece 10 so that the image of the other end of the image guide fiber 3, that is, the endoscopic image, is formed on a film 28. It is located. The camera 27 has a data recording means 2 consisting of an LED and the like for recording data on a film 28.
9 is provided, and the data ear language control means 29 is connected to the data ear language control means 30. On the other hand, a slit disk 60 is used instead of the pattern disk 19 in the first embodiment.
is directly connected to the angle knob 20 and the rotating drum 18, and the LED driver 31 emits light.
The light from D32 is arranged so as to cross the slit disk 60 and reach the light receiving element 33 composed of a phototransistor or the like. The output of the light-receiving element 33 is inputted to the counter 23 via the amplifier 22, and the output of the counter 23 is connected to the data-speech control means 30. Further, a release instruction means 34 composed of a release switch or the like is also connected to the data ear-speech control means 30.

カメラ27で内視鏡画像を撮影したフィルム28は現像
され、第3図(B)に示すようにフィルム読取り手段3
5で読取られる。すなわち、内視鏡弯曲部5が第1の状
態における弯曲量を第1弯曲量情報36として内視鏡画
像と共に写込まれている第1スライド37、および内視
鏡弯曲部5が第2の状態における弯曲量を第2弯曲量情
報38として内視鏡画像と共に写込まれている第2スラ
イド39を別々にドラムスキャナー等で構成されるフィ
ルム読取り手段35で読取るものである。フィルム読取
り手段35の出力はA/Dコンバータ61を介して内視
鏡画像と弯曲量データを弁別する為のデータ弁別手段4
0へ入力される。データ弁別手段40の出力である画像
データ41および弯曲量データ42は画像処理装置16
へ入力される。画像処理装置16の出力はD/Aコンバ
ータ43を介してTVモニタ等で構成されるモニタ44
へ入力される。
The film 28 on which the endoscopic image was photographed by the camera 27 is developed, and as shown in FIG. 3(B), the film reading means 3
It is read in 5. That is, the first slide 37 is photographed together with the endoscope image with the amount of curvature of the endoscope curving portion 5 in the first state as the first curvature amount information 36, and the amount of curvature of the endoscope curving portion 5 in the second state is The amount of curvature in this state is used as second curvature amount information 38, and the second slide 39 photographed together with the endoscopic image is read separately by a film reading means 35 constituted by a drum scanner or the like. The output of the film reading means 35 is sent via the A/D converter 61 to the data discriminating means 4 for discriminating between the endoscopic image and the curvature amount data.
Input to 0. The image data 41 and curvature amount data 42 that are output from the data discrimination means 40 are processed by the image processing device 16.
is input to. The output of the image processing device 16 is sent via a D/A converter 43 to a monitor 44 such as a TV monitor.
is input to.

次に、第2実施例の動作を説明する。内視鏡弯曲部5が
第1の弯曲状態(第2図における実線の状態)において
レリーズ指示手段34を用いてレリーズ操作を行うと、
データ耳語み制御手段30はその時のカウンタ23の値
をデータ耳語み手段29を駆動してフィルム28へ写込
む。この場合、カウンタ23の値をそのまま数字として
記録してもよいし、バーコードの如くエンコードして記
録しても良い。
Next, the operation of the second embodiment will be explained. When the endoscope curved section 5 performs a release operation using the release instruction means 34 in the first curved state (the state indicated by the solid line in FIG. 2),
The data reading control means 30 drives the data reading means 29 to transfer the value of the counter 23 at that time onto the film 28. In this case, the value of the counter 23 may be recorded as a number as it is, or may be encoded and recorded like a bar code.

次に、フィルム28を一駒巻き上げ、アングルノブ20
を少し回転して内視鏡弯曲部5を第2の弯曲状態にする
。この時、アングルノブ20の回転に伴いスリット円板
60も回転し、受光素子33はL E D32からの光
がスリット円板60によって断続されるのを検知する。
Next, wind up one frame of film 28, and turn the angle knob 20.
is slightly rotated to bring the endoscope curved portion 5 into the second curved state. At this time, the slit disk 60 also rotates as the angle knob 20 rotates, and the light receiving element 33 detects that the light from the LED 32 is interrupted by the slit disk 60.

スリット円板60のスリットパターンが90°ずれた位
置にL E D32、受光素子33を2組配置すれば回
転方向も知ることができる。この弯曲操作によりカウン
タ23の値もスリット円板60の回転に伴って変化する
。この状態で角度レリーズ指示手段を用いてレリーズ操
作を行うと、で−タ耳語み制御手段30およびデータ耳
語み手段29によってカウンタ23の値が内視鏡画像と
共にフィルム28に写込まれる。以上の操作により、第
1の弯曲状態における弯曲量と内視鏡画像が写込まれた
第1スライド37および第2の弯曲状態における弯曲量
と内視鏡画像が写込まれた第2スライド39が得られる
。第1スライド37、第2スライド39はフィルム読取
り手段35にかけられ、その出力信号はA/Dコンバー
タ61によってデジタル信号に変換される。データ弁別
手段40ではこのデジタル信号の中から内視鏡画像の信
号と弯曲量の信号を弁別し、画像データ41と弯曲量デ
ータ42を分離して画像処理装置16へ入力する。
By arranging two sets of LEDs 32 and light receiving elements 33 at positions where the slit patterns of the slit disk 60 are shifted by 90°, the rotation direction can also be determined. Due to this bending operation, the value of the counter 23 also changes as the slit disk 60 rotates. When a release operation is performed using the angle release instruction means in this state, the value of the counter 23 is recorded on the film 28 together with the endoscopic image by the data release control means 30 and the data reference means 29. Through the above operations, the first slide 37 on which the amount of curvature and the endoscopic image in the first curvature state are photographed, and the second slide 39 on which the amount of curvature and the endoscopic image in the second curvature state are photographed. is obtained. The first slide 37 and the second slide 39 are applied to the film reading means 35, and the output signal thereof is converted into a digital signal by an A/D converter 61. The data discriminator 40 discriminates between the endoscopic image signal and the curvature amount signal from among the digital signals, and separates the image data 41 and the curvature amount data 42 and inputs them to the image processing device 16.

画像処理装置16では入力されたデータをもとに、詳細
は後述するように被検体4までの距離や被検体4の凹凸
を計算し、D/Aコンバータ43を介してモニタ44に
立体合成像を表示する。
Based on the input data, the image processing device 16 calculates the distance to the subject 4 and the unevenness of the subject 4, as will be described in detail later, and displays a stereoscopic composite image on the monitor 44 via the D/A converter 43. Display.

更に、第3実施例を第4図を用いて説明する。Furthermore, a third embodiment will be explained using FIG. 4.

この第3実施例は第1実施例に示したイメージガイドフ
ァイバー8、内視鏡接眼RIO1結像レンズ11、TV
左カメラ2から成る撮像系を内視鏡先端部に固体撮像素
子45を配置した電子スコープに置き換えたものである
。対物レンズl (図示せず)は被検体4(図示せず)
の像を固体撮像素子45上に結像する様に配置され、そ
の出力はビデオアンプ50、A/Dコンバータ51を介
して出力される。
This third embodiment includes the image guide fiber 8, the endoscope eyepiece RIO1 imaging lens 11, and the TV shown in the first embodiment.
The imaging system consisting of the left camera 2 is replaced with an electronic scope having a solid-state imaging device 45 disposed at the tip of the endoscope. Objective lens l (not shown) is for object 4 (not shown)
is arranged so as to form an image on the solid-state image sensor 45, and its output is outputted via a video amplifier 50 and an A/D converter 51.

また、アングルノブ20の軸にはショートパターン46
が表面に設けられたショートパターン円板47が設けら
れ、パターン46を検知するための接点ブラシ48が設
けられ、ドラム位置検知手段49に接続されている。シ
ョートパターン46はアングルノブ20の回転による内
視鏡弯曲部5の先端の移動距離が等間隔になる様な間隔
で設けられている。接点ブラシ48にはショートパター
ン円板47の回転方向を知る為に3本のブラシが設けら
れている。この3本のブラシはショートパターン46に
対して位置的にずれてショートする様に配置されており
、3本のブラシのうちの2本づつの組のショートするタ
イミングの順番によって回転方向が判る様になっている
。ドラム位置検知手段49からは第1フレームメモリ1
4および第2フレームメモリ15へ記録指示信号52が
供給される様になっている。
In addition, a short pattern 46 is attached to the shaft of the angle knob 20.
A short pattern disc 47 having a pattern 46 on its surface is provided, a contact brush 48 for detecting the pattern 46 is provided, and the contact brush 48 is connected to a drum position detection means 49. The short patterns 46 are provided at intervals such that the distance that the tip of the endoscope curved portion 5 moves at equal intervals when the angle knob 20 is rotated. The contact brush 48 is provided with three brushes in order to know the direction of rotation of the short pattern disk 47. These three brushes are positioned so as to be short-circuited with respect to the short pattern 46, and the direction of rotation can be determined by the order of the timing at which each set of two of the three brushes short-circuits. It has become. From the drum position detection means 49, the first frame memory 1
A recording instruction signal 52 is supplied to the frame memory 4 and the second frame memory 15.

次に、この第3実施例の動作を説明する。アングルノブ
20の回転に伴い、一つ隣のショートパターン46によ
って接点ブラシ48がショートする度にドラム位置検知
手段49は第1フレームメモリ14または第2フレーム
メモリ15へ固体撮像素子45によって撮像された内視
鏡像を記録する様に記録指示信号52を出す。第1フレ
ームメモリ14に記録するか、第2フレームメモリ15
に記録するかはトグル的に切換えられる。この結果、第
1フレームメモリ14および第2フレームメモリ15に
は常に一定の視差を有した内視鏡画像が記録きれる。両
フレームメモリ14.15は画像処理装置16に人力さ
れ、詳細は後述するが、画像処理装置16はこれらの画
像およびショードパターフ460間隔、すなわち一定の
視差の値から被検体までの距離や凹凸の状態を計算し、
D/Aコンバータ43を介してモニタ44へ表示する。
Next, the operation of this third embodiment will be explained. As the angle knob 20 rotates, each time the contact brush 48 is short-circuited by the adjacent short pattern 46, the drum position detection means 49 captures an image in the first frame memory 14 or the second frame memory 15 by the solid-state image pickup device 45. A recording instruction signal 52 is issued to record the endoscopic image. Either record it in the first frame memory 14 or record it in the second frame memory 15.
You can toggle whether or not to record. As a result, the first frame memory 14 and the second frame memory 15 can always record endoscopic images with a constant parallax. Both frame memories 14 and 15 are input to the image processing device 16, and the details will be described later, but the image processing device 16 calculates the distance to the subject from these images and the shod pattern 460 interval, that is, from a constant parallax value. Calculate the state of unevenness,
It is displayed on the monitor 44 via the D/A converter 43.

更に、第4実施例を第5図を用いて説明する。Furthermore, a fourth embodiment will be explained using FIG. 5.

この第4実施例は、内視鏡先端部に固体撮像素子45が
配置された電子スコープに対応するものであり、固体撮
像素子45の出力はビデオアンプ50、A/Dコンバー
タ51およびフレームメモリ53を介して、A/Dコン
バータ51から直接に画像処理装置16に入力される。
This fourth embodiment corresponds to an electronic scope in which a solid-state image sensor 45 is disposed at the tip of an endoscope, and the output of the solid-state image sensor 45 is transmitted to a video amplifier 50, an A/D converter 51, and a frame memory 53. The signal is input directly from the A/D converter 51 to the image processing device 16 via the A/D converter 51.

一方、内視鏡弯曲部5の弯曲量、すなわち、視差の値を
得る為にアングルワイヤ17に白黒パターンを設け、反
射型フォトセンサ等で構成されるセンサ21によりワイ
ヤ17の移動量を検知する。センサ21の出力はアンプ
22、カウンタ23に接続され、カウンタ23の出力は
ラッチ54と画像処理装置16に接続され、ラッチ54
の出力も画像処理装置16に接続されている。また、図
示しない操作スイッチからの信号により動作し、フレー
ムメモリ53、ラッチ54に動作信号を出力する記録指
示手段55が設けられている。
On the other hand, in order to obtain the amount of curvature of the endoscope curved portion 5, that is, the value of parallax, a black and white pattern is provided on the angle wire 17, and the amount of movement of the wire 17 is detected by a sensor 21 composed of a reflective photosensor or the like. . The output of the sensor 21 is connected to an amplifier 22 and a counter 23, and the output of the counter 23 is connected to a latch 54 and an image processing device 16.
The output of is also connected to the image processing device 16. Further, a recording instruction means 55 is provided which is operated by a signal from an operation switch (not shown) and outputs an operation signal to the frame memory 53 and the latch 54.

次に、この第4実施例の動作を説明する。この第4実施
例は、画像処理装置16の処理速度が高速の場合、また
は画像処理装置16が内部にフレームメモリ、ラッチを
持っている場合に、第1実施例の如くに2個のフレーム
メモリとラッチを使用しなくとも実施できることを示し
ている。すなわち、内視鏡弯曲部5が第1の状態におい
て操作スイッチを操作し、記録指示手段55からの信号
により第1状態の時のカウンタ23の値をラッチ54に
記録すると共に、固体撮像素子45で撮像された内視鏡
画像をフレームメモリ53に記録する。一方、内視鏡弯
曲部5が第2状態の時の内視鏡画像とカウンタ23の値
を画像処理装置に直接に取込み、第1の状態の時の内視
鏡画像とカウンタ値とよりリアルタイムで被検体までの
距離や凹凸の状態を計算し、D/Aコンバータ43を介
してモニタ44で表示を行う。
Next, the operation of this fourth embodiment will be explained. This fourth embodiment uses two frame memories as in the first embodiment when the processing speed of the image processing device 16 is high or when the image processing device 16 has internal frame memories and latches. This shows that it can be implemented without using a latch. That is, when the endoscope bending section 5 operates the operation switch in the first state, the value of the counter 23 in the first state is recorded in the latch 54 by a signal from the recording instruction means 55, and the solid-state image sensor 45 The endoscope image captured in the above is recorded in the frame memory 53. On the other hand, the endoscopic image when the endoscope bending section 5 is in the second state and the value of the counter 23 are directly taken into the image processing device, and the endoscopic image and the counter value when the endoscope bending section 5 is in the first state are processed in real time. The distance to the object and the state of unevenness are calculated and displayed on the monitor 44 via the D/A converter 43.

次に、前記実施例において後述すると述べた画像処理装
置16における物体の高さおよび大きさの絶対的な値の
測定法の原理について、まず説明する。
Next, the principle of measuring the absolute values of the height and size of an object in the image processing device 16, which will be described later in the embodiment, will be explained first.

第6図に示すように、2枚の画像を取込む際の内視鏡先
端部の曲げ角をθ、曲率半径をrとすると、曲げる前と
後とでの対物レンズ間の距離lはθが小さいときp=r
・θで近似される。次に2枚の画像と対象物体との幾何
学的対応を第7図に示す。なお、この第7図においては
説明を簡単にするために、レンズの光軸方向は、移動の
前後において、移動の前後におけるレンズの中心0.、
0゜を結ぶ直線に対して垂直な方向であるとして説明す
る。2つの状態におけるレンズの中心の位置を02,0
□、その時得られる画像をpHP2%レンズの焦点距離
をfとする。物体の任意の点A、 Bは画像P1上では
al+ bl、また画像P2上ではa2+ b2の位置
に写しとられる。ここで、2枚の画像を中心を合わせて
重ね合わせるとすると、al+blの点は画像P2上で
al’ +  b、′ に相当する。このときのa、 
/と82間の距離を’a、bl′ とb2間の距離をd
、とする。また、0.、02を含み対象物体と平行な面
P。
As shown in Figure 6, if the bending angle of the endoscope tip when capturing two images is θ and the radius of curvature is r, the distance l between the objective lenses before and after bending is θ. When is small, p=r
・Approximate by θ. Next, FIG. 7 shows the geometric correspondence between the two images and the target object. In addition, in FIG. 7, in order to simplify the explanation, the optical axis direction of the lens is defined as 0.0, the center of the lens before and after the movement. ,
This will be explained assuming that it is a direction perpendicular to the straight line connecting 0 degrees. The position of the center of the lens in the two states is 02,0
□, the focal length of the pHP2% lens of the image obtained at that time is f. Arbitrary points A and B on the object are mapped at positions al+bl on image P1, and at positions a2+b2 on image P2. Here, if the two images are superimposed with their centers aligned, the point al+bl corresponds to al'+b,' on image P2. At this time a,
The distance between / and 82 is 'a', and the distance between bl' and b2 is d
, and so on. Also, 0. , 02 and is parallel to the target object.

と点Aとの距離をり、 、 Poと点Bとの距離をh8
とする。すると、hA とd、は三角形A010□と三
角形0□a、’ a2との相似関係より、次の関係式が
成り立つ。
The distance between Po and point A is , and the distance between Po and point B is h8
shall be. Then, the following relational expression holds true between hA and d due to the similarity between triangle A010□ and triangle 0□a,'a2.

従って、haは次式で求めることができる。Therefore, ha can be determined using the following equation.

同様にして、ha+は0式で求められる。Similarly, ha+ can be found using the formula 0.

この様に、2枚の画像PII P2における対応点間の
距離dを求めることによって、その点の高さ方向の絶対
的大きさhを求めることができる。
In this way, by determining the distance d between corresponding points in the two images PII P2, the absolute size h of the point in the height direction can be determined.

次に、任意の点の間の距離の絶対的大きさを求める方法
を示す。画像P1における中心をC3とし、P1上で0
1とa、との距離をea、cIとblとの距離をe、と
する。また、01から垂直に物体上におろした直線Iと
点A、Bとの距離をWA、W、とすると、まず、WAと
e6 との間には比例関係より、が成立する。よって、
■式に■式を代入すると、L は0式で求まる。
Next, we will show how to find the absolute size of the distance between arbitrary points. The center of image P1 is C3, and 0 on P1
Let the distance between 1 and a be ea, and the distance between cI and bl be e. Further, if the distances between a straight line I drawn perpendicularly from 01 onto the object and points A and B are WA and W, then the following holds true between WA and e6 due to the proportional relationship. Therefore,
Substituting the formula ■ into the formula ■, L can be found using the formula 0.

同様に、Waは0式で求められる。Similarly, Wa can be found using the formula 0.

b 従って、物体をP。と平行な平面に投影したときの点A
と点Bの距離1IIABは、■式のようにして求めるこ
とができる。
b Therefore, the object is P. Point A when projected onto a plane parallel to
The distance 1IIAB between and point B can be determined using the formula (2).

従って、画像P、上で任意の点間の距離の絶対的大きさ
を測定することができる。
Therefore, the absolute magnitude of the distance between arbitrary points on the image P can be measured.

次に、2枚の画像P1とP2において、対応する点間の
距離dを求める方法について説明する。基本的には2枚
の画像の中の小領域における相関を調べることによって
求める。2枚の画像内の小領域を関数f (tr)、 
g(tr)で表し、g(tr)がf (tr)と比べる
て(Dだけシフトしている。つまり、g(tr)=f 
(+r−10)と仮定する。ただし、trは2次元を表
わす座標である。
Next, a method for finding the distance d between corresponding points in the two images P1 and P2 will be explained. Basically, it is determined by examining the correlation in a small area in two images. The small area in the two images is defined by the function f (tr),
g(tr), and g(tr) is shifted by (D compared to f(tr). In other words, g(tr)=f
Assume that (+r-10). However, tr is a coordinate representing two dimensions.

f (tr)とg(tr)の相関は次式で定義される。The correlation between f (tr) and g (tr) is defined by the following equation.

ψ(s) = L f(sr) −g ” (tr−s
) −d tr −−一■(以下、ψ(s) = f(
tr)本g(tr)と略記する)ただし、Aは小領域の
面積を表わすものとする。
ψ(s) = L f(sr) −g ” (tr−s
) −d tr −−1■(Hereinafter, ψ(s) = f(
(abbreviated as g(tr)), where A represents the area of the small region.

0式をフーリエ変換したものを■式に示す。The Fourier transform of Equation 0 is shown in Equation (2).

Φ(u+) = F(u+) ・G I(Iu)  −
−−−■ただし、F(u)はf(「) をフーリエ変換
した関数、G(1)はg(tr)をフーリエ変換した関
数とする。
Φ(u+) = F(u+) ・G I(Iu) −
---■ However, F(u) is a function obtained by Fourier transform of f(''), and G(1) is a function obtained by Fourier transform of g(tr).

ここで、g(tr)・f(+r−[))の条件を使うと
、■式は、 Φ(lu) = F(Iu) 4 (iu) −e−”
’″′4′4−−−なる。■式を逆フーリエ変換すると
、0式のようになる。
Here, using the condition of g(tr)・f(+r−[)), the formula ■ becomes Φ(lu) = F(Iu) 4 (iu) −e−”
''''4'4 ---.When the formula is inversely Fourier transformed, it becomes the formula 0.

ψ(s) =  Rye(1)  *δ(t−10> 
  −−−−−111)ただし、Rrr(t)はf(r
)の自己相関関数であり、 Lrfi) = f(tr)  *f(tr) −−−
−−@で表わされる。また、e−J−21′11′II
の逆フーリエ変換がδ代−])となることを使用した。
ψ(s) = Rye(1) *δ(t-10>
-------111) However, Rrr(t) is f(r
) is the autocorrelation function of Lrfi) = f(tr) *f(tr) ---
--Represented by @. Also, e-J-21'11'II
We used the fact that the inverse Fourier transform of is δ-]).

0式は相関関数ψ($)が$=0のところで、ピークを
有することを示している。したがって、相関関数ψ(S
)を求め、そのピークの位置のを調べることにより、g
(r) がf(「)に対してどれだけシフトしているか
を決定することができる。このことを利用して、2枚の
画像P、、 P、から対応する小領域を求め、対応する
点間の距離dを求めることができる。
Equation 0 indicates that the correlation function ψ($) has a peak at $=0. Therefore, the correlation function ψ(S
), and by checking the position of the peak, g
It is possible to determine how much (r) is shifted with respect to f('').Using this fact, find the corresponding small area from the two images P,, P, and calculate the corresponding The distance d between points can be found.

次に、実際の構成例について説明する。Next, an actual configuration example will be explained.

第8図に画像処理装置16における上記処理に係る処理
系全体のブロック図を示す。内視鏡側から送られてくる
2枚分のカラー画像データ90は画像メモリ91に記録
される。画像メモリ91の画像データはカラー−モノク
ロ変換器92に入力され、計測に適したモノクロ画像デ
ータに変換される。カラー−モノクロ変換器92からの
出力は歪補正器93により、弯曲角θを参照しながら画
像の歪が補正される。歪が補正された2枚の画像データ
は相関演算器94に入力され、対応点間の距離、つまり
シフト量が検出され、これはシフト量メモリ95に蓄積
される。画像表示装置96では、画像メモリ91に記録
されである画像や、シフト量メモリ95に記録されであ
るシフト量およびθの値から計算された画像の凹凸情報
、さらには画像内の任意の部分の大きさや高さの絶対的
値の表示を行う。
FIG. 8 shows a block diagram of the entire processing system related to the above processing in the image processing device 16. Two pieces of color image data 90 sent from the endoscope are recorded in an image memory 91. Image data in the image memory 91 is input to a color-monochrome converter 92 and converted into monochrome image data suitable for measurement. The output from the color-monochrome converter 92 is corrected for image distortion by a distortion corrector 93 while referring to the curvature angle θ. The two images whose distortion has been corrected are input to a correlation calculator 94 to detect the distance between corresponding points, that is, the amount of shift, and this is stored in a shift amount memory 95. The image display device 96 displays the image recorded in the image memory 91, the unevenness information of the image calculated from the shift amount and the value of θ recorded in the shift amount memory 95, and also the unevenness information of an arbitrary part in the image. Displays absolute values of size and height.

(1)画像入力 内視鏡の先端を弯曲させて取り込んだ2枚のカラー画像
データを入力し、画像メモリ91に蓄積する。また、弯
曲角θの値を歪補正器93および画像表示装置96に入
力する。
(1) Image input Two color image data captured by bending the tip of the endoscope are input and stored in the image memory 91. Further, the value of the curve angle θ is input to the distortion corrector 93 and the image display device 96.

(2)画像の歪の補正 入力した画像は広角レンズで撮ったり内視鏡の先端部を
傾けることにより、歪んでいるのでこれを修正する。方
法としては第9図に示す様に、まず体内で画像を撮る前
に同じ条件で平面上の正方のます目を撮っておき、この
画像が正方になるような各画素における補正値を決めて
おく。そして、実際に入力する画像について補正を行う
(2) Correction of image distortion The input image is distorted by taking it with a wide-angle lens or by tilting the tip of the endoscope, so this is corrected. As shown in Figure 9, the method is to first take a picture of a square square on a plane under the same conditions before taking an image inside the body, and then determine the correction value for each pixel so that the image becomes a square. put. Then, correction is performed on the image that is actually input.

画像の歪補正器94のブロック図を第10図に示す。A block diagram of the image distortion corrector 94 is shown in FIG.

θの値は設定可能なθにおける歪補正値を記憶しである
メモリ104に入力され、人力画像データに適当なアド
レスを与えることによっつで歪を修正しながら画像メモ
リ105に画像データを記録する。
The value of θ is input to the memory 104 which stores the distortion correction value at θ which can be set, and the image data is recorded in the image memory 105 while correcting the distortion by giving an appropriate address to the human image data. do.

次に補間演算器106によって、画像メモリ105に記
録されである画像に対して補間演算を行い、歪補正によ
って高い空間周波数成分が劣化するのを防ぐ。この補間
関数としては5inc関数に近い形を持つ第11図に示
すようなり一5pline関数、f(X)=lXl’−
21Xl”+1  1XI<1f(X)=−IX13+
5 1XI2−8 1Xl+41≦l X I <2 f(X)= Q    l x l ≧2などを用いる
Next, an interpolation calculator 106 performs an interpolation calculation on the image recorded in the image memory 105 to prevent high spatial frequency components from deteriorating due to distortion correction. This interpolation function is a 5-pline function as shown in Figure 11, which has a form close to a 5-inc function, f(X)=lXl'-
21Xl”+1 1XI<1f(X)=-IX13+
5 1XI2-8 1Xl+41≦lXI<2 f(X)=Qlxl≧2, etc. are used.

(3)相関演算 相関演算では第12図に示すように、2枚の左および右
画像LP、 RPの中に、検出点にPと検出点KPを中
心とした演算対象領域を設定する。演算対象領域は、最
初は相関ピークがあまり鋭くないが大まかな見当をつけ
るためにある程度大きな領域例えばBBを設定し、次に
対象領域を絞って小さな領域SHにおいて演算を行い、
精度良く対応する領域を決定する。
(3) Correlation Calculation In the correlation calculation, as shown in FIG. 12, a detection point P and a calculation target area centered around the detection point KP are set in the two left and right images LP and RP. Initially, the calculation target area is set to be a somewhat large area, for example BB, in which the correlation peak is not very sharp, but in order to get a rough idea, then the calculation is performed on a small area SH after narrowing down the target area.
Determine the corresponding area with high accuracy.

(i)電気回路による相関演算器 第1例 第13図は電気回路による相関演算器の第1例の構成を
示すものである。画像メモリ107に対しアドレス発生
器108によって演算対象領域を指定し、積和演算器1
09によって相関演算を行う。その結果は判定器110
によって判定される。まず最初に大きな演算対象領域に
ついて相関演算を行う際は、ある値以上になる相関値と
そのときのアドレスをコントローラ112側に送る。そ
して、その結果をコントローラ112が判断し、対象を
限定した領域のアドレスを発生するようにアドレス発生
器108に指令を送る。そして小さな設定領域について
相関演算を同様にして行い、今度は判定器110によっ
て最大値のみを判定し、そのときのアドレスをシフト量
メモリ111 に送る。
(i) First example of a correlation calculator using an electric circuit FIG. 13 shows the configuration of a first example of a correlation calculator using an electric circuit. The address generator 108 specifies the area to be calculated in the image memory 107, and the sum-of-products calculator 1
Correlation calculation is performed using 09. The result is determined by the judge 110
It is judged by. First, when performing a correlation calculation on a large area to be calculated, a correlation value exceeding a certain value and the address at that time are sent to the controller 112 side. Then, the controller 112 judges the result and sends a command to the address generator 108 to generate an address for the targeted area. Correlation calculations are then performed in the same manner for the small set area, and this time only the maximum value is determined by the determiner 110, and the address at that time is sent to the shift amount memory 111.

この構成は、演算に時間がかかるが、簡単な部品で構成
できる。
Although this configuration takes time to calculate, it can be configured with simple parts.

第2例 第14図は電気回路による相関演算器の第2例の構成を
示すものである。これは前記の第1例の構成において相
関演算を行うのに、積和演算器109の代わりにFFT
113a、113b113bと乗算器114および逆F
FT器115を用いるものである。なお、FFT113
bはフーリエ変換した後に複素共役の値を出力するよう
になっている。
Second Example FIG. 14 shows the configuration of a second example of a correlation calculator using an electric circuit. This is because the FFT is used instead of the product-sum calculator 109 to perform the correlation calculation in the configuration of the first example.
113a, 113b113b and multiplier 114 and inverse F
This uses an FT device 115. In addition, FFT113
b outputs a complex conjugate value after Fourier transformation.

本回路を用いることにより演算速度を速くすることがで
きる。
By using this circuit, calculation speed can be increased.

第3例 第15図は電気回路による相関演算器の第3例の構成を
示すものである。画像メモリ107に記録されである左
右両画像信号f、gは、それぞれ平均演算器120a、
 120bに入力して所定の領域における平均濃度値f
、 gを算出した後、これら平均値f。
Third Example FIG. 15 shows the configuration of a third example of a correlation calculator using an electric circuit. The left and right image signals f and g recorded in the image memory 107 are respectively averaged by an average calculator 120a,
120b to input the average density value f in a predetermined area.
, g, and then their average value f.

iを乗算器121に入力して7・王を計算する。また、
左右両画像信号f、 gは乗算器122に入力して、f
−gを計算した後、これを平均演算器123に入力して
所定の領域1ニーおけるf−gの平均値f・gを計算す
る。この平均演算器123の出力r1は乗算器121の
出カフ・層とともに減算器124に入力し、ここで相互
相関f−g−f  −gを算出する。更に、画像メモリ
107からの左右両画像信号f、 gおよび平均演算器
120a、 120bの出力信号f、 gは、それぞれ
標準偏差演算器125a、 125bに入力して所定の
領域における両画像の標準偏差σ、・・「6口7戸、σ
9・4?−(i)2を算出し、これらを乗算器126に
入力してσ、・ σ、を計算する。この除算器126お
よび減算器124の出力は、乗算器127に人力して f−g−f−g σf”  σ9 を算出し、これを判定器110に入力する。以下は、前
記の例と同様に、判定器110、コントローラ112、
アドレス発生器108により、対応領域の判定を行って
相関ピークのアドレスをシフ)lメモリ111に送出し
て記録する。
Input i to the multiplier 121 to calculate 7.King. Also,
Both left and right image signals f and g are input to a multiplier 122, and f
After calculating -g, this is input to the average calculator 123 to calculate the average value f·g of f−g in one predetermined area. The output r1 of the average calculator 123 is input to the subtracter 124 together with the output cuff layer of the multiplier 121, where the cross-correlation f-g-f-g is calculated. Furthermore, the left and right image signals f, g from the image memory 107 and the output signals f, g of the average calculators 120a, 120b are input to standard deviation calculators 125a, 125b, respectively, to calculate the standard deviation of both images in a predetermined area. σ,..."6 units, 7 units, σ
9.4? −(i)2, and input these to the multiplier 126 to calculate σ,·σ. The outputs of the divider 126 and the subtracter 124 are manually input to the multiplier 127 to calculate f-g-f-g σf'' σ9, which is input to the determiner 110.The following is the same as the above example. , a determiner 110, a controller 112,
The address generator 108 determines the corresponding area and sends the address of the correlation peak to the memory 111 for recording.

この例では、積和演算器を用いた相関演算を実行する際
に、左右の画像のそれぞれについて平均値を差し引き、
標準偏差でノーマライズするようにしている。すなわち
、式で表わすと、で、これを変形した σf ・σ9 を基に回路を構成したので、左右両画像の相関を計算す
る際に精度を悪くする原因となる両画像間のバイアスや
ゲインの違いを相殺できる。したがって、簡単な部品で
構成できる上に、相関ピークを精度良く検出することが
できる。
In this example, when performing a correlation calculation using a product-sum calculator, the average value is subtracted for each of the left and right images,
I try to normalize using the standard deviation. In other words, the circuit is constructed based on σf ・σ9, which is expressed as the formula, and the bias and gain between the left and right images, which cause poor accuracy when calculating the correlation between the left and right images, are We can cancel out the differences. Therefore, not only can it be constructed with simple parts, but also correlation peaks can be detected with high accuracy.

第4例 第16図は電気回路による相関演算器の第4例の構成を
示すものである。この例では画像メモリ107に記録さ
れている左右両画像信号を、それぞれ空間周波数フィル
タリング装置130a、 130bに人力して所定の空
間周波数フィルタリングを施してから積和演算器109
に入力するようにしたもので、その他の構成は第13図
と同様である。なお、空間周波数フィルタリング装置1
30a、 130bは、例えば第17図、第18図また
は第19図に示すように構成することかできる。
Fourth Example FIG. 16 shows the configuration of a fourth example of a correlation calculator using an electric circuit. In this example, both the left and right image signals recorded in the image memory 107 are manually subjected to predetermined spatial frequency filtering in the spatial frequency filtering devices 130a and 130b, respectively, and then the product-sum calculator 109
The other configuration is the same as that shown in FIG. 13. Note that the spatial frequency filtering device 1
30a, 130b can be configured as shown in FIG. 17, FIG. 18, or FIG. 19, for example.

第17図は、画像メモリ107からの画像信号とアドレ
ス発生器108からのアドレス信号とをルックアップテ
ーブルメモリ(LOT)131に人力して、画素の値と
アドレスに応じたテーブル変換値を出力させ、これを加
算器132においてメモ1J133に記録されている値
と加算してメモリ133に記録することによりその値を
更新するようにしたものである。
In FIG. 17, an image signal from an image memory 107 and an address signal from an address generator 108 are manually input to a look-up table memory (LOT) 131 to output a table conversion value according to the pixel value and address. , this value is added in the adder 132 to the value recorded in the memo 1J133 and recorded in the memory 133, thereby updating the value.

このように構成することにより、画像の所定の領域につ
いての積和演算を行うことができる。なお、メモIJ1
33に記録されている値を加算器132に戻すか、積和
演算器109に出力するかは、アドレス発生器108か
らのアドレス信号に応じてセレクタ134で選択する。
With this configuration, it is possible to perform a sum-of-products calculation for a predetermined area of an image. In addition, memo IJ1
The selector 134 selects whether to return the value recorded in the adder 33 to the adder 132 or to output it to the product-sum calculator 109 in accordance with the address signal from the address generator 108.

また、第18図では第17図においてLOT 131を
用いた代わりに、積和演算の係数を記録したメモリ13
5と乗算器136 とを設け、アドレスの値に応じた係
数と画素信号とを乗じて加算器132に出力させるよう
にしたもので、その他の構成は第17図と同様である。
In addition, in FIG. 18, instead of using the LOT 131 in FIG.
5 and a multiplier 136 to multiply the pixel signal by a coefficient corresponding to the value of the address and output the result to the adder 132.The other configuration is the same as that in FIG.

第19図は、3×3画素局所領域の積和演算を高速に実
行するように構成したもので、画像信号はラスタースキ
ャニングの順に従って時系列的に入力される。この画像
信号のうち、1ラインディレィ装置140a、 140
bの両方を通過した画素信号を変換装置141Cに、前
記1ラインデイレイ装置140aのみを通過した画素信
号を変換装置141bに、そして前記1ラインデイレイ
装置140a、 140bのいずれも通過する以前の画
素信号を変換装置141aにそれぞれ同時に人力させる
。変換装置141a〜141Cは、第17図におけるL
tlT 131あるいは第18図におけるメモIJ13
5および乗算器136と同様に構成され、画素信号にア
ドレスに応じた変換係数を乗じた値を変換値として出力
する。これら変換装置141a〜141Cからの出力は
、加算器142に入力して加算し、その加算出力を1画
素ディレィ装置143a、加算器144aおよび加算器
144bに入力する。1画素ディレィ装置143aに入
力された信号は、1画素分タイミングを遅らせた後に加
算器144aに人力して、ここで1画素分後の加算器1
42からの出力と加算して1画素ディレィ装置143b
に入力する。1画素ディレィ装置143bでは、加算器
144aの出力を1画素分遅らせて加算器144bに入
力させ、ここで加算器142の出力を加算して第16図
に示す積和演算器109に入力させる。このようにして
、パイプライン方式により3×3局所領域の積和演算を
高速に行うことができる。なお、第19図では3×3局
所領域の積和演算を行うようにしたが、同様な方法で各
素子の数を増やすことにより、さらに大きなサイズの積
和演算を行うことも可能である。
FIG. 19 shows a system configured to perform sum-of-products operations on a 3×3 pixel local area at high speed, and image signals are inputted in time series according to the order of raster scanning. Among these image signals, one line delay device 140a, 140
The pixel signal that has passed through both of the 1-line delay devices 140a and 140b is sent to the converter 141C, the pixel signal that has passed only through the 1-line delay device 140a is sent to the converter 141b, and the pixel signal that has passed through both of the 1-line delay devices 140a and 140b is sent to the converter 141C. are manually input to the converter 141a at the same time. The conversion devices 141a to 141C are L in FIG.
tlT 131 or memo IJ13 in Figure 18
5 and multiplier 136, and outputs a value obtained by multiplying a pixel signal by a conversion coefficient corresponding to an address as a conversion value. The outputs from these conversion devices 141a to 141C are input to an adder 142 and added, and the added output is input to a 1-pixel delay device 143a, an adder 144a, and an adder 144b. The signal input to the one-pixel delay device 143a is manually inputted to the adder 144a after delaying the timing by one pixel, and is then input to the adder 144a after one pixel.
42 and one pixel delay device 143b.
Enter. In the one-pixel delay device 143b, the output of the adder 144a is delayed by one pixel and inputted to the adder 144b, where the output of the adder 142 is added and inputted to the product-sum calculator 109 shown in FIG. In this way, the product-sum calculation for 3×3 local regions can be performed at high speed using the pipeline method. Note that in FIG. 19, the product-sum operation is performed for a 3×3 local area, but it is also possible to perform a product-sum operation of an even larger size by increasing the number of each element using the same method.

上述したように、この第4例においては、積和演算によ
る相関演算を実行する前に、おのおのの画像に対し空間
周波数フィルタリングを行うようにしている。ここで、
画像の相関性は、性質に応じて特定の空間周波数成分の
領域を抽出した方が精度良く求めることができる。そこ
でこの第4例では、画像内の各画素について、各画素を
中心とした局所領域の積和演算を実行することにより空
間周波数フィルタリングを実現し、その後に相関演算を
行う。このフィルタリングについては、内視鏡先端部の
移動量がわずかで、左右両画像の相関性が非常に大きい
場合は、画像の高空間周波数成分を抽出することによっ
てより相関の精度を高めることができる。このバイパス
フィルタリングの例としては、以下に示すように3X3
画素の領域についてラプラシアンフィルタを用いて処理
することにより、画像の低周波成分をカットしてエツジ
部を抽出することができる。
As described above, in this fourth example, spatial frequency filtering is performed on each image before performing the correlation calculation using the product-sum calculation. here,
Image correlation can be determined more accurately by extracting regions of specific spatial frequency components according to their properties. Therefore, in this fourth example, spatial frequency filtering is realized by performing a sum-of-products operation for a local region centered on each pixel for each pixel in the image, and then a correlation operation is performed. Regarding this filtering, if the amount of movement of the endoscope tip is small and the correlation between the left and right images is very large, the accuracy of the correlation can be further improved by extracting the high spatial frequency components of the images. . An example of this bypass filtering is 3X3 as shown below.
By processing a pixel region using a Laplacian filter, it is possible to cut low frequency components of an image and extract edge portions.

ただし、*はコンポリニージョンを示す。However, * indicates a combination.

また、左右両画像の相関性が幾何学的条件による形状の
ゆがみや照明の具合等により劣化している場合には、ロ
ーパスフィルタリングによって低空間周波数成分を抽出
することにより、その相関性を高めることができる。こ
のローパスフィルタリングの例としては、以下に示すよ
うな平均化フィルタを用いて処理することができる。
In addition, if the correlation between the left and right images is degraded due to shape distortion due to geometric conditions or lighting conditions, the correlation can be improved by extracting low spatial frequency components using low-pass filtering. Can be done. As an example of this low-pass filtering, processing can be performed using an averaging filter as shown below.

上記の他にも種々の係数による積和演算を行うことがで
きると共に、局所領域のサイズを大きくとることによっ
て、特定の空間周波数フィルタリンクに対スるバンドパ
スフィルタを設けることも可能であり、画像に応じて適
当なフィルタリングを行うことができる。
In addition to the above, it is possible to perform product-sum operations using various coefficients, and by increasing the size of the local area, it is also possible to provide a bandpass filter for a specific spatial frequency filter link. Appropriate filtering can be performed depending on the image.

この第4例においても、比較的簡単な部品構成で、精度
良(相関演算を実行することができる。
In this fourth example as well, it is possible to perform highly accurate (correlation calculation) with a relatively simple component configuration.

第5例 第20図は電気回路による相関演算器の第5例の構成を
示すものである。この例は、第14図に示した回路構成
において、FFT 113a、 113bの出力を空間
周波数フィルタリング装置145a、 145bでそれ
ぞれ所定のフィルタリングを行った後、乗算器114に
入力して同様に処理するようにしたものである。この場
合の空間周波数フィルタリング装置145a、 145
bの2つの例の構成を第21図および第22図に示す。
Fifth Example FIG. 20 shows the configuration of a fifth example of a correlation calculator using an electric circuit. In this example, in the circuit configuration shown in FIG. 14, the outputs of FFTs 113a and 113b are subjected to predetermined filtering by spatial frequency filtering devices 145a and 145b, respectively, and then input to a multiplier 114 and processed in the same manner. This is what I did. Spatial frequency filtering devices 145a, 145 in this case
The configurations of two examples of b are shown in FIGS. 21 and 22.

第21図はルックアップテーブルメモ’J (L[IT
) 146を用いたもので、FFT 113a  から
画像信号f(+r)(ただしrは2次元アドレス)をフ
ーリエ変換したときの周波散りとフーリエ変換値F(u
)を入力し、その周波数Uによって選択された変換テー
ブルに基づいてF(u)を変換して、その結果P’ (
u)を出力するようにしたものである。
Figure 21 shows the lookup table memo 'J (L[IT
) 146, the frequency dispersion and Fourier transform value F(u
) and transform F(u) based on the conversion table selected by its frequency U, resulting in P' (
u) is output.

また、第22図はLIT 147と乗算器148とを用
いたもので、FFT 113aからの周波数Uの値をL
tlT147に入力してその周波散りに応じた係数kを
出力させ、この係数にとFFT 113aからのフーリ
エ変換値F(+u)  とを乗算器148で掛は算して
F’ (a、l)を出力するようにしたものである。
Moreover, FIG. 22 uses the LIT 147 and the multiplier 148, and the value of the frequency U from the FFT 113a is
A coefficient k corresponding to the frequency dispersion is input to the tlT 147 and outputted, and this coefficient is multiplied by the Fourier transform value F(+u) from the FFT 113a in a multiplier 148 to obtain F' (a, l). It is designed to output .

なお、第21図右よび第22図では一方の空間周波数フ
ィルタリング装置145aの構成を示したが、他方の空
間周波数フィルタリング装置145bも同様に構成する
ことができる。
Although the configuration of one of the spatial frequency filtering devices 145a is shown in the right side of FIG. 21 and FIG. 22, the other spatial frequency filtering device 145b can also be configured in the same manner.

この第5例では、上述した第4例と同様に画像に適当な
空間周波数フィルタリングを施してから相関演算を行う
ものであるが、この第5例では画像をフーリエ変換した
後に空間周波数領域においてフィルタリングを行うよう
にしているので、任意のフィルタリングが可能となる。
In this fifth example, as in the fourth example described above, correlation calculation is performed after applying appropriate spatial frequency filtering to the image, but in this fifth example, the image is Fourier transformed and then filtered in the spatial frequency domain. Since this is done, arbitrary filtering is possible.

つまり第4例のような局所領域のサイズによる制限がな
く、画像に応じた最適なフィルタリングを行うことがで
きる。したがって、より精度の良い相関演算を高速に実
行することができる。
In other words, there is no restriction due to the size of the local area as in the fourth example, and optimal filtering can be performed according to the image. Therefore, more accurate correlation calculations can be executed at high speed.

第6例 第23図は電気回路による相関演算器の第6例の構成を
示すものである。この例は、FFT 113a。
Sixth Example FIG. 23 shows the configuration of a sixth example of a correlation calculator using an electric circuit. This example is FFT 113a.

113bの出力を乗算器114に人力すると同時に、絶
対値算出器149a、 149bにそれぞれ入力し、こ
れら絶対値算出器149a、 149bにおいてフーリ
エ変換された値の絶対値(IFl・、ρ?−F”)を算
出した後、これらの出力を乗算器150で乗算し、この
乗算器150の出力と前記乗算器114の出力とにより
除算器151において割り算を実行してその出力を逆F
FT 115に入力するようにした点が上述した第2例
(第14図)と異なるものであり、その他の構成は第2
例と同様である。
The output of 113b is manually input to the multiplier 114, and at the same time inputted to the absolute value calculators 149a and 149b, respectively, and the absolute value of the Fourier-transformed value in these absolute value calculators 149a and 149b (IFl・,ρ?−F” ), these outputs are multiplied by a multiplier 150, and a division is performed in a divider 151 by the output of this multiplier 150 and the output of the multiplier 114, and the output is inverted F.
It differs from the second example (Fig. 14) described above in that it is input to the FT 115, and the other configuration is the same as the second example.
Similar to the example.

この第6例では、フーリエ変換を介した相関演算を実行
する際に、画像f、 gをツーIJ 工変換した値F、
G”をおのおの絶対値で割ってから相関演算を行うよう
にしている。すなわち、式に表わすと次のようになる。
In this sixth example, when performing the correlation calculation via Fourier transform, the images f and g are transformed into two values F,
The correlation calculation is performed after dividing G'' by the absolute value of each. That is, the equation is expressed as follows.

ただし、τ−1は逆フーリエ変換を表わす。However, τ-1 represents an inverse Fourier transform.

このような方法を用いれば、フーリエペスクトルに依存
せず、位相情報のみが相関性を決定することになるので
、非常に精度良く相関性を検出することができる。した
がって、内視鏡の対物レンズの視野角が狭く、左右の画
像を撮像したときの先端の振り角が小さいなど、非常に
相関性の高いステレオ画像が得られる場合には、精度良
く、高速に、しかも比較的簡単な方法で相関演算を実行
することができ。
If such a method is used, only the phase information determines the correlation without depending on the Fourier pesctor, and therefore the correlation can be detected with high accuracy. Therefore, when highly correlated stereo images are obtained, such as when the viewing angle of the endoscope objective lens is narrow and the swing angle of the tip is small when capturing left and right images, it is possible to obtain stereo images with high accuracy and high speed. , and the correlation operation can be performed in a relatively simple way.

(ii)光学装置による相関演算器 第1例 第24図に光学系による相関演算器の第1例のブロック
図を示す。レーザー156からの出力光はビームエキス
パンダー157によって適当な径に広げられ、ホログラ
ム162の参照光となるのと同時にハーフミラ−158
によって約半分の強度の光が反射され、この反射された
光はさらにミラー159によって全反射されて画像フィ
ルム160を照明する。
(ii) First example of a correlation calculator using an optical device FIG. 24 shows a block diagram of a first example of a correlation calculator using an optical system. The output light from the laser 156 is expanded to an appropriate diameter by a beam expander 157, becomes a reference light for the hologram 162, and at the same time is sent to a half mirror 158.
About half the intensity of the light is reflected by the mirror 159, and this reflected light is further totally reflected by the mirror 159 to illuminate the image film 160.

画像フィルム160は歪補正器93の説明のときの画像
メモリ107に記憶されている左右どちらかの画像デー
タをポジフィルムに焼きつけたもので、第25図に示す
ように、演算対象領域08だけを通すマスクMAをかぶ
せて設置されている。画像フィルム160を通過した光
はレンズ161によって集光され、レンズ161の焦点
面におかれたホログラム162に先に述べた参照光との
干渉縞が記録される。次に同じ光学系において、画像フ
ィルム160に最初に用いた画像と別の画像を用い、レ
ンズ160の焦点面に置かれた光強度分布を2次元的に
検出するディテクター164によって光のスポット位置
を検出し、コントローラ165で座標を判定する。この
ような操作を、画像フィルム160のマスクの大きさお
よび位置を変えることによって繰り返し、最終的な測定
値をシフト量としてシフト量メモリ166に記録する。
The image film 160 is obtained by printing either the left or right image data stored in the image memory 107 when explaining the distortion corrector 93 onto a positive film, and as shown in FIG. 25, only the calculation target area 08 is printed. It is installed by covering it with a mask MA that allows it to pass through. The light passing through the image film 160 is focused by a lens 161, and interference fringes with the reference light described above are recorded on a hologram 162 placed on the focal plane of the lens 161. Next, in the same optical system, using an image different from the image originally used on the image film 160, the spot position of the light is determined by a detector 164 that two-dimensionally detects the light intensity distribution placed on the focal plane of the lens 160. The coordinates are determined by the controller 165. Such operations are repeated by changing the size and position of the mask on the image film 160, and the final measured value is recorded in the shift amount memory 166 as the shift amount.

この光学系を用いた方法により、相関演算が行なえる原
理を説明する。画像f(r)を通過した単色平面波がレ
ンズにより集光されると、焦点面における複素振幅分布
or(q+)  は0式で表わすことができる。
The principle by which correlation calculation can be performed by a method using this optical system will be explained. When the monochromatic plane wave that has passed through the image f(r) is focused by a lens, the complex amplitude distribution or(q+) at the focal plane can be expressed by the equation 0.

一−−−−■ ただしA:入射光の振幅、f:レンズの焦点距離 これは2次元フーリエ変換と全く同じになる。従って、
第24図でレンズ161の焦点面には画像f(1r)を
フーリエ変換した画像が形成され、これで参照光と干渉
させた強度分布がホログラムに記録されることになる。
1---■ However, A: amplitude of incident light, f: focal length of lens, which is exactly the same as two-dimensional Fourier transform. Therefore,
In FIG. 24, an image obtained by Fourier transforming the image f(1r) is formed on the focal plane of the lens 161, and the intensity distribution caused by interference with the reference light is recorded in the hologram.

ホログラム記録面での光波の複素振幅分布Hr(Ql)
は次式で与えられる。
Complex amplitude distribution of light waves on the hologram recording surface Hr (Ql)
is given by the following equation.

Hr (Ql )ocur (Ql )” A eXP
 (−J (2Ql)−−一〇Z軸とのなす角である。
Hr (Ql) ocur (Ql)” A eXP
(-J (2Ql)--10 It is the angle formed with the Z axis.

ホログラムの感光材料が光強度の1/2乗に比例する振
幅透過率特性を持つとすると、このホログラムの振幅透
過率分布T□(ql)は0式で表わされる。
Assuming that the photosensitive material of the hologram has an amplitude transmittance characteristic proportional to the 1/2 power of the light intensity, the amplitude transmittance distribution T□(ql) of this hologram is expressed by the equation 0.

To (IIIL)” l ut (ql) l 2+
A”+ATo (qOeXp(Jl’rQ1)+^ut
I(ql)exp(−j aq+ ) −−−−−9次
にこのホログラムを別の画像g(r)を画像フィルム1
60に置いて照明する。このときのホログラムを透過す
る光波の波面0(Ql)は次式のようになる。
To (IIIL)” l ut (ql) l 2+
A"+ATo (qOeXp(Jl'rQ1)+^ut
I(ql)exp(-j aq+) ------9Next, transfer this hologram to another image g(r) on image film 1
Place it at 60 and light it. The wavefront 0 (Ql) of the light wave passing through the hologram at this time is expressed by the following equation.

0(q+ )CC09・Tm (q+ )=  (lI
Jr (Ql) l”+A”)  ・L (Qj)+A
・Or  (Ql )  ’ 09(Ql )eXpD
J αqI)+^口r”(ql)IJq (Ql )e
Xp(−J αql )  −−−−■ここで第3項の
回折光波面の出る方向にレンズ163を置き、これによ
る2次元フーリエ変換作用を考えると、レンズ163の
焦点面における複素振幅分布0” (lr)は0式で与
えられる。
0(q+)CC09・Tm(q+)=(lI
Jr (Ql) l"+A") ・L (Qj)+A
・Or (Ql)' 09(Ql)eXpD
J αqI)+^口r”(ql)IJq(Ql )e
Xp(-J αql) ----■Here, if we place the lens 163 in the direction in which the wavefront of the diffracted light in the third term comes out and consider the two-dimensional Fourier transform effect caused by this, the complex amplitude distribution at the focal plane of the lens 163 is 0. ” (lr) is given by the formula 0.

0 ’ (v)ccAf(1r)* g(1r−α) 
 −−−−−■よって、0式で原点をαに移動すれば0
式は0 ’ (f)ocAf(v) * g(h)  
 −−−−−@となり、0式で示した相関演算と同じ形
になる。
0' (v)ccAf(1r)*g(1r-α)
−−−−−■ Therefore, if the origin is moved to α using the 0 formula, 0
The formula is 0' (f)ocAf(v) * g(h)
-----@, which is the same form as the correlation calculation shown in equation 0.

従って、この面に2次元ディテクター164を設置し、
光強度が最大になる点を検出することによってf(Ir
)とg(Ir)のズレ量がわかる。
Therefore, a two-dimensional detector 164 is installed on this surface,
By detecting the point where the light intensity is maximum, f(Ir
) and g(Ir).

この光学的相関演算によれば、瞬時に結果を得ることが
できる。
According to this optical correlation calculation, results can be obtained instantaneously.

第2例 第26図に光学系を用いた相関演算器の第2例のブロッ
ク図を示す。この例は、第24図において対象画像に画
像フィルム160を用いた代わりに、画像メモリ107
より直接CRTコントローラ167を介してCRT16
8に映し出した画像をインコヒーレント=コヒーレント
コンバータ169にヨリレーザー光で読み出すものであ
る。このインコヒーレント=コヒーレントコンバータ1
69としては、液晶を用いたしCLVあるいはBSGと
いうものがある。
Second Example FIG. 26 shows a block diagram of a second example of a correlation calculator using an optical system. In this example, instead of using the image film 160 for the target image in FIG.
more directly through the CRT controller 167 to the CRT 16
8 is read out to an incoherent-coherent converter 169 using a laser beam. This incoherent = coherent converter 1
69 uses a liquid crystal and is called CLV or BSG.

この構成によれば、画像を一度ボジフィルムに焼くとい
った汎雑な操作を不要とし、電気系から光学系への変換
がスムーズな形で可能となる。
According to this configuration, a general operation such as once printing an image on a body film is not necessary, and a conversion from an electrical system to an optical system can be smoothly performed.

(4)画像表示 第27図に画像表示装置のブロック図を示す。画像表示
コントローラ170では、人力されるカラー画像データ
、シフト量データおよびθの値からどの内容を表示する
かをキーボード、ジョイマチイックなどで構成されるマ
ンエマシーンインターフェース171からの指示に応じ
て決定し、その内容をカラーディスプレイ172に表示
する。カラーディスプレイ172に表示される表示モー
ドは第28図(A)、 (B)、 (C)に示すように
3種類ある。第1モードは、第28図(八)に示すよう
に生のカラー画像の表示である。第2モードは、第28
図(8) に示すようにシフト量データとθから求めら
れる画像の凹凸情報で濃淡画像として表示される。つま
り画像の中で高さの高い部分程明るく表示されるモード
である。第3モードは、第28図(C) に示すように
高さ情報を3次元グラフィック表示するものである。第
3モードにはさらに2つのモードがあり、その1つは線
画で表示するものである。この際、画像表示コントロー
ラ170では3次元画像の平滑化処理や種線処理を行う
。第3モードの2番目のモードは、3次元画像に基のカ
ラー情報をかぶせて表示するもので、画像表示コントロ
ーラ170では平滑化処理を加え、より立体感を出すた
めにシューディング処理を施す。
(4) Image Display FIG. 27 shows a block diagram of the image display device. The image display controller 170 determines which content to display from the manually inputted color image data, shift amount data, and θ value in response to instructions from the man machine interface 171, which includes a keyboard, joymatic, etc. The contents are displayed on the color display 172. There are three display modes displayed on the color display 172, as shown in FIGS. 28(A), (B), and (C). The first mode is the display of a raw color image as shown in FIG. 28 (8). The second mode is the 28th
As shown in FIG. 8, the unevenness information of the image obtained from the shift amount data and θ is displayed as a grayscale image. In other words, this is a mode in which the taller parts of the image are displayed brighter. The third mode is for displaying height information in three-dimensional graphics as shown in FIG. 28(C). The third mode has two more modes, one of which is to display a line drawing. At this time, the image display controller 170 performs smoothing processing and seed line processing on the three-dimensional image. In the second of the third modes, the three-dimensional image is displayed with the original color information overlaid, and the image display controller 170 adds smoothing processing and performs shading processing to create a more three-dimensional effect.

なお、第3モードではマンエマシーンインターフェース
171からの指示により、任意の角度方向から3次元グ
ラフィック表示ができるようになっている。
Note that in the third mode, three-dimensional graphics can be displayed from any angle direction according to instructions from the man machine interface 171.

また、第2および第3モードではカーソルCAを任意の
位置に設定し、計測する内容を指示することにより指示
された部分の高さ、距離、面積等の値を表示できる。
Furthermore, in the second and third modes, by setting the cursor CA at an arbitrary position and instructing what to measure, values such as height, distance, area, etc. of the specified portion can be displayed.

一方、カラーディスプレイに表示された内容は画像記録
装置173によって記録される。画像記録装置としては
カメラによるフィルムへの記録、インスタントカメラ、
カラーハードコピー等が選択できるようになっている。
On the other hand, the content displayed on the color display is recorded by the image recording device 173. Image recording devices include cameras that record on film, instant cameras,
Color hard copy etc. can be selected.

なお、第1実施例におけるパターン円板19上のパター
ンおよび第4実施例におけるアングルワイヤ17の白黒
パターンとセンサ21はこれに限ることなく、例えば磁
気ストライプ等を用い、センサ21にホール素子等の磁
電変換素子を用いるようにしてもよい。また、回転ドラ
ム18をアングルノブ20を使って手で回すのではなく
、モータ等で駆動するようにしてもよい。さらに、弯曲
量を検知するのに、内視鏡弯曲部5にストレインゲージ
等を設け、たわみ量を検知するようにして行ってもよい
Note that the pattern on the pattern disk 19 in the first embodiment and the black and white pattern of the angle wire 17 and the sensor 21 in the fourth embodiment are not limited to these. A magnetoelectric conversion element may also be used. Further, instead of rotating the rotating drum 18 by hand using the angle knob 20, it may be driven by a motor or the like. Furthermore, in order to detect the amount of curvature, a strain gauge or the like may be provided in the curved portion 5 of the endoscope to detect the amount of deflection.

また、前記第1〜第4の実施例では内視鏡弯曲B5にお
ける弯曲を1ケ所で行うようにしたが、第29図に示す
ように、弯曲部5における弯曲を2ヶ所l!i1. W
2で行い、対物レンズ1の光軸を平行にした状態で視差
を持った2種類の内視鏡画像を得るようにしてもよい。
Furthermore, in the first to fourth embodiments, the endoscope curve B5 was curved at one location, but as shown in FIG. 29, the curve at the curved portion 5 was curved at two locations L! i1. W
2, and two types of endoscopic images with parallax may be obtained with the optical axes of the objective lens 1 being parallel.

このときの内視鏡先端部の拡大図を第30図に示す。な
お、第30図では、イメージガイドファイバーを用いた
ものではなく、内視鏡の弯曲部5の先端部で、対物レン
ズlを介して像が結像される位置に固体撮像素子2を配
設したいわゆる電子スコープを例にとって示している。
An enlarged view of the distal end of the endoscope at this time is shown in FIG. In addition, in FIG. 30, an image guide fiber is not used, but a solid-state image sensor 2 is disposed at a position where an image is formed through an objective lens l at the tip of a curved portion 5 of an endoscope. This example uses a so-called electronic scope.

このようにして、対物レンズ1の光軸が平行な位置で2
種類の像を取込むと、2ケ所の位置で共通の視野範囲と
なる斜線部と、被検体4の接している部分を共通にして
、被検体4の像をA−Bの視差lを持って得ることがで
きる。
In this way, the optical axis of the objective lens 1 is parallel to the 2
When capturing different types of images, the shaded area that is a common field of view at two positions and the area in contact with the subject 4 are made common, and the image of the subject 4 has a parallax l of A-B. You can get it.

さらに、前記実施例では内視鏡の先端部が弯曲するもの
を例示したが、これに限らず先端部が屈曲するような型
の内視鏡でもよい。また、弯曲あるいは屈曲の方向は上
下左右何れの方向でもよく、これらの方向を組み合わせ
た方向でもよい。
Further, in the above embodiments, the endoscope has a curved tip, but the present invention is not limited to this, and an endoscope with a curved tip may be used. Further, the direction of curvature or bending may be any of the up, down, left and right directions, or a combination of these directions.

また、前記第1実施例では、回転ドラム18の回転量す
なわち、内視鏡弯曲部5の移動量を第1および第2ラッ
チ24.25にカウンタ23の値を記憶させ、2つの位
置での内視鏡画像を第1および第2フレームメモリ14
. 15に記憶させるというように、別々の記憶手段に
記憶させるようにしたが、全てのデータを光デイスク装
置や磁気ディスク装置へ一緒に記録させ、後に再生して
画像処理装置16へ入力するようにしてもよい。
Further, in the first embodiment, the amount of rotation of the rotary drum 18, that is, the amount of movement of the endoscope curved portion 5, is stored in the first and second latches 24.25 as the values of the counter 23, so that the amount of rotation of the rotary drum 18, that is, the amount of movement of the endoscope curved portion 5, is stored in the first and second latches 24, 25, and the values of the counter 23 are stored at two positions. The endoscopic images are stored in the first and second frame memories 14.
.. 15, the data is stored in separate storage means, but it is also possible to record all the data together in an optical disk device or a magnetic disk device, and later reproduce it and input it to the image processing device 16. It's okay.

さらに、前記第1実施例における第1および第2ラツチ
に記憶された値の差を求めて弯曲角度情報に変換するこ
ともできる。これは、画像処理装置16側で行ってもよ
いし、内視鏡装置側で行うようにしてもよい。また、単
に角度情報だけではなく、カウンタ23の値が、内視鏡
弯曲部5の弯曲位置と1対lに対応するようにしておけ
ば、対物レンズ1の光軸方向の向きも入力することがで
き、これにより対物レンズ1の光軸方向の向きも考慮し
てより精度の高い計算が画像処理装置16側で行うこと
ができる。
Furthermore, it is also possible to calculate the difference between the values stored in the first and second latches in the first embodiment and convert it into curvature angle information. This may be performed on the image processing device 16 side, or may be performed on the endoscope device side. In addition, not only the angle information but also the direction of the optical axis of the objective lens 1 can be input by making the value of the counter 23 correspond to the curved position of the endoscope curved portion 5 on a one-to-l basis. As a result, more accurate calculations can be performed on the image processing device 16 side, taking into consideration the direction of the optical axis of the objective lens 1.

また、前記第1〜第4実施例では、TVカメラ12や固
体撮像素子45で撮像された内視鏡画像をA/Dコンバ
ータでデジタル信号に変換しているが、アナログ信号の
まま、例えばアナログ式光デイスク装置や、アナログ式
磁気ディスク装置に記録するようにしてもよい。
In addition, in the first to fourth embodiments, the endoscope image captured by the TV camera 12 or the solid-state image sensor 45 is converted into a digital signal by the A/D converter, but the endoscope image is converted into a digital signal by the A/D converter. The data may be recorded on a type optical disk device or an analog type magnetic disk device.

さらに、前記実施例においては、内視鏡弯曲部5の状態
が2種類の場合について述べたが、これに限らず3種類
以上の状態における内視鏡画像および内視鏡弯曲部5の
移動量を得るようにして、画像処理装置において計算す
れば、より正確な距離情報および凹凸情報が得られる。
Further, in the above embodiment, the case where the state of the curved endoscope section 5 is two types is described, but the present invention is not limited to this, and the endoscopic images and the amount of movement of the curved endoscope section 5 in three or more types of states are described. If the image processing device calculates this in such a way as to obtain more accurate distance information and unevenness information, it is possible to obtain more accurate distance information and unevenness information.

〔発明の効果〕〔Effect of the invention〕

以上述べたように、この発明によれば複数の画像を相互
の関係を関連付ける情報と共に簡単に取込むことができ
、これにより被検体に対する種々の情報を得ることがで
きる。
As described above, according to the present invention, a plurality of images can be easily captured together with information relating to each other, and thereby various information regarding the subject can be obtained.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の第1実施例を示す全体構成図、第2図
は第1図の内視鏡先端部の拡大図、第3図(A)および
(B)は本発明の第2実施例を示す全体構成図、 第4図は同じく第3実施例を示す全体構成図、第5図は
同じく第4実施例を示す全体構成図、第6図は内視鏡先
端部の移動量を示す図、第7図は第1〜第4実施例に用
いられる画像処理装置での測定方法を示す図、 第8図は画像処理装置を中心とした処理系のブロック図
、 第9図は画像の歪補正を示す図、 第10図は第8図における歪補正器のブロック図、第1
1図はb−spline関数を示す図、第12図は第8
図における相関演算器の動作を示す図、 ゛ 第13図は電気回路による相関演算器の第1例を示
すブロック図、 第14図は同じく第2例を示すブロック図、第15図は
同じ(第3例を示すブロック図、第16図は同じく第4
例を示すブロック図、第17図は第16図に示す空間周
波数フィルタリング装置の一例を示すブロック図、 第18図は同じく他の例を示すブロック図、第19図は
同じく更に他の例を示すブロック図、第20図は電気回
路による相関演算器の第5例を示すブロック図、 第21図は第20図に示す空間周波数フィルタンリグ装
置の一例を示すブロック図、 第22図は同じく他の例を示すブロック図、第23図は
電気回路による相関演算器の第6例を示すブロック図、 第24図は光学装置による相関演算器の第1例を示す構
成図、 第25図は第24図の相関演算器で用いるマスクを示す
図、 第26図は光学装置による相関演算器の第2例を示す構
成図、 第27図は第8図に示す画像表示装置のブロック図、 第28図(A)、  (B)および(C) はそれぞれ
各モードにおける画像表示例を示す図、 第29図は本発明における内視鏡先端部の他の例を示す
図、 第30図は第29図における内視鏡先端部の拡大図であ
る。 特許出願人   オリンパス光学工業株式会社第2図 第6図 第7図 第8図 n 第9図 第1θ図 第12図 第13図 第14図 第17図 第19図 第21図 第22図 し−−−−−−++  +   +  −」第24図 第27図 第28図
FIG. 1 is an overall configuration diagram showing a first embodiment of the present invention, FIG. 2 is an enlarged view of the distal end of the endoscope in FIG. 1, and FIGS. FIG. 4 is an overall configuration diagram showing the third embodiment, FIG. 5 is an overall configuration diagram showing the fourth embodiment, and FIG. 6 is the amount of movement of the tip of the endoscope. 7 is a diagram showing the measurement method in the image processing device used in the first to fourth embodiments, FIG. 8 is a block diagram of the processing system centered on the image processing device, and FIG. 9 is a diagram showing the measurement method in the image processing device used in the first to fourth embodiments. Figure 10 is a block diagram of the distortion corrector in Figure 8, and Figure 1 shows image distortion correction.
Figure 1 shows the b-spline function, Figure 12 shows the 8th
Figure 13 is a block diagram showing the first example of the correlation calculator using an electric circuit, Figure 14 is a block diagram showing the second example, and Figure 15 is the same ( A block diagram showing the third example, FIG. 16 is also a block diagram showing the fourth example.
FIG. 17 is a block diagram showing an example of the spatial frequency filtering device shown in FIG. 16, FIG. 18 is a block diagram showing another example, and FIG. 19 is a block diagram showing another example. Block diagram: FIG. 20 is a block diagram showing a fifth example of a correlation calculator using an electric circuit; FIG. 21 is a block diagram showing an example of the spatial frequency filtering device shown in FIG. 20; FIG. 22 is another example. 23 is a block diagram showing a sixth example of a correlation calculator using an electric circuit, FIG. 24 is a block diagram showing a first example of a correlation calculator using an optical device, and FIG. 25 is a block diagram showing a first example of a correlation calculator using an optical device. FIG. 26 is a block diagram showing a second example of a correlation calculator using an optical device; FIG. 27 is a block diagram of the image display device shown in FIG. 8; FIG. A), (B) and (C) are diagrams each showing an example of image display in each mode, FIG. 29 is a diagram showing another example of the endoscope tip in the present invention, and FIG. FIG. 3 is an enlarged view of the distal end of the endoscope. Patent applicant Olympus Optical Industry Co., Ltd. Figure 2 Figure 6 Figure 7 Figure 8 Figure 9 Figure 1θ Figure 12 Figure 13 Figure 14 Figure 17 Figure 19 Figure 21 Figure 22 −−−−−++++−”Figure 24Figure 27Figure 28

Claims (2)

【特許請求の範囲】[Claims] (1)第1の位置における内視鏡を介しての第1の画像
を取込み、上記内視鏡を介して上記第1の位置に対する
位置を検知しながら第2の位置における上記第1の画像
の少なくとも一部を重複して第2の画像を取込むことを
特徴とする内視鏡画像取込み方法。
(1) Capturing a first image through an endoscope at a first position, and capturing the first image at a second position while detecting the position relative to the first position through the endoscope. An endoscopic image capturing method characterized by capturing a second image overlappingly at least a portion of the image.
(2)上記内視鏡の第1の位置から第2の位置への移動
は内視鏡先端部の弯曲により行うことを特徴とする特許
請求の範囲第1項記載の内視鏡画像取込み方法。
(2) The endoscopic image capturing method according to claim 1, wherein the endoscope is moved from the first position to the second position by curving the distal end of the endoscope. .
JP62168791A 1986-11-13 1987-07-08 Endoscope image capturing method and endoscope apparatus Expired - Fee Related JP2911894B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US07/119,784 US4895431A (en) 1986-11-13 1987-11-10 Method of processing endoscopic images
DE19873738667 DE3738667A1 (en) 1986-11-13 1987-11-13 METHOD FOR PROCESSING ENDOSCOPIC IMAGES

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP61-270038 1986-11-13
JP27003886 1986-11-13

Publications (2)

Publication Number Publication Date
JPS63246716A true JPS63246716A (en) 1988-10-13
JP2911894B2 JP2911894B2 (en) 1999-06-23

Family

ID=17480664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62168791A Expired - Fee Related JP2911894B2 (en) 1986-11-13 1987-07-08 Endoscope image capturing method and endoscope apparatus

Country Status (1)

Country Link
JP (1) JP2911894B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0630896A (en) * 1992-05-27 1994-02-08 Internatl Business Mach Corp <Ibm> Surgical treatment method and apparatus
US5432543A (en) * 1992-03-05 1995-07-11 Olympus Optical Co., Ltd. Endoscopic image processing device for estimating three-dimensional shape of object based on detection of same point on a plurality of different images
US6295368B1 (en) 1998-04-10 2001-09-25 Olympus Optical Co., Ltd. Endoscopic image processing system capable of estimating absolute shape of object entity
JP2005279054A (en) * 2004-03-30 2005-10-13 Olympus Corp Device and method for displaying conversion image, and endoscope apparatus for industrial use
WO2015098353A1 (en) * 2013-12-26 2015-07-02 オリンパス株式会社 Method for measuring distance using endoscope, and endoscope system
JP2017520355A (en) * 2014-05-20 2017-07-27 パク, ヒュン・ジュンPark, Hyun Jun Method for measuring size of lesion in endoscopy and computer-readable recording medium
WO2019186768A1 (en) * 2018-03-28 2019-10-03 株式会社島津製作所 Intraoperative assist device
CN112666135A (en) * 2020-11-26 2021-04-16 中国科学技术大学 Three-dimensional microscopic imaging device and method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59187310A (en) * 1983-04-07 1984-10-24 Sumitomo Electric Ind Ltd Internal observation device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59187310A (en) * 1983-04-07 1984-10-24 Sumitomo Electric Ind Ltd Internal observation device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432543A (en) * 1992-03-05 1995-07-11 Olympus Optical Co., Ltd. Endoscopic image processing device for estimating three-dimensional shape of object based on detection of same point on a plurality of different images
JPH0630896A (en) * 1992-05-27 1994-02-08 Internatl Business Mach Corp <Ibm> Surgical treatment method and apparatus
US6295368B1 (en) 1998-04-10 2001-09-25 Olympus Optical Co., Ltd. Endoscopic image processing system capable of estimating absolute shape of object entity
JP2005279054A (en) * 2004-03-30 2005-10-13 Olympus Corp Device and method for displaying conversion image, and endoscope apparatus for industrial use
WO2015098353A1 (en) * 2013-12-26 2015-07-02 オリンパス株式会社 Method for measuring distance using endoscope, and endoscope system
JP2015123201A (en) * 2013-12-26 2015-07-06 オリンパス株式会社 Distance measuring method by endoscope and endoscope system
US10441146B2 (en) 2013-12-26 2019-10-15 Olympus Corporation Method of measuring distance by an endoscope, and endoscope system
JP2017520355A (en) * 2014-05-20 2017-07-27 パク, ヒュン・ジュンPark, Hyun Jun Method for measuring size of lesion in endoscopy and computer-readable recording medium
WO2019186768A1 (en) * 2018-03-28 2019-10-03 株式会社島津製作所 Intraoperative assist device
CN112666135A (en) * 2020-11-26 2021-04-16 中国科学技术大学 Three-dimensional microscopic imaging device and method
CN112666135B (en) * 2020-11-26 2023-04-21 中国科学技术大学 Three-dimensional microscopic imaging device and method

Also Published As

Publication number Publication date
JP2911894B2 (en) 1999-06-23

Similar Documents

Publication Publication Date Title
US4895431A (en) Method of processing endoscopic images
JP4469021B2 (en) Image processing method, image processing apparatus, image processing program, image composition method, and image composition apparatus
US5432543A (en) Endoscopic image processing device for estimating three-dimensional shape of object based on detection of same point on a plurality of different images
EP1643210B1 (en) Method and apparatus for measuring shape of an object
US7274470B2 (en) Optical 3D digitizer with enlarged no-ambiguity zone
JP3525964B2 (en) 3D shape measurement method for objects
US8134719B2 (en) 3-D imaging using telecentric defocus
US8648902B2 (en) Image processing apparatus
CN108650447B (en) Image sensor, depth data measuring head and measuring system
WO2017168986A1 (en) Control device, endoscope image pickup device, control method, program, and endoscope system
WO1996041304A1 (en) Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
KR100481399B1 (en) Imaging system, program used for controlling image data in same system, method for correcting distortion of captured image in same system, and recording medium storing procedures for same method
JP2014144034A (en) Image processing apparatus, endoscope device, image processing method and image processing program
JPH11242745A (en) Method for measuring and processing facial image
TWI740237B (en) Optical phase profilometry system
JPS63246716A (en) Method for taking-in of endoscope image
CN105324991B (en) Camera device, image processing apparatus, image capture method and image processing method
JPWO2016194179A1 (en) Imaging apparatus, endoscope apparatus, and imaging method
JP4756148B2 (en) Gloss / color reproduction system, gloss / color reproduction program
JP3454088B2 (en) Three-dimensional shape measuring method and device
JP6798951B2 (en) Measuring device and operating method of measuring device
US8092024B2 (en) Eye measurement apparatus and methods of using same
JP5219024B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP3912666B2 (en) Optical shape measuring device
JPH0412724A (en) Measuring endoscope

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees