JP5113990B2 - Endoscope device for measurement - Google Patents

Endoscope device for measurement Download PDF

Info

Publication number
JP5113990B2
JP5113990B2 JP2005151198A JP2005151198A JP5113990B2 JP 5113990 B2 JP5113990 B2 JP 5113990B2 JP 2005151198 A JP2005151198 A JP 2005151198A JP 2005151198 A JP2005151198 A JP 2005151198A JP 5113990 B2 JP5113990 B2 JP 5113990B2
Authority
JP
Japan
Prior art keywords
image
processing unit
distance
measurement
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005151198A
Other languages
Japanese (ja)
Other versions
JP2006325741A (en
Inventor
清富 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005151198A priority Critical patent/JP5113990B2/en
Publication of JP2006325741A publication Critical patent/JP2006325741A/en
Application granted granted Critical
Publication of JP5113990B2 publication Critical patent/JP5113990B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Description

本発明は、三次元計測が行えるようにした計測用内視鏡装置に関するもので、特に、被写体までの距離をリアルタイムで表示できるようにしたものに関する。 The present invention relates to endoscopes KagamiSo location for measurement was allow three-dimensional measurement, in particular, to those can view the distance to the subject in real time.

近年、体腔内に細長の挿入部を挿入することにより、体腔内臓器等を観察したり、必要に応じ処置具チャンネル内に挿通した処置具を用いて各種治療処置を行える内視鏡が広く利用されている。また、工業用分野においても、ボイラ、タービン、エンジン、化学プラント等の内部の傷、腐食等の観察、検査に工業用内視鏡が広く用いられている。   In recent years, endoscopes that can observe various organs in a body cavity by inserting an elongated insertion part into a body cavity or perform various therapeutic treatments using a treatment instrument inserted into a treatment instrument channel as necessary are widely used. Has been. Also in the industrial field, industrial endoscopes are widely used for observing and inspecting internal scratches and corrosion of boilers, turbines, engines, chemical plants, and the like.

上述のように使用される内視鏡には挿入部の先端部に光学像を画像信号に光電変換するCCDなどの撮像素子を配設した電子内視鏡(以下内視鏡と略記する)がある。この内視鏡では、撮像素子に結像した観察像の画像信号を画像処理部で映像信号に生成し、その映像信号をモニタに出力することによって画面上に内視鏡画像を表示させて観察を行える。   The endoscope used as described above includes an electronic endoscope (hereinafter abbreviated as an endoscope) in which an imaging element such as a CCD that photoelectrically converts an optical image into an image signal is disposed at the distal end portion of an insertion portion. is there. In this endoscope, an image signal of an observation image formed on an image sensor is generated as a video signal by an image processing unit, and the video signal is output to a monitor to display an endoscopic image on the screen for observation. Can be done.

そして、特に工業用の内視鏡では、検査箇所に応じた観察を行えるように複数種類の光学アダプタが用意されており、必要に応じて内視鏡挿入部の先端部に着脱自在に装着できるようになっている。光学アダプタとしては、特許文献1及び特許文献2に示されるように、観察光学系に左右の2つの観察視野を形成したステレオ光学アダプタがある。   In particular, in an industrial endoscope, a plurality of types of optical adapters are prepared so that observation can be performed according to the examination location, and can be detachably attached to the distal end portion of the endoscope insertion portion as necessary. It is like that. As an optical adapter, as shown in Patent Document 1 and Patent Document 2, there is a stereo optical adapter in which two observation fields on the left and right are formed in an observation optical system.

上述のような左右の2つの観察視野を形成したステレオ光学アダプタでは、同一の被写体像を左右の光学系で捉えたときの左右の光学系での座標に基づいて、三角測量の原理を使って被写体の三次元空間座標を求めている。   The stereo optical adapter that forms the left and right observation fields as described above uses the principle of triangulation based on the coordinates of the left and right optical systems when the same subject image is captured by the left and right optical systems. The three-dimensional space coordinates of the subject are obtained.

つまり、図12は、x,y,z 軸をもつ三次元座標系上の右左2画像位置関係を示す図であって、計測対象となる測距点Pが撮像素子の右結像面101R、左結像面101L上に結像した状態を示している。図12において、点OR,OLを光学系の主点とし、距離fを焦点距離とし、点QR,QLを点Pの結像位置とし、さらに、距離Lを点OR−点OL間の距離とする。   That is, FIG. 12 is a diagram showing a right-to-left two-image positional relationship on a three-dimensional coordinate system having x, y, and z axes, and the distance measurement point P to be measured is the right imaging plane 101R of the image sensor. A state in which an image is formed on the left imaging surface 101L is shown. In FIG. 12, points OR and OL are the principal points of the optical system, distance f is the focal length, points QR and QL are the imaging positions of point P, and distance L is the distance between point OR and point OL. To do.

図12において、直線QR−ORから次式が成立する。すなわち、
x/xR={y−(L/2)}/{yR−(L/2)}=z/(−f)…(1)
また、直線QL−OLから次式が成立する。すなわち、
x/xL={y+(L/2)}/{yL+(L/2)}=z/(−f)…(2)
この式をx、y、z について解けば、点Pの三次元座標が得られる。
In FIG. 12, the following equation is established from the straight line QR-OR. That is,
x / xR = {y− (L / 2)} / {yR− (L / 2)} = z / (− f) (1)
Further, the following equation is established from the straight line QL-OL. That is,
x / xL = {y + (L / 2)} / {yL + (L / 2)} = z / (− f) (2)
Solving this equation for x, y, z gives the three-dimensional coordinates of point P.

このような三次元計測では、計測対象となる被写体との距離が離れる程、奥行き方向の分解能が下がり、計測精度が低下する。このため、精度の高い三次元計測を行うためには、ある程度まで被写体に近づく必要がある。   In such 3D measurement, as the distance from the subject to be measured increases, the resolution in the depth direction decreases and the measurement accuracy decreases. For this reason, in order to perform highly accurate three-dimensional measurement, it is necessary to approach the subject to some extent.

ところが、内視鏡等の機器においては、良好な観察画像が得られるように被写体深度が深い光学系が用いられており、挿入部の先端周辺の状況を操作者が確認することが難しい。このため、三次元計測機能を起動し、計測点を指定するまで、十分な計測精度が得られるまで物体に近づいているかどうかを判断することが難しい。   However, in an apparatus such as an endoscope, an optical system having a deep subject depth is used so that a good observation image can be obtained, and it is difficult for an operator to check the situation around the distal end of the insertion portion. For this reason, it is difficult to determine whether or not the object is approached until sufficient measurement accuracy is obtained until the three-dimensional measurement function is activated and a measurement point is designated.

そこで、被写体の距離をライブ状態の撮像画面中に表示することが考えられる。被写体の距離をライブ状態の撮像画面中に表示されれば、操作者は、この被写体までの距離を見ることで、精度の高い三次元計測用画像を取得できるかどうかを判断でき、精度の高い三次元計測用画像を取得できる位置まで十分近づいてから、三次元計測に切り換えることができる。
特開2004−33478号公報 特開2004−49638号公報
Thus, it is conceivable to display the distance of the subject on the live imaging screen. If the distance of the subject is displayed on the live imaging screen, the operator can determine whether or not a high-accuracy 3D measurement image can be acquired by looking at the distance to the subject. It is possible to switch to three-dimensional measurement after sufficiently approaching a position where an image for three-dimensional measurement can be acquired.
JP 2004-33478 A JP 2004-49638 A

ところが、被写体までの距離を計測するためには、左右の画像を取り込み、画像の歪み補正を行い、測距点の対応点を探索し、空間座標を計算する必要がある。左右の画像を全て取り込むには、取り込み時間が必要である。また、全画像を対象として対応点の探索を行った場合、マッチングの処理の演算が膨大になる。このため、通常のCPUでは、処理時間が長くなり、リアルタイムに被写体までの距離を表示させることが難しい。リアルタイムに被写体までの距離を表示させるために、高速のCPUを用いることも考えられるが、高速のCPUを用いると、コストアップになると共に、消費電力が増大するという問題が生じる。   However, in order to measure the distance to the subject, it is necessary to capture the left and right images, correct the distortion of the image, search for the corresponding points of the distance measuring points, and calculate the spatial coordinates. In order to capture all the left and right images, capture time is required. In addition, when the corresponding points are searched for all the images, the calculation processing for matching becomes enormous. For this reason, with a normal CPU, the processing time is long, and it is difficult to display the distance to the subject in real time. In order to display the distance to the subject in real time, it may be possible to use a high-speed CPU. However, if a high-speed CPU is used, there is a problem that the cost increases and the power consumption increases.

本発明は、上述の課題を鑑み、被写体までの距離を高速で測定することができ、高速のCPUを用いることなく、被写体までの距離をリアルタイムでライブ画像に表示できるようにした計測用内視鏡装置を提供することを目的とする。 In view of the above-mentioned problems, the present invention can measure the distance to the subject at high speed, and can display the distance to the subject in a live image in real time without using a high-speed CPU. an object of the present invention is to provide a KagamiSo location.

請求項1の発明は、ステレオ光学系による被写体像を撮像するための撮像部を有する電子内視鏡と、この電子内視鏡に接続されていて、撮像部からの撮像信号を受け映像信号を生成する画像処理部、及びこの画像処理部で生成された映像信号に基づくステレオ画像を入力画像として計測処理を行う計測処理部を有する制御部具えた制御装置と、この制御装置の制御部の指示に基づいて出力される出力画像を受けてその画像を表示する表示装置とを具える計測用内視鏡装置において、制御装置は、出力画像上の所定の座標に測距点を表す照準を表示する照準表示処理部と、測距点の座標を元に、ステレオ画像の一方における測距点近傍の範囲と、ステレオ画像の他方における測距点に対応するエピポーラライン近傍の範囲とを、ステレオ画像の取り込み範囲とする画像取得領域情報を求める画像取得領域計算処理部と、画像取得領域情報を元に、ステレオ画像の測距点近傍の範囲及びエピポーラライン近傍の範囲のそれぞれの部分画像を取得する部分画像取得処理部と、部分画像取得処理部で得たそれぞれの部分画像の歪補正処理を行う部分歪補正処理部と、部分歪補正処理部によって歪補正処理が行われた、部分画像取得処理部によって取得されたそれぞれの部分画像を用いて、測距点での被写体の物体距離を三角測量の原理で計算する測距処理部とを具えたことを特徴とする。 According to the first aspect of the present invention, an electronic endoscope having an image pickup unit for picking up a subject image by a stereo optical system , and connected to the electronic endoscope, receives an image pickup signal from the image pickup unit and receives a video signal. image processing unit that generates, and a control device with a control unit having a measurement processing portion that performs measurement processing as a stereo image input image based on the video signal generated by the image processing unit, the control unit of the control device In a measurement endoscope apparatus including a display device that receives an output image output based on an instruction and displays the image, the control device applies an aim that represents a distance measuring point to a predetermined coordinate on the output image. Based on the coordinates of the distance measurement point to be displayed and the coordinates of the distance measurement points, the range near the distance measurement point on one side of the stereo image and the range near the epipolar line corresponding to the distance measurement point on the other side of the stereo image image An image acquisition area calculation processing unit for obtaining the image acquisition area information to capture range, the portion based on the image acquisition area information, and acquires the respective partial images of the scope and near the epipolar line of the distance measuring point near the stereo image An image acquisition processing unit, a partial distortion correction processing unit that performs distortion correction processing of each partial image obtained by the partial image acquisition processing unit, and a partial image acquisition processing unit that has undergone distortion correction processing by the partial distortion correction processing unit And a distance measurement processing unit that calculates the object distance of the subject at the distance measurement point based on the principle of triangulation using each partial image obtained by the above.

請求項2の発明は、制御装置は、さらに、照準の位置を変更する照準位置操作手段と、照準の座標を得る照準座標取得処理部とを具えたことを特徴とする。 The invention of claim 2 is characterized in that the control device further comprises an aiming position operating means for changing the aiming position and an aiming coordinate acquisition processing unit for obtaining aiming coordinates.

請求項3の発明は、制御装置は、さらに、測距点の画面座標が所定の計測可能領域外である場合に測距処理を中止する範囲外測距中止手段と、計測可能領域の境界を出力画像に表示する計測可能領域境界表示手段とを具えたことを特徴とする。 According to a third aspect of the present invention, the control device further includes an out-of-range distance measurement stop means for canceling the distance measurement processing when the screen coordinates of the distance measurement points are outside the predetermined measurable area, and a boundary between the measurable areas. The present invention is characterized by comprising measurable area boundary display means for displaying in an output image.

請求項4の発明は、制御装置は、さらに、測距処理部によって計算された物体距離の情報を出力画像に表示する物体距離表示処理部を具えたことを特徴とする。
請求項5の発明は、物体距離表示処理部は、物体距離の情報を、バーグラフで表示することを特徴とする
According to a fourth aspect of the present invention, the control device further includes an object distance display processing unit that displays information on the object distance calculated by the distance measurement processing unit on an output image.
The invention according to claim 5 is characterized in that the object distance display processing unit displays information of the object distance in a bar graph .

本発明によれば、被写体の観察画像上の所定の座標に測距点を表す照準を表示し、照準の中心を測距点として観察画像を取得し、測距点での被写体の物体距離を三角測量の原理で計算している。このとき、左画像については、例えば、測距点の近傍の画像のみを取り込み、右画像については、例えば、エピポーララインの周辺の画像のみを取り込みを行うようにしている。このように、測距に必要な画像部分だけを取り込み、測距に必要な部分の画像だけを用いてマッチング演算を行うことで、取り込み時間やマッチング処理にかかる時間が短縮される。これにより、高速のCPUを用いることなく、被写体までの距離を高速で測定して、リアルタイムでライブ画像に表示できる。   According to the present invention, an aim representing a distance measuring point is displayed at a predetermined coordinate on the observation image of the subject, an observation image is acquired using the center of the aim as a distance measuring point, and the object distance of the subject at the distance measuring point is obtained. Calculation is based on the principle of triangulation. At this time, for the left image, for example, only the image in the vicinity of the distance measuring point is captured, and for the right image, for example, only the image around the epipolar line is captured. In this way, by taking in only the image portion necessary for distance measurement and performing the matching calculation using only the image of the portion necessary for distance measurement, the time taken in and the time required for matching processing are reduced. Accordingly, the distance to the subject can be measured at high speed without using a high-speed CPU, and can be displayed on a live image in real time.

以下、本発明の実施の形態について図面を参照しながら説明する。
(第1の実施形態)
図1は、本発明の内視鏡装置の全体構成を示すものである。図1に示すように本実施形態の内視鏡装置1は、細長な挿入部20を有する内視鏡2と、この内視鏡2の挿入部20を収納する収納部を備えた制御装置であるコントロールユニット3と、装置全体の各種動作制御を実行する際に必要な操作を行うリモートコントローラ4と、内視鏡画像や操作制御内容(例えば後述する処理メニュー)等の表示を行う表示装置である液晶モニタ(以下、LCDと記載)5と、通常の内視鏡画像、あるいはその内視鏡画像を擬似的なステレオ画像として立体視可能にするフェイスマウントディスプレイ(以下、FMDと記載)6と、このFMD6に画像データを供給するFMDアダプタ6a等で主に構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 shows an overall configuration of an endoscope apparatus according to the present invention. As shown in FIG. 1, an endoscope apparatus 1 according to the present embodiment is a control device that includes an endoscope 2 having an elongated insertion portion 20 and a storage portion that stores the insertion portion 20 of the endoscope 2. A control unit 3, a remote controller 4 that performs operations necessary for performing various operation controls of the entire apparatus, and a display device that displays an endoscopic image, operation control content (for example, a processing menu described later), and the like. A liquid crystal monitor (hereinafter referred to as LCD) 5, a normal endoscopic image, or a face-mounted display (hereinafter referred to as FMD) 6 that enables stereoscopic viewing of the endoscopic image as a pseudo stereo image, The FMD adapter 6a for supplying image data to the FMD 6 is mainly configured.

挿入部20は先端側から順に硬質な先端部21、例えば上下左右に湾曲可能な湾曲部22(図2)と柔軟性を有する可撓管部を連設して構成され、先端部21には観察視野を2つ有するステレオ光学アダプタ7a、7bあるいは観察視野が1つの通常観察光学アダプタ7c等、各種光学アダプタが着脱自在な構成になっている。   The insertion portion 20 is configured by connecting a hard distal end portion 21 in order from the distal end side, for example, a bending portion 22 (FIG. 2) that can be bent vertically and horizontally, and a flexible tube portion having flexibility. Various optical adapters such as stereo optical adapters 7a and 7b having two observation fields or a normal observation optical adapter 7c having one observation field are detachable.

図2に示すようにコントロールユニット3内には内視鏡ユニット8、画像処理部であるカメラコントロールユニット(以下、CCUと記載)9及び制御部である制御ユニット10が設けられており、挿入部20の基端部は内視鏡ユニット8に接続されている。   As shown in FIG. 2, the control unit 3 includes an endoscope unit 8, a camera control unit (hereinafter referred to as CCU) 9 as an image processing unit, and a control unit 10 as a control unit. The proximal end portion of 20 is connected to the endoscope unit 8.

内視鏡ユニット8は、観察時に必要な照明光を供給する光源装置(不図示)、挿入部20を構成する湾曲部22を湾曲させる湾曲装置(不図示)を備えて構成されている。   The endoscope unit 8 includes a light source device (not shown) that supplies illumination light necessary for observation, and a bending device (not shown) that bends the bending portion 22 that constitutes the insertion portion 20.

CCU9には、挿入部20の先端部21に内蔵されている固体撮像素子2aから出力された撮像信号が入力する。この撮像信号は、CCU9内で例えばNTSC信号等の映像信号に変換されて、制御ユニット10へ供給される。   The CCU 9 receives an imaging signal output from the solid-state imaging device 2 a built in the distal end portion 21 of the insertion unit 20. This imaging signal is converted into a video signal such as an NTSC signal in the CCU 9 and supplied to the control unit 10.

制御ユニット10内には音声信号処理回路11、映像信号が入力される映像信号処理回路12、ROM13、RAM14、PCカードインターフェイス(以下、PCカードI/Fと記載)15、USBインターフェイス(以下、USB I/Fと記載)16及びRS−232Cインターフェイス(以下、RS−232C I/Fと記載)17等と、これら各種機能を主要プログラムに基づいて実行させて動作制御を行うCPU18とが設けられている。   In the control unit 10, an audio signal processing circuit 11, a video signal processing circuit 12 to which video signals are inputted, a ROM 13, a RAM 14, a PC card interface (hereinafter referred to as PC card I / F) 15, a USB interface (hereinafter referred to as USB) 16) and an RS-232C interface (hereinafter referred to as RS-232C I / F) 17 and the like, and a CPU 18 that controls the operation by executing these various functions based on the main program. Yes.

RS−232C I/F17にはCCU9、内視鏡ユニット8及びこれらCCU9、内視鏡ユニット8等の制御及び動作指示を行うリモートコントローラ4がそれぞれ接続されている。このことにより、リモートコントローラ4の操作に基づいてCCU9、内視鏡ユニット8を動作制御する際に必要な通信が行われる。   The RS-232C I / F 17 is connected to the CCU 9, the endoscope unit 8, and the remote controller 4 that performs control and operation instructions for the CCU 9, the endoscope unit 8, and the like. As a result, communication necessary for controlling the operation of the CCU 9 and the endoscope unit 8 based on the operation of the remote controller 4 is performed.

USB I/F16は、コントロールユニット3とパーソナルコンピュータ31とを電気的に接続するためのインターフェイスである。このUSB I/F16を介してコントロールユニット3とパーソナルコンピュータ31とを接続することによって、パーソナルコンピュータ31側で内視鏡画像の表示指示や計測時における画像処理などの各種の指示制御を行うことが可能になるとともに、コントロールユニット3とパーソナルコンピュータ31との間での各種の処理に必要な制御情報やデータ等の入出力を行うことが可能になる。   The USB I / F 16 is an interface for electrically connecting the control unit 3 and the personal computer 31. By connecting the control unit 3 and the personal computer 31 via the USB I / F 16, various instruction control such as an endoscope image display instruction and image processing at the time of measurement can be performed on the personal computer 31 side. In addition, it becomes possible to input / output control information and data necessary for various processes between the control unit 3 and the personal computer 31.

また、PCカードI/F15には、PCMCIAメモリカード32やコンパクトフラッシュ(登録商標)メモリカード33等の記録媒体であるいわゆるメモリカードが自由に着脱されるようになっている。メモリカードをPCカードI/F15に装着することにより、CPU18による制御によって、このメモリカードに記憶されている制御処理情報や画像情報等のデータの取り込み、あるいは制御処理情報や画像情報等のデータのメモリカードへの記録を行える。   In addition, a so-called memory card which is a recording medium such as a PCMCIA memory card 32 or a compact flash (registered trademark) memory card 33 can be freely attached to and detached from the PC card I / F 15. When the memory card is inserted into the PC card I / F 15, the control processing information or image information stored in the memory card is captured or the data such as control processing information or image information is stored under the control of the CPU 18. You can record to a memory card.

映像信号処理回路12では、CCU9から供給された内視鏡画像とグラフィックによる操作メニューとを合成した合成画像を表示するように、CCU9からの映像信号をCPU18の制御により生成する操作メニューに基づく表示信号との合成処理や、LCD5の画面上に表示するのに必要な処理等を施してLCD5に供給する。また、この映像信号処理回路12では、単に内視鏡画像、あるいは操作メニュー等の画像を単独で表示するための処理を行うことも可能である。したがって、LCD5の画面上には、内視鏡画像、操作メニュー画像、内視鏡画像と操作メニュー画像との合成画像等が表示される。   In the video signal processing circuit 12, a display based on an operation menu that generates a video signal from the CCU 9 under the control of the CPU 18 so as to display a composite image obtained by synthesizing the endoscopic image supplied from the CCU 9 and a graphic operation menu. The signal is combined with the signal and necessary for displaying on the screen of the LCD 5 and supplied to the LCD 5. Further, the video signal processing circuit 12 can simply perform processing for displaying an endoscopic image or an image such as an operation menu alone. Therefore, an endoscopic image, an operation menu image, a composite image of the endoscopic image and the operation menu image, and the like are displayed on the screen of the LCD 5.

音声信号処理回路11には、マイク34によって集音されて生成された、メモリカード等の記録媒体に記録する音声信号、メモリカード等の記録媒体の再生によって得られた音声信号、あるいはCPU18によって生成された音声信号が供給される。この音声信号処理回路11では、供給された音声信号を再生するのに必要な増幅処理等の処理を施してスピーカ35に出力する。このことによって、スピーカ35から音声が出力される。   In the audio signal processing circuit 11, an audio signal to be recorded on a recording medium such as a memory card, which is collected and generated by the microphone 34, an audio signal obtained by reproducing the recording medium such as a memory card, or generated by the CPU 18. The audio signal is supplied. In the audio signal processing circuit 11, processing such as amplification processing necessary for reproducing the supplied audio signal is performed and output to the speaker 35. As a result, sound is output from the speaker 35.

そして、CPU18は、ROM13に格納されているプログラムを実行することによって、目的に応じた処理を行うように各種回路部等を制御して、システム全体の動作制御を行う。   The CPU 18 executes a program stored in the ROM 13 to control various circuit units and the like so as to perform processing according to the purpose, thereby performing operation control of the entire system.

図3に示すようにリモートコントローラ4の一面には、ジョイスティック41、レバースイッチ42、フリーズスイッチ43、ストアースイッチ44及び計測実行スイッチ45が設けられている。また、ズームレバー47が設けられている。   As shown in FIG. 3, a joystick 41, a lever switch 42, a freeze switch 43, a store switch 44, and a measurement execution switch 45 are provided on one surface of the remote controller 4. A zoom lever 47 is also provided.

ジョイスティック41は、湾曲部22の湾曲動作を指示するスイッチであり、傾倒操作することによって湾曲部22がその傾倒方向に対応する方向に傾倒角度分だけ湾曲するようになっている。また、レバースイッチ42は、グラフィック表示される各種メニュー操作や計測を行う場合のポインター移動操作を行うスイッチであり、ジョイスティック41と略同様に構成されている。フリーズスイッチ43はLCD5表示に関わるスイッチである。ストアースイッチ44は、フリーズスイッチ43の押下によって静止画像を表示され、この静止画像をメモリカードに記録する場合に用いるスイッチである。計測実行スイッチ45は、計測ソフトを実行する際に用いるスイッチである。   The joystick 41 is a switch for instructing a bending operation of the bending portion 22, and the bending portion 22 is bent by a tilt angle in a direction corresponding to the tilt direction by a tilting operation. The lever switch 42 is a switch for performing a pointer movement operation when performing various menu operations displayed graphically and measurement, and is configured in substantially the same manner as the joystick 41. The freeze switch 43 is a switch related to the LCD 5 display. The store switch 44 is a switch used when a still image is displayed when the freeze switch 43 is pressed and this still image is recorded on a memory card. The measurement execution switch 45 is a switch used when executing measurement software.

なお、フリーズスイッチ43、ストアースイッチ44及び計測実行スイッチ45は、オン/オフの指示を押下操作によって行う例えば押下式を採用して構成されている。符号46はFMDアダプタ7から伸びる電気ケーブルが接続されるコネクタ部であり、このコネクタ部46に電気ケーブルを接続することによってFMD6を通してステレオ観察を行えるようになっている。ズームレバー47は、手前と奥とに倒せる方向スイッチで、電子ズームの制御を行う。奥に倒すとテレ(拡大)、手前に倒すとワイド(縮小)に動作する。   The freeze switch 43, the store switch 44, and the measurement execution switch 45 are configured by adopting, for example, a push-down type in which an on / off instruction is performed by a push-down operation. Reference numeral 46 denotes a connector portion to which an electric cable extending from the FMD adapter 7 is connected. By connecting the electric cable to the connector portion 46, stereo observation can be performed through the FMD 6. The zoom lever 47 is a direction switch that can be tilted forward and backward to control the electronic zoom. When it is tilted to the back, it moves to tele (enlarged), and when it is tilted to the front, it moves to wide (reduced).

図4及び図5は、本実施形態の内視鏡装置1で用いられる光学アダプタの1つであるステレオ光学アダプタ7aの一例の構成を示すものである。図4及び図5に示すように直視型のステレオ光学アダプタ7aの先端面には一対の照明レンズ51、52と2つの対物レンズ系53,54とが設けられており、図5に示すように、固定リング50の雌ねじ50aを先端部21に形成されている雄ねじ21aに螺合することによって一体的に固定されるようになっている。   4 and 5 show an example of the configuration of a stereo optical adapter 7a that is one of the optical adapters used in the endoscope apparatus 1 of the present embodiment. As shown in FIGS. 4 and 5, a pair of illumination lenses 51 and 52 and two objective lens systems 53 and 54 are provided on the front end surface of the direct-viewing type stereo optical adapter 7a, as shown in FIG. The internal thread 50a of the fixing ring 50 is integrally fixed by screwing with the external thread 21a formed at the tip portion 21.

図5に示すように、2つの対物レンズ系53,54により、先端部21内に配設された固体撮像素子2aの撮像面上に2つの光学像が結像される。そして、この固体撮像素子2aで光電変換された撮像信号は、電気的に接続された信号線2b及び内視鏡ユニット8を介してCCU9に供給されて映像信号に変換され、その後、映像信号処理回路12に供給される。   As shown in FIG. 5, two optical images are formed on the imaging surface of the solid-state imaging device 2 a disposed in the distal end portion 21 by the two objective lens systems 53 and 54. Then, the imaging signal photoelectrically converted by the solid-state imaging device 2a is supplied to the CCU 9 through the electrically connected signal line 2b and the endoscope unit 8 to be converted into a video signal. It is supplied to the circuit 12.

本実施形態の内視鏡装置1では、次の(a1)〜(d)に示すように、各内視鏡2特有の撮像光学系の光学データが測定され、その光学データが記録媒体である例えばメモリカード(PCMCIAメモリカード31やメモリカード33等)に記録される。   In the endoscope apparatus 1 of the present embodiment, as shown in the following (a1) to (d), optical data of an imaging optical system specific to each endoscope 2 is measured, and the optical data is a recording medium. For example, it is recorded on a memory card (PCMCIA memory card 31, memory card 33, etc.).

上述の特有の光学データは、
(a1)2つの対物光学系の幾何学的歪み補正テーブル
(a2)像伝送光学系の幾何学歪み補正テーブル
(b)左右の結像光学系それぞれの焦点距離
(c)左右の結像光学系の主点間の距離
(d)左右の結像光学系それぞれの画像上での光軸位置座標
である。
The specific optical data mentioned above is
(A1) Geometric distortion correction table of two objective optical systems (a2) Geometric distortion correction table of image transmission optical system (b) Focal length of left and right imaging optical systems (c) Left and right imaging optical systems (D) is the optical axis position coordinates on the images of the left and right imaging optical systems.

上記特有の光学データの収集を行った後の内視鏡装置1にパソコン31を接続して、次に示す(1)〜(5)の処理を行って各種寸法計測を行うことができる。すなわち、
(1)上記メモリカードから上記(a1)〜(d)の光学データを読み込む。
(2)本内視鏡2にて被写体である被計測物を撮像し、画像を取り込む。
(3)上記の取り込んだ画像を、上記(a1)〜(d)の光学データをもとに座標変換する。(歪み補正)
(4)座標変換された画像を基に、撮像データのマッチングにより任意の点の三次元座標を求める。
(5)上記三次元座標を基に各種三次元計測を行う。
The personal computer 31 is connected to the endoscope apparatus 1 after collecting the specific optical data, and various dimensions can be measured by performing the following processes (1) to (5). That is,
(1) Read the optical data (a1) to (d) from the memory card.
(2) The to-be-measured object which is a subject is imaged by the endoscope 2 and an image is captured.
(3) The coordinates of the captured image are transformed based on the optical data (a1) to (d). (Distortion correction)
(4) Based on the coordinate-converted image, the three-dimensional coordinates of an arbitrary point are obtained by matching the imaging data.
(5) Various three-dimensional measurements are performed based on the three-dimensional coordinates.

また、本実施形態の内視鏡装置1では、被写体との距離をリアルタイムでライブ画面上に表示させることができる。このため、操作者は、カメラと被写体の位置関係が容易に認識できない場合でも、現在画面上で観察できている被写体までの距離を操作者がライブ画像を見ながら知ることができる。   In the endoscope apparatus 1 of the present embodiment, the distance from the subject can be displayed on the live screen in real time. Therefore, even when the positional relationship between the camera and the subject cannot be easily recognized, the operator can know the distance to the subject that can be observed on the screen while viewing the live image.

図6は、本発明の第1の実施形態の測距表示画面を示すものである。図6に示すように、左画像65に照準71が示される。この照準71を測距点として、測距点までの距離がリアルタイムで計測される。この測距点までの距離は、画面64上に、距離表示キャラクタ72として表示される。   FIG. 6 shows a distance measurement display screen according to the first embodiment of the present invention. As shown in FIG. 6, the aim 71 is shown in the left image 65. Using this aiming point 71 as a distance measuring point, the distance to the distance measuring point is measured in real time. The distance to the distance measuring point is displayed as a distance display character 72 on the screen 64.

また、画面64上には、測距点までの距離が距離表示バーグラフ73でグラフィカルに表示される。距離表示バーグラフ73は、図7に示すように、緑色のバーグラフ73g、黄色のバーグラフ73y、赤色バーグラフ73rの三色に分けて表示される。緑色のバーグラフ73gは、精度の高い三次元計測が可能な範囲を示している。黄色のバーグラフ73yは、精度はやや落ちるが、三次元計測が可能な範囲であることを示している。赤色のバーグラフ73rは、満足する三次元計測が不可能な範囲であることを示している。   On the screen 64, the distance to the distance measuring point is graphically displayed as a distance display bar graph 73. As shown in FIG. 7, the distance display bar graph 73 is displayed in three colors of a green bar graph 73g, a yellow bar graph 73y, and a red bar graph 73r. A green bar graph 73g indicates a range in which highly accurate three-dimensional measurement is possible. The yellow bar graph 73y indicates that the accuracy is slightly reduced, but is within a range where three-dimensional measurement is possible. The red bar graph 73r indicates that a satisfactory three-dimensional measurement is impossible.

このように、本実施形態の内視鏡装置1では、ライブ画面と共に、被写体までの距離がリアルタイムで画面上に表示される。操作者は、この被写体までの距離を見ることで、精度の高い三次元画像を映すことができるかどうかを判断でき、精度の高い三次元画像を映せる位置まで十分近づいてから、三次元計測に切り換えることができる。   Thus, in the endoscope apparatus 1 of the present embodiment, the distance to the subject is displayed on the screen in real time together with the live screen. By looking at the distance to the subject, the operator can determine whether or not a high-precision 3D image can be projected. Can be switched.

次に、上述のように、被写体までの距離をライブ画面と共に、画面上に表示するための処理について説明する。前述の図12に示したように、点OR,OLを光学系の主点とし、距離fを焦点距離とし、点QR,QLを点Pの結像位置とし、距離Lを点OR−点OL間の距離とすると、直線QR−ORから次式が成立する。
x/xR={y−(L/2)}/{yR−(L/2)}=z/(−f)…(1)
また、直線QL−OLから次式が成立する。
x/xL={y+(L/2)}/{yL+(L/2)}=z/(−f)…(2)
この式をx、y、z について解けば、点Pの三次元座標が得られ、これにより、被写体までの距離が求まる。
Next, a process for displaying the distance to the subject on the screen together with the live screen as described above will be described. As shown in FIG. 12, the points OR and OL are the principal points of the optical system, the distance f is the focal length, the points QR and QL are the imaging positions of the point P, and the distance L is the point OR-point OL. If the distance is between, the following equation is established from the straight line QR-OR.
x / xR = {y− (L / 2)} / {yR− (L / 2)} = z / (− f) (1)
Further, the following equation is established from the straight line QL-OL.
x / xL = {y + (L / 2)} / {yL + (L / 2)} = z / (− f) (2)
If this equation is solved for x, y, and z, the three-dimensional coordinates of the point P are obtained, whereby the distance to the subject is obtained.

ここで、光学系の主点OR及び点OL間の距離、及び結像光学系の焦点距離は、光学データとして予め記録されている。点QLの座標は、座用は測距点とされた照準71の座標そのものである。点QRは、測距点に対応する点を右画像66の中から探索することで得ることができる。   Here, the distance between the principal point OR and the point OL of the optical system and the focal length of the imaging optical system are recorded in advance as optical data. The coordinates of the point QL are the coordinates of the aiming 71 that is used as a distance measuring point. The point QR can be obtained by searching the right image 66 for a point corresponding to the distance measuring point.

このことから、例えば、左画像を基準とした場合には、左画像での測距点(QL)に対応する右画像の対応点(QR)をマッチング処理により探索し、右画像の対応点が探索されたら、上式により空間座標を計算することで、測距点までの距離を求めることができる。   From this, for example, when the left image is used as a reference, the corresponding point (QR) of the right image corresponding to the distance measuring point (QL) in the left image is searched by the matching process, and the corresponding point of the right image is found. Once searched, the distance to the distance measuring point can be obtained by calculating the spatial coordinates using the above formula.

なお、ここでは、左画像65を基準画像とし、左画像65に照準71を表示しているが、勿論、右画像66を基準画像としても良い。この場合には、照準71は右画像66側に表示される。   Here, the left image 65 is used as the reference image, and the aim 71 is displayed on the left image 65, but the right image 66 may be used as the reference image. In this case, the aiming 71 is displayed on the right image 66 side.

左画像での測距点に対応する右画像をマッチング処理により探索する際に、右画像の全ての点においてマッチング演算を行うと、画像の取り込み時間がかかり、処理が膨大になる。   When searching for the right image corresponding to the distance measurement point in the left image by matching processing, if the matching calculation is performed at all points in the right image, it takes time to capture the image, and the processing becomes enormous.

そこで、本発明の実施形態では、測距に必要な画像部分だけを取り込み、測距に必要な部分の画像だけを歪補正し、それを用いてマッチング演算を行うことで、取り込み時間、歪補正時間やマッチング処理にかかる時間を短縮して、高速処理を可能としている。   Therefore, in the embodiment of the present invention, only the image portion necessary for distance measurement is captured, only the image of the portion necessary for distance measurement is corrected for distortion, and matching calculation is performed using the image to obtain the acquisition time and distortion correction. The processing time and time required for matching processing are shortened to enable high-speed processing.

具体的には、左画像については、測距点の近傍の画像のみを取り込み、右画像については、エピポーララインの周辺の画像のみを取り込みを行う。そして、エピポーララインの周辺の画像とのみマッチング演算を行うことで、マッチング演算の時間を大幅に削減している。   Specifically, for the left image, only the image near the distance measuring point is captured, and for the right image, only the image around the epipolar line is captured. The matching calculation time is significantly reduced by performing the matching calculation only with the peripheral image of the epipolar line.

つまり、エピポーラ拘束によれば、2つのカメラで3次元画像を撮影した場合、基準カメラに写ったある点は、もう一方の画像のエピポーラライン上に投影される。このことから、エピポーララインの近傍の画像だけを取り込み、エピポーララインの近傍の画像とだけマッチングを行えば良いことになる。このようにすれば、1画面すべての画像を取り込んでマッチングを行う場合に比べて、画像の取り込み処理にかかる時間や、マッチング処理にかかる時間が大幅に短縮される。   That is, according to the epipolar constraint, when a three-dimensional image is captured by two cameras, a certain point captured by the reference camera is projected onto the epipolar line of the other image. For this reason, it is only necessary to capture only the image near the epipolar line and perform matching only with the image near the epipolar line. In this way, the time required for the image capturing process and the time required for the matching process are significantly reduced as compared with the case where matching is performed by capturing all the images on one screen.

また、一般にレンズ系による画像には光学的な歪みがある。計測を行う場合にはこの歪みが大きな誤差原因となるため、幾何学的歪み補正テーブルにより、座標変換が行われる。そして、変換画面1ピクセルにつき、そのピクセルが撮像画面上の光学上の幾何学的歪み上対応する座標の4つのピクセルの輝度データにウエイトテーブルW1〜W4の比率を乗じ、変換画面ピクセルの画素の輝度データを求めている。このような画像の歪み補正処理では、その処理量は膨大であり、計算時間のかかる処理である。   In general, an image by a lens system has optical distortion. When measurement is performed, this distortion causes a large error. Therefore, coordinate conversion is performed using a geometric distortion correction table. Then, for each pixel of the conversion screen, the luminance data of the four pixels at the coordinates corresponding to the optical geometric distortion on the imaging screen is multiplied by the ratio of the weight tables W1 to W4 to obtain the pixel of the conversion screen pixel. We are looking for luminance data. In such image distortion correction processing, the amount of processing is enormous, and this processing takes time.

そこで、本発明の実施形態では、歪補正を取り込んだ画像に対してのみ行った上で、歪み補正処理に用いるウェイト係数を2の累乗倍して整数化している。これにより、ウェイト係数の乗算をビットシフトで行うことができ、歪み補正処理の時間が短縮される。   Therefore, in the embodiment of the present invention, the weight coefficient used for the distortion correction processing is converted into an integer by multiplying it by a power of 2 after performing only the distortion correction image. Thereby, multiplication of the weight coefficient can be performed by bit shift, and the time for the distortion correction processing is shortened.

図8は、本発明の第1の実施形態における測距表示処理を示すフローチャートである。この例では、上述のように、測距に必要な画像部分だけを取り込み、測距に必要な部分の画像だけを歪補正し、それを用いてマッチング演算を行うことで、取り込み時間、歪補正時間やマッチング処理にかかる時間を短縮している。また、歪み補正処理に用いるウェイト係数を2の累乗倍して整数として、ウェイト係数の乗算を整数演算としてビットシフトにより輝度を求める除算を行って、歪み補正処理にかかる時間を短縮している。   FIG. 8 is a flowchart showing distance measurement display processing according to the first embodiment of the present invention. In this example, as described above, only the image portion necessary for distance measurement is captured, only the image of the portion necessary for distance measurement is corrected for distortion, and matching calculation is performed using the image to obtain the acquisition time and distortion correction. Time and matching processing are shortened. Further, the time required for the distortion correction process is shortened by performing division for obtaining the luminance by bit shift using the weight coefficient used for the distortion correction process as an integer by multiplying by 2 and using the multiplication of the weight coefficient as an integer operation.

図8において、測距機能が起動されたら、ステップS1で、初期化処理を行う。測距機能は、以下の起動条件で、ズームレバー47をワイド端側に設定することで起動される。
(1)光学アダプタの設定がステレオ光学アダプタになっている。
(2)ライブ画像表示、あるいは、フリーズ画像表示中である。
(3)電子ズームがワイド端(電子ズームが1倍)である。
In FIG. 8, when the distance measuring function is activated, an initialization process is performed in step S1. The ranging function is activated by setting the zoom lever 47 to the wide end side under the following activation conditions.
(1) The optical adapter is set to a stereo optical adapter.
(2) Live image display or freeze image display is in progress.
(3) The electronic zoom is at the wide end (the electronic zoom is 1 time).

そして、ステップS2で、左画像及び右画像の取り込み範囲の計算を行う。左画像の取り込み範囲としては、図9に示すように、測距点の近傍の画像である。図9において、測距点Pの座標を(lx,ly)とし、左取得幅をL_WIDTH、左取得高さをL_HEIGHTとしたとき、左画像取得範囲LAREAの基点SPLの座標は、
(lx−L_WIDTH/2,ly−L_HEIGHT/2)
となる。
Then, in step S2, the capture range of the left image and the right image is calculated. As shown in FIG. 9, the left image capturing range is an image in the vicinity of a distance measuring point. In FIG. 9, when the coordinates of the ranging point P are (lx, ly), the left acquisition width is L_WIDTH, and the left acquisition height is L_HEIGHT, the coordinates of the base point SPL of the left image acquisition range LAREA are as follows:
(Lx-L_WIDTH / 2, ly-L_HEIGHT / 2)
It becomes.

また、右画像の取得範囲RAREAは、図9に示すように、エピポーラライン77の近傍の画像である。エピポーラライン77の具体的な求め方は、以下の通りである。   Further, the acquisition range RAREA of the right image is an image in the vicinity of the epipolar line 77 as shown in FIG. A specific method for obtaining the epipolar line 77 is as follows.

光学データから、左基準点OLの座標と、右基準点ORの座標を読み込む。左基準点OL及び右基準点ORは、光学中心付近の同一観察対象の座標であり、光学データ生産時に設定される。この左基準点OLの座標を(olx,oly)とし、右基準点ORの座標を(orx,ory)とする。   From the optical data, the coordinates of the left reference point OL and the coordinates of the right reference point OR are read. The left reference point OL and the right reference point OR are the coordinates of the same observation target near the optical center, and are set when optical data is produced. The coordinates of the left reference point OL are (olx, ly), and the coordinates of the right reference point OR are (orx, ory).

右画像の左端のX座標をrsxとすると、エピポーラライン77の始点ESの座標(esx,esy)は、
(esx,esy)=(rsx,ly−oly+ory)
となる。また、エピポーララインの終点EEの座標(eex,eey)は、取得幅をR_WIDTHとすると、
(eex,eey)=(rsx+R_WIDTH,ly−oly+ory)
となる。
If the X coordinate of the left end of the right image is rsx, the coordinates (esx, esy) of the start point ES of the epipolar line 77 are
(Esx, esy) = (rsx, ly-oliy + ory)
It becomes. In addition, the coordinates (eex, ey) of the end point EE of the epipolar line are as follows:
(Eex, eyy) = (rsx + R_WIDTH, ly-oliy + ory)
It becomes.

よって、取得高さをR_HEIGHTとすると、右画像の取得範囲RAREAの基点SPRの座標は、
(esx,esy−R_HEIGHT/2)
となる。
Therefore, if the acquisition height is R_HEIGHT, the coordinates of the base point SPR of the acquisition range RAREA of the right image are
(Esx, esy-R_HEIGHT / 2)
It becomes.

なお、エピポーララインの求め方は、上記に限られるものではなく、一般的なステレオビジョンの分野で公知である他の求め方によっても良い。   Note that the method of obtaining the epipolar line is not limited to the above, but may be another method known in the field of general stereo vision.

図8において、ステップS2で、画像の取得範囲が計算されたら、求められた取得範囲に基づいて、ステップS3で右画像を取得し、ステップS4で左画像を取得する。そして、ステップS5で右画像の部分の画像歪み補正を行い、ステップS6で左画像の部分の画像歪み補正を行う。なお、画像歪み補正におけるウエイトテーブルW1〜W4としては、ウェイト値を2の累乗倍した整数が用いられ、輝度を求める除算はビットシフトで行われる。   In FIG. 8, when the image acquisition range is calculated in step S2, the right image is acquired in step S3 based on the obtained acquisition range, and the left image is acquired in step S4. In step S5, the image distortion correction of the right image portion is performed, and in step S6, the image distortion correction of the left image portion is performed. As the weight tables W1 to W4 in the image distortion correction, an integer obtained by multiplying the weight value by a power of 2 is used, and the division for obtaining the luminance is performed by bit shift.

ステップS5、S6で、画像の歪み補正が行われたら、ステップS7で、測距点に対応する点の探索処理を行う。つまり、左画像65には、図6に示したように、照準71が表示される。この照準71の中心位置を測距点とし、テンプレートを作成し、このテンプレートを使って、パターンマッチングにより相関を求め、右画像66中から、測距点に対応する点を探索する。   When image distortion correction is performed in steps S5 and S6, a point search process corresponding to the distance measuring point is performed in step S7. That is, the aim 71 is displayed on the left image 65 as shown in FIG. Using the center position of the aiming point 71 as a distance measuring point, a template is created. Using this template, correlation is obtained by pattern matching, and a point corresponding to the distance measuring point is searched from the right image 66.

ステップS8で、三角測量の原理から、(1)式、(2)式に基づいて、空間座標を計算し、測距点の距離を求める。ここで、光学系の主点OR及び点OL間の距離、及び結像光学系の焦点距離は、光学データとしてメモリカードに記録されている。点QLの座標は、座用は測距点とされた照準71の座標そのものであり、点QRは、ステップS7で、測距点に対応する点を右画像66の中から探索することで得ることができる。   In step S8, based on the principle of triangulation, spatial coordinates are calculated based on the equations (1) and (2), and the distance of the distance measuring point is obtained. Here, the distance between the principal point OR and the point OL of the optical system and the focal length of the imaging optical system are recorded in the memory card as optical data. The coordinates of the point QL are the coordinates of the aiming point 71 that is assumed to be a distance measuring point, and the point QR is obtained by searching the right image 66 for a point corresponding to the distance measuring point in step S7. be able to.

ステップS9で、上述のようにして求められた測距点までの物体距離を画面上に表示する。つまり、図6に示したように、被写体までの距離を、画面64上で距離表示キャラクタ72として表示する。また、被写体までの距離を、距離表示バーグラフ73で表示する。   In step S9, the object distance to the distance measuring point obtained as described above is displayed on the screen. That is, as shown in FIG. 6, the distance to the subject is displayed as a distance display character 72 on the screen 64. Further, the distance to the subject is displayed as a distance display bar graph 73.

図8において、ステップS10で、測距表示処理を終了するかどうかを判断し、終了しなければ、ステップS2にリターンする。ステップS2〜S10の処理を、測距点の距離表示を終了するまで繰り返し行う。これにより、ライブ画像表示(あるいはフリーズ画面の表示)と並行して、リアルタイムで被写体の距離表示を行うことができる。ステップS10で、測距表示処理を終了すると判断すると、処理は終了となる。   In FIG. 8, it is determined in step S10 whether or not the distance measurement display process is to be ended. If not, the process returns to step S2. The processes in steps S2 to S10 are repeated until the distance display of the distance measuring points is completed. Thus, the distance of the subject can be displayed in real time in parallel with the live image display (or the freeze screen display). If it is determined in step S10 that the distance measurement display process is to be terminated, the process is terminated.

(第2の実施形態)
図10は、本発明の第2の実施形態の測距表示処理を示すものである。前述の第1の実施形態では、照準71を画面上に固定している。これに対して、この実施形態では、照準71を操作者が自在に移動させることができるようにしている。操作者は、リモートコントローラ4のレバースイッチ42を操作することで、照準71を画面上で上下左右に移動させることができる。画面上には、計測可能範囲75が表示される。照準71で示される測距点がこの計測可能範囲75内にあれば、測距が可能である。なお、光学アダプタによって左画像の位置は異なるので、計測可能範囲75の座標は、メモリカードの光学データとして保持される。
(Second Embodiment)
FIG. 10 shows a distance measurement display process according to the second embodiment of the present invention. In the first embodiment described above, the aiming 71 is fixed on the screen. On the other hand, in this embodiment, the operator can freely move the aiming 71. The operator can move the aiming 71 up, down, left and right on the screen by operating the lever switch 42 of the remote controller 4. A measurable range 75 is displayed on the screen. If the distance measuring point indicated by the aiming point 71 is within the measurable range 75, distance measurement is possible. Since the position of the left image differs depending on the optical adapter, the coordinates of the measurable range 75 are held as optical data of the memory card.

図11は、本発明の第2の実施形態の測距表示処理の動作を示すフローチャートである。図11において、ステップS101で初期化処理を行い、ステップS102で、測距点の座標が計測可能範囲かどうかを判断し、計測可能範囲内に入るまで、測距処理の実行を中止し、計測可能範囲内になったら、ステップS103で観察画像の取得処理を行い、画像をメモリ上に展開する。   FIG. 11 is a flowchart showing the operation of the distance measurement display process according to the second embodiment of the present invention. In FIG. 11, initialization processing is performed in step S101. In step S102, it is determined whether or not the coordinates of the distance measuring point are within the measurable range. If it is within the possible range, an observation image acquisition process is performed in step S103, and the image is developed on the memory.

ステップS104で、照準71の座標が変化したかどうかを判断し、照準71の座標が変化したら、ステップS102に戻り、座標の範囲確認から実行し直す。   In step S104, it is determined whether or not the coordinates of the aiming 71 have changed. If the coordinates of the aiming 71 have changed, the process returns to step S102, and the process starts again from the coordinate range confirmation.

ステップS104で照準71の座標が変化していなければ、ステップS105で、右画像及び左画像の取得範囲を計算する。具体的には、左画像については、測距点の近傍の画像を取得範囲とし、右画像については、エピポーララインの周辺の画像を取得範囲とする。そして、設定された取得範囲に基づいて、ステップS106で右画像66の画像の切り出し処理を行い、ステップS107で左画像65の画像の切り出し処理を行う。   If the coordinates of the aim 71 have not changed in step S104, the acquisition range of the right image and the left image is calculated in step S105. Specifically, for the left image, an image in the vicinity of the distance measuring point is the acquisition range, and for the right image, an image around the epipolar line is the acquisition range. Then, based on the set acquisition range, an image clipping process for the right image 66 is performed in step S106, and an image clipping process for the left image 65 is performed in step S107.

ステップS108で、右画像66の画像の歪み補正処理を行い、ステップS109で左画像65の画像の歪み補正処理を行う。歪みの補正は、前述のメモリカードに記録されている光学的データを用いて行われる。   In step S108, distortion correction processing of the image of the right image 66 is performed, and distortion correction processing of the image of the left image 65 is performed in step S109. The distortion is corrected using optical data recorded on the memory card.

ステップS110で、測距点に対応する点の探索処理を行う。ステップS111で、メモリカードから読み出された光学系の主点OR及び点OL間の距離、及び結像光学系の焦点距離と、測距点に対応する点の探索処理で求められた点QR及びQLの座標から、三角測量の原理から、空間座標を計算し、測距点の距離を求める。   In step S110, a point search process corresponding to the distance measuring point is performed. In step S111, the distance between the principal point OR and the point OL of the optical system read from the memory card, the focal length of the imaging optical system, and the point QR obtained by the search processing for the point corresponding to the distance measuring point. From the coordinates of QL and QL, the spatial coordinates are calculated from the principle of triangulation, and the distance of the distance measuring point is obtained.

ステップS112で、照準71の座標が変化したかどうかを判断し、照準71の座標が変化したら、ステップS102に戻り、座標の範囲確認から実行し直す。   In step S112, it is determined whether or not the coordinates of the aiming 71 have changed. If the coordinates of the aiming 71 have changed, the process returns to step S102, and the process starts again from the coordinate range confirmation.

ステップS112で照準71の座標が変化していなければ、ステップS113で、上述のようにして求められた測距点までの物体距離を画面上に表示する。   If the coordinate of the aim 71 has not changed in step S112, the object distance to the distance measuring point obtained as described above is displayed on the screen in step S113.

ステップS114で、測距表示処理を終了するかどうかを判断し、終了しなければ、ステップS13にリターンする。これにより、ライブ画像表示(あるいはフリーズ画面の表示)と並行して、リアルタイムで被写体の距離表示を行うことができる。ステップS23で、測距表示処理を終了すると判断すると、処理は終了となる。   In step S114, it is determined whether or not the distance measurement display process is to be ended. If not, the process returns to step S13. Thus, the distance of the subject can be displayed in real time in parallel with the live image display (or the freeze screen display). If it is determined in step S23 that the distance measurement display process is to be terminated, the process is terminated.

このように、この実施形態では、計測しようとする被写体が画面の端にあるような場合、レバースイッチ42を操作して照準71を移動させ、計測しようとする被写体に照準を合わせることができる。   As described above, in this embodiment, when the subject to be measured is at the end of the screen, the aim 71 can be moved by operating the lever switch 42 to aim at the subject to be measured.

なお、本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   Note that the present invention is not limited to the above-described embodiments, and various modifications and applications are possible without departing from the spirit of the present invention.

本発明は、三次元計測が行えるようにした計測用内視鏡に用いて好適である。




The present invention is suitable for use in endoscopes for measurement was allow three-dimensional measurement.




本発明が適用できる内視鏡装置の構成を示す斜視図である。It is a perspective view which shows the structure of the endoscope apparatus which can apply this invention. 本発明が適用できる内視鏡装置の構成を説明するブロック図ある。It is a block diagram explaining the structure of the endoscope apparatus which can apply this invention. リモートコントローラの説明に用いる斜視図である。It is a perspective view used for description of a remote controller. ステレオ光学アダプタの構成を示す斜視図である。It is a perspective view which shows the structure of a stereo optical adapter. ステレオ光学アダプタの構成を示す断面図である。It is sectional drawing which shows the structure of a stereo optical adapter. 本発明の第1の実施形態に係る測距表示の画面構成の説明図である。It is explanatory drawing of the screen structure of the ranging display which concerns on the 1st Embodiment of this invention. 距離のバーグラフ表示の説明図である。It is explanatory drawing of the bar graph display of distance. 本発明の第1の実施形態に係る測距表示処理の説明に用いるフローチャートである。It is a flowchart used for description of the ranging display process which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態における画像取得範囲の説明図である。It is explanatory drawing of the image acquisition range in the 1st Embodiment of this invention. 本発明の第2の実施形態に係る測距表示の画面構成の説明図である。It is explanatory drawing of the screen structure of the ranging display which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る測距表示処理の説明に用いるフローチャートである。It is a flowchart used for description of the ranging display process which concerns on the 2nd Embodiment of this invention. 測距の原理の説明図である。It is explanatory drawing of the principle of ranging.

符号の説明Explanation of symbols

1 内視鏡装置
2 内視鏡
3 コントロールユニット
4 リモートコントローラ
5 液晶モニタ(LCD)
65 左画面
66 右画面
71 照準
72 距離表示キャラクタ
73 距離表示バーグラフ

DESCRIPTION OF SYMBOLS 1 Endoscope apparatus 2 Endoscope 3 Control unit 4 Remote controller 5 Liquid crystal monitor (LCD)
65 Left screen 66 Right screen 71 Aiming 72 Distance display character 73 Distance display bar graph

Claims (5)

ステレオ光学系による被写体像を撮像するための撮像部を有する電子内視鏡と、この電子内視鏡に接続されていて、前記撮像部からの撮像信号を受け映像信号を生成する画像処理部、及びこの画像処理部で生成された映像信号に基づくステレオ画像を入力画像として計測処理を行う計測処理部を有する制御部を具えた制御装置と、この制御装置の前記制御部の指示に基づいて出力される出力画像を受けてその画像を表示する表示装置とを具える計測用内視鏡装置において、
前記制御装置は、
前記出力画像上の所定の座標に測距点を表す照準を表示する照準表示処理部と、
前記測距点の座標を元に、前記ステレオ画像の一方における前記測距点近傍の範囲と、前記ステレオ画像の他方における前記測距点に対応するエピポーラライン近傍の範囲とを、前記ステレオ画像の取り込み範囲とする画像取得領域情報を求める画像取得領域計算処理部と、
前記画像取得領域情報を元に、前記ステレオ画像の前記測距点近傍の範囲及びエピポーラライン近傍の範囲のそれぞれの部分画像を取得する部分画像取得処理部と、
前記部分画像取得処理部で得たそれぞれの前記部分画像の歪補正処理を行う部分歪補正処理部と、
前記部分歪補正処理部によって歪補正処理が行われた、前記部分画像取得処理部によって取得されたそれぞれの前記部分画像を用いて、前記測距点での被写体の物体距離を三角測量の原理で計算する測距処理部と
を具えたことを特徴とする計測用内視鏡装置。
An electronic endoscope having an imaging unit for imaging a subject image by a stereo optical system, and an image processing unit connected to the electronic endoscope and receiving an imaging signal from the imaging unit and generating a video signal; And a control device including a control unit having a measurement processing unit that performs a measurement process using a stereo image based on the video signal generated by the image processing unit as an input image, and an output based on an instruction of the control unit of the control device In an endoscope apparatus for measurement comprising a display device that receives an output image to be displayed and displays the image,
The controller is
An aim display processing unit for displaying an aim representing a distance measuring point at predetermined coordinates on the output image;
Based on the coordinates of the ranging point, a range near the ranging point in one of the stereo images and a range near the epipolar line corresponding to the ranging point in the other stereo image are An image acquisition area calculation processing unit for obtaining image acquisition area information as a capture range;
Based on the image acquisition area information, a partial image acquisition processing unit for acquiring a partial image of the range near the distance measurement point and a range near the epipolar line of the stereo image;
A partial distortion correction processing unit that performs distortion correction processing of each of the partial images obtained by the partial image acquisition processing unit;
Using the partial images acquired by the partial image acquisition processing unit that has been subjected to the distortion correction processing by the partial distortion correction processing unit, the object distance of the subject at the distance measuring point is calculated based on the principle of triangulation. An endoscope apparatus for measurement, comprising: a distance measurement processing unit for calculating.
前記制御装置は、さらに、
前記照準の位置を変更する照準位置操作手段と、前記照準の座標を得る照準座標取得処理部とを具えたことを特徴とする請求項1に記載の計測用内視鏡装置。
The control device further includes:
The measuring endoscope apparatus according to claim 1, further comprising an aiming position operating unit that changes the aiming position and an aiming coordinate acquisition processing unit that obtains the aiming coordinates.
前記制御装置は、さらに、
前記測距点の画面座標が所定の計測可能領域外である場合に前記測距処理を中止する範囲外測距中止手段と、前記計測可能領域の境界を前記出力画像に表示する計測可能領域境界表示手段とを具えたことを特徴とする請求項2に記載の計測用内視鏡装置。
The control device further includes:
Out-of-range distance measurement stop means for stopping the distance measurement processing when the screen coordinates of the distance measurement points are outside a predetermined measurable area, and a measurable area boundary for displaying the boundary of the measurable area in the output image The measuring endoscope apparatus according to claim 2, further comprising display means.
前記制御装置は、さらに、
前記測距処理部によって計算された前記物体距離の情報を前記出力画像に表示する物体距離表示処理部を具えたことを特徴とする請求項1、2、又は3に記載の計測用内視鏡装置。
The control device further includes:
4. The measurement endoscope according to claim 1, further comprising an object distance display processing unit that displays information on the object distance calculated by the distance measurement processing unit on the output image. apparatus.
前記物体距離表示処理部は、前記物体距離の情報を、バーグラフで表示することを特徴とする請求項4に記載の計測用内視鏡装置。   The measurement endoscope apparatus according to claim 4, wherein the object distance display processing unit displays the object distance information in a bar graph.
JP2005151198A 2005-05-24 2005-05-24 Endoscope device for measurement Active JP5113990B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005151198A JP5113990B2 (en) 2005-05-24 2005-05-24 Endoscope device for measurement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005151198A JP5113990B2 (en) 2005-05-24 2005-05-24 Endoscope device for measurement

Publications (2)

Publication Number Publication Date
JP2006325741A JP2006325741A (en) 2006-12-07
JP5113990B2 true JP5113990B2 (en) 2013-01-09

Family

ID=37548087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005151198A Active JP5113990B2 (en) 2005-05-24 2005-05-24 Endoscope device for measurement

Country Status (1)

Country Link
JP (1) JP5113990B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8248465B2 (en) 2007-12-27 2012-08-21 Olympus Corporation Measuring endoscope apparatus and program
JP5570769B2 (en) 2009-07-23 2014-08-13 オリンパス株式会社 Endoscope apparatus, measurement method, and program
JP5361592B2 (en) 2009-07-24 2013-12-04 オリンパス株式会社 Endoscope apparatus, measurement method, and program
JP5437087B2 (en) 2010-01-15 2014-03-12 オリンパス株式会社 Endoscope apparatus and program
JP2011170276A (en) * 2010-02-22 2011-09-01 Olympus Corp Endoscope device and program
JP5530225B2 (en) 2010-03-09 2014-06-25 オリンパス株式会社 Endoscope apparatus and program
JPWO2017033728A1 (en) * 2015-08-26 2018-06-14 オリンパス株式会社 Endoscope device
JP6839089B2 (en) 2015-10-16 2021-03-03 オリンパス株式会社 Endoscope device, how to operate the endoscope device, and recording medium
JP6800871B2 (en) 2015-10-16 2020-12-16 オリンパス株式会社 Endoscope device, how to operate the endoscope device, and recording medium
JP6912313B2 (en) * 2017-07-31 2021-08-04 パナソニックi−PROセンシングソリューションズ株式会社 Image processing device, camera device and image processing method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0646977B2 (en) * 1984-06-09 1994-06-22 オリンパス光学工業株式会社 Measuring endoscope
JPH03231622A (en) * 1990-02-06 1991-10-15 Olympus Optical Co Ltd Endoscope apparatus
JPH06339454A (en) * 1993-06-01 1994-12-13 Olympus Optical Co Ltd Measuring endoscope device
JPH08116490A (en) * 1994-10-14 1996-05-07 Olympus Optical Co Ltd Image processing unit
JP3771988B2 (en) * 1997-03-12 2006-05-10 オリンパス株式会社 Measuring endoscope device
JP3850541B2 (en) * 1998-02-18 2006-11-29 富士重工業株式会社 Advanced measuring device
JP4873794B2 (en) * 2001-05-30 2012-02-08 オリンパス株式会社 Image processing measuring apparatus and measuring endoscope apparatus
JP4373037B2 (en) * 2001-08-31 2009-11-25 オリンパス株式会社 Measuring endoscope device
JP4759184B2 (en) * 2001-08-31 2011-08-31 オリンパス株式会社 Measuring endoscope device
JP4358494B2 (en) * 2002-10-02 2009-11-04 オリンパス株式会社 Endoscope system

Also Published As

Publication number Publication date
JP2006325741A (en) 2006-12-07

Similar Documents

Publication Publication Date Title
JP5113990B2 (en) Endoscope device for measurement
US7443488B2 (en) Endoscope apparatus, method of operating the endoscope apparatus, and program to be executed to implement the method
JP4885479B2 (en) Endoscope device for measurement and program for endoscope
US8496575B2 (en) Measuring endoscope apparatus, program and recording medium
JP4873794B2 (en) Image processing measuring apparatus and measuring endoscope apparatus
JP5137033B2 (en) Surgery support information display device, surgery support information display method, and surgery support information display program
JP2011182977A (en) Endoscope apparatus and program
JP2004049638A (en) Endoscope apparatus
WO2017006708A1 (en) Medical device, medical image generating method, and medical image generating program
WO2017221507A1 (en) Endoscope system
JP5186286B2 (en) Endoscope device for measurement and program
JP5026769B2 (en) Endoscope device for measurement, program, and recording medium
JP2009175692A (en) Measuring endoscope apparatus and program
JP4916114B2 (en) Endoscope device
JP4759184B2 (en) Measuring endoscope device
JP2011170276A (en) Endoscope device and program
US8979743B2 (en) Endoscope device and endoscopic image distortion correction method
CN110858397A (en) Measuring device, method for operating measuring device, and storage medium
JP4975417B2 (en) Endoscope apparatus and endoscope image distortion correction method
JP4011888B2 (en) Measuring endoscope device
JP6400767B2 (en) Measuring endoscope device
JP2007319620A (en) Measuring adaptor for endoscope and endoscope system for measurement
JP4418162B2 (en) Measuring endoscope device
WO2017199657A1 (en) Endoscope device, measurement method, and program
JP5042550B2 (en) Endoscope device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121015

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5113990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350