JP5113990B2 - Endoscope device for measurement - Google Patents
Endoscope device for measurement Download PDFInfo
- Publication number
- JP5113990B2 JP5113990B2 JP2005151198A JP2005151198A JP5113990B2 JP 5113990 B2 JP5113990 B2 JP 5113990B2 JP 2005151198 A JP2005151198 A JP 2005151198A JP 2005151198 A JP2005151198 A JP 2005151198A JP 5113990 B2 JP5113990 B2 JP 5113990B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing unit
- distance
- measurement
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
Description
本発明は、三次元計測が行えるようにした計測用内視鏡装置に関するもので、特に、被写体までの距離をリアルタイムで表示できるようにしたものに関する。 The present invention relates to endoscopes KagamiSo location for measurement was allow three-dimensional measurement, in particular, to those can view the distance to the subject in real time.
近年、体腔内に細長の挿入部を挿入することにより、体腔内臓器等を観察したり、必要に応じ処置具チャンネル内に挿通した処置具を用いて各種治療処置を行える内視鏡が広く利用されている。また、工業用分野においても、ボイラ、タービン、エンジン、化学プラント等の内部の傷、腐食等の観察、検査に工業用内視鏡が広く用いられている。 In recent years, endoscopes that can observe various organs in a body cavity by inserting an elongated insertion part into a body cavity or perform various therapeutic treatments using a treatment instrument inserted into a treatment instrument channel as necessary are widely used. Has been. Also in the industrial field, industrial endoscopes are widely used for observing and inspecting internal scratches and corrosion of boilers, turbines, engines, chemical plants, and the like.
上述のように使用される内視鏡には挿入部の先端部に光学像を画像信号に光電変換するCCDなどの撮像素子を配設した電子内視鏡(以下内視鏡と略記する)がある。この内視鏡では、撮像素子に結像した観察像の画像信号を画像処理部で映像信号に生成し、その映像信号をモニタに出力することによって画面上に内視鏡画像を表示させて観察を行える。 The endoscope used as described above includes an electronic endoscope (hereinafter abbreviated as an endoscope) in which an imaging element such as a CCD that photoelectrically converts an optical image into an image signal is disposed at the distal end portion of an insertion portion. is there. In this endoscope, an image signal of an observation image formed on an image sensor is generated as a video signal by an image processing unit, and the video signal is output to a monitor to display an endoscopic image on the screen for observation. Can be done.
そして、特に工業用の内視鏡では、検査箇所に応じた観察を行えるように複数種類の光学アダプタが用意されており、必要に応じて内視鏡挿入部の先端部に着脱自在に装着できるようになっている。光学アダプタとしては、特許文献1及び特許文献2に示されるように、観察光学系に左右の2つの観察視野を形成したステレオ光学アダプタがある。
In particular, in an industrial endoscope, a plurality of types of optical adapters are prepared so that observation can be performed according to the examination location, and can be detachably attached to the distal end portion of the endoscope insertion portion as necessary. It is like that. As an optical adapter, as shown in
上述のような左右の2つの観察視野を形成したステレオ光学アダプタでは、同一の被写体像を左右の光学系で捉えたときの左右の光学系での座標に基づいて、三角測量の原理を使って被写体の三次元空間座標を求めている。 The stereo optical adapter that forms the left and right observation fields as described above uses the principle of triangulation based on the coordinates of the left and right optical systems when the same subject image is captured by the left and right optical systems. The three-dimensional space coordinates of the subject are obtained.
つまり、図12は、x,y,z 軸をもつ三次元座標系上の右左2画像位置関係を示す図であって、計測対象となる測距点Pが撮像素子の右結像面101R、左結像面101L上に結像した状態を示している。図12において、点OR,OLを光学系の主点とし、距離fを焦点距離とし、点QR,QLを点Pの結像位置とし、さらに、距離Lを点OR−点OL間の距離とする。
That is, FIG. 12 is a diagram showing a right-to-left two-image positional relationship on a three-dimensional coordinate system having x, y, and z axes, and the distance measurement point P to be measured is the
図12において、直線QR−ORから次式が成立する。すなわち、
x/xR={y−(L/2)}/{yR−(L/2)}=z/(−f)…(1)
また、直線QL−OLから次式が成立する。すなわち、
x/xL={y+(L/2)}/{yL+(L/2)}=z/(−f)…(2)
この式をx、y、z について解けば、点Pの三次元座標が得られる。
In FIG. 12, the following equation is established from the straight line QR-OR. That is,
x / xR = {y− (L / 2)} / {yR− (L / 2)} = z / (− f) (1)
Further, the following equation is established from the straight line QL-OL. That is,
x / xL = {y + (L / 2)} / {yL + (L / 2)} = z / (− f) (2)
Solving this equation for x, y, z gives the three-dimensional coordinates of point P.
このような三次元計測では、計測対象となる被写体との距離が離れる程、奥行き方向の分解能が下がり、計測精度が低下する。このため、精度の高い三次元計測を行うためには、ある程度まで被写体に近づく必要がある。 In such 3D measurement, as the distance from the subject to be measured increases, the resolution in the depth direction decreases and the measurement accuracy decreases. For this reason, in order to perform highly accurate three-dimensional measurement, it is necessary to approach the subject to some extent.
ところが、内視鏡等の機器においては、良好な観察画像が得られるように被写体深度が深い光学系が用いられており、挿入部の先端周辺の状況を操作者が確認することが難しい。このため、三次元計測機能を起動し、計測点を指定するまで、十分な計測精度が得られるまで物体に近づいているかどうかを判断することが難しい。 However, in an apparatus such as an endoscope, an optical system having a deep subject depth is used so that a good observation image can be obtained, and it is difficult for an operator to check the situation around the distal end of the insertion portion. For this reason, it is difficult to determine whether or not the object is approached until sufficient measurement accuracy is obtained until the three-dimensional measurement function is activated and a measurement point is designated.
そこで、被写体の距離をライブ状態の撮像画面中に表示することが考えられる。被写体の距離をライブ状態の撮像画面中に表示されれば、操作者は、この被写体までの距離を見ることで、精度の高い三次元計測用画像を取得できるかどうかを判断でき、精度の高い三次元計測用画像を取得できる位置まで十分近づいてから、三次元計測に切り換えることができる。
ところが、被写体までの距離を計測するためには、左右の画像を取り込み、画像の歪み補正を行い、測距点の対応点を探索し、空間座標を計算する必要がある。左右の画像を全て取り込むには、取り込み時間が必要である。また、全画像を対象として対応点の探索を行った場合、マッチングの処理の演算が膨大になる。このため、通常のCPUでは、処理時間が長くなり、リアルタイムに被写体までの距離を表示させることが難しい。リアルタイムに被写体までの距離を表示させるために、高速のCPUを用いることも考えられるが、高速のCPUを用いると、コストアップになると共に、消費電力が増大するという問題が生じる。 However, in order to measure the distance to the subject, it is necessary to capture the left and right images, correct the distortion of the image, search for the corresponding points of the distance measuring points, and calculate the spatial coordinates. In order to capture all the left and right images, capture time is required. In addition, when the corresponding points are searched for all the images, the calculation processing for matching becomes enormous. For this reason, with a normal CPU, the processing time is long, and it is difficult to display the distance to the subject in real time. In order to display the distance to the subject in real time, it may be possible to use a high-speed CPU. However, if a high-speed CPU is used, there is a problem that the cost increases and the power consumption increases.
本発明は、上述の課題を鑑み、被写体までの距離を高速で測定することができ、高速のCPUを用いることなく、被写体までの距離をリアルタイムでライブ画像に表示できるようにした計測用内視鏡装置を提供することを目的とする。 In view of the above-mentioned problems, the present invention can measure the distance to the subject at high speed, and can display the distance to the subject in a live image in real time without using a high-speed CPU. an object of the present invention is to provide a KagamiSo location.
請求項1の発明は、ステレオ光学系による被写体像を撮像するための撮像部を有する電子内視鏡と、この電子内視鏡に接続されていて、撮像部からの撮像信号を受け映像信号を生成する画像処理部、及びこの画像処理部で生成された映像信号に基づくステレオ画像を入力画像として計測処理を行う計測処理部を有する制御部を具えた制御装置と、この制御装置の制御部の指示に基づいて出力される出力画像を受けてその画像を表示する表示装置とを具える計測用内視鏡装置において、制御装置は、出力画像上の所定の座標に測距点を表す照準を表示する照準表示処理部と、測距点の座標を元に、ステレオ画像の一方における測距点近傍の範囲と、ステレオ画像の他方における測距点に対応するエピポーラライン近傍の範囲とを、ステレオ画像の取り込み範囲とする画像取得領域情報を求める画像取得領域計算処理部と、画像取得領域情報を元に、ステレオ画像の測距点近傍の範囲及びエピポーラライン近傍の範囲のそれぞれの部分画像を取得する部分画像取得処理部と、部分画像取得処理部で得たそれぞれの部分画像の歪補正処理を行う部分歪補正処理部と、部分歪補正処理部によって歪補正処理が行われた、部分画像取得処理部によって取得されたそれぞれの部分画像を用いて、測距点での被写体の物体距離を三角測量の原理で計算する測距処理部とを具えたことを特徴とする。 According to the first aspect of the present invention, an electronic endoscope having an image pickup unit for picking up a subject image by a stereo optical system , and connected to the electronic endoscope, receives an image pickup signal from the image pickup unit and receives a video signal. image processing unit that generates, and a control device with a control unit having a measurement processing portion that performs measurement processing as a stereo image input image based on the video signal generated by the image processing unit, the control unit of the control device In a measurement endoscope apparatus including a display device that receives an output image output based on an instruction and displays the image, the control device applies an aim that represents a distance measuring point to a predetermined coordinate on the output image. Based on the coordinates of the distance measurement point to be displayed and the coordinates of the distance measurement points, the range near the distance measurement point on one side of the stereo image and the range near the epipolar line corresponding to the distance measurement point on the other side of the stereo image image An image acquisition area calculation processing unit for obtaining the image acquisition area information to capture range, the portion based on the image acquisition area information, and acquires the respective partial images of the scope and near the epipolar line of the distance measuring point near the stereo image An image acquisition processing unit, a partial distortion correction processing unit that performs distortion correction processing of each partial image obtained by the partial image acquisition processing unit, and a partial image acquisition processing unit that has undergone distortion correction processing by the partial distortion correction processing unit And a distance measurement processing unit that calculates the object distance of the subject at the distance measurement point based on the principle of triangulation using each partial image obtained by the above.
請求項2の発明は、制御装置は、さらに、照準の位置を変更する照準位置操作手段と、照準の座標を得る照準座標取得処理部とを具えたことを特徴とする。
The invention of
請求項3の発明は、制御装置は、さらに、測距点の画面座標が所定の計測可能領域外である場合に測距処理を中止する範囲外測距中止手段と、計測可能領域の境界を出力画像に表示する計測可能領域境界表示手段とを具えたことを特徴とする。 According to a third aspect of the present invention, the control device further includes an out-of-range distance measurement stop means for canceling the distance measurement processing when the screen coordinates of the distance measurement points are outside the predetermined measurable area, and a boundary between the measurable areas. The present invention is characterized by comprising measurable area boundary display means for displaying in an output image.
請求項4の発明は、制御装置は、さらに、測距処理部によって計算された物体距離の情報を出力画像に表示する物体距離表示処理部を具えたことを特徴とする。
請求項5の発明は、物体距離表示処理部は、物体距離の情報を、バーグラフで表示することを特徴とする。
According to a fourth aspect of the present invention, the control device further includes an object distance display processing unit that displays information on the object distance calculated by the distance measurement processing unit on an output image.
The invention according to
本発明によれば、被写体の観察画像上の所定の座標に測距点を表す照準を表示し、照準の中心を測距点として観察画像を取得し、測距点での被写体の物体距離を三角測量の原理で計算している。このとき、左画像については、例えば、測距点の近傍の画像のみを取り込み、右画像については、例えば、エピポーララインの周辺の画像のみを取り込みを行うようにしている。このように、測距に必要な画像部分だけを取り込み、測距に必要な部分の画像だけを用いてマッチング演算を行うことで、取り込み時間やマッチング処理にかかる時間が短縮される。これにより、高速のCPUを用いることなく、被写体までの距離を高速で測定して、リアルタイムでライブ画像に表示できる。 According to the present invention, an aim representing a distance measuring point is displayed at a predetermined coordinate on the observation image of the subject, an observation image is acquired using the center of the aim as a distance measuring point, and the object distance of the subject at the distance measuring point is obtained. Calculation is based on the principle of triangulation. At this time, for the left image, for example, only the image in the vicinity of the distance measuring point is captured, and for the right image, for example, only the image around the epipolar line is captured. In this way, by taking in only the image portion necessary for distance measurement and performing the matching calculation using only the image of the portion necessary for distance measurement, the time taken in and the time required for matching processing are reduced. Accordingly, the distance to the subject can be measured at high speed without using a high-speed CPU, and can be displayed on a live image in real time.
以下、本発明の実施の形態について図面を参照しながら説明する。
(第1の実施形態)
図1は、本発明の内視鏡装置の全体構成を示すものである。図1に示すように本実施形態の内視鏡装置1は、細長な挿入部20を有する内視鏡2と、この内視鏡2の挿入部20を収納する収納部を備えた制御装置であるコントロールユニット3と、装置全体の各種動作制御を実行する際に必要な操作を行うリモートコントローラ4と、内視鏡画像や操作制御内容(例えば後述する処理メニュー)等の表示を行う表示装置である液晶モニタ(以下、LCDと記載)5と、通常の内視鏡画像、あるいはその内視鏡画像を擬似的なステレオ画像として立体視可能にするフェイスマウントディスプレイ(以下、FMDと記載)6と、このFMD6に画像データを供給するFMDアダプタ6a等で主に構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 shows an overall configuration of an endoscope apparatus according to the present invention. As shown in FIG. 1, an
挿入部20は先端側から順に硬質な先端部21、例えば上下左右に湾曲可能な湾曲部22(図2)と柔軟性を有する可撓管部を連設して構成され、先端部21には観察視野を2つ有するステレオ光学アダプタ7a、7bあるいは観察視野が1つの通常観察光学アダプタ7c等、各種光学アダプタが着脱自在な構成になっている。
The
図2に示すようにコントロールユニット3内には内視鏡ユニット8、画像処理部であるカメラコントロールユニット(以下、CCUと記載)9及び制御部である制御ユニット10が設けられており、挿入部20の基端部は内視鏡ユニット8に接続されている。
As shown in FIG. 2, the
内視鏡ユニット8は、観察時に必要な照明光を供給する光源装置(不図示)、挿入部20を構成する湾曲部22を湾曲させる湾曲装置(不図示)を備えて構成されている。
The
CCU9には、挿入部20の先端部21に内蔵されている固体撮像素子2aから出力された撮像信号が入力する。この撮像信号は、CCU9内で例えばNTSC信号等の映像信号に変換されて、制御ユニット10へ供給される。
The CCU 9 receives an imaging signal output from the solid-
制御ユニット10内には音声信号処理回路11、映像信号が入力される映像信号処理回路12、ROM13、RAM14、PCカードインターフェイス(以下、PCカードI/Fと記載)15、USBインターフェイス(以下、USB I/Fと記載)16及びRS−232Cインターフェイス(以下、RS−232C I/Fと記載)17等と、これら各種機能を主要プログラムに基づいて実行させて動作制御を行うCPU18とが設けられている。
In the
RS−232C I/F17にはCCU9、内視鏡ユニット8及びこれらCCU9、内視鏡ユニット8等の制御及び動作指示を行うリモートコントローラ4がそれぞれ接続されている。このことにより、リモートコントローラ4の操作に基づいてCCU9、内視鏡ユニット8を動作制御する際に必要な通信が行われる。
The RS-232C I /
USB I/F16は、コントロールユニット3とパーソナルコンピュータ31とを電気的に接続するためのインターフェイスである。このUSB I/F16を介してコントロールユニット3とパーソナルコンピュータ31とを接続することによって、パーソナルコンピュータ31側で内視鏡画像の表示指示や計測時における画像処理などの各種の指示制御を行うことが可能になるとともに、コントロールユニット3とパーソナルコンピュータ31との間での各種の処理に必要な制御情報やデータ等の入出力を行うことが可能になる。
The USB I /
また、PCカードI/F15には、PCMCIAメモリカード32やコンパクトフラッシュ(登録商標)メモリカード33等の記録媒体であるいわゆるメモリカードが自由に着脱されるようになっている。メモリカードをPCカードI/F15に装着することにより、CPU18による制御によって、このメモリカードに記憶されている制御処理情報や画像情報等のデータの取り込み、あるいは制御処理情報や画像情報等のデータのメモリカードへの記録を行える。
In addition, a so-called memory card which is a recording medium such as a
映像信号処理回路12では、CCU9から供給された内視鏡画像とグラフィックによる操作メニューとを合成した合成画像を表示するように、CCU9からの映像信号をCPU18の制御により生成する操作メニューに基づく表示信号との合成処理や、LCD5の画面上に表示するのに必要な処理等を施してLCD5に供給する。また、この映像信号処理回路12では、単に内視鏡画像、あるいは操作メニュー等の画像を単独で表示するための処理を行うことも可能である。したがって、LCD5の画面上には、内視鏡画像、操作メニュー画像、内視鏡画像と操作メニュー画像との合成画像等が表示される。
In the video
音声信号処理回路11には、マイク34によって集音されて生成された、メモリカード等の記録媒体に記録する音声信号、メモリカード等の記録媒体の再生によって得られた音声信号、あるいはCPU18によって生成された音声信号が供給される。この音声信号処理回路11では、供給された音声信号を再生するのに必要な増幅処理等の処理を施してスピーカ35に出力する。このことによって、スピーカ35から音声が出力される。
In the audio
そして、CPU18は、ROM13に格納されているプログラムを実行することによって、目的に応じた処理を行うように各種回路部等を制御して、システム全体の動作制御を行う。
The
図3に示すようにリモートコントローラ4の一面には、ジョイスティック41、レバースイッチ42、フリーズスイッチ43、ストアースイッチ44及び計測実行スイッチ45が設けられている。また、ズームレバー47が設けられている。
As shown in FIG. 3, a
ジョイスティック41は、湾曲部22の湾曲動作を指示するスイッチであり、傾倒操作することによって湾曲部22がその傾倒方向に対応する方向に傾倒角度分だけ湾曲するようになっている。また、レバースイッチ42は、グラフィック表示される各種メニュー操作や計測を行う場合のポインター移動操作を行うスイッチであり、ジョイスティック41と略同様に構成されている。フリーズスイッチ43はLCD5表示に関わるスイッチである。ストアースイッチ44は、フリーズスイッチ43の押下によって静止画像を表示され、この静止画像をメモリカードに記録する場合に用いるスイッチである。計測実行スイッチ45は、計測ソフトを実行する際に用いるスイッチである。
The
なお、フリーズスイッチ43、ストアースイッチ44及び計測実行スイッチ45は、オン/オフの指示を押下操作によって行う例えば押下式を採用して構成されている。符号46はFMDアダプタ7から伸びる電気ケーブルが接続されるコネクタ部であり、このコネクタ部46に電気ケーブルを接続することによってFMD6を通してステレオ観察を行えるようになっている。ズームレバー47は、手前と奥とに倒せる方向スイッチで、電子ズームの制御を行う。奥に倒すとテレ(拡大)、手前に倒すとワイド(縮小)に動作する。
The
図4及び図5は、本実施形態の内視鏡装置1で用いられる光学アダプタの1つであるステレオ光学アダプタ7aの一例の構成を示すものである。図4及び図5に示すように直視型のステレオ光学アダプタ7aの先端面には一対の照明レンズ51、52と2つの対物レンズ系53,54とが設けられており、図5に示すように、固定リング50の雌ねじ50aを先端部21に形成されている雄ねじ21aに螺合することによって一体的に固定されるようになっている。
4 and 5 show an example of the configuration of a stereo
図5に示すように、2つの対物レンズ系53,54により、先端部21内に配設された固体撮像素子2aの撮像面上に2つの光学像が結像される。そして、この固体撮像素子2aで光電変換された撮像信号は、電気的に接続された信号線2b及び内視鏡ユニット8を介してCCU9に供給されて映像信号に変換され、その後、映像信号処理回路12に供給される。
As shown in FIG. 5, two optical images are formed on the imaging surface of the solid-
本実施形態の内視鏡装置1では、次の(a1)〜(d)に示すように、各内視鏡2特有の撮像光学系の光学データが測定され、その光学データが記録媒体である例えばメモリカード(PCMCIAメモリカード31やメモリカード33等)に記録される。
In the
上述の特有の光学データは、
(a1)2つの対物光学系の幾何学的歪み補正テーブル
(a2)像伝送光学系の幾何学歪み補正テーブル
(b)左右の結像光学系それぞれの焦点距離
(c)左右の結像光学系の主点間の距離
(d)左右の結像光学系それぞれの画像上での光軸位置座標
である。
The specific optical data mentioned above is
(A1) Geometric distortion correction table of two objective optical systems (a2) Geometric distortion correction table of image transmission optical system (b) Focal length of left and right imaging optical systems (c) Left and right imaging optical systems (D) is the optical axis position coordinates on the images of the left and right imaging optical systems.
上記特有の光学データの収集を行った後の内視鏡装置1にパソコン31を接続して、次に示す(1)〜(5)の処理を行って各種寸法計測を行うことができる。すなわち、
(1)上記メモリカードから上記(a1)〜(d)の光学データを読み込む。
(2)本内視鏡2にて被写体である被計測物を撮像し、画像を取り込む。
(3)上記の取り込んだ画像を、上記(a1)〜(d)の光学データをもとに座標変換する。(歪み補正)
(4)座標変換された画像を基に、撮像データのマッチングにより任意の点の三次元座標を求める。
(5)上記三次元座標を基に各種三次元計測を行う。
The
(1) Read the optical data (a1) to (d) from the memory card.
(2) The to-be-measured object which is a subject is imaged by the
(3) The coordinates of the captured image are transformed based on the optical data (a1) to (d). (Distortion correction)
(4) Based on the coordinate-converted image, the three-dimensional coordinates of an arbitrary point are obtained by matching the imaging data.
(5) Various three-dimensional measurements are performed based on the three-dimensional coordinates.
また、本実施形態の内視鏡装置1では、被写体との距離をリアルタイムでライブ画面上に表示させることができる。このため、操作者は、カメラと被写体の位置関係が容易に認識できない場合でも、現在画面上で観察できている被写体までの距離を操作者がライブ画像を見ながら知ることができる。
In the
図6は、本発明の第1の実施形態の測距表示画面を示すものである。図6に示すように、左画像65に照準71が示される。この照準71を測距点として、測距点までの距離がリアルタイムで計測される。この測距点までの距離は、画面64上に、距離表示キャラクタ72として表示される。
FIG. 6 shows a distance measurement display screen according to the first embodiment of the present invention. As shown in FIG. 6, the
また、画面64上には、測距点までの距離が距離表示バーグラフ73でグラフィカルに表示される。距離表示バーグラフ73は、図7に示すように、緑色のバーグラフ73g、黄色のバーグラフ73y、赤色バーグラフ73rの三色に分けて表示される。緑色のバーグラフ73gは、精度の高い三次元計測が可能な範囲を示している。黄色のバーグラフ73yは、精度はやや落ちるが、三次元計測が可能な範囲であることを示している。赤色のバーグラフ73rは、満足する三次元計測が不可能な範囲であることを示している。
On the
このように、本実施形態の内視鏡装置1では、ライブ画面と共に、被写体までの距離がリアルタイムで画面上に表示される。操作者は、この被写体までの距離を見ることで、精度の高い三次元画像を映すことができるかどうかを判断でき、精度の高い三次元画像を映せる位置まで十分近づいてから、三次元計測に切り換えることができる。
Thus, in the
次に、上述のように、被写体までの距離をライブ画面と共に、画面上に表示するための処理について説明する。前述の図12に示したように、点OR,OLを光学系の主点とし、距離fを焦点距離とし、点QR,QLを点Pの結像位置とし、距離Lを点OR−点OL間の距離とすると、直線QR−ORから次式が成立する。
x/xR={y−(L/2)}/{yR−(L/2)}=z/(−f)…(1)
また、直線QL−OLから次式が成立する。
x/xL={y+(L/2)}/{yL+(L/2)}=z/(−f)…(2)
この式をx、y、z について解けば、点Pの三次元座標が得られ、これにより、被写体までの距離が求まる。
Next, a process for displaying the distance to the subject on the screen together with the live screen as described above will be described. As shown in FIG. 12, the points OR and OL are the principal points of the optical system, the distance f is the focal length, the points QR and QL are the imaging positions of the point P, and the distance L is the point OR-point OL. If the distance is between, the following equation is established from the straight line QR-OR.
x / xR = {y− (L / 2)} / {yR− (L / 2)} = z / (− f) (1)
Further, the following equation is established from the straight line QL-OL.
x / xL = {y + (L / 2)} / {yL + (L / 2)} = z / (− f) (2)
If this equation is solved for x, y, and z, the three-dimensional coordinates of the point P are obtained, whereby the distance to the subject is obtained.
ここで、光学系の主点OR及び点OL間の距離、及び結像光学系の焦点距離は、光学データとして予め記録されている。点QLの座標は、座用は測距点とされた照準71の座標そのものである。点QRは、測距点に対応する点を右画像66の中から探索することで得ることができる。
Here, the distance between the principal point OR and the point OL of the optical system and the focal length of the imaging optical system are recorded in advance as optical data. The coordinates of the point QL are the coordinates of the aiming 71 that is used as a distance measuring point. The point QR can be obtained by searching the
このことから、例えば、左画像を基準とした場合には、左画像での測距点(QL)に対応する右画像の対応点(QR)をマッチング処理により探索し、右画像の対応点が探索されたら、上式により空間座標を計算することで、測距点までの距離を求めることができる。 From this, for example, when the left image is used as a reference, the corresponding point (QR) of the right image corresponding to the distance measuring point (QL) in the left image is searched by the matching process, and the corresponding point of the right image is found. Once searched, the distance to the distance measuring point can be obtained by calculating the spatial coordinates using the above formula.
なお、ここでは、左画像65を基準画像とし、左画像65に照準71を表示しているが、勿論、右画像66を基準画像としても良い。この場合には、照準71は右画像66側に表示される。
Here, the
左画像での測距点に対応する右画像をマッチング処理により探索する際に、右画像の全ての点においてマッチング演算を行うと、画像の取り込み時間がかかり、処理が膨大になる。 When searching for the right image corresponding to the distance measurement point in the left image by matching processing, if the matching calculation is performed at all points in the right image, it takes time to capture the image, and the processing becomes enormous.
そこで、本発明の実施形態では、測距に必要な画像部分だけを取り込み、測距に必要な部分の画像だけを歪補正し、それを用いてマッチング演算を行うことで、取り込み時間、歪補正時間やマッチング処理にかかる時間を短縮して、高速処理を可能としている。 Therefore, in the embodiment of the present invention, only the image portion necessary for distance measurement is captured, only the image of the portion necessary for distance measurement is corrected for distortion, and matching calculation is performed using the image to obtain the acquisition time and distortion correction. The processing time and time required for matching processing are shortened to enable high-speed processing.
具体的には、左画像については、測距点の近傍の画像のみを取り込み、右画像については、エピポーララインの周辺の画像のみを取り込みを行う。そして、エピポーララインの周辺の画像とのみマッチング演算を行うことで、マッチング演算の時間を大幅に削減している。 Specifically, for the left image, only the image near the distance measuring point is captured, and for the right image, only the image around the epipolar line is captured. The matching calculation time is significantly reduced by performing the matching calculation only with the peripheral image of the epipolar line.
つまり、エピポーラ拘束によれば、2つのカメラで3次元画像を撮影した場合、基準カメラに写ったある点は、もう一方の画像のエピポーラライン上に投影される。このことから、エピポーララインの近傍の画像だけを取り込み、エピポーララインの近傍の画像とだけマッチングを行えば良いことになる。このようにすれば、1画面すべての画像を取り込んでマッチングを行う場合に比べて、画像の取り込み処理にかかる時間や、マッチング処理にかかる時間が大幅に短縮される。 That is, according to the epipolar constraint, when a three-dimensional image is captured by two cameras, a certain point captured by the reference camera is projected onto the epipolar line of the other image. For this reason, it is only necessary to capture only the image near the epipolar line and perform matching only with the image near the epipolar line. In this way, the time required for the image capturing process and the time required for the matching process are significantly reduced as compared with the case where matching is performed by capturing all the images on one screen.
また、一般にレンズ系による画像には光学的な歪みがある。計測を行う場合にはこの歪みが大きな誤差原因となるため、幾何学的歪み補正テーブルにより、座標変換が行われる。そして、変換画面1ピクセルにつき、そのピクセルが撮像画面上の光学上の幾何学的歪み上対応する座標の4つのピクセルの輝度データにウエイトテーブルW1〜W4の比率を乗じ、変換画面ピクセルの画素の輝度データを求めている。このような画像の歪み補正処理では、その処理量は膨大であり、計算時間のかかる処理である。 In general, an image by a lens system has optical distortion. When measurement is performed, this distortion causes a large error. Therefore, coordinate conversion is performed using a geometric distortion correction table. Then, for each pixel of the conversion screen, the luminance data of the four pixels at the coordinates corresponding to the optical geometric distortion on the imaging screen is multiplied by the ratio of the weight tables W1 to W4 to obtain the pixel of the conversion screen pixel. We are looking for luminance data. In such image distortion correction processing, the amount of processing is enormous, and this processing takes time.
そこで、本発明の実施形態では、歪補正を取り込んだ画像に対してのみ行った上で、歪み補正処理に用いるウェイト係数を2の累乗倍して整数化している。これにより、ウェイト係数の乗算をビットシフトで行うことができ、歪み補正処理の時間が短縮される。 Therefore, in the embodiment of the present invention, the weight coefficient used for the distortion correction processing is converted into an integer by multiplying it by a power of 2 after performing only the distortion correction image. Thereby, multiplication of the weight coefficient can be performed by bit shift, and the time for the distortion correction processing is shortened.
図8は、本発明の第1の実施形態における測距表示処理を示すフローチャートである。この例では、上述のように、測距に必要な画像部分だけを取り込み、測距に必要な部分の画像だけを歪補正し、それを用いてマッチング演算を行うことで、取り込み時間、歪補正時間やマッチング処理にかかる時間を短縮している。また、歪み補正処理に用いるウェイト係数を2の累乗倍して整数として、ウェイト係数の乗算を整数演算としてビットシフトにより輝度を求める除算を行って、歪み補正処理にかかる時間を短縮している。 FIG. 8 is a flowchart showing distance measurement display processing according to the first embodiment of the present invention. In this example, as described above, only the image portion necessary for distance measurement is captured, only the image of the portion necessary for distance measurement is corrected for distortion, and matching calculation is performed using the image to obtain the acquisition time and distortion correction. Time and matching processing are shortened. Further, the time required for the distortion correction process is shortened by performing division for obtaining the luminance by bit shift using the weight coefficient used for the distortion correction process as an integer by multiplying by 2 and using the multiplication of the weight coefficient as an integer operation.
図8において、測距機能が起動されたら、ステップS1で、初期化処理を行う。測距機能は、以下の起動条件で、ズームレバー47をワイド端側に設定することで起動される。
(1)光学アダプタの設定がステレオ光学アダプタになっている。
(2)ライブ画像表示、あるいは、フリーズ画像表示中である。
(3)電子ズームがワイド端(電子ズームが1倍)である。
In FIG. 8, when the distance measuring function is activated, an initialization process is performed in step S1. The ranging function is activated by setting the
(1) The optical adapter is set to a stereo optical adapter.
(2) Live image display or freeze image display is in progress.
(3) The electronic zoom is at the wide end (the electronic zoom is 1 time).
そして、ステップS2で、左画像及び右画像の取り込み範囲の計算を行う。左画像の取り込み範囲としては、図9に示すように、測距点の近傍の画像である。図9において、測距点Pの座標を(lx,ly)とし、左取得幅をL_WIDTH、左取得高さをL_HEIGHTとしたとき、左画像取得範囲LAREAの基点SPLの座標は、
(lx−L_WIDTH/2,ly−L_HEIGHT/2)
となる。
Then, in step S2, the capture range of the left image and the right image is calculated. As shown in FIG. 9, the left image capturing range is an image in the vicinity of a distance measuring point. In FIG. 9, when the coordinates of the ranging point P are (lx, ly), the left acquisition width is L_WIDTH, and the left acquisition height is L_HEIGHT, the coordinates of the base point SPL of the left image acquisition range LAREA are as follows:
(Lx-L_WIDTH / 2, ly-L_HEIGHT / 2)
It becomes.
また、右画像の取得範囲RAREAは、図9に示すように、エピポーラライン77の近傍の画像である。エピポーラライン77の具体的な求め方は、以下の通りである。
Further, the acquisition range RAREA of the right image is an image in the vicinity of the
光学データから、左基準点OLの座標と、右基準点ORの座標を読み込む。左基準点OL及び右基準点ORは、光学中心付近の同一観察対象の座標であり、光学データ生産時に設定される。この左基準点OLの座標を(olx,oly)とし、右基準点ORの座標を(orx,ory)とする。 From the optical data, the coordinates of the left reference point OL and the coordinates of the right reference point OR are read. The left reference point OL and the right reference point OR are the coordinates of the same observation target near the optical center, and are set when optical data is produced. The coordinates of the left reference point OL are (olx, ly), and the coordinates of the right reference point OR are (orx, ory).
右画像の左端のX座標をrsxとすると、エピポーラライン77の始点ESの座標(esx,esy)は、
(esx,esy)=(rsx,ly−oly+ory)
となる。また、エピポーララインの終点EEの座標(eex,eey)は、取得幅をR_WIDTHとすると、
(eex,eey)=(rsx+R_WIDTH,ly−oly+ory)
となる。
If the X coordinate of the left end of the right image is rsx, the coordinates (esx, esy) of the start point ES of the
(Esx, esy) = (rsx, ly-oliy + ory)
It becomes. In addition, the coordinates (eex, ey) of the end point EE of the epipolar line are as follows:
(Eex, eyy) = (rsx + R_WIDTH, ly-oliy + ory)
It becomes.
よって、取得高さをR_HEIGHTとすると、右画像の取得範囲RAREAの基点SPRの座標は、
(esx,esy−R_HEIGHT/2)
となる。
Therefore, if the acquisition height is R_HEIGHT, the coordinates of the base point SPR of the acquisition range RAREA of the right image are
(Esx, esy-R_HEIGHT / 2)
It becomes.
なお、エピポーララインの求め方は、上記に限られるものではなく、一般的なステレオビジョンの分野で公知である他の求め方によっても良い。 Note that the method of obtaining the epipolar line is not limited to the above, but may be another method known in the field of general stereo vision.
図8において、ステップS2で、画像の取得範囲が計算されたら、求められた取得範囲に基づいて、ステップS3で右画像を取得し、ステップS4で左画像を取得する。そして、ステップS5で右画像の部分の画像歪み補正を行い、ステップS6で左画像の部分の画像歪み補正を行う。なお、画像歪み補正におけるウエイトテーブルW1〜W4としては、ウェイト値を2の累乗倍した整数が用いられ、輝度を求める除算はビットシフトで行われる。 In FIG. 8, when the image acquisition range is calculated in step S2, the right image is acquired in step S3 based on the obtained acquisition range, and the left image is acquired in step S4. In step S5, the image distortion correction of the right image portion is performed, and in step S6, the image distortion correction of the left image portion is performed. As the weight tables W1 to W4 in the image distortion correction, an integer obtained by multiplying the weight value by a power of 2 is used, and the division for obtaining the luminance is performed by bit shift.
ステップS5、S6で、画像の歪み補正が行われたら、ステップS7で、測距点に対応する点の探索処理を行う。つまり、左画像65には、図6に示したように、照準71が表示される。この照準71の中心位置を測距点とし、テンプレートを作成し、このテンプレートを使って、パターンマッチングにより相関を求め、右画像66中から、測距点に対応する点を探索する。
When image distortion correction is performed in steps S5 and S6, a point search process corresponding to the distance measuring point is performed in step S7. That is, the
ステップS8で、三角測量の原理から、(1)式、(2)式に基づいて、空間座標を計算し、測距点の距離を求める。ここで、光学系の主点OR及び点OL間の距離、及び結像光学系の焦点距離は、光学データとしてメモリカードに記録されている。点QLの座標は、座用は測距点とされた照準71の座標そのものであり、点QRは、ステップS7で、測距点に対応する点を右画像66の中から探索することで得ることができる。
In step S8, based on the principle of triangulation, spatial coordinates are calculated based on the equations (1) and (2), and the distance of the distance measuring point is obtained. Here, the distance between the principal point OR and the point OL of the optical system and the focal length of the imaging optical system are recorded in the memory card as optical data. The coordinates of the point QL are the coordinates of the aiming
ステップS9で、上述のようにして求められた測距点までの物体距離を画面上に表示する。つまり、図6に示したように、被写体までの距離を、画面64上で距離表示キャラクタ72として表示する。また、被写体までの距離を、距離表示バーグラフ73で表示する。
In step S9, the object distance to the distance measuring point obtained as described above is displayed on the screen. That is, as shown in FIG. 6, the distance to the subject is displayed as a
図8において、ステップS10で、測距表示処理を終了するかどうかを判断し、終了しなければ、ステップS2にリターンする。ステップS2〜S10の処理を、測距点の距離表示を終了するまで繰り返し行う。これにより、ライブ画像表示(あるいはフリーズ画面の表示)と並行して、リアルタイムで被写体の距離表示を行うことができる。ステップS10で、測距表示処理を終了すると判断すると、処理は終了となる。 In FIG. 8, it is determined in step S10 whether or not the distance measurement display process is to be ended. If not, the process returns to step S2. The processes in steps S2 to S10 are repeated until the distance display of the distance measuring points is completed. Thus, the distance of the subject can be displayed in real time in parallel with the live image display (or the freeze screen display). If it is determined in step S10 that the distance measurement display process is to be terminated, the process is terminated.
(第2の実施形態)
図10は、本発明の第2の実施形態の測距表示処理を示すものである。前述の第1の実施形態では、照準71を画面上に固定している。これに対して、この実施形態では、照準71を操作者が自在に移動させることができるようにしている。操作者は、リモートコントローラ4のレバースイッチ42を操作することで、照準71を画面上で上下左右に移動させることができる。画面上には、計測可能範囲75が表示される。照準71で示される測距点がこの計測可能範囲75内にあれば、測距が可能である。なお、光学アダプタによって左画像の位置は異なるので、計測可能範囲75の座標は、メモリカードの光学データとして保持される。
(Second Embodiment)
FIG. 10 shows a distance measurement display process according to the second embodiment of the present invention. In the first embodiment described above, the aiming 71 is fixed on the screen. On the other hand, in this embodiment, the operator can freely move the aiming 71. The operator can move the aiming 71 up, down, left and right on the screen by operating the
図11は、本発明の第2の実施形態の測距表示処理の動作を示すフローチャートである。図11において、ステップS101で初期化処理を行い、ステップS102で、測距点の座標が計測可能範囲かどうかを判断し、計測可能範囲内に入るまで、測距処理の実行を中止し、計測可能範囲内になったら、ステップS103で観察画像の取得処理を行い、画像をメモリ上に展開する。 FIG. 11 is a flowchart showing the operation of the distance measurement display process according to the second embodiment of the present invention. In FIG. 11, initialization processing is performed in step S101. In step S102, it is determined whether or not the coordinates of the distance measuring point are within the measurable range. If it is within the possible range, an observation image acquisition process is performed in step S103, and the image is developed on the memory.
ステップS104で、照準71の座標が変化したかどうかを判断し、照準71の座標が変化したら、ステップS102に戻り、座標の範囲確認から実行し直す。 In step S104, it is determined whether or not the coordinates of the aiming 71 have changed. If the coordinates of the aiming 71 have changed, the process returns to step S102, and the process starts again from the coordinate range confirmation.
ステップS104で照準71の座標が変化していなければ、ステップS105で、右画像及び左画像の取得範囲を計算する。具体的には、左画像については、測距点の近傍の画像を取得範囲とし、右画像については、エピポーララインの周辺の画像を取得範囲とする。そして、設定された取得範囲に基づいて、ステップS106で右画像66の画像の切り出し処理を行い、ステップS107で左画像65の画像の切り出し処理を行う。
If the coordinates of the
ステップS108で、右画像66の画像の歪み補正処理を行い、ステップS109で左画像65の画像の歪み補正処理を行う。歪みの補正は、前述のメモリカードに記録されている光学的データを用いて行われる。
In step S108, distortion correction processing of the image of the
ステップS110で、測距点に対応する点の探索処理を行う。ステップS111で、メモリカードから読み出された光学系の主点OR及び点OL間の距離、及び結像光学系の焦点距離と、測距点に対応する点の探索処理で求められた点QR及びQLの座標から、三角測量の原理から、空間座標を計算し、測距点の距離を求める。 In step S110, a point search process corresponding to the distance measuring point is performed. In step S111, the distance between the principal point OR and the point OL of the optical system read from the memory card, the focal length of the imaging optical system, and the point QR obtained by the search processing for the point corresponding to the distance measuring point. From the coordinates of QL and QL, the spatial coordinates are calculated from the principle of triangulation, and the distance of the distance measuring point is obtained.
ステップS112で、照準71の座標が変化したかどうかを判断し、照準71の座標が変化したら、ステップS102に戻り、座標の範囲確認から実行し直す。 In step S112, it is determined whether or not the coordinates of the aiming 71 have changed. If the coordinates of the aiming 71 have changed, the process returns to step S102, and the process starts again from the coordinate range confirmation.
ステップS112で照準71の座標が変化していなければ、ステップS113で、上述のようにして求められた測距点までの物体距離を画面上に表示する。
If the coordinate of the
ステップS114で、測距表示処理を終了するかどうかを判断し、終了しなければ、ステップS13にリターンする。これにより、ライブ画像表示(あるいはフリーズ画面の表示)と並行して、リアルタイムで被写体の距離表示を行うことができる。ステップS23で、測距表示処理を終了すると判断すると、処理は終了となる。 In step S114, it is determined whether or not the distance measurement display process is to be ended. If not, the process returns to step S13. Thus, the distance of the subject can be displayed in real time in parallel with the live image display (or the freeze screen display). If it is determined in step S23 that the distance measurement display process is to be terminated, the process is terminated.
このように、この実施形態では、計測しようとする被写体が画面の端にあるような場合、レバースイッチ42を操作して照準71を移動させ、計測しようとする被写体に照準を合わせることができる。
As described above, in this embodiment, when the subject to be measured is at the end of the screen, the
なお、本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 Note that the present invention is not limited to the above-described embodiments, and various modifications and applications are possible without departing from the spirit of the present invention.
本発明は、三次元計測が行えるようにした計測用内視鏡に用いて好適である。
The present invention is suitable for use in endoscopes for measurement was allow three-dimensional measurement.
1 内視鏡装置
2 内視鏡
3 コントロールユニット
4 リモートコントローラ
5 液晶モニタ(LCD)
65 左画面
66 右画面
71 照準
72 距離表示キャラクタ
73 距離表示バーグラフ
DESCRIPTION OF
65
Claims (5)
前記制御装置は、
前記出力画像上の所定の座標に測距点を表す照準を表示する照準表示処理部と、
前記測距点の座標を元に、前記ステレオ画像の一方における前記測距点近傍の範囲と、前記ステレオ画像の他方における前記測距点に対応するエピポーラライン近傍の範囲とを、前記ステレオ画像の取り込み範囲とする画像取得領域情報を求める画像取得領域計算処理部と、
前記画像取得領域情報を元に、前記ステレオ画像の前記測距点近傍の範囲及びエピポーラライン近傍の範囲のそれぞれの部分画像を取得する部分画像取得処理部と、
前記部分画像取得処理部で得たそれぞれの前記部分画像の歪補正処理を行う部分歪補正処理部と、
前記部分歪補正処理部によって歪補正処理が行われた、前記部分画像取得処理部によって取得されたそれぞれの前記部分画像を用いて、前記測距点での被写体の物体距離を三角測量の原理で計算する測距処理部と
を具えたことを特徴とする計測用内視鏡装置。 An electronic endoscope having an imaging unit for imaging a subject image by a stereo optical system, and an image processing unit connected to the electronic endoscope and receiving an imaging signal from the imaging unit and generating a video signal; And a control device including a control unit having a measurement processing unit that performs a measurement process using a stereo image based on the video signal generated by the image processing unit as an input image, and an output based on an instruction of the control unit of the control device In an endoscope apparatus for measurement comprising a display device that receives an output image to be displayed and displays the image,
The controller is
An aim display processing unit for displaying an aim representing a distance measuring point at predetermined coordinates on the output image;
Based on the coordinates of the ranging point, a range near the ranging point in one of the stereo images and a range near the epipolar line corresponding to the ranging point in the other stereo image are An image acquisition area calculation processing unit for obtaining image acquisition area information as a capture range;
Based on the image acquisition area information, a partial image acquisition processing unit for acquiring a partial image of the range near the distance measurement point and a range near the epipolar line of the stereo image;
A partial distortion correction processing unit that performs distortion correction processing of each of the partial images obtained by the partial image acquisition processing unit;
Using the partial images acquired by the partial image acquisition processing unit that has been subjected to the distortion correction processing by the partial distortion correction processing unit, the object distance of the subject at the distance measuring point is calculated based on the principle of triangulation. An endoscope apparatus for measurement, comprising: a distance measurement processing unit for calculating.
前記照準の位置を変更する照準位置操作手段と、前記照準の座標を得る照準座標取得処理部とを具えたことを特徴とする請求項1に記載の計測用内視鏡装置。 The control device further includes:
The measuring endoscope apparatus according to claim 1, further comprising an aiming position operating unit that changes the aiming position and an aiming coordinate acquisition processing unit that obtains the aiming coordinates.
前記測距点の画面座標が所定の計測可能領域外である場合に前記測距処理を中止する範囲外測距中止手段と、前記計測可能領域の境界を前記出力画像に表示する計測可能領域境界表示手段とを具えたことを特徴とする請求項2に記載の計測用内視鏡装置。 The control device further includes:
Out-of-range distance measurement stop means for stopping the distance measurement processing when the screen coordinates of the distance measurement points are outside a predetermined measurable area, and a measurable area boundary for displaying the boundary of the measurable area in the output image The measuring endoscope apparatus according to claim 2, further comprising display means.
前記測距処理部によって計算された前記物体距離の情報を前記出力画像に表示する物体距離表示処理部を具えたことを特徴とする請求項1、2、又は3に記載の計測用内視鏡装置。 The control device further includes:
4. The measurement endoscope according to claim 1, further comprising an object distance display processing unit that displays information on the object distance calculated by the distance measurement processing unit on the output image. apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005151198A JP5113990B2 (en) | 2005-05-24 | 2005-05-24 | Endoscope device for measurement |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005151198A JP5113990B2 (en) | 2005-05-24 | 2005-05-24 | Endoscope device for measurement |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006325741A JP2006325741A (en) | 2006-12-07 |
JP5113990B2 true JP5113990B2 (en) | 2013-01-09 |
Family
ID=37548087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005151198A Active JP5113990B2 (en) | 2005-05-24 | 2005-05-24 | Endoscope device for measurement |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5113990B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8248465B2 (en) | 2007-12-27 | 2012-08-21 | Olympus Corporation | Measuring endoscope apparatus and program |
JP5570769B2 (en) | 2009-07-23 | 2014-08-13 | オリンパス株式会社 | Endoscope apparatus, measurement method, and program |
JP5361592B2 (en) | 2009-07-24 | 2013-12-04 | オリンパス株式会社 | Endoscope apparatus, measurement method, and program |
JP5437087B2 (en) | 2010-01-15 | 2014-03-12 | オリンパス株式会社 | Endoscope apparatus and program |
JP2011170276A (en) * | 2010-02-22 | 2011-09-01 | Olympus Corp | Endoscope device and program |
JP5530225B2 (en) | 2010-03-09 | 2014-06-25 | オリンパス株式会社 | Endoscope apparatus and program |
JPWO2017033728A1 (en) * | 2015-08-26 | 2018-06-14 | オリンパス株式会社 | Endoscope device |
JP6839089B2 (en) | 2015-10-16 | 2021-03-03 | オリンパス株式会社 | Endoscope device, how to operate the endoscope device, and recording medium |
JP6800871B2 (en) | 2015-10-16 | 2020-12-16 | オリンパス株式会社 | Endoscope device, how to operate the endoscope device, and recording medium |
JP6912313B2 (en) * | 2017-07-31 | 2021-08-04 | パナソニックi−PROセンシングソリューションズ株式会社 | Image processing device, camera device and image processing method |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0646977B2 (en) * | 1984-06-09 | 1994-06-22 | オリンパス光学工業株式会社 | Measuring endoscope |
JPH03231622A (en) * | 1990-02-06 | 1991-10-15 | Olympus Optical Co Ltd | Endoscope apparatus |
JPH06339454A (en) * | 1993-06-01 | 1994-12-13 | Olympus Optical Co Ltd | Measuring endoscope device |
JPH08116490A (en) * | 1994-10-14 | 1996-05-07 | Olympus Optical Co Ltd | Image processing unit |
JP3771988B2 (en) * | 1997-03-12 | 2006-05-10 | オリンパス株式会社 | Measuring endoscope device |
JP3850541B2 (en) * | 1998-02-18 | 2006-11-29 | 富士重工業株式会社 | Advanced measuring device |
JP4873794B2 (en) * | 2001-05-30 | 2012-02-08 | オリンパス株式会社 | Image processing measuring apparatus and measuring endoscope apparatus |
JP4373037B2 (en) * | 2001-08-31 | 2009-11-25 | オリンパス株式会社 | Measuring endoscope device |
JP4759184B2 (en) * | 2001-08-31 | 2011-08-31 | オリンパス株式会社 | Measuring endoscope device |
JP4358494B2 (en) * | 2002-10-02 | 2009-11-04 | オリンパス株式会社 | Endoscope system |
-
2005
- 2005-05-24 JP JP2005151198A patent/JP5113990B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2006325741A (en) | 2006-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5113990B2 (en) | Endoscope device for measurement | |
US7443488B2 (en) | Endoscope apparatus, method of operating the endoscope apparatus, and program to be executed to implement the method | |
JP4885479B2 (en) | Endoscope device for measurement and program for endoscope | |
US8496575B2 (en) | Measuring endoscope apparatus, program and recording medium | |
JP4873794B2 (en) | Image processing measuring apparatus and measuring endoscope apparatus | |
JP5137033B2 (en) | Surgery support information display device, surgery support information display method, and surgery support information display program | |
JP2011182977A (en) | Endoscope apparatus and program | |
JP2004049638A (en) | Endoscope apparatus | |
WO2017006708A1 (en) | Medical device, medical image generating method, and medical image generating program | |
WO2017221507A1 (en) | Endoscope system | |
JP5186286B2 (en) | Endoscope device for measurement and program | |
JP5026769B2 (en) | Endoscope device for measurement, program, and recording medium | |
JP2009175692A (en) | Measuring endoscope apparatus and program | |
JP4916114B2 (en) | Endoscope device | |
JP4759184B2 (en) | Measuring endoscope device | |
JP2011170276A (en) | Endoscope device and program | |
US8979743B2 (en) | Endoscope device and endoscopic image distortion correction method | |
CN110858397A (en) | Measuring device, method for operating measuring device, and storage medium | |
JP4975417B2 (en) | Endoscope apparatus and endoscope image distortion correction method | |
JP4011888B2 (en) | Measuring endoscope device | |
JP6400767B2 (en) | Measuring endoscope device | |
JP2007319620A (en) | Measuring adaptor for endoscope and endoscope system for measurement | |
JP4418162B2 (en) | Measuring endoscope device | |
WO2017199657A1 (en) | Endoscope device, measurement method, and program | |
JP5042550B2 (en) | Endoscope device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110513 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20110516 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120807 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20120903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120925 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121015 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151019 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5113990 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151019 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |