JP2005204724A - Endoscope apparatus for measurement - Google Patents

Endoscope apparatus for measurement Download PDF

Info

Publication number
JP2005204724A
JP2005204724A JP2004011797A JP2004011797A JP2005204724A JP 2005204724 A JP2005204724 A JP 2005204724A JP 2004011797 A JP2004011797 A JP 2004011797A JP 2004011797 A JP2004011797 A JP 2004011797A JP 2005204724 A JP2005204724 A JP 2005204724A
Authority
JP
Japan
Prior art keywords
measurement
point
virtual
curve
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004011797A
Other languages
Japanese (ja)
Other versions
JP4790223B2 (en
JP2005204724A5 (en
Inventor
Kiyotomi Ogawa
清富 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004011797A priority Critical patent/JP4790223B2/en
Publication of JP2005204724A publication Critical patent/JP2005204724A/en
Publication of JP2005204724A5 publication Critical patent/JP2005204724A5/ja
Application granted granted Critical
Publication of JP4790223B2 publication Critical patent/JP4790223B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an endoscope for a measurement, which improves the measuring accuracy to a defect amount of a blade of a curve edge by approximating a lost edge by a curve and finding a distance between a virtual point on a virtual curve and a specified measurement point. <P>SOLUTION: The endoscope for the measurement is provided with an electronic endoscope with an image pickup means; a control device having an image processing means generating an image signal based on an image pickup signal, and a measurement processing means inputting the image signal and performing the measurement of an object to be measured; and a display device displaying an output image. The measurement processing means is provided with a means of specifying a part of an outline of the measurement object as a reference edge, a means of specifying a point on the object to be measured as a measurement point, a means of approximating the reference edge as a virtual curve complemented with a parametric curve, and a defect width computing means finding the distance between the virtual point as a specific point on the virtual curve and the measurement point. This constitution can improve the measuring accuracy to the defect amount of the blade of the curve edge. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、機器内の計測対象物を撮像した画像に基づいて、特に欠け部の深さを計測する計測用内視鏡装置に関する。   The present invention relates to a measurement endoscope apparatus that measures the depth of a chipped portion, in particular, based on an image obtained by imaging a measurement object in a device.

主に航空機に使われるガスタービンでは、異物等の侵入により、タービンブレードあるいはコンプレッサブレードのエッジに欠けが生じることがある。このブレードの欠けの深さの寸法はブレードの交換を判断する条件のひとつであり、その検査は極めて重要なものである。   In a gas turbine mainly used in an aircraft, the edge of a turbine blade or a compressor blade may be chipped due to entry of foreign matter or the like. The dimension of the depth of the chip of the blade is one of the conditions for judging the replacement of the blade, and the inspection is extremely important.

こうした状況に対して、従来の計測用内視鏡においては、タービンブレードあるいはコンプレッサブレードのエッジの欠けの深さの計測に、直線と点との距離を求める計測方法が用いられており(例えば、特許文献1参照。)、こうした方法によって、エッジを直線で近似し、失われたエッジ上のから欠けの深さまでの距離を計測していた。
特開平10−248806号公報
In such a situation, in a conventional measuring endoscope, a measurement method for obtaining a distance between a straight line and a point is used for measuring the depth of chipping of a turbine blade or a compressor blade (for example, According to such a method, the edge is approximated by a straight line, and the distance from the lost edge to the depth of the chip is measured.
Japanese Patent Laid-Open No. 10-248806

しかし、従来の方法は、あくまでも、エッジの欠けを直線で近似して失われたエッジから欠けの深さまでの距離を計測するものであるため、エッジが直線あるいは直線に近い場合には、ある程度の精度が期待できるが、近年増えつつある曲線エッジを持つブレードでは欠け量の計測誤差が大きくなるといった問題があった。   However, the conventional method only measures the distance from the lost edge to the depth of the chip by approximating the chip of the edge with a straight line, so if the edge is close to a straight line or a straight line, Although accuracy can be expected, there has been a problem that a measurement error of a chip amount becomes large in a blade having a curved edge which has been increasing in recent years.

そこで、本発明は、上述の問題点に鑑みてなされたものであり、失われたエッジを曲線で近似し、仮想的な曲線上の仮想点と指定した計測点との距離を求めることにより、曲線エッジのブレードの欠け量に対する計測精度を向上させる計測用内視鏡を提供することを目的とする。   Accordingly, the present invention has been made in view of the above-described problems, and approximates a lost edge with a curve, and obtains a distance between a virtual point on a virtual curve and a designated measurement point, An object of the present invention is to provide a measurement endoscope that improves the measurement accuracy with respect to the amount of chipped blades at curved edges.

本発明は、上述の課題を解決するために、以下の手段を提案している。
請求項1に係る発明は、計測対象物を撮像する撮像手段を備えた電子内視鏡と、該電子内視鏡に接続され、前記撮像手段からの撮像信号に基づいて映像信号を生成する画像処理手段と、該画像処理手段で生成された映像信号を入力し、前記計測対象物の計測処理を行う計測処理手段とを備えた制御装置と、該制御装置の指示に基づいて出力される出力画像を表示する表示装置とを有し、前記計測処理手段が計測対象物の輪郭線の一部を基準エッジとして指定する基準エッジ指定手段と、前記計測対象物上のある点を計測点として指定する計測点指定手段と、前記基準エッジをパラメトリック曲線で補間した仮想曲線として近似するエッジ近似手段と、該仮想曲線上の特定の点である仮想点と、前記計測点との距離を求める欠損幅演算手段とを有することを特徴とする計測用内視鏡装置を提案している。
The present invention proposes the following means in order to solve the above-described problems.
According to a first aspect of the present invention, there is provided an electronic endoscope provided with an imaging unit that images a measurement object, and an image that is connected to the electronic endoscope and generates a video signal based on an imaging signal from the imaging unit. A control device comprising a processing means and a measurement processing means for inputting the video signal generated by the image processing means and measuring the measurement object, and an output output based on an instruction from the control device A display device for displaying an image, wherein the measurement processing means designates a part of the outline of the measurement object as a reference edge, and designates a certain point on the measurement object as a measurement point Measurement point designating means, edge approximating means for approximating the reference edge as a virtual curve interpolated with a parametric curve, a virtual point that is a specific point on the virtual curve, and a missing width for obtaining a distance between the measurement points With computing means Proposes endoscope apparatus for measurement, characterized by.

この発明によれば、基準エッジ指定手段の作動により、計測対象物の輪郭線の一部を基準エッジとして指定され、計測点指定手段の作動により、計測対象物上のある点が計測点として指定される。そして、エッジ近似手段の作動により、指定された基準エッジをパラメトリック曲線で補間した仮想曲線として近似し、欠損幅演算手段の作動により、近似された仮想曲線上の特定の点である仮想点と、計測点との距離が求められる。   According to the present invention, a part of the contour line of the measurement object is designated as the reference edge by the operation of the reference edge designating means, and a certain point on the measurement object is designated as the measurement point by the operation of the measurement point designating means. Is done. Then, the operation of the edge approximation means approximates the designated reference edge as a virtual curve interpolated with a parametric curve, and the operation of the missing width calculation means causes a virtual point that is a specific point on the approximated virtual curve; The distance to the measurement point is determined.

請求項2に係る発明は、請求項1に記載された計測用内視鏡装置について、前記基準エッジ指定手段が、3点以上の点列を基準点列として指定することにより前記基準エッジを指定することを特徴とする計測用内視鏡装置を提案している。
請求項3に係る発明は、請求項1または請求項2に記載された計測用内視鏡装置について、前記エッジ近似手段における仮想曲線の形状を適宜、変更する仮想曲線形状変更手段を有することを特徴とする計測用内視鏡装置を提案している。
The invention according to claim 2 is directed to the endoscope apparatus for measurement according to claim 1, wherein the reference edge designating unit designates the reference edge by designating a sequence of three or more points as a reference point sequence. An endoscope apparatus for measurement that is characterized by the above is proposed.
The invention according to claim 3 further includes virtual curve shape changing means for appropriately changing the shape of the virtual curve in the edge approximating means in the measurement endoscope apparatus according to claim 1 or claim 2. A characteristic measuring endoscope device is proposed.

請求項4に係る発明は、請求項1から請求項3のいずれかに記載された計測用内視鏡装置について、空間座標を画像座標に変換する射影処理手段を有し、前記表示手段が、前記仮想曲線を該射影処理手段において処理した射影仮想曲線と、前記撮像手段において撮像された前記計測対象物の画像とを重畳表示することを特徴とする計測用内視鏡装置を提案している。   The invention according to claim 4 has a projection processing means for converting spatial coordinates into image coordinates for the measuring endoscope apparatus according to any one of claims 1 to 3, wherein the display means includes: Proposed is a measuring endoscope apparatus characterized by superimposing and displaying a projected virtual curve obtained by processing the virtual curve by the projection processing means and an image of the measurement object imaged by the imaging means. .

請求項5に係る発明は、請求項1から請求項3のいずれかに記載された計測用内視鏡装置について、前記表示手段が前記仮想点と前記撮像手段において撮像された前記計測対象物の画像とを前記射影処理手段で求めた前記仮想点の画像座標に基づいて重畳表示することを特徴とする計測用内視鏡装置を提案している。   According to a fifth aspect of the present invention, in the measurement endoscope apparatus according to any one of the first to third aspects, the display means includes the virtual point and the measurement object captured by the imaging means. An endoscope apparatus for measurement has been proposed in which an image is superimposed and displayed based on the image coordinates of the virtual point obtained by the projection processing means.

請求項6に係る発明は、請求項1から請求項3のいずれかに記載された計測用内視鏡装置について、前記仮想点が前記仮想曲線上で前記計測点との距離が最小になる点であることを特徴とする計測用内視鏡装置を提案している。   The invention according to claim 6 is the measurement endoscope apparatus according to any one of claims 1 to 3, wherein the virtual point has a minimum distance from the measurement point on the virtual curve. A measuring endoscope apparatus characterized by the above is proposed.

請求項7に係る発明は、請求項1から請求項3のいずれかに記載された計測用内視鏡装置について、前記エッジ近似手段が、前記基準点列の点数をひとつ増やしたときに、該加えられた点の座標と前記仮想曲線から前記仮想曲線の形状を修正することを特徴とする計測用内視鏡装置を提案している。   The invention according to claim 7 is the measurement endoscope apparatus according to any one of claims 1 to 3, wherein the edge approximation means increases the number of points of the reference point sequence by one. An endoscope apparatus for measurement is proposed in which the shape of the virtual curve is corrected from the coordinates of the added point and the virtual curve.

請求項8に係る発明は、請求項1から請求項3のいずれかに記載された計測用内視鏡装置について、前記パラメトリック曲線を選択するためのパラメトリック曲線選択手段を有することを特徴とする計測用内視鏡装置を提案している。
この発明によれば、パラメトリック曲線選択手段の作動により、エッジ形状に最適なパラメトリック曲線を自由に選択することができる。
The invention according to claim 8 is the measurement endoscope apparatus according to any one of claims 1 to 3, further comprising parametric curve selection means for selecting the parametric curve. An endoscopic device is proposed.
According to this invention, the parametric curve optimum for the edge shape can be freely selected by the operation of the parametric curve selection means.

請求項9に係る発明は、請求項1に記載された計測用内視鏡装置について、前記計測対象物のエッジを抽出するエッジ抽出手段を有することを特徴とする計測用内視鏡装置を提案している。
この発明によれば、エッジ抽出手段の作動により、例えば、自動的にエッジを正確に検出して、より簡便に欠け部の深さを計測することができる。
The invention according to claim 9 proposes an endoscope apparatus for measurement characterized by having an edge extraction means for extracting an edge of the measurement object with respect to the endoscope apparatus for measurement according to claim 1. doing.
According to the present invention, by operating the edge extraction means, for example, the edge can be automatically detected accurately, and the depth of the chipped portion can be measured more easily.

本発明によれば、失われたエッジを曲線で近似し、仮想的な曲線上の仮想点と指定した計測点との距離を求めることにより、曲線エッジのブレードの欠け量に対する計測精度を向上させることができるという効果がある。
また、エッジ部を撮像した画像と仮想曲線とを重畳して表示させながら、仮想曲線の形状を変更することができるため、計測精度を視覚による調整によって、向上させることができるという効果がある。
さらに、用いる仮想曲線を選択できる手段を備えたことから、計測対象のエッジの形状に対応した的確な仮想曲線を用いることができるという効果がある。
According to the present invention, the lost edge is approximated by a curve, and the distance between the virtual point on the virtual curve and the designated measurement point is obtained, thereby improving the measurement accuracy for the missing amount of the blade of the curve edge. There is an effect that can be.
In addition, since the shape of the virtual curve can be changed while displaying the image obtained by capturing the edge portion and the virtual curve superimposed, there is an effect that the measurement accuracy can be improved by visual adjustment.
Furthermore, since a means for selecting a virtual curve to be used is provided, there is an effect that an accurate virtual curve corresponding to the shape of the edge to be measured can be used.

以下、本発明の実施例に係る計測用内視鏡装置について、図1から図19を参照して詳細に説明する。   Hereinafter, an endoscope apparatus for measurement according to an embodiment of the present invention will be described in detail with reference to FIGS.

本発明の実施形態に係る計測用内視鏡装置は、図1に示すように、内視鏡2と、コントロールユニット3と、リモートコントローラ4と、液晶モニタ5と、フェイスマウントディスプレイ(FMD)6と、FMDアダプタ6aと、光学アダプタ7a、7b、7c、内視鏡ユニット8と、カメラコントロールユニット9と、制御ユニット10とから構成されている。   As shown in FIG. 1, an endoscope apparatus for measurement according to an embodiment of the present invention includes an endoscope 2, a control unit 3, a remote controller 4, a liquid crystal monitor 5, and a face mount display (FMD) 6. And an FMD adapter 6a, optical adapters 7a, 7b, 7c, an endoscope unit 8, a camera control unit 9, and a control unit 10.

内視鏡2は細長の挿入部20を備え、挿入部20は、先端側から順に硬質な先端部21、例えば、上下左右に湾曲可能な湾曲部22、柔軟性を有する可撓管部23を連設して構成され、先端部21には観察視野を2つ有するステレオ用の光学アダプタ7a、7bあるいは観察視野が1つの通常観察光学アダプタ7c等、各種光学アダプタが例えば螺合によって着脱自在な構成になっている。   The endoscope 2 includes an elongated insertion portion 20, and the insertion portion 20 includes a hard distal end portion 21, for example, a bending portion 22 that can be bent vertically and horizontally, and a flexible tube portion 23 having flexibility. Various optical adapters such as a stereo optical adapter 7a, 7b having two observation fields or a normal observation optical adapter 7c having one observation field can be attached to and detached from the distal end portion 21 by, for example, screwing. It is configured.

コントロールユニット3は、内部に、内視鏡ユニット8、画像処理手段であるカメラコントロールユニット(以下、CCUと記載する。)9及び制御装置である制御ユニット10が設けられており、挿入部20の基端部は内視鏡ユニット8に接続されている。   The control unit 3 includes an endoscope unit 8, a camera control unit (hereinafter referred to as CCU) 9 that is an image processing unit, and a control unit 10 that is a control device. The proximal end portion is connected to the endoscope unit 8.

内視鏡ユニット8は、観察時に必要な照明光を供給する光源装置と、挿入部20を構成する湾曲部22を湾曲させる湾曲装置とを備えている。
CCU9は、挿入部20の先端部21に内蔵されている固体撮像素子2aから出力された撮像信号を入力し、これを、例えば、NTSC信号等の映像信号に変換して制御ユニット10に供給する。
The endoscope unit 8 includes a light source device that supplies illumination light necessary for observation, and a bending device that bends the bending portion 22 that constitutes the insertion portion 20.
The CCU 9 inputs an imaging signal output from the solid-state imaging device 2 a built in the distal end portion 21 of the insertion unit 20, converts this into a video signal such as an NTSC signal, and supplies it to the control unit 10. .

制御ユニット10は、音声信号処理回路11と、映像信号処理回路12と、ROM13と、RAM14と、PCカードインターフェース(以下、PCカードI/Fと記載する。)15と、USBインターフェース(以下、USB I/Fと記載する。)16と、RS−232Cインターフェース(以下、RS−232C I/Fと記載する。)17等と、計測処理部18とから構成されている。   The control unit 10 includes an audio signal processing circuit 11, a video signal processing circuit 12, a ROM 13, a RAM 14, a PC card interface (hereinafter referred to as PC card I / F) 15, and a USB interface (hereinafter referred to as USB). 16, an RS-232C interface (hereinafter referred to as RS-232C I / F) 17, and the like, and a measurement processing unit 18.

音声信号処理回路11は、マイク34によって集音され、生成されたメモリカード等の記録媒体に記録された音声信号、メモリカード等の記録媒体を再生して得られる音声信号、あるいは計測処理部18によって生成された音声信号が供給される。
映像信号処理回路12は、CCU9から供給された内視鏡画像とグラフィックによる操作メニューとを合成した合成画像を表示するために、CCU9からの映像信号を計測処理部18の制御により生成する操作メニューに基づく表示信号とを合成する処理や、LCD5の画面上に表示するための所定の処理を施してLCD5に供給する。
The audio signal processing circuit 11 collects sound generated by the microphone 34 and is recorded on a generated recording medium such as a memory card, an audio signal obtained by reproducing the recording medium such as a memory card, or the measurement processing unit 18. The audio signal generated by is supplied.
The video signal processing circuit 12 is an operation menu for generating a video signal from the CCU 9 under the control of the measurement processing unit 18 in order to display a composite image obtained by synthesizing the endoscopic image supplied from the CCU 9 and a graphic operation menu. And a predetermined process for displaying on the screen of the LCD 5 is supplied to the LCD 5.

PCカードI/F15は、PCMCIAメモリカード32やコンパクトフラッシュ(登録商標)メモリカード33等の記録媒体であるメモリカードを自由に着脱できるようになっている。メモリカードを装着することにより、計測処理部18の制御によって、このメモリカードに記憶されている制御処理情報や画像情報等のデータを取り込み、あるいは制御処理情報や画像情報等のデータをメモリカードに記録することができる。   The PC card I / F 15 can freely attach and detach a memory card which is a recording medium such as the PCMCIA memory card 32 and the compact flash (registered trademark) memory card 33. By mounting the memory card, the control processing information 18 and the data such as the image information stored in the memory card are taken in or the control processing information and the data such as the data are stored in the memory card. Can be recorded.

USB I/F16は、コントロールユニット3とパーソナルコンピュータ31とを電気的に接続するためのインターフェースである。このUSB I/F16を介して、コントロールユニット3とパーソナルコンピュータ31とを電気的に接続することにより、パーソナルコンピュータ31側で内視鏡画像の表示の指示や計測時における画像処理等の各種の指示制御を行うことが可能となり、また、コントロールユニット3とパーソナルコンピュータ31との間での各種の処理情報やデータを入出力することができる。   The USB I / F 16 is an interface for electrically connecting the control unit 3 and the personal computer 31. By electrically connecting the control unit 3 and the personal computer 31 via the USB I / F 16, various instructions such as an instruction for displaying an endoscopic image on the personal computer 31 side and image processing during measurement are provided. Control can be performed, and various processing information and data can be input / output between the control unit 3 and the personal computer 31.

RS−232C I/F17は、CCU9、内視鏡ユニット8及びこれらの制御および動作指示を行うリモートコントローラ4と接続されており、リモートコントローラ4の操作によって、CCU9、内視鏡ユニット8の動作を制御するための通信を行う。   The RS-232C I / F 17 is connected to the CCU 9 and the endoscope unit 8 and the remote controller 4 that performs control and operation instructions thereof. The operation of the remote controller 4 controls the operation of the CCU 9 and the endoscope unit 8. Performs communication for control.

また、計測処理部18は、図2に示すように、基準エッジ指定部41と、計測点指定部42と、制御部43と、エッジ近似部44と、仮想曲線形状変更部45と、欠損幅演算部46と、パラメトリック曲線選択部47と、エッジ抽出部48と、射影処理部49とから構成されている。
基準エッジ指定部41は、液晶モニタ5あるいは、フェイスマウントディスプレイ6に表示された計測対象物の画像上に、リモートコントローラ4等を用いて、エッジ部に指示された3点以上の基準点を入力し、これらの基準点の空間座標を制御部43に出力する。
Further, as shown in FIG. 2, the measurement processing unit 18 includes a reference edge designating unit 41, a measurement point designating unit 42, a control unit 43, an edge approximating unit 44, a virtual curve shape changing unit 45, and a missing width. The calculation unit 46, a parametric curve selection unit 47, an edge extraction unit 48, and a projection processing unit 49 are configured.
The reference edge designating unit 41 inputs three or more reference points designated by the edge using the remote controller 4 or the like on the image of the measurement target displayed on the liquid crystal monitor 5 or the face mount display 6. Then, the spatial coordinates of these reference points are output to the control unit 43.

計測点指定部42は、液晶モニタ5あるいは、フェイスマウントディスプレイ6に表示された計測対象物の画像上に、リモートコントローラ4等を用いて、指示された計測点を入力し、この計測点の空間座標を制御部43に出力する。   The measurement point designating unit 42 inputs an instructed measurement point on the image of the measurement object displayed on the liquid crystal monitor 5 or the face mount display 6 using the remote controller 4 or the like, and the space of this measurement point. The coordinates are output to the control unit 43.

制御部43は、図示しない記憶部を有し、基準エッジ指定部41あるいは計測点指定部42から入力した基準点、計測点の画像座標を空間座標に変換して格納する。また、仮想曲線形状変更部45やパラメトリック曲線選択部47からの指示により、所望の仮想曲線をエッジ近似部44に出力し、仮想曲線の形状変更情報を入力する。さらに、欠損幅演算部46から演算結果を入力し、そうした情報や仮想曲線の形状等を映像信号処理回路12に出力する。   The control unit 43 includes a storage unit (not shown), and converts the image coordinates of the reference points and measurement points input from the reference edge designating unit 41 or the measurement point designating unit 42 into spatial coordinates and stores them. Further, in response to an instruction from the virtual curve shape changing unit 45 or the parametric curve selecting unit 47, a desired virtual curve is output to the edge approximating unit 44, and virtual curve shape change information is input. Further, the calculation result is input from the missing width calculation unit 46, and such information, the shape of the virtual curve, and the like are output to the video signal processing circuit 12.

エッジ近似部44は、基準エッジを選択された所望の仮想曲線により近似する。具体的には、制御部43から与えられるパラメータにより、所定の演算を行い、その結果を仮想曲線の係数として制御部43に出力する。   The edge approximation unit 44 approximates the reference edge with the selected desired virtual curve. Specifically, a predetermined calculation is performed according to a parameter given from the control unit 43, and the result is output to the control unit 43 as a coefficient of a virtual curve.

仮想曲線形状変更部45は、ユーザの選択に応じて、選択された仮想曲線形状の変更情報を制御部43に出力する。
欠損幅演算部46は、仮想曲線上で、定められた計測点の空間座標から計測点との距離が最小となる仮想点を求め、計測対象物の欠損幅を演算し、その結果を制御部43に出力する。
The virtual curve shape changing unit 45 outputs change information of the selected virtual curve shape to the control unit 43 according to the user's selection.
The missing width calculation unit 46 obtains a virtual point having a minimum distance from the measurement point on the virtual curve from the spatial coordinates of the determined measurement point, calculates the missing width of the measurement object, and outputs the result to the control unit Output to 43.

パラメトリック曲線選択部47は、ユーザの選択に応じて、選択されたパラメトリック曲線情報を制御部43に出力する。
射影処理部49は、基準点や計測点、仮想点および仮想曲線の空間座標を画像座標に変換し、この情報を制御部43に出力する。
The parametric curve selection unit 47 outputs the selected parametric curve information to the control unit 43 according to the user's selection.
The projection processing unit 49 converts the spatial coordinates of the reference point, measurement point, virtual point, and virtual curve into image coordinates, and outputs this information to the control unit 43.

次に、図4から図19を用いて、実施例1に係る計測用内視鏡装置における処理手順を説明する。
本実施例において、対象となる計測対象物は、図4に示されるように、欠けが発生した部位の形状が本来曲線であるものである。こうした計測対象物の欠けの深さを計測するには、図5に示すように、まず、内視鏡2の先端部21を液晶モニタ5あるいは、フェイスマウントディスプレイ6の表示を見ながら操作して、計測対象物の欠けの部分を表示させる。
Next, a processing procedure in the measurement endoscope apparatus according to the first embodiment will be described with reference to FIGS. 4 to 19.
In the present embodiment, the measurement target object is an object in which the shape of the part where the chip has occurred is originally a curve, as shown in FIG. In order to measure the depth of chipping of such a measurement object, as shown in FIG. 5, first, the distal end portion 21 of the endoscope 2 is operated while viewing the display on the liquid crystal monitor 5 or the face mount display 6. Then, the missing part of the measurement object is displayed.

次に、計測対象物の欠け部分を表示させた状態で、図4に示すように、エッジの両端に3点の基準点(図中のR[0]、R[1]、R[2])を指定する(ステップ101)。3点の基準点が指定されると(ステップ201)、図13に示すように、基準エッジ指定部41が指定された3点の空間座標を算出して、その算出結果を制御部43に出力する(ステップ202)。なお、算出した空間座標は、制御部43を介さずに、射影処理部49に直接出力してもよい。   Next, in a state in which the missing portion of the measurement object is displayed, as shown in FIG. 4, three reference points (R [0], R [1], R [2] in the figure) are provided at both ends of the edge. ) Is designated (step 101). When the three reference points are designated (step 201), as shown in FIG. 13, the reference edge designation unit 41 calculates the designated three spatial coordinates and outputs the calculation result to the control unit 43. (Step 202). The calculated spatial coordinates may be directly output to the projection processing unit 49 without using the control unit 43.

空間座標の算出は、指定された基準点に対応する点を液晶モニタ5あるいは、フェイスマウントディスプレイ6に表示された参照画像上で探索し、三角測量の原理を用いて、数1のような空間座標を計算することにより行う。なお、この計算方法は、特許文献1に記載されているものと同様である。   The calculation of the spatial coordinates is performed by searching for a point corresponding to the designated reference point on the reference image displayed on the liquid crystal monitor 5 or the face mount display 6, and using the principle of triangulation, a space such as Equation 1 is obtained. This is done by calculating the coordinates. This calculation method is the same as that described in Patent Document 1.

Figure 2005204724
Figure 2005204724

次に、エッジ近似部44は、制御部43から算出された3つの基準点の空間座標を入力し、図14の手順にしたがって、この3点を通る2次曲線を仮想曲線として求める。仮想曲線の式はtをパラメータとして、数2のようになる。   Next, the edge approximation unit 44 inputs the spatial coordinates of the three reference points calculated from the control unit 43, and obtains a quadratic curve passing through these three points as a virtual curve according to the procedure of FIG. The formula of the virtual curve is as shown in Equation 2 with t as a parameter.

Figure 2005204724
Figure 2005204724

この数2に、数1のR[0]から[2]の3点の座標を代入し、R[0]でのtを0、R[1]でのtをp(ただし0<p<1)、R2でのtを1として数2の連立方程式の係数a[0]からa[2],b[0]からb[2],c[0]からc[2]を求める(ステップ301からステップ303)。
ここで、pは形状係数であり初期値はp=0.5として計算を行う。
Substituting the coordinates of the three points R [0] to [2] of Equation 1 into Equation 2, t in R [0] is 0, and t in R [1] is p (where 0 <p < 1) The coefficient a [0] to a [2], b [0] to b [2], and c [0] to c [2] of the simultaneous equations of Formula 2 are obtained by setting t in R2 to 1 (step) 301 to step 303).
Here, p is a shape factor, and the initial value is calculated with p = 0.5.

具体的に、連立方程式の係数の算出は、xを例にとり、図15を参照しつつ説明すると、以下のようになる。
すなわち、連立方程式を以下、数3から数5に示す行列に置き換え、数6の3元連立方程式を解く。
Specifically, the calculation of the coefficients of the simultaneous equations will be described below with reference to FIG. 15 taking x as an example.
That is, the simultaneous equations are replaced by the matrices shown in Equations 3 to 5 below, and the ternary simultaneous equations of Equation 6 are solved.

Figure 2005204724
Figure 2005204724

Figure 2005204724
Figure 2005204724

Figure 2005204724
Figure 2005204724

Figure 2005204724
Figure 2005204724

そして、Tの逆行列をT’としてAを求める(ステップ401から404)。同様の手順によりb[0]からb[2],c[0]からc[2]を求めることができる。   Then, A is obtained using the inverse matrix of T as T '(steps 401 to 404). By the same procedure, b [0] to b [2] and c [0] to c [2] can be obtained.

求めた曲線に基づいて、入力画像への射影が射影処理部49において求められ、求められた画像座標が制御部43を介して、画像情報として液晶モニタ5あるいは、フェイスマウントディスプレイ6に出力される。そして、これが計測対象物の入力面像に重畳して表示される。   Based on the obtained curve, the projection on the input image is obtained by the projection processing unit 49, and the obtained image coordinates are output to the liquid crystal monitor 5 or the face mount display 6 as image information via the control unit 43. . And this is superimposed and displayed on the input surface image of a measurement object.

液晶モニタ5あるいは、フェイスマウントディスプレイ6に出力された仮想曲線の形状が適切でない場合(ステップ103)には、基準点の修正や形状係数の変更を行うことができる。すなわち、図5に示すように、メニューから修正機能が選択された場合には、形状係数の変更かあるいは基準点位置の修正かを操作者に選択させる。   When the shape of the virtual curve output to the liquid crystal monitor 5 or the face mount display 6 is not appropriate (step 103), the reference point can be corrected or the shape factor can be changed. That is, as shown in FIG. 5, when the correction function is selected from the menu, the operator is allowed to select whether to change the shape factor or the reference point position.

操作者が形状係数変更を選択した場合(ステップ105)、値の直接入力あるいは画面に表示されたスライドバーの移動により形状係数の変更を0から1の間で行い、ステップ102の処理に戻る。また、基準点位置の修正が選択された場合は(ステップ104)、基準点の移動ができる状態になり、基準点位置の修正が完了したら、ステップ101の処理へ戻る。これらの処理は、仮想曲線形状変更部45および制御部43によって実行される。   When the operator selects the shape factor change (step 105), the shape factor is changed between 0 and 1 by directly inputting a value or moving the slide bar displayed on the screen, and the processing returns to step 102. If correction of the reference point position is selected (step 104), the reference point can be moved. When the correction of the reference point position is completed, the process returns to step 101. These processes are executed by the virtual curve shape changing unit 45 and the control unit 43.

なお、形状係数の変更に伴う放物線の形状の変化は、図7から図11に示すようになる。ここで、図7はp=0.2の場合の放物線の形状を、図8はp=0.3の場合の放物線の形状を、図9はp=0.4の場合の放物線の形状を、図10はp=0.5の場合の放物線の形状を、図11はp=0.6の場合の放物線の形状を示したものである。   In addition, the change of the shape of the parabola accompanying the change of the shape factor is as shown in FIGS. 7 shows the shape of a parabola when p = 0.2, FIG. 8 shows the shape of a parabola when p = 0.3, and FIG. 9 shows the shape of a parabola when p = 0.4. FIG. 10 shows the shape of the parabola when p = 0.5, and FIG. 11 shows the shape of the parabola when p = 0.6.

この例によれば、pの値を1に近づけると、3点ある基準点のうちの上から2点の間の曲線形状が直線に近づき、下から2点の間の曲線の曲率が大きくなるのがわかる。
したがって、計測対象物のエッジ形状を画像で確認しながら、pの値を操作すれば、エッジ形状に近似した仮想曲線を設定することができる。
According to this example, when the value of p is close to 1, the curve shape between two points from the top of the three reference points approaches a straight line, and the curvature of the curve between the two points from the bottom increases. I understand.
Therefore, if the value of p is manipulated while confirming the edge shape of the measurement object with an image, a virtual curve approximating the edge shape can be set.

次に、計測点指定部42が計測点の情報を入力すると(ステップ301)、計測点の対応点を計測対象物の画像上で探索し、三角測量の原理で計測点の空間座標を数7のように計算して制御部43に出力する(ステップ106、ステップ502)。   Next, when the measurement point designating unit 42 inputs information on the measurement point (step 301), the corresponding point of the measurement point is searched on the image of the measurement object, and the spatial coordinates of the measurement point are expressed by the formula 7 using the principle of triangulation. Is calculated and output to the control unit 43 (step 106, step 502).

Figure 2005204724
Figure 2005204724

欠損幅検出部46は、制御部43から仮想曲線に関する情報と、計測点の空間座標とを入力し、仮想曲線上の点で計測点との距離を求め(ステップ601)、ついで、その距離が最小となる仮想点を数8の範囲で求める(ステップ602)。求めた仮想点の空間座標は、射影処理部49に入力され、画像への射影が計算される(ステップ603)。そして、求めた仮想点の射影を画像上に描画する(ステップ604)。
なお、T_MIN、T_MAXはあらかじめ設定したtの最大、最小値である。
The missing width detection unit 46 receives information on the virtual curve and the spatial coordinates of the measurement point from the control unit 43, obtains a distance from the measurement point at a point on the virtual curve (step 601), and then determines the distance. The minimum virtual point is obtained within the range of Equation 8 (step 602). The obtained spatial coordinates of the virtual point are input to the projection processing unit 49, and the projection onto the image is calculated (step 603). Then, the projection of the calculated virtual point is drawn on the image (step 604).
T_MIN and T_MAX are preset maximum and minimum values of t.

Figure 2005204724
Figure 2005204724

次に、求めた仮想点を数9とする。   Next, the calculated virtual point is represented by Equation 9.

Figure 2005204724
Figure 2005204724

そして、求めた仮想点と計測点の距離を数10により求める(ステップ107)。   Then, the distance between the obtained virtual point and the measurement point is obtained by Equation 10 (step 107).

Figure 2005204724
Figure 2005204724

さらに、求めた距離を計測結果として液晶モニタ5あるいは、フェイスマウントディスプレイ6に表示する(ステップ108)。   Further, the obtained distance is displayed on the liquid crystal monitor 5 or the face mount display 6 as a measurement result (step 108).

本実施例は、実施例1に対して、基準点列の数を4点としたものである。本実施例においては、この4点目の空間座標を用い、p値の最適化を行う。これにより仮想曲線の修正は基準点位置の修正を行うのみで十分となる。   In the present embodiment, the number of reference point sequences is four compared to the first embodiment. In this embodiment, the p-value is optimized using the fourth spatial coordinate. As a result, the correction of the virtual curve is sufficient only by correcting the reference point position.

最適化は次のように行う。まず、実施例1での仮想点入力処理と同様に、仮想曲線上の点で4点目の基準点との距離Lが最小となる点を求める。次に、その点でのtの値であるt’を使い、p=t'とすることで、pの最適化を行う。   Optimization is performed as follows. First, similarly to the virtual point input process in the first embodiment, the point on the virtual curve that minimizes the distance L from the fourth reference point is obtained. Next, t is optimized by using t ′ which is the value of t at that point and setting p = t ′.

ここで、Lが所定の値L_TOLよりも小さくならない場合は、すべての基準点を滑らかにつなぐ仮想曲線が求まらず、定られた基準点列に仮想曲線を求める上で、不適切な点が含まれていることを意味する。従ってこの場合は、「基準点位置を修正してください。」という警告表示を液晶モニタ5あるいは、フェイスマウントディスプレイ6に行い、操作者に基準点位置の修正を促す。
これによって、基準点の位置が適切に指定されていれば、形状係数を操作者が変更する手間をかけることなく、適した仮想曲線を求めることができる。
Here, if L does not become smaller than the predetermined value L_TOL, an imaginary curve that smoothly connects all the reference points cannot be obtained. Is included. Accordingly, in this case, a warning message “Please correct the reference point position” is displayed on the liquid crystal monitor 5 or the face mount display 6 to prompt the operator to correct the reference point position.
As a result, if the position of the reference point is appropriately specified, a suitable virtual curve can be obtained without taking the effort of changing the shape factor by the operator.

本実施例は、あらかじめメニューからの設定により、どの仮想曲線で計測対象物のエッジを近似するかを選択する選択手段を備えている。これにより、計測対象物のエッジ形状が特定の曲線で設定されているかが判明している場合、より正確にエッジ形状を推定することができる。   The present embodiment includes selection means for selecting which virtual curve approximates the edge of the measurement object in advance by setting from the menu. Thereby, when it is determined whether the edge shape of the measurement object is set by a specific curve, the edge shape can be estimated more accurately.

ここで、選択された仮想曲線が2次式であるなら、実施例1と同様の処理になる。選択された仮想曲線が3次式なら、その処理は、以下のようになる。
すなわち、この場合、基準点列は、数11のように4点となる。
Here, if the selected virtual curve is a quadratic expression, the processing is the same as in the first embodiment. If the selected virtual curve is a cubic equation, the processing is as follows.
That is, in this case, the reference point sequence is four points as shown in Equation 11.

Figure 2005204724
Figure 2005204724

このとき、仮想曲線の式はtをパラメータとして、数12のようになる。   At this time, the equation of the virtual curve is expressed by Equation 12 with t as a parameter.

Figure 2005204724
Figure 2005204724

そこで、この式にR[0]からR[3]の4点の座標を代入し、R[0]でのtを0、R[1]でのtをp1(ただし0<p1<1)、R[2]でのtを、p1+(1−p1)*p2(ただし0<p2<1)、R[3]でのtを1として連立方程式を解き、a[0]からa[3],b[0]からb[3],c[0]からc[3]を求める。
ここで、p1,p2は形状係数であり初期値はp1=0.3、p2=0.5として計算を行う。
Therefore, the coordinates of four points from R [0] to R [3] are substituted into this equation, t at R [0] is 0, and t at R [1] is p1 (where 0 <p1 <1) , R [2] is set to p1 + (1−p1) * p2 (where 0 <p2 <1), and t in R [3] is set to 1 to solve the simultaneous equations, and a [0] to a [3 ], B [0] to b [3] and c [0] to c [3] are obtained.
Here, p1 and p2 are shape factors, and the initial values are calculated with p1 = 0.3 and p2 = 0.5.

形状係数の変更は2つの数字の入力を行うか、2つのスライドバーの移動によって指定する(図5参照)。選択された式が3次スプラインの場合はN点(N >3)の基準点を指定する。
i=0.1,・・・,N−1について、基準点R[j]でのパラメータt[j]は、基準点間の距離を用い、数13のようになり、数14の関数のI=0、・・・N−1の組が与えられた場合、数15の区間を、数16のように表す。
The shape factor is changed by inputting two numbers or by moving two slide bars (see FIG. 5). If the selected expression is a cubic spline, N points (N> 3) are designated as reference points.
For i = 0.1,..., N−1, the parameter t [j] at the reference point R [j] is expressed by the following equation 13 using the distance between the reference points. When a set of I = 0,..., N−1 is given, the section of Expression 15 is expressed as Expression 16.

Figure 2005204724
Figure 2005204724

Figure 2005204724
Figure 2005204724

Figure 2005204724
Figure 2005204724

Figure 2005204724
Figure 2005204724

ただし、A、B、C、Dは、数17であり、y2[j]は、数18の連立方程式の解である。なお、tan(a)はaの正接を表し、PIは円周率を表す。また、pl,p2は形状係数であり、−1<p1<1,−1<p2<1 である。2つの形状係数の初期値は0とし、形状係数の変更は2つの数字の入力か、2つのスライドバーの移動によって指定する。そして、x, y, zそれぞれについて、R[0]〜R[N-1]を用いてfを求め、仮想曲線の式とする。   However, A, B, C, and D are Formula 17, and y2 [j] is the solution of the simultaneous equations of Formula 18. Note that tan (a) represents the tangent of a, and PI represents the circumference. Further, pl and p2 are shape factors, and -1 <p1 <1, -1 <p2 <1. The initial values of the two shape factors are set to 0, and the change of the shape factor is designated by inputting two numbers or moving two slide bars. Then, for each of x, y, and z, f is obtained using R [0] to R [N-1] to obtain an equation of a virtual curve.

Figure 2005204724
Figure 2005204724

Figure 2005204724
Figure 2005204724

本実施例においては、仮想点位置修正機能が付加されている。メニューから、この機能が選択されると形状係数変更と同様のスライドバーが表示され、このスライドバーの操作に運動して仮想点が仮想曲線上を移動する。計測結果はこの変更された仮想点の座標と計測点の座標から求めて表示される。   In this embodiment, a virtual point position correction function is added. When this function is selected from the menu, a slide bar similar to the shape factor change is displayed, and the virtual point moves on the virtual curve in response to the operation of the slide bar. A measurement result is obtained and displayed from the coordinates of the changed virtual point and the coordinates of the measurement point.

ここまでに説明してきた上記の実施例においては、欠け部分の両側にエッジが残っている場合には、正確な計測を行うことができるが、仮想点を計測点に最も近い仮想曲線上の点としているため、図6に示すような角が欠けた計測対象物に適用すると、結果が不正確になる場合がある。
しかし、本実施例によれば、角が欠けた計測対象物に適用しても、正確な結果を得ることができる。
In the above-described embodiments described so far, when edges remain on both sides of the chipped portion, accurate measurement can be performed, but the virtual point is a point on the virtual curve closest to the measurement point. Therefore, when applied to a measurement object with missing corners as shown in FIG. 6, the result may be inaccurate.
However, according to the present embodiment, an accurate result can be obtained even when applied to a measurement object with missing corners.

本実施例は、図3に示すように、図2に対して、エッジ抽出部48、エッジ選択部50、微分フィルタ選択部51、エッジ検出閾値変更部52が付加された構成となっている。本実施例は、エッジ抽出部48により抽出されたエッジ、あるいは複数のエッジが抽出された場合に、その中から選択されたエッジに対して仮想曲線の当てはめを行い、仮想曲線を求めるものである。   As shown in FIG. 3, the present embodiment has a configuration in which an edge extraction unit 48, an edge selection unit 50, a differential filter selection unit 51, and an edge detection threshold value changing unit 52 are added to FIG. In this embodiment, when an edge extracted by the edge extraction unit 48 or a plurality of edges are extracted, a virtual curve is applied to the edge selected from the edges to obtain a virtual curve. .

以下、図18および図19を用いて、具体的な処理について説明する。
まず、計測対象物を捉えた観察画像に微分フィルタを適用し(ステップ801)、微分値が閾値以上の画素を抽出する(ステップ802)。適用するフィルタはSobelフィルタ、Rovertsフィルタ、Prewlttフィルタなどの複数のフィルタから選択できるようになっている。微分フィルタ適用時には、同時にエッジ方向も計算する。
Hereinafter, specific processing will be described with reference to FIGS. 18 and 19.
First, a differential filter is applied to the observation image capturing the measurement object (step 801), and pixels whose differential value is equal to or greater than a threshold value are extracted (step 802). The filter to be applied can be selected from a plurality of filters such as a Sobel filter, a Roverts filter, and a Prewltt filter. When applying the differential filter, the edge direction is also calculated at the same time.

例えば、Sobelフィルタを用いる場合、座標i,jの微分値g(i,j)は画素値をfとして、数19のようになり、エッジ方向tは、数20となる。ただし、atan(a)はaの正接の逆関数(アークタンジェント)を表す。   For example, when the Sobel filter is used, the differential value g (i, j) of the coordinates i and j is expressed by Equation 19 with the pixel value being f, and the edge direction t is expressed by Equation 20. However, atan (a) represents the inverse function (arctangent) of tangent of a.

Figure 2005204724
Figure 2005204724

Figure 2005204724
Figure 2005204724

次に、細線化処理を行い、ノイズを除去する(ステップ803)。このとき、通常、複数のエッジが検出されるため、検出したそれぞれのエッジにラベリングを行う(ステップ804)。各エッジ上の点についてエッジ方向の変化量を求め、2階微分が0となる点、すなわち変曲点でエッジを分割し、別のラベルをつける(ステップ701、805)。   Next, thinning processing is performed to remove noise (step 803). At this time, since a plurality of edges are usually detected, each detected edge is labeled (step 804). The amount of change in the edge direction is obtained for each point on the edge, and the edge is divided at the point where the second derivative becomes 0, that is, the inflection point, and another label is attached (steps 701 and 805).

そして、エッジの選択を行って(ステップ702)、エッジ上の点の空間座標を求める(ステップ703)。次に、選択されたエッジについてハフ変換を適用し、2次曲線を当てはめる(ステップ704)。求めた曲線の入力画像への射影を求め、入力画像に重畳して表示する。表示された曲線に問題がないと操作者が判断すれば計測点入力へ、問題があれば微分フィルタの種類、あるいはエッジ検出の閾値を変更して再度エッジ抽出(ステップ701)を行う(ステップ705)。   Then, the edge is selected (step 702), and the spatial coordinates of the point on the edge are obtained (step 703). Next, a Hough transform is applied to the selected edge to fit a quadratic curve (step 704). The projection of the obtained curve onto the input image is obtained, and is displayed superimposed on the input image. If the operator determines that there is no problem with the displayed curve, the measurement point input is performed. If there is a problem, the type of the differential filter or the threshold value for edge detection is changed to perform edge extraction (step 701) again (step 705). ).

基準画像上で計測点が入力されると、計測点の対応点を参照画像上で探索し、三角測量の原理で計測点の空間座標を数21のように計算する(ステップ706)。   When the measurement point is input on the reference image, the corresponding point of the measurement point is searched on the reference image, and the spatial coordinates of the measurement point are calculated as shown in Equation 21 based on the principle of triangulation (step 706).

Figure 2005204724
Figure 2005204724

計測点の空間座標が算出されると、仮想曲線上の点で計測点との距離が最小となる仮想点を求める(ステップ707)。そして、求めた仮想点を数22とする。   When the spatial coordinates of the measurement point are calculated, a virtual point having a minimum distance from the measurement point at a point on the virtual curve is obtained (step 707). Then, the calculated virtual point is represented by Formula 22.

Figure 2005204724
Figure 2005204724

次に、求めた仮想点と計測点の距離を数23に基づいて求める(ステップ708)。そして、仮想点の入力画像上への射影を求め、観察画像に重畳して表示するとともに、求めた距離を計測結果として表示する(ステップ709)。   Next, the distance between the calculated virtual point and the measurement point is determined based on Equation 23 (step 708). Then, the projection of the virtual point on the input image is obtained and displayed superimposed on the observation image, and the obtained distance is displayed as a measurement result (step 709).

Figure 2005204724
Figure 2005204724

したがって、これまで説明してきた上記の実施例においては、基準点の入力が不正確な場合には計測結果も不正確になるという問題があるが、本実施例においては、エッジの検出を自動的に行うため、精密に基準点を指定する必要なく、操作者の負荷が大幅に軽減される。また、操作者の誤操作による精度の低下の可能性を減らすことができる。   Therefore, in the above-described embodiments described so far, there is a problem that the measurement result becomes inaccurate when the input of the reference point is inaccurate. However, in this embodiment, the edge detection is automatically performed. Therefore, it is not necessary to specify the reference point precisely, and the load on the operator is greatly reduced. In addition, the possibility of a decrease in accuracy due to an erroneous operation by the operator can be reduced.

以上、図面を参照して本発明の実施の形態について詳述してきたが、具体的な構成はこれらの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。   As described above, the embodiments of the present invention have been described in detail with reference to the drawings, but the specific configuration is not limited to these embodiments, and includes design changes and the like within a scope not departing from the gist of the present invention. It is.

本発明に係る計測用内視鏡装置の構成図である。It is a block diagram of the endoscope apparatus for measurement which concerns on this invention. 計測処理部の構成図である。It is a block diagram of a measurement process part. 計測処理部の構成図である。It is a block diagram of a measurement process part. 計測対象物の欠け部分と基準点、計測点、仮想点との関係を示した図である。It is the figure which showed the relationship between the missing part of a measurement target object, a reference point, a measurement point, and a virtual point. 表示部に表示される計測対象物およびメニュー等を示した図である。It is the figure which showed the measurement object, menu, etc. which are displayed on a display part. 計測対象物の角に欠けがある場合の計測対象物の欠け部分と基準点、計測点、仮想点との関係を示した図である。It is the figure which showed the relationship between the chip | tip part of a measurement target object, and a reference point, a measurement point, and a virtual point when a corner | angular part of a measurement target object has a chip | tip. 形状変更係数を操作したときの仮想曲線の形状を示した図である。It is the figure which showed the shape of the virtual curve when operating a shape change coefficient. 形状変更係数を操作したときの仮想曲線の形状を示した図である。It is the figure which showed the shape of the virtual curve when operating a shape change coefficient. 形状変更係数を操作したときの仮想曲線の形状を示した図である。It is the figure which showed the shape of the virtual curve when operating a shape change coefficient. 形状変更係数を操作したときの仮想曲線の形状を示した図である。It is the figure which showed the shape of the virtual curve when operating a shape change coefficient. 形状変更係数を操作したときの仮想曲線の形状を示した図である。It is the figure which showed the shape of the virtual curve when operating a shape change coefficient. 実施例1の処理フローを示した図である。FIG. 3 is a diagram illustrating a processing flow of Example 1. 基準点が入力された際の処理フロー図である。It is a processing flowchart when a reference point is input. 計測点が入力された際の処理フロー図である。It is a processing flow figure when a measurement point is input. 仮想曲線を算出する際の処理フロー図である。It is a processing flow figure at the time of calculating a virtual curve. 係数を算出する際の処理フロー図である。It is a processing flow figure at the time of calculating a coefficient. 基準点が入力された際の処理フロー図である。It is a processing flowchart when a reference point is input. 実施例5の処理フローを示した図である。FIG. 10 is a diagram illustrating a processing flow of Example 5. エッジ抽出を行う際の処理フロー図である。It is a processing flow figure at the time of performing edge extraction.

符号の説明Explanation of symbols

2・・・内視鏡、3・・・コントロールユニット、4・・・リモートコントローラ、5・・・液晶モニタ、6・・・フェイスマウントディスプレイ(FMD)、6a・・・FMDアダプタ、7a、7b、7c・・・光学アダプタ、8・・・内視鏡ユニット、9・・・カメラコントロールユニット、10・・・制御ユニット、11・・・音声信号処理回路、12・・・映像信号処理回路、13・・・ROM、14・・・RAM、15・・・PCカードインターフェース、16・・・USBインターフェース、17・・・RS−232Cインターフェース、18・・・計測処理部、41・・・基準エッジ指定部、42・・・計測点指定部、43・・・制御部、44・・・エッジ近似部、45・・・仮想曲線形状変更部、46・・・欠損幅演算部、47・・・パラメトリック曲線選択部、48・・・エッジ抽出部、49・・・射影処理部、

2 ... endoscope, 3 ... control unit, 4 ... remote controller, 5 ... liquid crystal monitor, 6 ... face mount display (FMD), 6a ... FMD adapter, 7a, 7b 7c: Optical adapter, 8: Endoscope unit, 9: Camera control unit, 10: Control unit, 11: Audio signal processing circuit, 12: Video signal processing circuit, 13 ... ROM, 14 ... RAM, 15 ... PC card interface, 16 ... USB interface, 17 ... RS-232C interface, 18 ... measurement processing unit, 41 ... reference edge Designating part, 42 ... Measuring point designating part, 43 ... Control part, 44 ... Edge approximating part, 45 ... Virtual curve shape changing part, 46 ... Missing width calculating part, 7 ... parametric curve selection unit, 48 ... edge extraction unit, 49 ... projection section,

Claims (9)

計測対象物を撮像する撮像手段を備えた電子内視鏡と、
該電子内視鏡に接続され、前記撮像手段からの撮像信号に基づいて映像信号を生成する画像処理手段と、
該画像処理手段で生成された映像信号を入力し、前記計測対象物の計測処理を行う計測処理手段とを備えた制御装置と、
該制御装置の指示に基づいて出力される出力画像を表示する表示装置とを有し、
前記計測処理手段が計測対象物の輪郭線の一部を基準エッジとして指定する基準エッジ指定手段と、
前記計測対象物上のある点を計測点として指定する計測点指定手段と、
前記基準エッジをパラメトリック曲線で補間した仮想曲線として近似するエッジ近似手段と、
該仮想曲線上の特定の点である仮想点と、前記計測点との距離を求める欠損幅演算手段とを有することを特徴とする計測用内視鏡装置。
An electronic endoscope provided with an imaging means for imaging a measurement object;
An image processing means connected to the electronic endoscope for generating a video signal based on an imaging signal from the imaging means;
A control device including a video signal generated by the image processing means and a measurement processing means for performing measurement processing of the measurement object;
A display device that displays an output image output based on an instruction of the control device;
A reference edge designating unit for designating a part of the outline of the measurement object as a reference edge by the measurement processing unit;
Measurement point designating means for designating a point on the measurement object as a measurement point;
Edge approximating means for approximating the reference edge as a virtual curve interpolated with a parametric curve;
An endoscope apparatus for measurement, comprising: a virtual point which is a specific point on the virtual curve; and a missing width calculation means for obtaining a distance between the measurement point and the virtual point.
前記基準エッジ指定手段が、3点以上の点列を基準点列として指定することにより前記基準エッジを指定することを特徴とする請求項1に記載された計測用内視鏡装置。   2. The measuring endoscope apparatus according to claim 1, wherein the reference edge designating unit designates the reference edge by designating a sequence of three or more points as a reference point sequence. 前記エッジ近似手段における仮想曲線の形状を適宜、変更する仮想曲線形状変更手段を有することを特徴とする請求項1または請求項2に記載された計測用内視鏡装置。   3. The measuring endoscope apparatus according to claim 1, further comprising virtual curve shape changing means for appropriately changing the shape of the virtual curve in the edge approximating means. 空間座標を画像座標に変換する射影処理手段を有し、
前記表示手段が、前記仮想曲線を該射影処理手段において処理した射影仮想曲線と、前記撮像手段において撮像された前記計測対象物の画像とを重畳表示することを特徴とする請求項1から請求項3のいずれかに記載された計測用内視鏡装置。
Having projection processing means for converting spatial coordinates into image coordinates;
2. The display unit according to claim 1, wherein the display unit superimposes a projected virtual curve obtained by processing the virtual curve by the projection processing unit and an image of the measurement object captured by the imaging unit. An endoscope apparatus for measurement described in any one of 3 above.
前記表示手段が前記仮想点と前記撮像手段において撮像された前記計測対象物の画像とを前記射影処理手段で求めた前記仮想点の画像座標に基づいて重畳表示することを特徴とする請求項1から請求項4のいずれかに記載された計測用内視鏡装置。   The display means superimposes and displays the virtual point and the image of the measurement object imaged by the imaging means based on the image coordinates of the virtual point obtained by the projection processing means. An endoscope apparatus for measurement according to any one of claims 1 to 4. 前記仮想点が前記仮想曲線上で前記計測点との距離が最小になる点であることを特徴とする請求項1から請求項5のいずれかに記載された計測用内視鏡装置。   The measurement endoscope apparatus according to any one of claims 1 to 5, wherein the virtual point is a point having a minimum distance from the measurement point on the virtual curve. 前記エッジ近似手段が、前記基準点列の点数をひとつ増やしたときに、該加えられた点の座標と前記仮想曲線から前記仮想曲線の形状を修正することを特徴とする請求項1から請求項3のいずれかに記載された計測用内視鏡装置。   The said edge approximation means corrects the shape of the virtual curve from the coordinates of the added point and the virtual curve when the number of points in the reference point sequence is increased by one. An endoscope apparatus for measurement described in any one of 3 above. 前記パラメトリック曲線を選択するためのパラメトリック曲線選択手段を有することを特徴とする請求項1から請求項3のいずれかに記載された計測用内視鏡装置。   4. The measurement endoscope apparatus according to claim 1, further comprising parametric curve selection means for selecting the parametric curve. 前記計測対象物のエッジを抽出するエッジ抽出手段を有することを特徴とする請求項1に記載された計測用内視鏡装置。
The measurement endoscope apparatus according to claim 1, further comprising an edge extraction unit configured to extract an edge of the measurement object.
JP2004011797A 2004-01-20 2004-01-20 Endoscope device for measurement Expired - Fee Related JP4790223B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004011797A JP4790223B2 (en) 2004-01-20 2004-01-20 Endoscope device for measurement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004011797A JP4790223B2 (en) 2004-01-20 2004-01-20 Endoscope device for measurement

Publications (3)

Publication Number Publication Date
JP2005204724A true JP2005204724A (en) 2005-08-04
JP2005204724A5 JP2005204724A5 (en) 2007-03-08
JP4790223B2 JP4790223B2 (en) 2011-10-12

Family

ID=34898385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004011797A Expired - Fee Related JP4790223B2 (en) 2004-01-20 2004-01-20 Endoscope device for measurement

Country Status (1)

Country Link
JP (1) JP4790223B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008206956A (en) * 2007-01-31 2008-09-11 Olympus Corp Endoscope device for measurement
JP2008295512A (en) * 2007-05-29 2008-12-11 Olympus Corp Endoscope apparatus for measurement, and program
JP2009014914A (en) * 2007-07-03 2009-01-22 Olympus Corp Endoscope device for measurement
JP2009282379A (en) * 2008-05-23 2009-12-03 Olympus Corp Endoscope and program
JP2010008394A (en) * 2008-05-26 2010-01-14 Olympus Corp Endoscopic device and program
JP2011059742A (en) * 2009-09-04 2011-03-24 Olympus Corp Image processing apparatus and program
US8200042B2 (en) 2007-01-31 2012-06-12 Olympus Corporation Endoscope apparatus and program
US8675950B2 (en) 2009-07-31 2014-03-18 Olympus Corporation Image processing apparatus and image processing method
US8791998B2 (en) 2009-07-31 2014-07-29 Olympus Corporation Image processing apparatus and method for displaying images
JP2014140402A (en) * 2013-01-22 2014-08-07 Olympus Corp Measuring device and program
US8903144B2 (en) 2010-12-01 2014-12-02 Olympus Corporation Endoscope apparatus and method of measuring object
US8913110B2 (en) 2010-03-09 2014-12-16 Olympus Corporation Endoscope apparatus and measurement method
US8965103B2 (en) 2009-07-16 2015-02-24 Olympus Corporation Image processing apparatus and image processing method
CN113256795A (en) * 2021-05-31 2021-08-13 中国科学院长春光学精密机械与物理研究所 Endoscopic three-dimensional detection method

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04198741A (en) * 1990-11-28 1992-07-20 Hitachi Ltd Shape defect detecting device
JPH0727519A (en) * 1993-07-12 1995-01-27 Olympus Optical Co Ltd Endoscope device
JPH09113467A (en) * 1995-10-20 1997-05-02 Hitachi Metals Ltd Method for deciding defect
JPH09281055A (en) * 1996-04-09 1997-10-31 Hitachi Metals Ltd Inspection method for chip
JPH10115513A (en) * 1996-08-23 1998-05-06 Aisin Seiki Co Ltd Apparatus for measuring and plotting surface shape
JPH10248806A (en) * 1997-03-12 1998-09-22 Olympus Optical Co Ltd Measuring endoscopic device
JP2001075019A (en) * 1999-09-01 2001-03-23 Olympus Optical Co Ltd Endoscope device
JP2001087290A (en) * 1999-09-24 2001-04-03 Ngk Spark Plug Co Ltd Filling artificial bone designing system and manufacture of filling artificial bone using the system
JP2001241926A (en) * 2000-03-02 2001-09-07 Toray Ind Inc Method and apparatus for inspecting body
JP2001324313A (en) * 2000-05-16 2001-11-22 Koichi Nakano Three-dimensional shape measuring instrument
JP2002214157A (en) * 2001-01-18 2002-07-31 Kawasaki Heavy Ind Ltd Flaw detecting method and device for plate-like body
JP2002336188A (en) * 2001-05-21 2002-11-26 Olympus Optical Co Ltd Endoscope system for measurement
JP2002345735A (en) * 2001-05-30 2002-12-03 Olympus Optical Co Ltd Image processing measurement device and measurement endoscope
JP2003070719A (en) * 2001-08-31 2003-03-11 Olympus Optical Co Ltd Measurement endoscope

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04198741A (en) * 1990-11-28 1992-07-20 Hitachi Ltd Shape defect detecting device
JPH0727519A (en) * 1993-07-12 1995-01-27 Olympus Optical Co Ltd Endoscope device
JPH09113467A (en) * 1995-10-20 1997-05-02 Hitachi Metals Ltd Method for deciding defect
JPH09281055A (en) * 1996-04-09 1997-10-31 Hitachi Metals Ltd Inspection method for chip
JPH10115513A (en) * 1996-08-23 1998-05-06 Aisin Seiki Co Ltd Apparatus for measuring and plotting surface shape
JPH10248806A (en) * 1997-03-12 1998-09-22 Olympus Optical Co Ltd Measuring endoscopic device
JP2001075019A (en) * 1999-09-01 2001-03-23 Olympus Optical Co Ltd Endoscope device
JP2001087290A (en) * 1999-09-24 2001-04-03 Ngk Spark Plug Co Ltd Filling artificial bone designing system and manufacture of filling artificial bone using the system
JP2001241926A (en) * 2000-03-02 2001-09-07 Toray Ind Inc Method and apparatus for inspecting body
JP2001324313A (en) * 2000-05-16 2001-11-22 Koichi Nakano Three-dimensional shape measuring instrument
JP2002214157A (en) * 2001-01-18 2002-07-31 Kawasaki Heavy Ind Ltd Flaw detecting method and device for plate-like body
JP2002336188A (en) * 2001-05-21 2002-11-26 Olympus Optical Co Ltd Endoscope system for measurement
JP2002345735A (en) * 2001-05-30 2002-12-03 Olympus Optical Co Ltd Image processing measurement device and measurement endoscope
JP2003070719A (en) * 2001-08-31 2003-03-11 Olympus Optical Co Ltd Measurement endoscope

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008206956A (en) * 2007-01-31 2008-09-11 Olympus Corp Endoscope device for measurement
US8194948B2 (en) 2007-01-31 2012-06-05 Olympus Corporation Instrumentation endoscope apparatus
US8200042B2 (en) 2007-01-31 2012-06-12 Olympus Corporation Endoscope apparatus and program
JP2008295512A (en) * 2007-05-29 2008-12-11 Olympus Corp Endoscope apparatus for measurement, and program
JP2009014914A (en) * 2007-07-03 2009-01-22 Olympus Corp Endoscope device for measurement
JP2009282379A (en) * 2008-05-23 2009-12-03 Olympus Corp Endoscope and program
JP2010008394A (en) * 2008-05-26 2010-01-14 Olympus Corp Endoscopic device and program
US8965103B2 (en) 2009-07-16 2015-02-24 Olympus Corporation Image processing apparatus and image processing method
US8675950B2 (en) 2009-07-31 2014-03-18 Olympus Corporation Image processing apparatus and image processing method
US8791998B2 (en) 2009-07-31 2014-07-29 Olympus Corporation Image processing apparatus and method for displaying images
JP2011059742A (en) * 2009-09-04 2011-03-24 Olympus Corp Image processing apparatus and program
US8913110B2 (en) 2010-03-09 2014-12-16 Olympus Corporation Endoscope apparatus and measurement method
US8903144B2 (en) 2010-12-01 2014-12-02 Olympus Corporation Endoscope apparatus and method of measuring object
JP2014140402A (en) * 2013-01-22 2014-08-07 Olympus Corp Measuring device and program
US10019643B2 (en) 2013-01-22 2018-07-10 Olympus Corporation Measurement apparatus and program
CN113256795A (en) * 2021-05-31 2021-08-13 中国科学院长春光学精密机械与物理研究所 Endoscopic three-dimensional detection method
CN113256795B (en) * 2021-05-31 2023-10-03 中国科学院长春光学精密机械与物理研究所 Endoscopic three-dimensional detection method

Also Published As

Publication number Publication date
JP4790223B2 (en) 2011-10-12

Similar Documents

Publication Publication Date Title
JP4790223B2 (en) Endoscope device for measurement
JP4873794B2 (en) Image processing measuring apparatus and measuring endoscope apparatus
US8913110B2 (en) Endoscope apparatus and measurement method
JP4632577B2 (en) Measuring endoscope device
US20110187824A1 (en) Endoscope apparatus and measurement method
JP5574555B2 (en) Endoscope device
US11941749B2 (en) Image display method, display control device, and recording medium for displaying shape image of subject and coordinates estimated from two-dimensional coordinates in reference image projected thereon
JP5307407B2 (en) Endoscope apparatus and program
JP4674093B2 (en) Endoscope apparatus and program
JP4759184B2 (en) Measuring endoscope device
US9113806B2 (en) Endoscope apparatus for measuring a spatial characteristic
JP6789899B2 (en) Measuring device and operating method of measuring device
CN110858397A (en) Measuring device, method for operating measuring device, and storage medium
JP6081209B2 (en) Endoscope apparatus and program
JP2008003683A (en) Image generation device and its method and recording medium
JP2008185895A (en) Endoscope device for measurement
JP5361246B2 (en) Endoscope apparatus and program
JP2004165944A (en) Method and device for projection information correction, program, and recording medium
JP6400767B2 (en) Measuring endoscope device
JP5127302B2 (en) Endoscope device for measurement and program
JP2021071516A (en) Imaging apparatus and method for controlling imaging apparatus
US20120100512A1 (en) Inspection apparatus and inspection method
JP5791989B2 (en) Endoscope apparatus and program
JP2011161019A (en) Endoscope apparatus and program
JP2006020276A (en) Endoscope for measurement

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101028

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20101029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110720

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140729

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4790223

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees