JP2005204724A - Endoscope apparatus for measurement - Google Patents
Endoscope apparatus for measurement Download PDFInfo
- Publication number
- JP2005204724A JP2005204724A JP2004011797A JP2004011797A JP2005204724A JP 2005204724 A JP2005204724 A JP 2005204724A JP 2004011797 A JP2004011797 A JP 2004011797A JP 2004011797 A JP2004011797 A JP 2004011797A JP 2005204724 A JP2005204724 A JP 2005204724A
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- point
- virtual
- curve
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- RKZKAOBTDVGHTP-UHFFFAOYSA-N CCNC1(C)C(C)CC1 Chemical compound CCNC1(C)C(C)CC1 RKZKAOBTDVGHTP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、機器内の計測対象物を撮像した画像に基づいて、特に欠け部の深さを計測する計測用内視鏡装置に関する。 The present invention relates to a measurement endoscope apparatus that measures the depth of a chipped portion, in particular, based on an image obtained by imaging a measurement object in a device.
主に航空機に使われるガスタービンでは、異物等の侵入により、タービンブレードあるいはコンプレッサブレードのエッジに欠けが生じることがある。このブレードの欠けの深さの寸法はブレードの交換を判断する条件のひとつであり、その検査は極めて重要なものである。 In a gas turbine mainly used in an aircraft, the edge of a turbine blade or a compressor blade may be chipped due to entry of foreign matter or the like. The dimension of the depth of the chip of the blade is one of the conditions for judging the replacement of the blade, and the inspection is extremely important.
こうした状況に対して、従来の計測用内視鏡においては、タービンブレードあるいはコンプレッサブレードのエッジの欠けの深さの計測に、直線と点との距離を求める計測方法が用いられており(例えば、特許文献1参照。)、こうした方法によって、エッジを直線で近似し、失われたエッジ上のから欠けの深さまでの距離を計測していた。
しかし、従来の方法は、あくまでも、エッジの欠けを直線で近似して失われたエッジから欠けの深さまでの距離を計測するものであるため、エッジが直線あるいは直線に近い場合には、ある程度の精度が期待できるが、近年増えつつある曲線エッジを持つブレードでは欠け量の計測誤差が大きくなるといった問題があった。 However, the conventional method only measures the distance from the lost edge to the depth of the chip by approximating the chip of the edge with a straight line, so if the edge is close to a straight line or a straight line, Although accuracy can be expected, there has been a problem that a measurement error of a chip amount becomes large in a blade having a curved edge which has been increasing in recent years.
そこで、本発明は、上述の問題点に鑑みてなされたものであり、失われたエッジを曲線で近似し、仮想的な曲線上の仮想点と指定した計測点との距離を求めることにより、曲線エッジのブレードの欠け量に対する計測精度を向上させる計測用内視鏡を提供することを目的とする。 Accordingly, the present invention has been made in view of the above-described problems, and approximates a lost edge with a curve, and obtains a distance between a virtual point on a virtual curve and a designated measurement point, An object of the present invention is to provide a measurement endoscope that improves the measurement accuracy with respect to the amount of chipped blades at curved edges.
本発明は、上述の課題を解決するために、以下の手段を提案している。
請求項1に係る発明は、計測対象物を撮像する撮像手段を備えた電子内視鏡と、該電子内視鏡に接続され、前記撮像手段からの撮像信号に基づいて映像信号を生成する画像処理手段と、該画像処理手段で生成された映像信号を入力し、前記計測対象物の計測処理を行う計測処理手段とを備えた制御装置と、該制御装置の指示に基づいて出力される出力画像を表示する表示装置とを有し、前記計測処理手段が計測対象物の輪郭線の一部を基準エッジとして指定する基準エッジ指定手段と、前記計測対象物上のある点を計測点として指定する計測点指定手段と、前記基準エッジをパラメトリック曲線で補間した仮想曲線として近似するエッジ近似手段と、該仮想曲線上の特定の点である仮想点と、前記計測点との距離を求める欠損幅演算手段とを有することを特徴とする計測用内視鏡装置を提案している。
The present invention proposes the following means in order to solve the above-described problems.
According to a first aspect of the present invention, there is provided an electronic endoscope provided with an imaging unit that images a measurement object, and an image that is connected to the electronic endoscope and generates a video signal based on an imaging signal from the imaging unit. A control device comprising a processing means and a measurement processing means for inputting the video signal generated by the image processing means and measuring the measurement object, and an output output based on an instruction from the control device A display device for displaying an image, wherein the measurement processing means designates a part of the outline of the measurement object as a reference edge, and designates a certain point on the measurement object as a measurement point Measurement point designating means, edge approximating means for approximating the reference edge as a virtual curve interpolated with a parametric curve, a virtual point that is a specific point on the virtual curve, and a missing width for obtaining a distance between the measurement points With computing means Proposes endoscope apparatus for measurement, characterized by.
この発明によれば、基準エッジ指定手段の作動により、計測対象物の輪郭線の一部を基準エッジとして指定され、計測点指定手段の作動により、計測対象物上のある点が計測点として指定される。そして、エッジ近似手段の作動により、指定された基準エッジをパラメトリック曲線で補間した仮想曲線として近似し、欠損幅演算手段の作動により、近似された仮想曲線上の特定の点である仮想点と、計測点との距離が求められる。 According to the present invention, a part of the contour line of the measurement object is designated as the reference edge by the operation of the reference edge designating means, and a certain point on the measurement object is designated as the measurement point by the operation of the measurement point designating means. Is done. Then, the operation of the edge approximation means approximates the designated reference edge as a virtual curve interpolated with a parametric curve, and the operation of the missing width calculation means causes a virtual point that is a specific point on the approximated virtual curve; The distance to the measurement point is determined.
請求項2に係る発明は、請求項1に記載された計測用内視鏡装置について、前記基準エッジ指定手段が、3点以上の点列を基準点列として指定することにより前記基準エッジを指定することを特徴とする計測用内視鏡装置を提案している。
請求項3に係る発明は、請求項1または請求項2に記載された計測用内視鏡装置について、前記エッジ近似手段における仮想曲線の形状を適宜、変更する仮想曲線形状変更手段を有することを特徴とする計測用内視鏡装置を提案している。
The invention according to
The invention according to
請求項4に係る発明は、請求項1から請求項3のいずれかに記載された計測用内視鏡装置について、空間座標を画像座標に変換する射影処理手段を有し、前記表示手段が、前記仮想曲線を該射影処理手段において処理した射影仮想曲線と、前記撮像手段において撮像された前記計測対象物の画像とを重畳表示することを特徴とする計測用内視鏡装置を提案している。
The invention according to
請求項5に係る発明は、請求項1から請求項3のいずれかに記載された計測用内視鏡装置について、前記表示手段が前記仮想点と前記撮像手段において撮像された前記計測対象物の画像とを前記射影処理手段で求めた前記仮想点の画像座標に基づいて重畳表示することを特徴とする計測用内視鏡装置を提案している。 According to a fifth aspect of the present invention, in the measurement endoscope apparatus according to any one of the first to third aspects, the display means includes the virtual point and the measurement object captured by the imaging means. An endoscope apparatus for measurement has been proposed in which an image is superimposed and displayed based on the image coordinates of the virtual point obtained by the projection processing means.
請求項6に係る発明は、請求項1から請求項3のいずれかに記載された計測用内視鏡装置について、前記仮想点が前記仮想曲線上で前記計測点との距離が最小になる点であることを特徴とする計測用内視鏡装置を提案している。
The invention according to
請求項7に係る発明は、請求項1から請求項3のいずれかに記載された計測用内視鏡装置について、前記エッジ近似手段が、前記基準点列の点数をひとつ増やしたときに、該加えられた点の座標と前記仮想曲線から前記仮想曲線の形状を修正することを特徴とする計測用内視鏡装置を提案している。
The invention according to
請求項8に係る発明は、請求項1から請求項3のいずれかに記載された計測用内視鏡装置について、前記パラメトリック曲線を選択するためのパラメトリック曲線選択手段を有することを特徴とする計測用内視鏡装置を提案している。
この発明によれば、パラメトリック曲線選択手段の作動により、エッジ形状に最適なパラメトリック曲線を自由に選択することができる。
The invention according to
According to this invention, the parametric curve optimum for the edge shape can be freely selected by the operation of the parametric curve selection means.
請求項9に係る発明は、請求項1に記載された計測用内視鏡装置について、前記計測対象物のエッジを抽出するエッジ抽出手段を有することを特徴とする計測用内視鏡装置を提案している。
この発明によれば、エッジ抽出手段の作動により、例えば、自動的にエッジを正確に検出して、より簡便に欠け部の深さを計測することができる。
The invention according to
According to the present invention, by operating the edge extraction means, for example, the edge can be automatically detected accurately, and the depth of the chipped portion can be measured more easily.
本発明によれば、失われたエッジを曲線で近似し、仮想的な曲線上の仮想点と指定した計測点との距離を求めることにより、曲線エッジのブレードの欠け量に対する計測精度を向上させることができるという効果がある。
また、エッジ部を撮像した画像と仮想曲線とを重畳して表示させながら、仮想曲線の形状を変更することができるため、計測精度を視覚による調整によって、向上させることができるという効果がある。
さらに、用いる仮想曲線を選択できる手段を備えたことから、計測対象のエッジの形状に対応した的確な仮想曲線を用いることができるという効果がある。
According to the present invention, the lost edge is approximated by a curve, and the distance between the virtual point on the virtual curve and the designated measurement point is obtained, thereby improving the measurement accuracy for the missing amount of the blade of the curve edge. There is an effect that can be.
In addition, since the shape of the virtual curve can be changed while displaying the image obtained by capturing the edge portion and the virtual curve superimposed, there is an effect that the measurement accuracy can be improved by visual adjustment.
Furthermore, since a means for selecting a virtual curve to be used is provided, there is an effect that an accurate virtual curve corresponding to the shape of the edge to be measured can be used.
以下、本発明の実施例に係る計測用内視鏡装置について、図1から図19を参照して詳細に説明する。 Hereinafter, an endoscope apparatus for measurement according to an embodiment of the present invention will be described in detail with reference to FIGS.
本発明の実施形態に係る計測用内視鏡装置は、図1に示すように、内視鏡2と、コントロールユニット3と、リモートコントローラ4と、液晶モニタ5と、フェイスマウントディスプレイ(FMD)6と、FMDアダプタ6aと、光学アダプタ7a、7b、7c、内視鏡ユニット8と、カメラコントロールユニット9と、制御ユニット10とから構成されている。
As shown in FIG. 1, an endoscope apparatus for measurement according to an embodiment of the present invention includes an
内視鏡2は細長の挿入部20を備え、挿入部20は、先端側から順に硬質な先端部21、例えば、上下左右に湾曲可能な湾曲部22、柔軟性を有する可撓管部23を連設して構成され、先端部21には観察視野を2つ有するステレオ用の光学アダプタ7a、7bあるいは観察視野が1つの通常観察光学アダプタ7c等、各種光学アダプタが例えば螺合によって着脱自在な構成になっている。
The
コントロールユニット3は、内部に、内視鏡ユニット8、画像処理手段であるカメラコントロールユニット(以下、CCUと記載する。)9及び制御装置である制御ユニット10が設けられており、挿入部20の基端部は内視鏡ユニット8に接続されている。
The
内視鏡ユニット8は、観察時に必要な照明光を供給する光源装置と、挿入部20を構成する湾曲部22を湾曲させる湾曲装置とを備えている。
CCU9は、挿入部20の先端部21に内蔵されている固体撮像素子2aから出力された撮像信号を入力し、これを、例えば、NTSC信号等の映像信号に変換して制御ユニット10に供給する。
The
The
制御ユニット10は、音声信号処理回路11と、映像信号処理回路12と、ROM13と、RAM14と、PCカードインターフェース(以下、PCカードI/Fと記載する。)15と、USBインターフェース(以下、USB I/Fと記載する。)16と、RS−232Cインターフェース(以下、RS−232C I/Fと記載する。)17等と、計測処理部18とから構成されている。
The
音声信号処理回路11は、マイク34によって集音され、生成されたメモリカード等の記録媒体に記録された音声信号、メモリカード等の記録媒体を再生して得られる音声信号、あるいは計測処理部18によって生成された音声信号が供給される。
映像信号処理回路12は、CCU9から供給された内視鏡画像とグラフィックによる操作メニューとを合成した合成画像を表示するために、CCU9からの映像信号を計測処理部18の制御により生成する操作メニューに基づく表示信号とを合成する処理や、LCD5の画面上に表示するための所定の処理を施してLCD5に供給する。
The audio
The video
PCカードI/F15は、PCMCIAメモリカード32やコンパクトフラッシュ(登録商標)メモリカード33等の記録媒体であるメモリカードを自由に着脱できるようになっている。メモリカードを装着することにより、計測処理部18の制御によって、このメモリカードに記憶されている制御処理情報や画像情報等のデータを取り込み、あるいは制御処理情報や画像情報等のデータをメモリカードに記録することができる。
The PC card I / F 15 can freely attach and detach a memory card which is a recording medium such as the PCMCIA
USB I/F16は、コントロールユニット3とパーソナルコンピュータ31とを電気的に接続するためのインターフェースである。このUSB I/F16を介して、コントロールユニット3とパーソナルコンピュータ31とを電気的に接続することにより、パーソナルコンピュータ31側で内視鏡画像の表示の指示や計測時における画像処理等の各種の指示制御を行うことが可能となり、また、コントロールユニット3とパーソナルコンピュータ31との間での各種の処理情報やデータを入出力することができる。
The USB I / F 16 is an interface for electrically connecting the
RS−232C I/F17は、CCU9、内視鏡ユニット8及びこれらの制御および動作指示を行うリモートコントローラ4と接続されており、リモートコントローラ4の操作によって、CCU9、内視鏡ユニット8の動作を制御するための通信を行う。
The RS-232C I / F 17 is connected to the
また、計測処理部18は、図2に示すように、基準エッジ指定部41と、計測点指定部42と、制御部43と、エッジ近似部44と、仮想曲線形状変更部45と、欠損幅演算部46と、パラメトリック曲線選択部47と、エッジ抽出部48と、射影処理部49とから構成されている。
基準エッジ指定部41は、液晶モニタ5あるいは、フェイスマウントディスプレイ6に表示された計測対象物の画像上に、リモートコントローラ4等を用いて、エッジ部に指示された3点以上の基準点を入力し、これらの基準点の空間座標を制御部43に出力する。
Further, as shown in FIG. 2, the
The reference edge designating unit 41 inputs three or more reference points designated by the edge using the
計測点指定部42は、液晶モニタ5あるいは、フェイスマウントディスプレイ6に表示された計測対象物の画像上に、リモートコントローラ4等を用いて、指示された計測点を入力し、この計測点の空間座標を制御部43に出力する。
The measurement
制御部43は、図示しない記憶部を有し、基準エッジ指定部41あるいは計測点指定部42から入力した基準点、計測点の画像座標を空間座標に変換して格納する。また、仮想曲線形状変更部45やパラメトリック曲線選択部47からの指示により、所望の仮想曲線をエッジ近似部44に出力し、仮想曲線の形状変更情報を入力する。さらに、欠損幅演算部46から演算結果を入力し、そうした情報や仮想曲線の形状等を映像信号処理回路12に出力する。
The
エッジ近似部44は、基準エッジを選択された所望の仮想曲線により近似する。具体的には、制御部43から与えられるパラメータにより、所定の演算を行い、その結果を仮想曲線の係数として制御部43に出力する。
The
仮想曲線形状変更部45は、ユーザの選択に応じて、選択された仮想曲線形状の変更情報を制御部43に出力する。
欠損幅演算部46は、仮想曲線上で、定められた計測点の空間座標から計測点との距離が最小となる仮想点を求め、計測対象物の欠損幅を演算し、その結果を制御部43に出力する。
The virtual curve
The missing
パラメトリック曲線選択部47は、ユーザの選択に応じて、選択されたパラメトリック曲線情報を制御部43に出力する。
射影処理部49は、基準点や計測点、仮想点および仮想曲線の空間座標を画像座標に変換し、この情報を制御部43に出力する。
The parametric
The
次に、図4から図19を用いて、実施例1に係る計測用内視鏡装置における処理手順を説明する。
本実施例において、対象となる計測対象物は、図4に示されるように、欠けが発生した部位の形状が本来曲線であるものである。こうした計測対象物の欠けの深さを計測するには、図5に示すように、まず、内視鏡2の先端部21を液晶モニタ5あるいは、フェイスマウントディスプレイ6の表示を見ながら操作して、計測対象物の欠けの部分を表示させる。
Next, a processing procedure in the measurement endoscope apparatus according to the first embodiment will be described with reference to FIGS. 4 to 19.
In the present embodiment, the measurement target object is an object in which the shape of the part where the chip has occurred is originally a curve, as shown in FIG. In order to measure the depth of chipping of such a measurement object, as shown in FIG. 5, first, the
次に、計測対象物の欠け部分を表示させた状態で、図4に示すように、エッジの両端に3点の基準点(図中のR[0]、R[1]、R[2])を指定する(ステップ101)。3点の基準点が指定されると(ステップ201)、図13に示すように、基準エッジ指定部41が指定された3点の空間座標を算出して、その算出結果を制御部43に出力する(ステップ202)。なお、算出した空間座標は、制御部43を介さずに、射影処理部49に直接出力してもよい。
Next, in a state in which the missing portion of the measurement object is displayed, as shown in FIG. 4, three reference points (R [0], R [1], R [2] in the figure) are provided at both ends of the edge. ) Is designated (step 101). When the three reference points are designated (step 201), as shown in FIG. 13, the reference edge designation unit 41 calculates the designated three spatial coordinates and outputs the calculation result to the
空間座標の算出は、指定された基準点に対応する点を液晶モニタ5あるいは、フェイスマウントディスプレイ6に表示された参照画像上で探索し、三角測量の原理を用いて、数1のような空間座標を計算することにより行う。なお、この計算方法は、特許文献1に記載されているものと同様である。
The calculation of the spatial coordinates is performed by searching for a point corresponding to the designated reference point on the reference image displayed on the liquid crystal monitor 5 or the
次に、エッジ近似部44は、制御部43から算出された3つの基準点の空間座標を入力し、図14の手順にしたがって、この3点を通る2次曲線を仮想曲線として求める。仮想曲線の式はtをパラメータとして、数2のようになる。
Next, the
この数2に、数1のR[0]から[2]の3点の座標を代入し、R[0]でのtを0、R[1]でのtをp(ただし0<p<1)、R2でのtを1として数2の連立方程式の係数a[0]からa[2],b[0]からb[2],c[0]からc[2]を求める(ステップ301からステップ303)。
ここで、pは形状係数であり初期値はp=0.5として計算を行う。
Substituting the coordinates of the three points R [0] to [2] of
Here, p is a shape factor, and the initial value is calculated with p = 0.5.
具体的に、連立方程式の係数の算出は、xを例にとり、図15を参照しつつ説明すると、以下のようになる。
すなわち、連立方程式を以下、数3から数5に示す行列に置き換え、数6の3元連立方程式を解く。
Specifically, the calculation of the coefficients of the simultaneous equations will be described below with reference to FIG. 15 taking x as an example.
That is, the simultaneous equations are replaced by the matrices shown in
そして、Tの逆行列をT’としてAを求める(ステップ401から404)。同様の手順によりb[0]からb[2],c[0]からc[2]を求めることができる。
Then, A is obtained using the inverse matrix of T as T '(
求めた曲線に基づいて、入力画像への射影が射影処理部49において求められ、求められた画像座標が制御部43を介して、画像情報として液晶モニタ5あるいは、フェイスマウントディスプレイ6に出力される。そして、これが計測対象物の入力面像に重畳して表示される。
Based on the obtained curve, the projection on the input image is obtained by the
液晶モニタ5あるいは、フェイスマウントディスプレイ6に出力された仮想曲線の形状が適切でない場合(ステップ103)には、基準点の修正や形状係数の変更を行うことができる。すなわち、図5に示すように、メニューから修正機能が選択された場合には、形状係数の変更かあるいは基準点位置の修正かを操作者に選択させる。
When the shape of the virtual curve output to the liquid crystal monitor 5 or the
操作者が形状係数変更を選択した場合(ステップ105)、値の直接入力あるいは画面に表示されたスライドバーの移動により形状係数の変更を0から1の間で行い、ステップ102の処理に戻る。また、基準点位置の修正が選択された場合は(ステップ104)、基準点の移動ができる状態になり、基準点位置の修正が完了したら、ステップ101の処理へ戻る。これらの処理は、仮想曲線形状変更部45および制御部43によって実行される。
When the operator selects the shape factor change (step 105), the shape factor is changed between 0 and 1 by directly inputting a value or moving the slide bar displayed on the screen, and the processing returns to step 102. If correction of the reference point position is selected (step 104), the reference point can be moved. When the correction of the reference point position is completed, the process returns to step 101. These processes are executed by the virtual curve
なお、形状係数の変更に伴う放物線の形状の変化は、図7から図11に示すようになる。ここで、図7はp=0.2の場合の放物線の形状を、図8はp=0.3の場合の放物線の形状を、図9はp=0.4の場合の放物線の形状を、図10はp=0.5の場合の放物線の形状を、図11はp=0.6の場合の放物線の形状を示したものである。 In addition, the change of the shape of the parabola accompanying the change of the shape factor is as shown in FIGS. 7 shows the shape of a parabola when p = 0.2, FIG. 8 shows the shape of a parabola when p = 0.3, and FIG. 9 shows the shape of a parabola when p = 0.4. FIG. 10 shows the shape of the parabola when p = 0.5, and FIG. 11 shows the shape of the parabola when p = 0.6.
この例によれば、pの値を1に近づけると、3点ある基準点のうちの上から2点の間の曲線形状が直線に近づき、下から2点の間の曲線の曲率が大きくなるのがわかる。
したがって、計測対象物のエッジ形状を画像で確認しながら、pの値を操作すれば、エッジ形状に近似した仮想曲線を設定することができる。
According to this example, when the value of p is close to 1, the curve shape between two points from the top of the three reference points approaches a straight line, and the curvature of the curve between the two points from the bottom increases. I understand.
Therefore, if the value of p is manipulated while confirming the edge shape of the measurement object with an image, a virtual curve approximating the edge shape can be set.
次に、計測点指定部42が計測点の情報を入力すると(ステップ301)、計測点の対応点を計測対象物の画像上で探索し、三角測量の原理で計測点の空間座標を数7のように計算して制御部43に出力する(ステップ106、ステップ502)。
Next, when the measurement
欠損幅検出部46は、制御部43から仮想曲線に関する情報と、計測点の空間座標とを入力し、仮想曲線上の点で計測点との距離を求め(ステップ601)、ついで、その距離が最小となる仮想点を数8の範囲で求める(ステップ602)。求めた仮想点の空間座標は、射影処理部49に入力され、画像への射影が計算される(ステップ603)。そして、求めた仮想点の射影を画像上に描画する(ステップ604)。
なお、T_MIN、T_MAXはあらかじめ設定したtの最大、最小値である。
The missing
T_MIN and T_MAX are preset maximum and minimum values of t.
次に、求めた仮想点を数9とする。
Next, the calculated virtual point is represented by
そして、求めた仮想点と計測点の距離を数10により求める(ステップ107)。 Then, the distance between the obtained virtual point and the measurement point is obtained by Equation 10 (step 107).
さらに、求めた距離を計測結果として液晶モニタ5あるいは、フェイスマウントディスプレイ6に表示する(ステップ108)。
Further, the obtained distance is displayed on the liquid crystal monitor 5 or the
本実施例は、実施例1に対して、基準点列の数を4点としたものである。本実施例においては、この4点目の空間座標を用い、p値の最適化を行う。これにより仮想曲線の修正は基準点位置の修正を行うのみで十分となる。 In the present embodiment, the number of reference point sequences is four compared to the first embodiment. In this embodiment, the p-value is optimized using the fourth spatial coordinate. As a result, the correction of the virtual curve is sufficient only by correcting the reference point position.
最適化は次のように行う。まず、実施例1での仮想点入力処理と同様に、仮想曲線上の点で4点目の基準点との距離Lが最小となる点を求める。次に、その点でのtの値であるt’を使い、p=t'とすることで、pの最適化を行う。 Optimization is performed as follows. First, similarly to the virtual point input process in the first embodiment, the point on the virtual curve that minimizes the distance L from the fourth reference point is obtained. Next, t is optimized by using t ′ which is the value of t at that point and setting p = t ′.
ここで、Lが所定の値L_TOLよりも小さくならない場合は、すべての基準点を滑らかにつなぐ仮想曲線が求まらず、定られた基準点列に仮想曲線を求める上で、不適切な点が含まれていることを意味する。従ってこの場合は、「基準点位置を修正してください。」という警告表示を液晶モニタ5あるいは、フェイスマウントディスプレイ6に行い、操作者に基準点位置の修正を促す。
これによって、基準点の位置が適切に指定されていれば、形状係数を操作者が変更する手間をかけることなく、適した仮想曲線を求めることができる。
Here, if L does not become smaller than the predetermined value L_TOL, an imaginary curve that smoothly connects all the reference points cannot be obtained. Is included. Accordingly, in this case, a warning message “Please correct the reference point position” is displayed on the liquid crystal monitor 5 or the
As a result, if the position of the reference point is appropriately specified, a suitable virtual curve can be obtained without taking the effort of changing the shape factor by the operator.
本実施例は、あらかじめメニューからの設定により、どの仮想曲線で計測対象物のエッジを近似するかを選択する選択手段を備えている。これにより、計測対象物のエッジ形状が特定の曲線で設定されているかが判明している場合、より正確にエッジ形状を推定することができる。 The present embodiment includes selection means for selecting which virtual curve approximates the edge of the measurement object in advance by setting from the menu. Thereby, when it is determined whether the edge shape of the measurement object is set by a specific curve, the edge shape can be estimated more accurately.
ここで、選択された仮想曲線が2次式であるなら、実施例1と同様の処理になる。選択された仮想曲線が3次式なら、その処理は、以下のようになる。
すなわち、この場合、基準点列は、数11のように4点となる。
Here, if the selected virtual curve is a quadratic expression, the processing is the same as in the first embodiment. If the selected virtual curve is a cubic equation, the processing is as follows.
That is, in this case, the reference point sequence is four points as shown in
このとき、仮想曲線の式はtをパラメータとして、数12のようになる。
At this time, the equation of the virtual curve is expressed by
そこで、この式にR[0]からR[3]の4点の座標を代入し、R[0]でのtを0、R[1]でのtをp1(ただし0<p1<1)、R[2]でのtを、p1+(1−p1)*p2(ただし0<p2<1)、R[3]でのtを1として連立方程式を解き、a[0]からa[3],b[0]からb[3],c[0]からc[3]を求める。
ここで、p1,p2は形状係数であり初期値はp1=0.3、p2=0.5として計算を行う。
Therefore, the coordinates of four points from R [0] to R [3] are substituted into this equation, t at R [0] is 0, and t at R [1] is p1 (where 0 <p1 <1) , R [2] is set to p1 + (1−p1) * p2 (where 0 <p2 <1), and t in R [3] is set to 1 to solve the simultaneous equations, and a [0] to a [3 ], B [0] to b [3] and c [0] to c [3] are obtained.
Here, p1 and p2 are shape factors, and the initial values are calculated with p1 = 0.3 and p2 = 0.5.
形状係数の変更は2つの数字の入力を行うか、2つのスライドバーの移動によって指定する(図5参照)。選択された式が3次スプラインの場合はN点(N >3)の基準点を指定する。
i=0.1,・・・,N−1について、基準点R[j]でのパラメータt[j]は、基準点間の距離を用い、数13のようになり、数14の関数のI=0、・・・N−1の組が与えられた場合、数15の区間を、数16のように表す。
The shape factor is changed by inputting two numbers or by moving two slide bars (see FIG. 5). If the selected expression is a cubic spline, N points (N> 3) are designated as reference points.
For i = 0.1,..., N−1, the parameter t [j] at the reference point R [j] is expressed by the following
ただし、A、B、C、Dは、数17であり、y2[j]は、数18の連立方程式の解である。なお、tan(a)はaの正接を表し、PIは円周率を表す。また、pl,p2は形状係数であり、−1<p1<1,−1<p2<1 である。2つの形状係数の初期値は0とし、形状係数の変更は2つの数字の入力か、2つのスライドバーの移動によって指定する。そして、x, y, zそれぞれについて、R[0]〜R[N-1]を用いてfを求め、仮想曲線の式とする。
However, A, B, C, and D are
本実施例においては、仮想点位置修正機能が付加されている。メニューから、この機能が選択されると形状係数変更と同様のスライドバーが表示され、このスライドバーの操作に運動して仮想点が仮想曲線上を移動する。計測結果はこの変更された仮想点の座標と計測点の座標から求めて表示される。 In this embodiment, a virtual point position correction function is added. When this function is selected from the menu, a slide bar similar to the shape factor change is displayed, and the virtual point moves on the virtual curve in response to the operation of the slide bar. A measurement result is obtained and displayed from the coordinates of the changed virtual point and the coordinates of the measurement point.
ここまでに説明してきた上記の実施例においては、欠け部分の両側にエッジが残っている場合には、正確な計測を行うことができるが、仮想点を計測点に最も近い仮想曲線上の点としているため、図6に示すような角が欠けた計測対象物に適用すると、結果が不正確になる場合がある。
しかし、本実施例によれば、角が欠けた計測対象物に適用しても、正確な結果を得ることができる。
In the above-described embodiments described so far, when edges remain on both sides of the chipped portion, accurate measurement can be performed, but the virtual point is a point on the virtual curve closest to the measurement point. Therefore, when applied to a measurement object with missing corners as shown in FIG. 6, the result may be inaccurate.
However, according to the present embodiment, an accurate result can be obtained even when applied to a measurement object with missing corners.
本実施例は、図3に示すように、図2に対して、エッジ抽出部48、エッジ選択部50、微分フィルタ選択部51、エッジ検出閾値変更部52が付加された構成となっている。本実施例は、エッジ抽出部48により抽出されたエッジ、あるいは複数のエッジが抽出された場合に、その中から選択されたエッジに対して仮想曲線の当てはめを行い、仮想曲線を求めるものである。
As shown in FIG. 3, the present embodiment has a configuration in which an
以下、図18および図19を用いて、具体的な処理について説明する。
まず、計測対象物を捉えた観察画像に微分フィルタを適用し(ステップ801)、微分値が閾値以上の画素を抽出する(ステップ802)。適用するフィルタはSobelフィルタ、Rovertsフィルタ、Prewlttフィルタなどの複数のフィルタから選択できるようになっている。微分フィルタ適用時には、同時にエッジ方向も計算する。
Hereinafter, specific processing will be described with reference to FIGS. 18 and 19.
First, a differential filter is applied to the observation image capturing the measurement object (step 801), and pixels whose differential value is equal to or greater than a threshold value are extracted (step 802). The filter to be applied can be selected from a plurality of filters such as a Sobel filter, a Roverts filter, and a Prewltt filter. When applying the differential filter, the edge direction is also calculated at the same time.
例えば、Sobelフィルタを用いる場合、座標i,jの微分値g(i,j)は画素値をfとして、数19のようになり、エッジ方向tは、数20となる。ただし、atan(a)はaの正接の逆関数(アークタンジェント)を表す。
For example, when the Sobel filter is used, the differential value g (i, j) of the coordinates i and j is expressed by Equation 19 with the pixel value being f, and the edge direction t is expressed by
次に、細線化処理を行い、ノイズを除去する(ステップ803)。このとき、通常、複数のエッジが検出されるため、検出したそれぞれのエッジにラベリングを行う(ステップ804)。各エッジ上の点についてエッジ方向の変化量を求め、2階微分が0となる点、すなわち変曲点でエッジを分割し、別のラベルをつける(ステップ701、805)。 Next, thinning processing is performed to remove noise (step 803). At this time, since a plurality of edges are usually detected, each detected edge is labeled (step 804). The amount of change in the edge direction is obtained for each point on the edge, and the edge is divided at the point where the second derivative becomes 0, that is, the inflection point, and another label is attached (steps 701 and 805).
そして、エッジの選択を行って(ステップ702)、エッジ上の点の空間座標を求める(ステップ703)。次に、選択されたエッジについてハフ変換を適用し、2次曲線を当てはめる(ステップ704)。求めた曲線の入力画像への射影を求め、入力画像に重畳して表示する。表示された曲線に問題がないと操作者が判断すれば計測点入力へ、問題があれば微分フィルタの種類、あるいはエッジ検出の閾値を変更して再度エッジ抽出(ステップ701)を行う(ステップ705)。 Then, the edge is selected (step 702), and the spatial coordinates of the point on the edge are obtained (step 703). Next, a Hough transform is applied to the selected edge to fit a quadratic curve (step 704). The projection of the obtained curve onto the input image is obtained, and is displayed superimposed on the input image. If the operator determines that there is no problem with the displayed curve, the measurement point input is performed. If there is a problem, the type of the differential filter or the threshold value for edge detection is changed to perform edge extraction (step 701) again (step 705). ).
基準画像上で計測点が入力されると、計測点の対応点を参照画像上で探索し、三角測量の原理で計測点の空間座標を数21のように計算する(ステップ706)。
When the measurement point is input on the reference image, the corresponding point of the measurement point is searched on the reference image, and the spatial coordinates of the measurement point are calculated as shown in
計測点の空間座標が算出されると、仮想曲線上の点で計測点との距離が最小となる仮想点を求める(ステップ707)。そして、求めた仮想点を数22とする。
When the spatial coordinates of the measurement point are calculated, a virtual point having a minimum distance from the measurement point at a point on the virtual curve is obtained (step 707). Then, the calculated virtual point is represented by
次に、求めた仮想点と計測点の距離を数23に基づいて求める(ステップ708)。そして、仮想点の入力画像上への射影を求め、観察画像に重畳して表示するとともに、求めた距離を計測結果として表示する(ステップ709)。 Next, the distance between the calculated virtual point and the measurement point is determined based on Equation 23 (step 708). Then, the projection of the virtual point on the input image is obtained and displayed superimposed on the observation image, and the obtained distance is displayed as a measurement result (step 709).
したがって、これまで説明してきた上記の実施例においては、基準点の入力が不正確な場合には計測結果も不正確になるという問題があるが、本実施例においては、エッジの検出を自動的に行うため、精密に基準点を指定する必要なく、操作者の負荷が大幅に軽減される。また、操作者の誤操作による精度の低下の可能性を減らすことができる。 Therefore, in the above-described embodiments described so far, there is a problem that the measurement result becomes inaccurate when the input of the reference point is inaccurate. However, in this embodiment, the edge detection is automatically performed. Therefore, it is not necessary to specify the reference point precisely, and the load on the operator is greatly reduced. In addition, the possibility of a decrease in accuracy due to an erroneous operation by the operator can be reduced.
以上、図面を参照して本発明の実施の形態について詳述してきたが、具体的な構成はこれらの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。 As described above, the embodiments of the present invention have been described in detail with reference to the drawings, but the specific configuration is not limited to these embodiments, and includes design changes and the like within a scope not departing from the gist of the present invention. It is.
2・・・内視鏡、3・・・コントロールユニット、4・・・リモートコントローラ、5・・・液晶モニタ、6・・・フェイスマウントディスプレイ(FMD)、6a・・・FMDアダプタ、7a、7b、7c・・・光学アダプタ、8・・・内視鏡ユニット、9・・・カメラコントロールユニット、10・・・制御ユニット、11・・・音声信号処理回路、12・・・映像信号処理回路、13・・・ROM、14・・・RAM、15・・・PCカードインターフェース、16・・・USBインターフェース、17・・・RS−232Cインターフェース、18・・・計測処理部、41・・・基準エッジ指定部、42・・・計測点指定部、43・・・制御部、44・・・エッジ近似部、45・・・仮想曲線形状変更部、46・・・欠損幅演算部、47・・・パラメトリック曲線選択部、48・・・エッジ抽出部、49・・・射影処理部、
2 ... endoscope, 3 ... control unit, 4 ... remote controller, 5 ... liquid crystal monitor, 6 ... face mount display (FMD), 6a ... FMD adapter, 7a, 7b 7c: Optical adapter, 8: Endoscope unit, 9: Camera control unit, 10: Control unit, 11: Audio signal processing circuit, 12: Video signal processing circuit, 13 ... ROM, 14 ... RAM, 15 ... PC card interface, 16 ... USB interface, 17 ... RS-232C interface, 18 ... measurement processing unit, 41 ... reference edge Designating part, 42 ... Measuring point designating part, 43 ... Control part, 44 ... Edge approximating part, 45 ... Virtual curve shape changing part, 46 ... Missing width calculating part, 7 ... parametric curve selection unit, 48 ... edge extraction unit, 49 ... projection section,
Claims (9)
該電子内視鏡に接続され、前記撮像手段からの撮像信号に基づいて映像信号を生成する画像処理手段と、
該画像処理手段で生成された映像信号を入力し、前記計測対象物の計測処理を行う計測処理手段とを備えた制御装置と、
該制御装置の指示に基づいて出力される出力画像を表示する表示装置とを有し、
前記計測処理手段が計測対象物の輪郭線の一部を基準エッジとして指定する基準エッジ指定手段と、
前記計測対象物上のある点を計測点として指定する計測点指定手段と、
前記基準エッジをパラメトリック曲線で補間した仮想曲線として近似するエッジ近似手段と、
該仮想曲線上の特定の点である仮想点と、前記計測点との距離を求める欠損幅演算手段とを有することを特徴とする計測用内視鏡装置。 An electronic endoscope provided with an imaging means for imaging a measurement object;
An image processing means connected to the electronic endoscope for generating a video signal based on an imaging signal from the imaging means;
A control device including a video signal generated by the image processing means and a measurement processing means for performing measurement processing of the measurement object;
A display device that displays an output image output based on an instruction of the control device;
A reference edge designating unit for designating a part of the outline of the measurement object as a reference edge by the measurement processing unit;
Measurement point designating means for designating a point on the measurement object as a measurement point;
Edge approximating means for approximating the reference edge as a virtual curve interpolated with a parametric curve;
An endoscope apparatus for measurement, comprising: a virtual point which is a specific point on the virtual curve; and a missing width calculation means for obtaining a distance between the measurement point and the virtual point.
前記表示手段が、前記仮想曲線を該射影処理手段において処理した射影仮想曲線と、前記撮像手段において撮像された前記計測対象物の画像とを重畳表示することを特徴とする請求項1から請求項3のいずれかに記載された計測用内視鏡装置。 Having projection processing means for converting spatial coordinates into image coordinates;
2. The display unit according to claim 1, wherein the display unit superimposes a projected virtual curve obtained by processing the virtual curve by the projection processing unit and an image of the measurement object captured by the imaging unit. An endoscope apparatus for measurement described in any one of 3 above.
The measurement endoscope apparatus according to claim 1, further comprising an edge extraction unit configured to extract an edge of the measurement object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004011797A JP4790223B2 (en) | 2004-01-20 | 2004-01-20 | Endoscope device for measurement |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004011797A JP4790223B2 (en) | 2004-01-20 | 2004-01-20 | Endoscope device for measurement |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2005204724A true JP2005204724A (en) | 2005-08-04 |
JP2005204724A5 JP2005204724A5 (en) | 2007-03-08 |
JP4790223B2 JP4790223B2 (en) | 2011-10-12 |
Family
ID=34898385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004011797A Expired - Fee Related JP4790223B2 (en) | 2004-01-20 | 2004-01-20 | Endoscope device for measurement |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4790223B2 (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008206956A (en) * | 2007-01-31 | 2008-09-11 | Olympus Corp | Endoscope device for measurement |
JP2008295512A (en) * | 2007-05-29 | 2008-12-11 | Olympus Corp | Endoscope apparatus for measurement, and program |
JP2009014914A (en) * | 2007-07-03 | 2009-01-22 | Olympus Corp | Endoscope device for measurement |
JP2009282379A (en) * | 2008-05-23 | 2009-12-03 | Olympus Corp | Endoscope and program |
JP2010008394A (en) * | 2008-05-26 | 2010-01-14 | Olympus Corp | Endoscopic device and program |
JP2011059742A (en) * | 2009-09-04 | 2011-03-24 | Olympus Corp | Image processing apparatus and program |
US8200042B2 (en) | 2007-01-31 | 2012-06-12 | Olympus Corporation | Endoscope apparatus and program |
US8675950B2 (en) | 2009-07-31 | 2014-03-18 | Olympus Corporation | Image processing apparatus and image processing method |
US8791998B2 (en) | 2009-07-31 | 2014-07-29 | Olympus Corporation | Image processing apparatus and method for displaying images |
JP2014140402A (en) * | 2013-01-22 | 2014-08-07 | Olympus Corp | Measuring device and program |
US8903144B2 (en) | 2010-12-01 | 2014-12-02 | Olympus Corporation | Endoscope apparatus and method of measuring object |
US8913110B2 (en) | 2010-03-09 | 2014-12-16 | Olympus Corporation | Endoscope apparatus and measurement method |
US8965103B2 (en) | 2009-07-16 | 2015-02-24 | Olympus Corporation | Image processing apparatus and image processing method |
JP2019049507A (en) * | 2017-09-12 | 2019-03-28 | 大同特殊鋼株式会社 | Method and apparatus for detecting defects |
CN113256795A (en) * | 2021-05-31 | 2021-08-13 | 中国科学院长春光学精密机械与物理研究所 | Endoscopic three-dimensional detection method |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04198741A (en) * | 1990-11-28 | 1992-07-20 | Hitachi Ltd | Shape defect detecting device |
JPH0727519A (en) * | 1993-07-12 | 1995-01-27 | Olympus Optical Co Ltd | Endoscope device |
JPH09113467A (en) * | 1995-10-20 | 1997-05-02 | Hitachi Metals Ltd | Method for deciding defect |
JPH09281055A (en) * | 1996-04-09 | 1997-10-31 | Hitachi Metals Ltd | Inspection method for chip |
JPH10115513A (en) * | 1996-08-23 | 1998-05-06 | Aisin Seiki Co Ltd | Apparatus for measuring and plotting surface shape |
JPH10248806A (en) * | 1997-03-12 | 1998-09-22 | Olympus Optical Co Ltd | Measuring endoscopic device |
JP2001075019A (en) * | 1999-09-01 | 2001-03-23 | Olympus Optical Co Ltd | Endoscope device |
JP2001087290A (en) * | 1999-09-24 | 2001-04-03 | Ngk Spark Plug Co Ltd | Filling artificial bone designing system and manufacture of filling artificial bone using the system |
JP2001241926A (en) * | 2000-03-02 | 2001-09-07 | Toray Ind Inc | Method and apparatus for inspecting body |
JP2001324313A (en) * | 2000-05-16 | 2001-11-22 | Koichi Nakano | Three-dimensional shape measuring instrument |
JP2002214157A (en) * | 2001-01-18 | 2002-07-31 | Kawasaki Heavy Ind Ltd | Flaw detecting method and device for plate-like body |
JP2002336188A (en) * | 2001-05-21 | 2002-11-26 | Olympus Optical Co Ltd | Endoscope system for measurement |
JP2002345735A (en) * | 2001-05-30 | 2002-12-03 | Olympus Optical Co Ltd | Image processing measurement device and measurement endoscope |
JP2003070719A (en) * | 2001-08-31 | 2003-03-11 | Olympus Optical Co Ltd | Measurement endoscope |
-
2004
- 2004-01-20 JP JP2004011797A patent/JP4790223B2/en not_active Expired - Fee Related
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04198741A (en) * | 1990-11-28 | 1992-07-20 | Hitachi Ltd | Shape defect detecting device |
JPH0727519A (en) * | 1993-07-12 | 1995-01-27 | Olympus Optical Co Ltd | Endoscope device |
JPH09113467A (en) * | 1995-10-20 | 1997-05-02 | Hitachi Metals Ltd | Method for deciding defect |
JPH09281055A (en) * | 1996-04-09 | 1997-10-31 | Hitachi Metals Ltd | Inspection method for chip |
JPH10115513A (en) * | 1996-08-23 | 1998-05-06 | Aisin Seiki Co Ltd | Apparatus for measuring and plotting surface shape |
JPH10248806A (en) * | 1997-03-12 | 1998-09-22 | Olympus Optical Co Ltd | Measuring endoscopic device |
JP2001075019A (en) * | 1999-09-01 | 2001-03-23 | Olympus Optical Co Ltd | Endoscope device |
JP2001087290A (en) * | 1999-09-24 | 2001-04-03 | Ngk Spark Plug Co Ltd | Filling artificial bone designing system and manufacture of filling artificial bone using the system |
JP2001241926A (en) * | 2000-03-02 | 2001-09-07 | Toray Ind Inc | Method and apparatus for inspecting body |
JP2001324313A (en) * | 2000-05-16 | 2001-11-22 | Koichi Nakano | Three-dimensional shape measuring instrument |
JP2002214157A (en) * | 2001-01-18 | 2002-07-31 | Kawasaki Heavy Ind Ltd | Flaw detecting method and device for plate-like body |
JP2002336188A (en) * | 2001-05-21 | 2002-11-26 | Olympus Optical Co Ltd | Endoscope system for measurement |
JP2002345735A (en) * | 2001-05-30 | 2002-12-03 | Olympus Optical Co Ltd | Image processing measurement device and measurement endoscope |
JP2003070719A (en) * | 2001-08-31 | 2003-03-11 | Olympus Optical Co Ltd | Measurement endoscope |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008206956A (en) * | 2007-01-31 | 2008-09-11 | Olympus Corp | Endoscope device for measurement |
US8194948B2 (en) | 2007-01-31 | 2012-06-05 | Olympus Corporation | Instrumentation endoscope apparatus |
US8200042B2 (en) | 2007-01-31 | 2012-06-12 | Olympus Corporation | Endoscope apparatus and program |
JP2008295512A (en) * | 2007-05-29 | 2008-12-11 | Olympus Corp | Endoscope apparatus for measurement, and program |
JP2009014914A (en) * | 2007-07-03 | 2009-01-22 | Olympus Corp | Endoscope device for measurement |
JP2009282379A (en) * | 2008-05-23 | 2009-12-03 | Olympus Corp | Endoscope and program |
JP2010008394A (en) * | 2008-05-26 | 2010-01-14 | Olympus Corp | Endoscopic device and program |
US8965103B2 (en) | 2009-07-16 | 2015-02-24 | Olympus Corporation | Image processing apparatus and image processing method |
US8675950B2 (en) | 2009-07-31 | 2014-03-18 | Olympus Corporation | Image processing apparatus and image processing method |
US8791998B2 (en) | 2009-07-31 | 2014-07-29 | Olympus Corporation | Image processing apparatus and method for displaying images |
JP2011059742A (en) * | 2009-09-04 | 2011-03-24 | Olympus Corp | Image processing apparatus and program |
US8913110B2 (en) | 2010-03-09 | 2014-12-16 | Olympus Corporation | Endoscope apparatus and measurement method |
US8903144B2 (en) | 2010-12-01 | 2014-12-02 | Olympus Corporation | Endoscope apparatus and method of measuring object |
JP2014140402A (en) * | 2013-01-22 | 2014-08-07 | Olympus Corp | Measuring device and program |
US10019643B2 (en) | 2013-01-22 | 2018-07-10 | Olympus Corporation | Measurement apparatus and program |
JP2019049507A (en) * | 2017-09-12 | 2019-03-28 | 大同特殊鋼株式会社 | Method and apparatus for detecting defects |
CN113256795A (en) * | 2021-05-31 | 2021-08-13 | 中国科学院长春光学精密机械与物理研究所 | Endoscopic three-dimensional detection method |
CN113256795B (en) * | 2021-05-31 | 2023-10-03 | 中国科学院长春光学精密机械与物理研究所 | Endoscopic three-dimensional detection method |
Also Published As
Publication number | Publication date |
---|---|
JP4790223B2 (en) | 2011-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4790223B2 (en) | Endoscope device for measurement | |
JP4873794B2 (en) | Image processing measuring apparatus and measuring endoscope apparatus | |
US8913110B2 (en) | Endoscope apparatus and measurement method | |
JP4632577B2 (en) | Measuring endoscope device | |
US20110187824A1 (en) | Endoscope apparatus and measurement method | |
JP5574555B2 (en) | Endoscope device | |
US11941749B2 (en) | Image display method, display control device, and recording medium for displaying shape image of subject and coordinates estimated from two-dimensional coordinates in reference image projected thereon | |
JP2019045249A (en) | Measuring device and method for operating measuring device | |
US9113806B2 (en) | Endoscope apparatus for measuring a spatial characteristic | |
JP5307407B2 (en) | Endoscope apparatus and program | |
JP2005348870A (en) | Measurement endoscope | |
CN110858397A (en) | Measuring device, method for operating measuring device, and storage medium | |
JP4674093B2 (en) | Endoscope apparatus and program | |
JP6081209B2 (en) | Endoscope apparatus and program | |
JP2008185895A (en) | Endoscope device for measurement | |
JP5361246B2 (en) | Endoscope apparatus and program | |
JP5602449B2 (en) | Endoscope device | |
JP6400767B2 (en) | Measuring endoscope device | |
JP5127302B2 (en) | Endoscope device for measurement and program | |
JP2021071516A (en) | Imaging apparatus and method for controlling imaging apparatus | |
US20120100512A1 (en) | Inspection apparatus and inspection method | |
JP5791989B2 (en) | Endoscope apparatus and program | |
US20120107780A1 (en) | Inspection apparatus and inspection method | |
JP6120537B2 (en) | Measuring endoscope device | |
JP2006020746A (en) | Image display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070119 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091215 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100210 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20100212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100831 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101028 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20101029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110705 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110720 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140729 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4790223 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |