JP5231173B2 - Endoscope device for measurement and program - Google Patents
Endoscope device for measurement and program Download PDFInfo
- Publication number
- JP5231173B2 JP5231173B2 JP2008281474A JP2008281474A JP5231173B2 JP 5231173 B2 JP5231173 B2 JP 5231173B2 JP 2008281474 A JP2008281474 A JP 2008281474A JP 2008281474 A JP2008281474 A JP 2008281474A JP 5231173 B2 JP5231173 B2 JP 5231173B2
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- image
- measurement result
- image data
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Endoscopes (AREA)
- Measurement Of Optical Distance (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Automatic Focus Adjustment (AREA)
Description
本発明は、画像データを用いて三角測量の原理による計測を行う計測用内視鏡装置、およびその動作を制御するためのプログラムに関する。 The present invention relates to a measurement endoscope apparatus that performs measurement based on the principle of triangulation using image data, and a program for controlling the operation thereof.
工業用内視鏡は、ボイラー、タービン、エンジン、化学プラント、水道配管等の内部の傷や腐食等の観察や検査に使用されている。工業用内視鏡では、多様な観察物を観察および検査することができるようにするため、複数種類の光学アダプタが用意されており、内視鏡の先端部分は交換可能となっている。 Industrial endoscopes are used for observation and inspection of internal scratches and corrosion of boilers, turbines, engines, chemical plants, water pipes, and the like. In an industrial endoscope, a plurality of types of optical adapters are prepared so that various observation objects can be observed and inspected, and the distal end portion of the endoscope is replaceable.
上記の光学アダプタとして、観察光学系に左右2つの視野を形成するステレオ光学アダプタがある。特許文献1には、ステレオ光学アダプタを使用し、被写体像を左右の光学系で捉えたときの左右の光学系測距点の座標に基づいて、三角測量の原理を使用して被写体の3次元空間座標を求め、被写体上の2点間の距離を計測する計測用内視鏡装置が記載されている。また、特許文献2には、同様に三角測量の原理を使用して高速に被写体の3次元空間座標を求め、被写体までの距離(物体距離)をリアルタイムに計測する計測用内視鏡装置が記載されている。
図24および図25は、計測用内視鏡装置の表示装置が表示する画面(以下、表示画面と記載)を示している。図24は2点間距離を計測する場合の表示画面を示し、図25は物体距離を計測する場合の表示画面を示している。図24に示す表示画面2400には、光学アダプタで捉えられた左右の被写体像に対応した左画像2410と右画像2420が表示される。同様に、図25に示す表示画面2500には左画像2510と右画像2520が表示される。
24 and 25 show screens (hereinafter referred to as display screens) displayed by the display device of the measurement endoscope apparatus. FIG. 24 shows a display screen when measuring the distance between two points, and FIG. 25 shows a display screen when measuring the object distance. On the
図24に示すように、ユーザが左画像2410における被写体2430上の計測点2440a,2440bを指定すると、各計測点に対応した右画像2420上の対応点2450a,2450bの位置を画像のパターンマッチングにより計算するマッチング処理が行われる。続いて、計測点2440aおよびその対応点2450aの二次元座標と光学データとから、計測点2440aに対応した被写体上の第1の点の3次元座標が計算される。同様に、計測点2440bおよびその対応点2450bの二次元座標と光学データとから、計測点2440bに対応した被写体上の第2の点の3次元座標が計算される。上記第1の点と第2の点の3次元座標から2点間距離が計算され、計測結果2460として表示される。
As shown in FIG. 24, when the user designates
また、図25に示すように、ユーザが左画像2510における被写体2530上の計測点2540を指定すると、計測点2540に対応した右画像2520上の対応点2550の位置がマッチング処理により計算される。続いて、計測点2540およびその対応点2550の二次元座標と光学データとから、計測点2540に対応した被写体上の点の3次元座標が計算される。この点の3次元座標から物体距離が計算され、計測結果2560として表示される。
As shown in FIG. 25, when the user designates a
しかし、計測に用いる画像が明るすぎる、または暗すぎるというように画像の輝度が適切でない場合や、画像上に特徴となる模様がない場合、あるいは被写体までの距離が遠すぎて計測精度を確保しにくい場合には、マッチング処理が失敗することがあった。例えば、図24では計測点2440bに関するマッチング処理が失敗しており、図25では計測点2540に関するマッチング処理が失敗している。この結果、誤った計測結果が表示されていた。
However, when the image used for measurement is too bright or too dark, such as when the brightness of the image is not appropriate, or when there is no characteristic pattern on the image, or the distance to the subject is too far, the measurement accuracy is ensured. If it is difficult, the matching process may fail. For example, in FIG. 24, the matching process related to the
計測結果が誤っていることが即座に分かれば、計測をやり直すことも可能である。しかし、計測を行った時点で、左画像上で指定された計測点に対応した右画像上の点がマッチング処理によって正しく計算されているか否かを確認しなかったために、計測結果が誤っていることにユーザが気付かず、後になって計測結果が誤っていることが分かった場合、例えば計測を最初からやり直すことになり、ユーザの作業効率が低下していた。 If it is immediately known that the measurement result is incorrect, the measurement can be performed again. However, at the time of measurement, the measurement result is incorrect because it was not confirmed whether the point on the right image corresponding to the measurement point specified on the left image was correctly calculated by the matching process. In particular, when the user is not aware of it and later finds that the measurement result is incorrect, for example, the measurement is restarted from the beginning, and the work efficiency of the user is reduced.
本発明は、上述した課題に鑑みてなされたものであって、ユーザの作業効率を向上させることができる計測用内視鏡装置を提供することを目的とする。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a measurement endoscope apparatus that can improve the work efficiency of a user.
本発明は、上記の課題を解決するためになされたもので、被写体像を光電変換し撮像信号を生成する内視鏡と、前記撮像信号を処理し画像データを生成する撮像信号処理手段と、前記画像データを用いて三角測量の原理による計測を実行する計測手段と、計測結果を表示するための表示信号を生成する表示信号生成手段と、前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、判定結果に応じた制御を実行する制御手段と、を備え、前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、同一被写体に関する一の被写体像における計測点に対応した他の被写体像における対応点を修正する修正モードに移行する制御を実行することを特徴とする計測用内視鏡装置である。
また、本発明は、被写体像を光電変換し撮像信号を生成する内視鏡と、前記撮像信号を処理し画像データを生成する撮像信号処理手段と、前記画像データを用いて三角測量の原理による計測を実行する計測手段と、計測結果を表示するための表示信号を生成する表示信号生成手段と、前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、判定結果に応じた制御を実行する制御手段と、を備え、前記計測手段は、第1の被写体像上の計測点と、第2の被写体像上において前記計測点に対応した対応点とに基づいて前記計測を実行し、前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、前記対応点を含む領域よりも先に前記計測結果を表示する制御を実行することを特徴とする計測用内視鏡装置である。
The present invention has been made in order to solve the above-described problem. An endoscope that photoelectrically converts a subject image to generate an imaging signal; an imaging signal processing unit that processes the imaging signal to generate image data; A measurement unit that performs measurement based on the principle of triangulation using the image data, a display signal generation unit that generates a display signal for displaying the measurement result, and the reliability of the measurement result based on the image data A determination unit for determining, and a control unit for executing control according to the determination result . When the control unit determines that the reliability of the measurement result is low, the measurement of one subject image related to the same subject is performed. An endoscope apparatus for measurement, characterized by executing control for shifting to a correction mode for correcting a corresponding point in another subject image corresponding to a point .
In addition, the present invention is based on the principle of triangulation using the image data, an endoscope that photoelectrically converts a subject image to generate an imaging signal, an imaging signal processing unit that processes the imaging signal and generates image data, and the image data. Measuring means for executing measurement, display signal generating means for generating a display signal for displaying the measurement result, determination means for determining the reliability of the measurement result based on the image data, and according to the determination result Control means for executing control, wherein the measurement means performs the measurement based on a measurement point on the first subject image and a corresponding point corresponding to the measurement point on the second subject image. When the control means determines that the reliability of the measurement result is low, the control means executes a control for displaying the measurement result before the area including the corresponding point. It is a mirror device.
また、本発明の計測用内視鏡装置において、前記制御手段は、前記計測結果の信頼性を判定し、判定結果に応じて前記計測結果の表示形態を制御することを特徴とする。 In the measurement endoscope apparatus of the present invention, the control unit determines the reliability of the measurement result and controls the display form of the measurement result according to the determination result.
また、本発明の計測用内視鏡装置において、前記制御手段は、被写体上の計測位置から前記内視鏡の結像面までの距離の値に応じて前記計測結果の表示形態を制御することを特徴とする。 In the measurement endoscope apparatus of the present invention, the control unit controls the display form of the measurement result according to the value of the distance from the measurement position on the subject to the imaging plane of the endoscope. It is characterized by.
また、本発明の計測用内視鏡装置において、前記制御手段は、同一被写体に関する複数の被写体像の相関関数の値に応じて前記計測結果の表示形態を制御することを特徴とする。 In the measurement endoscope apparatus of the present invention, the control unit controls the display form of the measurement result according to the correlation function value of a plurality of subject images related to the same subject.
また、本発明の計測用内視鏡装置において、前記制御手段は、同一被写体に関する複数の被写体像のテクスチャのコントラスト値に応じて前記計測結果の表示形態を制御することを特徴とする。 In the measurement endoscope apparatus of the present invention, the control unit controls the display form of the measurement result according to the texture contrast values of a plurality of subject images related to the same subject.
また、本発明の計測用内視鏡装置において、前記制御手段は、同一被写体に関する一の被写体像における計測点に対応した他の被写体像における対応点のエピポーララインからのずれ量に応じて前記計測結果の表示形態を制御することを特徴とする。 In the measurement endoscope apparatus according to the present invention, the control means may perform the measurement according to the amount of deviation from the epipolar line of the corresponding point in the other subject image corresponding to the measurement point in the one subject image related to the same subject. The display form of the result is controlled.
また、本発明の計測用内視鏡装置において、前記判定手段は、前記計測手段が前記計測を実行する前に、前記画像データに基づいて前記計測結果の信頼性を判定することを特徴とする。 In the measurement endoscope apparatus according to the present invention, the determination unit determines the reliability of the measurement result based on the image data before the measurement unit executes the measurement. .
また、本発明の計測用内視鏡装置において、前記判定手段は、前記計測手段が前記計測を実行する前に、前記画像データに基づいて前記計測結果の信頼性を判定する第1の判定処理を実行し、前記計測手段が前記計測を実行した後に、前記画像データに基づいて前記計測結果の信頼性を判定する第2の判定処理を実行することを特徴とする。 Moreover, in the endoscope apparatus for measurement according to the present invention, the determination unit is configured to determine a reliability of the measurement result based on the image data before the measurement unit performs the measurement. And after the measurement means executes the measurement, a second determination process for determining the reliability of the measurement result based on the image data is performed.
また、本発明の計測用内視鏡装置は、被写体像上の計測点の位置を示すポインタの移動指示および前記計測の開始指示をユーザが入力するための入力手段をさらに備え、前記表示信号生成手段は、前記画像データに基づく画像、前記計測結果、および前記ポインタを表示するための表示信号を生成し、前記判定手段は、前記入力手段に前記ポインタの移動指示が入力されてから前記計測の開始指示が入力されるまでの間に、前記計測点の位置における前記計測結果の信頼性を判定することを特徴とする。 The measurement endoscope apparatus of the present invention further includes an input unit for a user to input a pointer movement instruction indicating the position of the measurement point on the subject image and a measurement start instruction, and the display signal generation The means generates an image based on the image data, the measurement result, and a display signal for displaying the pointer, and the determination means performs the measurement after the pointer movement instruction is input to the input means. Until the start instruction is input, the reliability of the measurement result at the position of the measurement point is determined.
また、本発明の計測用内視鏡装置において、前記表示信号生成手段は、前記画像データに基づく画像および前記計測結果を表示するための表示信号を生成し、前記制御手段は、前記判定結果を画像上の計測可能領域の外側に表示する制御を実行することを特徴とする。 In the measurement endoscope apparatus according to the present invention, the display signal generation unit generates a display signal for displaying an image based on the image data and the measurement result, and the control unit displays the determination result. Control that displays outside the measurable area on the image is executed.
また、本発明は、被写体像を光電変換し撮像信号を生成する内視鏡と、前記撮像信号を処理し画像データを生成する撮像信号処理手段と、前記画像データを用いて三角測量の原理による計測を実行する計測手段と、計測結果を表示するための表示信号を生成する表示信号生成手段と、前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、判定結果に応じた制御を実行する制御手段と、として計測用内視鏡装置を機能させるためのプログラムであって、前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、同一被写体に関する一の被写体像における計測点に対応した他の被写体像における対応点を修正する修正モードに移行する制御を実行することを特徴とするプログラムである。
また、本発明は、被写体像を光電変換し撮像信号を生成する内視鏡と、前記撮像信号を処理し画像データを生成する撮像信号処理手段と、前記画像データを用いて三角測量の原理による計測を実行する計測手段と、計測結果を表示するための表示信号を生成する表示信号生成手段と、前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、判定結果に応じた制御を実行する制御手段と、を備え、前記計測手段は、第1の被写体像上の計測点と、第2の被写体像上において前記計測点に対応した対応点とに基づいて前記計測を実行し、前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、前記対応点を含む領域よりも先に前記計測結果を表示する制御を実行することを特徴とする計測用内視鏡装置である。
In addition, the present invention is based on the principle of triangulation using the image data, an endoscope that photoelectrically converts a subject image to generate an imaging signal, an imaging signal processing unit that processes the imaging signal and generates image data, and the image data. Measuring means for executing measurement, display signal generating means for generating a display signal for displaying the measurement result, determination means for determining the reliability of the measurement result based on the image data, and according to the determination result A control means for performing control, and a program for causing the measurement endoscope apparatus to function as a subject when the measurement means determines that the reliability of the measurement result is low. A program for executing control for shifting to a correction mode for correcting a corresponding point in another subject image corresponding to a measurement point in an image .
In addition, the present invention is based on the principle of triangulation using the image data, an endoscope that photoelectrically converts a subject image to generate an imaging signal, an imaging signal processing unit that processes the imaging signal and generates image data, and the image data. Measuring means for executing measurement, display signal generating means for generating a display signal for displaying the measurement result, determination means for determining the reliability of the measurement result based on the image data, and according to the determination result Control means for executing control, wherein the measurement means performs the measurement based on a measurement point on the first subject image and a corresponding point corresponding to the measurement point on the second subject image. When the control means determines that the reliability of the measurement result is low, the control means executes a control for displaying the measurement result before the area including the corresponding point. It is a mirror device.
また、本発明のプログラムにおいて、前記判定手段は、前記計測手段が前記計測を実行する前に、前記画像データに基づいて前記計測結果の信頼性を判定することを特徴とする。 In the program of the present invention, the determination unit determines the reliability of the measurement result based on the image data before the measurement unit executes the measurement.
また、本発明のプログラムにおいて、前記判定手段は、前記計測手段が前記計測を実行する前に、前記画像データに基づいて前記計測結果の信頼性を判定する第1の判定処理を実行し、前記計測手段が前記計測を実行した後に、前記画像データに基づいて前記計測結果の信頼性を判定する第2の判定処理を実行することを特徴とする。 In the program of the present invention, the determination unit executes a first determination process for determining reliability of the measurement result based on the image data before the measurement unit performs the measurement, After the measurement unit executes the measurement, a second determination process is performed to determine the reliability of the measurement result based on the image data.
また、本発明のプログラムは、被写体像上の計測点の位置を示すポインタの移動指示および前記計測の開始指示をユーザが入力するための入力手段として前記計測用内視鏡装置を機能させ、前記表示信号生成手段は、前記画像データに基づく画像、前記計測結果、および前記ポインタを表示するための表示信号を生成し、前記判定手段は、前記入力手段に前記ポインタの移動指示が入力されてから前記計測の開始指示が入力されるまでの間に、前記計測点の位置における前記計測結果の信頼性を判定することを特徴とする。 The program of the present invention causes the measurement endoscope apparatus to function as input means for a user to input a pointer movement instruction indicating the position of a measurement point on a subject image and a measurement start instruction. The display signal generation unit generates an image based on the image data, the measurement result, and a display signal for displaying the pointer, and the determination unit is configured to input the pointer movement instruction to the input unit. Before the measurement start instruction is input, the reliability of the measurement result at the position of the measurement point is determined.
また、本発明のプログラムにおいて、前記表示信号生成手段は、前記画像データに基づく画像および前記計測結果を表示するための表示信号を生成し、前記制御手段は、前記判定結果を画像上の計測可能領域の外側に表示する制御を実行することを特徴とする。 In the program of the present invention, the display signal generation unit generates an image based on the image data and a display signal for displaying the measurement result, and the control unit can measure the determination result on the image. Control is performed to display outside the area.
本発明によれば、計測結果の信頼性の判定結果に応じた制御を実行することによって、ユーザの作業効率を向上させることができるという効果が得られる。特に、計測結果の信頼性の判定結果に応じて計測結果の表示形態を制御することによって、計測を終了する、またはやり直す等の判断をユーザが行いやすくなるので、ユーザの作業効率を向上させることができる。また、計測結果の信頼性が低いと判定した場合に、計測位置を修正する修正モードに移行する制御を実行することによって、計測結果の信頼性が向上し、計測のやり直しが発生しにくくなるので、ユーザの作業効率を向上させることができる。 According to the present invention, it is possible to improve the user's work efficiency by executing the control according to the determination result of the reliability of the measurement result. In particular, by controlling the display form of the measurement result according to the determination result of the reliability of the measurement result, it becomes easier for the user to make a determination such as ending the measurement or starting over, thereby improving the user's work efficiency Can do. In addition, when it is determined that the reliability of the measurement result is low, by executing control to shift to the correction mode to correct the measurement position, the reliability of the measurement result is improved, and it is difficult to repeat the measurement. The work efficiency of the user can be improved.
以下、図面を参照し、本発明の実施形態を説明する。図1は、本発明の一実施形態による計測用内視鏡装置の全体構成を示している。図1に示すように、計測用内視鏡装置1は、内視鏡2と、この内視鏡2に接続された装置本体3とを備えている。内視鏡2は、細長な挿入部20と、装置全体の各種動作制御を実行する際に必要な操作を行うための操作部6とを備えている。装置本体3は、内視鏡2で撮像された被写体の画像や操作制御内容(例えば処理メニュー)等の表示を行う表示装置であるモニタ4(液晶モニタ)と、内部に制御ユニット10(図2参照)を有する筐体5とを備えている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows the overall configuration of a measurement endoscope apparatus according to an embodiment of the present invention. As shown in FIG. 1, the measuring
挿入部20は、硬質な先端部21と、例えば上下左右に湾曲可能な湾曲部22と、柔軟性を有する可撓管部23とを先端側から順に連設して構成されている。先端部21には、観察視野を2つ有するステレオ光学アダプタや観察視野が1つの通常観察光学アダプタ等、各種光学アダプタが着脱自在になっている。
The
図2に示すように筐体5内には、内視鏡ユニット8、CCU9(カメラコントロールユニット)、および制御ユニット10が設けられており、挿入部20の基端部は内視鏡ユニット8に接続されている。内視鏡ユニット8は、観察時に必要な照明光を供給する光源装置(不図示)と、挿入部20を構成する湾曲部22を湾曲させる湾曲装置(不図示)とを備えて構成されている。
As shown in FIG. 2, an endoscope unit 8, a CCU 9 (camera control unit), and a
挿入部20の先端部21には撮像素子28が内蔵されている。撮像素子28は、光学アダプタを介して結像された被写体像を光電変換し、撮像信号を生成する。CCU9には、撮像素子28から出力された撮像信号が入力される。この撮像信号は、CCU9内で例えばNTSC信号等の映像信号(画像データ)に変換されて、制御ユニット10へ供給される。
An
制御ユニット10内には、映像信号が入力される映像信号処理回路12、ROM13、RAM14、カードI/F15(カードインターフェイス)、USB I/F16(USBインターフェイス)、およびRS−232C I/F17(RS−232Cインターフェイス)と、これら各種機能を主要プログラムに基づいて実行し動作制御を行うCPU18とが設けられている。
In the
RS−232C I/F17には、CCU9および内視鏡ユニット8が接続されると共に、これらCCU9や内視鏡ユニット8等の制御および動作指示を行う操作部6が接続されている。ユーザが操作部6を操作すると、その操作内容に基づいて、CCU9および内視鏡ユニット8を動作制御する際に必要な通信が行われる。
The RS-232C I /
USB I/F16は、制御ユニット10とパーソナルコンピュータ31とを電気的に接続するためのインターフェイスである。このUSB I/F16を介して制御ユニット10とパーソナルコンピュータ31とを接続することによって、パーソナルコンピュータ31側で内視鏡画像の表示指示や、計測時における画像処理等の各種の指示制御を行うことが可能になると共に、制御ユニット10とパーソナルコンピュータ31との間での各種の処理に必要な制御情報やデータ等の入出力を行うことが可能になる。
The USB I /
また、カードI/F15には、メモリカード32を自由に着脱することができるようになっている。メモリカード32をカードI/F15に装着することにより、CPU18による制御に従って、このメモリカード32に記憶されている制御処理情報や画像情報等のデータの制御ユニット10への取り込み、あるいは制御処理情報や画像情報等のデータのメモリカード32への記録を行うことが可能になる。
Further, the
映像信号処理回路12は、CCU9から供給された内視鏡画像と、グラフィックによる操作メニューとを合成した合成画像を表示するため、CPU18の制御により生成される、操作メニューに基づくグラフィック画像信号とCCU9からの映像信号を合成する処理や、モニタ4の画面上に表示するのに必要な処理等を行い、表示信号をモニタ4に供給する。また、この映像信号処理回路12は、単に内視鏡画像、あるいは操作メニュー等の画像を単独で表示するための処理を行うことも可能である。したがって、モニタ4の画面上には、内視鏡画像、操作メニュー画像、内視鏡画像と操作メニュー画像との合成画像等が表示される。
The video
CPU18は、ROM13に格納されているプログラムを実行することによって、目的に応じた処理を行うように各種回路部等を制御して、計測用内視鏡装置1全体の動作制御を行う。RAM14は、CPU18によって、データの一時格納用の作業領域として使用される。
The
図3は、内視鏡2が有する挿入部20の先端部21の斜視図であり、図4は図3のA−A断面図である。図3に示すように先端部21は、先端部本体39と、この先端部本体39に着脱自在の光学アダプタ46とから構成されている。先端部21の先端面には、例えばLEDからなる2つの照明24と、被写体像を取り込むための観察窓25とが設けてある。図4に示すように、先端部21を構成する先端部本体39に設けた観察窓25はカバーガラス30で閉塞され、その内側にはレンズ枠36を介して1対の対物光学系、つまり右画像用の対物光学系26Rと左画像用の対物光学系26Lが取り付けてある。
3 is a perspective view of the
このレンズ枠36は後方側に延出し、共通の像伝送光学系27の前段側光学系27aが取り付けてある。また、レンズ枠36の後端側の孔部に収納された撮像素子固定枠37には、撮像素子28が固定されている。この撮像素子28の撮像面の前部側には像伝送光学系27の後段側光学系27bがレンズ枠を介して取り付けてある。また、先端部本体39の前端側の外周は円筒状のカバー部材38で覆われ、このカバー部材38はネジで先端部本体39に固定されている。なお、カバー部材38と先端部本体39との間には、シール用のOリングが介挿され、水密構造にされている。
The
上記の対物光学系26Rと対物光学系26Lによる像は、像伝送光学系27を介して撮像素子28上で左右に異なる位置に結像される。つまり、対物光学系26Rと像伝送光学系27による光学系である右結像光学系と、対物光学系26Lと像伝送光学系27による光学系である左結像光学系とが構成されている。撮像素子28で光電変換された撮像信号は内視鏡ユニット8を介してCCU9に供給されて映像信号に変換され、その後、映像信号処理回路12に供給される。
Images by the objective
また、撮像素子28の前面側はカバーガラス47で保護され、このカバーガラス47は光学アダプタ46側のカバーガラス48と対向する。光学アダプタ46の後端側の外周面には、固定リング49が設けてあり、先端部本体39の外周面に設けた雄ネジ部にこの固定リング49の後端内視鏡内周面に設けた雌ネジ部を螺合させることにより、着脱自在に取り付けられるようにしている。先端部本体39の先端面の外周面には位置決め用の凹部が、光学アダプタ39側には位置決め用ピンが設けてあり、光学アダプタ39を取り付ける際に凹部とピンとにより周方向の位置決めがされる。
Further, the front side of the
次に、計測用内視鏡装置1を用いた計測方法を説明する。生産工程では、個体の異なる光学アダプタ46毎に、次の(a1)〜(e)に示す各光学アダプタ46の特有の光学データが測定される。その光学データが、記録媒体である例えばメモリカードに記録される。このメモリカードに記録された光学データは、光学アダプタ46の特性と一対一で対応することになって、出荷後、1つの組み合わせのものとして扱われる。本実施形態の光学データは以下の通りである。なお、光学データの詳細は、例えば特開2004−49638号公報に記載されているので、その説明を省略する。
Next, a measurement method using the
(a1)2つの対物光学系の幾何学的歪み補正テーブル
(a2)像伝送光学系の幾何学歪み補正テーブル
(b)左右の結像光学系それぞれの焦点距離
(c)左右の結像光学系の主点間の距離
(d)左右の結像光学系それぞれの画像上での光軸位置座標
(e)左右の結像光学系それぞれの画像がマスタの撮像素子上に結像するときの位置情報
(A1) Geometric distortion correction table for the two objective optical systems (a2) Geometric distortion correction table for the image transmission optical system (b) Focal lengths of the left and right imaging optical systems (c) Left and right imaging optical systems (D) Optical axis position coordinates on the images of the left and right imaging optical systems (e) Position when the images of the left and right imaging optical systems are imaged on the master image sensor information
以下、図5を参照しながら、光学データの測定方法を説明する。生産測定治具51は、光学アダプタ46が装着可能であって、マスタ撮像ユニット52と、CCU53と、パソコン31と、チャート54とで構成されている。
Hereinafter, a method for measuring optical data will be described with reference to FIG. The
マスタ撮像ユニット52は、内視鏡2の先端部本体39と同様の構造を有している。CCU53はマスタ撮像ユニット52と信号線で接続されている。パソコン31は、メモリカード33が着脱可能なメモリカードスロット54を有し、CCU53からの画像データに対する画像処理を行う。チャート54は、光学アダプタ46の光学特性を解析するための格子状の模様を有している。
The
生産測定治具51を用いて光学データの取り込みを行う場合、まず、図5に示すように、光学アダプタ46をマスタ撮像ユニット52に取り付け、チャート54の像を光学アダプタ46を介して取り込み、その画像データに基づいてパーソナルコンピュータ31にて画像処理を行い、上記(a1)〜(e)の光学データを求め、メモリカード33に記録する。
When optical data is captured using the
上記特有の光学データの収集を行った後の光学アダプタ46を内視鏡2に取り付け、計測内視鏡装置1において、次に示す(1)〜(8)の処理を行って各種寸法計測(ステレオ計測)を行うことができる。なお、ステレオ計測の詳細は、例えば特開2004−49638号公報に記載されているので、その説明を省略する。
The
(1)メモリカード33から上記(a1)〜(e)の光学データを読み込む。
(2)計測用内視鏡装置1を用いて白い被写体を撮像する。
(3)上記(e)のデータおよび上記(2)の撮像データを用いて、光学アダプタ46と内視鏡2との組み合わせによる画像位置のずれを求める。
(4)上記(3)のデータおよび上記(1)のデータを用いて、内視鏡2に対する幾何学的歪み補正を行う変換テーブルを作成する。
(5)内視鏡2にて被写体である被計測物を撮像し、画像を取り込む。
(6)上記の取り込んだ画像を上記(3)で作成したテーブルを基に座標変換する。
(7)座標変換された画像を基に、上記(2)の撮像データのマッチングにより任意の点の3次元座標を求める。
(8)上記3次元座標を基に各種寸法計測を行う。
(1) Read the optical data (a1) to (e) from the
(2) A white subject is imaged using the
(3) Using the data of (e) and the imaging data of (2), the displacement of the image position due to the combination of the
(4) A conversion table for performing geometric distortion correction for the
(5) The to-be-measured object which is a subject is imaged by the
(6) The coordinates of the captured image are converted based on the table created in (3).
(7) Based on the coordinate-converted image, the three-dimensional coordinates of an arbitrary point are obtained by the imaging data matching in (2) above.
(8) Various dimension measurements are performed based on the three-dimensional coordinates.
(第1の動作例)
次に、計測処理についての第1の動作例として2点間距離計測時の動作を説明する。図6に示すように、まず、第1計測点が設定される(ステップS100)。このとき、モニタ4の表示画面を見ながらユーザが操作部6を操作し、被写体上の第1計測点を入力する。CPU18は、操作部6から出力され、RS−232C I/F17を介して入力される信号に基づいて、第1計測点の画像内位置(2次元座標)を計算する。以上がステップS100の処理である。
(First operation example)
Next, an operation at the time of measuring a distance between two points will be described as a first operation example of the measurement process. As shown in FIG. 6, first, a first measurement point is set (step S100). At this time, the user operates the
続いて、CPU18は3次元座標解析処理を実行し、第1計測点の3次元座標を計算する(ステップS110)。3次元座標解析処理の詳細は後述する。さらに、上記と同様に第2計測点が設定され(ステップS120)、3次元座標解析処理が実行されて第2計測点の3次元座標が計算される(ステップS130)。
Subsequently, the
続いて、CPU18は、マッチング確認用フラグの値に基づいて、マッチング処理が成功したか否かを判定する(ステップS140)。前述したようにマッチング処理とは、同一被写体に関する第1の被写体像(例えば左画像)上で指定された第1計測点に対応する第2の被写体像(例えば右画像)上の対応点(マッチング点)の位置を画像のパターンマッチングにより計算する処理のことである。マッチング処理は、ステップS110,S130の処理の一部として実行される。また、マッチング確認用フラグとは、計測結果の信頼性に関するステップS140の判定で用いるフラグのことであり、第1計測点に関するフラグと、第2計測点に関するフラグとの2種類のフラグが用いられる。
Subsequently, the
後述するように、ステップS110,S130の3次元座標解析処理の中でマッチング確認用フラグの値が0または1に設定される。マッチング確認用フラグの値が1の場合には、マッチング処理が成功しており、マッチング確認用フラグの値が0の場合には、マッチング処理が失敗していることになる。 As will be described later, the value of the matching confirmation flag is set to 0 or 1 in the three-dimensional coordinate analysis processing in steps S110 and S130. If the value of the matching confirmation flag is 1, the matching process has succeeded. If the value of the matching confirmation flag is 0, the matching process has failed.
2種類のマッチング確認用フラグの値が共に1であった場合には、ステップS110,S130の一部として実行されるマッチング処理が共に成功していることになり、処理がステップS150に進む。また、2種類のマッチング確認用フラグの少なくとも一方の値が0であった場合には、ステップS110,S130の一部として実行されるマッチング処理の少なくとも一方が失敗していることになり、処理がステップS170に進む。 If the values of the two types of matching confirmation flags are both 1, the matching process executed as part of steps S110 and S130 is successful, and the process proceeds to step S150. If at least one of the two types of matching confirmation flags is 0, at least one of the matching processes executed as part of steps S110 and S130 has failed, and the process is Proceed to step S170.
ステップS110,S130の一部として実行されるマッチング処理が共に成功している場合には、CPU18は、第1計測点および第2計測点の3次元座標から2点間の距離を算出する(ステップS150)。続いて、CPU18は、ステップS150で算出した2点間距離を計測結果として表示する制御を実行する(ステップS160)。
When the matching process executed as part of steps S110 and S130 is successful, the
このとき、CPU18は、操作メニューや計測結果を表示するためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する。映像信号処理回路12は、このグラフィック画像信号とCCU9からの映像信号を合成し、モニタ4の画面上に合成画像を表示するのに必要な処理等を行い、表示信号をモニタ4へ出力する。モニタ4は、表示信号に基づいて合成画像を表示する。このとき、2点間距離の計測結果が表示される(例えば、「L=2.00mm」等)。以上がステップS160の処理である。
At this time, the
一方、ステップS110,S130の一部として実行されるマッチング処理の少なくとも一方が失敗している場合には、CPU18は、マッチング処理の失敗を計測結果として表示する制御を実行する(ステップS170)。このときにCPU18が実行する制御はステップS160と同様であるが、計測結果を表示するためのグラフィック画像信号が異なっており、この結果、モニタ4が表示する合成画像において、計測結果の表示形態がマッチング処理の成功時とは異なる。
On the other hand, when at least one of the matching processes executed as a part of steps S110 and S130 has failed, the
図7はモニタ4の表示画面を示している。図7に示す表示画面700には、光学アダプタ46で捉えられた左右の被写体像に対応した左画像710と右画像720が表示される。左画像710上でユーザがポインタ715を移動させて被写体730上の計測点740a,740bを指定すると、各計測点に対応した右画像720上の対応点750a,750bの位置がマッチング処理によって計算される。例えば、図7に示すように計測点750bの計算精度が低いと、計測結果760はマッチング処理の失敗を示す「−.−−−」(図7(a))や「計測不可」(図7(b))という表示となる。
FIG. 7 shows a display screen of the monitor 4. On the
このようにマッチング処理の失敗時には、計測結果が特殊な文字や記号、グラフ、メッセージ等で表示される。このため、ユーザは、マッチング処理が失敗したことを計測結果から知ることができる。マッチング処理の失敗を示す計測結果の表示位置は、マッチング処理が成功した場合の計測結果の表示位置と異なっていてもよいが、ユーザを混乱させることなくマッチング処理の失敗をより確実にユーザに通知するためには、表示位置を同一とすることが望ましい。また、内視鏡画像を見やすくするため、計測結果を内視鏡画像の外側に表示することが望ましく、特に計測結果を計測可能領域(計測点を設定することが可能な領域)の外側に表示することが望ましい。また、マッチング処理が失敗した場合に、右画像上の計測点も表示したままにしておくと、マッチング処理の失敗の原因を確認しやすくなる。 Thus, when the matching process fails, the measurement result is displayed as a special character, symbol, graph, message, or the like. For this reason, the user can know from the measurement result that the matching process has failed. The display position of the measurement result indicating the failure of the matching process may be different from the display position of the measurement result when the matching process is successful, but the user is more surely notified of the failure of the matching process without confusing the user. In order to do this, it is desirable that the display position be the same. In order to make the endoscopic image easier to see, it is desirable to display the measurement result outside the endoscopic image, and in particular, display the measurement result outside the measurable area (area where measurement points can be set). It is desirable to do. If the measurement point on the right image is also displayed when the matching process fails, the cause of the matching process failure can be easily confirmed.
左画像710上のズームウィンドウ770には、計測点740bの位置における拡大画像が表示され、右画像720上のズームウィンドウ780には、対応点750bの位置における拡大画像が表示される。計測点740bと対応点750bの位置が異なり、ズームウィンドウ770の画像とズームウィンドウ780の画像が異なることからも、ユーザはマッチング処理が失敗したことを知ることができる。
An enlarged image at the position of the
次に、ステップS110,S130における3次元座標解析処理の詳細を説明する。図8に示すように、まずCPU18はパターンマッチング処理を実行して、左右の2画像(ステレオ画像)の対応点であるマッチングポイントを検出する(ステップS200)。パターンマッチング処理の詳細は後述する。続いて、CPU18は、対応点の座標から左右の2画像のずれ量を求める(ステップS210)。
Next, details of the three-dimensional coordinate analysis processing in steps S110 and S130 will be described. As shown in FIG. 8, first, the
続いて、CPU18は後述する正規化相互相関係数に関する確認用フラグの値を判定する(ステップS220)。正規化相互相関係数に関する確認用フラグの値はステップS200のパターンマッチング処理で設定される。正規化相互相関係数に関する確認用フラグの値が1であった場合には、処理がステップS230に進み、正規化相互相関係数に関する確認用フラグの値が0であった場合には、処理がステップS270に進む。
Subsequently, the
正規化相互相関係数に関する確認用フラグの値が1であった場合には、CPU18はテクスチャのコントラスト値に関する確認用フラグの値を判定する(ステップS230)。テクスチャのコントラスト値に関する確認用フラグの値はステップS200のパターンマッチング処理で設定される。テクスチャのコントラスト値に関する確認用フラグの値が1であった場合には、処理がステップS240に進み、テクスチャのコントラスト値に関する確認用フラグの値が0であった場合には、処理がステップS270に進む。
If the value of the confirmation flag relating to the normalized cross-correlation coefficient is 1, the
テクスチャのコントラスト値に関する確認用フラグの値が1であった場合には、CPU18は、対象としている点の3次元座標を算出する(ステップS240)。以下、3次元座標解析の基本原理について、図9を用いて説明する。図9は、x,y,z軸をもつ3次元空間座標系上の左右の2画像の位置関係を示している。この図9には、被写体までの距離(物体距離)の計測対象となる点Pが撮像素子の右結像面28Rおよび左結像面28L上に結像した状態が示されている。図9において、点OR,OLを光学系の主点とし、距離fを焦点距離とし、点QR,QLを点Pの結像位置とし、距離Lを点OR−点OL間の距離とする。
If the value of the confirmation flag regarding the texture contrast value is 1, the
図9において、直線QR−ORから(1)式が成立する。
x/xR={y−(L/2)}/{yR−(L/2)}=z/(−f) ・・・(1)
また、直線QL−OLから(2)式が成立する。
x/xL={y+(L/2)}/{yL+(L/2)}=z/(−f) ・・・(2)
この式をx,y,zについて解けば、点Pの三次元座標が得られる。これにより、内視鏡2の撮像面から被写体までの距離(物体距離)が求まる。実際は像伝送光学系27の効果により、左右2つの像の光線は折り曲げられて右結像面28Rと左結像面28Lの間隔はもっと小さくなるが、ここでは図を簡略にするために像伝送光学系27の効果を省いて図示している。
In FIG. 9, equation (1) is established from the straight line QR-OR.
x / xR = {y− (L / 2)} / {yR− (L / 2)} = z / (− f) (1)
Moreover, Formula (2) is materialized from the straight line QL-OL.
x / xL = {y + (L / 2)} / {yL + (L / 2)} = z / (− f) (2)
If this equation is solved for x, y, z, the three-dimensional coordinates of the point P can be obtained. Thereby, the distance (object distance) from the imaging surface of the
ステップS250に続いて、CPU18は物体距離の値を判定する(ステップS250)。物体距離の値が0以上であった場合には、処理がステップS260に進み、物体距離の値が0未満であった場合には、処理がステップS270に進む。ステップS250の判定では、物体距離が0以上であるか否かの判定を行っているが、物体距離が所定値α(α>0)以下であるか否かの判定を行った結果と合わせて判定を行ってもよい。すなわち、物体距離が0以上かつα以下である場合には、処理がステップS260に進み、それ以外の場合には、処理がステップS270に進む。
Subsequent to step S250, the
物体距離の値が0以上であった場合には、ステップS220,S230,S250の判定結果から、マッチング処理が成功し、計測結果が信頼できることが分かる。この場合、CPU18はマッチング確認用フラグの値を1に設定する(ステップS260)。一方、ステップS220,S230,S250の判定結果から、マッチング処理が失敗し、計測結果が信頼できない場合には、CPU18はマッチング確認用フラグの値を0に設定する(ステップS270)。
When the value of the object distance is 0 or more, it can be seen from the determination results in steps S220, S230, and S250 that the matching process is successful and the measurement result is reliable. In this case, the
次に、ステップS200におけるパターンマッチング処理の詳細を説明する。図10に示すように、まずCPU18は初期化処理として、正規化相互相関係数に関する確認用フラグの値とテクスチャのコントラスト値に関するマッチング確認用フラグの値とを0に設定する(ステップS300)。
Next, details of the pattern matching process in step S200 will be described. As shown in FIG. 10, first, as initialization processing, the
続いて、CPU18は、パターンマッチングを行うパターンの大きさを示すパターンエリアの絞り込みを行う(ステップS310)。本実施形態の例では、値kに対応したパターンエリアを設定する。すなわち、
k=1ではパターンエリアを35×35(ピクセル)、
k=2ではパターンエリアを23×23(ピクセル)、
k=3ではパターンエリアを11×11(ピクセル)、
とし、値kを小から大へ切り換えて領域を大から小へ絞り込んでいき、対応点検出の精度を上げるようにする。
Subsequently, the
When k = 1, the pattern area is 35 × 35 (pixels),
When k = 2, the pattern area is 23 × 23 (pixels),
When k = 3, the pattern area is 11 × 11 (pixels),
Then, the value k is switched from small to large to narrow the region from large to small so as to improve the accuracy of corresponding point detection.
続いて、CPU18は検索範囲を設定する。すなわち、パターンを探す右画像の領域を決定する(ステップS320)。その検索範囲の設定には、エピポーララインに誤差を考慮してエピポーラライン±5ピクセル以内とする場合と、モニタ画面上で水平に±7ピクセル以内とする場合と、画面上で手動により指示された略マッチング点を中心に±10ピクセル以内とする場合がある。なお、上記±10ピクセルは、手動による誤差を考慮した最適な値である。
Subsequently, the
続いて、CPU18は、設定した検索範囲でのパターンマッチングを行う(ステップS330)。このパターンマッチングでは、正規化相互相関による対応点検出を行い、最も正規化相互相関係数(−1〜+1)の大きな座標(X,Y)を対応点とする。値kをインクリメントし、その値kに対応してパターンを絞り込みながら、かつ検索範囲内でパターンエリアを動かしながらパターンマッチングが繰り返し行われる。
Subsequently, the
パターンマッチングに利用する正規化相互相関関数M(u,v)には、一般的に以下の式を用いる。すなわち、t(x,y)をテンプレートとし、g(x,y)を画像データとし、t’をテンプレートの平均輝度とし、さらに、g’を画像の平均輝度として、以下の(3)式が適用される。ここでΣΣSは画素の和をとることを表す。
M(u,v)={ΣΣS(g(x+u,y+v)−g’)(t(x,y)−t’)}/{ΣΣS(g(x+u,y+v)−g’)2×ΣΣS(t(x,y)−t’)2}1/2 ・・・(3)
The following formula is generally used for the normalized cross-correlation function M (u, v) used for pattern matching. That is, t (x, y) is a template, g (x, y) is image data, t ′ is the average luminance of the template, and g ′ is the average luminance of the image. Applied. Here, ΣΣ S represents taking the sum of pixels.
M (u, v) = {ΣΣ S (g (x + u, y + v) −g ′) (t (x, y) −t ′)} / {ΣΣ S (g (x + u, y + v) −g ′) 2 × ΣΣ S (t (x, y) −t ′) 2 } 1/2 (3)
パターンマッチングの終了後、CPU18は正規化相互相関係数の値を判定する(ステップS340)。この判定に用いる正規化相互相関係数の値は、パターンマッチングで最も大きいとされた値である。
After the pattern matching is completed, the
正規化相互相関係数の値が所定値以上であった場合には、処理がステップS350に進み、正規化相互相関係数の値が所定値未満であった場合には、パターンマッチング処理が終了する。正規化相互相関係数の値が所定値以上であった場合、CPU18は正規化相互相関係数に関する確認用フラグの値を1に設定する(ステップS350)。続いて、CPU18はテクスチャのコントラスト値を算出する(ステップS360)。
If the normalized cross-correlation coefficient value is equal to or greater than the predetermined value, the process proceeds to step S350. If the normalized cross-correlation coefficient value is less than the predetermined value, the pattern matching process ends. To do. When the value of the normalized cross correlation coefficient is equal to or greater than the predetermined value, the
テクスチャのコントラスト値を算出する画像領域は、パターンマッチングを行ったパターンエリアの大きさである11×11ピクセルとする。テクスチャのコントラスト値C(d,θ)は、一般に以下のようにして算出される。同時生起行列D(a,b;d,θ)は、特定の相対位置関係「(d,θ)」(dは距離、θは角度)にある画素対[(x,y)、(u,v)]の濃度対(a,b)で表される。ただし、f(x,y)=a、f(u,v)=bとする。0〜L−1番目のL種類の画素があるとき、D(a,b;d,θ)はL×Lの行列となる。全要素の和が1となるようにDを正規化したものは以下の(4)式で表される。ただし、NL={0,1,2,・・・,L−1}である。 The image area for calculating the texture contrast value is 11 × 11 pixels, which is the size of the pattern area subjected to pattern matching. The texture contrast value C (d, θ) is generally calculated as follows. The co-occurrence matrix D (a, b; d, θ) is a specific relative positional relationship “(d, θ)” (d is a distance, θ is an angle) [(x, y), (u, v)] with respect to the concentration pair (a, b). However, it is assumed that f (x, y) = a and f (u, v) = b. When there are 0 to (L-1) th L types of pixels, D (a, b; d, θ) is an L × L matrix. What normalized D so that the sum of all elements is 1 is expressed by the following equation (4). However, N L = {0, 1, 2,..., L−1}.
テクスチャのコントラスト値は以下の(5)式で表される。 The texture contrast value is expressed by the following equation (5).
続いて、CPU18はテクスチャのコントラスト値を判定する(ステップS370)。テクスチャのコントラスト値の左右画像間の差が所定値未満であった場合には、処理がステップS380に進み、それ以外の場合には、パターンマッチング処理が終了する。テクスチャのコントラスト値の左右画像間の差が所定値未満であった場合、CPU18はテクスチャのコントラスト値に関する確認用フラグの値を1に設定する(ステップS380)。
Subsequently, the
上述した第1の動作例では、マッチング処理の信頼性に関する3種類の判定(正規化相互相関係数の値に関する判定、テクスチャのコントラスト値に関する判定、物体距離に関する判定)が行われ、これらの全ての判定において、マッチング処理の結果が信頼できると判定された場合にのみ、2点間距離が算出され、計測結果が表示される。また、これらの判定の少なくともいずれかにおいて、マッチング処理の結果が信頼できないと判定された場合には、マッチング処理の失敗を示す計測結果が表示される。 In the first operation example described above, three types of determination regarding the reliability of the matching process (determination regarding the value of the normalized cross-correlation coefficient, determination regarding the contrast value of the texture, and determination regarding the object distance) are performed. In this determination, the distance between the two points is calculated and the measurement result is displayed only when it is determined that the result of the matching process is reliable. If it is determined that the result of the matching process is not reliable in at least one of these determinations, a measurement result indicating the failure of the matching process is displayed.
なお、図6に示した処理において、以下のようにしてもよい。第1計測点に関する3次元座標解析処理(ステップS110)の後、CPU18は、マッチング確認用フラグの値に基づいて、マッチング処理が成功したか否かを判定する(ステップS140と同様の処理)。マッチング確認用フラグの値が1であった場合には、処理がステップS120に進み、マッチング確認用フラグの値が0であった場合には、処理がステップS100に戻る。つまり、第1計測点に関する3次元解析処理の中で行われるマッチング処理が成功するまで、第1計測点の設定と3次元座標解析処理が繰り返される。
Note that the processing shown in FIG. 6 may be performed as follows. After the three-dimensional coordinate analysis process for the first measurement point (step S110), the
また、マッチング処理の信頼性に関する判定において、左画像における計測点に対応した右画像における対応点のエピポーララインからのずれ量を利用してもよい。例えば、マッチング処理によって求めた右画像上の対応点の座標がエピポーララインから所定値以上ずれていた場合には、マッチング処理が失敗したと判定される。 Further, in the determination regarding the reliability of the matching process, a deviation amount of the corresponding point in the right image corresponding to the measurement point in the left image from the epipolar line may be used. For example, when the coordinates of the corresponding points on the right image obtained by the matching process are deviated from the epipolar line by a predetermined value or more, it is determined that the matching process has failed.
エピポーララインの具体的な求め方は、以下の通りである。図11に示すように、本実施形態における左画像65の取り込み範囲は測距点Pの近傍の画像である。図11において、測距点Pの座標を(lx,ly)とし、左取得幅をL_WIDTH、左取得高さをL_HEIGHTとしたとき、左画像取得範囲LAREAの基点SPLの座標は、
(lx−L_WIDTH/2,ly−L_HEIGHT/2)
となる。また、右画像66の取得範囲RAREAは、図11に示すように、エピポーラライン77の近傍の画像である。
The specific method for obtaining the epipolar line is as follows. As shown in FIG. 11, the capture range of the
(Lx-L_WIDTH / 2, ly-L_HEIGHT / 2)
It becomes. Further, the acquisition range RAREA of the
エピポーラライン77は以下のようにして求められる。光学データから、左基準点OLの座標と、右基準点ORの座標を読み込む。左基準点OLおよb右基準点ORは、光学中心付近の同一観察対象の座標であり、光学データ生産時に設定される。この左基準点OLの座標を(olx,oly)とし、右基準点ORの座標を(orx,ory)とする。
The
右画像66の左端のX座標をrsxとすると、エピポーララインの始点ESの座標(esx,esy)は、
(esx,esy)=(rsx,ly−oly+ory)
となる。また、エピポーララインの終点EEの座標(eex,eey)は、取得幅をR_WIDTHとすると、
(eex,eey)=(rsx+R_WIDTH,ly−oly+ory)
となる。
If the X coordinate of the left end of the
(Esx, esy) = (rsx, ly-oliy + ory)
It becomes. In addition, the coordinates (eex, ey) of the end point EE of the epipolar line are as follows:
(Eex, eyy) = (rsx + R_WIDTH, ly-oliy + ory)
It becomes.
よって、取得高さをR_HEIGHTとすると、右画像66の取得範囲RAREAの基点SPRの座標は、
(esx,esy−R_HEIGHT/2)
となる。なお、エピポーララインの求め方は、上記に限られるものではなく、一般的なステレオビジョンの分野で公知である他の求め方によってもよい。
Therefore, if the acquisition height is R_HEIGHT, the coordinates of the base point SPR of the acquisition range RAREA of the
(Esx, esy-R_HEIGHT / 2)
It becomes. Note that the method of obtaining the epipolar line is not limited to the above, but may be another method known in the field of general stereo vision.
(第2の動作例)
次に、計測処理についての第2の動作例として物体距離計測時の動作を説明する。図12に示すように、まず、計測点が設定され(ステップS400)、3次元座標解析処理が実行されて計測点の3次元座標が計算される(ステップS410)。3次元座標解析処理は第1の動作例と同様である。続いて、CPU18は、マッチング確認用フラグの値に基づいて、マッチング処理が成功したか否かを判定する(ステップS420)。マッチング確認用フラグの値が1であった場合には、ステップS410の一部として実行されるマッチング処理が成功していることになり、処理がステップS430に進む。また、マッチング確認用フラグが0であった場合には、ステップS410の一部として実行されるマッチング処理が失敗していることになり、処理がステップS440に進む。
(Second operation example)
Next, an operation at the time of object distance measurement will be described as a second operation example of the measurement process. As shown in FIG. 12, first, measurement points are set (step S400), and three-dimensional coordinate analysis processing is executed to calculate the three-dimensional coordinates of the measurement points (step S410). The three-dimensional coordinate analysis process is the same as in the first operation example. Subsequently, the
ステップS410の一部として実行されるマッチング処理が成功している場合には、マッチング確認用フラグの値が1となる。この場合、CPU18は、ステップS410の3次元座標解析処理の中で算出した物体距離を計測結果として表示する制御を実行する(ステップS430)。また、ステップS410の一部として実行されるマッチング処理が失敗している場合には、CPU18は、マッチング処理の失敗を計測結果として表示する制御を実行する(ステップS440)。計測結果の表示方法は第1の動作例と同様である。
If the matching process executed as part of step S410 is successful, the value of the matching confirmation flag is 1. In this case, the
図13はモニタ4の表示画面を示している。図13に示す表示画面1300には、光学アダプタ46で捉えられた左右の被写体像に対応した左画像1310と右画像1320が表示される。左画像1310上でユーザが被写体1330上の計測点1340を指定すると、計測点1340に対応した右画像1320上の対応点1350の位置がマッチング処理によって計算される。図13に示すように対応点1350の計算精度が低いと、計測結果1360はマッチング処理の失敗を示す「−.−−−」(図14(a))や「計測不可」(図14(b))という表示となる。
FIG. 13 shows the display screen of the monitor 4. On the
ステップS430,S440に続いて、CPU18は計測処理を終了するか否かを判定する(ステップS450)。ユーザが操作部6を操作し、計測処理の終了指示を入力した場合には、計測処理が終了する。それ以外の場合には、処理がステップS400に戻り、映像信号処理回路12から新たに取得した内視鏡画像データに基づいて各種処理が実行される。
Subsequent to steps S430 and S440, the
(第3の動作例)
次に、計測処理についての第3の動作例を説明する。以下では、第1の動作例で示した2点間距離計測時の動作を説明するが、第2の動作例で示した物体距離計測時の動作も同様である。図14は第3の動作例の処理を示している。図6に示した処理と同一の処理には同一の符号を付与している。図14に示す処理では、ステップS140でマッチング確認用フラグの値を確認した結果、2種類のマッチング確認用フラグの少なくとも一方の値が0であった場合には、CPU18は、計測点を修正する修正モードに移行する制御を実行する(ステップS500)。
(Third operation example)
Next, a third operation example regarding the measurement process will be described. Hereinafter, the operation at the time of measuring the distance between two points shown in the first operation example will be described, but the operation at the time of measuring the object distance shown in the second operation example is the same. FIG. 14 shows processing of the third operation example. The same reference numerals are assigned to the same processes as those shown in FIG. In the process shown in FIG. 14, when the value of the matching confirmation flag is confirmed in step S140, if at least one of the two types of matching confirmation flags is 0, the
計測用内視鏡装置1の動作モードが修正モードに移行すると、ユーザが操作部6を操作することによって、右画像上の対応点の位置を手動で修正することが可能となる。この修正モード自体は従来の計測用内視鏡装置でも用意されている。対応点の修正が終了すると、修正後の対応点の位置に基づいて3次元座標が算出される。続いて、2点間距離の算出と計測結果の表示が行われる(ステップS150,S160)。この結果、計測結果の信頼性が向上することが期待できる。なお、図14に示した処理において、図6に示したステップS170の処理を行い、マッチング処理の失敗を示す計測結果を表示してから修正モードに移行してもよい。
When the operation mode of the
(第4の動作例)
次に、計測処理についての第4の動作例を説明する。以下では、第1の動作例で示した2点間距離計測時の動作を説明するが、第2の動作例で示した物体距離計測時の動作も同様である。第4の動作例では、マッチング処理の信頼性に関する判定(以下、マッチング信頼性判定と記載)を行うモードと判定を行わないモードとを選択することが可能となっている。計測処理の開始前に2つのモードのいずれかが予め設定される。あるいは計測処理の開始直後に設定を行ってもよい。
(Fourth operation example)
Next, a fourth operation example regarding the measurement processing will be described. Hereinafter, the operation at the time of measuring the distance between two points shown in the first operation example will be described, but the operation at the time of measuring the object distance shown in the second operation example is the same. In the fourth operation example, it is possible to select a mode in which the determination regarding the reliability of the matching process (hereinafter referred to as matching reliability determination) and a mode in which the determination is not performed. One of the two modes is set in advance before the start of the measurement process. Alternatively, the setting may be performed immediately after the start of the measurement process.
図15は第4の動作例の処理を示している。図6に示した処理と同一の処理には同一の符号を付与している。図15に示す処理では、ステップS130の3次元座標解析処理の後、CPU18はマッチング信頼性判定を行うか否かを判定する(ステップS600)。マッチング信頼性判定を行う設定がなされている場合には、処理がステップS140に進み、マッチング信頼性判定を行わない設定がなされている場合には、処理がステップS150に進む。
FIG. 15 shows the processing of the fourth operation example. The same reference numerals are assigned to the same processes as those shown in FIG. In the process illustrated in FIG. 15, after the three-dimensional coordinate analysis process in step S <b> 130, the
図16は第4の動作例におけるパターンマッチング処理を示している。図10に示した処理と同一の処理には同一の符号を付与している。図16に示す処理では、ステップS310〜S330のパターンマッチングの後、CPU18はマッチング信頼性判定を行うか否かを判定する(ステップS700)。マッチング信頼性判定を行う設定がなされている場合には、処理がステップS340に進み、マッチング信頼性判定を行わない設定がなされている場合には、パターンマッチング処理が終了する。マッチング信頼性判定を行わない設定がなされている場合には、マッチング信頼性判定に関する処理が省略されるので、その分、処理を高速化することができる。
FIG. 16 shows pattern matching processing in the fourth operation example. The same reference numerals are given to the same processes as those shown in FIG. In the process shown in FIG. 16, after pattern matching in steps S310 to S330, the
(第5の動作例)
次に、計測処理についての第5の動作例を説明する。上記の動作例の記載では、マッチング処理の結果が信頼できないと判定された場合に計測結果などを表示する順番については規定されていない。しかし、ユーザの作業効率を向上するためには、マッチング処理の失敗を示す計測結果をより早く表示することが望ましい。そこで、第5の動作例では、マッチング処理の結果が信頼できないと判定された場合に、計測結果が他よりも先に表示される。以下では、第1の動作例で示した2点間距離計測時の動作を説明するが、第2の動作例で示した物体距離計測時の動作も同様である。
(Fifth operation example)
Next, a fifth operation example regarding the measurement processing will be described. In the description of the above operation example, the order in which the measurement results are displayed when it is determined that the result of the matching process is not reliable is not defined. However, in order to improve the user's work efficiency, it is desirable to display the measurement result indicating the failure of the matching process earlier. Therefore, in the fifth operation example, when it is determined that the result of the matching process is not reliable, the measurement result is displayed earlier than the others. Hereinafter, the operation at the time of measuring the distance between two points shown in the first operation example will be described, but the operation at the time of measuring the object distance shown in the second operation example is the same.
図17(a)に示すように、まず表示画面1700の左画像1710上に第1計測点1730aが設定されると、この第1計測点1730aに対応した右画像1720上の第1対応点1740aが設定される。このとき、ズームウィンドウ1750には、第1計測点1730aにおける拡大画像が表示され、ズームウィンドウ1760には、第1対応点1740aにおける拡大画像が表示される。続いて、図17(b)に示すように、左画像1710上に第2計測点1730bが設定される。このとき、CPU18は、第2計測点1730bを表示画面1700に追加して表示する制御を実行する。また、CPU18は、第2計測点1730bを表示する制御と並行して、図6のステップS130以後の処理を実行する。
As shown in FIG. 17A, first, when the
図6のステップS140の処理の結果、マッチング処理が失敗したと判定された場合、CPU18は、マッチング処理の失敗を示す計測結果を表示画面1700に追加して表示する制御を実行する。これによって、図18(a)に示すように、計測結果1770が表示される。続いて、CPU18は、第2計測点1730bに対応する右画像1720上の第2対応点を表示画面1700に追加して表示する制御を実行する。これによって、図18(b)に示すように、右画像1720上に第2対応点1740bが表示される。後述する第6の動作例のように、マッチング信頼性判定を3次元座標解析処理よりも前に行う場合には、第2対応点1740bの実際の位置を求めずに、所定の位置に第2対応点1740bを表示するようにしてもよいし、第2対応点1740bを右画像1720上に表示しないように制御してもよい(図19(b))。
When it is determined that the matching process has failed as a result of the process of step S140 in FIG. 6, the
続いて、CPU18は、左画像1710上の第2計測点1730bにおける拡大画像をズームウィンドウ1750に表示し、右画像1720上の第2対応点1740bにおける拡大画像をズームウィンドウ1760に表示する制御を実行する。これによって、図19(a)に示すように、ズームウィンドウ1750,1760の表示が更新される。第2対応点1740bを表示しないように制御するときは、ズームウインドウ1760に拡大画像は表示されない。上記のように、マッチング処理の結果が信頼できないと判定された場合に、計測結果を表示する処理を、左画像上の計測点に対応する右画像上の対応点を表示する処理や、計測点における拡大画像をズームウィンドウに表示する処理よりも先に行うことによって、ユーザにマッチング処理の失敗をより早く伝え、ユーザの作業効率を向上することができる。
Subsequently, the
上記をまとめると、マッチング処理の失敗を示す計測結果を表示する処理を、左画像上の計測点に対応する右画像上の対応点を含む領域を表示する処理よりも先に行うことが望ましい。右画像上の対応点を含む領域とは、図19の右画像1720上の第2対応点1740bとその周辺の領域(第2対応点1740bを含むグラフィックを表示する領域)、ズームウィンドウ1760を含む領域、および右画像1720の全体の少なくともいずれかである。
In summary, it is desirable to perform the process of displaying the measurement result indicating the failure of the matching process before the process of displaying the region including the corresponding point on the right image corresponding to the measurement point on the left image. The area including the corresponding point on the right image includes the second
(第6の動作例)
次に、計測処理についての第6の動作例を説明する。以下では、第2の動作例で示した物体距離計測時の動作を説明するが、第1の動作例で示した2点間距離計測時の動作も同様である。第6の動作例では、3次元座標解析処理の前にマッチング信頼性判定が行われる。
(Sixth operation example)
Next, a sixth operation example regarding the measurement processing will be described. Hereinafter, the operation at the time of object distance measurement shown in the second operation example will be described, but the operation at the time of measuring the distance between two points shown in the first operation example is also the same. In the sixth operation example, the matching reliability determination is performed before the three-dimensional coordinate analysis process.
図20は、図12に対応した計測処理を示している。図12に示した処理と同一の処理には同一の符号を付与している。図12と異なるのは、ステップS800〜S820の処理が追加されていることと、ステップS410の処理がステップS830の処理に変わっていることである。ステップS400で計測点が設定された後、CPU18はテクスチャのコントラスト値を算出する(ステップS800)。このとき、CPU18は、左画像上で設定された計測点を中心とする11×11ピクセルのパターンエリアの画像からテクスチャのコントラスト値を算出する。
FIG. 20 shows a measurement process corresponding to FIG. The same processes as those shown in FIG. 12 are given the same reference numerals. The difference from FIG. 12 is that the processes of steps S800 to S820 are added, and the process of step S410 is changed to the process of step S830. After the measurement point is set in step S400, the
続いて、CPU18はテクスチャのコントラスト値を判定する(ステップS810)。この判定では、ステップS800で算出されたテクスチャのコントラスト値と所定値を比較することによって、画像が計測(特にマッチング処理)に適しているか否かが判定される。テクスチャのコントラスト値が所定値以上であった場合には、処理がステップS830に進む。また、テクスチャのコントラスト値が所定値未満の場合には、画像が計測に適していないので、CPU18は、画像が計測に適していないことを計測結果として表示する制御を実行する(ステップS820)。
Subsequently, the
図21は、ステップS830における3次元座標解析処理を示している。図8に示した処理と同一の処理には同一の符号を付与している。図8と異なるのは、テクスチャのコントラスト値に関するステップS230の処理が省かれていることと、図8のステップS200の処理がステップS900の処理に変わっていることである。図22は、ステップS900におけるパターンマッチング処理を示している。図10に示した処理と同一の処理には同一の符号を付与している。図10と異なるのは、テクスチャのコントラスト値に関するステップS360〜S380の処理が省かれていることと、図10のステップS300の処理がステップS1000の処理に変わっていることである。ステップS1000では、CPU18は、初期化処理として、正規化相互相関係数に関する確認用フラグの値を0に設定する。
FIG. 21 shows the three-dimensional coordinate analysis processing in step S830. The same processes as those shown in FIG. 8 are given the same reference numerals. The difference from FIG. 8 is that the process of step S230 regarding the contrast value of the texture is omitted, and the process of step S200 of FIG. 8 is changed to the process of step S900. FIG. 22 shows the pattern matching process in step S900. The same reference numerals are given to the same processes as those shown in FIG. The difference from FIG. 10 is that the processing in steps S360 to S380 regarding the texture contrast value is omitted, and the processing in step S300 in FIG. 10 is changed to the processing in step S1000. In step S1000, the
上記のように、パターンマッチング処理を行わなくても算出可能なテクスチャのコントラスト値を用いて、3次元座標解析処理の前にマッチング信頼性判定を行うことによって、マッチング処理の信頼性が低いことをユーザにより早く伝え、ユーザの作業効率を向上することができる。また、左画像上の計測点に対応する右画像上の対応点の位置を計算するマッチング処理の後には、物体距離に関するマッチング信頼性判定と、正規化相互相関係数に関するマッチング信頼性判定とが行われるので、マッチング信頼性判定の精度を保つことができる。 As described above, by using the texture contrast value that can be calculated without performing the pattern matching processing, the matching reliability determination is performed before the three-dimensional coordinate analysis processing, so that the matching processing reliability is low. It is possible to communicate to the user quickly and improve the user's work efficiency. In addition, after the matching process for calculating the position of the corresponding point on the right image corresponding to the measurement point on the left image, the matching reliability determination regarding the object distance and the matching reliability determination regarding the normalized cross-correlation coefficient are performed. As a result, the accuracy of the matching reliability determination can be maintained.
(第7の動作例)
次に、計測処理についての第7の動作例を説明する。以下では、第2の動作例で示した物体距離計測時の動作を説明するが、第1の動作例で示した2点間距離計測時の動作も同様である。第7の動作例では、ユーザが計測点の位置を指定するためのポインタが移動している間、マッチング信頼性判定が行われる。
(Seventh operation example)
Next, a seventh operation example regarding the measurement processing will be described. Hereinafter, the operation at the time of object distance measurement shown in the second operation example will be described, but the operation at the time of measuring the distance between two points shown in the first operation example is also the same. In the seventh operation example, the matching reliability determination is performed while the pointer for designating the position of the measurement point is moved by the user.
図23は、図12および図20に対応した計測処理を示している。図12および図20に示した処理と同一の処理には同一の符号を付与している。図12および図20と異なるのは、ステップS1100〜S1150の処理が追加されていることである。図23に示すように、まずCPU18は、操作部6から出力され、RS−232C I/F17を介して入力される信号に基づいて、表示画面上のポインタを移動する指示が入力されたか否かを判定する(ステップS1100)。
FIG. 23 shows a measurement process corresponding to FIGS. The same processes as those shown in FIGS. 12 and 20 are denoted by the same reference numerals. The difference from FIG. 12 and FIG. 20 is that the processing of steps S1100 to S1150 is added. As shown in FIG. 23, first, the
ポインタを移動する指示が入力されていない場合には、処理がステップS1150に進む。また、ポインタを移動する指示が入力された場合には、CPU18は、ポインタの表示位置を更新する処理を行うと共に、テクスチャのコントラスト値を算出する(ステップS1110)。このとき、CPU18は、左画像上で設定された計測点を中心とする11×11ピクセルのパターンエリアの画像からテクスチャのコントラスト値を算出する。
If no instruction to move the pointer is input, the process proceeds to step S1150. If an instruction to move the pointer is input, the
続いて、CPU18はテクスチャのコントラスト値を判定する(ステップS1120)。この判定では、ステップS1110で算出されたテクスチャのコントラスト値と所定値を比較することによって、画像が計測(特にマッチング処理)に適しているか否かが判定される。テクスチャのコントラスト値が所定値以上であった場合には、処理がステップS1140に進む。また、テクスチャのコントラスト値が所定値未満の場合には、画像が計測に適していないので、CPU18は、画像が計測に適していないことを計測結果として表示する制御を実行する(ステップS1130)。
Subsequently, the
ステップS1120またはステップS1130に続いて、CPU18は、表示画面上のポインタを移動する指示が入力されたか否かを判定する(ステップS1140)。判定方法は、ステップS1100における判定方法と同様である。ポインタを移動する指示が入力された場合には、処理がステップS1110に戻る。また、ポインタを移動する指示が入力されていない場合には、CPU18は、操作部6から出力され、RS−232C I/F17を介して入力される信号に基づいて、計測点を設定する指示が入力されたか否かを判定する(ステップS1100)。計測点を設定する指示は実際の計測(特にマッチング処理)の開始指示を兼ねている。計測点を設定する指示が入力されていない場合には、処理がステップS1100に戻る。また、計測点を設定する指示が入力された場合には、処理がステップS400に進む。以降の処理は、前述した通りである。
Subsequent to step S1120 or step S1130, the
上記では、ポインタを移動する指示が入力されてから、計測点を設定する指示(計測の開始指示)が入力されるまでの間、テクスチャのコントラスト値を用いたマッチング信頼性判定が行われる。したがって、第6の動作例と同様に、マッチング処理の信頼性が低いことをユーザにより早く伝え、ユーザの作業効率を向上することができる。また、ユーザは、操作部6を操作してポインタを移動させることにより、マッチング処理の信頼性が低い場所をリアルタイムに知ることができる。
In the above description, the matching reliability determination using the texture contrast value is performed after the instruction to move the pointer is input until the instruction to set the measurement point (measurement start instruction) is input. Therefore, similar to the sixth operation example, it is possible to quickly inform the user that the reliability of the matching process is low, and to improve the user's work efficiency. Further, the user can know in real time where the reliability of the matching process is low by operating the
上述したように、本実施形態によれば、計測結果の信頼性の判定結果に応じた制御を実行することによって、ユーザの作業効率を向上させることができる。特に、計測結果の信頼性の判定結果に応じて計測結果の表示形態を制御することによって、計測を終了する、またはやり直す等の判断をユーザが行いやすくなるので、ユーザの作業効率を向上させることができる。また、計測結果の信頼性が低いと判定した場合に、計測位置を修正する修正モードに移行する制御を実行することによって、計測結果の信頼性が向上し、計測のやり直しが発生しにくくなるので、ユーザの作業効率を向上させることができる。また、マッチング処理の失敗を示す計測結果を他よりも先に表示することや、3次元座標解析処理の前にマッチング信頼性判定を行うことによって、マッチング処理の信頼性が低いことをユーザにより早く伝え、ユーザの作業効率を向上することができる。 As described above, according to the present embodiment, the user's work efficiency can be improved by executing the control according to the determination result of the reliability of the measurement result. In particular, by controlling the display form of the measurement result according to the determination result of the reliability of the measurement result, it becomes easier for the user to make a determination such as ending the measurement or starting over, thereby improving the user's work efficiency Can do. In addition, when it is determined that the reliability of the measurement result is low, by executing control to shift to the correction mode to correct the measurement position, the reliability of the measurement result is improved, and it is difficult to repeat the measurement. The work efficiency of the user can be improved. In addition, by displaying the measurement result indicating the failure of the matching process earlier than the others, or by performing the matching reliability determination before the three-dimensional coordinate analysis process, the matching process is less likely to be less reliable. It is possible to improve the work efficiency of the user.
以上、図面を参照して本発明の実施形態について詳述してきたが、具体的な構成は上記の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。例えば、上記の実施形態では、光学アダプタが交換式である例を示したが、光学アダプタが交換式でなく挿入部の先端部に固定されていてもよい。 As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to the above-described embodiments, and includes design changes and the like without departing from the gist of the present invention. . For example, in the above-described embodiment, the example in which the optical adapter is replaceable is shown. However, the optical adapter may be fixed to the distal end portion of the insertion portion instead of the replaceable type.
1・・・計測用内視鏡装置、2・・・内視鏡、3・・・装置本体、4・・・モニタ、5・・・筐体、6・・・操作部(入力手段)、8・・・内視鏡ユニット、9・・・CCU(撮像信号処理手段)、10・・・制御ユニット、12・・・映像信号処理回路(表示信号生成手段)、18・・・CPU(計測手段、判定手段、制御手段)、20・・・挿入部、21・・・先端部、22・・・湾曲部、23・・・可撓管部、28・・・撮像素子
DESCRIPTION OF
Claims (17)
前記撮像信号を処理し画像データを生成する撮像信号処理手段と、
前記画像データを用いて三角測量の原理による計測を実行する計測手段と、
計測結果を表示するための表示信号を生成する表示信号生成手段と、
前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、
判定結果に応じた制御を実行する制御手段と、
を備え、
前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、同一被写体に関する一の被写体像における計測点に対応した他の被写体像における対応点を修正する修正モードに移行する制御を実行する
ことを特徴とする計測用内視鏡装置。 An endoscope that photoelectrically converts a subject image to generate an imaging signal;
Imaging signal processing means for processing the imaging signal and generating image data;
Measuring means for performing measurement based on the principle of triangulation using the image data;
Display signal generating means for generating a display signal for displaying the measurement result;
Determination means for determining the reliability of the measurement result based on the image data;
Control means for executing control according to the determination result;
Equipped with a,
When it is determined that the reliability of the measurement result is low, the control unit performs control to shift to a correction mode for correcting a corresponding point in another subject image corresponding to a measurement point in one subject image related to the same subject. An endoscope apparatus for measurement, characterized in that:
前記撮像信号を処理し画像データを生成する撮像信号処理手段と、
前記画像データを用いて三角測量の原理による計測を実行する計測手段と、
計測結果を表示するための表示信号を生成する表示信号生成手段と、
前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、
判定結果に応じた制御を実行する制御手段と、
を備え、
前記計測手段は、第1の被写体像上の計測点と、第2の被写体像上において前記計測点に対応した対応点とに基づいて前記計測を実行し、
前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、前記対応点を含む領域よりも先に前記計測結果を表示する制御を実行する
ことを特徴とする計測用内視鏡装置。 An endoscope that photoelectrically converts a subject image to generate an imaging signal;
Imaging signal processing means for processing the imaging signal and generating image data;
Measuring means for performing measurement based on the principle of triangulation using the image data;
Display signal generating means for generating a display signal for displaying the measurement result;
Determination means for determining the reliability of the measurement result based on the image data;
Control means for executing control according to the determination result;
Equipped with a,
The measurement unit performs the measurement based on a measurement point on the first subject image and a corresponding point corresponding to the measurement point on the second subject image;
The measurement endoscope apparatus, wherein the control unit performs control to display the measurement result before an area including the corresponding point when it is determined that the reliability of the measurement result is low. .
前記表示信号生成手段は、前記画像データに基づく画像、前記計測結果、および前記ポインタを表示するための表示信号を生成し、
前記判定手段は、前記入力手段に前記ポインタの移動指示が入力されてから前記計測の開始指示が入力されるまでの間に、前記計測点の位置における前記計測結果の信頼性を判定する
ことを特徴とする請求項1〜請求項7のいずれかに記載の計測用内視鏡装置。 An input unit for the user to input a pointer movement instruction indicating the position of the measurement point on the subject image and a measurement start instruction;
The display signal generating means generates an image based on the image data, the measurement result, and a display signal for displaying the pointer;
The determination means determines the reliability of the measurement result at the position of the measurement point between the input of the pointer movement instruction to the input means and the input of the measurement start instruction. measuring endoscope apparatus according to any one of claims 1 to 7, characterized.
前記制御手段は、前記判定結果を画像上の計測可能領域の外側に表示する制御を実行する
ことを特徴とする請求項1〜請求項10のいずれかに記載の計測用内視鏡装置。 The display signal generation means generates a display signal for displaying an image based on the image data and the measurement result,
The measurement endoscope apparatus according to any one of claims 1 to 10 , wherein the control unit executes control to display the determination result outside a measurable region on an image.
前記撮像信号を処理し画像データを生成する撮像信号処理手段と、
前記画像データを用いて三角測量の原理による計測を実行する計測手段と、
計測結果を表示するための表示信号を生成する表示信号生成手段と、
前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、
判定結果に応じた制御を実行する制御手段と、
として計測用内視鏡装置を機能させるためのプログラムであって、
前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、同一被写体に関する一の被写体像における計測点に対応した他の被写体像における対応点を修正する修正モードに移行する制御を実行する
ことを特徴とするプログラム。 An endoscope that photoelectrically converts a subject image to generate an imaging signal;
Imaging signal processing means for processing the imaging signal and generating image data;
Measuring means for performing measurement based on the principle of triangulation using the image data;
Display signal generating means for generating a display signal for displaying the measurement result;
Determination means for determining the reliability of the measurement result based on the image data;
Control means for executing control according to the determination result;
As a program for causing the measurement endoscope apparatus to function ,
When it is determined that the reliability of the measurement result is low, the control unit performs control to shift to a correction mode for correcting a corresponding point in another subject image corresponding to a measurement point in one subject image related to the same subject. Do
A program characterized by that .
前記撮像信号を処理し画像データを生成する撮像信号処理手段と、
前記画像データを用いて三角測量の原理による計測を実行する計測手段と、
計測結果を表示するための表示信号を生成する表示信号生成手段と、
前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、
判定結果に応じた制御を実行する制御手段と、
として計測用内視鏡装置を機能させるためのプログラムであって、
前記計測手段は、第1の被写体像上の計測点と、第2の被写体像上において前記計測点に対応した対応点とに基づいて前記計測を実行し、
前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、前記対応点を含む領域よりも先に前記計測結果を表示する制御を実行する
ことを特徴とするプログラム。 An endoscope that photoelectrically converts a subject image to generate an imaging signal;
Imaging signal processing means for processing the imaging signal and generating image data;
Measuring means for performing measurement based on the principle of triangulation using the image data;
Display signal generating means for generating a display signal for displaying the measurement result;
Determination means for determining the reliability of the measurement result based on the image data;
Control means for executing control according to the determination result;
As a program for causing the measurement endoscope apparatus to function ,
The measurement unit performs the measurement based on a measurement point on the first subject image and a corresponding point corresponding to the measurement point on the second subject image;
The control means executes control to display the measurement result before an area including the corresponding point when it is determined that the reliability of the measurement result is low.
A program characterized by that .
前記表示信号生成手段は、前記画像データに基づく画像、前記計測結果、および前記ポインタを表示するための表示信号を生成し、
前記判定手段は、前記入力手段に前記ポインタの移動指示が入力されてから前記計測の開始指示が入力されるまでの間に、前記計測点の位置における前記計測結果の信頼性を判定する
ことを特徴とする請求項12〜請求項14のいずれかに記載のプログラム。 Causing the measurement endoscope apparatus to function as an input means for a user to input a pointer movement instruction indicating the position of a measurement point on a subject image and a measurement start instruction;
The display signal generating means generates an image based on the image data, the measurement result, and a display signal for displaying the pointer;
The determination means determines the reliability of the measurement result at the position of the measurement point between the input of the pointer movement instruction to the input means and the input of the measurement start instruction. The program according to any one of claims 12 to 14 , wherein the program is characterized.
前記制御手段は、前記判定結果を画像上の計測可能領域の外側に表示する制御を実行する
ことを特徴とする請求項12〜請求項16のいずれかに記載のプログラム。 The display signal generation means generates a display signal for displaying an image based on the image data and the measurement result,
The program according to any one of claims 12 to 16 , wherein the control unit executes control to display the determination result outside a measurable region on an image.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008281474A JP5231173B2 (en) | 2007-12-27 | 2008-10-31 | Endoscope device for measurement and program |
US12/340,891 US8248465B2 (en) | 2007-12-27 | 2008-12-22 | Measuring endoscope apparatus and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007338002 | 2007-12-27 | ||
JP2007338002 | 2007-12-27 | ||
JP2008281474A JP5231173B2 (en) | 2007-12-27 | 2008-10-31 | Endoscope device for measurement and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009175692A JP2009175692A (en) | 2009-08-06 |
JP5231173B2 true JP5231173B2 (en) | 2013-07-10 |
Family
ID=41030795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008281474A Expired - Fee Related JP5231173B2 (en) | 2007-12-27 | 2008-10-31 | Endoscope device for measurement and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5231173B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5530225B2 (en) * | 2010-03-09 | 2014-06-25 | オリンパス株式会社 | Endoscope apparatus and program |
JP5920556B2 (en) * | 2011-02-03 | 2016-05-18 | 株式会社リコー | Imaging apparatus and imaging method |
JP5976436B2 (en) * | 2012-07-30 | 2016-08-23 | オリンパス株式会社 | Endoscope apparatus and program |
JP6097644B2 (en) * | 2013-06-19 | 2017-03-15 | 株式会社フジクラ | Imaging module, ranging module, imaging module with insulating tube, imaging module with lens, and endoscope |
WO2017209153A1 (en) * | 2016-05-30 | 2017-12-07 | シャープ株式会社 | Image processing device, image processing method, and image processing program |
JP2016186662A (en) * | 2016-07-20 | 2016-10-27 | オリンパス株式会社 | Endoscope apparatus and program |
WO2018061925A1 (en) * | 2016-09-30 | 2018-04-05 | 日本電気株式会社 | Information processing device, length measurement system, length measurement method, and program storage medium |
US20200027231A1 (en) * | 2016-09-30 | 2020-01-23 | Nec Corporation | Information processing device, information processing method, and program storage medium |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4343341B2 (en) * | 1999-09-01 | 2009-10-14 | オリンパス株式会社 | Endoscope device |
JP4885479B2 (en) * | 2004-10-12 | 2012-02-29 | オリンパス株式会社 | Endoscope device for measurement and program for endoscope |
-
2008
- 2008-10-31 JP JP2008281474A patent/JP5231173B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009175692A (en) | 2009-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5231173B2 (en) | Endoscope device for measurement and program | |
US8248465B2 (en) | Measuring endoscope apparatus and program | |
JP5073564B2 (en) | Endoscope device for measurement and program | |
US8004560B2 (en) | Endoscope apparatus | |
US7443488B2 (en) | Endoscope apparatus, method of operating the endoscope apparatus, and program to be executed to implement the method | |
US8913110B2 (en) | Endoscope apparatus and measurement method | |
JP4873794B2 (en) | Image processing measuring apparatus and measuring endoscope apparatus | |
JPH10248806A (en) | Measuring endoscopic device | |
JP5113990B2 (en) | Endoscope device for measurement | |
JP5186286B2 (en) | Endoscope device for measurement and program | |
US8372002B2 (en) | Endoscope apparatus | |
US20200053296A1 (en) | Measurement device, method of operating measurement device, and recording medium | |
JP7116925B2 (en) | Observation device operating method, observation device, and program | |
JP6081209B2 (en) | Endoscope apparatus and program | |
JP5153381B2 (en) | Endoscope device | |
JP2011170276A (en) | Endoscope device and program | |
US10432916B2 (en) | Measurement apparatus and operation method of measurement apparatus | |
JP5976436B2 (en) | Endoscope apparatus and program | |
JP6400767B2 (en) | Measuring endoscope device | |
JP5361517B2 (en) | Endoscope apparatus and measuring method | |
JP6426215B2 (en) | Endoscope apparatus and program | |
JP2007319620A (en) | Measuring adaptor for endoscope and endoscope system for measurement | |
JP5791989B2 (en) | Endoscope apparatus and program | |
JP5042550B2 (en) | Endoscope device | |
JPWO2017199657A1 (en) | Endoscope apparatus, measurement method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20130218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130321 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160329 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5231173 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |