JP5231173B2 - Endoscope device for measurement and program - Google Patents

Endoscope device for measurement and program Download PDF

Info

Publication number
JP5231173B2
JP5231173B2 JP2008281474A JP2008281474A JP5231173B2 JP 5231173 B2 JP5231173 B2 JP 5231173B2 JP 2008281474 A JP2008281474 A JP 2008281474A JP 2008281474 A JP2008281474 A JP 2008281474A JP 5231173 B2 JP5231173 B2 JP 5231173B2
Authority
JP
Japan
Prior art keywords
measurement
image
measurement result
image data
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008281474A
Other languages
Japanese (ja)
Other versions
JP2009175692A (en
Inventor
高広 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2008281474A priority Critical patent/JP5231173B2/en
Priority to US12/340,891 priority patent/US8248465B2/en
Publication of JP2009175692A publication Critical patent/JP2009175692A/en
Application granted granted Critical
Publication of JP5231173B2 publication Critical patent/JP5231173B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Measurement Of Optical Distance (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、画像データを用いて三角測量の原理による計測を行う計測用内視鏡装置、およびその動作を制御するためのプログラムに関する。   The present invention relates to a measurement endoscope apparatus that performs measurement based on the principle of triangulation using image data, and a program for controlling the operation thereof.

工業用内視鏡は、ボイラー、タービン、エンジン、化学プラント、水道配管等の内部の傷や腐食等の観察や検査に使用されている。工業用内視鏡では、多様な観察物を観察および検査することができるようにするため、複数種類の光学アダプタが用意されており、内視鏡の先端部分は交換可能となっている。   Industrial endoscopes are used for observation and inspection of internal scratches and corrosion of boilers, turbines, engines, chemical plants, water pipes, and the like. In an industrial endoscope, a plurality of types of optical adapters are prepared so that various observation objects can be observed and inspected, and the distal end portion of the endoscope is replaceable.

上記の光学アダプタとして、観察光学系に左右2つの視野を形成するステレオ光学アダプタがある。特許文献1には、ステレオ光学アダプタを使用し、被写体像を左右の光学系で捉えたときの左右の光学系測距点の座標に基づいて、三角測量の原理を使用して被写体の3次元空間座標を求め、被写体上の2点間の距離を計測する計測用内視鏡装置が記載されている。また、特許文献2には、同様に三角測量の原理を使用して高速に被写体の3次元空間座標を求め、被写体までの距離(物体距離)をリアルタイムに計測する計測用内視鏡装置が記載されている。
特開2006−15117号公報 特開2006−325741号公報
As the optical adapter, there is a stereo optical adapter that forms two left and right visual fields in the observation optical system. In Patent Document 1, a stereo optical adapter is used, and based on the coordinates of the right and left optical system ranging points when the subject image is captured by the left and right optical systems, the subject is three-dimensional using the principle of triangulation. An endoscope apparatus for measurement is described that obtains spatial coordinates and measures the distance between two points on a subject. Similarly, Patent Document 2 describes an endoscope apparatus for measurement that similarly obtains a three-dimensional spatial coordinate of a subject at high speed using the principle of triangulation, and measures the distance to the subject (object distance) in real time. Has been.
JP 2006-15117 A JP 2006-325741 A

図24および図25は、計測用内視鏡装置の表示装置が表示する画面(以下、表示画面と記載)を示している。図24は2点間距離を計測する場合の表示画面を示し、図25は物体距離を計測する場合の表示画面を示している。図24に示す表示画面2400には、光学アダプタで捉えられた左右の被写体像に対応した左画像2410と右画像2420が表示される。同様に、図25に示す表示画面2500には左画像2510と右画像2520が表示される。   24 and 25 show screens (hereinafter referred to as display screens) displayed by the display device of the measurement endoscope apparatus. FIG. 24 shows a display screen when measuring the distance between two points, and FIG. 25 shows a display screen when measuring the object distance. On the display screen 2400 shown in FIG. 24, a left image 2410 and a right image 2420 corresponding to the left and right subject images captured by the optical adapter are displayed. Similarly, a left image 2510 and a right image 2520 are displayed on the display screen 2500 shown in FIG.

図24に示すように、ユーザが左画像2410における被写体2430上の計測点2440a,2440bを指定すると、各計測点に対応した右画像2420上の対応点2450a,2450bの位置を画像のパターンマッチングにより計算するマッチング処理が行われる。続いて、計測点2440aおよびその対応点2450aの二次元座標と光学データとから、計測点2440aに対応した被写体上の第1の点の3次元座標が計算される。同様に、計測点2440bおよびその対応点2450bの二次元座標と光学データとから、計測点2440bに対応した被写体上の第2の点の3次元座標が計算される。上記第1の点と第2の点の3次元座標から2点間距離が計算され、計測結果2460として表示される。   As shown in FIG. 24, when the user designates measurement points 2440a and 2440b on the subject 2430 in the left image 2410, the positions of the corresponding points 2450a and 2450b on the right image 2420 corresponding to the measurement points are obtained by image pattern matching. The matching process to calculate is performed. Subsequently, the three-dimensional coordinates of the first point on the subject corresponding to the measurement point 2440a are calculated from the two-dimensional coordinates of the measurement point 2440a and the corresponding point 2450a and the optical data. Similarly, the three-dimensional coordinates of the second point on the subject corresponding to the measurement point 2440b are calculated from the two-dimensional coordinates of the measurement point 2440b and its corresponding point 2450b and the optical data. A distance between two points is calculated from the three-dimensional coordinates of the first point and the second point, and is displayed as a measurement result 2460.

また、図25に示すように、ユーザが左画像2510における被写体2530上の計測点2540を指定すると、計測点2540に対応した右画像2520上の対応点2550の位置がマッチング処理により計算される。続いて、計測点2540およびその対応点2550の二次元座標と光学データとから、計測点2540に対応した被写体上の点の3次元座標が計算される。この点の3次元座標から物体距離が計算され、計測結果2560として表示される。   As shown in FIG. 25, when the user designates a measurement point 2540 on the subject 2530 in the left image 2510, the position of the corresponding point 2550 on the right image 2520 corresponding to the measurement point 2540 is calculated by the matching process. Subsequently, the three-dimensional coordinates of the point on the subject corresponding to the measurement point 2540 are calculated from the two-dimensional coordinates of the measurement point 2540 and its corresponding point 2550 and the optical data. The object distance is calculated from the three-dimensional coordinates of this point and displayed as a measurement result 2560.

しかし、計測に用いる画像が明るすぎる、または暗すぎるというように画像の輝度が適切でない場合や、画像上に特徴となる模様がない場合、あるいは被写体までの距離が遠すぎて計測精度を確保しにくい場合には、マッチング処理が失敗することがあった。例えば、図24では計測点2440bに関するマッチング処理が失敗しており、図25では計測点2540に関するマッチング処理が失敗している。この結果、誤った計測結果が表示されていた。   However, when the image used for measurement is too bright or too dark, such as when the brightness of the image is not appropriate, or when there is no characteristic pattern on the image, or the distance to the subject is too far, the measurement accuracy is ensured. If it is difficult, the matching process may fail. For example, in FIG. 24, the matching process related to the measurement point 2440b has failed, and in FIG. 25, the matching process related to the measurement point 2540 has failed. As a result, an incorrect measurement result was displayed.

計測結果が誤っていることが即座に分かれば、計測をやり直すことも可能である。しかし、計測を行った時点で、左画像上で指定された計測点に対応した右画像上の点がマッチング処理によって正しく計算されているか否かを確認しなかったために、計測結果が誤っていることにユーザが気付かず、後になって計測結果が誤っていることが分かった場合、例えば計測を最初からやり直すことになり、ユーザの作業効率が低下していた。   If it is immediately known that the measurement result is incorrect, the measurement can be performed again. However, at the time of measurement, the measurement result is incorrect because it was not confirmed whether the point on the right image corresponding to the measurement point specified on the left image was correctly calculated by the matching process. In particular, when the user is not aware of it and later finds that the measurement result is incorrect, for example, the measurement is restarted from the beginning, and the work efficiency of the user is reduced.

本発明は、上述した課題に鑑みてなされたものであって、ユーザの作業効率を向上させることができる計測用内視鏡装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a measurement endoscope apparatus that can improve the work efficiency of a user.

本発明は、上記の課題を解決するためになされたもので、被写体像を光電変換し撮像信号を生成する内視鏡と、前記撮像信号を処理し画像データを生成する撮像信号処理手段と、前記画像データを用いて三角測量の原理による計測を実行する計測手段と、計測結果を表示するための表示信号を生成する表示信号生成手段と、前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、判定結果に応じた制御を実行する制御手段と、を備え、前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、同一被写体に関する一の被写体像における計測点に対応した他の被写体像における対応点を修正する修正モードに移行する制御を実行することを特徴とする計測用内視鏡装置である。
また、本発明は、被写体像を光電変換し撮像信号を生成する内視鏡と、前記撮像信号を処理し画像データを生成する撮像信号処理手段と、前記画像データを用いて三角測量の原理による計測を実行する計測手段と、計測結果を表示するための表示信号を生成する表示信号生成手段と、前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、判定結果に応じた制御を実行する制御手段と、を備え、前記計測手段は、第1の被写体像上の計測点と、第2の被写体像上において前記計測点に対応した対応点とに基づいて前記計測を実行し、前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、前記対応点を含む領域よりも先に前記計測結果を表示する制御を実行することを特徴とする計測用内視鏡装置である。
The present invention has been made in order to solve the above-described problem. An endoscope that photoelectrically converts a subject image to generate an imaging signal; an imaging signal processing unit that processes the imaging signal to generate image data; A measurement unit that performs measurement based on the principle of triangulation using the image data, a display signal generation unit that generates a display signal for displaying the measurement result, and the reliability of the measurement result based on the image data A determination unit for determining, and a control unit for executing control according to the determination result . When the control unit determines that the reliability of the measurement result is low, the measurement of one subject image related to the same subject is performed. An endoscope apparatus for measurement, characterized by executing control for shifting to a correction mode for correcting a corresponding point in another subject image corresponding to a point .
In addition, the present invention is based on the principle of triangulation using the image data, an endoscope that photoelectrically converts a subject image to generate an imaging signal, an imaging signal processing unit that processes the imaging signal and generates image data, and the image data. Measuring means for executing measurement, display signal generating means for generating a display signal for displaying the measurement result, determination means for determining the reliability of the measurement result based on the image data, and according to the determination result Control means for executing control, wherein the measurement means performs the measurement based on a measurement point on the first subject image and a corresponding point corresponding to the measurement point on the second subject image. When the control means determines that the reliability of the measurement result is low, the control means executes a control for displaying the measurement result before the area including the corresponding point. It is a mirror device.

また、本発明の計測用内視鏡装置において、前記制御手段は、前記計測結果の信頼性を判定し、判定結果に応じて前記計測結果の表示形態を制御することを特徴とする。   In the measurement endoscope apparatus of the present invention, the control unit determines the reliability of the measurement result and controls the display form of the measurement result according to the determination result.

また、本発明の計測用内視鏡装置において、前記制御手段は、被写体上の計測位置から前記内視鏡の結像面までの距離の値に応じて前記計測結果の表示形態を制御することを特徴とする。   In the measurement endoscope apparatus of the present invention, the control unit controls the display form of the measurement result according to the value of the distance from the measurement position on the subject to the imaging plane of the endoscope. It is characterized by.

また、本発明の計測用内視鏡装置において、前記制御手段は、同一被写体に関する複数の被写体像の相関関数の値に応じて前記計測結果の表示形態を制御することを特徴とする。   In the measurement endoscope apparatus of the present invention, the control unit controls the display form of the measurement result according to the correlation function value of a plurality of subject images related to the same subject.

また、本発明の計測用内視鏡装置において、前記制御手段は、同一被写体に関する複数の被写体像のテクスチャのコントラスト値に応じて前記計測結果の表示形態を制御することを特徴とする。   In the measurement endoscope apparatus of the present invention, the control unit controls the display form of the measurement result according to the texture contrast values of a plurality of subject images related to the same subject.

また、本発明の計測用内視鏡装置において、前記制御手段は、同一被写体に関する一の被写体像における計測点に対応した他の被写体像における対応点のエピポーララインからのずれ量に応じて前記計測結果の表示形態を制御することを特徴とする。   In the measurement endoscope apparatus according to the present invention, the control means may perform the measurement according to the amount of deviation from the epipolar line of the corresponding point in the other subject image corresponding to the measurement point in the one subject image related to the same subject. The display form of the result is controlled.

また、本発明の計測用内視鏡装置において、前記判定手段は、前記計測手段が前記計測を実行する前に、前記画像データに基づいて前記計測結果の信頼性を判定することを特徴とする。   In the measurement endoscope apparatus according to the present invention, the determination unit determines the reliability of the measurement result based on the image data before the measurement unit executes the measurement. .

また、本発明の計測用内視鏡装置において、前記判定手段は、前記計測手段が前記計測を実行する前に、前記画像データに基づいて前記計測結果の信頼性を判定する第1の判定処理を実行し、前記計測手段が前記計測を実行した後に、前記画像データに基づいて前記計測結果の信頼性を判定する第2の判定処理を実行することを特徴とする。   Moreover, in the endoscope apparatus for measurement according to the present invention, the determination unit is configured to determine a reliability of the measurement result based on the image data before the measurement unit performs the measurement. And after the measurement means executes the measurement, a second determination process for determining the reliability of the measurement result based on the image data is performed.

また、本発明の計測用内視鏡装置は、被写体像上の計測点の位置を示すポインタの移動指示および前記計測の開始指示をユーザが入力するための入力手段をさらに備え、前記表示信号生成手段は、前記画像データに基づく画像、前記計測結果、および前記ポインタを表示するための表示信号を生成し、前記判定手段は、前記入力手段に前記ポインタの移動指示が入力されてから前記計測の開始指示が入力されるまでの間に、前記計測点の位置における前記計測結果の信頼性を判定することを特徴とする。   The measurement endoscope apparatus of the present invention further includes an input unit for a user to input a pointer movement instruction indicating the position of the measurement point on the subject image and a measurement start instruction, and the display signal generation The means generates an image based on the image data, the measurement result, and a display signal for displaying the pointer, and the determination means performs the measurement after the pointer movement instruction is input to the input means. Until the start instruction is input, the reliability of the measurement result at the position of the measurement point is determined.

また、本発明の計測用内視鏡装置において、前記表示信号生成手段は、前記画像データに基づく画像および前記計測結果を表示するための表示信号を生成し、前記制御手段は、前記判定結果を画像上の計測可能領域の外側に表示する制御を実行することを特徴とする。   In the measurement endoscope apparatus according to the present invention, the display signal generation unit generates a display signal for displaying an image based on the image data and the measurement result, and the control unit displays the determination result. Control that displays outside the measurable area on the image is executed.

また、本発明は、被写体像を光電変換し撮像信号を生成する内視鏡と、前記撮像信号を処理し画像データを生成する撮像信号処理手段と、前記画像データを用いて三角測量の原理による計測を実行する計測手段と、計測結果を表示するための表示信号を生成する表示信号生成手段と、前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、判定結果に応じた制御を実行する制御手段と、として計測用内視鏡装置を機能させるためのプログラムであって、前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、同一被写体に関する一の被写体像における計測点に対応した他の被写体像における対応点を修正する修正モードに移行する制御を実行することを特徴とするプログラムである。
また、本発明は、被写体像を光電変換し撮像信号を生成する内視鏡と、前記撮像信号を処理し画像データを生成する撮像信号処理手段と、前記画像データを用いて三角測量の原理による計測を実行する計測手段と、計測結果を表示するための表示信号を生成する表示信号生成手段と、前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、判定結果に応じた制御を実行する制御手段と、を備え、前記計測手段は、第1の被写体像上の計測点と、第2の被写体像上において前記計測点に対応した対応点とに基づいて前記計測を実行し、前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、前記対応点を含む領域よりも先に前記計測結果を表示する制御を実行することを特徴とする計測用内視鏡装置である。
In addition, the present invention is based on the principle of triangulation using the image data, an endoscope that photoelectrically converts a subject image to generate an imaging signal, an imaging signal processing unit that processes the imaging signal and generates image data, and the image data. Measuring means for executing measurement, display signal generating means for generating a display signal for displaying the measurement result, determination means for determining the reliability of the measurement result based on the image data, and according to the determination result A control means for performing control, and a program for causing the measurement endoscope apparatus to function as a subject when the measurement means determines that the reliability of the measurement result is low. A program for executing control for shifting to a correction mode for correcting a corresponding point in another subject image corresponding to a measurement point in an image .
In addition, the present invention is based on the principle of triangulation using the image data, an endoscope that photoelectrically converts a subject image to generate an imaging signal, an imaging signal processing unit that processes the imaging signal and generates image data, and the image data. Measuring means for executing measurement, display signal generating means for generating a display signal for displaying the measurement result, determination means for determining the reliability of the measurement result based on the image data, and according to the determination result Control means for executing control, wherein the measurement means performs the measurement based on a measurement point on the first subject image and a corresponding point corresponding to the measurement point on the second subject image. When the control means determines that the reliability of the measurement result is low, the control means executes a control for displaying the measurement result before the area including the corresponding point. It is a mirror device.

また、本発明のプログラムにおいて、前記判定手段は、前記計測手段が前記計測を実行する前に、前記画像データに基づいて前記計測結果の信頼性を判定することを特徴とする。   In the program of the present invention, the determination unit determines the reliability of the measurement result based on the image data before the measurement unit executes the measurement.

また、本発明のプログラムにおいて、前記判定手段は、前記計測手段が前記計測を実行する前に、前記画像データに基づいて前記計測結果の信頼性を判定する第1の判定処理を実行し、前記計測手段が前記計測を実行した後に、前記画像データに基づいて前記計測結果の信頼性を判定する第2の判定処理を実行することを特徴とする。   In the program of the present invention, the determination unit executes a first determination process for determining reliability of the measurement result based on the image data before the measurement unit performs the measurement, After the measurement unit executes the measurement, a second determination process is performed to determine the reliability of the measurement result based on the image data.

また、本発明のプログラムは、被写体像上の計測点の位置を示すポインタの移動指示および前記計測の開始指示をユーザが入力するための入力手段として前記計測用内視鏡装置を機能させ、前記表示信号生成手段は、前記画像データに基づく画像、前記計測結果、および前記ポインタを表示するための表示信号を生成し、前記判定手段は、前記入力手段に前記ポインタの移動指示が入力されてから前記計測の開始指示が入力されるまでの間に、前記計測点の位置における前記計測結果の信頼性を判定することを特徴とする。   The program of the present invention causes the measurement endoscope apparatus to function as input means for a user to input a pointer movement instruction indicating the position of a measurement point on a subject image and a measurement start instruction. The display signal generation unit generates an image based on the image data, the measurement result, and a display signal for displaying the pointer, and the determination unit is configured to input the pointer movement instruction to the input unit. Before the measurement start instruction is input, the reliability of the measurement result at the position of the measurement point is determined.

また、本発明のプログラムにおいて、前記表示信号生成手段は、前記画像データに基づく画像および前記計測結果を表示するための表示信号を生成し、前記制御手段は、前記判定結果を画像上の計測可能領域の外側に表示する制御を実行することを特徴とする。   In the program of the present invention, the display signal generation unit generates an image based on the image data and a display signal for displaying the measurement result, and the control unit can measure the determination result on the image. Control is performed to display outside the area.

本発明によれば、計測結果の信頼性の判定結果に応じた制御を実行することによって、ユーザの作業効率を向上させることができるという効果が得られる。特に、計測結果の信頼性の判定結果に応じて計測結果の表示形態を制御することによって、計測を終了する、またはやり直す等の判断をユーザが行いやすくなるので、ユーザの作業効率を向上させることができる。また、計測結果の信頼性が低いと判定した場合に、計測位置を修正する修正モードに移行する制御を実行することによって、計測結果の信頼性が向上し、計測のやり直しが発生しにくくなるので、ユーザの作業効率を向上させることができる。   According to the present invention, it is possible to improve the user's work efficiency by executing the control according to the determination result of the reliability of the measurement result. In particular, by controlling the display form of the measurement result according to the determination result of the reliability of the measurement result, it becomes easier for the user to make a determination such as ending the measurement or starting over, thereby improving the user's work efficiency Can do. In addition, when it is determined that the reliability of the measurement result is low, by executing control to shift to the correction mode to correct the measurement position, the reliability of the measurement result is improved, and it is difficult to repeat the measurement. The work efficiency of the user can be improved.

以下、図面を参照し、本発明の実施形態を説明する。図1は、本発明の一実施形態による計測用内視鏡装置の全体構成を示している。図1に示すように、計測用内視鏡装置1は、内視鏡2と、この内視鏡2に接続された装置本体3とを備えている。内視鏡2は、細長な挿入部20と、装置全体の各種動作制御を実行する際に必要な操作を行うための操作部6とを備えている。装置本体3は、内視鏡2で撮像された被写体の画像や操作制御内容(例えば処理メニュー)等の表示を行う表示装置であるモニタ4(液晶モニタ)と、内部に制御ユニット10(図2参照)を有する筐体5とを備えている。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows the overall configuration of a measurement endoscope apparatus according to an embodiment of the present invention. As shown in FIG. 1, the measuring endoscope apparatus 1 includes an endoscope 2 and an apparatus main body 3 connected to the endoscope 2. The endoscope 2 includes an elongated insertion unit 20 and an operation unit 6 for performing operations necessary for performing various operation controls of the entire apparatus. The apparatus body 3 includes a monitor 4 (liquid crystal monitor) that is a display device that displays an image of a subject imaged by the endoscope 2 and operation control contents (for example, a processing menu), and a control unit 10 (FIG. 2). And a housing 5 having a reference).

挿入部20は、硬質な先端部21と、例えば上下左右に湾曲可能な湾曲部22と、柔軟性を有する可撓管部23とを先端側から順に連設して構成されている。先端部21には、観察視野を2つ有するステレオ光学アダプタや観察視野が1つの通常観察光学アダプタ等、各種光学アダプタが着脱自在になっている。   The insertion portion 20 is configured by connecting a hard distal end portion 21, a bending portion 22 that can be bent vertically and horizontally, and a flexible tube portion 23 having flexibility in order from the distal end side. Various optical adapters such as a stereo optical adapter having two observation fields and a normal observation optical adapter having one observation field are detachably attached to the distal end portion 21.

図2に示すように筐体5内には、内視鏡ユニット8、CCU9(カメラコントロールユニット)、および制御ユニット10が設けられており、挿入部20の基端部は内視鏡ユニット8に接続されている。内視鏡ユニット8は、観察時に必要な照明光を供給する光源装置(不図示)と、挿入部20を構成する湾曲部22を湾曲させる湾曲装置(不図示)とを備えて構成されている。   As shown in FIG. 2, an endoscope unit 8, a CCU 9 (camera control unit), and a control unit 10 are provided in the housing 5, and the proximal end portion of the insertion portion 20 is attached to the endoscope unit 8. It is connected. The endoscope unit 8 includes a light source device (not shown) that supplies illumination light necessary for observation, and a bending device (not shown) that bends the bending portion 22 that constitutes the insertion portion 20. .

挿入部20の先端部21には撮像素子28が内蔵されている。撮像素子28は、光学アダプタを介して結像された被写体像を光電変換し、撮像信号を生成する。CCU9には、撮像素子28から出力された撮像信号が入力される。この撮像信号は、CCU9内で例えばNTSC信号等の映像信号(画像データ)に変換されて、制御ユニット10へ供給される。   An imaging element 28 is built in the distal end portion 21 of the insertion portion 20. The image sensor 28 photoelectrically converts the subject image formed through the optical adapter to generate an image signal. An imaging signal output from the imaging device 28 is input to the CCU 9. The imaging signal is converted into a video signal (image data) such as an NTSC signal in the CCU 9 and supplied to the control unit 10.

制御ユニット10内には、映像信号が入力される映像信号処理回路12、ROM13、RAM14、カードI/F15(カードインターフェイス)、USB I/F16(USBインターフェイス)、およびRS−232C I/F17(RS−232Cインターフェイス)と、これら各種機能を主要プログラムに基づいて実行し動作制御を行うCPU18とが設けられている。   In the control unit 10, a video signal processing circuit 12, to which a video signal is input, a ROM 13, a RAM 14, a card I / F 15 (card interface), a USB I / F 16 (USB interface), and an RS-232C I / F 17 (RS -232C interface) and a CPU 18 that executes these various functions based on a main program and performs operation control.

RS−232C I/F17には、CCU9および内視鏡ユニット8が接続されると共に、これらCCU9や内視鏡ユニット8等の制御および動作指示を行う操作部6が接続されている。ユーザが操作部6を操作すると、その操作内容に基づいて、CCU9および内視鏡ユニット8を動作制御する際に必要な通信が行われる。   The RS-232C I / F 17 is connected to the CCU 9 and the endoscope unit 8, and to the operation unit 6 that performs control and operation instructions for the CCU 9 and the endoscope unit 8. When the user operates the operation unit 6, communication necessary for controlling the operation of the CCU 9 and the endoscope unit 8 is performed based on the operation content.

USB I/F16は、制御ユニット10とパーソナルコンピュータ31とを電気的に接続するためのインターフェイスである。このUSB I/F16を介して制御ユニット10とパーソナルコンピュータ31とを接続することによって、パーソナルコンピュータ31側で内視鏡画像の表示指示や、計測時における画像処理等の各種の指示制御を行うことが可能になると共に、制御ユニット10とパーソナルコンピュータ31との間での各種の処理に必要な制御情報やデータ等の入出力を行うことが可能になる。   The USB I / F 16 is an interface for electrically connecting the control unit 10 and the personal computer 31. By connecting the control unit 10 and the personal computer 31 via the USB I / F 16, various instruction control such as an endoscopic image display instruction and image processing at the time of measurement is performed on the personal computer 31 side. And control information and data necessary for various processes between the control unit 10 and the personal computer 31 can be input / output.

また、カードI/F15には、メモリカード32を自由に着脱することができるようになっている。メモリカード32をカードI/F15に装着することにより、CPU18による制御に従って、このメモリカード32に記憶されている制御処理情報や画像情報等のデータの制御ユニット10への取り込み、あるいは制御処理情報や画像情報等のデータのメモリカード32への記録を行うことが可能になる。   Further, the memory card 32 can be freely attached to and detached from the card I / F 15. By attaching the memory card 32 to the card I / F 15, in accordance with control by the CPU 18, control processing information and image information stored in the memory card 32 are taken into the control unit 10, or control processing information or It is possible to record data such as image information in the memory card 32.

映像信号処理回路12は、CCU9から供給された内視鏡画像と、グラフィックによる操作メニューとを合成した合成画像を表示するため、CPU18の制御により生成される、操作メニューに基づくグラフィック画像信号とCCU9からの映像信号を合成する処理や、モニタ4の画面上に表示するのに必要な処理等を行い、表示信号をモニタ4に供給する。また、この映像信号処理回路12は、単に内視鏡画像、あるいは操作メニュー等の画像を単独で表示するための処理を行うことも可能である。したがって、モニタ4の画面上には、内視鏡画像、操作メニュー画像、内視鏡画像と操作メニュー画像との合成画像等が表示される。   The video signal processing circuit 12 displays a composite image obtained by combining the endoscopic image supplied from the CCU 9 and the graphic operation menu, so that the graphic image signal based on the operation menu and the CCU 9 generated by the control of the CPU 18 are displayed. The processing for synthesizing the video signals from the video and the processing necessary for displaying on the screen of the monitor 4 are performed, and the display signal is supplied to the monitor 4. Further, the video signal processing circuit 12 can simply perform processing for displaying an endoscopic image or an image such as an operation menu alone. Therefore, an endoscope image, an operation menu image, a composite image of the endoscope image and the operation menu image, and the like are displayed on the screen of the monitor 4.

CPU18は、ROM13に格納されているプログラムを実行することによって、目的に応じた処理を行うように各種回路部等を制御して、計測用内視鏡装置1全体の動作制御を行う。RAM14は、CPU18によって、データの一時格納用の作業領域として使用される。   The CPU 18 executes the program stored in the ROM 13 to control various circuit units and the like so as to perform processing according to the purpose, thereby controlling the operation of the entire measurement endoscope apparatus 1. The RAM 14 is used by the CPU 18 as a work area for temporarily storing data.

図3は、内視鏡2が有する挿入部20の先端部21の斜視図であり、図4は図3のA−A断面図である。図3に示すように先端部21は、先端部本体39と、この先端部本体39に着脱自在の光学アダプタ46とから構成されている。先端部21の先端面には、例えばLEDからなる2つの照明24と、被写体像を取り込むための観察窓25とが設けてある。図4に示すように、先端部21を構成する先端部本体39に設けた観察窓25はカバーガラス30で閉塞され、その内側にはレンズ枠36を介して1対の対物光学系、つまり右画像用の対物光学系26Rと左画像用の対物光学系26Lが取り付けてある。   3 is a perspective view of the distal end portion 21 of the insertion portion 20 included in the endoscope 2, and FIG. 4 is a cross-sectional view taken along the line AA in FIG. As shown in FIG. 3, the distal end portion 21 includes a distal end portion main body 39 and an optical adapter 46 that can be attached to and detached from the distal end portion main body 39. The distal end surface of the distal end portion 21 is provided with two illuminations 24 made of LEDs, for example, and an observation window 25 for capturing a subject image. As shown in FIG. 4, the observation window 25 provided in the distal end portion main body 39 constituting the distal end portion 21 is closed with a cover glass 30, and a pair of objective optical systems, that is, a right side is interposed inside the observation window 25 through a lens frame 36. An objective optical system for image 26R and an objective optical system for left image 26L are attached.

このレンズ枠36は後方側に延出し、共通の像伝送光学系27の前段側光学系27aが取り付けてある。また、レンズ枠36の後端側の孔部に収納された撮像素子固定枠37には、撮像素子28が固定されている。この撮像素子28の撮像面の前部側には像伝送光学系27の後段側光学系27bがレンズ枠を介して取り付けてある。また、先端部本体39の前端側の外周は円筒状のカバー部材38で覆われ、このカバー部材38はネジで先端部本体39に固定されている。なお、カバー部材38と先端部本体39との間には、シール用のOリングが介挿され、水密構造にされている。   The lens frame 36 extends rearward, and a front-stage optical system 27a of a common image transmission optical system 27 is attached. The image sensor 28 is fixed to the image sensor fixing frame 37 housed in the hole on the rear end side of the lens frame 36. A rear side optical system 27b of the image transmission optical system 27 is attached to the front side of the image pickup surface of the image pickup element 28 via a lens frame. Further, the outer periphery of the front end side of the front end portion main body 39 is covered with a cylindrical cover member 38, and the cover member 38 is fixed to the front end portion main body 39 with screws. An O-ring for sealing is inserted between the cover member 38 and the tip end body 39 to form a watertight structure.

上記の対物光学系26Rと対物光学系26Lによる像は、像伝送光学系27を介して撮像素子28上で左右に異なる位置に結像される。つまり、対物光学系26Rと像伝送光学系27による光学系である右結像光学系と、対物光学系26Lと像伝送光学系27による光学系である左結像光学系とが構成されている。撮像素子28で光電変換された撮像信号は内視鏡ユニット8を介してCCU9に供給されて映像信号に変換され、その後、映像信号処理回路12に供給される。   Images by the objective optical system 26R and the objective optical system 26L are formed at different positions on the left and right on the image sensor 28 via the image transmission optical system 27. That is, a right imaging optical system that is an optical system including the objective optical system 26R and the image transmission optical system 27 and a left imaging optical system that is an optical system including the objective optical system 26L and the image transmission optical system 27 are configured. . The imaging signal photoelectrically converted by the imaging device 28 is supplied to the CCU 9 via the endoscope unit 8 and converted into a video signal, and then supplied to the video signal processing circuit 12.

また、撮像素子28の前面側はカバーガラス47で保護され、このカバーガラス47は光学アダプタ46側のカバーガラス48と対向する。光学アダプタ46の後端側の外周面には、固定リング49が設けてあり、先端部本体39の外周面に設けた雄ネジ部にこの固定リング49の後端内視鏡内周面に設けた雌ネジ部を螺合させることにより、着脱自在に取り付けられるようにしている。先端部本体39の先端面の外周面には位置決め用の凹部が、光学アダプタ39側には位置決め用ピンが設けてあり、光学アダプタ39を取り付ける際に凹部とピンとにより周方向の位置決めがされる。   Further, the front side of the image sensor 28 is protected by a cover glass 47, and the cover glass 47 faces the cover glass 48 on the optical adapter 46 side. A fixing ring 49 is provided on the outer peripheral surface on the rear end side of the optical adapter 46, and is provided on the inner peripheral surface of the rear end endoscope of the fixing ring 49 on the male screw portion provided on the outer peripheral surface of the distal end body 39. By attaching the female screw part, it can be detachably attached. A positioning concave portion is provided on the outer peripheral surface of the distal end surface of the distal end main body 39, and a positioning pin is provided on the optical adapter 39 side. .

次に、計測用内視鏡装置1を用いた計測方法を説明する。生産工程では、個体の異なる光学アダプタ46毎に、次の(a1)〜(e)に示す各光学アダプタ46の特有の光学データが測定される。その光学データが、記録媒体である例えばメモリカードに記録される。このメモリカードに記録された光学データは、光学アダプタ46の特性と一対一で対応することになって、出荷後、1つの組み合わせのものとして扱われる。本実施形態の光学データは以下の通りである。なお、光学データの詳細は、例えば特開2004−49638号公報に記載されているので、その説明を省略する。   Next, a measurement method using the measurement endoscope apparatus 1 will be described. In the production process, the optical data peculiar to each optical adapter 46 shown in the following (a1) to (e) is measured for each optical adapter 46 with different individuals. The optical data is recorded on a recording medium such as a memory card. The optical data recorded on the memory card has a one-to-one correspondence with the characteristics of the optical adapter 46 and is handled as one combination after shipment. The optical data of this embodiment is as follows. The details of the optical data are described in, for example, Japanese Patent Application Laid-Open No. 2004-49638, and the description thereof is omitted.

(a1)2つの対物光学系の幾何学的歪み補正テーブル
(a2)像伝送光学系の幾何学歪み補正テーブル
(b)左右の結像光学系それぞれの焦点距離
(c)左右の結像光学系の主点間の距離
(d)左右の結像光学系それぞれの画像上での光軸位置座標
(e)左右の結像光学系それぞれの画像がマスタの撮像素子上に結像するときの位置情報
(A1) Geometric distortion correction table for the two objective optical systems (a2) Geometric distortion correction table for the image transmission optical system (b) Focal lengths of the left and right imaging optical systems (c) Left and right imaging optical systems (D) Optical axis position coordinates on the images of the left and right imaging optical systems (e) Position when the images of the left and right imaging optical systems are imaged on the master image sensor information

以下、図5を参照しながら、光学データの測定方法を説明する。生産測定治具51は、光学アダプタ46が装着可能であって、マスタ撮像ユニット52と、CCU53と、パソコン31と、チャート54とで構成されている。   Hereinafter, a method for measuring optical data will be described with reference to FIG. The production measurement jig 51 can be mounted with an optical adapter 46, and includes a master imaging unit 52, a CCU 53, a personal computer 31, and a chart 54.

マスタ撮像ユニット52は、内視鏡2の先端部本体39と同様の構造を有している。CCU53はマスタ撮像ユニット52と信号線で接続されている。パソコン31は、メモリカード33が着脱可能なメモリカードスロット54を有し、CCU53からの画像データに対する画像処理を行う。チャート54は、光学アダプタ46の光学特性を解析するための格子状の模様を有している。   The master imaging unit 52 has the same structure as the distal end portion main body 39 of the endoscope 2. The CCU 53 is connected to the master imaging unit 52 through a signal line. The personal computer 31 has a memory card slot 54 to which the memory card 33 can be attached and detached, and performs image processing on image data from the CCU 53. The chart 54 has a lattice pattern for analyzing the optical characteristics of the optical adapter 46.

生産測定治具51を用いて光学データの取り込みを行う場合、まず、図5に示すように、光学アダプタ46をマスタ撮像ユニット52に取り付け、チャート54の像を光学アダプタ46を介して取り込み、その画像データに基づいてパーソナルコンピュータ31にて画像処理を行い、上記(a1)〜(e)の光学データを求め、メモリカード33に記録する。   When optical data is captured using the production measurement jig 51, first, as shown in FIG. 5, the optical adapter 46 is attached to the master imaging unit 52, and the image of the chart 54 is captured via the optical adapter 46. Image processing is performed by the personal computer 31 based on the image data, and the optical data (a1) to (e) are obtained and recorded in the memory card 33.

上記特有の光学データの収集を行った後の光学アダプタ46を内視鏡2に取り付け、計測内視鏡装置1において、次に示す(1)〜(8)の処理を行って各種寸法計測(ステレオ計測)を行うことができる。なお、ステレオ計測の詳細は、例えば特開2004−49638号公報に記載されているので、その説明を省略する。   The optical adapter 46 after the collection of the specific optical data is attached to the endoscope 2, and the measurement endoscope apparatus 1 performs the following processes (1) to (8) to measure various dimensions ( Stereo measurement). Note that details of stereo measurement are described in, for example, Japanese Patent Application Laid-Open No. 2004-49638, and thus description thereof is omitted.

(1)メモリカード33から上記(a1)〜(e)の光学データを読み込む。
(2)計測用内視鏡装置1を用いて白い被写体を撮像する。
(3)上記(e)のデータおよび上記(2)の撮像データを用いて、光学アダプタ46と内視鏡2との組み合わせによる画像位置のずれを求める。
(4)上記(3)のデータおよび上記(1)のデータを用いて、内視鏡2に対する幾何学的歪み補正を行う変換テーブルを作成する。
(5)内視鏡2にて被写体である被計測物を撮像し、画像を取り込む。
(6)上記の取り込んだ画像を上記(3)で作成したテーブルを基に座標変換する。
(7)座標変換された画像を基に、上記(2)の撮像データのマッチングにより任意の点の3次元座標を求める。
(8)上記3次元座標を基に各種寸法計測を行う。
(1) Read the optical data (a1) to (e) from the memory card 33.
(2) A white subject is imaged using the measurement endoscope apparatus 1.
(3) Using the data of (e) and the imaging data of (2), the displacement of the image position due to the combination of the optical adapter 46 and the endoscope 2 is obtained.
(4) A conversion table for performing geometric distortion correction for the endoscope 2 is created using the data of (3) and the data of (1).
(5) The to-be-measured object which is a subject is imaged by the endoscope 2 and an image is captured.
(6) The coordinates of the captured image are converted based on the table created in (3).
(7) Based on the coordinate-converted image, the three-dimensional coordinates of an arbitrary point are obtained by the imaging data matching in (2) above.
(8) Various dimension measurements are performed based on the three-dimensional coordinates.

(第1の動作例)
次に、計測処理についての第1の動作例として2点間距離計測時の動作を説明する。図6に示すように、まず、第1計測点が設定される(ステップS100)。このとき、モニタ4の表示画面を見ながらユーザが操作部6を操作し、被写体上の第1計測点を入力する。CPU18は、操作部6から出力され、RS−232C I/F17を介して入力される信号に基づいて、第1計測点の画像内位置(2次元座標)を計算する。以上がステップS100の処理である。
(First operation example)
Next, an operation at the time of measuring a distance between two points will be described as a first operation example of the measurement process. As shown in FIG. 6, first, a first measurement point is set (step S100). At this time, the user operates the operation unit 6 while viewing the display screen of the monitor 4 and inputs the first measurement point on the subject. The CPU 18 calculates the in-image position (two-dimensional coordinates) of the first measurement point based on a signal output from the operation unit 6 and input via the RS-232C I / F 17. The above is the process of step S100.

続いて、CPU18は3次元座標解析処理を実行し、第1計測点の3次元座標を計算する(ステップS110)。3次元座標解析処理の詳細は後述する。さらに、上記と同様に第2計測点が設定され(ステップS120)、3次元座標解析処理が実行されて第2計測点の3次元座標が計算される(ステップS130)。   Subsequently, the CPU 18 executes a three-dimensional coordinate analysis process to calculate the three-dimensional coordinates of the first measurement point (step S110). Details of the three-dimensional coordinate analysis processing will be described later. Further, the second measurement point is set in the same manner as described above (step S120), the three-dimensional coordinate analysis process is executed, and the three-dimensional coordinate of the second measurement point is calculated (step S130).

続いて、CPU18は、マッチング確認用フラグの値に基づいて、マッチング処理が成功したか否かを判定する(ステップS140)。前述したようにマッチング処理とは、同一被写体に関する第1の被写体像(例えば左画像)上で指定された第1計測点に対応する第2の被写体像(例えば右画像)上の対応点(マッチング点)の位置を画像のパターンマッチングにより計算する処理のことである。マッチング処理は、ステップS110,S130の処理の一部として実行される。また、マッチング確認用フラグとは、計測結果の信頼性に関するステップS140の判定で用いるフラグのことであり、第1計測点に関するフラグと、第2計測点に関するフラグとの2種類のフラグが用いられる。   Subsequently, the CPU 18 determines whether or not the matching process is successful based on the value of the matching confirmation flag (step S140). As described above, the matching process is a matching point (matching) on the second subject image (eg, right image) corresponding to the first measurement point designated on the first subject image (eg, left image) regarding the same subject. This is a process of calculating the position of (point) by pattern matching of images. The matching process is executed as part of the processes of steps S110 and S130. The matching confirmation flag is a flag used in the determination in step S140 regarding the reliability of the measurement result, and two types of flags, a flag related to the first measurement point and a flag related to the second measurement point, are used. .

後述するように、ステップS110,S130の3次元座標解析処理の中でマッチング確認用フラグの値が0または1に設定される。マッチング確認用フラグの値が1の場合には、マッチング処理が成功しており、マッチング確認用フラグの値が0の場合には、マッチング処理が失敗していることになる。   As will be described later, the value of the matching confirmation flag is set to 0 or 1 in the three-dimensional coordinate analysis processing in steps S110 and S130. If the value of the matching confirmation flag is 1, the matching process has succeeded. If the value of the matching confirmation flag is 0, the matching process has failed.

2種類のマッチング確認用フラグの値が共に1であった場合には、ステップS110,S130の一部として実行されるマッチング処理が共に成功していることになり、処理がステップS150に進む。また、2種類のマッチング確認用フラグの少なくとも一方の値が0であった場合には、ステップS110,S130の一部として実行されるマッチング処理の少なくとも一方が失敗していることになり、処理がステップS170に進む。   If the values of the two types of matching confirmation flags are both 1, the matching process executed as part of steps S110 and S130 is successful, and the process proceeds to step S150. If at least one of the two types of matching confirmation flags is 0, at least one of the matching processes executed as part of steps S110 and S130 has failed, and the process is Proceed to step S170.

ステップS110,S130の一部として実行されるマッチング処理が共に成功している場合には、CPU18は、第1計測点および第2計測点の3次元座標から2点間の距離を算出する(ステップS150)。続いて、CPU18は、ステップS150で算出した2点間距離を計測結果として表示する制御を実行する(ステップS160)。   When the matching process executed as part of steps S110 and S130 is successful, the CPU 18 calculates the distance between the two points from the three-dimensional coordinates of the first measurement point and the second measurement point (step S150). Subsequently, the CPU 18 executes control for displaying the distance between the two points calculated in step S150 as a measurement result (step S160).

このとき、CPU18は、操作メニューや計測結果を表示するためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する。映像信号処理回路12は、このグラフィック画像信号とCCU9からの映像信号を合成し、モニタ4の画面上に合成画像を表示するのに必要な処理等を行い、表示信号をモニタ4へ出力する。モニタ4は、表示信号に基づいて合成画像を表示する。このとき、2点間距離の計測結果が表示される(例えば、「L=2.00mm」等)。以上がステップS160の処理である。   At this time, the CPU 18 generates a graphic image signal for displaying the operation menu and the measurement result, and outputs the graphic image signal to the video signal processing circuit 12. The video signal processing circuit 12 synthesizes the graphic image signal and the video signal from the CCU 9, performs processing necessary to display the synthesized image on the screen of the monitor 4, and outputs the display signal to the monitor 4. The monitor 4 displays a composite image based on the display signal. At this time, the measurement result of the distance between the two points is displayed (for example, “L = 2.00 mm”). The above is the process of step S160.

一方、ステップS110,S130の一部として実行されるマッチング処理の少なくとも一方が失敗している場合には、CPU18は、マッチング処理の失敗を計測結果として表示する制御を実行する(ステップS170)。このときにCPU18が実行する制御はステップS160と同様であるが、計測結果を表示するためのグラフィック画像信号が異なっており、この結果、モニタ4が表示する合成画像において、計測結果の表示形態がマッチング処理の成功時とは異なる。   On the other hand, when at least one of the matching processes executed as a part of steps S110 and S130 has failed, the CPU 18 executes control to display the failure of the matching process as a measurement result (step S170). The control executed by the CPU 18 at this time is the same as in step S160, but the graphic image signal for displaying the measurement result is different. As a result, the display form of the measurement result is displayed in the composite image displayed on the monitor 4. Different from the successful matching process.

図7はモニタ4の表示画面を示している。図7に示す表示画面700には、光学アダプタ46で捉えられた左右の被写体像に対応した左画像710と右画像720が表示される。左画像710上でユーザがポインタ715を移動させて被写体730上の計測点740a,740bを指定すると、各計測点に対応した右画像720上の対応点750a,750bの位置がマッチング処理によって計算される。例えば、図7に示すように計測点750bの計算精度が低いと、計測結果760はマッチング処理の失敗を示す「−.−−−」(図7(a))や「計測不可」(図7(b))という表示となる。   FIG. 7 shows a display screen of the monitor 4. On the display screen 700 shown in FIG. 7, a left image 710 and a right image 720 corresponding to the left and right subject images captured by the optical adapter 46 are displayed. When the user moves the pointer 715 on the left image 710 to specify the measurement points 740a and 740b on the subject 730, the positions of the corresponding points 750a and 750b on the right image 720 corresponding to the measurement points are calculated by the matching process. The For example, as shown in FIG. 7, when the calculation accuracy of the measurement point 750b is low, the measurement result 760 shows “−.−−−” (FIG. 7A) indicating the failure of the matching process or “not measurable” (FIG. 7 (B)) is displayed.

このようにマッチング処理の失敗時には、計測結果が特殊な文字や記号、グラフ、メッセージ等で表示される。このため、ユーザは、マッチング処理が失敗したことを計測結果から知ることができる。マッチング処理の失敗を示す計測結果の表示位置は、マッチング処理が成功した場合の計測結果の表示位置と異なっていてもよいが、ユーザを混乱させることなくマッチング処理の失敗をより確実にユーザに通知するためには、表示位置を同一とすることが望ましい。また、内視鏡画像を見やすくするため、計測結果を内視鏡画像の外側に表示することが望ましく、特に計測結果を計測可能領域(計測点を設定することが可能な領域)の外側に表示することが望ましい。また、マッチング処理が失敗した場合に、右画像上の計測点も表示したままにしておくと、マッチング処理の失敗の原因を確認しやすくなる。   Thus, when the matching process fails, the measurement result is displayed as a special character, symbol, graph, message, or the like. For this reason, the user can know from the measurement result that the matching process has failed. The display position of the measurement result indicating the failure of the matching process may be different from the display position of the measurement result when the matching process is successful, but the user is more surely notified of the failure of the matching process without confusing the user. In order to do this, it is desirable that the display position be the same. In order to make the endoscopic image easier to see, it is desirable to display the measurement result outside the endoscopic image, and in particular, display the measurement result outside the measurable area (area where measurement points can be set). It is desirable to do. If the measurement point on the right image is also displayed when the matching process fails, the cause of the matching process failure can be easily confirmed.

左画像710上のズームウィンドウ770には、計測点740bの位置における拡大画像が表示され、右画像720上のズームウィンドウ780には、対応点750bの位置における拡大画像が表示される。計測点740bと対応点750bの位置が異なり、ズームウィンドウ770の画像とズームウィンドウ780の画像が異なることからも、ユーザはマッチング処理が失敗したことを知ることができる。   An enlarged image at the position of the measurement point 740b is displayed on the zoom window 770 on the left image 710, and an enlarged image at the position of the corresponding point 750b is displayed on the zoom window 780 on the right image 720. Since the positions of the measurement point 740b and the corresponding point 750b are different and the image of the zoom window 770 and the image of the zoom window 780 are also different, the user can know that the matching process has failed.

次に、ステップS110,S130における3次元座標解析処理の詳細を説明する。図8に示すように、まずCPU18はパターンマッチング処理を実行して、左右の2画像(ステレオ画像)の対応点であるマッチングポイントを検出する(ステップS200)。パターンマッチング処理の詳細は後述する。続いて、CPU18は、対応点の座標から左右の2画像のずれ量を求める(ステップS210)。   Next, details of the three-dimensional coordinate analysis processing in steps S110 and S130 will be described. As shown in FIG. 8, first, the CPU 18 executes a pattern matching process to detect matching points that are corresponding points of the left and right two images (stereo images) (step S200). Details of the pattern matching process will be described later. Subsequently, the CPU 18 obtains a shift amount between the left and right images from the coordinates of the corresponding points (step S210).

続いて、CPU18は後述する正規化相互相関係数に関する確認用フラグの値を判定する(ステップS220)。正規化相互相関係数に関する確認用フラグの値はステップS200のパターンマッチング処理で設定される。正規化相互相関係数に関する確認用フラグの値が1であった場合には、処理がステップS230に進み、正規化相互相関係数に関する確認用フラグの値が0であった場合には、処理がステップS270に進む。   Subsequently, the CPU 18 determines a value of a confirmation flag relating to a normalized cross-correlation coefficient described later (step S220). The value of the confirmation flag relating to the normalized cross-correlation coefficient is set by the pattern matching process in step S200. If the value of the confirmation flag related to the normalized cross correlation coefficient is 1, the process proceeds to step S230. If the value of the confirmation flag related to the normalized cross correlation coefficient is 0, the process proceeds to step S230. Advances to step S270.

正規化相互相関係数に関する確認用フラグの値が1であった場合には、CPU18はテクスチャのコントラスト値に関する確認用フラグの値を判定する(ステップS230)。テクスチャのコントラスト値に関する確認用フラグの値はステップS200のパターンマッチング処理で設定される。テクスチャのコントラスト値に関する確認用フラグの値が1であった場合には、処理がステップS240に進み、テクスチャのコントラスト値に関する確認用フラグの値が0であった場合には、処理がステップS270に進む。   If the value of the confirmation flag relating to the normalized cross-correlation coefficient is 1, the CPU 18 determines the value of the confirmation flag relating to the texture contrast value (step S230). The value of the confirmation flag relating to the texture contrast value is set in the pattern matching process in step S200. If the value of the confirmation flag related to the texture contrast value is 1, the process proceeds to step S240. If the value of the confirmation flag related to the texture contrast value is 0, the process proceeds to step S270. move on.

テクスチャのコントラスト値に関する確認用フラグの値が1であった場合には、CPU18は、対象としている点の3次元座標を算出する(ステップS240)。以下、3次元座標解析の基本原理について、図9を用いて説明する。図9は、x,y,z軸をもつ3次元空間座標系上の左右の2画像の位置関係を示している。この図9には、被写体までの距離(物体距離)の計測対象となる点Pが撮像素子の右結像面28Rおよび左結像面28L上に結像した状態が示されている。図9において、点OR,OLを光学系の主点とし、距離fを焦点距離とし、点QR,QLを点Pの結像位置とし、距離Lを点OR−点OL間の距離とする。   If the value of the confirmation flag regarding the texture contrast value is 1, the CPU 18 calculates the three-dimensional coordinates of the target point (step S240). Hereinafter, the basic principle of the three-dimensional coordinate analysis will be described with reference to FIG. FIG. 9 shows the positional relationship between two left and right images on a three-dimensional spatial coordinate system having x, y, and z axes. FIG. 9 shows a state where a point P that is a measurement target of the distance to the subject (object distance) is imaged on the right imaging surface 28R and the left imaging surface 28L of the image sensor. In FIG. 9, the points OR and OL are the principal points of the optical system, the distance f is the focal length, the points QR and QL are the imaging positions of the point P, and the distance L is the distance between the point OR and the point OL.

図9において、直線QR−ORから(1)式が成立する。
x/xR={y−(L/2)}/{yR−(L/2)}=z/(−f) ・・・(1)
また、直線QL−OLから(2)式が成立する。
x/xL={y+(L/2)}/{yL+(L/2)}=z/(−f) ・・・(2)
この式をx,y,zについて解けば、点Pの三次元座標が得られる。これにより、内視鏡2の撮像面から被写体までの距離(物体距離)が求まる。実際は像伝送光学系27の効果により、左右2つの像の光線は折り曲げられて右結像面28Rと左結像面28Lの間隔はもっと小さくなるが、ここでは図を簡略にするために像伝送光学系27の効果を省いて図示している。
In FIG. 9, equation (1) is established from the straight line QR-OR.
x / xR = {y− (L / 2)} / {yR− (L / 2)} = z / (− f) (1)
Moreover, Formula (2) is materialized from the straight line QL-OL.
x / xL = {y + (L / 2)} / {yL + (L / 2)} = z / (− f) (2)
If this equation is solved for x, y, z, the three-dimensional coordinates of the point P can be obtained. Thereby, the distance (object distance) from the imaging surface of the endoscope 2 to the subject is obtained. Actually, due to the effect of the image transmission optical system 27, the light beams of the two left and right images are bent, and the distance between the right imaging surface 28R and the left imaging surface 28L becomes smaller, but here, in order to simplify the drawing, image transmission is performed. The effect of the optical system 27 is omitted for illustration.

ステップS250に続いて、CPU18は物体距離の値を判定する(ステップS250)。物体距離の値が0以上であった場合には、処理がステップS260に進み、物体距離の値が0未満であった場合には、処理がステップS270に進む。ステップS250の判定では、物体距離が0以上であるか否かの判定を行っているが、物体距離が所定値α(α>0)以下であるか否かの判定を行った結果と合わせて判定を行ってもよい。すなわち、物体距離が0以上かつα以下である場合には、処理がステップS260に進み、それ以外の場合には、処理がステップS270に進む。   Subsequent to step S250, the CPU 18 determines the value of the object distance (step S250). If the object distance value is 0 or more, the process proceeds to step S260. If the object distance value is less than 0, the process proceeds to step S270. In the determination in step S250, it is determined whether or not the object distance is equal to or greater than 0, but this is combined with the result of determination whether or not the object distance is equal to or less than a predetermined value α (α> 0). A determination may be made. That is, if the object distance is greater than or equal to 0 and less than or equal to α, the process proceeds to step S260, and otherwise, the process proceeds to step S270.

物体距離の値が0以上であった場合には、ステップS220,S230,S250の判定結果から、マッチング処理が成功し、計測結果が信頼できることが分かる。この場合、CPU18はマッチング確認用フラグの値を1に設定する(ステップS260)。一方、ステップS220,S230,S250の判定結果から、マッチング処理が失敗し、計測結果が信頼できない場合には、CPU18はマッチング確認用フラグの値を0に設定する(ステップS270)。   When the value of the object distance is 0 or more, it can be seen from the determination results in steps S220, S230, and S250 that the matching process is successful and the measurement result is reliable. In this case, the CPU 18 sets the value of the matching confirmation flag to 1 (step S260). On the other hand, if the matching process fails and the measurement result is unreliable from the determination results of steps S220, S230, and S250, the CPU 18 sets the value of the matching confirmation flag to 0 (step S270).

次に、ステップS200におけるパターンマッチング処理の詳細を説明する。図10に示すように、まずCPU18は初期化処理として、正規化相互相関係数に関する確認用フラグの値とテクスチャのコントラスト値に関するマッチング確認用フラグの値とを0に設定する(ステップS300)。   Next, details of the pattern matching process in step S200 will be described. As shown in FIG. 10, first, as initialization processing, the CPU 18 sets the value of the confirmation flag related to the normalized cross-correlation coefficient and the value of the matching confirmation flag related to the texture contrast value to 0 (step S300).

続いて、CPU18は、パターンマッチングを行うパターンの大きさを示すパターンエリアの絞り込みを行う(ステップS310)。本実施形態の例では、値kに対応したパターンエリアを設定する。すなわち、
k=1ではパターンエリアを35×35(ピクセル)、
k=2ではパターンエリアを23×23(ピクセル)、
k=3ではパターンエリアを11×11(ピクセル)、
とし、値kを小から大へ切り換えて領域を大から小へ絞り込んでいき、対応点検出の精度を上げるようにする。
Subsequently, the CPU 18 narrows down the pattern area indicating the size of the pattern for pattern matching (step S310). In the example of this embodiment, a pattern area corresponding to the value k is set. That is,
When k = 1, the pattern area is 35 × 35 (pixels),
When k = 2, the pattern area is 23 × 23 (pixels),
When k = 3, the pattern area is 11 × 11 (pixels),
Then, the value k is switched from small to large to narrow the region from large to small so as to improve the accuracy of corresponding point detection.

続いて、CPU18は検索範囲を設定する。すなわち、パターンを探す右画像の領域を決定する(ステップS320)。その検索範囲の設定には、エピポーララインに誤差を考慮してエピポーラライン±5ピクセル以内とする場合と、モニタ画面上で水平に±7ピクセル以内とする場合と、画面上で手動により指示された略マッチング点を中心に±10ピクセル以内とする場合がある。なお、上記±10ピクセルは、手動による誤差を考慮した最適な値である。   Subsequently, the CPU 18 sets a search range. That is, the area of the right image for searching for a pattern is determined (step S320). In setting the search range, the epipolar line is set within ± 5 pixels in consideration of errors in the epipolar line, or within ± 7 pixels horizontally on the monitor screen, or manually specified on the screen. There are cases where the approximate matching point is within ± 10 pixels. The above ± 10 pixels is an optimum value in consideration of manual error.

続いて、CPU18は、設定した検索範囲でのパターンマッチングを行う(ステップS330)。このパターンマッチングでは、正規化相互相関による対応点検出を行い、最も正規化相互相関係数(−1〜+1)の大きな座標(X,Y)を対応点とする。値kをインクリメントし、その値kに対応してパターンを絞り込みながら、かつ検索範囲内でパターンエリアを動かしながらパターンマッチングが繰り返し行われる。   Subsequently, the CPU 18 performs pattern matching within the set search range (step S330). In this pattern matching, corresponding points are detected by normalized cross-correlation, and coordinates (X, Y) having the largest normalized cross-correlation coefficient (−1 to +1) are used as corresponding points. The pattern matching is repeatedly performed while incrementing the value k, narrowing down the pattern corresponding to the value k, and moving the pattern area within the search range.

パターンマッチングに利用する正規化相互相関関数M(u,v)には、一般的に以下の式を用いる。すなわち、t(x,y)をテンプレートとし、g(x,y)を画像データとし、t’をテンプレートの平均輝度とし、さらに、g’を画像の平均輝度として、以下の(3)式が適用される。ここでΣΣは画素の和をとることを表す。
M(u,v)={ΣΣ(g(x+u,y+v)−g’)(t(x,y)−t’)}/{ΣΣ(g(x+u,y+v)−g’)×ΣΣ(t(x,y)−t’)1/2 ・・・(3)
The following formula is generally used for the normalized cross-correlation function M (u, v) used for pattern matching. That is, t (x, y) is a template, g (x, y) is image data, t ′ is the average luminance of the template, and g ′ is the average luminance of the image. Applied. Here, ΣΣ S represents taking the sum of pixels.
M (u, v) = {ΣΣ S (g (x + u, y + v) −g ′) (t (x, y) −t ′)} / {ΣΣ S (g (x + u, y + v) −g ′) 2 × ΣΣ S (t (x, y) −t ′) 2 } 1/2 (3)

パターンマッチングの終了後、CPU18は正規化相互相関係数の値を判定する(ステップS340)。この判定に用いる正規化相互相関係数の値は、パターンマッチングで最も大きいとされた値である。   After the pattern matching is completed, the CPU 18 determines the value of the normalized cross correlation coefficient (step S340). The value of the normalized cross-correlation coefficient used for this determination is the largest value in pattern matching.

正規化相互相関係数の値が所定値以上であった場合には、処理がステップS350に進み、正規化相互相関係数の値が所定値未満であった場合には、パターンマッチング処理が終了する。正規化相互相関係数の値が所定値以上であった場合、CPU18は正規化相互相関係数に関する確認用フラグの値を1に設定する(ステップS350)。続いて、CPU18はテクスチャのコントラスト値を算出する(ステップS360)。   If the normalized cross-correlation coefficient value is equal to or greater than the predetermined value, the process proceeds to step S350. If the normalized cross-correlation coefficient value is less than the predetermined value, the pattern matching process ends. To do. When the value of the normalized cross correlation coefficient is equal to or greater than the predetermined value, the CPU 18 sets the value of the confirmation flag relating to the normalized cross correlation coefficient to 1 (step S350). Subsequently, the CPU 18 calculates a texture contrast value (step S360).

テクスチャのコントラスト値を算出する画像領域は、パターンマッチングを行ったパターンエリアの大きさである11×11ピクセルとする。テクスチャのコントラスト値C(d,θ)は、一般に以下のようにして算出される。同時生起行列D(a,b;d,θ)は、特定の相対位置関係「(d,θ)」(dは距離、θは角度)にある画素対[(x,y)、(u,v)]の濃度対(a,b)で表される。ただし、f(x,y)=a、f(u,v)=bとする。0〜L−1番目のL種類の画素があるとき、D(a,b;d,θ)はL×Lの行列となる。全要素の和が1となるようにDを正規化したものは以下の(4)式で表される。ただし、N={0,1,2,・・・,L−1}である。 The image area for calculating the texture contrast value is 11 × 11 pixels, which is the size of the pattern area subjected to pattern matching. The texture contrast value C (d, θ) is generally calculated as follows. The co-occurrence matrix D (a, b; d, θ) is a specific relative positional relationship “(d, θ)” (d is a distance, θ is an angle) [(x, y), (u, v)] with respect to the concentration pair (a, b). However, it is assumed that f (x, y) = a and f (u, v) = b. When there are 0 to (L-1) th L types of pixels, D (a, b; d, θ) is an L × L matrix. What normalized D so that the sum of all elements is 1 is expressed by the following equation (4). However, N L = {0, 1, 2,..., L−1}.

Figure 0005231173
Figure 0005231173

テクスチャのコントラスト値は以下の(5)式で表される。   The texture contrast value is expressed by the following equation (5).

Figure 0005231173
Figure 0005231173

続いて、CPU18はテクスチャのコントラスト値を判定する(ステップS370)。テクスチャのコントラスト値の左右画像間の差が所定値未満であった場合には、処理がステップS380に進み、それ以外の場合には、パターンマッチング処理が終了する。テクスチャのコントラスト値の左右画像間の差が所定値未満であった場合、CPU18はテクスチャのコントラスト値に関する確認用フラグの値を1に設定する(ステップS380)。   Subsequently, the CPU 18 determines the texture contrast value (step S370). If the difference between the left and right images of the texture contrast value is less than the predetermined value, the process proceeds to step S380. Otherwise, the pattern matching process ends. When the difference between the left and right images of the texture contrast value is less than the predetermined value, the CPU 18 sets the value of the confirmation flag relating to the texture contrast value to 1 (step S380).

上述した第1の動作例では、マッチング処理の信頼性に関する3種類の判定(正規化相互相関係数の値に関する判定、テクスチャのコントラスト値に関する判定、物体距離に関する判定)が行われ、これらの全ての判定において、マッチング処理の結果が信頼できると判定された場合にのみ、2点間距離が算出され、計測結果が表示される。また、これらの判定の少なくともいずれかにおいて、マッチング処理の結果が信頼できないと判定された場合には、マッチング処理の失敗を示す計測結果が表示される。   In the first operation example described above, three types of determination regarding the reliability of the matching process (determination regarding the value of the normalized cross-correlation coefficient, determination regarding the contrast value of the texture, and determination regarding the object distance) are performed. In this determination, the distance between the two points is calculated and the measurement result is displayed only when it is determined that the result of the matching process is reliable. If it is determined that the result of the matching process is not reliable in at least one of these determinations, a measurement result indicating the failure of the matching process is displayed.

なお、図6に示した処理において、以下のようにしてもよい。第1計測点に関する3次元座標解析処理(ステップS110)の後、CPU18は、マッチング確認用フラグの値に基づいて、マッチング処理が成功したか否かを判定する(ステップS140と同様の処理)。マッチング確認用フラグの値が1であった場合には、処理がステップS120に進み、マッチング確認用フラグの値が0であった場合には、処理がステップS100に戻る。つまり、第1計測点に関する3次元解析処理の中で行われるマッチング処理が成功するまで、第1計測点の設定と3次元座標解析処理が繰り返される。   Note that the processing shown in FIG. 6 may be performed as follows. After the three-dimensional coordinate analysis process for the first measurement point (step S110), the CPU 18 determines whether or not the matching process is successful based on the value of the matching confirmation flag (the same process as step S140). If the value of the matching confirmation flag is 1, the process proceeds to step S120. If the value of the matching confirmation flag is 0, the process returns to step S100. That is, the setting of the first measurement point and the three-dimensional coordinate analysis process are repeated until the matching process performed in the three-dimensional analysis process regarding the first measurement point is successful.

また、マッチング処理の信頼性に関する判定において、左画像における計測点に対応した右画像における対応点のエピポーララインからのずれ量を利用してもよい。例えば、マッチング処理によって求めた右画像上の対応点の座標がエピポーララインから所定値以上ずれていた場合には、マッチング処理が失敗したと判定される。   Further, in the determination regarding the reliability of the matching process, a deviation amount of the corresponding point in the right image corresponding to the measurement point in the left image from the epipolar line may be used. For example, when the coordinates of the corresponding points on the right image obtained by the matching process are deviated from the epipolar line by a predetermined value or more, it is determined that the matching process has failed.

エピポーララインの具体的な求め方は、以下の通りである。図11に示すように、本実施形態における左画像65の取り込み範囲は測距点Pの近傍の画像である。図11において、測距点Pの座標を(lx,ly)とし、左取得幅をL_WIDTH、左取得高さをL_HEIGHTとしたとき、左画像取得範囲LAREAの基点SPLの座標は、
(lx−L_WIDTH/2,ly−L_HEIGHT/2)
となる。また、右画像66の取得範囲RAREAは、図11に示すように、エピポーラライン77の近傍の画像である。
The specific method for obtaining the epipolar line is as follows. As shown in FIG. 11, the capture range of the left image 65 in the present embodiment is an image in the vicinity of the distance measuring point P. In FIG. 11, when the coordinates of the ranging point P are (lx, ly), the left acquisition width is L_WIDTH, and the left acquisition height is L_HEIGHT, the coordinates of the base point SPL of the left image acquisition range LAREA are as follows:
(Lx-L_WIDTH / 2, ly-L_HEIGHT / 2)
It becomes. Further, the acquisition range RAREA of the right image 66 is an image in the vicinity of the epipolar line 77 as shown in FIG.

エピポーラライン77は以下のようにして求められる。光学データから、左基準点OLの座標と、右基準点ORの座標を読み込む。左基準点OLおよb右基準点ORは、光学中心付近の同一観察対象の座標であり、光学データ生産時に設定される。この左基準点OLの座標を(olx,oly)とし、右基準点ORの座標を(orx,ory)とする。   The epipolar line 77 is obtained as follows. From the optical data, the coordinates of the left reference point OL and the coordinates of the right reference point OR are read. The left reference point OL and the b right reference point OR are the coordinates of the same observation target near the optical center, and are set at the time of optical data production. The coordinates of the left reference point OL are (olx, ly), and the coordinates of the right reference point OR are (orx, ory).

右画像66の左端のX座標をrsxとすると、エピポーララインの始点ESの座標(esx,esy)は、
(esx,esy)=(rsx,ly−oly+ory)
となる。また、エピポーララインの終点EEの座標(eex,eey)は、取得幅をR_WIDTHとすると、
(eex,eey)=(rsx+R_WIDTH,ly−oly+ory)
となる。
If the X coordinate of the left end of the right image 66 is rsx, the coordinates (esx, esy) of the epipolar line start point ES are:
(Esx, esy) = (rsx, ly-oliy + ory)
It becomes. In addition, the coordinates (eex, ey) of the end point EE of the epipolar line are as follows:
(Eex, eyy) = (rsx + R_WIDTH, ly-oliy + ory)
It becomes.

よって、取得高さをR_HEIGHTとすると、右画像66の取得範囲RAREAの基点SPRの座標は、
(esx,esy−R_HEIGHT/2)
となる。なお、エピポーララインの求め方は、上記に限られるものではなく、一般的なステレオビジョンの分野で公知である他の求め方によってもよい。
Therefore, if the acquisition height is R_HEIGHT, the coordinates of the base point SPR of the acquisition range RAREA of the right image 66 are
(Esx, esy-R_HEIGHT / 2)
It becomes. Note that the method of obtaining the epipolar line is not limited to the above, but may be another method known in the field of general stereo vision.

(第2の動作例)
次に、計測処理についての第2の動作例として物体距離計測時の動作を説明する。図12に示すように、まず、計測点が設定され(ステップS400)、3次元座標解析処理が実行されて計測点の3次元座標が計算される(ステップS410)。3次元座標解析処理は第1の動作例と同様である。続いて、CPU18は、マッチング確認用フラグの値に基づいて、マッチング処理が成功したか否かを判定する(ステップS420)。マッチング確認用フラグの値が1であった場合には、ステップS410の一部として実行されるマッチング処理が成功していることになり、処理がステップS430に進む。また、マッチング確認用フラグが0であった場合には、ステップS410の一部として実行されるマッチング処理が失敗していることになり、処理がステップS440に進む。
(Second operation example)
Next, an operation at the time of object distance measurement will be described as a second operation example of the measurement process. As shown in FIG. 12, first, measurement points are set (step S400), and three-dimensional coordinate analysis processing is executed to calculate the three-dimensional coordinates of the measurement points (step S410). The three-dimensional coordinate analysis process is the same as in the first operation example. Subsequently, the CPU 18 determines whether or not the matching process is successful based on the value of the matching confirmation flag (step S420). If the value of the matching confirmation flag is 1, the matching process executed as part of step S410 is successful, and the process proceeds to step S430. If the matching confirmation flag is 0, the matching process executed as part of step S410 has failed, and the process proceeds to step S440.

ステップS410の一部として実行されるマッチング処理が成功している場合には、マッチング確認用フラグの値が1となる。この場合、CPU18は、ステップS410の3次元座標解析処理の中で算出した物体距離を計測結果として表示する制御を実行する(ステップS430)。また、ステップS410の一部として実行されるマッチング処理が失敗している場合には、CPU18は、マッチング処理の失敗を計測結果として表示する制御を実行する(ステップS440)。計測結果の表示方法は第1の動作例と同様である。   If the matching process executed as part of step S410 is successful, the value of the matching confirmation flag is 1. In this case, the CPU 18 executes control to display the object distance calculated in the three-dimensional coordinate analysis process in step S410 as a measurement result (step S430). If the matching process executed as part of step S410 has failed, the CPU 18 performs control to display the failure of the matching process as a measurement result (step S440). The measurement result display method is the same as that in the first operation example.

図13はモニタ4の表示画面を示している。図13に示す表示画面1300には、光学アダプタ46で捉えられた左右の被写体像に対応した左画像1310と右画像1320が表示される。左画像1310上でユーザが被写体1330上の計測点1340を指定すると、計測点1340に対応した右画像1320上の対応点1350の位置がマッチング処理によって計算される。図13に示すように対応点1350の計算精度が低いと、計測結果1360はマッチング処理の失敗を示す「−.−−−」(図14(a))や「計測不可」(図14(b))という表示となる。   FIG. 13 shows the display screen of the monitor 4. On the display screen 1300 shown in FIG. 13, a left image 1310 and a right image 1320 corresponding to the left and right subject images captured by the optical adapter 46 are displayed. When the user designates a measurement point 1340 on the subject 1330 on the left image 1310, the position of the corresponding point 1350 on the right image 1320 corresponding to the measurement point 1340 is calculated by the matching process. As shown in FIG. 13, when the calculation accuracy of the corresponding point 1350 is low, the measurement result 1360 shows “−.−−−” (FIG. 14 (a)) or “not measurable” (FIG. 14 (b) )) Is displayed.

ステップS430,S440に続いて、CPU18は計測処理を終了するか否かを判定する(ステップS450)。ユーザが操作部6を操作し、計測処理の終了指示を入力した場合には、計測処理が終了する。それ以外の場合には、処理がステップS400に戻り、映像信号処理回路12から新たに取得した内視鏡画像データに基づいて各種処理が実行される。   Subsequent to steps S430 and S440, the CPU 18 determines whether or not to end the measurement process (step S450). When the user operates the operation unit 6 and inputs an instruction to end the measurement process, the measurement process ends. In other cases, the process returns to step S400, and various processes are executed based on the endoscopic image data newly acquired from the video signal processing circuit 12.

(第3の動作例)
次に、計測処理についての第3の動作例を説明する。以下では、第1の動作例で示した2点間距離計測時の動作を説明するが、第2の動作例で示した物体距離計測時の動作も同様である。図14は第3の動作例の処理を示している。図6に示した処理と同一の処理には同一の符号を付与している。図14に示す処理では、ステップS140でマッチング確認用フラグの値を確認した結果、2種類のマッチング確認用フラグの少なくとも一方の値が0であった場合には、CPU18は、計測点を修正する修正モードに移行する制御を実行する(ステップS500)。
(Third operation example)
Next, a third operation example regarding the measurement process will be described. Hereinafter, the operation at the time of measuring the distance between two points shown in the first operation example will be described, but the operation at the time of measuring the object distance shown in the second operation example is the same. FIG. 14 shows processing of the third operation example. The same reference numerals are assigned to the same processes as those shown in FIG. In the process shown in FIG. 14, when the value of the matching confirmation flag is confirmed in step S140, if at least one of the two types of matching confirmation flags is 0, the CPU 18 corrects the measurement point. Control for shifting to the correction mode is executed (step S500).

計測用内視鏡装置1の動作モードが修正モードに移行すると、ユーザが操作部6を操作することによって、右画像上の対応点の位置を手動で修正することが可能となる。この修正モード自体は従来の計測用内視鏡装置でも用意されている。対応点の修正が終了すると、修正後の対応点の位置に基づいて3次元座標が算出される。続いて、2点間距離の算出と計測結果の表示が行われる(ステップS150,S160)。この結果、計測結果の信頼性が向上することが期待できる。なお、図14に示した処理において、図6に示したステップS170の処理を行い、マッチング処理の失敗を示す計測結果を表示してから修正モードに移行してもよい。   When the operation mode of the measurement endoscope apparatus 1 shifts to the correction mode, the user can manually correct the position of the corresponding point on the right image by operating the operation unit 6. This correction mode itself is also prepared for a conventional measuring endoscope apparatus. When the correction of the corresponding point is completed, the three-dimensional coordinates are calculated based on the corrected position of the corresponding point. Subsequently, the distance between the two points is calculated and the measurement result is displayed (steps S150 and S160). As a result, it can be expected that the reliability of the measurement result is improved. In the process shown in FIG. 14, the process of step S170 shown in FIG. 6 may be performed to display the measurement result indicating the failure of the matching process and then shift to the correction mode.

(第4の動作例)
次に、計測処理についての第4の動作例を説明する。以下では、第1の動作例で示した2点間距離計測時の動作を説明するが、第2の動作例で示した物体距離計測時の動作も同様である。第4の動作例では、マッチング処理の信頼性に関する判定(以下、マッチング信頼性判定と記載)を行うモードと判定を行わないモードとを選択することが可能となっている。計測処理の開始前に2つのモードのいずれかが予め設定される。あるいは計測処理の開始直後に設定を行ってもよい。
(Fourth operation example)
Next, a fourth operation example regarding the measurement processing will be described. Hereinafter, the operation at the time of measuring the distance between two points shown in the first operation example will be described, but the operation at the time of measuring the object distance shown in the second operation example is the same. In the fourth operation example, it is possible to select a mode in which the determination regarding the reliability of the matching process (hereinafter referred to as matching reliability determination) and a mode in which the determination is not performed. One of the two modes is set in advance before the start of the measurement process. Alternatively, the setting may be performed immediately after the start of the measurement process.

図15は第4の動作例の処理を示している。図6に示した処理と同一の処理には同一の符号を付与している。図15に示す処理では、ステップS130の3次元座標解析処理の後、CPU18はマッチング信頼性判定を行うか否かを判定する(ステップS600)。マッチング信頼性判定を行う設定がなされている場合には、処理がステップS140に進み、マッチング信頼性判定を行わない設定がなされている場合には、処理がステップS150に進む。   FIG. 15 shows the processing of the fourth operation example. The same reference numerals are assigned to the same processes as those shown in FIG. In the process illustrated in FIG. 15, after the three-dimensional coordinate analysis process in step S <b> 130, the CPU 18 determines whether to perform matching reliability determination (step S <b> 600). If the setting for performing the matching reliability determination is made, the process proceeds to step S140. If the setting for not performing the matching reliability determination is performed, the process proceeds to step S150.

図16は第4の動作例におけるパターンマッチング処理を示している。図10に示した処理と同一の処理には同一の符号を付与している。図16に示す処理では、ステップS310〜S330のパターンマッチングの後、CPU18はマッチング信頼性判定を行うか否かを判定する(ステップS700)。マッチング信頼性判定を行う設定がなされている場合には、処理がステップS340に進み、マッチング信頼性判定を行わない設定がなされている場合には、パターンマッチング処理が終了する。マッチング信頼性判定を行わない設定がなされている場合には、マッチング信頼性判定に関する処理が省略されるので、その分、処理を高速化することができる。   FIG. 16 shows pattern matching processing in the fourth operation example. The same reference numerals are given to the same processes as those shown in FIG. In the process shown in FIG. 16, after pattern matching in steps S310 to S330, the CPU 18 determines whether or not to perform matching reliability determination (step S700). If the setting for performing the matching reliability determination is made, the process proceeds to step S340. If the setting for not performing the matching reliability determination is performed, the pattern matching process is ended. When the setting for not performing the matching reliability determination is performed, the processing related to the matching reliability determination is omitted, and accordingly, the processing can be speeded up.

(第5の動作例)
次に、計測処理についての第5の動作例を説明する。上記の動作例の記載では、マッチング処理の結果が信頼できないと判定された場合に計測結果などを表示する順番については規定されていない。しかし、ユーザの作業効率を向上するためには、マッチング処理の失敗を示す計測結果をより早く表示することが望ましい。そこで、第5の動作例では、マッチング処理の結果が信頼できないと判定された場合に、計測結果が他よりも先に表示される。以下では、第1の動作例で示した2点間距離計測時の動作を説明するが、第2の動作例で示した物体距離計測時の動作も同様である。
(Fifth operation example)
Next, a fifth operation example regarding the measurement processing will be described. In the description of the above operation example, the order in which the measurement results are displayed when it is determined that the result of the matching process is not reliable is not defined. However, in order to improve the user's work efficiency, it is desirable to display the measurement result indicating the failure of the matching process earlier. Therefore, in the fifth operation example, when it is determined that the result of the matching process is not reliable, the measurement result is displayed earlier than the others. Hereinafter, the operation at the time of measuring the distance between two points shown in the first operation example will be described, but the operation at the time of measuring the object distance shown in the second operation example is the same.

図17(a)に示すように、まず表示画面1700の左画像1710上に第1計測点1730aが設定されると、この第1計測点1730aに対応した右画像1720上の第1対応点1740aが設定される。このとき、ズームウィンドウ1750には、第1計測点1730aにおける拡大画像が表示され、ズームウィンドウ1760には、第1対応点1740aにおける拡大画像が表示される。続いて、図17(b)に示すように、左画像1710上に第2計測点1730bが設定される。このとき、CPU18は、第2計測点1730bを表示画面1700に追加して表示する制御を実行する。また、CPU18は、第2計測点1730bを表示する制御と並行して、図6のステップS130以後の処理を実行する。   As shown in FIG. 17A, first, when the first measurement point 1730a is set on the left image 1710 of the display screen 1700, the first corresponding point 1740a on the right image 1720 corresponding to the first measurement point 1730a. Is set. At this time, the zoom window 1750 displays an enlarged image at the first measurement point 1730a, and the zoom window 1760 displays an enlarged image at the first corresponding point 1740a. Subsequently, as shown in FIG. 17B, a second measurement point 1730b is set on the left image 1710. At this time, the CPU 18 executes control to add the second measurement point 1730b to the display screen 1700 and display it. Further, the CPU 18 executes processing after step S130 in FIG. 6 in parallel with the control for displaying the second measurement point 1730b.

図6のステップS140の処理の結果、マッチング処理が失敗したと判定された場合、CPU18は、マッチング処理の失敗を示す計測結果を表示画面1700に追加して表示する制御を実行する。これによって、図18(a)に示すように、計測結果1770が表示される。続いて、CPU18は、第2計測点1730bに対応する右画像1720上の第2対応点を表示画面1700に追加して表示する制御を実行する。これによって、図18(b)に示すように、右画像1720上に第2対応点1740bが表示される。後述する第6の動作例のように、マッチング信頼性判定を3次元座標解析処理よりも前に行う場合には、第2対応点1740bの実際の位置を求めずに、所定の位置に第2対応点1740bを表示するようにしてもよいし、第2対応点1740bを右画像1720上に表示しないように制御してもよい(図19(b))。   When it is determined that the matching process has failed as a result of the process of step S140 in FIG. 6, the CPU 18 executes control to add a measurement result indicating the failure of the matching process to the display screen 1700 and display it. As a result, a measurement result 1770 is displayed as shown in FIG. Subsequently, the CPU 18 executes control for adding and displaying the second corresponding point on the right image 1720 corresponding to the second measurement point 1730b on the display screen 1700. Thereby, as shown in FIG. 18B, the second corresponding point 1740b is displayed on the right image 1720. When the matching reliability determination is performed before the three-dimensional coordinate analysis processing as in a sixth operation example described later, the second position is not set to the predetermined position without obtaining the actual position of the second corresponding point 1740b. The corresponding point 1740b may be displayed, or the second corresponding point 1740b may be controlled not to be displayed on the right image 1720 (FIG. 19B).

続いて、CPU18は、左画像1710上の第2計測点1730bにおける拡大画像をズームウィンドウ1750に表示し、右画像1720上の第2対応点1740bにおける拡大画像をズームウィンドウ1760に表示する制御を実行する。これによって、図19(a)に示すように、ズームウィンドウ1750,1760の表示が更新される。第2対応点1740bを表示しないように制御するときは、ズームウインドウ1760に拡大画像は表示されない。上記のように、マッチング処理の結果が信頼できないと判定された場合に、計測結果を表示する処理を、左画像上の計測点に対応する右画像上の対応点を表示する処理や、計測点における拡大画像をズームウィンドウに表示する処理よりも先に行うことによって、ユーザにマッチング処理の失敗をより早く伝え、ユーザの作業効率を向上することができる。   Subsequently, the CPU 18 performs control to display an enlarged image at the second measurement point 1730b on the left image 1710 on the zoom window 1750 and display an enlarged image at the second corresponding point 1740b on the right image 1720 on the zoom window 1760. To do. Thereby, as shown in FIG. 19A, the display of the zoom windows 1750 and 1760 is updated. When the second corresponding point 1740b is controlled not to be displayed, the enlarged image is not displayed in the zoom window 1760. As described above, when it is determined that the result of the matching process is not reliable, the process of displaying the measurement result is performed by the process of displaying the corresponding point on the right image corresponding to the measurement point on the left image, By performing before the process of displaying the enlarged image in the zoom window, it is possible to notify the user of the failure of the matching process earlier and to improve the user's work efficiency.

上記をまとめると、マッチング処理の失敗を示す計測結果を表示する処理を、左画像上の計測点に対応する右画像上の対応点を含む領域を表示する処理よりも先に行うことが望ましい。右画像上の対応点を含む領域とは、図19の右画像1720上の第2対応点1740bとその周辺の領域(第2対応点1740bを含むグラフィックを表示する領域)、ズームウィンドウ1760を含む領域、および右画像1720の全体の少なくともいずれかである。   In summary, it is desirable to perform the process of displaying the measurement result indicating the failure of the matching process before the process of displaying the region including the corresponding point on the right image corresponding to the measurement point on the left image. The area including the corresponding point on the right image includes the second corresponding point 1740b on the right image 1720 in FIG. 19 and its surrounding area (area for displaying a graphic including the second corresponding point 1740b), and the zoom window 1760. It is at least one of the region and the entire right image 1720.

(第6の動作例)
次に、計測処理についての第6の動作例を説明する。以下では、第2の動作例で示した物体距離計測時の動作を説明するが、第1の動作例で示した2点間距離計測時の動作も同様である。第6の動作例では、3次元座標解析処理の前にマッチング信頼性判定が行われる。
(Sixth operation example)
Next, a sixth operation example regarding the measurement processing will be described. Hereinafter, the operation at the time of object distance measurement shown in the second operation example will be described, but the operation at the time of measuring the distance between two points shown in the first operation example is also the same. In the sixth operation example, the matching reliability determination is performed before the three-dimensional coordinate analysis process.

図20は、図12に対応した計測処理を示している。図12に示した処理と同一の処理には同一の符号を付与している。図12と異なるのは、ステップS800〜S820の処理が追加されていることと、ステップS410の処理がステップS830の処理に変わっていることである。ステップS400で計測点が設定された後、CPU18はテクスチャのコントラスト値を算出する(ステップS800)。このとき、CPU18は、左画像上で設定された計測点を中心とする11×11ピクセルのパターンエリアの画像からテクスチャのコントラスト値を算出する。   FIG. 20 shows a measurement process corresponding to FIG. The same processes as those shown in FIG. 12 are given the same reference numerals. The difference from FIG. 12 is that the processes of steps S800 to S820 are added, and the process of step S410 is changed to the process of step S830. After the measurement point is set in step S400, the CPU 18 calculates a texture contrast value (step S800). At this time, the CPU 18 calculates the texture contrast value from the image of the 11 × 11 pixel pattern area centered on the measurement point set on the left image.

続いて、CPU18はテクスチャのコントラスト値を判定する(ステップS810)。この判定では、ステップS800で算出されたテクスチャのコントラスト値と所定値を比較することによって、画像が計測(特にマッチング処理)に適しているか否かが判定される。テクスチャのコントラスト値が所定値以上であった場合には、処理がステップS830に進む。また、テクスチャのコントラスト値が所定値未満の場合には、画像が計測に適していないので、CPU18は、画像が計測に適していないことを計測結果として表示する制御を実行する(ステップS820)。   Subsequently, the CPU 18 determines the texture contrast value (step S810). In this determination, it is determined whether the image is suitable for measurement (particularly matching processing) by comparing the texture contrast value calculated in step S800 with a predetermined value. If the texture contrast value is greater than or equal to the predetermined value, the process proceeds to step S830. If the contrast value of the texture is less than the predetermined value, the image is not suitable for measurement, and thus the CPU 18 performs control to display that the image is not suitable for measurement as a measurement result (step S820).

図21は、ステップS830における3次元座標解析処理を示している。図8に示した処理と同一の処理には同一の符号を付与している。図8と異なるのは、テクスチャのコントラスト値に関するステップS230の処理が省かれていることと、図8のステップS200の処理がステップS900の処理に変わっていることである。図22は、ステップS900におけるパターンマッチング処理を示している。図10に示した処理と同一の処理には同一の符号を付与している。図10と異なるのは、テクスチャのコントラスト値に関するステップS360〜S380の処理が省かれていることと、図10のステップS300の処理がステップS1000の処理に変わっていることである。ステップS1000では、CPU18は、初期化処理として、正規化相互相関係数に関する確認用フラグの値を0に設定する。   FIG. 21 shows the three-dimensional coordinate analysis processing in step S830. The same processes as those shown in FIG. 8 are given the same reference numerals. The difference from FIG. 8 is that the process of step S230 regarding the contrast value of the texture is omitted, and the process of step S200 of FIG. 8 is changed to the process of step S900. FIG. 22 shows the pattern matching process in step S900. The same reference numerals are given to the same processes as those shown in FIG. The difference from FIG. 10 is that the processing in steps S360 to S380 regarding the texture contrast value is omitted, and the processing in step S300 in FIG. 10 is changed to the processing in step S1000. In step S1000, the CPU 18 sets the value of the confirmation flag related to the normalized cross correlation coefficient to 0 as an initialization process.

上記のように、パターンマッチング処理を行わなくても算出可能なテクスチャのコントラスト値を用いて、3次元座標解析処理の前にマッチング信頼性判定を行うことによって、マッチング処理の信頼性が低いことをユーザにより早く伝え、ユーザの作業効率を向上することができる。また、左画像上の計測点に対応する右画像上の対応点の位置を計算するマッチング処理の後には、物体距離に関するマッチング信頼性判定と、正規化相互相関係数に関するマッチング信頼性判定とが行われるので、マッチング信頼性判定の精度を保つことができる。   As described above, by using the texture contrast value that can be calculated without performing the pattern matching processing, the matching reliability determination is performed before the three-dimensional coordinate analysis processing, so that the matching processing reliability is low. It is possible to communicate to the user quickly and improve the user's work efficiency. In addition, after the matching process for calculating the position of the corresponding point on the right image corresponding to the measurement point on the left image, the matching reliability determination regarding the object distance and the matching reliability determination regarding the normalized cross-correlation coefficient are performed. As a result, the accuracy of the matching reliability determination can be maintained.

(第7の動作例)
次に、計測処理についての第7の動作例を説明する。以下では、第2の動作例で示した物体距離計測時の動作を説明するが、第1の動作例で示した2点間距離計測時の動作も同様である。第7の動作例では、ユーザが計測点の位置を指定するためのポインタが移動している間、マッチング信頼性判定が行われる。
(Seventh operation example)
Next, a seventh operation example regarding the measurement processing will be described. Hereinafter, the operation at the time of object distance measurement shown in the second operation example will be described, but the operation at the time of measuring the distance between two points shown in the first operation example is also the same. In the seventh operation example, the matching reliability determination is performed while the pointer for designating the position of the measurement point is moved by the user.

図23は、図12および図20に対応した計測処理を示している。図12および図20に示した処理と同一の処理には同一の符号を付与している。図12および図20と異なるのは、ステップS1100〜S1150の処理が追加されていることである。図23に示すように、まずCPU18は、操作部6から出力され、RS−232C I/F17を介して入力される信号に基づいて、表示画面上のポインタを移動する指示が入力されたか否かを判定する(ステップS1100)。   FIG. 23 shows a measurement process corresponding to FIGS. The same processes as those shown in FIGS. 12 and 20 are denoted by the same reference numerals. The difference from FIG. 12 and FIG. 20 is that the processing of steps S1100 to S1150 is added. As shown in FIG. 23, first, the CPU 18 determines whether or not an instruction to move the pointer on the display screen is input based on a signal output from the operation unit 6 and input via the RS-232C I / F 17. Is determined (step S1100).

ポインタを移動する指示が入力されていない場合には、処理がステップS1150に進む。また、ポインタを移動する指示が入力された場合には、CPU18は、ポインタの表示位置を更新する処理を行うと共に、テクスチャのコントラスト値を算出する(ステップS1110)。このとき、CPU18は、左画像上で設定された計測点を中心とする11×11ピクセルのパターンエリアの画像からテクスチャのコントラスト値を算出する。   If no instruction to move the pointer is input, the process proceeds to step S1150. If an instruction to move the pointer is input, the CPU 18 performs processing for updating the display position of the pointer and calculates the contrast value of the texture (step S1110). At this time, the CPU 18 calculates the texture contrast value from the image of the 11 × 11 pixel pattern area centered on the measurement point set on the left image.

続いて、CPU18はテクスチャのコントラスト値を判定する(ステップS1120)。この判定では、ステップS1110で算出されたテクスチャのコントラスト値と所定値を比較することによって、画像が計測(特にマッチング処理)に適しているか否かが判定される。テクスチャのコントラスト値が所定値以上であった場合には、処理がステップS1140に進む。また、テクスチャのコントラスト値が所定値未満の場合には、画像が計測に適していないので、CPU18は、画像が計測に適していないことを計測結果として表示する制御を実行する(ステップS1130)。   Subsequently, the CPU 18 determines the texture contrast value (step S1120). In this determination, it is determined whether the image is suitable for measurement (particularly matching processing) by comparing the texture contrast value calculated in step S1110 with a predetermined value. If the texture contrast value is greater than or equal to the predetermined value, the process proceeds to step S1140. If the contrast value of the texture is less than the predetermined value, the image is not suitable for measurement, and the CPU 18 executes control to display that the image is not suitable for measurement as a measurement result (step S1130).

ステップS1120またはステップS1130に続いて、CPU18は、表示画面上のポインタを移動する指示が入力されたか否かを判定する(ステップS1140)。判定方法は、ステップS1100における判定方法と同様である。ポインタを移動する指示が入力された場合には、処理がステップS1110に戻る。また、ポインタを移動する指示が入力されていない場合には、CPU18は、操作部6から出力され、RS−232C I/F17を介して入力される信号に基づいて、計測点を設定する指示が入力されたか否かを判定する(ステップS1100)。計測点を設定する指示は実際の計測(特にマッチング処理)の開始指示を兼ねている。計測点を設定する指示が入力されていない場合には、処理がステップS1100に戻る。また、計測点を設定する指示が入力された場合には、処理がステップS400に進む。以降の処理は、前述した通りである。   Subsequent to step S1120 or step S1130, the CPU 18 determines whether or not an instruction to move the pointer on the display screen is input (step S1140). The determination method is the same as the determination method in step S1100. If an instruction to move the pointer is input, the process returns to step S1110. When no instruction to move the pointer is input, the CPU 18 outputs an instruction to set a measurement point based on a signal output from the operation unit 6 and input via the RS-232C I / F 17. It is determined whether or not an input has been made (step S1100). The instruction to set the measurement point also serves as an instruction to start actual measurement (particularly matching processing). If an instruction to set a measurement point has not been input, the process returns to step S1100. If an instruction to set a measurement point is input, the process proceeds to step S400. The subsequent processing is as described above.

上記では、ポインタを移動する指示が入力されてから、計測点を設定する指示(計測の開始指示)が入力されるまでの間、テクスチャのコントラスト値を用いたマッチング信頼性判定が行われる。したがって、第6の動作例と同様に、マッチング処理の信頼性が低いことをユーザにより早く伝え、ユーザの作業効率を向上することができる。また、ユーザは、操作部6を操作してポインタを移動させることにより、マッチング処理の信頼性が低い場所をリアルタイムに知ることができる。   In the above description, the matching reliability determination using the texture contrast value is performed after the instruction to move the pointer is input until the instruction to set the measurement point (measurement start instruction) is input. Therefore, similar to the sixth operation example, it is possible to quickly inform the user that the reliability of the matching process is low, and to improve the user's work efficiency. Further, the user can know in real time where the reliability of the matching process is low by operating the operation unit 6 and moving the pointer.

上述したように、本実施形態によれば、計測結果の信頼性の判定結果に応じた制御を実行することによって、ユーザの作業効率を向上させることができる。特に、計測結果の信頼性の判定結果に応じて計測結果の表示形態を制御することによって、計測を終了する、またはやり直す等の判断をユーザが行いやすくなるので、ユーザの作業効率を向上させることができる。また、計測結果の信頼性が低いと判定した場合に、計測位置を修正する修正モードに移行する制御を実行することによって、計測結果の信頼性が向上し、計測のやり直しが発生しにくくなるので、ユーザの作業効率を向上させることができる。また、マッチング処理の失敗を示す計測結果を他よりも先に表示することや、3次元座標解析処理の前にマッチング信頼性判定を行うことによって、マッチング処理の信頼性が低いことをユーザにより早く伝え、ユーザの作業効率を向上することができる。   As described above, according to the present embodiment, the user's work efficiency can be improved by executing the control according to the determination result of the reliability of the measurement result. In particular, by controlling the display form of the measurement result according to the determination result of the reliability of the measurement result, it becomes easier for the user to make a determination such as ending the measurement or starting over, thereby improving the user's work efficiency Can do. In addition, when it is determined that the reliability of the measurement result is low, by executing control to shift to the correction mode to correct the measurement position, the reliability of the measurement result is improved, and it is difficult to repeat the measurement. The work efficiency of the user can be improved. In addition, by displaying the measurement result indicating the failure of the matching process earlier than the others, or by performing the matching reliability determination before the three-dimensional coordinate analysis process, the matching process is less likely to be less reliable. It is possible to improve the work efficiency of the user.

以上、図面を参照して本発明の実施形態について詳述してきたが、具体的な構成は上記の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。例えば、上記の実施形態では、光学アダプタが交換式である例を示したが、光学アダプタが交換式でなく挿入部の先端部に固定されていてもよい。   As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to the above-described embodiments, and includes design changes and the like without departing from the gist of the present invention. . For example, in the above-described embodiment, the example in which the optical adapter is replaceable is shown. However, the optical adapter may be fixed to the distal end portion of the insertion portion instead of the replaceable type.

本発明の一実施形態による計測用内視鏡装置の全体構成を示す斜視図である。1 is a perspective view showing an overall configuration of a measurement endoscope apparatus according to an embodiment of the present invention. 本発明の一実施形態による計測用内視鏡装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the endoscope apparatus for measurement by one Embodiment of this invention. 本発明の一実施形態による計測用内視鏡装置が有する内視鏡の挿入部の先端部の斜視図である。It is a perspective view of the front-end | tip part of the insertion part of the endoscope which the endoscope apparatus for measurement by one Embodiment of this invention has. 本発明の一実施形態による計測用内視鏡装置が有する内視鏡の挿入部の先端部の断面図である。It is sectional drawing of the front-end | tip part of the insertion part of the endoscope which the endoscope apparatus for measurement by one Embodiment of this invention has. 本発明の一実施形態による計測用内視鏡装置に適用される光学アダプタに特有の光学データを測定する様子を示す斜視図である。It is a perspective view which shows a mode that the optical data peculiar to the optical adapter applied to the endoscope apparatus for measurement by one Embodiment of this invention are measured. 本発明の一実施形態による計測用内視鏡装置が実行する計測処理(第1の動作例)の手順を示すフローチャートである。It is a flowchart which shows the procedure of the measurement process (1st operation example) which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態による計測用内視鏡装置の表示画面(第1の動作例)を示す参考図である。It is a reference figure showing the display screen (the 1st example of operation) of the endoscope apparatus for measurement by one embodiment of the present invention. 本発明の一実施形態による計測用内視鏡装置が実行する3次元座標解析処理(第1の動作例)の手順を示すフローチャートである。It is a flowchart which shows the procedure of the three-dimensional coordinate analysis process (1st operation example) which the endoscope apparatus for a measurement by one Embodiment of this invention performs. 本発明の一実施形態における3次元座標解析の基本原理を示す参考図である。It is a reference figure which shows the basic principle of the three-dimensional coordinate analysis in one Embodiment of this invention. 本発明の一実施形態による計測用内視鏡装置が実行するパターンマッチング処理(第1の動作例)の手順を示すフローチャートである。It is a flowchart which shows the procedure of the pattern matching process (1st operation example) which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態におけるエピポーララインの求め方を説明するための参考図である。It is a reference figure for demonstrating how to obtain the epipolar line in one embodiment of the present invention. 本発明の一実施形態による計測用内視鏡装置が実行する計測処理(第2の動作例)の手順を示すフローチャートである。It is a flowchart which shows the procedure of the measurement process (2nd operation example) which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態による計測用内視鏡装置の表示画面(第2の動作例)を示す参考図である。It is a reference figure showing the display screen (the 2nd example of operation) of the endoscope apparatus for measurement by one embodiment of the present invention. 本発明の一実施形態による計測用内視鏡装置が実行する計測処理(第3の動作例)の手順を示すフローチャートである。It is a flowchart which shows the procedure of the measurement process (3rd operation example) which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態による計測用内視鏡装置が実行する計測処理(第4の動作例)の手順を示すフローチャートである。It is a flowchart which shows the procedure of the measurement process (4th operation example) which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態による計測用内視鏡装置が実行するパターンマッチング処理(第4の動作例)の手順を示すフローチャートである。It is a flowchart which shows the procedure of the pattern matching process (4th operation example) which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態による計測用内視鏡装置の表示画面(第5の動作例)を示す参考図である。It is a reference figure showing the display screen (the 5th example of operation) of the endoscope apparatus for measurement by one embodiment of the present invention. 本発明の一実施形態による計測用内視鏡装置の表示画面(第5の動作例)を示す参考図である。It is a reference figure showing the display screen (the 5th example of operation) of the endoscope apparatus for measurement by one embodiment of the present invention. 本発明の一実施形態による計測用内視鏡装置の表示画面(第5の動作例)を示す参考図である。It is a reference figure showing the display screen (the 5th example of operation) of the endoscope apparatus for measurement by one embodiment of the present invention. 本発明の一実施形態による計測用内視鏡装置が実行する計測処理(第6の動作例)の手順を示すフローチャートである。It is a flowchart which shows the procedure of the measurement process (6th operation example) which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態による計測用内視鏡装置が実行する3次元座標解析処理(第6の動作例)の手順を示すフローチャートである。It is a flowchart which shows the procedure of the three-dimensional coordinate analysis process (6th operation example) which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態による計測用内視鏡装置が実行するパターンマッチング処理(第6の動作例)の手順を示すフローチャートである。It is a flowchart which shows the procedure of the pattern matching process (6th operation example) which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態による計測用内視鏡装置が実行する計測処理(第7の動作例)の手順を示すフローチャートである。It is a flowchart which shows the procedure of the measurement process (7th operation example) which the endoscope apparatus for measurement by one Embodiment of this invention performs. 従来の計測用内視鏡装置の表示画面を示す参考図である。It is a reference figure which shows the display screen of the conventional endoscope apparatus for measurement. 従来の計測用内視鏡装置の表示画面を示す参考図である。It is a reference figure which shows the display screen of the conventional endoscope apparatus for measurement.

符号の説明Explanation of symbols

1・・・計測用内視鏡装置、2・・・内視鏡、3・・・装置本体、4・・・モニタ、5・・・筐体、6・・・操作部(入力手段)、8・・・内視鏡ユニット、9・・・CCU(撮像信号処理手段)、10・・・制御ユニット、12・・・映像信号処理回路(表示信号生成手段)、18・・・CPU(計測手段、判定手段、制御手段)、20・・・挿入部、21・・・先端部、22・・・湾曲部、23・・・可撓管部、28・・・撮像素子   DESCRIPTION OF SYMBOLS 1 ... Measuring endoscope apparatus, 2 ... Endoscope, 3 ... Apparatus main body, 4 ... Monitor, 5 ... Case, 6 ... Operation part (input means), 8 ... endoscope unit, 9 ... CCU (imaging signal processing means), 10 ... control unit, 12 ... video signal processing circuit (display signal generating means), 18 ... CPU (measurement) Means, determination means, control means), 20 ... insertion part, 21 ... tip part, 22 ... bending part, 23 ... flexible tube part, 28 ... imaging element

Claims (17)

被写体像を光電変換し撮像信号を生成する内視鏡と、
前記撮像信号を処理し画像データを生成する撮像信号処理手段と、
前記画像データを用いて三角測量の原理による計測を実行する計測手段と、
計測結果を表示するための表示信号を生成する表示信号生成手段と、
前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、
判定結果に応じた制御を実行する制御手段と、
を備え
前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、同一被写体に関する一の被写体像における計測点に対応した他の被写体像における対応点を修正する修正モードに移行する制御を実行する
ことを特徴とする計測用内視鏡装置。
An endoscope that photoelectrically converts a subject image to generate an imaging signal;
Imaging signal processing means for processing the imaging signal and generating image data;
Measuring means for performing measurement based on the principle of triangulation using the image data;
Display signal generating means for generating a display signal for displaying the measurement result;
Determination means for determining the reliability of the measurement result based on the image data;
Control means for executing control according to the determination result;
Equipped with a,
When it is determined that the reliability of the measurement result is low, the control unit performs control to shift to a correction mode for correcting a corresponding point in another subject image corresponding to a measurement point in one subject image related to the same subject. An endoscope apparatus for measurement, characterized in that:
被写体像を光電変換し撮像信号を生成する内視鏡と、
前記撮像信号を処理し画像データを生成する撮像信号処理手段と、
前記画像データを用いて三角測量の原理による計測を実行する計測手段と、
計測結果を表示するための表示信号を生成する表示信号生成手段と、
前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、
判定結果に応じた制御を実行する制御手段と、
を備え
前記計測手段は、第1の被写体像上の計測点と、第2の被写体像上において前記計測点に対応した対応点とに基づいて前記計測を実行し、
前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、前記対応点を含む領域よりも先に前記計測結果を表示する制御を実行する
ことを特徴とする計測用内視鏡装置。
An endoscope that photoelectrically converts a subject image to generate an imaging signal;
Imaging signal processing means for processing the imaging signal and generating image data;
Measuring means for performing measurement based on the principle of triangulation using the image data;
Display signal generating means for generating a display signal for displaying the measurement result;
Determination means for determining the reliability of the measurement result based on the image data;
Control means for executing control according to the determination result;
Equipped with a,
The measurement unit performs the measurement based on a measurement point on the first subject image and a corresponding point corresponding to the measurement point on the second subject image;
The measurement endoscope apparatus, wherein the control unit performs control to display the measurement result before an area including the corresponding point when it is determined that the reliability of the measurement result is low. .
前記制御手段は、前記判定結果に応じて前記計測結果の表示形態を制御することを特徴とする請求項1または請求項2に記載の計測用内視鏡装置。 Wherein, the determination result measuring endoscope apparatus according to claim 1 or claim 2, characterized in that to control the display form of the measurement results in accordance with the. 前記制御手段は、被写体上の計測位置から前記内視鏡の結像面までの距離の値に応じて前記計測結果の表示形態を制御することを特徴とする請求項に記載の計測用内視鏡装置。 The measurement internal according to claim 3 , wherein the control means controls the display form of the measurement result according to the value of the distance from the measurement position on the subject to the imaging plane of the endoscope. Endoscopic device. 前記制御手段は、同一被写体に関する複数の被写体像の相関関数の値に応じて前記計測結果の表示形態を制御することを特徴とする請求項または請求項に記載の計測用内視鏡装置。 It said control means measuring endoscope apparatus according to claim 3 or claim 4, characterized in that to control the display form of the measurement results depending on the value of the correlation function of a plurality of object images related to the same subject . 前記制御手段は、同一被写体に関する複数の被写体像のテクスチャのコントラスト値に応じて前記計測結果の表示形態を制御することを特徴とする請求項〜請求項のいずれかに記載の計測用内視鏡装置。 Wherein, in a measurement according to any one of claims 3 to 5, characterized in that to control the display form of the measurement results according to the contrast value of the texture of a plurality of object images related to the same subject Endoscopic device. 前記制御手段は、同一被写体に関する一の被写体像における計測点に対応した他の被写体像における対応点のエピポーララインからのずれ量に応じて前記計測結果の表示形態を制御することを特徴とする請求項〜請求項のいずれかに記載の計測用内視鏡装置。 The control means controls a display form of the measurement result in accordance with a deviation amount of a corresponding point in another subject image from an epipolar line corresponding to a measurement point in one subject image related to the same subject. The measurement endoscope apparatus according to any one of claims 3 to 6 . 前記判定手段は、前記計測手段が前記計測を実行する前に、前記画像データに基づいて前記計測結果の信頼性を判定することを特徴とする請求項1〜請求項のいずれかに記載の計測用内視鏡装置。 Said determination means before said measurement means performs said measurements, according to any of claims 1 7, characterized in that to determine the reliability of the measurement result based on the image data Endoscope device for measurement. 前記判定手段は、前記計測手段が前記計測を実行する前に、前記画像データに基づいて前記計測結果の信頼性を判定する第1の判定処理を実行し、前記計測手段が前記計測を実行した後に、前記画像データに基づいて前記計測結果の信頼性を判定する第2の判定処理を実行することを特徴とする請求項1〜請求項のいずれかに記載の計測用内視鏡装置。 The determination unit performs a first determination process for determining reliability of the measurement result based on the image data before the measurement unit performs the measurement, and the measurement unit performs the measurement. The measurement endoscope apparatus according to any one of claims 1 to 7 , wherein a second determination process for determining reliability of the measurement result is executed later based on the image data. 被写体像上の計測点の位置を示すポインタの移動指示および前記計測の開始指示をユーザが入力するための入力手段をさらに備え、
前記表示信号生成手段は、前記画像データに基づく画像、前記計測結果、および前記ポインタを表示するための表示信号を生成し、
前記判定手段は、前記入力手段に前記ポインタの移動指示が入力されてから前記計測の開始指示が入力されるまでの間に、前記計測点の位置における前記計測結果の信頼性を判定する
ことを特徴とする請求項1〜請求項のいずれかに記載の計測用内視鏡装置。
An input unit for the user to input a pointer movement instruction indicating the position of the measurement point on the subject image and a measurement start instruction;
The display signal generating means generates an image based on the image data, the measurement result, and a display signal for displaying the pointer;
The determination means determines the reliability of the measurement result at the position of the measurement point between the input of the pointer movement instruction to the input means and the input of the measurement start instruction. measuring endoscope apparatus according to any one of claims 1 to 7, characterized.
前記表示信号生成手段は、前記画像データに基づく画像および前記計測結果を表示するための表示信号を生成し、
前記制御手段は、前記判定結果を画像上の計測可能領域の外側に表示する制御を実行する
ことを特徴とする請求項1〜請求項10のいずれかに記載の計測用内視鏡装置。
The display signal generation means generates a display signal for displaying an image based on the image data and the measurement result,
The measurement endoscope apparatus according to any one of claims 1 to 10 , wherein the control unit executes control to display the determination result outside a measurable region on an image.
被写体像を光電変換し撮像信号を生成する内視鏡と、
前記撮像信号を処理し画像データを生成する撮像信号処理手段と、
前記画像データを用いて三角測量の原理による計測を実行する計測手段と、
計測結果を表示するための表示信号を生成する表示信号生成手段と、
前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、
判定結果に応じた制御を実行する制御手段と、
として計測用内視鏡装置を機能させるためのプログラムであって、
前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、同一被写体に関する一の被写体像における計測点に対応した他の被写体像における対応点を修正する修正モードに移行する制御を実行する
ことを特徴とするプログラム
An endoscope that photoelectrically converts a subject image to generate an imaging signal;
Imaging signal processing means for processing the imaging signal and generating image data;
Measuring means for performing measurement based on the principle of triangulation using the image data;
Display signal generating means for generating a display signal for displaying the measurement result;
Determination means for determining the reliability of the measurement result based on the image data;
Control means for executing control according to the determination result;
As a program for causing the measurement endoscope apparatus to function ,
When it is determined that the reliability of the measurement result is low, the control unit performs control to shift to a correction mode for correcting a corresponding point in another subject image corresponding to a measurement point in one subject image related to the same subject. Do
A program characterized by that .
被写体像を光電変換し撮像信号を生成する内視鏡と、
前記撮像信号を処理し画像データを生成する撮像信号処理手段と、
前記画像データを用いて三角測量の原理による計測を実行する計測手段と、
計測結果を表示するための表示信号を生成する表示信号生成手段と、
前記画像データに基づいて前記計測結果の信頼性を判定する判定手段と、
判定結果に応じた制御を実行する制御手段と、
として計測用内視鏡装置を機能させるためのプログラムであって、
前記計測手段は、第1の被写体像上の計測点と、第2の被写体像上において前記計測点に対応した対応点とに基づいて前記計測を実行し、
前記制御手段は、前記計測結果の信頼性が低いと判定した場合に、前記対応点を含む領域よりも先に前記計測結果を表示する制御を実行する
ことを特徴とするプログラム
An endoscope that photoelectrically converts a subject image to generate an imaging signal;
Imaging signal processing means for processing the imaging signal and generating image data;
Measuring means for performing measurement based on the principle of triangulation using the image data;
Display signal generating means for generating a display signal for displaying the measurement result;
Determination means for determining the reliability of the measurement result based on the image data;
Control means for executing control according to the determination result;
As a program for causing the measurement endoscope apparatus to function ,
The measurement unit performs the measurement based on a measurement point on the first subject image and a corresponding point corresponding to the measurement point on the second subject image;
The control means executes control to display the measurement result before an area including the corresponding point when it is determined that the reliability of the measurement result is low.
A program characterized by that .
前記判定手段は、前記計測手段が前記計測を実行する前に、前記画像データに基づいて前記計測結果の信頼性を判定することを特徴とする請求項12または請求項13に記載のプログラム。 The program according to claim 12 or 13 , wherein the determination unit determines the reliability of the measurement result based on the image data before the measurement unit executes the measurement. 前記判定手段は、前記計測手段が前記計測を実行する前に、前記画像データに基づいて前記計測結果の信頼性を判定する第1の判定処理を実行し、前記計測手段が前記計測を実行した後に、前記画像データに基づいて前記計測結果の信頼性を判定する第2の判定処理を実行することを特徴とする請求項12〜請求項14のいずれかに記載のプログラム。 The determination unit performs a first determination process for determining reliability of the measurement result based on the image data before the measurement unit performs the measurement, and the measurement unit performs the measurement. The program according to any one of claims 12 to 14 , wherein a second determination process for determining reliability of the measurement result is executed later based on the image data. 被写体像上の計測点の位置を示すポインタの移動指示および前記計測の開始指示をユーザが入力するための入力手段として前記計測用内視鏡装置を機能させ、
前記表示信号生成手段は、前記画像データに基づく画像、前記計測結果、および前記ポインタを表示するための表示信号を生成し、
前記判定手段は、前記入力手段に前記ポインタの移動指示が入力されてから前記計測の開始指示が入力されるまでの間に、前記計測点の位置における前記計測結果の信頼性を判定する
ことを特徴とする請求項12〜請求項14のいずれかに記載のプログラム。
Causing the measurement endoscope apparatus to function as an input means for a user to input a pointer movement instruction indicating the position of a measurement point on a subject image and a measurement start instruction;
The display signal generating means generates an image based on the image data, the measurement result, and a display signal for displaying the pointer;
The determination means determines the reliability of the measurement result at the position of the measurement point between the input of the pointer movement instruction to the input means and the input of the measurement start instruction. The program according to any one of claims 12 to 14 , wherein the program is characterized.
前記表示信号生成手段は、前記画像データに基づく画像および前記計測結果を表示するための表示信号を生成し、
前記制御手段は、前記判定結果を画像上の計測可能領域の外側に表示する制御を実行する
ことを特徴とする請求項12〜請求項16のいずれかに記載のプログラム。
The display signal generation means generates a display signal for displaying an image based on the image data and the measurement result,
The program according to any one of claims 12 to 16 , wherein the control unit executes control to display the determination result outside a measurable region on an image.
JP2008281474A 2007-12-27 2008-10-31 Endoscope device for measurement and program Expired - Fee Related JP5231173B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008281474A JP5231173B2 (en) 2007-12-27 2008-10-31 Endoscope device for measurement and program
US12/340,891 US8248465B2 (en) 2007-12-27 2008-12-22 Measuring endoscope apparatus and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007338002 2007-12-27
JP2007338002 2007-12-27
JP2008281474A JP5231173B2 (en) 2007-12-27 2008-10-31 Endoscope device for measurement and program

Publications (2)

Publication Number Publication Date
JP2009175692A JP2009175692A (en) 2009-08-06
JP5231173B2 true JP5231173B2 (en) 2013-07-10

Family

ID=41030795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008281474A Expired - Fee Related JP5231173B2 (en) 2007-12-27 2008-10-31 Endoscope device for measurement and program

Country Status (1)

Country Link
JP (1) JP5231173B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5530225B2 (en) * 2010-03-09 2014-06-25 オリンパス株式会社 Endoscope apparatus and program
JP5920556B2 (en) * 2011-02-03 2016-05-18 株式会社リコー Imaging apparatus and imaging method
JP5976436B2 (en) * 2012-07-30 2016-08-23 オリンパス株式会社 Endoscope apparatus and program
JP6097644B2 (en) * 2013-06-19 2017-03-15 株式会社フジクラ Imaging module, ranging module, imaging module with insulating tube, imaging module with lens, and endoscope
WO2017209153A1 (en) * 2016-05-30 2017-12-07 シャープ株式会社 Image processing device, image processing method, and image processing program
JP2016186662A (en) * 2016-07-20 2016-10-27 オリンパス株式会社 Endoscope apparatus and program
WO2018061925A1 (en) * 2016-09-30 2018-04-05 日本電気株式会社 Information processing device, length measurement system, length measurement method, and program storage medium
US20200027231A1 (en) * 2016-09-30 2020-01-23 Nec Corporation Information processing device, information processing method, and program storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4343341B2 (en) * 1999-09-01 2009-10-14 オリンパス株式会社 Endoscope device
JP4885479B2 (en) * 2004-10-12 2012-02-29 オリンパス株式会社 Endoscope device for measurement and program for endoscope

Also Published As

Publication number Publication date
JP2009175692A (en) 2009-08-06

Similar Documents

Publication Publication Date Title
JP5231173B2 (en) Endoscope device for measurement and program
US8248465B2 (en) Measuring endoscope apparatus and program
JP5073564B2 (en) Endoscope device for measurement and program
US8004560B2 (en) Endoscope apparatus
US7443488B2 (en) Endoscope apparatus, method of operating the endoscope apparatus, and program to be executed to implement the method
US8913110B2 (en) Endoscope apparatus and measurement method
JP4873794B2 (en) Image processing measuring apparatus and measuring endoscope apparatus
JPH10248806A (en) Measuring endoscopic device
JP5113990B2 (en) Endoscope device for measurement
JP5186286B2 (en) Endoscope device for measurement and program
US8372002B2 (en) Endoscope apparatus
US20200053296A1 (en) Measurement device, method of operating measurement device, and recording medium
JP7116925B2 (en) Observation device operating method, observation device, and program
JP6081209B2 (en) Endoscope apparatus and program
JP5153381B2 (en) Endoscope device
JP2011170276A (en) Endoscope device and program
US10432916B2 (en) Measurement apparatus and operation method of measurement apparatus
JP5976436B2 (en) Endoscope apparatus and program
JP6400767B2 (en) Measuring endoscope device
JP5361517B2 (en) Endoscope apparatus and measuring method
JP6426215B2 (en) Endoscope apparatus and program
JP2007319620A (en) Measuring adaptor for endoscope and endoscope system for measurement
JP5791989B2 (en) Endoscope apparatus and program
JP5042550B2 (en) Endoscope device
JPWO2017199657A1 (en) Endoscope apparatus, measurement method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130321

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5231173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees