JP5602449B2 - Endoscope device - Google Patents

Endoscope device Download PDF

Info

Publication number
JP5602449B2
JP5602449B2 JP2010027473A JP2010027473A JP5602449B2 JP 5602449 B2 JP5602449 B2 JP 5602449B2 JP 2010027473 A JP2010027473 A JP 2010027473A JP 2010027473 A JP2010027473 A JP 2010027473A JP 5602449 B2 JP5602449 B2 JP 5602449B2
Authority
JP
Japan
Prior art keywords
unit
measurement
image
defect
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010027473A
Other languages
Japanese (ja)
Other versions
JP2011161019A (en
JP2011161019A5 (en
Inventor
史生 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010027473A priority Critical patent/JP5602449B2/en
Publication of JP2011161019A publication Critical patent/JP2011161019A/en
Publication of JP2011161019A5 publication Critical patent/JP2011161019A5/ja
Application granted granted Critical
Publication of JP5602449B2 publication Critical patent/JP5602449B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)

Description

本発明は、計測機能を有する内視鏡装置に関する。また、本発明は、内視鏡装置を動作させるためのプログラムに関する。   The present invention relates to an endoscope apparatus having a measurement function. The present invention also relates to a program for operating an endoscope apparatus.

主に航空機に使われるガスタービンでは、内部が非常に高温になるため、タービンブレードの表面に焼けや変色などの欠陥(バーニング)が生じることがある。この欠陥のサイズ(寸法)はブレードの交換を判断する条件のひとつであり、その検査は極めて重要なものである。ブレードの検査には、計測機能を有する内視鏡装置が使用される。このブレードの検査では、欠陥を撮像した画像(以下、計測画像と記載する)に基づいて内視鏡装置が欠陥の面積を計測し、計測結果を表示していた(例えば特許文献1参照)。ユーザは、計測結果を確認した上で、面積が大きければ欠陥に問題があるためブレードを交換する必要があり、面積が小さければ欠陥に問題はなくブレードを交換する必要はないなどの判断を行っていた。   In gas turbines mainly used for aircraft, the inside becomes extremely hot, and defects (burning) such as burning and discoloration may occur on the surface of the turbine blade. The size (dimension) of this defect is one of the conditions for judging blade replacement, and its inspection is extremely important. For inspection of the blade, an endoscope apparatus having a measurement function is used. In this blade inspection, the endoscope apparatus measures the area of the defect based on an image obtained by imaging the defect (hereinafter referred to as a measurement image), and displays the measurement result (see, for example, Patent Document 1). After confirming the measurement results, the user needs to replace the blade if the area is large, because there is a problem with the defect. If the area is small, the user determines that there is no problem with the defect and the blade does not need to be replaced. It was.

特開2008−206956号公報JP 2008-206956 A

欠陥の面積は、欠陥における問題の有無を判断する指標の一つではあるが、誤判断を生じる可能性があった。例えば、面積が小さくても、ブレードの内部への侵食が大きな欠陥があれば、ブレードを交換する必要があると判断すべき場合がある。この場合、ブレードを撮像した画像では、例えば欠陥の明るさや色が周辺部の色と大きく異なっていることが多いため、明るさや色などの画像の特徴に基づいて欠陥の判断を行うことが有効である。したがって、面積と画像の特徴の両方を考慮した判断が可能となる。   The area of the defect is one of the indicators for determining whether or not there is a problem with the defect, but it may cause an erroneous determination. For example, even if the area is small, if there is a large defect in the erosion of the blade, it may be determined that the blade needs to be replaced. In this case, in the image obtained by imaging the blade, for example, the brightness and color of the defect are often greatly different from the colors in the peripheral part. Therefore, it is effective to determine the defect based on the image characteristics such as brightness and color. It is. Therefore, it is possible to make a determination in consideration of both the area and the feature of the image.

本発明は、上述した課題に鑑みてなされたものであって、ユーザが被写体を目視して被写体に関する判断を行う際に判断の補助となる情報をユーザに通知することができる内視鏡装置およびプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and is an endoscope apparatus capable of notifying a user of information for assisting determination when the user visually observes the subject and makes a determination regarding the subject. The purpose is to provide a program.

本発明の一実施態様にかかる内視鏡装置は、被写体を撮像し、画像データを生成する撮像部と、前記画像データに基づく画像において、2つの基準点を設定する基準点設定部と、前記2つの基準点に基づいて、前記画像における特徴領域を2分する複数の基準線を設定する基準線設定部と、前記基準線上に、前記画像の特徴を抽出するための抽出点を設定する抽出点設定部と、前記基準点または前記抽出点の空間座標を算出し、前記被写体に関する計測を行う計測部と、前記抽出点における前記画像の情報に基づいて、前記抽出点における前記画像の特徴を示す特徴情報を生成する生成部と、前記複数の基準線に対応する前記特徴情報と前記計測部による計測の結果とを記憶する記憶部と、前記画像と共に、前記記憶部に記憶されている、前記複数の基準線に対応する前記特徴情報と前記計測部による計測の結果とを基準線毎に切替可能に表示する表示部と、前記特徴情報が所定の基準を満たすか否かを判定する第1の判定部と、を備え、前記抽出点設定部は、前記基準線上に複数の前記抽出点を設定し、前記第1の判定部は、前記基準線の第1の部分に設定された前記抽出点における前記特徴情報と、前記基準線の、前記第1の部分と異なる第2の部分に設定された前記抽出点における前記特徴情報との差分が所定の基準を満たすか否かを判定するものである。 An endoscope apparatus according to an embodiment of the present invention includes an imaging unit that images a subject and generates image data, a reference point setting unit that sets two reference points in an image based on the image data, Based on two reference points, a reference line setting unit that sets a plurality of reference lines that bisect a feature region in the image, and an extraction that sets extraction points for extracting the features of the image on the reference line A feature of the image at the extraction point is calculated based on a point setting unit, a measurement unit that calculates spatial coordinates of the reference point or the extraction point, performs measurement on the subject, and information on the image at the extraction point. Stored in the storage unit together with the generation unit that generates the feature information to be shown, the storage unit that stores the feature information corresponding to the plurality of reference lines and the measurement result by the measurement unit, and the image . Previous A display unit for results switchably displayed for each reference line of measurement by the feature information and the measurement unit corresponding to a plurality of reference lines, the said characteristic information determines whether satisfies a predetermined criterion 1 The extraction point setting unit sets a plurality of the extraction points on the reference line, and the first determination unit sets the extraction set in the first part of the reference line. Determining whether a difference between the feature information at a point and the feature information at the extraction point set at a second part different from the first part of the reference line satisfies a predetermined criterion It is.

また、本発明の内視鏡装置において、前記抽出点設定部は複数の前記抽出点を設定し、前記生成部は、各々の前記抽出点毎に前記特徴情報を生成し、前記表示部は、複数の前記抽出点の位置毎の前記特徴情報を表示することを特徴とする。   In the endoscope apparatus of the present invention, the extraction point setting unit sets a plurality of extraction points, the generation unit generates the feature information for each of the extraction points, and the display unit includes: The feature information for each position of the plurality of extraction points is displayed.

また、本発明の内視鏡装置において、前記基準線設定部は複数の前記基準線を設定し、前記抽出点設定部は複数の前記基準線の各々の上に複数の前記抽出点を設定し、前記表示部は、前記基準線毎に切替可能なように、複数の前記抽出点の位置毎の前記特徴情報を表示することを特徴とする。   In the endoscope apparatus of the present invention, the reference line setting unit sets a plurality of reference lines, and the extraction point setting unit sets a plurality of extraction points on each of the plurality of reference lines. The display unit displays the feature information for each position of the plurality of extraction points so as to be switchable for each reference line.

また、本発明の内視鏡装置は、前記特徴情報が所定の基準を満たすか否かを判定する第1の判定部をさらに備えたことを特徴とする。   The endoscope apparatus according to the present invention further includes a first determination unit that determines whether or not the feature information satisfies a predetermined criterion.

また、本発明の内視鏡装置において、前記抽出点設定部は、前記基準線上に複数の前記抽出点を設定し、前記第1の判定部は、前記基準線の第1の部分に設定された前記抽出点における前記特徴情報と、前記基準線の、前記第1の部分と異なる第2の部分に設定された前記抽出点における前記特徴情報との差分が所定の基準を満たすか否かを判定することを特徴とする。   In the endoscope apparatus of the present invention, the extraction point setting unit sets a plurality of extraction points on the reference line, and the first determination unit is set to a first part of the reference line. Whether the difference between the feature information at the extraction point and the feature information at the extraction point set in a second part different from the first part of the reference line satisfies a predetermined criterion. It is characterized by determining.

また、本発明の内視鏡装置において、前記表示部はさらに、前記第1の判定部による判定の結果を表示することを特徴とする。   In the endoscope apparatus of the present invention, the display unit further displays a result of determination by the first determination unit.

また、本発明の内視鏡装置において、前記抽出点設定部は複数の前記抽出点を設定し、前記計測部は、複数の前記抽出点の空間座標を算出し、各々の前記抽出点毎に前記被写体に関する計測を行い、前記表示部は、複数の前記抽出点の位置毎の前記計測の結果を表示することを特徴とする。   In the endoscope apparatus of the present invention, the extraction point setting unit sets a plurality of the extraction points, and the measurement unit calculates a spatial coordinate of the plurality of extraction points, for each of the extraction points. The measurement on the subject is performed, and the display unit displays the measurement result for each of the positions of the plurality of extraction points.

また、本発明の内視鏡装置において、前記基準線設定部は複数の前記基準線を設定し、前記抽出点設定部は複数の前記基準線の各々の上に複数の前記抽出点を設定し、前記表示部は、前記基準線毎に切替可能なように、複数の前記抽出点の位置毎の前記計測の結果を表示することを特徴とする。   In the endoscope apparatus of the present invention, the reference line setting unit sets a plurality of reference lines, and the extraction point setting unit sets a plurality of extraction points on each of the plurality of reference lines. The display unit displays the measurement result for each position of the plurality of extraction points so as to be switched for each reference line.

また、本発明の内視鏡装置は、前記計測の結果が所定の基準を満たすか否かを判定する第2の判定部をさらに備えたことを特徴とする。   The endoscope apparatus according to the present invention further includes a second determination unit that determines whether or not the measurement result satisfies a predetermined criterion.

また、本発明の内視鏡装置において、前記抽出点設定部は、前記基準線上に複数の前記抽出点を設定し、前記第2の判定部は、前記基準線の第1の部分に設定された前記抽出点における前記計測の結果と、前記基準線の、前記第1の部分と異なる第2の部分に設定された前記抽出点における前記計測の結果との差分が所定の基準を満たすか否かを判定することを特徴とする。   In the endoscope apparatus of the present invention, the extraction point setting unit sets a plurality of extraction points on the reference line, and the second determination unit is set to a first part of the reference line. Whether the difference between the measurement result at the extraction point and the measurement result at the extraction point set in the second part different from the first part of the reference line satisfies a predetermined criterion. It is characterized by determining.

また、本発明の内視鏡装置において、前記表示部はさらに、前記第2の判定部による判定の結果を表示することを特徴とする。   In the endoscope apparatus of the present invention, the display unit further displays a result of determination by the second determination unit.

また、本発明の内視鏡装置において、前記生成部は、前記抽出点における前記画像の輝度情報に基づいて前記特徴情報を生成することを特徴とする。   In the endoscope apparatus of the present invention, the generation unit generates the feature information based on luminance information of the image at the extraction point.

また、本発明の内視鏡装置において、前記生成部は、前記抽出点における前記画像の色情報に基づいて前記特徴情報を生成することを特徴とする。   In the endoscope apparatus of the present invention, the generating unit generates the feature information based on color information of the image at the extraction point.

また、本発明は、被写体を撮像し、画像データを生成する撮像部と、前記画像を表示する表示部と、を備えた内視鏡装置に、前記画像データに基づく画像において、2つの基準点を設定するステップと、前記2つの基準点に基づいて、前記画像における特徴領域を2分する基準線を設定するステップと、前記基準線上に、前記画像の特徴を抽出するための抽出点を設定するステップと、前記基準点または前記抽出点の空間座標を算出し、前記被写体に関する計測を行うステップと、前記抽出点における前記画像の情報に基づいて、前記抽出点における前記画像の特徴を示す特徴情報を生成するステップと、前記画像と共に、前記特徴情報と前記計測部による計測の結果とを表示するステップと、を実行させるためのプログラムである。   The present invention also provides an endoscope apparatus that includes an imaging unit that captures an image of a subject and generates image data, and a display unit that displays the image. In the image based on the image data, two reference points are provided. Setting a reference line that bisects the feature region in the image based on the two reference points, and setting an extraction point for extracting the feature of the image on the reference line A step of calculating a spatial coordinate of the reference point or the extraction point and measuring the subject, and a feature indicating the characteristics of the image at the extraction point based on information on the image at the extraction point It is a program for executing a step of generating information and a step of displaying the feature information and a result of measurement by the measurement unit together with the image.

本発明によれば、画像における特徴領域を2分する基準線上に設定された抽出点における特徴情報と、基準点または抽出点における計測の結果とが表示されるので、ユーザが被写体を目視して被写体に関する判断を行う際に判断の補助となる情報をユーザに通知することができる。   According to the present invention, the feature information at the extraction point set on the reference line that bisects the feature region in the image and the measurement result at the reference point or the extraction point are displayed. It is possible to notify the user of information for assisting the determination when making a determination regarding the subject.

本発明の第1の実施形態による内視鏡装置の構成を示すブロック図である。1 is a block diagram showing a configuration of an endoscope apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態による内視鏡装置が備える計測処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the measurement process part with which the endoscope apparatus by the 1st Embodiment of this invention is provided. 本発明の第1の実施形態における計測画面を示す参考図である。It is a reference figure which shows the measurement screen in the 1st Embodiment of this invention. 本発明の第1の実施形態における計測の手順を示すフローチャートである。It is a flowchart which shows the procedure of the measurement in the 1st Embodiment of this invention. 本発明の第1の実施形態における基準点、基準線、および中間点を示す参考図である。It is a reference diagram showing a reference point, a reference line, and an intermediate point in the first embodiment of the present invention. 本発明の第1の実施形態における奥行きプロファイルを示す参考図である。It is a reference figure which shows the depth profile in the 1st Embodiment of this invention. 本発明の第1の実施形態における輝度プロファイルを示す参考図である。It is a reference diagram showing a luminance profile in the first embodiment of the present invention. 本発明の第1の実施形態における奥行きプロファイルを示す参考図である。It is a reference figure which shows the depth profile in the 1st Embodiment of this invention. 本発明の第1の実施形態における輝度プロファイルを示す参考図である。It is a reference diagram showing a luminance profile in the first embodiment of the present invention. 本発明の第1の実施形態における奥行きプロファイル算出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the depth profile calculation process in the 1st Embodiment of this invention. 本発明の第1の実施形態における輝度プロファイル算出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the brightness | luminance profile calculation process in the 1st Embodiment of this invention. 本発明の第1の実施形態における計測画面を示す参考図である。It is a reference figure which shows the measurement screen in the 1st Embodiment of this invention. 本発明の第1の実施形態における基準点、基準線、および参照点を示す参考図である。It is a reference figure showing a standard point, a standard line, and a reference point in the first embodiment of the present invention. 本発明の第1の実施形態における計測画面を示す参考図である。It is a reference figure which shows the measurement screen in the 1st Embodiment of this invention. 本発明の第2の実施形態による内視鏡装置が備える計測処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the measurement process part with which the endoscope apparatus by the 2nd Embodiment of this invention is provided. 本発明の第2の実施形態における計測の手順を示すフローチャートである。It is a flowchart which shows the procedure of the measurement in the 2nd Embodiment of this invention. 本発明の第2の実施形態における基準点、基準線、参照点、および参照エリアを示す参考図である。It is a reference diagram showing a reference point, a reference line, a reference point, and a reference area in the second embodiment of the present invention. 本発明の第2の実施形態における計測画面を示す参考図である。It is a reference figure which shows the measurement screen in the 2nd Embodiment of this invention. 本発明の第2の実施形態における基準点、基準線、および参照点を示す参考図である。It is a reference figure showing the standard point in the 2nd embodiment of the present invention, a standard line, and a reference point. 本発明の第2の実施形態における計測画面を示す参考図である。It is a reference figure which shows the measurement screen in the 2nd Embodiment of this invention. ステレオ計測による計測点の3次元座標の求め方を説明するための参考図である。It is a reference figure for demonstrating how to obtain | require the three-dimensional coordinate of the measurement point by stereo measurement.

以下、図面を参照し、本発明の実施形態を説明する。以下では、タービンブレードのバーニングを計測対象とする場合を例として、欠陥の計測機能について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Below, the measurement function of a defect is demonstrated by making into an example the case where the burning of a turbine blade is made into a measuring object.

(第1の実施形態)
まず、本発明の第1の実施形態を説明する。図1は、本実施形態による内視鏡装置の構成を示している。図1に示すように、内視鏡装置1は、内視鏡2と、コントロールユニット3と、リモートコントローラ4(入力装置)と、液晶モニタ5と、光学アダプタ7a,7b,7cと、内視鏡ユニット8と、カメラコントロールユニット9と、制御ユニット10とから構成されている。
(First embodiment)
First, a first embodiment of the present invention will be described. FIG. 1 shows the configuration of the endoscope apparatus according to the present embodiment. As shown in FIG. 1, an endoscope apparatus 1 includes an endoscope 2, a control unit 3, a remote controller 4 (input device), a liquid crystal monitor 5, optical adapters 7a, 7b, and 7c, and an endoscope. The mirror unit 8, the camera control unit 9, and the control unit 10 are configured.

計測対象物を撮像し撮像信号を生成する内視鏡2(電子内視鏡)は細長の挿入部20を備えている。挿入部20は、先端側から順に、硬質な先端部21と、例えば上下左右に湾曲可能な湾曲部22と、柔軟性を有する可撓管部23とを連設して構成されている。挿入部20の基端部は内視鏡ユニット8に接続されている。先端部21は、観察視野を2つ有するステレオ用の光学アダプタ7a,7b(以下、ステレオ光学アダプタと記載する)あるいは観察視野が1つだけの通常観察光学アダプタ7c等、各種の光学アダプタが例えば螺合によって着脱自在な構成になっている。   An endoscope 2 (electronic endoscope) that captures an image of a measurement object and generates an imaging signal includes an elongated insertion unit 20. The insertion portion 20 is configured by connecting, in order from the distal end side, a rigid distal end portion 21, a bending portion 22 that can be bent vertically and horizontally, and a flexible tube portion 23 having flexibility. A proximal end portion of the insertion portion 20 is connected to the endoscope unit 8. For example, the distal end portion 21 may be a variety of optical adapters such as a stereo optical adapter 7a, 7b (hereinafter referred to as a stereo optical adapter) having two observation fields or a normal observation optical adapter 7c having only one observation field. It is configured to be detachable by screwing.

コントロールユニット3は、内視鏡ユニット8、画像処理手段であるカメラコントロールユニット(以下、CCUと記載する)9、および制御装置である制御ユニット10を内部に備えている。内視鏡ユニット8は、観察時に必要な照明光を供給する光源装置と、挿入部20を構成する湾曲部22を湾曲させる湾曲装置とを備えている。CCU9は、挿入部20の先端部21に内蔵されている固体撮像素子2aから出力された撮像信号を入力し、これをNTSC信号等の映像信号に変換して制御ユニット10に供給する。固体撮像素子2aは、光学アダプタを介して結像された被写体像を光電変換し、撮像信号を生成する。   The control unit 3 includes an endoscope unit 8, a camera control unit (hereinafter referred to as CCU) 9 as an image processing means, and a control unit 10 as a control device. The endoscope unit 8 includes a light source device that supplies illumination light necessary for observation, and a bending device that bends the bending portion 22 that constitutes the insertion portion 20. The CCU 9 receives an imaging signal output from the solid-state imaging device 2 a built in the distal end portion 21 of the insertion unit 20, converts this into a video signal such as an NTSC signal, and supplies the video signal to the control unit 10. The solid-state imaging device 2a photoelectrically converts a subject image formed through an optical adapter and generates an imaging signal.

制御ユニット10は、音声信号処理回路11と、映像信号処理回路12と、ROM13と、RAM14と、PCカードインターフェース(以下、PCカードI/Fと記載する。)15と、USBインターフェース(以下、USB I/Fと記載する。)16と、RS−232Cインターフェース(以下、RS−232C I/Fと記載する。)17と、計測処理部18とから構成されている。   The control unit 10 includes an audio signal processing circuit 11, a video signal processing circuit 12, a ROM 13, a RAM 14, a PC card interface (hereinafter referred to as PC card I / F) 15, and a USB interface (hereinafter referred to as USB). (Described as I / F) 16, an RS-232C interface (hereinafter referred to as RS-232C I / F) 17, and a measurement processing unit 18.

マイク34によって集音された音声信号や、メモリカード等の記録媒体を再生して得られる音声信号、あるいは計測処理部18によって生成された音声信号が音声信号処理回路11に供給される。映像信号処理回路12は、CCU9から供給された内視鏡画像とグラフィックによる操作メニューとを合成した合成画像を表示するために、CCU9からの映像信号を、計測処理部18の制御により生成される操作メニュー等のためのグラフィック画像信号と合成する処理を行う。また、映像信号処理回路12は、液晶モニタ5の画面上に映像を表示するために合成後の映像信号に所定の処理を施して液晶モニタ5に供給する。   An audio signal collected by the microphone 34, an audio signal obtained by reproducing a recording medium such as a memory card, or an audio signal generated by the measurement processing unit 18 is supplied to the audio signal processing circuit 11. The video signal processing circuit 12 generates a video signal from the CCU 9 under the control of the measurement processing unit 18 in order to display a composite image obtained by synthesizing the endoscopic image supplied from the CCU 9 and the graphic operation menu. A process of combining with a graphic image signal for an operation menu or the like is performed. In addition, the video signal processing circuit 12 performs a predetermined process on the combined video signal and supplies it to the liquid crystal monitor 5 in order to display the video on the screen of the liquid crystal monitor 5.

また、映像信号処理回路12は、CCU9からの映像信号に基づく画像データを計測処理部18へ出力する。計測時には先端部21にステレオ光学アダプタが装着されるため、映像信号処理回路12からの画像データに基づく画像には、計測対象である同一被写体に関する複数の被写体像が含まれる。本実施形態では、一例として、左右の一対の被写体像が含まれるものとする。   Further, the video signal processing circuit 12 outputs image data based on the video signal from the CCU 9 to the measurement processing unit 18. Since a stereo optical adapter is attached to the distal end portion 21 at the time of measurement, the image based on the image data from the video signal processing circuit 12 includes a plurality of subject images related to the same subject as a measurement target. In this embodiment, as an example, a pair of left and right subject images are included.

PCカードI/F15は、PCMCIAメモリカード32やフラッシュメモリカード33等のメモリカード(記録媒体)を自由に着脱できるようになっている。メモリカードを装着することにより、計測処理部18の制御に従って、このメモリカードに記憶されている制御処理情報や、画像情報、光学データ等を取り込んだり、制御処理情報や、画像情報、光学データ等をメモリカードに記録したりすることができる。   The PC card I / F 15 can freely attach and detach a memory card (recording medium) such as the PCMCIA memory card 32 and the flash memory card 33. By mounting the memory card, the control processing information, the image information, the optical data, etc. stored in the memory card are taken in according to the control of the measurement processing unit 18, or the control processing information, the image information, the optical data, etc. Can be recorded on a memory card.

USB I/F16は、コントロールユニット3とパーソナルコンピュータ(PC)31とを電気的に接続するためのインターフェースである。このUSB I/F16を介してコントロールユニット3とPC31とを電気的に接続することにより、PC31側で内視鏡画像の表示の指示や計測時における画像処理等の各種の制御指示を行うことが可能となる。また、コントロールユニット3とPC31との間で各種の処理情報やデータを入出力することが可能となる。   The USB I / F 16 is an interface for electrically connecting the control unit 3 and a personal computer (PC) 31. By electrically connecting the control unit 3 and the PC 31 via the USB I / F 16, various control instructions such as an endoscope image display instruction and image processing at the time of measurement can be performed on the PC 31 side. It becomes possible. Also, various processing information and data can be input / output between the control unit 3 and the PC 31.

RS−232C I/F17には、CCU9および内視鏡ユニット8が接続されると共に、これらCCU9や内視鏡ユニット8等の制御および動作指示を行うリモートコントローラ4が接続されている。ユーザがリモートコントローラ4を操作すると、その操作内容に基づいて、CCU9および内視鏡ユニット8を動作制御する際に必要な通信が行われる。   The RS-232C I / F 17 is connected to the CCU 9 and the endoscope unit 8, and is connected to the remote controller 4 for controlling and operating the CCU 9 and the endoscope unit 8. When the user operates the remote controller 4, communication necessary for controlling the operation of the CCU 9 and the endoscope unit 8 is performed based on the operation content.

計測処理部18は、ROM13に格納されているプログラムを実行することによって、映像信号処理回路12から画像データを取り込み、画像データに基づいて計測処理を実行する。RAM14は、計測処理部18によって、データの一時格納用の作業領域として使用される。図2は計測処理部18の構成を示している。図2に示すように計測処理部18は、制御部18aと、基準点指定部18bと、基準線算出部18cと、座標算出部18dと、プロファイル算出部18e,18fと、欠陥診断部18gと、記憶部18hとから構成されている。   The measurement processing unit 18 acquires image data from the video signal processing circuit 12 by executing a program stored in the ROM 13, and executes measurement processing based on the image data. The RAM 14 is used as a work area for temporary storage of data by the measurement processing unit 18. FIG. 2 shows the configuration of the measurement processing unit 18. As shown in FIG. 2, the measurement processing unit 18 includes a control unit 18a, a reference point designation unit 18b, a reference line calculation unit 18c, a coordinate calculation unit 18d, profile calculation units 18e and 18f, and a defect diagnosis unit 18g. And a storage unit 18h.

制御部18aは計測処理部18内の各部を制御する。また、制御部18aは、液晶モニタ5に計測結果や操作メニュー等を表示させるためのグラフィック画像信号を生成して映像信号処理回路12へ出力する機能も有している。   The control unit 18a controls each unit in the measurement processing unit 18. The control unit 18 a also has a function of generating a graphic image signal for displaying a measurement result, an operation menu, and the like on the liquid crystal monitor 5 and outputting the graphic image signal to the video signal processing circuit 12.

基準点指定部18bは、リモートコントローラ4あるいはPC31(入力部)から入力される信号に基づいて、計測対象物上の基準点を指定する。ユーザが、液晶モニタ5に表示された計測対象物の画像を見ながら所望の基準点を入力すると、その座標が基準点指定部18bによって算出される。以下の説明では、ユーザがリモートコントローラ4を操作することを想定しているが、ユーザがPC31を操作する場合も同様である。本実施形態では、画像上に2つの基準点が設定される。   The reference point specifying unit 18b specifies a reference point on the measurement object based on a signal input from the remote controller 4 or the PC 31 (input unit). When the user inputs a desired reference point while viewing the image of the measurement object displayed on the liquid crystal monitor 5, the coordinates are calculated by the reference point designating unit 18b. In the following description, it is assumed that the user operates the remote controller 4, but the same applies when the user operates the PC 31. In the present embodiment, two reference points are set on the image.

基準線算出部18cは、基準点指定部18bによって指定された2つの基準点を通る基準線を設定し、その基準線を決定するための直線の式を算出する。本明細書では、液晶モニタ5に表示される画像上の2次元座標を画像座標と記載し、現実の空間上の3次元座標を空間座標と記載する。座標算出部18dは、欠陥診断に使用する画像の特徴を示す特徴情報(本実施形態では輝度)を抽出する位置の基準となる参照点(抽出点)を設定し、その画像座標を算出する。本実施形態では、基準線上に参照点が設定される。   The reference line calculation unit 18c sets a reference line passing through the two reference points specified by the reference point specifying unit 18b, and calculates a straight line formula for determining the reference line. In this specification, the two-dimensional coordinates on the image displayed on the liquid crystal monitor 5 are described as image coordinates, and the three-dimensional coordinates in the actual space are described as space coordinates. The coordinate calculation unit 18d sets a reference point (extraction point) that serves as a reference position for extracting feature information (luminance in this embodiment) indicating the feature of an image used for defect diagnosis, and calculates the image coordinates. In this embodiment, a reference point is set on the reference line.

プロファイル算出部18eは、参照点を基準とする位置における空間座標を算出し、被写体までの距離(物体距離)に相当する奥行き位置を算出する。この奥行き位置が計測結果である。また、プロファイル算出部18eは、基準線上に設定された参照点の各々の位置と、各位置における奥行き位置とを関連付けた奥行きプロファイルを生成する。奥行きプロファイルは、欠陥を含む被写体の表面形状を示す。   The profile calculation unit 18e calculates spatial coordinates at a position based on the reference point, and calculates a depth position corresponding to the distance to the subject (object distance). This depth position is the measurement result. In addition, the profile calculation unit 18e generates a depth profile in which each position of the reference point set on the reference line is associated with the depth position at each position. The depth profile indicates the surface shape of the subject including the defect.

プロファイル算出部18fは、参照点を基準とする位置における画像の特徴情報である輝度情報を生成する。また、プロファイル算出部18fは、基準線上に設定された参照点の各々の位置と、各位置における輝度情報とを関連付けた輝度プロファイルを生成する。輝度プロファイルは、欠陥を含む被写体の表面の輝度分布を示す。   The profile calculation unit 18f generates luminance information that is image feature information at a position based on the reference point. In addition, the profile calculation unit 18f generates a luminance profile in which each position of the reference point set on the reference line is associated with the luminance information at each position. The luminance profile indicates the luminance distribution on the surface of the subject including the defect.

欠陥診断部18gは、奥行きプロファイルおよび輝度プロファイルが所定の基準を満たすか否かを判定することにより、欠陥に問題があるかどうかを診断する欠陥診断を行う。記憶部18hは、計測処理部18内で処理される各種情報を記憶する。記憶部18hに格納された情報は、適宜制御部18aによって読み出されて各部へ出力される。   The defect diagnosis unit 18g performs defect diagnosis for diagnosing whether or not there is a problem with the defect by determining whether or not the depth profile and the luminance profile satisfy predetermined criteria. The storage unit 18h stores various types of information processed in the measurement processing unit 18. Information stored in the storage unit 18h is appropriately read out by the control unit 18a and output to each unit.

次に、図21を参照し、ステレオ計測による計測点の3次元座標の求め方を説明する。左側および右側の光学系で撮像された画像に対して、三角測量の方法により、計測対象点60の3次元座標(X,Y,Z)が以下の(1)式〜(3)式で計算される。ただし、歪み補正が施された左右の画像上の計測点61、対応点62(左画像上の計測点61に対応する右画像上の点)の座標をそれぞれ(X,Y)、(X,Y)とし、左側と右側の光学中心63,64の距離をDとし、焦点距離をFとし、t=D/(X−X)とする。
X=t×X+D/2 ・・・(1)
Y=t×Y ・・・(2)
Z=t×F ・・・(3)
Next, how to obtain the three-dimensional coordinates of the measurement point by stereo measurement will be described with reference to FIG. The three-dimensional coordinates (X, Y, Z) of the measurement target point 60 are calculated by the following formulas (1) to (3) by the triangulation method for the images picked up by the left and right optical systems. Is done. However, the coordinates of the measurement point 61 and the corresponding point 62 (the point on the right image corresponding to the measurement point 61 on the left image) on the left and right images subjected to distortion correction are respectively (X L , Y L ), ( X R , Y R ), the distance between the left and right optical centers 63 and 64 is D, the focal length is F, and t = D / (X L −X R ).
X = t × X R + D / 2 (1)
Y = t × Y R (2)
Z = t × F (3)

上記のように計測点61および対応点62の座標が決定されると、パラメータDおよびFを用いて計測対象点60の3次元座標が求まる。いくつかの点の3次元座標を求めることによって、2点間の距離、2点を結ぶ線と1点の距離、面積、深さ、表面形状等の様々な計測が可能である。また、左側の光学中心63、または右側の光学中心64から被写体までの距離(物体距離)を求めることも可能となる。上記のステレオ計測を行うためには、先端部21とステレオ光学アダプタを含む光学系の特性を示す光学データが必要である。なお、光学データの詳細は、例えば特開2004−49638号公報に記載されているので、その説明を省略する。   When the coordinates of the measurement point 61 and the corresponding point 62 are determined as described above, the three-dimensional coordinates of the measurement target point 60 are obtained using the parameters D and F. By obtaining three-dimensional coordinates of several points, various measurements such as the distance between two points, the distance between two points and the distance between one point, area, depth, and surface shape can be performed. It is also possible to obtain the distance (object distance) from the left optical center 63 or the right optical center 64 to the subject. In order to perform the above stereo measurement, optical data indicating the characteristics of the optical system including the tip 21 and the stereo optical adapter is required. The details of the optical data are described in, for example, Japanese Patent Application Laid-Open No. 2004-49638, and the description thereof is omitted.

次に、本実施形態における計測画面を説明する。本実施形態では、ステレオ計測による欠陥の計測が行われる。ステレオ計測においては、ステレオ光学アダプタを内視鏡2の先端部21に装着した状態で計測対象物を撮像するため、計測画面では計測対象物の画像が左右1対で表示される。   Next, the measurement screen in this embodiment will be described. In this embodiment, a defect is measured by stereo measurement. In stereo measurement, since the measurement object is imaged with the stereo optical adapter attached to the distal end portion 21 of the endoscope 2, an image of the measurement object is displayed in a pair on the measurement screen.

図3は計測開始前の計測画面を示している。計測情報として、左画面700には計測対象物の左画像が表示され、右画面710には計測対象物の右画像が表示される。また、左画面700および右画面710を除く計測画面上の領域には他の計測情報として、光学アダプタ名称情報720、時間情報721、メッセージ情報722、アイコン723a,723b,723c,723d,723e、およびズームウィンドウ724が表示される。   FIG. 3 shows a measurement screen before the start of measurement. As measurement information, a left image of the measurement object is displayed on the left screen 700, and a right image of the measurement object is displayed on the right screen 710. Further, in the area on the measurement screen excluding the left screen 700 and the right screen 710, as other measurement information, optical adapter name information 720, time information 721, message information 722, icons 723a, 723b, 723c, 723d, 723e, and A zoom window 724 is displayed.

光学アダプタ名称情報720と時間情報721は共に計測条件を示す情報である。光学アダプタ名称情報720は、現在使用している光学アダプタの名称を示す文字情報である。時間情報721は現在の日付と時刻を示す文字情報である。メッセージ情報722は、ユーザへの操作指示を示す文字情報と、計測条件の1つである基準点の座標を示す文字情報とを含んでいる。   Both the optical adapter name information 720 and the time information 721 are information indicating measurement conditions. The optical adapter name information 720 is character information indicating the name of the optical adapter currently used. The time information 721 is character information indicating the current date and time. The message information 722 includes character information indicating an operation instruction to the user and character information indicating the coordinates of a reference point that is one of the measurement conditions.

アイコン723a〜723eは、ユーザが計測モードの切替や計測結果のクリア等の操作指示を入力するための操作メニューを構成している。ユーザがリモートコントローラ4を操作し、カーソル725をアイコン723a〜723eのいずれかの上に移動させてクリック等の操作を行うと、その操作に応じた信号が計測処理部18に入力される。制御部18aは、その信号に基づいてユーザからの操作指示を認識し、計測処理を制御する。また、ズームウィンドウ724にはカーソル725の周囲に位置する計測対象物の拡大画像が表示される。   The icons 723a to 723e constitute an operation menu for the user to input an operation instruction such as switching of the measurement mode or clearing of the measurement result. When the user operates the remote controller 4 to move the cursor 725 over any of the icons 723 a to 723 e and perform an operation such as a click, a signal corresponding to the operation is input to the measurement processing unit 18. The control unit 18a recognizes an operation instruction from the user based on the signal and controls the measurement process. In the zoom window 724, an enlarged image of the measurement object located around the cursor 725 is displayed.

次に、本実施形態における計測の手順を説明する。図4は計測の手順を示している。ステップSAでは、液晶モニタ5に表示された計測画面上において、リモートコントローラ4の操作により、ユーザが基準点を2つ指定する。ユーザが基準点を指定する間、基準点指定部18bは、リモートコントローラ4からの信号に基づいて、カーソルの移動指示を検出し、カーソルの移動後の画像座標を算出する。制御部18aは、基準点指定部18bによって算出された画像座標にカーソルを表示するためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する。これによって、ユーザによるカーソルの移動指示に応じて計測画面上でカーソルが移動する。   Next, the measurement procedure in this embodiment will be described. FIG. 4 shows a measurement procedure. In step SA, the user designates two reference points by operating the remote controller 4 on the measurement screen displayed on the liquid crystal monitor 5. While the user designates the reference point, the reference point designating unit 18b detects the cursor movement instruction based on the signal from the remote controller 4, and calculates the image coordinates after the cursor movement. The control unit 18 a generates a graphic image signal for displaying a cursor at the image coordinates calculated by the reference point designating unit 18 b and outputs the graphic image signal to the video signal processing circuit 12. As a result, the cursor moves on the measurement screen in response to a cursor movement instruction from the user.

ユーザが基準点を指定する指示を入力すると、基準点指定部18bは現在のカーソルの画像座標を基準点の画像座標として認識する。基準点が指定されると、制御部18aは、基準点の画像座標に基準点を表示するためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する。これによって、左画面上に基準点が表示される。   When the user inputs an instruction to designate a reference point, the reference point designating unit 18b recognizes the image coordinates of the current cursor as the image coordinates of the reference point. When the reference point is designated, the control unit 18a generates a graphic image signal for displaying the reference point at the image coordinates of the reference point, and outputs the graphic image signal to the video signal processing circuit 12. As a result, the reference point is displayed on the left screen.

ステップSBでは、基準線算出部18cが、ステップSAで指定された2つの基準点を通る基準線を算出する。図5(a)に示すように、ユーザは基準点100a,100bを、欠陥110の周囲に位置するように指定する。基準点100a,100bを結ぶ直線120が本実施形態の基準線である。基準線は、欠陥110を2つに分割する直線となる。基準線が欠陥110の中央付近を通過することが好ましい。   In step SB, the reference line calculation unit 18c calculates a reference line that passes through the two reference points specified in step SA. As shown in FIG. 5A, the user designates the reference points 100 a and 100 b so as to be located around the defect 110. A straight line 120 connecting the reference points 100a and 100b is the reference line of this embodiment. The reference line is a straight line that divides the defect 110 into two. It is preferable that the reference line passes near the center of the defect 110.

ステップSCでは、座標算出部18dが、基準線上に位置する複数の参照点の画像座標を算出する。図5(b)に示すように、基準線において、2つの基準点の間に複数の参照点130が設定される。2つの基準点の位置に参照点を設定してもよい。ステップSDでは、座標算出部18dが、2つの基準点の中間に位置する中間点の画像座標を算出する。図5(c)に示すように、2つの基準点を通る基準線上に中間点140が設定される。   In step SC, the coordinate calculation unit 18d calculates image coordinates of a plurality of reference points located on the reference line. As shown in FIG. 5B, a plurality of reference points 130 are set between two reference points on the reference line. A reference point may be set at the position of two reference points. In step SD, the coordinate calculation unit 18d calculates the image coordinates of the intermediate point located between the two reference points. As shown in FIG. 5C, an intermediate point 140 is set on a reference line passing through the two reference points.

ステップSEでは、プロファイル算出部18eが奥行きプロファイルを算出する。前述したように、奥行きプロファイルは、参照点の各々の位置と、各位置における奥行き位置(物体距離)とを関連付けたプロファイルであり、欠陥およびその周囲の表面形状を示す。奥行きプロファイルの算出方法は、後述する。   In step SE, the profile calculation unit 18e calculates a depth profile. As described above, the depth profile is a profile in which each position of the reference point is associated with the depth position (object distance) at each position, and indicates the defect and the surface shape around the defect. A method for calculating the depth profile will be described later.

図6は、奥行きプロファイルの例を示している。横軸は画像上の位置であり、左端が2つの基準点の一方、右端が2つの基準点の他方、中央が中間点の位置である。縦軸は奥行き位置(Z)である。プロファイル200は、プロファイル算出部18eによって算出された奥行きプロファイルのグラフデータである。図6のプロファイル200の形状は、2つの基準点の間に位置する点、すなわち参照点における欠陥の表面形状を示している。図6のグラフでは、2つの基準点の位置における奥行き位置に比べて、中間点の位置における奥行き位置が大きくなっていることから、欠陥の中央付近が凹んでいることがわかる。   FIG. 6 shows an example of a depth profile. The horizontal axis is the position on the image, the left end is one of the two reference points, the right end is the other of the two reference points, and the center is the position of the intermediate point. The vertical axis is the depth position (Z). The profile 200 is graph data of a depth profile calculated by the profile calculation unit 18e. The shape of the profile 200 in FIG. 6 shows the surface shape of a defect at a point located between two reference points, that is, a reference point. In the graph of FIG. 6, since the depth position at the midpoint position is larger than the depth position at the two reference point positions, it can be seen that the vicinity of the center of the defect is recessed.

ステップSFでは、プロファイル算出部18fが輝度プロファイルを算出する。前述したように、輝度プロファイルは、参照点の各々の位置と、各位置における輝度情報とを関連付けたプロファイルであり、欠陥およびその周囲の表面の輝度分布を示す。輝度プロファイルの算出方法は、後述する。   In step SF, the profile calculation unit 18f calculates a luminance profile. As described above, the luminance profile is a profile in which each position of the reference point is associated with the luminance information at each position, and indicates the luminance distribution of the defect and the surrounding surface. A method for calculating the luminance profile will be described later.

図7は、輝度プロファイルの例を示している。横軸は画像上の位置であり、左端が2つの基準点の一方、右端が2つの基準点の他方、中央が中間点の位置である。縦軸は輝度値である。プロファイル210は、プロファイル算出部18fによって算出された輝度プロファイルのグラフデータである。図7のプロファイル210の形状は、2つの基準点の間に位置する点、すなわち参照点における欠陥の表面の輝度分布を示している。図7のグラフでは、2つの基準点の位置における輝度に比べて、中間点の位置における輝度が小さくなっていることから、欠陥の中央付近が暗いことがわかる。   FIG. 7 shows an example of a luminance profile. The horizontal axis is the position on the image, the left end is one of the two reference points, the right end is the other of the two reference points, and the center is the position of the intermediate point. The vertical axis represents the luminance value. The profile 210 is graph data of a luminance profile calculated by the profile calculation unit 18f. The shape of the profile 210 in FIG. 7 shows the luminance distribution of the surface of the defect at a point located between two reference points, that is, a reference point. In the graph of FIG. 7, it can be seen that the brightness near the center of the defect is dark because the brightness at the position of the intermediate point is smaller than the brightness at the position of the two reference points.

ステップSGでは、欠陥診断部18gが、奥行きプロファイルおよび輝度プロファイルに基づいて、欠陥診断を行う。図8に示すように、欠陥診断部18gは、奥行きプロファイルにおける2つの基準点の周辺におけるデータ(エリア220,221内のデータ)の平均と、中間点の周辺におけるデータ(エリア222内のデータ)の平均とを算出し、さらに各平均の差を算出する。欠陥診断部18gは、この差が所定値以上であれば、欠陥の中央付近が大きく凹んでいるとみなし、診断結果をNGとする。また、欠陥診断部18gは、この差が所定値未満であれば、欠陥の表面形状は滑らかであるとみなし、診断結果をOKとする。   In step SG, the defect diagnosis unit 18g performs defect diagnosis based on the depth profile and the luminance profile. As illustrated in FIG. 8, the defect diagnosis unit 18 g calculates the average of data around the two reference points in the depth profile (data in the areas 220 and 221) and the data around the intermediate point (data in the area 222). And the difference between each average is calculated. If this difference is greater than or equal to a predetermined value, the defect diagnosis unit 18g considers that the vicinity of the center of the defect is greatly recessed and sets the diagnosis result to NG. Further, if this difference is less than a predetermined value, the defect diagnosis unit 18g considers that the surface shape of the defect is smooth, and sets the diagnosis result to OK.

また、図9に示すように、欠陥診断部18gは、輝度プロファイルにおける2つの基準点の周辺におけるデータ(エリア230,231内のデータ)の平均と、中間点の周辺におけるデータ(エリア232内のデータ)の平均とを算出し、さらに各平均の差を算出する。欠陥診断部18gは、この差が所定値以上であれば、欠陥の中央付近が暗くなっている、すなわち黒ずんでいるとみなし、診断結果をNGとする。また、欠陥診断部18gは、この差が所定値未満であれば、欠陥の表面の輝度分布は滑らかであるとみなし、診断結果をOKとする。欠陥診断部18gは、上記のようにして、奥行きプロファイルおよび輝度プロファイルの各々に基づいて、個別に診断結果を求める。なお欠陥診断部18gは、奥行きプロファイルおよび輝度プロファイルの両方に基づいて統合した診断結果を求めてもよい。例えば欠陥診断部18gは、診断結果がOKを0として、NGを1として、OKとNGの論理和の結果を、統合した診断結果として求めてもよい。   As shown in FIG. 9, the defect diagnosis unit 18g also calculates the average of the data around the two reference points (data in the areas 230 and 231) in the luminance profile and the data around the intermediate point (in the area 232). Data) average, and the difference between each average is calculated. If this difference is equal to or greater than a predetermined value, the defect diagnosis unit 18g considers that the vicinity of the center of the defect is dark, that is, dark, and sets the diagnosis result to NG. Further, if this difference is less than the predetermined value, the defect diagnosis unit 18g considers that the luminance distribution on the surface of the defect is smooth, and sets the diagnosis result to OK. The defect diagnosis unit 18g individually obtains a diagnosis result based on each of the depth profile and the luminance profile as described above. The defect diagnosis unit 18g may obtain an integrated diagnosis result based on both the depth profile and the luminance profile. For example, the defect diagnosis unit 18g may obtain the result of logical sum of OK and NG as an integrated diagnosis result, with the diagnosis result being OK as 0, NG as 1.

ステップSHでは、制御部18aが、左画面上に基準線および中間点を表示するためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する。これによって、左画面上に基準線および中間点が表示される。なお、ステップSHは必ずしもステップSGの後に実行される必要はなく、ステップSDの後に実行されてもよい。ステップSIでは、制御部18aが、右画面上に結果ウィンドウを表示するためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する。これによって、右画面上に結果ウィンドウが表示される。結果ウィンドウ上には、奥行きプロファイル、輝度プロファイル、および診断結果が表示される。結果ウィンドウに表示される内容の詳細は、後述する。   In step SH, the control unit 18 a generates a graphic image signal for displaying the reference line and the intermediate point on the left screen, and outputs the graphic image signal to the video signal processing circuit 12. As a result, the reference line and the intermediate point are displayed on the left screen. Note that step SH is not necessarily executed after step SG, and may be executed after step SD. In step SI, the control unit 18a generates a graphic image signal for displaying the result window on the right screen and outputs the graphic image signal to the video signal processing circuit 12. As a result, a result window is displayed on the right screen. On the result window, a depth profile, a luminance profile, and a diagnosis result are displayed. Details of the contents displayed in the result window will be described later.

次に、ステップSE(奥行きプロファイル算出処理)の手順を説明する。図10はステップSEの手順を示している。ステップSE1では、座標算出部18dによって算出された参照点の画像座標がプロファイル算出部18eに入力される。ステップSE2では、プロファイル算出部18eが、左画面内の参照点に対応した右画面内のマッチング点の画像座標を算出する。より具体的には、プロファイル算出部18eは、参照点の画像座標に基づいてパターンマッチング処理を実行し、左右2画像の対応点であるマッチング点の画像座標を算出する。このパターンマッチング処理の方法は特開2004−49638号公報に記載されたものと同様である。   Next, the procedure of step SE (depth profile calculation process) will be described. FIG. 10 shows the procedure of step SE. In step SE1, the image coordinates of the reference point calculated by the coordinate calculation unit 18d are input to the profile calculation unit 18e. In step SE2, the profile calculation unit 18e calculates the image coordinates of the matching point in the right screen corresponding to the reference point in the left screen. More specifically, the profile calculation unit 18e performs pattern matching processing based on the image coordinates of the reference points, and calculates the image coordinates of matching points that are corresponding points of the left and right two images. The pattern matching processing method is the same as that described in Japanese Patent Application Laid-Open No. 2004-49638.

ステップSE3では、プロファイル算出部18eが、左画面内の参照点の画像座標と右画面内のマッチング点の画像座標とに基づいて空間座標を算出する。空間座標の計算方法は、図21を参照して説明した方法と同様である。この空間座標のZ座標が奥行き位置(物体距離)である。ステップSE4では、プロファイル算出部18eが、参照点の各々の位置と、各位置における奥行き位置とを関連付けた奥行きプロファイルを生成する。ステップSE5では、プロファイル算出部18eは奥行きプロファイルを制御部18aへ出力する。   In step SE3, the profile calculation unit 18e calculates the spatial coordinates based on the image coordinates of the reference point in the left screen and the image coordinates of the matching point in the right screen. The method for calculating the spatial coordinates is the same as the method described with reference to FIG. The Z coordinate of this spatial coordinate is the depth position (object distance). In step SE4, the profile calculation unit 18e generates a depth profile in which each position of the reference point is associated with the depth position at each position. In step SE5, the profile calculation unit 18e outputs the depth profile to the control unit 18a.

次に、ステップSF(奥行きプロファイル算出処理)の手順を説明する。図11はステップSFの手順を示している。ステップSF1では、座標算出部18dによって算出された参照点の画像座標がプロファイル算出部18fに入力される。ステップSF2では、プロファイル算出部18fが、画像データから参照点上の各画素の輝度情報を取得する。このとき、各画素のRGBの各成分の値から各画素の輝度値Yが以下の(1)式により算出される。この輝度値Yが輝度情報である。
Y=0.299×R+0.587×G+0.114×B ・・・(1)
Next, the procedure of step SF (depth profile calculation process) will be described. FIG. 11 shows the procedure of step SF. In step SF1, the image coordinates of the reference point calculated by the coordinate calculation unit 18d are input to the profile calculation unit 18f. In step SF2, the profile calculation unit 18f acquires luminance information of each pixel on the reference point from the image data. At this time, the luminance value Y of each pixel is calculated from the RGB component values of each pixel by the following equation (1). This luminance value Y is luminance information.
Y = 0.299 × R + 0.587 × G + 0.114 × B (1)

ステップSF3では、プロファイル算出部18fは、参照点の各々の位置と、各位置における輝度情報とを関連付けた輝度プロファイルを生成する。ステップSF4では、プロファイル算出部18fは輝度プロファイルを制御部18aへ出力する。   In step SF3, the profile calculation unit 18f generates a luminance profile in which each position of the reference point is associated with the luminance information at each position. In step SF4, the profile calculation unit 18f outputs the luminance profile to the control unit 18a.

次に、欠陥の計測結果および診断結果の表示方法を説明する。図12は、欠陥の計測結果および診断結果が表示されたときの計測画面を示している。左画面上には、2つの基準点(×)、中間点(●)、および基準線が表示される。右画面上には、結果ウィンドウ300が表示される。結果ウィンドウ300の上部には、奥行きプロファイルのグラフ310、2つの基準点の周辺データの平均と中間点の周辺データの平均との差(Differ)、および診断結果(Result)が表示されている。結果ウィンドウ300の下部には、輝度プロファイルのグラフ320、2つの基準点の周辺データの平均と中間点の周辺データの平均との差(Differ)、および診断結果(Result)が表示されている。ユーザは、欠陥の計測結果および診断結果をもとに、欠陥に問題があるかどうかを確認することができる。   Next, a display method of the defect measurement result and the diagnosis result will be described. FIG. 12 shows a measurement screen when a defect measurement result and a diagnosis result are displayed. On the left screen, two reference points (×), an intermediate point (●), and a reference line are displayed. A result window 300 is displayed on the right screen. In the upper part of the result window 300, a depth profile graph 310, a difference (Differ) between the average of the peripheral data of the two reference points and the average of the peripheral data of the intermediate point, and a diagnosis result (Result) are displayed. In the lower portion of the result window 300, a luminance profile graph 320, a difference (Differ) between the average of the peripheral data of the two reference points and the average of the peripheral data of the intermediate point, and a diagnosis result (Result) are displayed. The user can check whether there is a problem with the defect based on the measurement result and the diagnosis result of the defect.

次に、本実施形態の第1の変形例を説明する。上記では、欠陥診断を行う際、特徴情報として輝度情報を用いたが、本変形例では、色情報を用いる。色情報として、xy色度図で用いられるxy値を使用する。RGB値とxy値との関係式は以下の(2)式および(3)式の通りである。
x=0.60×R−0.28×G−0.32×B ・・・(2)
y=0.20×R−0.52×G−0.31×B ・・・(3)
Next, a first modification of the present embodiment will be described. In the above description, luminance information is used as feature information when performing defect diagnosis. In this modification, color information is used. As color information, an xy value used in the xy chromaticity diagram is used. Relational expressions between RGB values and xy values are as shown in the following equations (2) and (3).
x = 0.60 × R−0.28 × G−0.32 × B (2)
y = 0.20 × R−0.52 × G−0.31 × B (3)

そして、色情報の差を表す値として、xy色度図における座標間の距離を使用する。2つの基準点の周辺エリアの色情報の平均をxa、yaとし、中間点の周辺エリアの色情報をxb、ybとすると、2つの色情報の差Dは、以下の(4)式となる。本変形例は、欠陥内部と周囲の間で、輝度の差が少なく、色差だけがある場合に有効である。   Then, the distance between coordinates in the xy chromaticity diagram is used as a value representing the difference in color information. If the average color information of the area around the two reference points is xa, ya and the color information of the area around the intermediate point is xb, yb, the difference D between the two color information is expressed by the following equation (4). . This modification is effective when there is little difference in luminance between the inside and around the defect and there is only a color difference.

Figure 0005602449
Figure 0005602449

次に、本実施形態の第2の変形例を説明する。上記では、1本の直線(基準線)上における奥行きプロファイルおよび輝度プロファイルを算出していたが、本変形例では、複数の直線(基準線)上における奥行きプロファイルおよび輝度プロファイルを、一度に算出することができる。   Next, a second modification of the present embodiment will be described. In the above description, the depth profile and the luminance profile on one straight line (reference line) are calculated. In this modification, the depth profile and the luminance profile on a plurality of straight lines (reference line) are calculated at once. be able to.

まず、ユーザが1つ目の基準点を指定する。このとき、図13(a)に示すように、ユーザは基準点400を、欠陥410の中央に位置するように指定することが望ましい。ユーザが基準点を指定する指示を入力すると、基準点指定部18bは現在のカーソル420の画像座標を1つ目の基準点の画像座標として認識する。   First, the user designates the first reference point. At this time, as shown in FIG. 13A, it is desirable that the user designates the reference point 400 so as to be located at the center of the defect 410. When the user inputs an instruction to designate a reference point, the reference point designating unit 18b recognizes the current image coordinates of the cursor 420 as the image coordinates of the first reference point.

続いて、ユーザがカーソルを移動させると、図13(b)に示すように、基準点とカーソルとの距離を半径とする円430(基準円)が表示される。このとき、基準点指定部18bは、基準点の画像座標とカーソルの画像座標に基づいて基準円を算出する。制御部18aは、左画面上に基準円を表示するためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する。これによって、左画面上に基準円が表示される。   Subsequently, when the user moves the cursor, as shown in FIG. 13B, a circle 430 (reference circle) whose radius is the distance between the reference point and the cursor is displayed. At this time, the reference point designating unit 18b calculates a reference circle based on the image coordinates of the reference point and the image coordinates of the cursor. The control unit 18 a generates a graphic image signal for displaying the reference circle on the left screen and outputs the graphic image signal to the video signal processing circuit 12. As a result, the reference circle is displayed on the left screen.

続いて、ユーザが2つ目の基準点を指定する。このとき、図13(c)に示すように、ユーザは基準点440を、欠陥の外側に位置するように指定することが望ましい。ユーザが基準点を指定する指示を入力すると、基準点指定部18bは現在のカーソルの画像座標を2つ目の基準点の画像座標として認識する。   Subsequently, the user designates a second reference point. At this time, as shown in FIG. 13C, the user desirably designates the reference point 440 so as to be located outside the defect. When the user inputs an instruction to designate a reference point, the reference point designation unit 18b recognizes the image coordinates of the current cursor as the image coordinates of the second reference point.

図13(d)に示すように、基準点が指定されると、基準円上に所定の間隔で並んだ偶数個の点450(基準円構成点)が設定される。座標算出部18dは、基準円上の基準円構成点の画像座標を算出する。図13(d)では基準円構成点は8個であるが、より多いまたは少ない基準円構成点が設定されていてもよい。続いて、図13(e)に示すように、1つ目の基準点を中心に互いに対称な位置にある基準円構成点同士を結ぶ複数の直線460(基準線)が設定される。基準線算出部18cは、1つ目の基準点を中心に互いに対称な位置にある基準円構成点同士を結ぶ基準線を算出する。各基準線は、欠陥領域を2つに分割する直線となる。上記のようにして、ユーザは簡易な操作で複数の基準線を設定することができる。   As shown in FIG. 13D, when a reference point is designated, an even number of points 450 (reference circle constituent points) arranged at a predetermined interval on the reference circle are set. The coordinate calculation unit 18d calculates the image coordinates of the reference circle composing point on the reference circle. In FIG. 13D, there are eight reference circle composing points, but more or fewer reference circle composing points may be set. Subsequently, as shown in FIG. 13 (e), a plurality of straight lines 460 (reference lines) connecting the reference circle composing points at positions symmetrical to each other around the first reference point are set. The reference line calculation unit 18c calculates a reference line that connects reference circle composing points that are symmetrical to each other around the first reference point. Each reference line is a straight line that divides the defect area into two. As described above, the user can set a plurality of reference lines with a simple operation.

これらの基準線上に複数の参照点が設定され、前述した処理により、基準線毎に奥行きプロファイルおよび輝度プロファイルが算出される。奥行きプロファイルおよび輝度プロファイルは基準線と対応させて(基準線を識別する情報と関連付けて)記憶部18hに格納される。   A plurality of reference points are set on these reference lines, and a depth profile and a luminance profile are calculated for each reference line by the processing described above. The depth profile and the luminance profile are stored in the storage unit 18h in association with the reference line (in association with information for identifying the reference line).

図14(a)は、欠陥の計測結果および診断結果を表示したときの計測画面を示している。左画面上には、2つの基準点(×)、基準円、基準線、基準円構成点(●)、および基準円構成点の番号が表示される。表示される基準円構成点の番号は、番号1の基準線を構成する基準円構成点の番号であれば、1および1’となる。番号2の基準線を構成する基準円構成点の番号であれば、2および2’となる。   FIG. 14A shows a measurement screen when the defect measurement result and the diagnosis result are displayed. On the left screen, two reference points (x), reference circles, reference lines, reference circle composing points (●), and reference circle composing point numbers are displayed. The numbers of the reference circle composing points to be displayed are 1 and 1 'if they are the numbers of the reference circle composing points constituting the reference line of number 1. If the number of the reference circle composing point constituting the reference line of number 2 is 2 and 2 '.

右画面上には、結果ウィンドウ500が表示される。図12の結果ウィンドウ300と異なるのは、ウィンドウの最上部に表示切替ボタン510が配置されている点である。結果ウィンドウ500には、初期設定として、基準線1−1’における奥行きプロファイルおよび輝度プロファイルが表示されているが、図14(b)に示すように、ユーザがカーソルを移動させ、表示切替ボタン510を押下することで、表示される基準線の番号が切り替わり、基準線2−2’における奥行きプロファイルおよび輝度プロファイルが表示される。ユーザが表示切替ボタン510の右側の三角形ボタンを押下すると、表示される基準線の番号が1つ進み、表示切替ボタン510の左側の三角形ボタンを押下すると、表示される基準線の番号が1つ戻り、更新後の番号の基準線に対応する奥行きプロファイルおよび輝度プロファイルが表示される。   A result window 500 is displayed on the right screen. A difference from the result window 300 of FIG. 12 is that a display switching button 510 is arranged at the top of the window. In the result window 500, the depth profile and the luminance profile on the reference line 1-1 ′ are displayed as an initial setting. As shown in FIG. 14B, the user moves the cursor, and the display switching button 510 is displayed. By pressing, the displayed reference line number is switched, and the depth profile and the luminance profile on the reference line 2-2 ′ are displayed. When the user presses the triangle button on the right side of the display switching button 510, the displayed reference line number is incremented by one. When the user presses the triangle button on the left side of the display switching button 510, the reference line number displayed is one. Returning, the depth profile and the luminance profile corresponding to the updated reference line are displayed.

制御部18aは、リモートコントローラ4からの信号に基づいて、表示切替ボタン510の操作によりユーザが指定した基準線を認識する。続いて、制御部18aは、ユーザが指定した基準線に対応した奥行きプロファイルおよび輝度プロファイルを記憶部18hから読み出し、それらを表示するためのグラフィック画像信号を生成して映像信号処理回路12へ出力する。これによって、ユーザが指定した基準線における奥行きプロファイルおよび輝度プロファイルが表示される。   Based on the signal from the remote controller 4, the control unit 18 a recognizes the reference line designated by the user by operating the display switching button 510. Subsequently, the control unit 18a reads the depth profile and the luminance profile corresponding to the reference line designated by the user from the storage unit 18h, generates a graphic image signal for displaying them, and outputs the graphic image signal to the video signal processing circuit 12. . Thereby, the depth profile and the luminance profile at the reference line designated by the user are displayed.

上述したように、本実施形態によれば、欠陥領域を2分する基準線上に設定された参照点における輝度情報の差と計測結果とが表示されるので、ユーザが計測対象物を目視して、欠陥に問題があるかどうかを判断する際に判断の補助となる情報をユーザに通知することができる。本実施形態は、バーニングのように、欠陥領域の内部と外部とで画像の特徴に差がある欠陥の診断を行う際に有効である。   As described above, according to the present embodiment, since the difference in luminance information and the measurement result at the reference point set on the reference line that bisects the defect area are displayed, the user visually observes the measurement object. The user can be notified of information that assists the determination when determining whether there is a problem with the defect. This embodiment is effective when diagnosing a defect having a difference in image characteristics between the inside and outside of the defect area, such as burning.

また、輝度プロファイルを表示することによって、欠陥の状態(表面輝度)に関する詳細な情報をユーザに通知することができる。さらに、基準線毎の輝度プロファイルを切替可能に表示することによって、ユーザは各輝度プロファイルを比較しながら欠陥の判断を詳細に行うことができる。   Further, by displaying the brightness profile, it is possible to notify the user of detailed information regarding the defect state (surface brightness). Furthermore, by displaying the luminance profile for each reference line in a switchable manner, the user can make a detailed determination of a defect while comparing the luminance profiles.

また、画像の特徴情報が所定の基準を満たすか否か、具体的には輝度情報の差が所定値以上であるか否かを判定することにより、欠陥に問題があるか否かの判定を客観的な基準に基づいて行うことができる。さらに、この判定の結果を表示することによって、欠陥に対する客観的な判定結果をユーザに知らせることができる。   Further, it is determined whether or not there is a problem with the defect by determining whether or not the feature information of the image satisfies a predetermined criterion, specifically, whether or not the difference in luminance information is equal to or greater than a predetermined value. This can be done based on objective criteria. Furthermore, by displaying the result of this determination, the user can be notified of the objective determination result for the defect.

また、計測結果である奥行きプロファイルを表示することによって、欠陥の状態(表面形状)に関する詳細な情報をユーザに通知することができる。さらに、基準線毎の奥行きプロファイルを切替可能に表示することによって、ユーザは各奥行きプロファイルを比較しながら欠陥の判断を詳細に行うことができる。   Further, by displaying the depth profile as a measurement result, it is possible to notify the user of detailed information regarding the defect state (surface shape). Furthermore, by displaying the depth profile for each reference line in a switchable manner, the user can make a detailed determination of the defect while comparing the depth profiles.

また、計測結果が所定の基準を満たすか否か、具体的には奥行き位置の差が所定値以上であるか否かを判定することにより、欠陥に問題があるか否かの判定を客観的な基準に基づいて行うことができる。さらに、この判定の結果を表示することによって、欠陥に対する客観的な判定結果をユーザに知らせることができる。   In addition, it is objective to determine whether or not there is a problem with the defect by determining whether or not the measurement result satisfies a predetermined criterion, specifically, whether or not the difference in depth position is greater than or equal to a predetermined value. Can be done based on various criteria. Furthermore, by displaying the result of this determination, the user can be notified of the objective determination result for the defect.

また、画像の特徴情報として輝度情報を生成することによって、輝度に特徴がある(欠陥の内部と外部とで輝度に差がある)欠陥についての判断を行うのに適した情報を得ることができる。また、画像の特徴情報として色情報を生成することによって、色に特徴がある(欠陥の内部と外部とで色に差がある)欠陥についての判断を行うのに適した情報を得ることができる。本実施形態では、画像の特徴情報として輝度情報または色情報を使用しているが、特徴情報は欠陥の特徴が反映される情報であればよく、輝度情報または色情報に限ることはない。   Also, by generating luminance information as image feature information, it is possible to obtain information suitable for determining a defect having a characteristic in luminance (difference in luminance between the inside and outside of the defect). . Also, by generating color information as image feature information, it is possible to obtain information suitable for making a determination about a defect having a color characteristic (a color difference between the inside and the outside of the defect). . In the present embodiment, luminance information or color information is used as image feature information. However, the feature information is not limited to the luminance information or the color information as long as the feature information is reflected.

(第2の実施形態)
次に、本発明の第2の実施形態を説明する。本実施形態による内視鏡装置の構成は図1に示した通りであるが、計測処理部18の構成が異なる。図15は本実施形態の計測処理部18の構成を示している。図15に示すように計測処理部18は、制御部18aと、基準点指定部18bと、基準線算出部18cと、座標算出部18dと、欠陥診断部18gと、記憶部18hと、欠陥サイズ算出部18iと、輝度取得部18jとから構成されている。図15に示す構成では、図2に示す構成と比較して、プロファイル算出部18e,18fが削除され、欠陥サイズ算出部18iおよび輝度取得部18jが追加されている点が異なる。欠陥サイズ算出部18iは、基準点の空間座標を算出し、欠陥のサイズを算出する。輝度取得部18jは、参照点における輝度情報を画像データから取得する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. The configuration of the endoscope apparatus according to the present embodiment is as shown in FIG. 1, but the configuration of the measurement processing unit 18 is different. FIG. 15 shows the configuration of the measurement processing unit 18 of the present embodiment. As shown in FIG. 15, the measurement processing unit 18 includes a control unit 18a, a reference point designation unit 18b, a reference line calculation unit 18c, a coordinate calculation unit 18d, a defect diagnosis unit 18g, a storage unit 18h, and a defect size. The calculation unit 18i and the luminance acquisition unit 18j are configured. The configuration shown in FIG. 15 is different from the configuration shown in FIG. 2 in that the profile calculation units 18e and 18f are deleted and a defect size calculation unit 18i and a luminance acquisition unit 18j are added. The defect size calculation unit 18i calculates the spatial coordinates of the reference point and calculates the size of the defect. The luminance acquisition unit 18j acquires luminance information at the reference point from the image data.

次に、本実施形態における計測の手順を説明する。図16は計測の手順を示している。ステップSaでは、液晶モニタ5に表示された計測画面上において、リモートコントローラ4の操作により、ユーザが基準点を2つ指定する。このときの処理は、図4のステップSAにおける処理と同様である。   Next, the measurement procedure in this embodiment will be described. FIG. 16 shows a measurement procedure. In step Sa, the user designates two reference points by operating the remote controller 4 on the measurement screen displayed on the liquid crystal monitor 5. The process at this time is the same as the process in step SA of FIG.

ステップSbでは、基準線算出部18cが、ステップSaで指定された2つの基準点を通る基準線を算出する。図17(a)に示すように、ユーザは基準点600a,600bを、欠陥610のエッジ上に位置するように指定する。基準点600a,600bを結ぶ直線が本実施形態の基準線である。基準線620は、欠陥610を2つに分割する直線となる。基準線620が欠陥610の中央付近を通過することが好ましい。   In step Sb, the reference line calculation unit 18c calculates a reference line that passes through the two reference points specified in step Sa. As shown in FIG. 17A, the user designates the reference points 600 a and 600 b so as to be located on the edge of the defect 610. A straight line connecting the reference points 600a and 600b is the reference line of this embodiment. The reference line 620 is a straight line that divides the defect 610 into two. It is preferable that the reference line 620 passes near the center of the defect 610.

ステップScでは、座標算出部18dが、基準線上に位置する複数の参照点の画像座標を算出する。より具体的には、座標算出部18dは、図17(b)に示すように、基準線において、2つの基準点のそれぞれから所定の距離だけ欠陥領域の外側にある参照点630a,630bの画像座標を算出し、さらに2つの基準点の中間に位置する参照点630cの画像座標を算出する。続いて、座標算出部18dは、図17(c)に示すように、各参照点を中心とする、輝度情報を算出するための矩形の画像処理範囲である参照エリア640a,640b,640cの画像座標を算出する。さらに、座標算出部18dは各参照エリア内に複数の参照点を設定する。   In step Sc, the coordinate calculation unit 18d calculates image coordinates of a plurality of reference points located on the reference line. More specifically, as shown in FIG. 17B, the coordinate calculation unit 18d displays images of reference points 630a and 630b that are outside the defect area by a predetermined distance from each of the two reference points on the reference line. The coordinates are calculated, and further the image coordinates of the reference point 630c located in the middle of the two reference points are calculated. Subsequently, as illustrated in FIG. 17C, the coordinate calculation unit 18 d has images of reference areas 640 a, 640 b, and 640 c that are rectangular image processing ranges for calculating luminance information with each reference point as the center. Calculate the coordinates. Further, the coordinate calculation unit 18d sets a plurality of reference points in each reference area.

ステップSdでは、欠陥サイズ算出部18iが欠陥のサイズを算出する。本実施形態における欠陥のサイズは欠陥の幅であり、ステップSaで指定された2つの基準点に対応する2つの空間座標間の空間距離(2点間距離)である。ステップSeでは、輝度取得部18jが、画像データから参照エリア内の参照点上の各画素の輝度情報を取得する。   In step Sd, the defect size calculation unit 18i calculates the size of the defect. The size of the defect in the present embodiment is the width of the defect, and is a spatial distance (distance between two points) between two spatial coordinates corresponding to the two reference points specified in step Sa. In step Se, the luminance acquisition unit 18j acquires luminance information of each pixel on the reference point in the reference area from the image data.

ステップSfでは、欠陥診断部18gが、ステップSeで取得された輝度情報に基づいて、欠陥診断を行う。より具体的には、欠陥診断部18gは、各参照エリアの輝度情報を比較し、比較結果に基づいて欠陥の診断を行う。欠陥領域の外部の参照エリア(図17(c)の参照エリア640a,640b)の輝度情報の平均をYaとし、欠陥領域の内部の参照エリア(図17(c)の参照エリア640c)の輝度情報をYbとすると、2つの輝度情報の差である輝度差Dは、以下の(4)式で表される。
D=|Ya−Yb| ・・・(4)
In step Sf, the defect diagnosis unit 18g performs defect diagnosis based on the luminance information acquired in step Se. More specifically, the defect diagnosis unit 18g compares the luminance information of each reference area and diagnoses the defect based on the comparison result. The average luminance information of the reference areas outside the defective area (reference areas 640a and 640b in FIG. 17C) is assumed to be Ya, and the luminance information of the reference area inside the defective area (reference area 640c in FIG. 17C). If Yb is Yb, the luminance difference D that is the difference between the two luminance information is expressed by the following equation (4).
D = | Ya−Yb | (4)

欠陥診断部18gは、上記の輝度差Dが所定値以上であれば、欠陥の内部と周囲の間の輝度差は大きいとみなし、診断結果をNGとする。また、欠陥診断部18gは、上記の輝度差Dが所定値未満であれば、輝度差は小さいとみなし、診断結果をOKとする。   If the luminance difference D is equal to or greater than a predetermined value, the defect diagnosis unit 18g considers that the luminance difference between the inside and the periphery of the defect is large and sets the diagnosis result to NG. Further, if the above-described luminance difference D is less than the predetermined value, the defect diagnosis unit 18g considers that the luminance difference is small and sets the diagnosis result to OK.

ステップSgでは、制御部18aが、左画面上に基準線を表示するためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する。これによって、左画面上に基準線が表示される。ステップShでは、制御部18aが、右画面上に結果ウィンドウを表示するためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する。これによって、右画面上に結果ウィンドウが表示される。結果ウィンドウ上には、欠陥の計測結果および診断結果が表示される。   In step Sg, the control unit 18 a generates a graphic image signal for displaying a reference line on the left screen and outputs the graphic image signal to the video signal processing circuit 12. As a result, the reference line is displayed on the left screen. In step Sh, the control unit 18a generates a graphic image signal for displaying the result window on the right screen and outputs the graphic image signal to the video signal processing circuit 12. As a result, a result window is displayed on the right screen. On the result window, the measurement result and diagnosis result of the defect are displayed.

図18は、欠陥の計測結果および診断結果を表示したときの計測画面を示している。左画面上には、2つの基準点(×)および基準線が表示される。右画面上には、結果ウィンドウ800が表示される。結果ウィンドウ800の上部には欠陥のイメージが表示されている。また、結果ウィンドウ800の下部には、欠陥の計測結果である2点間距離(W)に加えて、輝度情報の差(Differ)、および診断結果(Result)が表示されている。ユーザは、欠陥の計測結果および診断結果をもとに、欠陥に問題があるかどうかを確認することができる。   FIG. 18 shows a measurement screen when the defect measurement result and the diagnosis result are displayed. On the left screen, two reference points (x) and a reference line are displayed. A result window 800 is displayed on the right screen. An image of the defect is displayed at the top of the result window 800. Further, in the lower part of the result window 800, in addition to the distance between two points (W) that is a defect measurement result, a difference in luminance information (Differ) and a diagnosis result (Result) are displayed. The user can check whether there is a problem with the defect based on the measurement result and the diagnosis result of the defect.

次に、本実施形態の変形例を説明する。上記では、1本の直線(基準線)を求めて欠陥のサイズおよび輝度差を算出していたが、本変形例では、複数の直線(基準線)を求めて欠陥のサイズおよび輝度差を、一度に算出することができる。   Next, a modification of this embodiment will be described. In the above, a single straight line (reference line) was obtained to calculate the size and luminance difference of the defect, but in this modification, a plurality of straight lines (reference line) were obtained to determine the defect size and the luminance difference. It can be calculated at once.

第1の実施形態における変形例と同様に、ユーザが、図19の欠陥領域のほぼ中央に位置する基準点900を指定すると、基準点900を中心とし、基準点900とカーソル910との距離を半径とする基準円920が表示される。続いて、ユーザが2つ目の基準点を指定する。このとき、第1の実施形態における変形例とは異なり、図19に示すように、ユーザは基準点930を、欠陥のエッジ上に位置するように指定することが望ましい。すなわち、ユーザは基準円が欠陥のエッジにできるだけ一致するように基準点930を指定することが望ましい。   As in the modification in the first embodiment, when the user designates the reference point 900 located almost in the center of the defect area in FIG. 19, the distance between the reference point 900 and the cursor 910 is set with the reference point 900 as the center. A reference circle 920 as a radius is displayed. Subsequently, the user designates a second reference point. At this time, unlike the modification in the first embodiment, as shown in FIG. 19, it is desirable that the user designates the reference point 930 so as to be positioned on the edge of the defect. That is, it is desirable that the user designates the reference point 930 so that the reference circle matches the defect edge as much as possible.

2つの基準点が指定されると、基準円上に所定の間隔で並んだ偶数個の基準円構成点940が設定される。このとき、座標算出部18dは、基準円上の基準円構成点の画像座標を算出する。また、基準点900を中心に互いに対称な位置にある基準円構成点同士を結ぶ複数の基準線950が設定される。基準線算出部18cは、1つ目の基準点を中心に互いに対称な位置にある基準円構成点同士を結ぶ基準線を算出する。各基準線は、欠陥領域を2つに分割する直線となる。上記のようにして、ユーザは簡易な操作で複数の基準線を設定することができる。   When two reference points are designated, an even number of reference circle composing points 940 arranged at predetermined intervals on the reference circle are set. At this time, the coordinate calculation unit 18d calculates the image coordinates of the reference circle composing point on the reference circle. In addition, a plurality of reference lines 950 connecting the reference circle composing points that are symmetrical to each other around the reference point 900 are set. The reference line calculation unit 18c calculates a reference line that connects reference circle composing points that are symmetrical to each other around the first reference point. Each reference line is a straight line that divides the defect area into two. As described above, the user can set a plurality of reference lines with a simple operation.

続いて、図示していないが、各基準線において、基準円構成点から所定の距離だけ欠陥領域の外側にある参照点が設定される。このとき、座標算出部18dは、参照点の画像座標を算出する。続いて、座標算出部18dは、基準点および参照点を中心とする参照エリアの画像座標を算出し、各参照エリア内に複数の参照点を設定する。これら複数の参照点に基づいて、前述した処理により、基準線毎に輝度差が算出される。また、2つの基準点に対応する2つの空間座標間の空間距離が計測結果として算出される。計測結果および輝度差は基準線と対応させて(基準線を識別する情報と関連付けて)記憶部18hに格納される。   Subsequently, although not shown, a reference point that is outside the defect area by a predetermined distance from the reference circle composing point is set on each reference line. At this time, the coordinate calculation unit 18d calculates the image coordinates of the reference point. Subsequently, the coordinate calculation unit 18d calculates the image coordinates of the reference area centered on the reference point and the reference point, and sets a plurality of reference points in each reference area. Based on the plurality of reference points, a luminance difference is calculated for each reference line by the processing described above. A spatial distance between two spatial coordinates corresponding to the two reference points is calculated as a measurement result. The measurement result and the luminance difference are stored in the storage unit 18h in association with the reference line (in association with information for identifying the reference line).

図20は、欠陥の計測結果および診断結果を表示したときの計測画面を示している。左画面上には、2つの基準点(×)、基準円、基準線、基準円構成点(●)、および基準円構成点の番号が表示される。右画面上には、結果ウィンドウ1000が表示される。図18の結果ウィンドウ800と異なるのは、ウィンドウの中央部に表示切替ボタン1010が配置されている点である。表示切替ボタン1010の機能は図14の表示切替ボタン510の機能と同様である。   FIG. 20 shows a measurement screen when a defect measurement result and a diagnosis result are displayed. On the left screen, two reference points (x), reference circles, reference lines, reference circle composing points (●), and reference circle composing point numbers are displayed. A result window 1000 is displayed on the right screen. A difference from the result window 800 of FIG. 18 is that a display switching button 1010 is arranged at the center of the window. The function of the display switching button 1010 is the same as the function of the display switching button 510 in FIG.

制御部18aは、リモートコントローラ4からの信号に基づいて、表示切替ボタン1010の操作によりユーザが指定した基準線を認識する。続いて、制御部18aは、ユーザが指定した基準線に対応した計測結果および輝度差を記憶部18hから読み出し、それらを表示するためのグラフィック画像信号を生成して映像信号処理回路12へ出力する。これによって、ユーザが指定した基準線に対応する計測結果および輝度差が表示される。   Based on the signal from the remote controller 4, the control unit 18 a recognizes the reference line designated by the user by operating the display switching button 1010. Subsequently, the control unit 18a reads out the measurement result and the luminance difference corresponding to the reference line designated by the user from the storage unit 18h, generates a graphic image signal for displaying them, and outputs it to the video signal processing circuit 12. . Thereby, the measurement result and the luminance difference corresponding to the reference line designated by the user are displayed.

上述したように、本実施形態によれば、第1の実施形態と同様に、ユーザが計測対象物を目視して、欠陥に問題があるかどうかを判断する際に判断の補助となる情報をユーザに通知することができる。また、基準線毎の計測結果および輝度差を切替可能に表示することによって、ユーザは各計測結果および輝度差を比較しながら欠陥の判断を詳細に行うことができる。   As described above, according to the present embodiment, as in the first embodiment, when the user visually checks the measurement object and determines whether there is a problem with the defect, the information that assists the determination is obtained. The user can be notified. Further, by displaying the measurement result and the luminance difference for each reference line in a switchable manner, the user can make a detailed determination of the defect while comparing the measurement results and the luminance difference.

本実施形態では、画像の特徴情報として輝度情報を使用しているが、前述した色情報を使用することも可能であるし、特徴情報は欠陥の特徴が反映される情報であればよく、輝度情報または色情報に限ることはない。   In this embodiment, luminance information is used as image feature information. However, the color information described above can also be used, and the feature information may be information reflecting the feature of the defect. It is not limited to information or color information.

以上、図面を参照して本発明の実施形態について詳述してきたが、具体的な構成は上記の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。   As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to the above-described embodiments, and includes design changes and the like without departing from the gist of the present invention. .

1・・・内視鏡装置、2a・・・固体撮像素子(撮像部)、4・・・リモートコントローラ(入力装置)、5・・・液晶モニタ(表示部)、12・・・映像信号処理回路(撮像部)、18・・・計測処理部、18a・・・制御部、18b・・・基準点指定部(基準点設定部)、18c・・・基準線算出部(基準線設定部)、18d・・・座標算出部(抽出点設定部)、18e・・・プロファイル算出部(計測部)、18f・・・プロファイル算出部(生成部)、18g・・・欠陥診断部(判定部)、18h・・・記憶部、18i・・・欠陥サイズ算出部(計測部)、18j・・・輝度取得部(生成部)   DESCRIPTION OF SYMBOLS 1 ... Endoscope apparatus, 2a ... Solid-state image sensor (imaging part), 4 ... Remote controller (input device), 5 ... Liquid crystal monitor (display part), 12 ... Video signal processing Circuit (imaging unit), 18 ... measurement processing unit, 18a ... control unit, 18b ... reference point designation unit (reference point setting unit), 18c ... reference line calculation unit (reference line setting unit) , 18d ... coordinate calculation unit (extraction point setting unit), 18e ... profile calculation unit (measurement unit), 18f ... profile calculation unit (generation unit), 18g ... defect diagnosis unit (determination unit) , 18h ... storage unit, 18i ... defect size calculation unit (measurement unit), 18j ... luminance acquisition unit (generation unit)

Claims (4)

被写体を撮像し、画像データを生成する撮像部と、
前記画像データに基づく画像において、2つの基準点を設定する基準点設定部と、
前記2つの基準点に基づいて、前記画像における特徴領域を2分する複数の基準線を設定する基準線設定部と、
前記基準線上に、前記画像の特徴を抽出するための抽出点を設定する抽出点設定部と、
前記基準点または前記抽出点の空間座標を算出し、前記被写体に関する計測を行う計測部と、
前記抽出点における前記画像の情報に基づいて、前記抽出点における前記画像の特徴を示す特徴情報を生成する生成部と、
前記複数の基準線に対応する前記特徴情報と前記計測部による計測の結果とを記憶する記憶部と、
前記画像と共に、前記記憶部に記憶されている、前記複数の基準線に対応する前記特徴情報と前記計測部による計測の結果とを基準線毎に切替可能に表示する表示部と、
前記特徴情報が所定の基準を満たすか否かを判定する第1の判定部と、
を備え、
前記抽出点設定部は、前記基準線上に複数の前記抽出点を設定し、
前記第1の判定部は、前記基準線の第1の部分に設定された前記抽出点における前記特徴情報と、前記基準線の、前記第1の部分と異なる第2の部分に設定された前記抽出点における前記特徴情報との差分が所定の基準を満たすか否かを判定する
ことを特徴とする内視鏡装置。
An imaging unit that images a subject and generates image data;
A reference point setting unit for setting two reference points in the image based on the image data;
A reference line setting unit that sets a plurality of reference lines that bisect a feature region in the image based on the two reference points;
An extraction point setting unit for setting an extraction point for extracting the feature of the image on the reference line;
A measurement unit that calculates spatial coordinates of the reference point or the extraction point and performs measurement on the subject;
Based on the information of the image at the extraction point, a generation unit that generates feature information indicating the feature of the image at the extraction point;
A storage unit for storing the feature information corresponding to the plurality of reference lines and a measurement result by the measurement unit;
A display unit that is stored in the storage unit together with the image, and that displays the feature information corresponding to the plurality of reference lines and a measurement result by the measurement unit in a switchable manner for each reference line ;
A first determination unit that determines whether or not the feature information satisfies a predetermined criterion;
With
The extraction point setting unit sets a plurality of the extraction points on the reference line,
The first determination unit is configured to set the feature information at the extraction point set in the first part of the reference line and the second part of the reference line different from the first part. An endoscope apparatus, wherein it is determined whether or not a difference from the feature information at an extraction point satisfies a predetermined criterion.
前記計測の結果が所定の基準を満たすか否かを判定する第2の判定部をさらに備えたことを特徴とする請求項1に記載の内視鏡装置。   The endoscope apparatus according to claim 1, further comprising a second determination unit that determines whether or not a result of the measurement satisfies a predetermined criterion. 前記抽出点設定部は、前記基準線上に複数の前記抽出点を設定し、
前記第2の判定部は、前記基準線の第1の部分に設定された前記抽出点における前記計測の結果と、前記基準線の、前記第1の部分と異なる第2の部分に設定された前記抽出点における前記計測の結果との差分が所定の基準を満たすか否かを判定する
ことを特徴とする請求項2に記載の内視鏡装置。
The extraction point setting unit sets a plurality of the extraction points on the reference line,
The second determination unit is set to a second result different from the first part of the reference line and a result of the measurement at the extraction point set to the first part of the reference line. The endoscope apparatus according to claim 2, wherein it is determined whether or not a difference from the measurement result at the extraction point satisfies a predetermined criterion.
前記表示部はさらに、前記第1の判定部による判定の結果、又は前記第2の判定部による判定の結果を表示することを特徴とする請求項に記載の内視鏡装置。 The endoscope apparatus according to claim 3 , wherein the display unit further displays a result of determination by the first determination unit or a result of determination by the second determination unit.
JP2010027473A 2010-02-10 2010-02-10 Endoscope device Expired - Fee Related JP5602449B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010027473A JP5602449B2 (en) 2010-02-10 2010-02-10 Endoscope device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010027473A JP5602449B2 (en) 2010-02-10 2010-02-10 Endoscope device

Publications (3)

Publication Number Publication Date
JP2011161019A JP2011161019A (en) 2011-08-25
JP2011161019A5 JP2011161019A5 (en) 2013-03-28
JP5602449B2 true JP5602449B2 (en) 2014-10-08

Family

ID=44592403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010027473A Expired - Fee Related JP5602449B2 (en) 2010-02-10 2010-02-10 Endoscope device

Country Status (1)

Country Link
JP (1) JP5602449B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6095429B2 (en) * 2013-03-21 2017-03-15 オリンパス株式会社 Measuring device and program
JP6429541B2 (en) * 2014-09-08 2018-11-28 オリンパス株式会社 Endoscopic image display device, operation method of endoscopic image display device, and endoscope image display program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2954320B2 (en) * 1990-10-31 1999-09-27 キヤノン株式会社 Image processing method and apparatus
JP4445622B2 (en) * 1999-12-08 2010-04-07 オリンパス株式会社 Three-dimensional measurement endoscope device, subject measurement display device, subject measurement display method of three-dimensional measurement endoscope, and subject measurement display method
JP4873794B2 (en) * 2001-05-30 2012-02-08 オリンパス株式会社 Image processing measuring apparatus and measuring endoscope apparatus
JP4894628B2 (en) * 2007-05-28 2012-03-14 パナソニック電工株式会社 Appearance inspection method and appearance inspection apparatus

Also Published As

Publication number Publication date
JP2011161019A (en) 2011-08-25

Similar Documents

Publication Publication Date Title
JP5530225B2 (en) Endoscope apparatus and program
JP2011158549A (en) Endoscope apparatus and program
US8004560B2 (en) Endoscope apparatus
JP6150532B2 (en) Measuring device and program
JP5073564B2 (en) Endoscope device for measurement and program
JP4873794B2 (en) Image processing measuring apparatus and measuring endoscope apparatus
JP5570769B2 (en) Endoscope apparatus, measurement method, and program
JP2011027997A (en) Endoscope apparatus, measuring method, and program
JP5574555B2 (en) Endoscope device
JP2018197674A (en) Operation method of measuring device, measuring device, measurement system, three-dimensional shape restoring device, and program
US20140002630A1 (en) Endoscopic apparatus and measuring method
JP5307407B2 (en) Endoscope apparatus and program
JP5602449B2 (en) Endoscope device
JP2010256988A (en) Device, and method for generating three-dimensional image, and program
JP2011170276A (en) Endoscope device and program
CN110858397A (en) Measuring device, method for operating measuring device, and storage medium
JP5361246B2 (en) Endoscope apparatus and program
JP5253109B2 (en) Endoscope apparatus and endoscopic image program
JP2019045249A (en) Measuring device and method for operating measuring device
JP6400767B2 (en) Measuring endoscope device
JP2005279054A (en) Device and method for displaying conversion image, and endoscope apparatus for industrial use
WO2017199657A1 (en) Endoscope device, measurement method, and program
JP6120537B2 (en) Measuring endoscope device
JP5791989B2 (en) Endoscope apparatus and program
JP5771729B2 (en) Endoscope device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140307

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140820

R151 Written notification of patent or utility model registration

Ref document number: 5602449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371