JP5199634B2 - Measuring endoscope system - Google Patents

Measuring endoscope system Download PDF

Info

Publication number
JP5199634B2
JP5199634B2 JP2007259272A JP2007259272A JP5199634B2 JP 5199634 B2 JP5199634 B2 JP 5199634B2 JP 2007259272 A JP2007259272 A JP 2007259272A JP 2007259272 A JP2007259272 A JP 2007259272A JP 5199634 B2 JP5199634 B2 JP 5199634B2
Authority
JP
Japan
Prior art keywords
image
measurement
unit
value
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007259272A
Other languages
Japanese (ja)
Other versions
JP2009086552A (en
Inventor
澄人 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2007259272A priority Critical patent/JP5199634B2/en
Publication of JP2009086552A publication Critical patent/JP2009086552A/en
Application granted granted Critical
Publication of JP5199634B2 publication Critical patent/JP5199634B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は被写体を撮像し、所定の画素間隔でデータをサンプリングして元画像とし、元画像上の特徴点を指定して計測を行う計測内視鏡システムに関する。   The present invention relates to a measurement endoscope system that images a subject, samples data at a predetermined pixel interval to obtain an original image, and performs measurement by specifying a feature point on the original image.

今日、内視鏡装置は各種産業に使用され、例えば機械部品の傷や欠損等を計測する計測内視鏡装置も使用されている。このような内視鏡装置において、ユーザが元画像上の特徴点を容易に指定可能にする技術として、元画像を拡大し、該拡大画像上で特徴点の指定を行う方法が提案されている。   Today, endoscope apparatuses are used in various industries, and for example, measurement endoscope apparatuses that measure scratches or defects of mechanical parts are also used. In such an endoscope apparatus, as a technique that allows a user to easily specify a feature point on an original image, a method of enlarging the original image and specifying a feature point on the enlarged image has been proposed. .

特許文献1には、元画像上の計測点を指定する技術として、元画像を拡大し、拡大画像上で計測点の指定を行う方法が提案されている。この方法は、拡大画像上の画素の中から計測点に対応する画素を選択して指定し、指定された画素に対応する元画素の位置に基づいて計測を行う。さらに、指定された計測点の元画像上での位置は、拡大倍率の逆数単位で算出することができる。従って、この様に算出された位置に基づいて、元画像の画素間隔よりも細かい単位の計測を行うことも可能である。   Patent Document 1 proposes a method for enlarging an original image and designating measurement points on the enlarged image as a technique for designating measurement points on the original image. In this method, a pixel corresponding to a measurement point is selected and designated from among pixels on the enlarged image, and measurement is performed based on the position of the original pixel corresponding to the designated pixel. Furthermore, the position of the designated measurement point on the original image can be calculated in units of reciprocal magnification. Therefore, based on the position calculated in this way, it is possible to measure in units smaller than the pixel interval of the original image.

例えば、図14は被写体の元画像を示し、元画像では背景が白であり、太さが2画素である2本の黒い線が直角に交わっている。特徴点は2本の線の交点の中心とし、この点を含む領域を拡大する拡大領域としている。図15は拡大領域を示す。そして、拡大画像上には指定点を示す+印が表示され、同図に示すように拡大画像上で特徴点を指定し、指定された拡大画像上の画素に対応する元画像上の画素の位置に基づいて演算を行っている。
特開平4−332523号公報
For example, FIG. 14 shows an original image of a subject. In the original image, two black lines having a white background and a thickness of 2 pixels intersect at right angles. The feature point is the center of the intersection of the two lines, and an area including this point is an enlarged area. FIG. 15 shows an enlarged area. Then, a + mark indicating the designated point is displayed on the enlarged image, and a feature point is designated on the enlarged image as shown in the figure, and the pixel on the original image corresponding to the pixel on the designated enlarged image is displayed. Calculation is performed based on the position.
JP-A-4-332523

上記従来方法においては、特徴点の位置指定の単位は元画像の画素間隔、若しくはそれより細かい指定が可能である。しかしながら、指定点の移動は、マウス等のポインティングデバイスの移動操作に対応して行うが、従来のポインティングデバイスによる指定点の移動は、画像を表示する装置の画素単位で行われる。従って指定点の移動単位が画像の表示倍率に依存しているため、低倍率での表示時は詳細な移動が行えず、高倍率での表示時は移動距離が長くなったり、画像が見にくくなったりといった問題があった。   In the conventional method described above, the unit for specifying the position of the feature point can be specified as a pixel interval of the original image or finer. However, although the designated point is moved in response to a moving operation of a pointing device such as a mouse, the designated point is moved by a pixel unit of a device that displays an image. Therefore, because the unit of movement of the specified point depends on the display magnification of the image, detailed movement cannot be performed when displaying at a low magnification, and the moving distance becomes long or the image becomes difficult to see when displayed at a high magnification. There was a problem such as.

そこで、本発明はマウス等のポインティングデバイスの移動に対して指定点の移動の比率を変え、指定点を詳細に移動し、測定位置に正確に移動可能な計測内視鏡システムを提供することを目的とする。   Therefore, the present invention provides a measurement endoscope system that changes the ratio of movement of a designated point with respect to the movement of a pointing device such as a mouse, moves the designated point in detail, and can accurately move to a measurement position. Objective.

上記課題は本発明によれば、観察対象が撮像された画像信号を、画素単位でサンプリングして画像データとして取得する画像取得手段と、この画像取得手段によって取得された画像を表示する表示手段と、前記画像上の位置を指定する位置指定手段と、この位置指定手段によって移動操作され、前記表示手段に表示される指定位置を示すポインタの位置を記憶する記憶手段と、前記位置指定手段の指定位置に基づいて移動操作の移動量と移動方向を算出し、前記画素単位より細かい単位で前記表示手段に表示された前記画像上の位置を計算する制御手段と、を備え、前記記憶手段は、前記画像上のX軸方向及びY軸方向のそれぞれについて第1閾値と第2閾値とを有すると共に、前記X軸方向及び前記Y軸方向のそれぞれの移動操作前と移動操作後との前記指定位置に応じて加減算される第1の値と第2の値とを記憶し、前記制御部は、前記指定位置の前記画素単位における値と、前記第1及び第2の値を前記第1及び第2閾値で除算した前記画素単位より細かい単位における値とを加算して、移動操作後の前記指定位置の値を前記画素単位より細かい前記単位で計算する計測内視鏡システムを提供することによって達成できる。 According to the present invention, the above-described problem is that, according to the present invention, an image acquisition unit that samples an image signal of an observation target and acquires the image signal as image data, and a display unit that displays an image acquired by the image acquisition unit. A position specifying means for specifying a position on the image, a storage means for storing a pointer position indicating a specified position displayed on the display means, which is moved by the position specifying means, and a designation of the position specifying means Control means for calculating a moving amount and a moving direction of the moving operation based on the position, and calculating a position on the image displayed on the display means in units smaller than the pixel unit, and the storage means It has a first threshold value and a second threshold value for each of the X-axis direction and the Y-axis direction on the image, and moves before and after each movement operation in the X-axis direction and the Y-axis direction. A first value and a second value that are added and subtracted according to the designated position after the operation are stored, and the control unit stores the value of the designated position in the pixel unit, the first and second values. A measuring endoscope that adds a value in a unit smaller than the pixel unit obtained by dividing the value by the first and second thresholds, and calculates the value of the designated position after the moving operation in the unit smaller than the pixel unit. This can be achieved by providing a system.

本発明によれば、マウス等のポインティングデバイスによって位置の指定を行うとき、実質的に画素単位より細かい間隔で測定位置の指定を行うことができる。   According to the present invention, when a position is designated by a pointing device such as a mouse, the measurement position can be designated at an interval substantially smaller than a pixel unit.

以下、本発明の実施の形態を図面を参照しながら説明する。
尚、本実施形態の説明では、計測内視鏡システムとしてステレオ計測可能な内視鏡システムを例に挙げ、指定点としてはステレオ計測の対象である計測点としている。
Embodiments of the present invention will be described below with reference to the drawings.
In the description of the present embodiment, an endoscope system capable of stereo measurement is taken as an example of the measurement endoscope system, and the designated point is a measurement point that is a target of stereo measurement.

図1〜図13は本実施形態に係わり、図1は計測内視鏡システムを説明する図であり、図2は計測内視鏡システムの構成を説明するブロック図であり、図3は計測内視鏡システムの制御を説明する機能ブロック図であり、図4はリモートコントローラを説明する図であり、図5は直視型のステレオ光学アダプタを計測用内視鏡先端部に取り付けた構成を示す斜視図であり、図6は図5のA−A断面図であり、図7はステレオ計測により計測点の3次元座標を求める方法を説明する図であり、図8は計測内視鏡システムによる計測の流れを説明するフローチャートであり、図9は図1の計測内視鏡システムのステレオ計測実行画面を示す説明図であり、図10は疑似サンプリング画像の拡大画像を示す図であり、図11はサンプリング点移動画像とその拡大画像が生成される原理を説明する図であり、図12は元画像におけるサンプリング点と移動されたサンプリング点を示す図であり、図13は計測内視鏡システムの変形例を説明する図である。   1 to 13 relate to this embodiment, FIG. 1 is a diagram for explaining a measurement endoscope system, FIG. 2 is a block diagram for explaining the configuration of the measurement endoscope system, and FIG. FIG. 4 is a functional block diagram illustrating control of an endoscope system, FIG. 4 is a diagram illustrating a remote controller, and FIG. 5 is a perspective view illustrating a configuration in which a direct-viewing stereo optical adapter is attached to a distal end portion of a measurement endoscope. 6 is a cross-sectional view taken along line AA of FIG. 5, FIG. 7 is a diagram for explaining a method for obtaining three-dimensional coordinates of measurement points by stereo measurement, and FIG. 8 is a measurement by a measurement endoscope system. 9 is a flowchart illustrating a stereo measurement execution screen of the measurement endoscope system of FIG. 1, FIG. 10 is a diagram illustrating an enlarged image of a pseudo-sampling image, and FIG. Sampling point moving image FIG. 12 is a diagram illustrating the sampling points in the original image and the moved sampling points, and FIG. 13 is a diagram illustrating a modification example of the measurement endoscope system. FIG.

先ず、計測内視鏡システム10は、図1に示すようにステレオ計測可能なものを含む光学アダプタを着脱自在に構成された内視鏡挿入部11と、該内視鏡挿入部11を収納するコントロールユニット12と、計測内視鏡システム10のシステム全体の各種動作制御を実行するために必要な操作を行うリモートコントローラ13と、内視鏡画像や操作制御内容(例えば処理メニュー)等の表示を行う液晶モニタ(表示手段)(以下、LCDと記載)14と、通常の内視鏡画像、あるいはその内視鏡画像を擬似的にステレオ画像として立体視可能なフェイスマウントディスプレイ(以下,FMDと記載)17と、該FMD17に画像データを供給するFMDアダプタ18と、コントロールユニット12に接続されるマウス27(計測位置指定手段)を含んで構成されている。   First, as shown in FIG. 1, the measurement endoscope system 10 houses an endoscope insertion portion 11 configured to be detachably mountable with an optical adapter including a stereo-measurable one, and the endoscope insertion portion 11. Display of the control unit 12, the remote controller 13 that performs operations necessary to execute various operation controls of the entire measurement endoscope system 10, and the display of endoscope images and operation control contents (for example, processing menus). Liquid crystal monitor (display means) (hereinafter referred to as LCD) 14 to be performed, a normal endoscopic image, or a face mount display (hereinafter referred to as FMD) capable of stereoscopically viewing the endoscopic image as a pseudo stereo image. ) 17, an FMD adapter 18 that supplies image data to the FMD 17, and a mouse 27 (measurement position specifying means) connected to the control unit 12 It is configured to include a.

次に、図2を参照しながら計測内視鏡システム10のシステム構成を詳細に説明する。同図に示すように、前記内視鏡挿入部11は、内視鏡ユニット24に接続される。この内視鏡ユニット24は、例えは図1に示したコントロールユニット12内に搭載されている。また、この内視鏡ユニット24は、撮影時に必要な照明光を得るための光源装置と、前記内視鏡挿入部11を電気的に自在に湾曲させるための電動湾曲装置とを含んで構成されている。また、内視鏡挿入部11先端の固体撮像素子43(撮像手段)(図6参照)からの撮像信号は、カメラコントロールユニット(以下、CCUと記載)25に入力される。   Next, the system configuration of the measurement endoscope system 10 will be described in detail with reference to FIG. As shown in the figure, the endoscope insertion portion 11 is connected to an endoscope unit 24. The endoscope unit 24 is mounted, for example, in the control unit 12 shown in FIG. Further, the endoscope unit 24 includes a light source device for obtaining illumination light necessary for photographing, and an electric bending device for bending the endoscope insertion portion 11 electrically freely. ing. An imaging signal from a solid-state imaging device 43 (imaging means) (see FIG. 6) at the distal end of the endoscope insertion portion 11 is input to a camera control unit (hereinafter referred to as CCU) 25.

該CCU25は、供給された撮像信号をNTSC信号等の映像信号に変換し、前記コントロールユニット12内の主要処理回路群へと供給する。
前記コントロールユニット12内に搭載された主要回路群は、図2に示すように、主要プログラムに基づき各種機能を実行し動作させるように制御を行うCPU26a、ROM26b、RAM26c、及びPCカードインターフェイス(以下、PCカードI/Fと記載)30、USBインターフェイス(以下、USB I/Fと記載)31、RS−232Cインターフェイス(以下、RS−232C I/Fと記載)29、音声信号処理回路32、及び映像信号処理回路33(画像取得手段)とを含んで構成されている。
The CCU 25 converts the supplied imaging signal into a video signal such as an NTSC signal and supplies it to a main processing circuit group in the control unit 12.
As shown in FIG. 2, the main circuit group mounted in the control unit 12 includes a CPU 26a, a ROM 26b, a RAM 26c, and a PC card interface (hereinafter, referred to as a CPU card) that controls various functions based on the main program. PC card I / F) 30, USB interface (hereinafter referred to as USB I / F) 31, RS-232C interface (hereinafter referred to as RS-232C I / F) 29, audio signal processing circuit 32, and video The signal processing circuit 33 (image acquisition means) is included.

また、前記RS−232C I/F29は、CCU25、内視鏡ユニット24、及びリモートコントローラ13(位置指定手段)にそれぞれ接続されている。リモートコントローラ13は、CCU25、内視鏡ユニット24の制御及び動作指示、若しくは後述するポインタの位置移動の制御を行うためのものである。また、RS−232C I/F29は、リモートコントローラ13による操作に基づいてCCU25、内視鏡ユニット24を動作制御するために必要な通信を行う構成である。   The RS-232C I / F 29 is connected to the CCU 25, the endoscope unit 24, and the remote controller 13 (position specifying means). The remote controller 13 is for controlling the CCU 25 and the endoscope unit 24 and operating instructions, or controlling the position movement of a pointer described later. The RS-232C I / F 29 is configured to perform communication necessary for controlling the operation of the CCU 25 and the endoscope unit 24 based on an operation by the remote controller 13.

前記USB I/F31は、前記コントロールユニット12とマウス27(位置指定手段)とを電気的に接続するためのインターフェイスである。前記USB I/F31を介して前記コントロールユニット12とマウス27とを接続した場合には、マウス27の後述する操作によって操作信号がCPU26aに送られ、後述するポインタの位置移動が制御される。   The USB I / F 31 is an interface for electrically connecting the control unit 12 and the mouse 27 (position specifying means). When the control unit 12 and the mouse 27 are connected via the USB I / F 31, an operation signal is sent to the CPU 26a by an operation described later of the mouse 27, and the position movement of the pointer described later is controlled.

また、前記PCカードI/F30は、PCMCIAメモリカード23、及びコンパクトフラッシュ(登録商標)メモリカード22が着脱自由に接続される構成である。つまり、前記いずれかのメモリカードが装着された場合、コントロールユニット12は、記録媒体としてのメモリカードに記憶された制御処理情報や画像情報等のデータを再生し、前記PCカードI/F30を介してコントロールユニット12内に取り込み、或いは制御処理情報や画像情報等のデータを、前記PCカードI/F30を介してメモリカードに供給して記録することができる。   The PC card I / F 30 has a configuration in which a PCMCIA memory card 23 and a compact flash (registered trademark) memory card 22 are freely connected and detached. That is, when any one of the memory cards is inserted, the control unit 12 reproduces data such as control processing information and image information stored in the memory card as a recording medium, and passes through the PC card I / F 30. Thus, data such as control processing information and image information can be supplied to the memory card via the PC card I / F 30 and recorded.

前記映像信号処理回路33は、CCU25から供給された内視鏡画像とグラフィックによる操作メニューとを合成した合成画像を表示するように、CCU25からの映像信号とCPU26aの制御により生成される操作メニューに基づく表示信号とを合成処理し、更にLCD14の画面上に表示するために必要な処理を施してLCD14に供給する。これにより、LCD14には内視鏡画像と操作メニューとの合成画像が表示される。   The video signal processing circuit 33 uses the video signal from the CCU 25 and the operation menu generated by the control of the CPU 26a so as to display a composite image obtained by synthesizing the endoscopic image supplied from the CCU 25 and the graphic operation menu. The display signal based on this is combined, and further necessary processing for displaying on the screen of the LCD 14 is performed and supplied to the LCD 14. As a result, a composite image of the endoscopic image and the operation menu is displayed on the LCD 14.

尚、映像信号処理回路33では、単に内視鏡画像、あるいは操作メニュー等の画像を単独で表示するための処理を行うことも可能である。
また、図1に示したコントロールユニット12は、前記CCU25を経由せずに映像信号処理回路33に映像を入力する外部映像入力端子70を別に設けている。該外部映像入力端子70に映像信号が入力された場合、映像信号処理回路33はCCU25からの内視鏡画像に優先して前記合成画像を出力する。
In the video signal processing circuit 33, it is also possible to simply perform processing for displaying an endoscopic image or an image such as an operation menu alone.
Further, the control unit 12 shown in FIG. 1 is provided with an external video input terminal 70 for inputting video to the video signal processing circuit 33 without going through the CCU 25. When a video signal is input to the external video input terminal 70, the video signal processing circuit 33 outputs the composite image in preference to the endoscopic image from the CCU 25.

前記音声信号処理回路32は、マイク20により集音されて生成され、メモリカード等の記録媒体に記録する音声信号、或いはメモリカード等の記録媒体の再生によって得られた音声信号、あるいは後述するCPUによって生成された音声信号が供給される。前記音声信号処理回路32は、供給された音声信号に再生するために必要な処理(増幅処理等)を施し、スピーカ19に出力する。これにより、スピーカ19によって音声信号が再生される。   The audio signal processing circuit 32 is collected by the microphone 20 and recorded on a recording medium such as a memory card, or an audio signal obtained by reproducing a recording medium such as a memory card, or a CPU described later. The audio signal generated by is supplied. The audio signal processing circuit 32 performs processing (amplification processing or the like) necessary for reproducing the supplied audio signal and outputs the processed signal to the speaker 19. Thereby, an audio signal is reproduced by the speaker 19.

図3は上記ROM26bに記憶されたプログラムに従って、CPU26aが行う処理を説明する機能ブロック図である。ポインタ制御部75、ポインタ位置移動前記憶部76、ポインタ位置移動後記憶部77、マウスボタン状態記憶部78、補正後ポインタ位置記憶部79、インジケータ状態指示部80、サンプリング点位置記憶部81、再サンプリング処理部82(再サンプリング処理手段)、サンプリング点移動画像表示処理部83、及び計測部84(計測手段)で構成される。計測部84は後述する三角測量の原理により、左画像上及び右画像上の計測位置のいくつかの点の3次元座標を求めることによって、2点間の距離、2点を結ぶ線と1点の距離、面積、深さ、表面形状など様々な計測が可能である。また、マッチング処理手段としての機能も有し、左画像上にリモートコントローラ13又はマウス27によって入力された計測点に対応する右画像上の計測点をマッチング処理によって求める。   FIG. 3 is a functional block diagram illustrating processing performed by the CPU 26a according to the program stored in the ROM 26b. Pointer control unit 75, pre-pointer position movement storage unit 76, post-pointer position movement storage unit 77, mouse button state storage unit 78, corrected pointer position storage unit 79, indicator state instruction unit 80, sampling point position storage unit 81, A sampling processing unit 82 (re-sampling processing unit), a sampling point moving image display processing unit 83, and a measurement unit 84 (measurement unit) are included. The measuring unit 84 obtains a distance between two points, a line connecting two points, and one point by obtaining three-dimensional coordinates of some points on the left image and the right image according to the principle of triangulation described later. Various measurements such as distance, area, depth, and surface shape are possible. It also has a function as a matching processing means, and obtains a measurement point on the right image corresponding to a measurement point input by the remote controller 13 or the mouse 27 on the left image by matching processing.

ここで、ポインタ制御部75や、再サンプリング処理部82、サンプリング点移動画像表示処理部83、計測部84はCPU26aの処理に対応し、ポインタ位置移動前記憶部76や、ポインタ位置移動後記憶部77、マウスボタン状態記憶部78等は記憶手段であるRAM26cに対応し、CPU26aはROM26bのプログラムに従ってポインタ位置の移動制御を行う。尚、CPU26aは、勿論上記ポインタ位置の移動制御以外、計測内視鏡システムのシステム制御もROM26bに記憶されたプログラムに従って実行する。   Here, the pointer control unit 75, the resampling processing unit 82, the sampling point moving image display processing unit 83, and the measuring unit 84 correspond to the processing of the CPU 26a, and the pointer position pre-movement storage unit 76 and the pointer position post-movement storage unit. 77, the mouse button state storage unit 78, and the like correspond to the RAM 26c which is a storage unit, and the CPU 26a controls the movement of the pointer position according to the program in the ROM 26b. Of course, the CPU 26a also executes system control of the measurement endoscope system in accordance with the program stored in the ROM 26b, in addition to the movement control of the pointer position.

ポインタ位置移動前記憶部76にはマウス27を操作する前のポインタ位置の情報が記憶され、ポインタ位置移動後記憶部77には後述するイベント発生時、マウス27の操作に基づくポインタの位置が記憶される。また、ポインタ制御部75はイベント発生毎に上記ポインタ位置移動前記憶部76に記憶されたポインタ位置と、ポインタ位置移動後記憶部77に記憶されたポインタ位置の情報に基づいてポインタ移動後の位置を計算し、後述する一定の値(R値)で割り算したデータを不図示のレジスタに保持する。   Information on the pointer position before operating the mouse 27 is stored in the storage unit 76 before moving the pointer position, and the pointer position based on the operation of the mouse 27 is stored in the storage unit 77 after moving the pointer position when an event described later occurs. Is done. In addition, the pointer control unit 75 performs the position after the pointer movement based on the pointer position stored in the storage unit 76 before the pointer position movement and the pointer position information stored in the storage unit 77 after the pointer position movement every time an event occurs. And the data divided by a certain value (R value) described later is held in a register (not shown).

補正後ポインタ位置記憶部79には、マウス27のボタン操作の停止に基づく補正値の計算結果が記憶され、上記レジスタに保持したデータに基づいて補正値が計算され、補正後のポインタ位置の情報が記憶される。   The corrected pointer position storage unit 79 stores the calculation result of the correction value based on the stop of the button operation of the mouse 27, the correction value is calculated based on the data held in the register, and the corrected pointer position information. Is memorized.

計測部84は、上記処理によって設定された左画像におけるサンプリング点の位置に基づいてこのサンプリング点に対応した右画像のサンプリング点をマッチング処理によって求める。   The measurement unit 84 obtains the sampling point of the right image corresponding to this sampling point by matching processing based on the position of the sampling point in the left image set by the above processing.

サンプリング点位置記憶部81は、上記マッチング処理によって設定された左画像及び右画像サンプリング点の位置を記憶する。また、再サンプリング処理部82はサンプリング点位置記憶部81によって記憶されたサンプリング点に基づいて左画像及び右画像の再サンプリングを行う際の処理部であり、サンプリング点移動画像表示処理部83は上記サンプリング点に基づいて再サンプリングされた左画像及び右画像をディスプレイに表示する。尚、計測部84は、マウス27のボタン操作の停止前に随時上記マッチング処理を行ってもよい。また、計測部84は、マッチング処理を行う前にサンプリング点位置記憶部81が左画像のサンプリング点を記憶し、再サンプリング処理部82及びサンプリング点移動画像表示処理部83によって左画像が再サンプリングされて表示された後に右画像のサンプリング点を求めてもよい。   The sampling point position storage unit 81 stores the positions of the left image and right image sampling points set by the matching process. The resampling processing unit 82 is a processing unit when resampling the left image and the right image based on the sampling points stored in the sampling point position storage unit 81, and the sampling point moving image display processing unit 83 The left and right images resampled based on the sampling points are displayed on the display. Note that the measurement unit 84 may perform the matching process as needed before the button operation of the mouse 27 is stopped. In the measurement unit 84, the sampling point position storage unit 81 stores the sampling points of the left image before performing the matching processing, and the left image is resampled by the re-sampling processing unit 82 and the sampling point moving image display processing unit 83. The sampling point of the right image may be obtained after being displayed.

前記リモートコントローラ13は、図4に示すようにジョイスティック61、レバースイッチ62、フリーズスイッチ63、ストアースイッチ64、計測実行スイッチ65、及び拡大表示切り換え用WIDEスイッチ66、TELEスイッチ67を併設して構成されている。   As shown in FIG. 4, the remote controller 13 includes a joystick 61, a lever switch 62, a freeze switch 63, a store switch 64, a measurement execution switch 65, an enlarged display switching WIDE switch 66, and a TELE switch 67. ing.

前記リモートコントローラ13において、ジョイスティック61は内視鏡先端部の湾曲動作を行うスイッチであり、360度の何れの方向にも自在に操作指示を与たり、真下に押下することで湾曲動作の微調整の指示等を与えることが可能である。また、ジョイスティック61は後述するステレオ計測における計測点指定の指示に使用することもできる。   In the remote controller 13, the joystick 61 is a switch for performing a bending operation of the distal end portion of the endoscope. The bending operation can be finely adjusted by giving an operation instruction freely in any direction of 360 degrees or by pressing down directly below. It is possible to give instructions. The joystick 61 can also be used for specifying a measurement point in stereo measurement described later.

次に、本実施の形態の計測用内視鏡装置10に用いられる光学アダプタの一種であるステレオ光学アダプタの構成を図5と図6を参照しながら説明する。
図5及び図6はステレオ光学アダプタ37を内視鏡先端部39に取り付けた状態を示しており、該ステレオ光学アダプタ37は、固定リング38の雌ねじ53により内視鏡先端部39の雄ねじ54と螺合することによって固定される構成である。
Next, a configuration of a stereo optical adapter that is a kind of optical adapter used in the measurement endoscope apparatus 10 of the present embodiment will be described with reference to FIGS. 5 and 6.
5 and 6 show a state in which the stereo optical adapter 37 is attached to the endoscope distal end portion 39. The stereo optical adapter 37 is connected to the male screw 54 of the endoscope distal end portion 39 by the female screw 53 of the fixing ring 38. It is the structure fixed by screwing.

また、ステレオ光学アダプタ37の先端には、一対の照明レンズ36と2つの対物レンズ系34、35が設けられている。2つの対物レンズ系34、35は、内視鏡先端部39内に配設された撮像素子43上に2つの画像を結像する。そして、撮像素子43により得られた撮像信号は、電気的に接続された信号線43a、及び図2に示す内視鏡ユニット24を介してCCU25に供給され、該CCU25により映像信号に変換された後に映像信号処理回路33に供給される。尚、映像信号は輝度値または輝度値と色差値を含む。また、CCU25に供給される撮像信号によって生成される画像を元画像と呼ぶ。   In addition, a pair of illumination lenses 36 and two objective lens systems 34 and 35 are provided at the tip of the stereo optical adapter 37. The two objective lens systems 34 and 35 form two images on the image sensor 43 provided in the endoscope distal end 39. The image pickup signal obtained by the image pickup element 43 is supplied to the CCU 25 via the electrically connected signal line 43a and the endoscope unit 24 shown in FIG. 2, and converted into a video signal by the CCU 25. It is supplied to the video signal processing circuit 33 later. The video signal includes a luminance value or a luminance value and a color difference value. An image generated by the imaging signal supplied to the CCU 25 is referred to as an original image.

次に、図7を参照して、ステレオ計測による計測点の3次元座標の求め方を説明する。左側及び右側の光学系にて撮像された元画像上の計測点の座標をそれぞれ(XL,YL)、(XR,YR)とし、計測点の3次元座標を(X,Y,Z)とする。但し、(XL,YL)、(XR,YR)の原点は、それぞれ左側及び右側の光学系における光軸と、撮像素子43の交点であり、(X,Y,Z)の原点は左側及び右側の光学中心の中間点である。左側と右側の光学中心の距離をD、焦点距離をFとすると、三角測量の方法により、
X=t×XR +D/2
Y=t×YR
Z=t×F
ただし、t=D/(XL−XR)となる。
Next, how to obtain the three-dimensional coordinates of the measurement point by stereo measurement will be described with reference to FIG. The coordinates of the measurement points on the original image captured by the left and right optical systems are (XL, YL) and (XR, YR), respectively, and the three-dimensional coordinates of the measurement points are (X, Y, Z). . However, the origins of (XL, YL) and (XR, YR) are the intersections of the optical axis in the left and right optical systems and the image sensor 43, respectively, and the origins of (X, Y, Z) are the left and right sides. Is the midpoint of the optical center. If the distance between the left and right optical centers is D and the focal length is F, the triangulation method
X = t × XR + D / 2
Y = t × YR
Z = t × F
However, t = D / (XL-XR).

このように、元画像上の計測点の座標が決定されると、既知のパラメータD及びFを用いて計測点の3次元座標が求まる。そして、いくつかの点の3次元座標を求めることによって、2点間の距離、2点を結ぶ線と1点の距離、面積、深さ、表面形状など様々な計測が可能である。   Thus, when the coordinates of the measurement point on the original image are determined, the three-dimensional coordinates of the measurement point are obtained using the known parameters D and F. By obtaining three-dimensional coordinates of several points, various measurements such as the distance between two points, the distance between two points and the distance between one point, area, depth, and surface shape are possible.

以上の構成の計測内視鏡システムにおいて、以下に図8〜図12を用いて本例の処理動作を説明する。ここで、図8A〜8Gはステレオ計測のフローチャートを示し、図9はステレオ計測画面を示す図である。また、図9の画像は、例えば航空機のエンジン部品であるタービンブレードに欠けが生じた例を示しており、欠けの最も外側の幅を計測する場合の計測画面を示している。   In the measurement endoscope system having the above configuration, the processing operation of this example will be described below with reference to FIGS. 8A to 8G show a flowchart of stereo measurement, and FIG. 9 shows a stereo measurement screen. Moreover, the image of FIG. 9 shows an example in which chipping has occurred in, for example, a turbine blade that is an engine part of an aircraft, and shows a measurement screen when measuring the outermost width of the chipping.

先ず、マウス27を操作し、図8Aに示す計測フローのステップS001により、画素単位でサンプリングして読み取った画像を元画像として取得し(画像取得工程)、ステップS002で表示装置に表示する。図9(a)は読み取られた左右2つの元画像(第1画像、第2画像)と、計測の操作を指示するアイコンと、マウス27で位置が指定されるポインタからなる計測画面を示す。   First, the mouse 27 is operated, and an image sampled and read in units of pixels is acquired as an original image in step S001 of the measurement flow shown in FIG. 8A (image acquisition process), and displayed on the display device in step S002. FIG. 9A shows a measurement screen including two read left and right original images (first image and second image), an icon for instructing a measurement operation, and a pointer whose position is designated by the mouse 27.

次に、ステップS003において左画像上で計測点を指定する。この計測点の指定は、図8Bに示す計測点指定フローにより実行する。先ず、ステップS101において、元画像上で拡大対象となる拡大領域を設定する。この拡大領域の設定は、更に図8Cに示す拡大領域設定フローにより実行する。   Next, a measurement point is designated on the left image in step S003. This measurement point designation is executed by the measurement point designation flow shown in FIG. 8B. First, in step S101, an enlargement area to be enlarged is set on the original image. The setting of the enlargement area is further executed by the enlargement area setting flow shown in FIG. 8C.

すなわち、ステップS501でマウス27を操作し、元画像上の計測点付近の位置を指定し、ステップS502で拡大画像表示指示を行うと、ステップS503で拡大領域を決定する。本例では、拡大領域はマウス27に指定された位置を中心とする所定の範囲の領域とする。   That is, when the mouse 27 is operated in step S501 to specify a position near the measurement point on the original image and an enlarged image display instruction is issued in step S502, an enlarged area is determined in step S503. In this example, the enlarged area is an area in a predetermined range centered on the position designated by the mouse 27.

次に、ステップS102において、拡大画像(第1再サンプリング画像)を生成する(再サンプリング工程)。この拡大画像の生成は、図8Dに示すフローに従って実行される。先ず、ステップS601で、拡大領域内のサンプリング点の位置に基づいて画像を生成する。拡大領域内のサンプリング点の位置は、最初は元画像取得時におけるサンプリングの位置であり、後述のステップS107で移動される。   Next, in step S102, an enlarged image (first resampled image) is generated (resampling step). The generation of the enlarged image is executed according to the flow shown in FIG. 8D. First, in step S601, an image is generated based on the position of the sampling point in the enlarged region. The position of the sampling point in the enlarged area is the sampling position at the time of original image acquisition, and is moved in step S107 described later.

ここで、拡大領域のサンプリング点の位置が移動された場合、元画像取得時のサンプリングの位置からずれるため、元画像上の画素から補間によって画像を生成する。この場合のサンプリング点を擬似サンプリング点とし、このステップS601で生成される画像を擬似サンプリング画像とする。   Here, when the position of the sampling point in the enlarged region is moved, the position is shifted from the sampling position at the time of acquiring the original image, and therefore an image is generated by interpolation from the pixels on the original image. The sampling point in this case is set as a pseudo sampling point, and the image generated in step S601 is set as a pseudo sampling image.

次に、ステップS602でマウス27の操作により、例えば押下回数から拡大倍率を設定し、ステップS603で擬似サンプリング画像の画素数を補間により拡大倍率分だけ増加させることで、拡大画像を生成する。補間方法は、最近傍補間、線形補間、双3次補間などを使用する。   Next, in step S602, by operating the mouse 27, for example, an enlargement magnification is set based on the number of times of pressing, and in step S603, the number of pixels of the pseudo sampled image is increased by interpolation by the enlargement magnification, thereby generating an enlarged image. As the interpolation method, nearest neighbor interpolation, linear interpolation, bicubic interpolation, or the like is used.

次に、ステップS103において、拡大画像を大きさと位置を決定して表示する。尚、表示位置は元画像に重畳することも可能であり、この場合、拡大画像の表示位置を元画像の拡大領域から常に所定の距離以上離れた位置とすることで、拡大領域及びその付近が表示されなくならないようにする。   Next, in step S103, the enlarged image is determined in size and position and displayed. Note that the display position can be superimposed on the original image. In this case, the display position of the enlarged image is always at a predetermined distance or more away from the enlarged area of the original image, so that the enlarged area and its vicinity are Prevent it from disappearing.

次に、ステップS104では、拡大画像上において指定点となる画素を選択する。そして、選択された画素上には指定点を示すカーソルを表示する。尚、指定点となる画素は拡大画像上の所定の固定位置でもよい。   Next, in step S104, a pixel to be a designated point on the enlarged image is selected. Then, a cursor indicating the designated point is displayed on the selected pixel. Note that the pixel serving as the designated point may be a predetermined fixed position on the enlarged image.

図9(b)は、計測点付近にポインティングして拡大画像を表示させた場合の計測画面を示している。この計測画面には画面中央に拡大画像と指定点を示すカーソルが表示される。拡大画像の右及び下には、それぞれ指定点から垂直方向及び水平方向の画素の輝度を示すグラフが表示され、指定点とその周辺の輝度を確認することができる。また、拡大倍率が3倍であることを示す「3x」が表示される。   FIG. 9B shows a measurement screen when an enlarged image is displayed by pointing near the measurement point. On the measurement screen, an enlarged image and a cursor indicating the designated point are displayed at the center of the screen. Graphs indicating the luminance of the pixels in the vertical direction and the horizontal direction from the designated point are displayed on the right and bottom of the enlarged image, respectively, and the designated point and the surrounding luminance can be confirmed. In addition, “3x” indicating that the enlargement magnification is 3 times is displayed.

次に、ステップS105において、上記指定点によって計測点が指定されているか判断する。ここで、計測点の指定がされていなければ、ステップS106に進み、指定されていればステップS108に進む。   Next, in step S105, it is determined whether a measurement point is designated by the designated point. If the measurement point is not specified, the process proceeds to step S106. If the measurement point is specified, the process proceeds to step S108.

ステップS106ではサンプリング点を移動するか判断する。拡大画像上に計測点が存在し、サンプリング点と計測点が一致しているためにサンプリング点を移動する必要がなければ、ステップS104に移り、表示されている計測点を指定点として選択する。   In step S106, it is determined whether to move the sampling point. If there is a measurement point on the enlarged image and it is not necessary to move the sampling point because the sampling point coincides with the measurement point, the process moves to step S104, and the displayed measurement point is selected as the designated point.

拡大画像上に計測点が存在するが、サンプリング点と計測点が一致せずサンプリング点を移動する必要がある場合や、拡大画像上に計測点が存在しない場合はステップS107に移る。このステップS107では、拡大画像上の指定点により計測点が指定されるように、サンプリング点を移動する。このサンプリング点の移動は、図8E〜8Gに示すフローに従って行われる。   If there is a measurement point on the enlarged image but the sampling point does not match the measurement point and the sampling point needs to be moved, or if no measurement point exists on the enlarged image, the process proceeds to step S107. In step S107, the sampling point is moved so that the measurement point is designated by the designated point on the enlarged image. This movement of the sampling points is performed according to the flow shown in FIGS.

すなわち、図8Eに示すステップS701でマウス27のボタンを押すと、画面上のポインタ初期位置P0が検出される。次に、ステップS702において、ポインタPの初期位置をP0とし、前述のポインタ制御部75内のレジスタP.sx及びP.sy(第1変数、第2変数)を初期値0に設定する。その後、マウス27を上下左右に操作し、後述するイベント毎にマウス27の操作に従って移動するポインタの位置を補正し、マウス27のボタンを離すと、図8FのステップS703に示すように、補正されたポインタ位置が計測点とされる。尚、上記マウスボタンの操作状態は、前述のマウスボタン状態記憶部78に記憶されている。   That is, when the button of the mouse 27 is pressed in step S701 shown in FIG. 8E, the pointer initial position P0 on the screen is detected. In step S702, the initial position of the pointer P is set to P0, and the register P.P. sx and P.I. sy (first variable, second variable) is set to an initial value 0. Thereafter, the mouse 27 is operated up / down / left / right to correct the position of the pointer that moves in accordance with the operation of the mouse 27 for each event described later, and when the button of the mouse 27 is released, the correction is performed as shown in step S703 of FIG. 8F. The pointer position is taken as the measurement point. The operation state of the mouse button is stored in the mouse button state storage unit 78 described above.

この間の処理を具体的に説明する図が、図8Gに示すフローチャート(位置指定工程)である。この処理はマウス処理のイベントが発生する毎に同図に示すフローが実行される。すなわち、マウス27が操作されると(マウス処理のイベントが発生すると)、ステップS901の判断において、先ずマウス27のボタン(左ボタン)が押下されているか判断する(ステップS901)。ここで、マウス27のボタン操作が行われておらず(ステップS901がNo)、コントロールキーも操作されていない場合(ステップS921がNo)、前述のポインタの初期位置P0をカレントポジション(サンプル画像上の位置)Pとし(ステップS922)、レジスタP.sx及びP.syを初期値0に設定し(ステップS923)、ファインモードの表示も行わない(ステップS924)。   FIG. 8G is a flowchart (position designation step) specifically explaining the process during this period. In this process, every time a mouse process event occurs, the flow shown in the figure is executed. That is, when the mouse 27 is operated (when a mouse processing event occurs), it is first determined in step S901 whether the button (left button) of the mouse 27 is pressed (step S901). Here, when the button operation of the mouse 27 is not performed (No in Step S901) and the control key is not operated (No in Step S921), the initial position P0 of the pointer described above is set as the current position (on the sample image). Position) P (step S922). sx and P.I. sy is set to an initial value 0 (step S923), and the fine mode is not displayed (step S924).

一方、マウス27のボタンが押下されていると(ステップS901がYes)、ステップS902においてインジケータをファインモードとする。この処理は、前述のポインタ制御部75(CPU26a)の制御に基づいて、インジケータ状態指示部80がディスプレイに「F」アイコンを表示する処理である(図9(c)を参照)。   On the other hand, when the button of the mouse 27 is pressed (Yes in step S901), the indicator is set to the fine mode in step S902. This process is a process in which the indicator state instruction unit 80 displays the “F” icon on the display based on the control of the pointer control unit 75 (CPU 26a) described above (see FIG. 9C).

次に、ステップS903において、画面上のポインタの位置をP1とし、前述のポインタ位置移動後記憶部77にP1の位置情報を記録する。この時、マウス27はボタン操作が行われた状態で移動しており、例えばマウス27が右方向(X軸方向)に移動した場合、移動前のポインタの初期位置P0のx値(例えば、P0.x)は上記ポインタ位置移動前記憶部76に記録されており、移動後のポインタ位置P1のx値(例えば、P1.x)はポインタ位置移動後記憶部77に記録されている。   In step S903, the position of the pointer on the screen is set to P1, and the position information of P1 is recorded in the storage unit 77 after moving the pointer position. At this time, the mouse 27 is moved in a state where a button operation is performed. For example, when the mouse 27 moves in the right direction (X-axis direction), the x value (for example, P0) of the initial position P0 of the pointer before the movement. .X) is recorded in the storage unit 76 before the pointer position movement, and the x value (for example, P1.x) of the pointer position P1 after the movement is recorded in the storage unit 77 after the pointer position movement.

この場合、マウス27は右方向に移動しているので、P1のx値(P1.x)は移動前のポインタ位置P0のx値(P0.x)より大きい値である。したがって、ステップS904がYESとなり、ステップS905において、ポインタ制御部75内に設定されたレジスタP.sxの値を+1する。尚、この場合、マウス27は右方向に移動したものであり、マウス27を左方向や垂直方向(Y軸方向)には移動していないので、ステップS906、S908、S910はNOである。   In this case, since the mouse 27 has moved to the right, the x value (P1.x) of P1 is larger than the x value (P0.x) of the pointer position P0 before the movement. Therefore, step S904 becomes YES, and in step S905, the register P.P. The value of sx is incremented by one. In this case, since the mouse 27 has been moved in the right direction and the mouse 27 has not been moved in the left direction or the vertical direction (Y-axis direction), steps S906, S908, and S910 are NO.

上記の例では、次のステップS912の判断もNOであり、更にステップS913において、レジスタP.sxの値がRに等しいか判断する。ここで、Rは予め設定した一定の値(第1閾値、第2閾値)であり、元画素に対して詳細にポインタを移動するための比率を示す。RはX軸方向、Y軸方向にそれぞれ設定してもよいし、同一の値に設定してもよい。以下、RはX軸方向、Y軸方向共に同一の値とする。ここで、例えばRの値が「10」に設定されているとすれば、上記最初の処理では、レジスタP.sxの値は「1」であり、上記判断はNOである。   In the above example, the determination in the next step S912 is also NO, and in step S913, the register P.P. It is determined whether the value of sx is equal to R. Here, R is a predetermined value (first threshold value, second threshold value) set in advance, and indicates a ratio for moving the pointer in detail with respect to the original pixel. R may be set in the X-axis direction and the Y-axis direction, respectively, or may be set to the same value. Hereinafter, R is the same value in both the X-axis direction and the Y-axis direction. Here, for example, if the value of R is set to “10”, the register P. The value of sx is “1”, and the above determination is NO.

その後、マウス27の右方向への移動において、次のマウス処理のイベントが発生すると、ポインタ位置P1のx値(P1.x)は、前述と同様、前のポインタ位置P0のx値(P0.x)より大きい値であり(ステップS904がYES)、ステップS905において、再度レジスタP.sxの値を+1する。尚、この場合も、マウス27を左方向や、垂直方向に移動していないので、ステップS906、S908、S910はNOである。   Thereafter, when the next mouse processing event occurs in the rightward movement of the mouse 27, the x value (P1.x) at the pointer position P1 is the x value (P0. x) greater than the value (YES in step S904). The value of sx is incremented by one. In this case as well, since the mouse 27 is not moved leftward or vertically, steps S906, S908, and S910 are NO.

次に、ステップS912の判断もNOであり、更にステップS913において、上記と同様レジスタP.sxの値がRに等しいか判断される。ここで、前述のように、Rの値が「10」に設定されている場合、上記判断もNOである。   Next, the determination in step S912 is also NO. Further, in step S913, the register P.S. It is determined whether the value of sx is equal to R. Here, as described above, when the value of R is set to “10”, the above determination is also NO.

また、マウス27がY方向(垂直方向)に移動していないので、ステップS916、及びS918もNOであり、更にステップS920において、画面上のポインタ位置(P0)は、初期位置Pのままである。   Also, since the mouse 27 has not moved in the Y direction (vertical direction), steps S916 and S918 are also NO, and the pointer position (P0) on the screen remains at the initial position P in step S920. .

この状態で、例えばマウス27のボタン操作を止めると、前述の図8FのステップS703の処理に従って、レジスタP.sxの値(例えば、この時「2」)が前述のR(10)によって割り算され、補正値0.2(2/10)が計算される。この場合、補正値は1画素(1.0)に満たないため、補正後ポインタ位置記憶部79のポインタ位置情報はそのままである。例えば、ポインタの初期位置P(X,Y)が、(100,100)であれば、補正後のポインタ位置も同じ(100,100)である。尚、上記例ではX方向について説明したが、Y方向についても同様に計算される。   In this state, for example, when the button operation of the mouse 27 is stopped, the register P.P. The value of sx (for example, “2” at this time) is divided by the aforementioned R (10), and a correction value of 0.2 (2/10) is calculated. In this case, since the correction value is less than one pixel (1.0), the pointer position information in the corrected pointer position storage unit 79 remains unchanged. For example, if the initial position P (X, Y) of the pointer is (100, 100), the corrected pointer position is also the same (100, 100). In the above example, the X direction is described, but the Y direction is calculated in the same manner.

その後、マウス27を右に移動する処理を継続すると、イベントが発生する毎にレジスタP.sxの値が順次+1され、ステップS913において、レジスタP.sxの値がRの値(例えば、「10」)に一致すると(ステップS913がYES)、ステップS915において、ポインタのX座標位置(P.x)が(P.x+1)に更新される((P.x)を(P.x+1)に更新する)。尚、この時レジスタP.sxの値は「0」にリセットされる。   Thereafter, if the process of moving the mouse 27 to the right is continued, the register P.P. The value of sx is sequentially incremented by 1, and in step S913, the register P.P. When the value of sx matches the value of R (eg, “10”) (YES in step S913), in step S915, the X coordinate position (P.x) of the pointer is updated to (P.x + 1) (( P.x) is updated to (P.x + 1)). At this time, the register P.P. The value of sx is reset to “0”.

この状態で、例えばマウス27のボタン操作を止めると、前述と同様ステップS703の処理に従って、レジスタP.sxの値(例えば、この時「10」)が前述のR(10)によって割り算され、補正値1.0(10/10)が計算される。この場合、補正後ポインタ位置記憶部79のポインタ位置情報は、上記例の場合、(101,100)となる。   In this state, for example, when the button operation of the mouse 27 is stopped, the register P.P. The value of sx (for example, “10” at this time) is divided by the aforementioned R (10), and a correction value of 1.0 (10/10) is calculated. In this case, the pointer position information in the corrected pointer position storage unit 79 is (101, 100) in the above example.

以後、マウス処理のイベントが発生する毎に上記処理が繰り返され、マウス27を右方向に操作している場合には、順次レジスタP.sxが+1され(ステップS905)、上記例ではマウス27の移動に対して1/R(「10」)の割合でポインタの位置を移動することができる。   Thereafter, the above processing is repeated every time a mouse processing event occurs. When the mouse 27 is operated in the right direction, the register P.S. sx is incremented by 1 (step S905), and in the above example, the pointer position can be moved at a rate of 1 / R (“10”) with respect to the movement of the mouse 27.

上記処理は、マウス27を水平に右方向(X方向)に移動させた場合であるが、マウス27を水平に左方向に移動させた場合も同様であり、またマウス27を垂直方向(Y方向)に移動させた場合も同様である。   The above processing is a case where the mouse 27 is moved horizontally in the right direction (X direction), but the same applies when the mouse 27 is moved horizontally in the left direction, and the mouse 27 is moved in the vertical direction (Y direction). The same applies when moved to ().

例えば、マウス27を左方向に移動させている間、マウス処理のイベントが発生すると、ステップS906がYESとなり、レジスタP.sxの値を−1する(ステップS907)。また、上方向にマウス27を移動させている間、マウス処理のイベントが発生すると、ステップS908がYESとなり、ポインタ制御部75にある不図示のレジスタP.syの値を+1し(ステップS909)、同様に下方向にマウス27を移動させている間、マウス処理のイベントが発生すると、ステップS910がYESとなり、レジスタP.syを−1する(ステップS911)。   For example, if a mouse processing event occurs while the mouse 27 is moved to the left, step S906 becomes YES and the register P.P. The value of sx is decremented by 1 (step S907). If a mouse processing event occurs while the mouse 27 is being moved upward, step S908 is set to YES, and a register P. (not shown) in the pointer control unit 75 is displayed. If the value of sy is incremented by 1 (step S909) and a mouse processing event occurs while moving the mouse 27 in the same manner, step S910 becomes YES and the register P.P. sy is decremented by -1 (step S911).

この間、前述のRの値とレジスタP.sxの値、又はRの値とレジスタP.syの値の一致判断が行われ、レジスタP.sxの値がRの値に一致すれば前述のようにポインタ位置の更新処理が行われ(ステップS915)、レジスタP.syの値がRの値に一致すれば、ステップS918によって一致判断が行われ、ステップS919において、ポインタのY座標位置(P.y)を(P.y+1)に更新する((P0.y)を(P0.y+1)に更新する)。尚、この時レジスタP.syの値は「0」にリセットされる。   During this time, the value of R and the register P.P. sx value or R value and the register P. A match determination of the value of sy is made, and the register P.P. If the value of sx matches the value of R, the pointer position update process is performed as described above (step S915). If the value of sy matches the value of R, a match determination is made in step S918, and in step S919, the Y coordinate position (P.y) of the pointer is updated to (P.y + 1) ((P0.y)). Is updated to (P0.y + 1)). At this time, the register P.P. The value of sy is reset to “0”.

また、マウス27を右方向に移動させた後、左方向に移動させる場合もあり、このような場合、レジスタP.sxの値はイベントが発生する毎に+1され、1→2→3→・・・と順次大きくなるが、移動方向を左に変更した後イベントが発生すると、レジスタP.sxの値は順次減算される(ステップS906がYES、ステップS907)。この場合、レジスタP.sxの値が0より小さくなると(ステップS912がYES)、ポインタのX座標位置(P.x)が(P.x−1)に更新される(ステップS914)。   In some cases, the mouse 27 is moved in the right direction and then in the left direction. The value of sx is incremented by 1 every time an event occurs, and sequentially increases in the order of 1 → 2 → 3 →... The value of sx is sequentially subtracted (YES in step S906, step S907). In this case, register P.I. When the value of sx is smaller than 0 (YES in step S912), the X coordinate position (P.x) of the pointer is updated to (P.x-1) (step S914).

また、同様にマウス27を上方向に移動させた後、下方向に移動させる場合もあり、この場合、レジスタP.syの値はイベントが発生する毎に+1され、1→2→3→・・・と順次大きくなるが、移動方向を下に変更した後イベントが発生すると、レジスタP.syの値は順次減算される(ステップS910がYES、ステップS911)。この場合、レジスタP.syの値が0より小さくなると(ステップS916がYES)、ポインタのY座標位置(P.y)が(P.y−1)に更新される(ステップS917)。   Similarly, there is a case where the mouse 27 is moved upward and then moved downward. The value of sy is incremented by 1 every time an event occurs, and sequentially increases in the order of 1 → 2 → 3 →... The value of sy is sequentially subtracted (step S910 is YES, step S911). In this case, register P.I. When the value of sy is smaller than 0 (YES in step S916), the Y coordinate position (P.y) of the pointer is updated to (P.y-1) (step S917).

上記ポインタの位置は、マウス27のボタン操作を止める毎に計算され、補正処理が行われたポインタの位置情報は補正後ポインタ位置記憶部79に記録される。
尚、マウス27を斜め右上方向や斜め右下方向、斜め左上方向や斜め左下方向に移動する場合も、対応するレジスタP.sx及びP.syが同時に更新され、前述と同様ポインタ位置をマウス27の移動方向に詳細に移動させることができる。
The position of the pointer is calculated every time the button operation of the mouse 27 is stopped, and the position information of the pointer subjected to the correction process is recorded in the corrected pointer position storage unit 79.
Note that when the mouse 27 is moved in the diagonally upper right direction, diagonally lower right direction, diagonally upper left direction, or diagonally lower left direction, the corresponding register P.A. sx and P.I. sy is updated at the same time, and the pointer position can be moved in the moving direction of the mouse 27 in the same manner as described above.

したがって、本例によればマウス27の移動操作に対してポインタの位置移動がより詳細に行われ、ポインタ位置の指定を詳細に調整することがきる。
以上のようにして、サンプリング点の位置が移動されると(ステップS107)、これに伴って拡大領域も移動する。サンプリング点の移動後、ステップS102に戻り、再度拡大画像を生成し表示する。図9(c)は、サンプリング点を移動させた場合の拡大画像を含む計測画面を示す。また、同図(d)は、拡大倍率を6倍に変更させた場合の計測画面を示している。さらに、同図(e)はサンプリング点の移動量の単位を元画像の画素間隔に設定し、同図(d)の状態からサンプリング点を移動させた場合の計測画面を示している。
Therefore, according to this example, the position of the pointer is moved in more detail with respect to the movement operation of the mouse 27, and the designation of the pointer position can be adjusted in detail.
As described above, when the position of the sampling point is moved (step S107), the enlarged region is moved accordingly. After moving the sampling point, the process returns to step S102, and an enlarged image is generated and displayed again. FIG. 9C shows a measurement screen including an enlarged image when the sampling point is moved. FIG. 4D shows a measurement screen when the enlargement magnification is changed to 6 times. Further, FIG. 9E shows a measurement screen when the unit of the moving amount of the sampling point is set to the pixel interval of the original image and the sampling point is moved from the state of FIG.

次に、上記サンプリング点の移動により指定点が計測点まで移動した後、ステップS105で指定点を決定し、ステップS108で指定点の位置から計測点の元画像上での位置を算出する。尚、この時サンプリング点の移動量の単位を所定の設定にする。   Next, after the designated point moves to the measurement point by the movement of the sampling point, the designated point is determined in step S105, and the position of the measurement point on the original image is calculated from the position of the designated point in step S108. At this time, the unit of the moving amount of the sampling point is set to a predetermined setting.

次に、ステップS004では、ステップS003で指定された時点の拡大画像を、左画像上に重畳して表示する。さらに、ステップS005では、ステップS003で指定された計測点に対応する右画像上での対応点を検索する(マッチング工程)。尚、上述したように、右画像上での対応点の検索がS003で行われる場合、S004、S005及びS006はS003に含まれることになる。   Next, in step S004, the enlarged image at the time point designated in step S003 is displayed superimposed on the left image. Further, in step S005, a corresponding point on the right image corresponding to the measurement point designated in step S003 is searched (matching step). As described above, when the corresponding point search on the right image is performed in S003, S004, S005, and S006 are included in S003.

この検索は既存の画像のテンプレートマッチング法によって、元画像の画素間隔よりも細かい単位で行う。ステップS006では、検索された右画像上の対応点の周辺を、左画像の拡大と同様に拡大し、右画像上に重畳して表示する。   This search is performed in a unit smaller than the pixel interval of the original image by the template matching method of the existing image. In step S006, the vicinity of the corresponding point on the searched right image is enlarged in the same manner as the enlargement of the left image, and is displayed superimposed on the right image.

図9(f)は、この時の計測画面を示している。これら元画像上の拡大画像の表示により、次の計測点を指定する間にも、正しく前回の計測点を確認し、右画像の対応点のマッチング結果を確認することが可能となり、計測の誤りを防ぐことが可能になる。   FIG. 9F shows the measurement screen at this time. By displaying the enlarged image on the original image, it is possible to check the previous measurement point correctly and to check the matching result of the corresponding point in the right image while specifying the next measurement point. It becomes possible to prevent.

次に、ステップS007で、左画面の計測点の位置を修正するか判断する。ここで、左画面の計測点の位置を修正する場合には、マウス27を操作しで計測画面上のアイコン「←」を選択し、ステップS003に戻り、計測点を再度指定する。一方、修正しない場合にはステップS008に進む。   Next, in step S007, it is determined whether to correct the position of the measurement point on the left screen. Here, when correcting the position of the measurement point on the left screen, the icon “←” on the measurement screen is selected by operating the mouse 27, the process returns to step S003, and the measurement point is designated again. On the other hand, when not correcting, it progresses to step S008.

ステップS008では、右画面の対応点の位置を修正するか判断する。そして、修正する場合には、マウス27を操作して計測画面上のアイコン[→]を選択し、ステップS010に進み、前述の左画像上の計測点の指定と同様にして右画像上で対応点を指定する。そして、ステップS011において、右画像上の対応点の周辺を前述のステップS006における処理と同様に表示する。   In step S008, it is determined whether to correct the position of the corresponding point on the right screen. In the case of correction, the mouse 27 is operated to select the icon [→] on the measurement screen, the process proceeds to step S010, and it is handled on the right image in the same manner as the measurement point designation on the left image described above. Specify a point. In step S011, the periphery of the corresponding point on the right image is displayed in the same manner as the processing in step S006 described above.

尚、ステップS007及びステップS008の判断に際しては、左画像の計測点と右画像の対応点の周辺の拡大画像をそれぞれ左画面と右画面に大きく表示し、正しく計測点と対応点が指定されているかを確認するようにしてもよい。   In the determination at step S007 and step S008, enlarged images around the measurement point of the left image and the corresponding point of the right image are displayed large on the left screen and the right screen, respectively, and the measurement point and the corresponding point are correctly specified. You may make it confirm whether it is.

また、上記ステップS008において、位置を修正しない場合ステップS012に進み、他の計測点を指定するか判断する。そして、指定する場合にはステップS003に戻り、指定しない場合にはS013に進む。この処理では、以上で指定された計測点の位置に基づいて計測を行う。図9(g)には2点間の距離を計測した場合の計測結果が含まれる計測画面が示されている。   If the position is not corrected in step S008, the process proceeds to step S012, and it is determined whether to specify another measurement point. If it is designated, the process returns to step S003, and if not designated, the process proceeds to S013. In this process, measurement is performed based on the position of the measurement point specified above. FIG. 9G shows a measurement screen including a measurement result when a distance between two points is measured.

図9(g)に示す計測結果の例では計測単位がmmとなっているが、画面内の「mm」、「inch」の選択を切り換えることで計測単位を切り換えることができる。計測単位を切り換えると、計測結果の表示も設定された単位に変更される。これにより計測作業を続けながら任意のタイミングで計測単位を切り換えられる。普段使用している単位と検査マニュアルに書かれている単位が異なる場合や、設定が間違っていた場合に役立つ。尚、メニューによる設定で計測単位を変更することも可能である。   In the example of the measurement result shown in FIG. 9G, the measurement unit is mm, but the measurement unit can be switched by switching the selection of “mm” and “inch” in the screen. When the measurement unit is switched, the display of the measurement result is also changed to the set unit. As a result, the measurement unit can be switched at an arbitrary timing while continuing the measurement work. This is useful when the unit you normally use differs from the unit written in the inspection manual, or when the settings are incorrect. It is also possible to change the measurement unit by setting with the menu.

次に、前述の拡大画像の詳細について、図14に示した元画像を例として説明する。図14に示す拡大領域は、最初前述の図15で示すように拡大される。そして、拡大のための画素数の増加には最近傍補間を使用し、指定点が2本の線の交点の中心まで移動するように、サンプリング点の移動量の単位を0.1画素に設定し、サンプリング点を左に0.5画素、下に0.5画素移動する。この処理によって、擬似サンプリング画像が線形補間で生成され、この画像の拡大画像が生成される。図10はこの時の拡大画像である。   Next, details of the above-described enlarged image will be described using the original image shown in FIG. 14 as an example. The enlarged region shown in FIG. 14 is first enlarged as shown in FIG. The nearest neighbor interpolation is used to increase the number of pixels for enlargement, and the unit of the sampling point movement amount is set to 0.1 pixel so that the designated point moves to the center of the intersection of the two lines. The sampling point is moved 0.5 pixel to the left and 0.5 pixel downward. By this processing, a pseudo sampled image is generated by linear interpolation, and an enlarged image of this image is generated. FIG. 10 is an enlarged image at this time.

次に、疑似サンプリング点移動画像とその拡大画像が生成される原理について、図11を用いて説明する。元画像は図11(a)に示すように横6画素×縦1画素の元画像であって、中心の2画素が白、それ以外の周囲の画素が黒である。同図(b)は元画像のサンプリング点における輝度を示している。   Next, the principle of generating a pseudo sampling point moving image and its enlarged image will be described with reference to FIG. As shown in FIG. 11A, the original image is an original image of 6 horizontal pixels × 1 vertical pixel, with the central two pixels being white and the other surrounding pixels being black. FIG. 4B shows the luminance at the sampling point of the original image.

このサンプリング点を右に元画像の1/3画素移動すると、移動されたサンプリング点の輝度は元画像の画素から補間により計算され、サンプリング点移動画像の輝度は同図(c)のようになる。サンプリング点の移動画像に対し、拡大のために画素数を増加させると輝度は同図(d)のようになる。この輝度から同図(e)の拡大画像が生成される。   When this sampling point is moved to the right by 1/3 pixel of the original image, the luminance of the moved sampling point is calculated by interpolation from the pixel of the original image, and the luminance of the sampling point moving image becomes as shown in FIG. . When the number of pixels is increased for enlargement of the moving image at the sampling point, the luminance is as shown in FIG. From this luminance, an enlarged image shown in FIG.

次に、図10に示す拡大画像が生成される原理について述べる。図12は元画像におけるサンプリング点と移動されたサンプリング点を示す図である。前述の図14に示す元画像では、黒い線は2個のサンプリング点に跨っており、例えば拡大画像上では元画像上の太さ2の線が単純に拡大された画像となる。一方、サンプリング位置を移動すると、黒線内の2画素に跨った位置では黒となり、白と黒の境界位置では補間により灰色となる。従って、拡大画像において、指定点の位置は黒であるが、その周囲は灰色となる。   Next, the principle of generating the enlarged image shown in FIG. 10 will be described. FIG. 12 is a diagram showing sampling points and moved sampling points in the original image. In the original image shown in FIG. 14, the black line extends over two sampling points. For example, on the enlarged image, the line of thickness 2 on the original image is simply enlarged. On the other hand, when the sampling position is moved, black is obtained at a position across two pixels in the black line, and gray is obtained at the boundary position between white and black by interpolation. Therefore, in the enlarged image, the position of the designated point is black, but the surrounding area is gray.

このように、擬似サンプリング画像の拡大画像では、指定している点の位置の色が明確である一方その周囲では指定している点から元画像における1画素分ずつ離れた色が表示されるため、指定している点とそれ以外の点の色の区別がし易くなる。そのため、元画像の画素間隔より小さい単位で所望の点を指定しやすい。   As described above, in the enlarged image of the pseudo-sampled image, the color of the position of the designated point is clear, but a color separated from the designated point by one pixel in the original image is displayed around the designated point. , It becomes easy to distinguish the color of the designated point and the other points. Therefore, it is easy to specify a desired point in a unit smaller than the pixel interval of the original image.

以上のように、本例はマウス27の操作により、ポインタの位置移動を詳細に行うことができ、画面上の希望する計測点の位置に正確に移動させることができる。
尚、本例においては、マウス27を使用して再サンプリング処理を実行したが、本例の処理の一部をジョイスティック61を使用して行ってもよい。この場合、レバースイッチ62はグラフィック表示される各種メニュー操作や計測を行う場合のポインタ移動及び真下への押下による選択項目の決定操作を行うためのスイッチとして使用され、フリーズスイッチ63はLCD14表示にかかわるスイッチとして使用される。
As described above, in this example, the position of the pointer can be moved in detail by operating the mouse 27 and can be accurately moved to the position of the desired measurement point on the screen.
In this example, the resampling process is executed using the mouse 27. However, a part of the process of this example may be performed using the joystick 61. In this case, the lever switch 62 is used as a switch for performing various menu operations displayed graphically and determining the selection items by moving the pointer and pressing down right below the measurement, and the freeze switch 63 is related to the LCD 14 display. Used as a switch.

また、ストアースイッチ64は、前記フリーズスイッチ63の押下によって静止画像を表示した場合、該静止画像をPCMCIAメモリカード23(図2参照)に記録する場合に用いられる。また、計測実行スイッチ65は、計測ソフトを実行する際に用いられ、拡大表示切り換え用WIDEスイッチ66、及びTELEスイッチ67は、内視鏡画像を拡大縮小するのに用いられる。   The store switch 64 is used to record a still image on the PCMCIA memory card 23 (see FIG. 2) when a still image is displayed by pressing the freeze switch 63. The measurement execution switch 65 is used when executing measurement software, and the enlarged display switching WIDE switch 66 and the TELE switch 67 are used for enlarging and reducing the endoscope image.

また、前述の実施形態では、計測内視鏡システムのコントロールユニット12内に図3に示す処理を行う制御部を設けたが、例えば図13に示すように、パーソナルコンピュータ(PC)を使用する構成としてもよい。   In the above-described embodiment, the control unit that performs the process shown in FIG. 3 is provided in the control unit 12 of the measurement endoscope system. For example, as shown in FIG. 13, a configuration using a personal computer (PC) is used. It is good.

この場合、CCDカメラ(内視鏡カメラ)90で撮影した画像を内視鏡ユニット91を介して映像信号処理回路92に出力し、映像信号処理回路92によって撮像信号をNTSC信号等の映像信号に変換し、パーソナルコンピュータ(PC)に供給する。   In this case, an image captured by a CCD camera (endoscopic camera) 90 is output to the video signal processing circuit 92 via the endoscope unit 91, and the imaging signal is converted into a video signal such as an NTSC signal by the video signal processing circuit 92. The data is converted and supplied to a personal computer (PC).

パーソナルコンピュータ(PC)には、キーボード93及びマウス94が接続され、外部記憶装置95も接続され、サンプリング画像はディスプレイ98に表示される。また、CD−ROM等の記録媒体96を装着するメディアドライバ97も設けられている。   A keyboard 93 and a mouse 94 are connected to a personal computer (PC), an external storage device 95 is also connected, and a sampling image is displayed on a display 98. A media driver 97 for mounting a recording medium 96 such as a CD-ROM is also provided.

パーソナルコンピュータ(PC)は内部のCPU、ROM、RAMによって本システムの制御を行い、例えば同図に示す処理を行う。
すなわち、前述と同様、CPU、ROM、RAMによって同図に示す処理を行い、具体的にはポインタ制御部99、ポインタ位置移動前記憶部100、ポインタ位置移動後記憶部101、マウスボタン状態記憶部102、補正後ポインタ位置記憶部103、インジケータ状態指示部104、サンプリング点位置記憶部105、再サンプリング処理部106、計測部109、及びサンプリング点移動画像表示処理部107、元画像メモリ108で構成される機能を実行する。この場合も、ポインタ制御部99や、再サンプリング処理部106、サンプリング点移動画像表示処理部107、計測部109はCPUの処理に対応し、ポインタ位置移動前記憶部100や、ポインタ位置移動後記憶部101、マウスボタン状態記憶部102、元画像メモリ108等は記憶手段であるRAMに対応し、CPUはROMのプログラムに従ってポインタ位置の移動制御を行う。尚、この場合も、CPUは勿論上記ポインタ位置の移動制御以外、計測内視鏡システムのシステム制御もROMに記憶されたプログラムに従って実行する。
A personal computer (PC) controls the system by an internal CPU, ROM, and RAM, and performs, for example, the processing shown in FIG.
That is, as shown above, the CPU, ROM, and RAM perform the processing shown in the figure. Specifically, the pointer control unit 99, the pointer position pre-movement storage unit 100, the pointer position post-movement storage unit 101, and the mouse button state storage unit. 102, a corrected pointer position storage unit 103, an indicator state instruction unit 104, a sampling point position storage unit 105, a resampling processing unit 106, a measurement unit 109, a sampling point moving image display processing unit 107, and an original image memory 108. Execute the function. Also in this case, the pointer control unit 99, the re-sampling processing unit 106, the sampling point moving image display processing unit 107, and the measurement unit 109 correspond to the processing of the CPU, and the storage unit 100 before moving the pointer position or the storage after moving the pointer position. The unit 101, the mouse button state storage unit 102, the original image memory 108, and the like correspond to a RAM serving as a storage unit, and the CPU controls the movement of the pointer position in accordance with a ROM program. In this case as well, the CPU executes the system control of the measurement endoscope system in accordance with the program stored in the ROM, in addition to the movement control of the pointer position.

前述と同様、CCDカメラ(内視鏡カメラ)90で撮影された画像は、内視鏡ユニット91を介して映像信号処理回路92に入力し、前述のように撮像信号がNTSC信号等の映像信号に変換され、パーソナルコンピュータ(PC)に供給される。パーソナルコンピュータ(PC)では入力したデータを元画像メモリ108に記録する。そして、前述と同様の処理を行う。   As described above, an image captured by the CCD camera (endoscopic camera) 90 is input to the video signal processing circuit 92 via the endoscope unit 91, and the imaging signal is a video signal such as an NTSC signal as described above. And supplied to a personal computer (PC). The personal computer (PC) records the input data in the original image memory 108. Then, the same processing as described above is performed.

例えば、マウス94を操作して、前述の図8Aに示す計測フローの処理を行い、先ず左画像上で計測点を指定し、元画像上で拡大対象となる拡大領域を設定し、ディスプレイ98に表示する(図8B〜8Dの処理)。そして、計測点にサンプリング点を一致させるため、ポインタの移動処理を行う場合、前述の図8E〜8Gに示す処理を実行する。   For example, the measurement flow shown in FIG. 8A is performed by operating the mouse 94. First, a measurement point is specified on the left image, an enlargement area to be enlarged is set on the original image, and the display 98 is displayed. Display (processing of FIGS. 8B to 8D). When the pointer movement process is performed in order to make the sampling point coincide with the measurement point, the process shown in FIGS. 8E to 8G is executed.

すなわち、前述のようにマウス94を水平方向や垂直方向、又は水平方向及び垂直方向に移動し、前述のレジスタP.sx又はレジスタP.syの値を加算処理しつつ、予め設定されたR値との比較を行い、補正後ポインタ位置記憶手段79によってポインタ位置の補正値を記憶する。   That is, as described above, the mouse 94 is moved in the horizontal direction, the vertical direction, or the horizontal direction and the vertical direction. sx or register P.P. While adding the value of sy, the value is compared with a preset R value, and the corrected pointer position storage means 79 stores the correction value of the pointer position.

このように処理することによって、マウス94の移動操作に対してポインタの位置移動をより詳細に行うことができ、測定点にポインタを正確に移動することができる。
また、上記実施形態の説明においては、ポインティングデバイスとしてマウス27、又はマウス94を使用する例で説明したが、他のポインティングデバイスを使用する構成としてもよい。
By processing in this way, the position of the pointer can be moved in more detail with respect to the movement operation of the mouse 94, and the pointer can be accurately moved to the measurement point.
In the description of the above embodiment, the example in which the mouse 27 or the mouse 94 is used as the pointing device has been described. However, another pointing device may be used.

本実施形態の計測内視鏡システムを説明する図である。It is a figure explaining the measurement endoscope system of this embodiment. 計測内視鏡システムの構成を説明するブロック図である。It is a block diagram explaining the structure of a measurement endoscope system. 本実施形態の制御処理を説明する機能ブロック図である。It is a functional block diagram explaining the control processing of this embodiment. リモートコントローラを説明する図である。It is a figure explaining a remote controller. 直視型のステレオ光学アダプタを計測用内視鏡先端部に取り付けた構成を示す斜視図である。It is a perspective view which shows the structure which attached the direct-viewing type stereo optical adapter to the endoscope end part for measurement. 図5のA−A断面図である。It is AA sectional drawing of FIG. ステレオ計測により計測点の3次元座標を求める方法を示す図である。It is a figure which shows the method of calculating | requiring the three-dimensional coordinate of a measurement point by stereo measurement. 計測内視鏡システムによる計測の流れを説明するフローチャートである。It is a flowchart explaining the flow of measurement by a measurement endoscope system. 計測点指定処理を説明するフローチャートである。It is a flowchart explaining a measurement point designation | designated process. 拡大領域の設定処理を説明するフローチャートである。It is a flowchart explaining the setting process of an expansion area. 拡大画像の生成処理を説明するフローチャートである。It is a flowchart explaining the production | generation process of an enlarged image. マウスの左ボタンを押した時の処理を説明するフローチャートである。It is a flowchart explaining a process when the left button of a mouse is pressed. マウスの左ボタンを戻した時の処理を説明するフローチャートである。It is a flowchart explaining a process when the left button of a mouse | mouth is returned. ポインタの位置移動処理を説明するフローチャートである。It is a flowchart explaining the position movement process of a pointer. (a)は、読み取られた左右2つの元画像を示す図であり、(b)は、計測点付近にポインティングして拡大画像を表示させた場合の計測画面を示す図であり、(c)は、サンプリング点を移動させた場合の拡大画像を含む計測画面を示す図であり、(d)は、拡大倍率を6倍に変更させた場合の計測画面を示す図であり、(e)は、サンプリング点の移動量の単位を元画像の画素間隔に設定し拡大倍率を6倍に変更させた場合の計測画面を示す図であり、(f)は、計測画面を示す図であり、(g)は、2点間の距離を計測した場合の計測結果が含まれる計測画面を示す図である。(A) is a figure which shows two right-and-left original images read, (b) is a figure which shows the measurement screen at the time of pointing near a measurement point and displaying an enlarged image, (c) These are figures which show the measurement screen containing the enlarged image at the time of moving a sampling point, (d) is a figure which shows the measurement screen when changing magnification to 6 times, (e) FIG. 5 is a diagram showing a measurement screen when the unit of the moving amount of the sampling point is set to the pixel interval of the original image and the enlargement magnification is changed to 6.times., (F) is a diagram showing the measurement screen; g) is a diagram showing a measurement screen including a measurement result when a distance between two points is measured. 線形補間で生成された拡大画像を示す図である。It is a figure which shows the enlarged image produced | generated by linear interpolation. (a)は、横6画素×縦1画素の元画像を示す図であり、(b)は、元画像のサンプリング点における輝度を示す図であり、(c)は、サンプリング点移動画像の輝度を示す図であり、(d)は、拡大のために画素数を増加させた場合の元画像のサンプリング点における輝度を示す図であり、(e)は、(d)の輝度情報から拡大画像を生成した図である。(A) is a figure which shows the original image of 6 horizontal pixels x 1 vertical pixel, (b) is a figure which shows the brightness | luminance in the sampling point of an original image, (c) is the brightness | luminance of a sampling point moving image. (D) is a figure which shows the brightness | luminance in the sampling point of the original image at the time of increasing the number of pixels for expansion, (e) is an enlarged image from the brightness | luminance information of (d). FIG. 元画像におけるサンプリング点と移動されたサンプリング点を示す図である。It is a figure which shows the sampling point in the original image, and the moved sampling point. 本実施形態の変形例を示すシステム構成図である。It is a system configuration figure showing a modification of this embodiment. 計測対象の元画像の一例を示す図である。It is a figure which shows an example of the original image of a measuring object. 図14の拡大領域の単純拡大画像を示す図である。It is a figure which shows the simple expansion image of the expansion area | region of FIG.

符号の説明Explanation of symbols

10・・・計測用内視鏡装置
11・・・内視鏡挿入部
12・・・コントロールユニット
13・・・リモートコントローラ
14・・・液晶モニタ(LCD)
17・・・フェイスマウントディスプレイ(FMD)
18・・・FMDアダプタ
19・・・スピーカ
20・・・マイク
21・・・パーソナルコンピュータ
22・・・コンパクトフラッシュ(登録商標)メモリカード
23・・・PCMCIAメモリカード(PMCIAメモリカード)
24・・・内視鏡ユニット
25・・・カメラコントロールユニット(CCU)
26a・・CPU
26b・・ROM
26c・・RAM
27・・・マウス
29・・・RS−232cインターフェイス(RS−232C I/F)
30・・・PCカードインターフェイス(PCカードI/F)
31・・・USBインターフェイス(USB I/F)
32・・・音声信号処理回路
33・・・映像信号処理回路
34、35・・・対物レンズ系
36・・・照明レンズ
37・・・ステレオ光学アダプタ
38・・・固定リング
39・・・内視鏡先端部
43・・・個体撮像素子
43a・・・信号線
53・・・雌ねじ
54・・・雄ねじ
61・・・ジョイスティック
62・・・レバースイッチ
63・・・フリーズスイッチ
64・・・ストアースイッチ
65・・・計測実行スイッチ
66・・・拡大表示切り換え用WIDEスイッチ
67・・・TELEスイッチ
70・・・外部映像入力端子
75・・・ポイント制御部
76・・・ポイント位置移動前記憶部
77・・・ポイント位置移動後記憶部
78・・・マウスボタン状態記憶部
79・・・補正後ポイント位置記憶部
80・・・インジケータ状態指示部
81・・・サンプリング点位置記憶部
82・・・再サンプリング処理部
84・・・計測部
90・・・CCDカメラ(内視鏡カメラ)
91・・・内視鏡ユニット
92・・・映像信号処理回路
93・・・キーボード
94・・・マウス
95・・・外部記憶装置
98・・・ディスプレイ
99・・・ポインタ制御部
100・・ポインタ位置移動前記憶部
101・・ポインタ位置移動後記憶部
102・・マウスボタン状態記憶部
103・・補正後ポインタ位置記憶部
104・・インジケータ状態指示部
105・・サンプリング点位置記憶部
106・・再サンプリング処理部
107・・サンプリング点移動画像表示処理部
108・・元画像メモリ
109・・計測部
DESCRIPTION OF SYMBOLS 10 ... Measuring endoscope apparatus 11 ... Endoscope insertion part 12 ... Control unit 13 ... Remote controller 14 ... Liquid crystal monitor (LCD)
17 ... Face Mount Display (FMD)
DESCRIPTION OF SYMBOLS 18 ... FMD adapter 19 ... Speaker 20 ... Microphone 21 ... Personal computer 22 ... Compact flash (registered trademark) memory card 23 ... PCMCIA memory card (PMCIA memory card)
24 ... Endoscope unit 25 ... Camera control unit (CCU)
26a ... CPU
26b ROM
26c RAM
27 ... Mouse 29 ... RS-232c interface (RS-232C I / F)
30 ... PC card interface (PC card I / F)
31 ... USB interface (USB I / F)
32 ... Audio signal processing circuit 33 ... Video signal processing circuit 34, 35 ... Objective lens system 36 ... Illumination lens 37 ... Stereo optical adapter 38 ... Fixing ring 39 ... Internal view Mirror tip 43 ... Individual imaging device 43a ... Signal line 53 ... Female screw 54 ... Male screw 61 ... Joystick 62 ... Lever switch 63 ... Freeze switch 64 ... Store switch 65 ... Measurement execution switch 66 ... WIDE switch for enlarged display switching 67 ... TELE switch 70 ... External video input terminal 75 ... Point control unit 76 ... Storage unit before point position movement 77 ... -Point position storage unit 78 ... Mouse button state storage unit 79 ... Correction point position storage unit 80 ... Indicator Instruction unit 81 ... sampling point position storage unit 82 ... re-sampling processing section 84 ... measurement unit 90 ··· CCD camera (endoscope camera)
91 ... Endoscope unit 92 ... Video signal processing circuit 93 ... Keyboard 94 ... Mouse 95 ... External storage device 98 ... Display 99 ... Pointer controller 100 ... Pointer position Storage unit before movement 101... Storage unit after moving pointer position 102... Mouse button state storage unit 103... Pointer storage unit after correction 104.. Indicator state instruction unit 105 .. Sampling point position storage unit 106. Processing unit 107 .. Sampling point moving image display processing unit 108 .. Original image memory 109 .. Measurement unit

Claims (4)

観察対象が撮像された画像信号を、画素単位でサンプリングして画像データとして取得する画像取得手段と、
この画像取得手段によって取得された画像を表示する表示手段と、
前記画像上の位置を指定する位置指定手段と、
この位置指定手段によって移動操作され、前記表示手段に表示される指定位置を示すポインタの位置を記憶する記憶手段と、
前記位置指定手段の指定位置に基づいて移動操作の移動量と移動方向を算出し、前記画素単位より細かい単位で前記表示手段に表示された前記画像上の位置を計算する制御手段と、を備え、
前記記憶手段は、前記画像上のX軸方向及びY軸方向のそれぞれについて第1閾値と第2閾値とを有すると共に、前記X軸方向及び前記Y軸方向のそれぞれの移動操作前と移動操作後との前記指定位置に応じて加減算される第1の値と第2の値とを記憶し、
前記制御部は、前記指定位置の前記画素単位における値と、前記第1及び第2の値を前記第1及び第2閾値で除算した前記画素単位より細かい単位における値とを加算して、移動操作後の前記指定位置の値を前記画素単位より細かい前記単位で計算することを特徴とする計測内視鏡システム。
An image acquisition means for acquiring an image signal obtained by sampling an image of an observation target in a pixel unit, and acquiring it as image data;
Display means for displaying the image acquired by the image acquisition means;
Position specifying means for specifying a position on the image;
Storage means for storing a pointer position indicating a designated position which is moved by the position designation means and displayed on the display means;
It calculates the moving direction and the moving amount of the moving operation based on the specified position of the position specifying means, and control means for calculating a position on the displayed the image on the display unit in units finer than the pixel unit ,
The storage means has a first threshold value and a second threshold value for each of the X-axis direction and the Y-axis direction on the image, and before and after each movement operation in the X-axis direction and the Y-axis direction. Storing a first value and a second value to be added or subtracted according to the designated position of
The control unit adds the value in the pixel unit at the designated position and the value in a unit smaller than the pixel unit obtained by dividing the first and second values by the first and second threshold values, and moves. A measurement endoscope system , wherein the value of the designated position after operation is calculated in the unit smaller than the pixel unit .
前記制御部は、前記画素単位より細かい前記単位で計算された前記指定位置の値に基づいて、前記位置指定手段によって指定される前記画像上の前記指定位置を補正することを特徴とする請求項1に記載の計測内視鏡システム。The control unit corrects the designated position on the image designated by the position designation unit based on a value of the designated position calculated in the unit smaller than the pixel unit. The measurement endoscope system according to 1. 前記位置指定手段がマウスコントローラを有し、このマウスコントローラの何れかのボタンが押下されたままの状態で前記ポインタの移動が行われるとき、前記制御手段が前記計算を行うことを特徴とする請求項1、又は2に記載の計測内視鏡システム。The position specifying means includes a mouse controller, and the control means performs the calculation when the pointer is moved with any button of the mouse controller being pressed. Item 3. The measurement endoscope system according to Item 1 or 2. 前記制御部は、前記マウスコントローラの何れかのボタンが押下されたままの状態が解除されるとき、前記画素単位よりも細かい単位で計算された前記指定位置を、計測を行うための計測点とすることを特徴とする請求項3に記載の計測内視鏡システム。When the state where any button of the mouse controller is pressed is released, the control unit is configured to measure the designated position calculated in units smaller than the pixel unit as measurement points for measurement. The measurement endoscope system according to claim 3, wherein
JP2007259272A 2007-10-02 2007-10-02 Measuring endoscope system Active JP5199634B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007259272A JP5199634B2 (en) 2007-10-02 2007-10-02 Measuring endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007259272A JP5199634B2 (en) 2007-10-02 2007-10-02 Measuring endoscope system

Publications (2)

Publication Number Publication Date
JP2009086552A JP2009086552A (en) 2009-04-23
JP5199634B2 true JP5199634B2 (en) 2013-05-15

Family

ID=40660001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007259272A Active JP5199634B2 (en) 2007-10-02 2007-10-02 Measuring endoscope system

Country Status (1)

Country Link
JP (1) JP5199634B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5437087B2 (en) 2010-01-15 2014-03-12 オリンパス株式会社 Endoscope apparatus and program
JP5980611B2 (en) * 2012-07-25 2016-08-31 オリンパス株式会社 Measurement endoscope apparatus and program
AU2014233497B2 (en) * 2013-03-15 2018-11-08 DePuy Synthes Products, Inc. Image rotation using software for endoscopic applications
CN104622561B (en) * 2014-09-12 2017-08-25 密雷 A kind of minimally invasive guarantor's courage operation endoscope system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4674093B2 (en) * 2004-06-01 2011-04-20 オリンパス株式会社 Endoscope apparatus and program
JP5079973B2 (en) * 2004-06-09 2012-11-21 オリンパス株式会社 Endoscope device for measurement and program for endoscope device for measurement

Also Published As

Publication number Publication date
JP2009086552A (en) 2009-04-23

Similar Documents

Publication Publication Date Title
JP4873794B2 (en) Image processing measuring apparatus and measuring endoscope apparatus
US7443488B2 (en) Endoscope apparatus, method of operating the endoscope apparatus, and program to be executed to implement the method
JP5073564B2 (en) Endoscope device for measurement and program
JP4632577B2 (en) Measuring endoscope device
JP5437087B2 (en) Endoscope apparatus and program
US20130286173A1 (en) Measuring endoscope apparatus, program and recording medium
JP5079973B2 (en) Endoscope device for measurement and program for endoscope device for measurement
US20060176321A1 (en) Endoscope apparatus
JP4885479B2 (en) Endoscope device for measurement and program for endoscope
JP2010134357A (en) Digital camera system for microscope and microscope system
US20060178561A1 (en) Endoscope apparatus
JP5186286B2 (en) Endoscope device for measurement and program
JP5199634B2 (en) Measuring endoscope system
JP4674093B2 (en) Endoscope apparatus and program
JP2006329684A (en) Image measuring instrument and method
JP5026769B2 (en) Endoscope device for measurement, program, and recording medium
JP6789899B2 (en) Measuring device and operating method of measuring device
JP5307407B2 (en) Endoscope apparatus and program
JP4759184B2 (en) Measuring endoscope device
JP2011170276A (en) Endoscope device and program
WO2014087622A1 (en) Appearance presentation system, method, and program
JP2009086553A (en) Measuring endoscope system, method of measuring endoscope system, and program for measuring endoscope system
US20200074655A1 (en) Image acquisition device and method of operating image acquisition device
JP2006020276A (en) Endoscope for measurement
JP2005279054A (en) Device and method for displaying conversion image, and endoscope apparatus for industrial use

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5199634

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250