JP5073564B2 - Endoscope device for measurement and program - Google Patents

Endoscope device for measurement and program Download PDF

Info

Publication number
JP5073564B2
JP5073564B2 JP2008105521A JP2008105521A JP5073564B2 JP 5073564 B2 JP5073564 B2 JP 5073564B2 JP 2008105521 A JP2008105521 A JP 2008105521A JP 2008105521 A JP2008105521 A JP 2008105521A JP 5073564 B2 JP5073564 B2 JP 5073564B2
Authority
JP
Japan
Prior art keywords
measurement
unit
input
image
confirmation instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008105521A
Other languages
Japanese (ja)
Other versions
JP2009258273A (en
Inventor
高広 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2008105521A priority Critical patent/JP5073564B2/en
Publication of JP2009258273A publication Critical patent/JP2009258273A/en
Application granted granted Critical
Publication of JP5073564B2 publication Critical patent/JP5073564B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、画像データを用いて三角測量の原理による計測を行う計測用内視鏡装置、およびその動作を制御するためのプログラムに関する。   The present invention relates to a measurement endoscope apparatus that performs measurement based on the principle of triangulation using image data, and a program for controlling the operation thereof.

工業用内視鏡は、ボイラー、タービン、エンジン、化学プラント、水道配管等の内部の傷や腐食等の観察や検査に使用されている。工業用内視鏡では、多様な観察物を観察および検査することができるようにするため、複数種類の光学アダプタが用意されており、内視鏡の先端部分は交換可能となっている。   Industrial endoscopes are used for observation and inspection of internal scratches and corrosion of boilers, turbines, engines, chemical plants, water pipes, and the like. In an industrial endoscope, a plurality of types of optical adapters are prepared so that various observation objects can be observed and inspected, and the distal end portion of the endoscope is replaceable.

上記の光学アダプタとして、観察光学系に左右2つの視野を形成するステレオ光学アダプタがある。特許文献1には、ステレオ光学アダプタを使用し、被写体像を左右の光学系で捉えたときの左右の光学系測距点の座標に基づいて、三角測量の原理を使用して被写体の3次元空間座標を求め、被写体上の2点間の距離を計測する計測用内視鏡装置が記載されている。
特開2006−15117号公報
As the optical adapter, there is a stereo optical adapter that forms two left and right visual fields in the observation optical system. In Patent Document 1, a stereo optical adapter is used, and based on the coordinates of the right and left optical system ranging points when the subject image is captured by the left and right optical systems, the subject is three-dimensional using the principle of triangulation. An endoscope apparatus for measurement is described that obtains spatial coordinates and measures the distance between two points on a subject.
JP 2006-15117 A

特許文献1に記載された発明では、ユーザが、内視鏡装置に接続された表示装置の画面を見ながら、内視鏡装置に設けられたジョイスティック等を操作して計測位置(計測点)の入力を行う。画像上には計測位置を示すカーソルが表示され、ジョイスティックを倒した方向にカーソルが移動する。所望の位置でユーザが計測点を確定する指示を入力すると、カーソルの位置に計測点のアイコンが表示され、その位置に計測点が設定される。続いて、同様にカーソルを移動させながら、次の計測点の入力が行われる。しかし、例えば2点間距離を計測する場合には、ユーザが計測点を2点とも確定しないと2点間距離の計測および計測結果の表示が行われなかった。   In the invention described in Patent Document 1, a user operates a joystick or the like provided in an endoscope apparatus while viewing a screen of a display device connected to the endoscope apparatus to set a measurement position (measurement point). Make input. A cursor indicating the measurement position is displayed on the image, and the cursor moves in the direction in which the joystick is tilted. When the user inputs an instruction to confirm a measurement point at a desired position, a measurement point icon is displayed at the cursor position, and the measurement point is set at that position. Subsequently, the next measurement point is input while moving the cursor in the same manner. However, for example, when measuring the distance between two points, the measurement of the distance between two points and the display of the measurement result are not performed unless the user determines both the measurement points.

本発明は、上述した課題に鑑みてなされたものであって、計測位置を確定する操作の負担を軽減し、計測作業の効率を向上することができる内視鏡装置およびプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides an endoscope apparatus and program that can reduce the burden of an operation for determining a measurement position and improve the efficiency of measurement work. Objective.

本発明は、上記の課題を解決するためになされたもので、被写体像を光電変換し撮像信号を生成する内視鏡と、前記撮像信号を処理し画像データを生成する撮像信号処理部と、前記画像データを用いて三角測量の原理による計測を実行する計測部と、前記画像データに基づく画像を表示するための表示信号を生成する表示信号生成部とを備えた計測用内視鏡装置において、画像上の計測位置を示す位置情報を入力するための位置情報入力部と、前記計測位置の確定指示を入力するための確定指示入力部と、前記位置情報入力部に入力された前記位置情報が示す位置に目印を表示し、前記確定指示入力部に前記確定指示が入力された場合には表示中の目印の位置を固定すると共に次の目印を表示するように前記表示信号生成部を制御する表示制御部と、前記確定指示が入力されていない前記計測位置と、前記確定指示が入力された前記計測位置との両方に基づいて計測を実行するように前記計測部を制御する計測制御部とをさらに備えたことを特徴とする計測用内視鏡装置である。   The present invention has been made in order to solve the above-described problem. An endoscope that photoelectrically converts a subject image to generate an imaging signal, an imaging signal processing unit that processes the imaging signal and generates image data, In a measurement endoscope apparatus comprising: a measurement unit that performs measurement based on the principle of triangulation using the image data; and a display signal generation unit that generates a display signal for displaying an image based on the image data. A position information input unit for inputting position information indicating a measurement position on the image, a confirmation instruction input unit for inputting a confirmation instruction for the measurement position, and the position information input to the position information input unit When the confirmation instruction is input to the confirmation instruction input unit, the display signal generation unit is controlled to fix the position of the displayed marker and display the next marker. Display system A measurement control unit that controls the measurement unit to perform measurement based on both the measurement position where the confirmation instruction is not input and the measurement position where the confirmation instruction is input It is the endoscope apparatus for measurement characterized by having provided.

また、本発明の内視鏡装置は、前記確定指示が入力されていない前記計測位置と、前記確定指示が入力された前記計測位置との両方に基づいて前記計測部が計測を実行する第1の計測モードと、前記確定指示が入力された前記計測位置のみに基づいて前記計測部が計測を実行する第2の計測モードとを切り替えるモード切替部をさらに備えたことを特徴とする。   In the endoscope apparatus of the present invention, the measurement unit performs measurement based on both the measurement position where the confirmation instruction is not input and the measurement position where the confirmation instruction is input. And a mode switching unit that switches between the measurement mode and the second measurement mode in which the measurement unit performs measurement based only on the measurement position where the confirmation instruction is input.

また、本発明の内視鏡装置は、表示中の目印に関する前記位置情報、表示中の目印に関する前記確定指示の入力の有無を示す状態情報、および前記画像データを記録媒体に記録する記録部をさらに備えたことを特徴とする。   The endoscope apparatus according to the present invention further includes a recording unit that records the position information regarding the currently displayed mark, the state information indicating whether the confirmation instruction is input regarding the currently displayed mark, and the image data on a recording medium. It is further provided with a feature.

また、本発明の内視鏡装置は、前記位置情報、前記状態情報、および前記画像データを前記記録媒体から読み出す読出部をさらに備え、前記表示制御部はさらに、前記記録媒体から読み出された前記位置情報が示す位置に目印を表示し、前記確定指示が入力された目印の位置を固定し、前記確定指示が入力されていない目印の位置を、前記位置情報入力部に入力された前記位置情報が示す位置に更新するように前記表示信号生成部を制御することを特徴とする。   The endoscope apparatus of the present invention further includes a reading unit that reads the position information, the state information, and the image data from the recording medium, and the display control unit is further read from the recording medium. A mark is displayed at the position indicated by the position information, the position of the mark where the confirmation instruction is input is fixed, and the position of the mark where the confirmation instruction is not input is input to the position information input unit. The display signal generation unit is controlled to update to a position indicated by the information.

また、本発明の内視鏡装置において、前記計測制御部はさらに、所定のタイミングからの経過時間に基づいて、前記計測部が計測を実行するタイミングを制御することを特徴とする。   In the endoscope apparatus of the present invention, the measurement control unit further controls the timing at which the measurement unit executes measurement based on an elapsed time from a predetermined timing.

また、本発明の内視鏡装置において、前記計測制御部はさらに、前記位置情報入力部に入力された前記位置情報が示す位置の移動速度に基づいて、前記計測部が計測を実行するタイミングを制御することを特徴とする。   Moreover, in the endoscope apparatus according to the present invention, the measurement control unit further determines a timing at which the measurement unit performs measurement based on a moving speed of the position indicated by the position information input to the position information input unit. It is characterized by controlling.

また、本発明の内視鏡装置において、前記表示信号生成部は、前記画像データに基づいて、前記位置情報入力部に入力された前記位置情報が示す位置の画像を表示するための前記表示信号を生成し、前記表示制御部はさらに、前記位置情報入力部に入力された前記位置情報が示す位置の移動速度に応じて、前記位置情報が示す位置の画像の表示倍率を制御することを特徴とする。   Further, in the endoscope apparatus according to the present invention, the display signal generation unit displays the image at the position indicated by the position information input to the position information input unit based on the image data. The display control unit further controls the display magnification of the image at the position indicated by the position information in accordance with the moving speed of the position indicated by the position information input to the position information input unit. And

また、本発明は、被写体像を光電変換し撮像信号を生成する内視鏡と、前記撮像信号を処理し画像データを生成する撮像信号処理部と、前記画像データを用いて三角測量の原理による計測を実行する計測部と、前記画像データに基づく画像を表示するための表示信号を生成する表示信号生成部とを備えた計測用内視鏡装置を制御するコンピュータを、画像上の計測位置を示す位置情報を入力するための位置情報入力部と、前記計測位置の確定指示を入力するための確定指示入力部と、前記位置情報入力部に入力された前記位置情報が示す位置に目印を表示し、前記確定指示入力部に前記確定指示が入力された場合には表示中の目印の位置を固定すると共に次の目印を表示するように前記表示信号生成部を制御する表示制御部と、前記確定指示が入力されていない前記計測位置と、前記確定指示が入力された前記計測位置との両方に基づいて計測を実行するように前記計測部を制御する計測制御部と、として機能させるためのプログラムである。   In addition, the present invention is based on an endoscope that photoelectrically converts a subject image to generate an imaging signal, an imaging signal processing unit that processes the imaging signal to generate image data, and a principle of triangulation using the image data. A computer that controls a measurement endoscope apparatus that includes a measurement unit that performs measurement and a display signal generation unit that generates a display signal for displaying an image based on the image data. A position information input unit for inputting position information to be indicated, a confirmation instruction input unit for inputting a confirmation instruction for the measurement position, and a mark displayed at the position indicated by the position information input to the position information input unit When the confirmation instruction is input to the confirmation instruction input unit, the display control unit that fixes the position of the currently displayed mark and controls the display signal generation unit to display the next mark, and Confirmation instruction A program for causing a measurement control unit to control the measurement unit to perform measurement based on both the measurement position that has not been input and the measurement position to which the confirmation instruction has been input. .

本発明によれば、確定指示が入力されていない計測位置と、確定指示が入力された計測位置との両方に基づいて計測を実行することを可能としたことにより、確定指示を入力する操作が減るので、計測位置を確定する操作の負担を軽減し、計測作業の効率を向上することができるという効果が得られる。   According to the present invention, since the measurement can be performed based on both the measurement position where the confirmation instruction is not input and the measurement position where the confirmation instruction is input, the operation of inputting the confirmation instruction is performed. Therefore, it is possible to reduce the burden of the operation for determining the measurement position and to improve the efficiency of the measurement work.

以下、図面を参照し、本発明の実施形態を説明する。図1は、本発明の一実施形態による計測用内視鏡装置の全体構成を示している。図1に示すように、計測用内視鏡装置1は、内視鏡2と、この内視鏡2に接続された装置本体3とを備えている。内視鏡2は、細長な挿入部20と、装置全体の各種動作制御を実行する際に必要な操作を行うための操作部6とを備えている。装置本体3は、内視鏡2で撮像された被写体の画像や操作制御内容(例えば処理メニュー)等の表示を行う表示装置であるモニタ4(液晶モニタ)と、内部に制御ユニット10(図2参照)を有する筐体5とを備えている。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows the overall configuration of a measurement endoscope apparatus according to an embodiment of the present invention. As shown in FIG. 1, the measuring endoscope apparatus 1 includes an endoscope 2 and an apparatus main body 3 connected to the endoscope 2. The endoscope 2 includes an elongated insertion unit 20 and an operation unit 6 for performing operations necessary for performing various operation controls of the entire apparatus. The apparatus body 3 includes a monitor 4 (liquid crystal monitor) that is a display device that displays an image of a subject imaged by the endoscope 2 and operation control contents (for example, a processing menu), and a control unit 10 (FIG. 2). And a housing 5 having a reference).

挿入部20は、硬質な先端部21と、例えば上下左右に湾曲可能な湾曲部22と、柔軟性を有する可撓管部23とを先端側から順に連設して構成されている。先端部21には、観察視野を2つ有するステレオ光学アダプタや観察視野が1つの通常観察光学アダプタ等、各種光学アダプタが着脱自在になっている。   The insertion portion 20 is configured by connecting a hard distal end portion 21, a bending portion 22 that can be bent vertically and horizontally, and a flexible tube portion 23 having flexibility in order from the distal end side. Various optical adapters such as a stereo optical adapter having two observation fields and a normal observation optical adapter having one observation field are detachably attached to the distal end portion 21.

図2に示すように筐体5内には、内視鏡ユニット8、CCU9(カメラコントロールユニット)、および制御ユニット10が設けられており、挿入部20の基端部は内視鏡ユニット8に接続されている。内視鏡ユニット8は、観察時に必要な照明光を供給する光源装置(不図示)と、挿入部20を構成する湾曲部22を湾曲させる湾曲装置(不図示)とを備えて構成されている。   As shown in FIG. 2, an endoscope unit 8, a CCU 9 (camera control unit), and a control unit 10 are provided in the housing 5, and the proximal end portion of the insertion portion 20 is attached to the endoscope unit 8. It is connected. The endoscope unit 8 includes a light source device (not shown) that supplies illumination light necessary for observation, and a bending device (not shown) that bends the bending portion 22 that constitutes the insertion portion 20. .

挿入部20の先端部21には撮像素子28が内蔵されている。撮像素子28は、光学アダプタを介して結像された被写体像を光電変換し、撮像信号を生成する。CCU9には、撮像素子28から出力された撮像信号が入力される。この撮像信号は、CCU9内で例えばNTSC信号等の映像信号(画像データ)に変換されて、制御ユニット10へ供給される。   An imaging element 28 is built in the distal end portion 21 of the insertion portion 20. The image sensor 28 photoelectrically converts the subject image formed through the optical adapter to generate an image signal. An imaging signal output from the imaging device 28 is input to the CCU 9. The imaging signal is converted into a video signal (image data) such as an NTSC signal in the CCU 9 and supplied to the control unit 10.

制御ユニット10内には、映像信号が入力される映像信号処理回路12、ROM13、RAM14、カードI/F15(カードインターフェイス)、USB I/F16(USBインターフェイス)、およびRS−232C I/F17(RS−232Cインターフェイス)と、これら各種機能を主要プログラムに基づいて実行し動作制御を行うCPU18とが設けられている。   In the control unit 10, a video signal processing circuit 12, to which a video signal is input, a ROM 13, a RAM 14, a card I / F 15 (card interface), a USB I / F 16 (USB interface), and an RS-232C I / F 17 (RS -232C interface) and a CPU 18 that executes these various functions based on a main program and performs operation control.

RS−232C I/F17には、CCU9および内視鏡ユニット8が接続されると共に、これらCCU9や内視鏡ユニット8等の制御および動作指示を行う操作部6が接続されている。ユーザが操作部6を操作すると、その操作内容に基づいて、CCU9および内視鏡ユニット8を動作制御する際に必要な通信が行われる。   The RS-232C I / F 17 is connected to the CCU 9 and the endoscope unit 8, and to the operation unit 6 that performs control and operation instructions for the CCU 9 and the endoscope unit 8. When the user operates the operation unit 6, communication necessary for controlling the operation of the CCU 9 and the endoscope unit 8 is performed based on the operation content.

USB I/F16は、制御ユニット10とパーソナルコンピュータ31とを電気的に接続するためのインターフェイスである。このUSB I/F16を介して制御ユニット10とパーソナルコンピュータ31とを接続することによって、パーソナルコンピュータ31側で内視鏡画像の表示指示や、計測時における画像処理等の各種の指示制御を行うことが可能になると共に、制御ユニット10とパーソナルコンピュータ31との間での各種の処理に必要な制御情報やデータ等の入出力を行うことが可能になる。   The USB I / F 16 is an interface for electrically connecting the control unit 10 and the personal computer 31. By connecting the control unit 10 and the personal computer 31 via the USB I / F 16, various instruction control such as an endoscopic image display instruction and image processing at the time of measurement is performed on the personal computer 31 side. And control information and data necessary for various processes between the control unit 10 and the personal computer 31 can be input / output.

また、カードI/F15には、メモリカード32を自由に着脱することができるようになっている。メモリカード32をカードI/F15に装着することにより、CPU18による制御に従って、このメモリカード32に記憶されている制御処理情報や画像情報等のデータの制御ユニット10への取り込み、あるいは制御処理情報や画像情報等のデータのメモリカード32への記録を行うことが可能になる。   Further, the memory card 32 can be freely attached to and detached from the card I / F 15. By attaching the memory card 32 to the card I / F 15, in accordance with control by the CPU 18, control processing information and image information stored in the memory card 32 are taken into the control unit 10, or control processing information or It is possible to record data such as image information in the memory card 32.

映像信号処理回路12は、CCU9から供給された内視鏡画像と、グラフィックによる操作メニューとを合成した合成画像を表示するため、CPU18の制御により生成される、操作メニューに基づくグラフィック画像信号とCCU9からの映像信号を合成する処理や、モニタ4の画面上に表示するのに必要な処理等を行い、表示信号をモニタ4に供給する。また、この映像信号処理回路12は、単に内視鏡画像、あるいは操作メニュー等の画像を単独で表示するための処理を行うことも可能である。したがって、モニタ4の画面上には、内視鏡画像、操作メニュー画像、内視鏡画像と操作メニュー画像との合成画像等が表示される。   The video signal processing circuit 12 displays a composite image obtained by combining the endoscopic image supplied from the CCU 9 and the graphic operation menu, so that the graphic image signal based on the operation menu and the CCU 9 generated by the control of the CPU 18 are displayed. The processing for synthesizing the video signals from the video and the processing necessary for displaying on the screen of the monitor 4 are performed, and the display signal is supplied to the monitor 4. Further, the video signal processing circuit 12 can simply perform processing for displaying an endoscopic image or an image such as an operation menu alone. Therefore, an endoscope image, an operation menu image, a composite image of the endoscope image and the operation menu image, and the like are displayed on the screen of the monitor 4.

CPU18は、ROM13に格納されているプログラムを実行することによって、目的に応じた処理を行うように各種回路部等を制御して、計測用内視鏡装置1全体の動作制御を行う。RAM14は、CPU18によって、データの一時格納用の作業領域として使用される。   The CPU 18 executes the program stored in the ROM 13 to control various circuit units and the like so as to perform processing according to the purpose, thereby controlling the operation of the entire measurement endoscope apparatus 1. The RAM 14 is used by the CPU 18 as a work area for temporarily storing data.

図3は、内視鏡2が有する挿入部20の先端部21の斜視図であり、図4は図3のA−A断面図である。図3に示すように先端部21は、先端部本体39と、この先端部本体39に着脱自在の光学アダプタ46とから構成されている。先端部21の先端面には、例えばLEDからなる2つの照明24と、被写体像を取り込むための観察窓25とが設けてある。図4に示すように、先端部21を構成する先端部本体39に設けた観察窓25はカバーガラス30で閉塞され、その内側にはレンズ枠36を介して1対の対物光学系、つまり右画像用の対物光学系26Rと左画像用の対物光学系26Lが取り付けてある。   3 is a perspective view of the distal end portion 21 of the insertion portion 20 included in the endoscope 2, and FIG. 4 is a cross-sectional view taken along the line AA in FIG. As shown in FIG. 3, the distal end portion 21 includes a distal end portion main body 39 and an optical adapter 46 that can be attached to and detached from the distal end portion main body 39. The distal end surface of the distal end portion 21 is provided with two illuminations 24 made of LEDs, for example, and an observation window 25 for capturing a subject image. As shown in FIG. 4, the observation window 25 provided in the distal end portion body 39 constituting the distal end portion 21 is closed with a cover glass 30, and a pair of objective optical systems, that is, a right side is interposed inside the observation window 25 through a lens frame 36. An objective optical system for image 26R and an objective optical system for left image 26L are attached.

このレンズ枠36は後方側に延出し、共通の像伝送光学系27の前段側光学系27aが取り付けてある。また、レンズ枠36の後端側の孔部に収納された撮像素子固定枠37には、撮像素子28が固定されている。この撮像素子28の撮像面の前部側には像伝送光学系27の後段側光学系27bがレンズ枠を介して取り付けてある。また、先端部本体39の前端側の外周は円筒状のカバー部材38で覆われ、このカバー部材38はネジで先端部本体39に固定されている。なお、カバー部材38と先端部本体39との間には、シール用のOリングが介挿され、水密構造にされている。   The lens frame 36 extends rearward, and a front-stage optical system 27a of a common image transmission optical system 27 is attached. The image sensor 28 is fixed to the image sensor fixing frame 37 housed in the hole on the rear end side of the lens frame 36. A rear side optical system 27b of the image transmission optical system 27 is attached to the front side of the image pickup surface of the image pickup element 28 via a lens frame. Further, the outer periphery of the front end side of the front end portion main body 39 is covered with a cylindrical cover member 38, and the cover member 38 is fixed to the front end portion main body 39 with screws. An O-ring for sealing is inserted between the cover member 38 and the tip end body 39 to form a watertight structure.

上記の対物光学系26Rと対物光学系26Lによる像は、像伝送光学系27を介して撮像素子28上で左右に異なる位置に結像される。つまり、対物光学系26Rと像伝送光学系27による光学系である右結像光学系と、対物光学系26Lと像伝送光学系27による光学系である左結像光学系とが構成されている。撮像素子28で光電変換された撮像信号は内視鏡ユニット8を介してCCU9に供給されて映像信号に変換され、その後、映像信号処理回路12に供給される。   Images by the objective optical system 26R and the objective optical system 26L are formed at different positions on the left and right on the image sensor 28 via the image transmission optical system 27. That is, a right imaging optical system that is an optical system including the objective optical system 26R and the image transmission optical system 27 and a left imaging optical system that is an optical system including the objective optical system 26L and the image transmission optical system 27 are configured. . The imaging signal photoelectrically converted by the imaging device 28 is supplied to the CCU 9 via the endoscope unit 8 and converted into a video signal, and then supplied to the video signal processing circuit 12.

また、撮像素子28の前面側はカバーガラス47で保護され、このカバーガラス47は光学アダプタ46側のカバーガラス48と対向する。光学アダプタ46の後端側の外周面には、固定リング49が設けてあり、先端部本体39の外周面に設けた雄ネジ部にこの固定リング49の後端内視鏡内周面に設けた雌ネジ部を螺合させることにより、着脱自在に取り付けられるようにしている。先端部本体39の先端面の外周面には位置決め用の凹部が、光学アダプタ39側には位置決め用ピンが設けてあり、光学アダプタ39を取り付ける際に凹部とピンとにより周方向の位置決めがされる。   Further, the front side of the image sensor 28 is protected by a cover glass 47, and the cover glass 47 faces the cover glass 48 on the optical adapter 46 side. A fixing ring 49 is provided on the outer peripheral surface on the rear end side of the optical adapter 46, and is provided on the inner peripheral surface of the rear end endoscope of the fixing ring 49 on the male screw portion provided on the outer peripheral surface of the distal end body 39. By attaching the female screw part, it can be detachably attached. A positioning concave portion is provided on the outer peripheral surface of the distal end surface of the distal end main body 39, and a positioning pin is provided on the optical adapter 39 side. When the optical adapter 39 is attached, positioning in the circumferential direction is performed by the concave portion and the pin. .

次に、計測用内視鏡装置1を用いた計測方法を説明する。生産工程では、個体の異なる光学アダプタ46毎に、次の(a1)〜(e)に示す各光学アダプタ46の特有の光学データが測定される。その光学データが、記録媒体である例えばメモリカードに記録される。このメモリカードに記録された光学データは、光学アダプタ46の特性と一対一で対応することになって、出荷後、1つの組み合わせのものとして扱われる。本実施形態の光学データは以下の通りである。なお、光学データの詳細は、例えば特開2004−49638号公報に記載されているので、その説明を省略する。   Next, a measurement method using the measurement endoscope apparatus 1 will be described. In the production process, the optical data peculiar to each optical adapter 46 shown in the following (a1) to (e) is measured for each optical adapter 46 with different individuals. The optical data is recorded on a recording medium such as a memory card. The optical data recorded on the memory card has a one-to-one correspondence with the characteristics of the optical adapter 46 and is handled as one combination after shipment. The optical data of this embodiment is as follows. The details of the optical data are described in, for example, Japanese Patent Application Laid-Open No. 2004-49638, and the description thereof is omitted.

(a1)2つの対物光学系の幾何学的歪み補正テーブル
(a2)像伝送光学系の幾何学歪み補正テーブル
(b)左右の結像光学系それぞれの焦点距離
(c)左右の結像光学系の主点間の距離
(d)左右の結像光学系それぞれの画像上での光軸位置座標
(e)左右の結像光学系それぞれの画像がマスタの撮像素子上に結像するときの位置情報
(A1) Geometric distortion correction table for the two objective optical systems (a2) Geometric distortion correction table for the image transmission optical system (b) Focal lengths of the left and right imaging optical systems (c) Left and right imaging optical systems (D) Optical axis position coordinates on the images of the left and right imaging optical systems (e) Position when the images of the left and right imaging optical systems are imaged on the master image sensor information

以下、図5を参照しながら、光学データの測定方法を説明する。生産測定治具51は、光学アダプタ46が装着可能であって、マスタ撮像ユニット52と、CCU53と、パソコン31と、チャート54とで構成されている。   Hereinafter, a method for measuring optical data will be described with reference to FIG. The production measurement jig 51 can be mounted with an optical adapter 46, and includes a master imaging unit 52, a CCU 53, a personal computer 31, and a chart 54.

マスタ撮像ユニット52は、内視鏡2の先端部本体39と同様の構造を有している。CCU53はマスタ撮像ユニット52と信号線で接続されている。パソコン31は、メモリカード33が着脱可能なメモリカードスロット54を有し、CCU53からの画像データに対する画像処理を行う。チャート54は、光学アダプタ46の光学特性を解析するための格子状の模様を有している。   The master imaging unit 52 has the same structure as the distal end portion main body 39 of the endoscope 2. The CCU 53 is connected to the master imaging unit 52 through a signal line. The personal computer 31 has a memory card slot 54 to which the memory card 33 can be attached and detached, and performs image processing on image data from the CCU 53. The chart 54 has a lattice pattern for analyzing the optical characteristics of the optical adapter 46.

生産測定治具51を用いて光学データの取り込みを行う場合、まず、図5に示すように、光学アダプタ46をマスタ撮像ユニット52に取り付け、チャート54の像を光学アダプタ46を介して取り込み、その画像データに基づいてパーソナルコンピュータ31にて画像処理を行い、上記(a1)〜(e)の光学データを求め、メモリカード33に記録する。   When optical data is captured using the production measurement jig 51, first, as shown in FIG. 5, the optical adapter 46 is attached to the master imaging unit 52, and the image of the chart 54 is captured via the optical adapter 46. Image processing is performed by the personal computer 31 based on the image data, and the optical data (a1) to (e) are obtained and recorded in the memory card 33.

上記特有の光学データの収集を行った後の光学アダプタ46を内視鏡2に取り付け、計測用内視鏡装置1において、次に示す(1)〜(8)の処理を行って各種寸法計測(ステレオ計測)を行うことができる。なお、ステレオ計測の詳細は、例えば特開2004−49638号公報に記載されているので、その説明を省略する。   The optical adapter 46 after collecting the specific optical data is attached to the endoscope 2, and the measurement endoscope apparatus 1 performs the following processes (1) to (8) to measure various dimensions. (Stereo measurement) can be performed. Note that details of stereo measurement are described in, for example, Japanese Patent Application Laid-Open No. 2004-49638, and thus description thereof is omitted.

(1)メモリカード33から上記(a1)〜(e)の光学データを読み込む。
(2)計測用内視鏡装置1を用いて白い被写体を撮像する。
(3)上記(e)のデータおよび上記(2)の撮像データを用いて、光学アダプタ46と内視鏡2との組み合わせによる画像位置のずれを求める。
(4)上記(3)のデータおよび上記(1)のデータを用いて、内視鏡2に対する幾何学的歪み補正を行う変換テーブルを作成する。
(5)内視鏡2にて被写体である被計測物を撮像し、画像を取り込む。
(6)上記の取り込んだ画像を上記(4)で作成した変換テーブルを基に座標変換する。
(7)座標変換された画像を基に、上記(2)の撮像データのマッチングにより任意の点の3次元座標を求める。
(8)上記3次元座標を基に各種寸法計測を行う。
(1) Read the optical data (a1) to (e) from the memory card 33.
(2) A white subject is imaged using the measurement endoscope apparatus 1.
(3) Using the data of (e) and the imaging data of (2), the displacement of the image position due to the combination of the optical adapter 46 and the endoscope 2 is obtained.
(4) A conversion table for performing geometric distortion correction for the endoscope 2 is created using the data of (3) and the data of (1).
(5) The to-be-measured object which is a subject is imaged by the endoscope 2 and an image is captured.
(6) The coordinates of the captured image are converted based on the conversion table created in (4).
(7) Based on the coordinate-converted image, the three-dimensional coordinates of an arbitrary point are obtained by the imaging data matching in (2) above.
(8) Various dimension measurements are performed based on the three-dimensional coordinates.

上記の(1)〜(4)の処理を、内視鏡2と光学アダプタ46の組合せに対して、一度実行する。この結果によって得られる光学データと変換テーブルは、環境データとしてメモリカード33に記録される。そして、次回以降のステレオ計測では、上記(1)〜(4)の処理を実行する代わりに、メモリカード33から環境データを読み込み、上記(5)〜(8)の処理を実行する。ユーザが複数の内視鏡2または光学アダプタ46を所有し、これらを交換して計測を行う場合には、内視鏡2と光学アダプタ46のそれぞれの組合せ毎に上記(1)〜(4)の処理を実行して環境データを記録しておく。   The processes (1) to (4) are executed once for the combination of the endoscope 2 and the optical adapter 46. The optical data and conversion table obtained as a result are recorded in the memory card 33 as environment data. In the next and subsequent stereo measurements, instead of executing the processes (1) to (4), the environment data is read from the memory card 33 and the processes (5) to (8) are executed. When a user owns a plurality of endoscopes 2 or optical adapters 46 and exchanges these to perform measurement, the combinations (1) to (4) described above are performed for each combination of the endoscope 2 and the optical adapter 46. This process is executed to record environmental data.

ステレオ計測を行う際にユーザが、図6に示すメニュー画面を操作し、使用する内視鏡2と光学アダプタの組合せに対応した環境データを選択すると、その環境データがメモリカード33から計測用内視鏡装置1に読み込まれる。なお、使用されている内視鏡2や光学アダプタの種類をCPU18が識別できる場合には、使用しない環境データをメニュー画面に表示しないようにしたり、メニュー画面での選択を省略したりすることも可能である。また、メニュー画面において、ユーザが環境データの削除を選択すると、ユーザが選択した1または複数の環境データもしくは全ての不要な環境データをメモリカード33から削除することも可能である。   When performing a stereo measurement, when the user operates the menu screen shown in FIG. 6 and selects environment data corresponding to the combination of the endoscope 2 and the optical adapter to be used, the environment data is stored in the memory card 33 for measurement. It is read into the endoscope apparatus 1. If the CPU 18 can identify the type of endoscope 2 or optical adapter being used, environmental data that is not used may not be displayed on the menu screen, or selection on the menu screen may be omitted. Is possible. Further, when the user selects deletion of environment data on the menu screen, it is also possible to delete one or a plurality of environment data selected by the user or all unnecessary environment data from the memory card 33.

また、上記の(5)の処理において、必要に応じて、取り込んだ画像に対してノイズ除去フィルタを施してもよい。これによって、ノイズによるパターンマッチング処理(詳細は後述する)の失敗を低減し、マッチングの誤差を小さくして計測精度を向上することができる。ノイズ除去フィルタには、例えば3×3の画素の範囲で画素値の中央値を選択するメディアンフィルタを用いると、計測に必要な輪郭の情報を保存しながら、ノイズを減少させることができる。   In the process (5), a noise removal filter may be applied to the captured image as necessary. As a result, failure of pattern matching processing (details will be described later) due to noise can be reduced, matching errors can be reduced, and measurement accuracy can be improved. For example, when a median filter that selects a median value of pixel values in a 3 × 3 pixel range is used as the noise removal filter, noise can be reduced while preserving contour information necessary for measurement.

次に、本実施形態による計測用内視鏡装置1の動作を説明する。図7は計測用内視鏡装置1の全体動作を示している。計測用内視鏡装置1が起動されると、CPU18は初期化を実行する(ステップSA)。続いて、CPU18は、RS232C I/F17を介して操作部6から入力される信号を監視し、画像の倍率変更用のズームスイッチがONとなっているか否かを判定する(ステップSB)。ズームスイッチがONとなっている場合には、CPU18は、画像を拡大するための電子ズーム処理の倍率変更を映像信号処理回路12に指示する(ステップSC)。この後、処理がステップSDに進む。また、ステップSBにおいてズームスイッチがOFFとなっている場合には、処理がステップSDに進む。   Next, the operation of the measurement endoscope apparatus 1 according to the present embodiment will be described. FIG. 7 shows the overall operation of the measuring endoscope apparatus 1. When the measurement endoscope apparatus 1 is activated, the CPU 18 performs initialization (step SA). Subsequently, the CPU 18 monitors a signal input from the operation unit 6 via the RS232C I / F 17 and determines whether or not the zoom switch for changing the image magnification is ON (step SB). If the zoom switch is ON, the CPU 18 instructs the video signal processing circuit 12 to change the magnification of the electronic zoom process for enlarging the image (step SC). Thereafter, the process proceeds to step SD. If the zoom switch is OFF in step SB, the process proceeds to step SD.

続いて、CPU18は、RS232C I/F17を介して操作部6から入力される信号を監視し、画像の輝度変更用の輝度スイッチがONとなっているか否かを判定する(ステップSD)。輝度スイッチがONとなっている場合には、CPU18は画像全体の輝度変更を映像信号処理回路12に指示する(ステップSE)。この後、処理がステップSFに進む。また、ステップSDにおいて輝度スイッチがOFFとなっている場合には、処理がステップSFに進む。   Subsequently, the CPU 18 monitors a signal input from the operation unit 6 via the RS232C I / F 17 and determines whether or not the brightness switch for changing the brightness of the image is ON (step SD). If the brightness switch is ON, the CPU 18 instructs the video signal processing circuit 12 to change the brightness of the entire image (step SE). Thereafter, the process proceeds to step SF. If the brightness switch is OFF in step SD, the process proceeds to step SF.

続いて、CPU18は、RS232C I/F17を介して操作部6から入力される信号を監視し、計測モードをライブモードに変更するためのライブスイッチがONとなっているか否かを判定する(ステップSF)。計測用内視鏡装置1は複数の動作モード(ライブモード、記録モード、計測モード、再生モード)で動作可能である。ライブモードは、内視鏡2によって撮像された画像(動画像)をリアルタイムに表示するモードである。記録モードは、内視鏡2によって撮像された静止画像データをメモリカード32に記録するモードである。   Subsequently, the CPU 18 monitors a signal input from the operation unit 6 via the RS232C I / F 17 and determines whether or not a live switch for changing the measurement mode to the live mode is ON (step). SF). The measurement endoscope apparatus 1 can operate in a plurality of operation modes (live mode, recording mode, measurement mode, and reproduction mode). The live mode is a mode in which an image (moving image) captured by the endoscope 2 is displayed in real time. The recording mode is a mode for recording still image data captured by the endoscope 2 on the memory card 32.

計測モードは、内視鏡2によって撮像された静止画像データに基づいて2点間計測等の計測を実行するモードである。再生モードは、メモリカード32に記録されている画像データを読み出して画像を表示するモードである。記録モード、計測モード、再生モードのいずれかで動作している場合にライブスイッチがONとなっている場合には、CPU18は動作モードをライブモードに変更し、計測用内視鏡装置1内の各部にライブモードでの動作を指示する(ステップSG)。この後、処理がステップSHに進む。また、ステップSFにおいてライブスイッチがOFFとなっている場合には、処理がステップSHに進む。   The measurement mode is a mode in which measurement such as measurement between two points is executed based on still image data captured by the endoscope 2. The reproduction mode is a mode in which image data recorded on the memory card 32 is read and an image is displayed. When the live switch is ON when operating in any one of the recording mode, the measurement mode, and the reproduction mode, the CPU 18 changes the operation mode to the live mode, and the measurement endoscope apparatus 1 Each part is instructed to operate in the live mode (step SG). Thereafter, the process proceeds to step SH. If the live switch is OFF in step SF, the process proceeds to step SH.

続いて、CPU18は、RS232C I/F17を介して操作部6から入力される信号を監視し、メニュースイッチがONとなっているか否かを判定する(ステップSH)。メニュースイッチがONとなっている場合には、CPU18は操作メニュー表示用のグラフィック画像信号を生成し、映像信号処理回路12へ出力する(ステップSI)。この後、処理がステップSJに進む。また、ステップSHにおいてメニュースイッチがOFFとなっている場合には、処理がステップSJに進む。   Subsequently, the CPU 18 monitors a signal input from the operation unit 6 via the RS232C I / F 17 and determines whether or not the menu switch is ON (step SH). When the menu switch is ON, the CPU 18 generates a graphic image signal for displaying the operation menu and outputs it to the video signal processing circuit 12 (step SI). Thereafter, the process proceeds to step SJ. If the menu switch is OFF in step SH, the process proceeds to step SJ.

続いて、CPU18は、RS232C I/F17を介して操作部6から入力される信号を監視し、光学アダプタ内のLEDを点灯させるLEDスイッチがONとなっているか否かを判定する(ステップSJ)。LEDスイッチがONとなっている場合には、CPU18は照明装置の起動を内視鏡ユニット8に指示する(ステップSK)。この後、処理がステップSLに進む。また、ステップSJにおいてLEDスイッチがOFFとなっている場合には、処理がステップSLに進む。   Subsequently, the CPU 18 monitors a signal input from the operation unit 6 via the RS232C I / F 17 and determines whether or not the LED switch for turning on the LED in the optical adapter is ON (step SJ). . If the LED switch is ON, the CPU 18 instructs the endoscope unit 8 to start the illumination device (step SK). Thereafter, the process proceeds to step SL. If the LED switch is OFF in step SJ, the process proceeds to step SL.

続いて、CPU18は、RS232C I/F17を介して操作部6から入力される信号を監視し、画像記録用の記録スイッチがONとなっているか否かを判定する(ステップSL)。記録スイッチがONとなっている場合には、CPU18は動作モードを記録モードに変更し、映像信号処理回路12から取り込んだ画像データを、カード I/F15を介してメモリカード32に記録する(ステップSM)。ステップSMの詳細は後述する。この後、処理がステップSNに進む。また、ステップSLにおいて記録スイッチがOFFとなっている場合には、処理がステップSNに進む。   Subsequently, the CPU 18 monitors a signal input from the operation unit 6 via the RS232C I / F 17 and determines whether or not the recording switch for image recording is ON (step SL). When the recording switch is ON, the CPU 18 changes the operation mode to the recording mode, and records the image data captured from the video signal processing circuit 12 in the memory card 32 via the card I / F 15 (step SM). Details of step SM will be described later. Thereafter, the process proceeds to step SN. If the recording switch is OFF in step SL, the process proceeds to step SN.

続いて、CPU18は、RS232C I/F17を介して操作部6から入力される信号を監視し、画像再生用の再生スイッチがONとなっているか否かを判定する(ステップSN)。再生スイッチがONとなっている場合には、CPU18は動作モードを再生モードに変更し、カード I/F15を介してメモリカード32から画像データを読み出し、映像信号処理回路12へ出力する(ステップSO)。ステップSOの詳細は後述する。この後、処理がステップSPに進む。また、ステップSNにおいて再生スイッチがOFFとなっている場合には、処理がステップSPに進む。   Subsequently, the CPU 18 monitors a signal input from the operation unit 6 via the RS232C I / F 17 and determines whether or not the reproduction switch for image reproduction is ON (step SN). When the reproduction switch is ON, the CPU 18 changes the operation mode to the reproduction mode, reads the image data from the memory card 32 via the card I / F 15, and outputs it to the video signal processing circuit 12 (step SO). ). Details of step SO will be described later. Thereafter, the process proceeds to step SP. If the regeneration switch is OFF at step SN, the process proceeds to step SP.

続いて、CPU18は、挿入部20の先端部21と接続する図示せぬ信号線から入力される信号を監視し、光学アダプタが装着されているか否かを判定する(ステップSP)。光学アダプタが装着されている場合には、CPU18は光学アダプタの種類を判別し、その種類に応じた環境データを、カード I/F15を介してメモリカード32から読み出し、RAM14に格納する(ステップSQ)。光学アダプタの種類の判別は、例えば光学アダプタ内に設けられた、光学アダプタの種類に応じて異なる抵抗値を検出することにより行われる。続いて、図6に示したメニュー画面が表示され、ユーザの指示により、内視鏡2と光学アダプタの組合せに対応した環境データが設定される。この後、処理がステップSRに進む。また、ステップSPにおいて光学アダプタが装着されていない場合には、処理がステップSRに進む。   Subsequently, the CPU 18 monitors a signal input from a signal line (not shown) connected to the distal end portion 21 of the insertion portion 20, and determines whether or not the optical adapter is attached (step SP). When the optical adapter is mounted, the CPU 18 determines the type of the optical adapter, reads the environmental data corresponding to the type from the memory card 32 via the card I / F 15 and stores it in the RAM 14 (step SQ ). The type of the optical adapter is determined by, for example, detecting a resistance value that varies depending on the type of the optical adapter provided in the optical adapter. Subsequently, the menu screen shown in FIG. 6 is displayed, and environment data corresponding to the combination of the endoscope 2 and the optical adapter is set according to a user instruction. Thereafter, the process proceeds to step SR. If the optical adapter is not attached in step SP, the process proceeds to step SR.

続いて、CPU18は、RS232C I/F17を介して操作部6から入力される信号を監視し、ステレオ計測用の計測スイッチがONとなっているか否かを判定する(ステップSR)。計測スイッチがONとなっている場合には、CPU18は動作モードを計測モードに変更し、ステレオ計測を実行する(ステップSS)。ステップSSの詳細は後述する。この後、処理がステップSTに進む。また、ステップSRにおいて計測スイッチがOFFとなっている場合には、処理がステップSTに進む。   Subsequently, the CPU 18 monitors a signal input from the operation unit 6 via the RS232C I / F 17 and determines whether or not the measurement switch for stereo measurement is ON (step SR). If the measurement switch is ON, the CPU 18 changes the operation mode to the measurement mode and performs stereo measurement (step SS). Details of step SS will be described later. Thereafter, the process proceeds to step ST. If the measurement switch is OFF in step SR, the process proceeds to step ST.

続いて、CPU18は、RS232C I/F17を介して操作部6から入力される信号を監視し、電源用のパワースイッチがOFFとなっているか否かを判定する(ステップST)。パワースイッチがOFFとなっている場合には、計測内視鏡装置1は動作を終了する。また、ステップSTにおいてパワースイッチがONとなっている場合には、処理がステップSBに戻る。   Subsequently, the CPU 18 monitors a signal input from the operation unit 6 via the RS232C I / F 17 and determines whether or not the power switch for power supply is OFF (step ST). When the power switch is OFF, the measurement endoscope apparatus 1 ends the operation. If the power switch is ON in step ST, the process returns to step SB.

次に、上記のステップSS(ステレオ計測)の詳細を説明する。以下では、2点間計測を例とする。図8は、ステレオ計測時にモニタ4に表示される計測画面を示している。図8に示す計測画面には、光学アダプタで捉えられた左右の被写体像に対応した左画像800と右画像801が表示される。前述したように、ユーザは、モニタ4に表示される計測画面を見ながら、操作部6に設けられたジョイスティックを操作しながら計測位置(計測点)の入力を行う。画像上には計測位置を示す目印となるカーソル810,811が表示され、ジョイスティックを倒した方向に移動する。所望の位置でユーザがジョイスティックを押し込む操作を行い、計測点を確定する指示を入力すると、そのときのカーソル810,811の位置に計測点が固定される。計測点が確定すると、カーソル810,811は、確定した計測点を示す「×」印のアイコン(目印)に変わる。   Next, details of step SS (stereo measurement) will be described. Hereinafter, measurement between two points is taken as an example. FIG. 8 shows a measurement screen displayed on the monitor 4 during stereo measurement. A left image 800 and a right image 801 corresponding to the left and right subject images captured by the optical adapter are displayed on the measurement screen shown in FIG. As described above, the user inputs the measurement position (measurement point) while operating the joystick provided in the operation unit 6 while viewing the measurement screen displayed on the monitor 4. On the image, cursors 810 and 811 serving as marks indicating the measurement positions are displayed and moved in the direction in which the joystick is tilted. When the user performs an operation of pushing the joystick at a desired position and inputs an instruction to determine the measurement point, the measurement point is fixed at the positions of the cursors 810 and 811 at that time. When the measurement points are confirmed, the cursors 810 and 811 are changed to “x” mark icons (marks) indicating the confirmed measurement points.

図8は、1点目の計測点が確定し、2点目の計測点の入力を行うときの状態を示している。1点目の計測点820,821には「×」印のアイコンが表示される。1点目の計測点の入力を行う際にも、カーソル810,811と同様のカーソルが表示され、ユーザがジョイスティックを倒した方向にカーソルが移動する。ズームウィンドウ830,831には、カーソル810,811の近傍の拡大画像が表示される。図8では、カーソル810,811の近傍が2倍に拡大表示されている。カーソル810,811の周囲のエリア812,813は、ズームウィンドウ830,831に表示される領域を示している。ズームウィンドウ830,831に表示される拡大画像を見ながら計測点の入力を行うことにより、計測点の位置をより正確に設定することができる。計測モード840は2点間計測を示している。操作指示841は、ユーザに対する2点目の計測点の入力指示を示している。   FIG. 8 shows a state where the first measurement point is determined and the second measurement point is input. An icon marked with “×” is displayed at the first measurement points 820 and 821. When inputting the first measurement point, a cursor similar to the cursors 810 and 811 is displayed, and the cursor moves in the direction in which the user tilts the joystick. In the zoom windows 830 and 831, enlarged images near the cursors 810 and 811 are displayed. In FIG. 8, the vicinity of the cursors 810 and 811 is enlarged and displayed twice. Areas 812 and 813 around the cursors 810 and 811 indicate areas displayed in the zoom windows 830 and 831. By inputting the measurement point while viewing the enlarged images displayed in the zoom windows 830 and 831, the position of the measurement point can be set more accurately. The measurement mode 840 indicates the measurement between two points. An operation instruction 841 indicates an instruction to input a second measurement point to the user.

物体距離842は被写体までの距離を示している。物体距離インジケータ843は、物体距離842を視覚的に示しており、物体距離が長いほど、表示されるインジケータの数が多くなる。計測結果844は2点間計測の結果を示している。従来の2点間計測では、計測点が2点とも確定しないと計測が実行されないが、本実施形態では2点目の計測点が確定していない状態でも計測が実行され、計測結果が表示される。また、計測は繰り返し実行されるので、ジョイスティックの操作によりカーソルが移動すれば、カーソルの移動に応じて、計測結果がリアルタイムに更新される。これによって、ユーザが2点目の計測点を確定する操作を行わなくても計測が行われるので、ユーザの操作負担を軽減することができる。   An object distance 842 indicates the distance to the subject. The object distance indicator 843 visually indicates the object distance 842. The longer the object distance, the larger the number of displayed indicators. A measurement result 844 shows the result of the measurement between two points. In the conventional two-point measurement, measurement is not performed unless both measurement points are confirmed. However, in this embodiment, measurement is performed even when the second measurement point is not confirmed, and the measurement result is displayed. The Since the measurement is repeatedly executed, if the cursor is moved by operating the joystick, the measurement result is updated in real time according to the movement of the cursor. As a result, the measurement is performed without the user performing an operation for determining the second measurement point, so that the operation burden on the user can be reduced.

上記のように、計測点が確定していない状態でも計測を実行することにより、計測作業は効率的になるが、計測が頻繁に実行されるため、CPU18の処理負荷が増加する。したがって、全ての計測モードについて、計測点が確定していない状態でも計測を実行すると、多数の計測点に基づいて計測を行う場合(例えば面積計算)には、計測に時間が掛かり、ユーザにとって使用しづらいものとなってしまう。そこで、本実施形態では、処理負荷が比較的軽い2点間計測では、計測点が確定していない状態でも計測を実行し、処理負荷が重い面積計算等の計測では、全ての計測点が確定した状態で計測を実行するものとしている。   As described above, by performing measurement even in a state where the measurement point is not fixed, the measurement work becomes efficient. However, since measurement is frequently performed, the processing load on the CPU 18 increases. Therefore, if measurement is performed even when the measurement points are not fixed for all measurement modes, when measurement is performed based on a large number of measurement points (for example, area calculation), the measurement takes time and is used by the user. It becomes difficult. Therefore, in this embodiment, in the measurement between two points where the processing load is relatively light, the measurement is executed even when the measurement point is not fixed, and in the measurement such as area calculation where the processing load is heavy, all the measurement points are fixed. It is assumed that the measurement is executed in the state.

計測画面上のカーソルの色や、形状、移動速度は、図9に示すメニュー画面の操作により、ユーザが適宜選択することが可能である。カーソルの移動速度に関しては、高速・中速・低速の3種類の中から最高速度を選択することが可能である。図10はカーソルの移動速度を示している。図10(a)では、ユーザがジョイスティックを倒した時点から時間T1が経過するまでカーソルの移動速度は一定であり、時間T1が経過したら、カーソルの移動速度は最高速度となる。また、図10(b)では、ユーザがジョイスティックを倒した時点から時間T1が経過するまでカーソルの移動速度は一定であり、時間T1が経過したら、設定された最高速度に応じて時間と共に移動速度が増加し、最後は最高速度で一定となる。   The color, shape, and moving speed of the cursor on the measurement screen can be appropriately selected by the user by operating the menu screen shown in FIG. Regarding the moving speed of the cursor, it is possible to select the maximum speed from among three types of high speed, medium speed, and low speed. FIG. 10 shows the moving speed of the cursor. In FIG. 10A, the moving speed of the cursor is constant from the time when the user tilts the joystick until the time T1 elapses, and when the time T1 elapses, the moving speed of the cursor becomes the maximum speed. In FIG. 10B, the moving speed of the cursor is constant from the time when the user tilts the joystick until the time T1 elapses. When the time T1 elapses, the moving speed increases with time according to the set maximum speed. Increases at the end and remains constant at maximum speed.

以下、ステレオ計測の具体的な手順を説明する。まず、図11および図12を参照しながら第1の動作例を説明する。最初にCPU18は初期化を実行し、計測モードを設定する(ステップSS1)。このとき、CPU18は、ユーザによる操作部6の操作結果に応じて計測モードを設定する。続いて、CPU18は、RAM14に格納される2点目フラグに0を設定する(ステップSS2)。2点目フラグは、1点目の計測点が確定し、2点目の計測点の入力を行う状態であるか否かを示すフラグである。2点目フラグに0が設定されている場合には、1点目の計測点は確定していない。また、2点目フラグに1が設定されている場合には、1点目の計測点が確定しており、2点目の計測点の入力を行うことが可能である。   Hereinafter, a specific procedure for stereo measurement will be described. First, a first operation example will be described with reference to FIGS. First, the CPU 18 performs initialization and sets a measurement mode (step SS1). At this time, the CPU 18 sets the measurement mode according to the operation result of the operation unit 6 by the user. Subsequently, the CPU 18 sets 0 in the second flag stored in the RAM 14 (step SS2). The second point flag is a flag indicating whether or not the first measurement point is confirmed and the second measurement point is input. When 0 is set in the second point flag, the first measurement point is not fixed. Further, when 1 is set in the second point flag, the first measurement point is fixed and the second measurement point can be input.

続いて、CPU18は計測モードを判定する(ステップSS3)。計測モードが、面積計算等の重い処理を伴うモードに設定されている場合には、CPU18は面積計算等の計測を実行する(ステップSS4)。面積計算については、例えば特開2001−275934により公知であるため、説明を省略する。計測の実行後、ステレオ計測が終了する。また、計測モードが、軽い処理で実行可能な2点間計測に設定されている場合には、CPU18は、RS232C I/F17を介して操作部6から入力される信号を監視し、計測点入力用のジョイスティックが倒されているか否かを判定する(ステップSS5)。ステップSS5において、ジョイスティックが倒されている場合には、処理がステップSS6に進む。また、ジョイスティックが倒されていない場合には、処理がステップSS14に進む。   Subsequently, the CPU 18 determines the measurement mode (step SS3). When the measurement mode is set to a mode involving heavy processing such as area calculation, the CPU 18 performs measurement such as area calculation (step SS4). About area calculation, since it is well-known by Unexamined-Japanese-Patent No. 2001-275934, description is abbreviate | omitted. After the measurement is performed, the stereo measurement is finished. When the measurement mode is set to two-point measurement that can be executed by light processing, the CPU 18 monitors a signal input from the operation unit 6 via the RS232C I / F 17 and inputs the measurement point. It is determined whether or not the joystick for use is tilted (step SS5). If the joystick is tilted at step SS5, the process proceeds to step SS6. If the joystick is not tilted, the process proceeds to step SS14.

モニタ4には、内視鏡2で撮像された画像と共に、計測点入力用のカーソルが表示される。図11および図12では、カーソルの表示に関する処理は図示を省略している。CPU18は、操作メニューと共にカーソルを表示するためのグラフィック画像信号を生成し、カーソルの表示位置の情報と共に映像信号処理回路12へ出力する。映像信号処理回路12は、グラフィック画像信号とCCU9からの映像信号を合成し、表示信号を生成する。このとき、映像信号処理回路12は、CPU18から通知された表示位置にカーソルを表示するようにグラフィック画像信号と映像信号を合成する。   On the monitor 4, a measurement point input cursor is displayed together with an image captured by the endoscope 2. In FIG. 11 and FIG. 12, the processing related to cursor display is not shown. The CPU 18 generates a graphic image signal for displaying the cursor together with the operation menu, and outputs the graphic image signal to the video signal processing circuit 12 together with information on the display position of the cursor. The video signal processing circuit 12 combines the graphic image signal and the video signal from the CCU 9 to generate a display signal. At this time, the video signal processing circuit 12 synthesizes the graphic image signal and the video signal so that the cursor is displayed at the display position notified from the CPU 18.

このカーソルの示す位置が計測点の位置となる。計測点が確定する前の状態では、ユーザはジョイスティックの操作により、カーソルを自在に移動することが可能である。CPU18は、操作部6からの信号に基づいてジョイスティックの操作を監視し、ジョイスティックの操作に応じたカーソルの位置情報を取得する。CPU18は、取得した位置情報が示す位置にカーソルを表示するように映像信号処理回路12を制御する。CPU18が取得するカーソル位置情報は左画像上でのカーソル位置を示している。左画像上でのカーソル位置に対応した右画像上の位置は、後述するパターンマッチング処理で算出される。   The position indicated by the cursor is the position of the measurement point. In a state before the measurement point is determined, the user can freely move the cursor by operating the joystick. The CPU 18 monitors the operation of the joystick based on the signal from the operation unit 6 and acquires the position information of the cursor according to the operation of the joystick. The CPU 18 controls the video signal processing circuit 12 to display a cursor at the position indicated by the acquired position information. The cursor position information acquired by the CPU 18 indicates the cursor position on the left image. The position on the right image corresponding to the cursor position on the left image is calculated by pattern matching processing described later.

処理がステップSS6に進んだ場合、CPU18は、上記と同様のジョイスティックの監視により画像上のカーソル位置を取得する(ステップSS6)。CPU18が取得したカーソル位置の情報は、カーソル位置NOWとしてRAM14に格納される。続いて、CPU18は、カーソル位置NOWとしてRAM14に格納したカーソル位置の情報をカーソル位置OLDとしてRAM14に格納する(ステップSS7)。この時点では、カーソル位置NOWとカーソル位置OLDは同一である。続いて、カーソル位置NOWの3次元座標を算出する3次元座標解析が実行される(ステップSS8)。ステップSS8の詳細は後述する。   When the process proceeds to step SS6, the CPU 18 acquires the cursor position on the image by monitoring the joystick as described above (step SS6). The information on the cursor position acquired by the CPU 18 is stored in the RAM 14 as the cursor position NOW. Subsequently, the CPU 18 stores the information on the cursor position stored in the RAM 14 as the cursor position NOW in the RAM 14 as the cursor position OLD (step SS7). At this time, the cursor position NOW and the cursor position OLD are the same. Subsequently, a three-dimensional coordinate analysis for calculating the three-dimensional coordinates of the cursor position NOW is executed (step SS8). Details of step SS8 will be described later.

図14を参照して後述するが、ステップSS8で算出された3次元座標のうちZ座標は物体距離となる。CPU18は、物体距離を表示するため、物体距離を含むグラフィック画像信号を生成し、映像信号処理回路12へ出力する(ステップSS9)。これによって、物体距離が表示される。   As will be described later with reference to FIG. 14, the Z coordinate of the three-dimensional coordinates calculated in step SS8 is the object distance. In order to display the object distance, the CPU 18 generates a graphic image signal including the object distance and outputs it to the video signal processing circuit 12 (step SS9). Thereby, the object distance is displayed.

続いて、CPU18は、ジョイスティックの監視により画像上のカーソル位置を再度取得する(ステップSS10)。CPU18が取得したカーソル位置の情報により、RAM14内のカーソル位置NOWが更新される。続いて、CPU18は、カーソル位置NOW、カーソル位置OLD、2点目フラグをそれぞれRAM14から読み出し、カーソル位置NOWとカーソル位置OLDが異なり、かつ2点目フラグの値が1であるか否かを判定する(ステップSS11)。   Subsequently, the CPU 18 obtains the cursor position on the image again by monitoring the joystick (step SS10). The cursor position NOW in the RAM 14 is updated with the cursor position information acquired by the CPU 18. Subsequently, the CPU 18 reads the cursor position NOW, the cursor position OLD, and the second point flag from the RAM 14, respectively, and determines whether or not the cursor position NOW and the cursor position OLD are different and the value of the second point flag is 1. (Step SS11).

カーソル位置NOWとカーソル位置OLDが異なり、かつ2点目フラグの値が1であった場合には、処理がステップSS12に進む。すなわち、ステップSS6〜SS10の間にカーソルが移動せず、かつ1点目の計測点が確定している場合には、処理がステップSS12に進む。また、カーソル位置NOWとカーソル位置OLDが同一、または2点目フラグの値が0であった場合には、処理がステップSS14に進む。すなわち、ステップSS6〜SS10の間にカーソルが移動した場合、または1点目の計測点が確定していない場合には、処理がステップSS14に進む。   If the cursor position NOW and the cursor position OLD are different and the value of the second point flag is 1, the process proceeds to step SS12. That is, if the cursor does not move between steps SS6 to SS10 and the first measurement point is confirmed, the process proceeds to step SS12. If the cursor position NOW and the cursor position OLD are the same or the value of the second point flag is 0, the process proceeds to step SS14. That is, when the cursor moves between steps SS6 to SS10, or when the first measurement point is not fixed, the process proceeds to step SS14.

処理がステップSS12に進んだ場合、CPU18は、2点目の計測点の座標(左画像)を示す2点目座標としてカーソル位置NOWをRAM14に格納する(ステップSS12)。続いて、1点目および2点目の計測点の座標に基づいて2点間計測を行う計測処理が実行される(ステップSS13)。ステップSS13の詳細は後述する。   When the process proceeds to step SS12, the CPU 18 stores the cursor position NOW in the RAM 14 as the second coordinate indicating the coordinate (left image) of the second measurement point (step SS12). Subsequently, a measurement process for performing measurement between two points based on the coordinates of the first and second measurement points is executed (step SS13). Details of step SS13 will be described later.

続いて、CPU18は、計測点の確定のためにジョイスティックが押し込まれているか否かを判定する(ステップSS14)。ジョイスティックが押し込まれている場合には、処理がステップSS15に進む。また、ジョイスティックが押し込まれていない場合には、処理がステップSS20に進む。   Subsequently, the CPU 18 determines whether or not the joystick is pushed in to determine the measurement point (step SS14). If the joystick is pushed in, the process proceeds to step SS15. If the joystick has not been pushed, the process proceeds to step SS20.

処理がステップSS15に進んだ場合、CPU18は2点目フラグをRAM14から読み出し、2点目フラグの値が0であるか否かを判定する(ステップSS15)。2点目フラグの値が0であった場合(1点目の計測点が確定していない場合)には、処理がステップSS16に進む。2点目フラグが1であった場合(1点目の計測点が確定している場合)には、処理がステップSS18に進む。   When the process proceeds to step SS15, the CPU 18 reads the second point flag from the RAM 14 and determines whether or not the value of the second point flag is 0 (step SS15). When the value of the second point flag is 0 (when the first measurement point is not fixed), the process proceeds to step SS16. When the second point flag is 1 (when the first measurement point is confirmed), the process proceeds to step SS18.

処理がステップSS16に進んだ場合、ジョイスティックの押し込みにより1点目の計測点が確定する。このため、CPU18は、RAM14に格納されている2点目フラグに1を設定し(ステップSS16)、カーソル位置NOWとしてRAM14に格納されているカーソル位置の情報を、1点目の計測点の座標(左画像)を示す1点目座標としてRAM14に格納する(ステップSS17)。続いて、処理がステップSS20に進む。   When the process proceeds to step SS16, the first measurement point is determined by pushing the joystick. Therefore, the CPU 18 sets 1 to the second point flag stored in the RAM 14 (step SS16), and uses the cursor position information stored in the RAM 14 as the cursor position NOW as the coordinates of the first measurement point. The first point coordinates indicating (left image) are stored in the RAM 14 (step SS17). Subsequently, the process proceeds to step SS20.

この場合、CPU18は、1点目の計測点のアイコンを含むグラフィック画像信号を生成し、アイコンの表示位置の情報と共に映像信号処理回路12へ出力する。また、これ以降、CPU18は1点目の計測点を画像上で固定するため、1点目の計測点については計測点のアイコンを同一位置に表示するように映像信号処理回路12を制御する。さらに、CPU18は、2点目の計測点入力用のカーソルを表示するためのグラフィック画像信号を生成し、カーソルの表示位置の情報と共に映像信号処理回路12へ出力する。これにより、1点目の計測点が固定表示され、ユーザはジョイスティックの操作により、2点目の計測点を入力するため、カーソルを自在に移動することが可能となる。   In this case, the CPU 18 generates a graphic image signal including the icon of the first measurement point, and outputs it to the video signal processing circuit 12 together with information on the icon display position. Thereafter, since the CPU 18 fixes the first measurement point on the image, the video signal processing circuit 12 is controlled to display the measurement point icon at the same position for the first measurement point. Further, the CPU 18 generates a graphic image signal for displaying a cursor for inputting the second measurement point, and outputs the graphic image signal to the video signal processing circuit 12 together with information on the display position of the cursor. As a result, the first measurement point is fixedly displayed and the user inputs the second measurement point by operating the joystick, so that the cursor can be moved freely.

一方、処理がステップSS18に進んだ場合、ジョイスティックの押し込みにより2点目の計測点が確定する。このため、CPU18は、カーソル位置NOWとしてRAM14に格納されているカーソル位置の情報を2点目座標としてRAM14に格納する(ステップSS18)。この場合、CPU18は、2点目の計測点のアイコンを含むグラフィック画像信号を生成し、アイコンの表示位置の情報と共に映像信号処理回路12へ出力する。続いて、1点目および2点目の計測点の座標に基づいて2点間計測を行う計測処理が実行される(ステップSS19)。ステップSS19の詳細は後述する。続いて、処理がステップSS20に進む。   On the other hand, when the process proceeds to step SS18, the second measurement point is determined by pushing the joystick. For this reason, the CPU 18 stores the information on the cursor position stored in the RAM 14 as the cursor position NOW in the RAM 14 as the second coordinate (step SS18). In this case, the CPU 18 generates a graphic image signal including the icon of the second measurement point, and outputs the graphic image signal to the video signal processing circuit 12 together with the icon display position information. Subsequently, a measurement process for performing measurement between two points based on the coordinates of the first and second measurement points is executed (step SS19). Details of step SS19 will be described later. Subsequently, the process proceeds to step SS20.

ステップSS17およびステップSS19に続いて、CPU18は、メニュースイッチが操作されたか否かを判定する(ステップSS20)。メニュースイッチが操作されていない場合には、処理がステップSS22に進む。また、メニュースイッチが操作された場合には、CPU18は、メニューを変更するためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する(ステップSS21)。   Subsequent to step SS17 and step SS19, the CPU 18 determines whether or not the menu switch has been operated (step SS20). If the menu switch is not operated, the process proceeds to step SS22. When the menu switch is operated, the CPU 18 generates a graphic image signal for changing the menu and outputs it to the video signal processing circuit 12 (step SS21).

続いて、CPU18は、終了スイッチが操作されたか否かを判定する(ステップSS22)。終了スイッチが操作されていない場合には、処理がステップSS5に戻る。また、終了スイッチが操作された場合には、ステレオ計測が終了する。   Subsequently, the CPU 18 determines whether or not the end switch has been operated (step SS22). If the end switch has not been operated, the process returns to step SS5. Further, when the end switch is operated, the stereo measurement is ended.

上記の処理を簡単にまとめると以下のようになる。2点間計測では、まず1点目の計測点の入力が行われるが、その際にステップSS8の処理により、カーソル位置の3次元座標が算出され、ステップSS9で物体距離が表示される。ユーザがジョイスティックを押し込む操作を行うと、1点目の計測点が確定する。1点目の計測点が確定すると、続いて2点目の計測点の入力が行われる。2点目の計測点の入力の際にも、ステップSS8の処理により、カーソル位置の3次元座標が算出され、ステップSS9で物体距離が表示される。また、ステップSS13で計測処理が実行され、2点間距離が計測結果として表示される。2点目の計測点が確定すると、1点目の計測点の入力を再度行うことが可能となる。すなわち、上記の処理を繰り返し行うことにより、2点間計測を繰り返し行うことが可能である。   The above processing can be summarized as follows. In the measurement between two points, the first measurement point is first input. At that time, the three-dimensional coordinates of the cursor position are calculated by the process of step SS8, and the object distance is displayed in step SS9. When the user performs an operation of pushing the joystick, the first measurement point is determined. When the first measurement point is determined, the second measurement point is subsequently input. Also when inputting the second measurement point, the three-dimensional coordinates of the cursor position are calculated by the process of step SS8, and the object distance is displayed in step SS9. Moreover, a measurement process is performed in step SS13, and the distance between two points is displayed as a measurement result. When the second measurement point is determined, the first measurement point can be input again. That is, it is possible to repeatedly measure between two points by repeatedly performing the above processing.

次に、図13を参照しながら、ステップSS8(3次元座標解析)の詳細を説明する。まず、CPU18はパターンマッチング処理を実行して、左右の2画像(ステレオ画像)の対応点であるマッチングポイントを検出する(ステップSS81)。パターンマッチング処理の詳細は後述する。続いて、CPU18は、対応点の座標から左右の2画像のずれ量を求める(ステップSS82)。   Next, details of step SS8 (three-dimensional coordinate analysis) will be described with reference to FIG. First, the CPU 18 executes a pattern matching process to detect matching points that are corresponding points of the left and right two images (stereo images) (step SS81). Details of the pattern matching process will be described later. Subsequently, the CPU 18 obtains a shift amount between the left and right images from the coordinates of the corresponding points (step SS82).

続いて、CPU18は、対象としている点の3次元座標を算出する(ステップSS83)。以下、3次元座標解析の基本原理について、図14を用いて説明する。図14は、x,y,z軸をもつ3次元空間座標系上の左右の2画像の位置関係を示している。この図14には、被写体までの距離(物体距離)の計測対象となる点Pが撮像素子の右結像面28Rおよび左結像面28L上に結像した状態が示されている。図14において、点OR,OLを光学系の主点とし、距離fを焦点距離とし、点QR,QLを点Pの結像位置とし、距離Lを点OR−点OL間の距離とする。   Subsequently, the CPU 18 calculates the three-dimensional coordinates of the target point (step SS83). Hereinafter, the basic principle of the three-dimensional coordinate analysis will be described with reference to FIG. FIG. 14 shows the positional relationship between two left and right images on a three-dimensional spatial coordinate system having x, y, and z axes. FIG. 14 shows a state where a point P that is a measurement target of the distance to the subject (object distance) is imaged on the right imaging surface 28R and the left imaging surface 28L of the image sensor. In FIG. 14, the points OR and OL are the principal points of the optical system, the distance f is the focal length, the points QR and QL are the imaging positions of the point P, and the distance L is the distance between the point OR and the point OL.

図14において、直線QR−ORから(1)式が成立する。
x/xR={y−(L/2)}/{yR−(L/2)}=z/(−f) ・・・(1)
また、直線QL−OLから(2)式が成立する。
x/xL={y+(L/2)}/{yL+(L/2)}=z/(−f) ・・・(2)
この式をx,y,zについて解けば、点Pの三次元座標が得られる。これにより、内視鏡2の撮像面から被写体までの距離(物体距離)が求まる。実際は像伝送光学系27の効果により、左右2つの像の光線は折り曲げられて右結像面28Rと左結像面28Lの間隔はもっと小さくなるが、ここでは図を簡略にするために像伝送光学系27の効果を省いて図示している。
In FIG. 14, the equation (1) is established from the straight line QR-OR.
x / xR = {y− (L / 2)} / {yR− (L / 2)} = z / (− f) (1)
Moreover, Formula (2) is materialized from the straight line QL-OL.
x / xL = {y + (L / 2)} / {yL + (L / 2)} = z / (− f) (2)
If this equation is solved for x, y, z, the three-dimensional coordinates of the point P can be obtained. Thereby, the distance (object distance) from the imaging surface of the endoscope 2 to the subject is obtained. Actually, due to the effect of the image transmission optical system 27, the light beams of the two left and right images are bent, and the distance between the right imaging surface 28R and the left imaging surface 28L becomes smaller, but here, in order to simplify the drawing, the image transmission is performed. The effect of the optical system 27 is omitted for illustration.

図15はステップSS81のパターンマッチング処理の手順を示している。まず、CPU18は、パターンマッチングを行うパターンの大きさを示すパターンエリアの絞り込みを行う(ステップSS811)。本実施形態の例では、値kに対応したパターンエリアを設定する。すなわち、
k=1ではパターンエリアを35×35(ピクセル)、
k=2ではパターンエリアを23×23(ピクセル)、
k=3ではパターンエリアを11×11(ピクセル)、
とし、値kを小から大へ切り換えて領域を大から小へ絞り込んでいき、対応点検出の精度を上げるようにする。
FIG. 15 shows the procedure of the pattern matching process in step SS81. First, the CPU 18 narrows down a pattern area indicating the size of a pattern to be subjected to pattern matching (step SS811). In the example of this embodiment, a pattern area corresponding to the value k is set. That is,
When k = 1, the pattern area is 35 × 35 (pixels),
When k = 2, the pattern area is 23 × 23 (pixels),
When k = 3, the pattern area is 11 × 11 (pixels),
Then, the value k is switched from small to large to narrow the region from large to small so as to improve the accuracy of corresponding point detection.

続いて、CPU18は検索範囲を設定する。すなわち、パターンを探す右画像の領域を決定する(ステップSS82)。その検索範囲の設定には、エピポーララインに誤差を考慮してエピポーラライン±5ピクセル以内とする場合と、モニタ画面上で水平に±7ピクセル以内とする場合と、画面上で手動により指示された略マッチング点を中心に±10ピクセル以内とする場合がある。なお、上記±10ピクセルは、手動による誤差を考慮した最適な値である。   Subsequently, the CPU 18 sets a search range. That is, the area of the right image for searching for a pattern is determined (step SS82). In setting the search range, the epipolar line is set within ± 5 pixels in consideration of errors in the epipolar line, or within ± 7 pixels horizontally on the monitor screen, or manually specified on the screen. There are cases where the approximate matching point is within ± 10 pixels. The above ± 10 pixels is an optimum value in consideration of manual error.

続いて、CPU18は、設定した検索範囲でのパターンマッチングを行う(ステップSS83)。このパターンマッチングでは、正規化相互相関による対応点検出を行い、最も正規化相互相関係数(−1〜+1)の大きな座標(X,Y)を対応点とする。値kをインクリメントし、その値kに対応してパターンを絞り込みながら、かつ検索範囲内でパターンエリアを動かしながらパターンマッチングが繰り返し行われる。   Subsequently, the CPU 18 performs pattern matching within the set search range (step SS83). In this pattern matching, corresponding points are detected by normalized cross-correlation, and coordinates (X, Y) having the largest normalized cross-correlation coefficient (−1 to +1) are used as corresponding points. The pattern matching is repeatedly performed while incrementing the value k, narrowing down the pattern corresponding to the value k, and moving the pattern area within the search range.

パターンマッチングに利用する正規化相互相関関数M(u,v)には、一般的に以下の式を用いる。すなわち、t(x,y)をテンプレートとし、g(x,y)を画像データとし、t’をテンプレートの平均輝度とし、さらに、g’を画像の平均輝度として、以下の(3)式が適用される。ここで、ΣΣは画素の和をとることを表す。
M(u,v)={ΣΣ(g(x+u,y+v)−g’)(t(x,y)−t’)}/{ΣΣ(g(x+u,y+v)−g’)×ΣΣ(t(x,y)−t’)1/2 ・・・(3)
The following formula is generally used for the normalized cross-correlation function M (u, v) used for pattern matching. That is, t (x, y) is a template, g (x, y) is image data, t ′ is the average luminance of the template, and g ′ is the average luminance of the image. Applied. Here, ΣΣ S represents taking the sum of pixels.
M (u, v) = {ΣΣ S (g (x + u, y + v) −g ′) (t (x, y) −t ′)} / {ΣΣ S (g (x + u, y + v) −g ′) 2 × ΣΣ S (t (x, y) −t ′) 2 } 1/2 (3)

上記のパターンマッチングが終了すると、パターンマッチング処理が終了する。   When the pattern matching is finished, the pattern matching process is finished.

次に、図16を参照しながら、ステップSS13およびステップSS19(計測処理)の詳細を説明する。まず、CPU18は、1点目の計測点に対応した1点目座標をRAM14から読み出し(ステップSS131)、1点目座標を入力値とする3次元座標解析を実行する(ステップSS132)。ステップSS132の詳細な手順は、図13に示した通りである。   Next, details of Step SS13 and Step SS19 (measurement processing) will be described with reference to FIG. First, the CPU 18 reads the first coordinate corresponding to the first measurement point from the RAM 14 (step SS131), and executes a three-dimensional coordinate analysis using the first coordinate as an input value (step SS132). The detailed procedure of Step SS132 is as shown in FIG.

続いて、CPU18は、2点目の計測点に対応した2点目座標をRAM14から読み出し(ステップSS133)、2点目座標を入力値とする3次元座標解析を実行する(ステップSS134)。ステップSS134の詳細な手順は、図13に示した通りである。1点目および2点目の計測点の3次元座標が求まったので、CPU18は2つの計測点の2点間距離を算出する(ステップSS135)。さらに、CPU18は、算出した2点間距離を計測結果として表示するため、計測結果を含むグラフィック画像信号を生成し、映像信号処理回路12へ出力する(ステップSS136)。これによって、計測結果が表示され、計測処理が終了する。   Subsequently, the CPU 18 reads out the second coordinate corresponding to the second measurement point from the RAM 14 (step SS133), and executes a three-dimensional coordinate analysis using the second coordinate as an input value (step SS134). The detailed procedure of step SS134 is as shown in FIG. Since the three-dimensional coordinates of the first and second measurement points are obtained, the CPU 18 calculates the distance between the two measurement points (step SS135). Furthermore, in order to display the calculated distance between two points as a measurement result, the CPU 18 generates a graphic image signal including the measurement result and outputs the graphic image signal to the video signal processing circuit 12 (step SS136). As a result, the measurement result is displayed and the measurement process ends.

次に、図17を参照しながら、ステレオ計測の第2の動作例を説明する。図17に示す処理は、図11に示した処理を変形したものである。図17において、図11に示した処理と同一の処理には同一の符号を付与し、説明を省略する。ステップSS1の初期化では、タイマが起動される。ステップSS6でカーソル位置を取得した後、CPU18は、タイマが計測した時間を取得する(ステップSS31)。続いて、CPU18は、ステップSS31で取得した時間に基づいて、所定時間が経過したか否かを判定する(ステップSS32)。   Next, a second operation example of stereo measurement will be described with reference to FIG. The process shown in FIG. 17 is a modification of the process shown in FIG. In FIG. 17, the same processes as those shown in FIG. 11 are denoted by the same reference numerals, and description thereof is omitted. In initialization of step SS1, a timer is started. After acquiring the cursor position in step SS6, the CPU 18 acquires the time measured by the timer (step SS31). Subsequently, the CPU 18 determines whether or not a predetermined time has elapsed based on the time acquired in Step SS31 (Step SS32).

所定時間が経過していない場合には、処理がステップSS14に進む。また、所定時間が経過した場合には、CPU18はタイマをリセットする(ステップSS33)。続いて、処理はステップSS7に進む。上記以外の処理は、図11に示した処理と同様である。   If the predetermined time has not elapsed, the process proceeds to step SS14. If the predetermined time has elapsed, the CPU 18 resets the timer (step SS33). Subsequently, the process proceeds to Step SS7. Processing other than the above is the same as the processing shown in FIG.

上記の処理により、1点目の計測点が確定していて、カーソル位置OLDとカーソル位置NOWとが異なる(カーソルが動かされた)場合には、所定時間が経過する毎にステップSS13の計測処理が実行される。カーソルが移動可能な状態で計測とカーソルの描画を頻繁に行うと、CPU18の処理能力によっては、処理負荷の増加により描画処理が遅れる可能性がある。したがって、計測処理の実行タイミングを制御し、計測処理の実行頻度を下げることによって、処理負荷の増加を抑えることができる。   When the first measurement point is determined and the cursor position OLD is different from the cursor position NOW (the cursor is moved) by the above process, the measurement process of step SS13 is performed every time a predetermined time elapses. Is executed. If measurement and cursor drawing are frequently performed while the cursor is movable, the drawing process may be delayed due to an increase in processing load depending on the processing capability of the CPU 18. Therefore, an increase in the processing load can be suppressed by controlling the execution timing of the measurement process and reducing the execution frequency of the measurement process.

次に、図18を参照しながら、ステレオ計測の第3の動作例を説明する。図18に示す処理は、図11に示した処理を変形したものである。図18において、図11に示した処理と同一の処理には同一の符号を付与し、説明を省略する。ステップSS1の初期化では、タイマが起動される。ステップSS6でカーソル位置を取得した後、CPU18は、タイマが計測した時間を取得し、タイマをリセットする(ステップSS41)。続いて、CPU18は、カーソル位置NOWおよびカーソル位置OLDをRAM14から読み出し、両者から算出したカーソルの移動距離と、ステップSS41で取得した時間とからカーソルの移動速度を算出する(ステップSS42)。   Next, a third operation example of stereo measurement will be described with reference to FIG. The process shown in FIG. 18 is a modification of the process shown in FIG. In FIG. 18, the same processes as those shown in FIG. 11 are denoted by the same reference numerals, and the description thereof is omitted. In initialization of step SS1, a timer is started. After acquiring the cursor position in step SS6, the CPU 18 acquires the time measured by the timer and resets the timer (step SS41). Subsequently, the CPU 18 reads out the cursor position NOW and the cursor position OLD from the RAM 14, and calculates the cursor movement speed from the cursor movement distance calculated from both and the time acquired in step SS41 (step SS42).

続いて、CPU18は、ステップSS42で算出したカーソルの移動速度に基づいて、ズームウィンドウの倍率を設定する(ステップSS43)。例えば、カーソルの移動速度が速い場合には、倍率は低い値(×2など)に設定され、カーソルの移動速度が遅い場合には、倍率は高い値(×4など)に設定される。CPU18によって設定された倍率の情報は映像信号処理回路12へ出力される。映像信号処理回路12は、この倍率の情報に基づいて画像の拡大処理を行う。   Subsequently, the CPU 18 sets the zoom window magnification based on the moving speed of the cursor calculated in step SS42 (step SS43). For example, when the cursor moving speed is fast, the magnification is set to a low value (such as × 2), and when the cursor moving speed is slow, the magnification is set to a high value (such as × 4). Information on the magnification set by the CPU 18 is output to the video signal processing circuit 12. The video signal processing circuit 12 performs an image enlargement process based on the magnification information.

図19は、ズームウィンドウの倍率が×2から×4に変化したときの計測画面を示している。ズームウィンドウ1900,1901の倍率は×4となっている。また、カーソル1910,1911の周囲のエリア1912,1913の大きさは、図8に示したエリア812,813と比較して小さくなる。   FIG. 19 shows a measurement screen when the zoom window magnification changes from x2 to x4. The zoom windows 1900 and 1901 have a magnification of x4. Further, the sizes of the areas 1912 and 1913 around the cursors 1910 and 1911 are smaller than those of the areas 812 and 813 shown in FIG.

ステップSS43に続いて、ステップSS7の処理が実行される。ステップSS7に続いて、CPU18は、カーソルの移動速度が所定値以下であるか否かを判定する(ステップSS44)。カーソルの移動速度が所定値を超えている場合には、処理がステップSS14に進む。また、カーソルの移動速度が所定値以下であった場合には、処理がステップSS8に進む。上記の処理では、ステップSS44での判定にカーソルの移動速度を用いているが、所定時間毎にステップSS44での判定を行うようにし、その判定にカーソルの移動距離を用いてもよい。   Subsequent to step SS43, the process of step SS7 is executed. Subsequent to step SS7, the CPU 18 determines whether or not the moving speed of the cursor is equal to or lower than a predetermined value (step SS44). If the moving speed of the cursor exceeds the predetermined value, the process proceeds to step SS14. If the moving speed of the cursor is equal to or lower than the predetermined value, the process proceeds to step SS8. In the above processing, the moving speed of the cursor is used for the determination in step SS44. However, the determination in step SS44 may be performed every predetermined time, and the moving distance of the cursor may be used for the determination.

上記の処理により、1点目の計測点が確定している場合には、カーソルの移動速度が所定値以下となれば、ステップSS13の計測処理が実行される。カーソルが高速に移動している状態で計測とカーソルの描画を頻繁に行うと、CPU18の処理能力によっては、処理負荷の増加により描画処理が遅れる可能性がある。したがって、計測処理の実行タイミングを制御し、カーソルの移動速度が遅くなったときに計測処理を行うことによって、処理負荷の増加を抑えることができる。   When the first measurement point is determined by the above process, the measurement process of step SS13 is executed if the moving speed of the cursor becomes a predetermined value or less. If measurement and cursor drawing are frequently performed while the cursor is moving at high speed, drawing processing may be delayed due to an increase in processing load depending on the processing capacity of the CPU 18. Therefore, an increase in processing load can be suppressed by controlling the execution timing of the measurement process and performing the measurement process when the moving speed of the cursor becomes slow.

また、上記の処理により、カーソルの移動速度に応じてズームウィンドウの倍率が制御される。ズームウィンドウの倍率が高く、カーソルの移動速度が速い場合には、CPUの表示処理が追いつかず、カーソル位置での拡大画像を表示できなくなり、計測点の位置を決定する作業の効率が低下する可能性がある。したがって、カーソルの移動速度が速い場合にズームウィンドウの倍率を低く、カーソルの移動速度が遅い場合にズームウィンドウの倍率を高くすることによって、計測作業の効率を向上することができる。   Also, the zoom window magnification is controlled according to the moving speed of the cursor by the above processing. When the zoom window magnification is high and the cursor movement speed is fast, the CPU display process cannot catch up, and the enlarged image at the cursor position cannot be displayed, which may reduce the efficiency of determining the position of the measurement point. There is sex. Therefore, the efficiency of measurement work can be improved by reducing the zoom window magnification when the cursor movement speed is fast and increasing the zoom window magnification when the cursor movement speed is slow.

次に、図20を参照しながら、ステップSM(画像記録処理)の詳細を説明する。まず、CPU18は初期化を実行する(ステップSM1)。続いて、CPU18は、RAM14に格納される結果フラグに0を設定する(ステップSM2)。結果フラグは、画像記録時の計測結果の有無を示すフラグである。結果フラグに0が設定されている場合には、計測処理が実行されておらず、計測結果が存在しない。また、計測フラグに1が設定されている場合には、計測処理が実行されており、計測結果が存在する。   Next, details of step SM (image recording processing) will be described with reference to FIG. First, the CPU 18 performs initialization (step SM1). Subsequently, the CPU 18 sets 0 in the result flag stored in the RAM 14 (step SM2). The result flag is a flag indicating whether or not there is a measurement result at the time of image recording. When 0 is set in the result flag, the measurement process is not executed and no measurement result exists. If 1 is set in the measurement flag, the measurement process is executed and a measurement result exists.

続いて、CPU18は、RAM14に格納される計測点確定フラグに0を設定する(ステップSM3)。計測点確定フラグは、画像記録時に2点目の計測点が確定しているか否か(言い換えると、2点目の計測点を確定する操作が行われたか否か)を示すフラグである。計測点確定フラグに0が設定されている場合には、2点目の計測点が確定していない。また、計測点確定フラグに1が設定されている場合には、2点目の計測点が確定している。   Subsequently, the CPU 18 sets 0 to the measurement point determination flag stored in the RAM 14 (step SM3). The measurement point determination flag is a flag indicating whether or not the second measurement point is fixed at the time of image recording (in other words, whether or not an operation for determining the second measurement point is performed). When 0 is set in the measurement point determination flag, the second measurement point is not fixed. Further, when 1 is set in the measurement point determination flag, the second measurement point is fixed.

続いて、CPU18は計測結果の有無を判定する(ステップSM4)。計測結果がある場合には、処理がステップSM5に進む。また、計測結果がない場合には、処理がステップSM8に進む。処理がステップSM5に進んだ場合、CPU18は、RAM14に格納されている結果フラグに1を設定する(ステップSM5)。続いて、CPU18は2点目の計測点の確定の有無を判定する(ステップSM6)。2点目の計測点が確定している場合には、処理がステップSM7に進む。また、2点目の計測点が確定していない場合には、処理がステップSM8に進む。   Subsequently, the CPU 18 determines whether or not there is a measurement result (step SM4). If there is a measurement result, the process proceeds to step SM5. If there is no measurement result, the process proceeds to step SM8. When the process proceeds to step SM5, the CPU 18 sets 1 in the result flag stored in the RAM 14 (step SM5). Subsequently, the CPU 18 determines whether or not the second measurement point is fixed (step SM6). If the second measurement point is confirmed, the process proceeds to step SM7. If the second measurement point is not fixed, the process proceeds to step SM8.

処理がステップSM7に進んだ場合、CPU18は、RAM14に格納されている計測点確定フラグに1を設定する(ステップSM7)。続いて、処理がステップSM8に進む。処理がステップSM8に進んだ場合、CPU18はRAM14から各種フラグおよび各種座標を読み出す(ステップSM8)。続いて、CPU18は、映像信号処理回路12から取り込んだ画像データに対して、ステップSM8でRAM14から読み出した情報を含む付加情報を付加し、カード I/F15を介してメモリカード32に記録する(ステップSM9)。付加情報は、画像記録時の画面状態を示す情報である。画像データおよび付加情報の記録が終了すると、画像記録処理が終了する。   When the process proceeds to step SM7, the CPU 18 sets 1 to the measurement point determination flag stored in the RAM 14 (step SM7). Subsequently, the process proceeds to step SM8. When the process proceeds to step SM8, the CPU 18 reads various flags and various coordinates from the RAM 14 (step SM8). Subsequently, the CPU 18 adds additional information including information read from the RAM 14 in step SM8 to the image data captured from the video signal processing circuit 12, and records it in the memory card 32 via the card I / F 15 ( Step SM9). The additional information is information indicating a screen state at the time of image recording. When the recording of the image data and the additional information is finished, the image recording process is finished.

図21は付加情報の内容を示している。画像フラグは画像データの有無を示している。画像フラグの値が1の場合には画像データがあり、画像フラグの値が0の場合には画像データがない。結果フラグについては前述した通りであり、結果フラグの値が1の場合には計測結果があり、結果フラグの値が0の場合には計測結果がない。計測結果は、計測処理で算出された2点間距離等を示している。計測結果がない場合には0が格納され、計測結果がある場合には計測結果の数値が格納される。   FIG. 21 shows the contents of the additional information. The image flag indicates the presence or absence of image data. When the value of the image flag is 1, there is image data. When the value of the image flag is 0, there is no image data. The result flag is as described above. When the result flag value is 1, there is a measurement result, and when the result flag value is 0, there is no measurement result. The measurement result indicates the distance between the two points calculated by the measurement process. When there is no measurement result, 0 is stored, and when there is a measurement result, the numerical value of the measurement result is stored.

計測点確定フラグについては前述した通りであり、計測点確定フラグの値が1の場合には2点目の計測点が確定しており、計測点確定フラグの値が0の場合には2点目の計測点が確定していない。1点目座標および2点目座標はそれぞれ1点目、2点目の計測点の2次元座標である。計測点の2次元座標がない場合には0が格納され、計測点の2次元座標がある場合には座標値が格納される。現在カーソル座標はカーソル位置NOWの座標である。   The measurement point determination flag is as described above. When the value of the measurement point determination flag is 1, the second measurement point is fixed, and when the value of the measurement point determination flag is 0, two points are determined. Eye measurement points are not fixed. The first point coordinate and the second point coordinate are two-dimensional coordinates of the first and second measurement points, respectively. If there is no two-dimensional coordinate of the measurement point, 0 is stored, and if there is a two-dimensional coordinate of the measurement point, a coordinate value is stored. The current cursor coordinates are the coordinates of the cursor position NOW.

図21(a)は、計測結果がない場合の付加情報の内容を示している。画像フラグの値は1であるが、それ以外の結果フラグ等の値は0である。図21(b)は、2点目の計測点が確定している場合の付加情報の内容を示している。2点目の計測点が確定しているため、計測点確定フラグの値は1である。また、1点目座標および2点目座標にはそれぞれ1点目、2点目の計測点の2次元座標が格納されている。また、2点目の計測点が確定したことにより、計測点入力用のカーソルが表示されなくなるため、現在カーソル座標の値は0である。また、2点目の計測点が確定しているため、計測処理が実行され、計測結果が格納されている。   FIG. 21A shows the contents of the additional information when there is no measurement result. The value of the image flag is 1, but the values of the other result flags and the like are 0. FIG. 21B shows the content of the additional information when the second measurement point is fixed. Since the second measurement point is fixed, the value of the measurement point determination flag is 1. Further, the first coordinate and the second coordinate store the two-dimensional coordinates of the first and second measurement points, respectively. In addition, since the measurement point input cursor is not displayed when the second measurement point is confirmed, the current cursor coordinate value is zero. Further, since the second measurement point is fixed, the measurement process is executed and the measurement result is stored.

図21(c)は、2点目の計測点が確定していない場合の付加情報の内容を示している。2点目の計測点が確定していないため、計測結果確定フラグの値は0であり、1点目座標には1点目の計測点の2次元座標が格納されているが、2点目座標には0が格納されている。また、2点目の計測点入力用のカーソルが表示されているため、現在カーソル座標には画像記録時のカーソルの2次元座標が格納されている。また、2点間計測では、2点目が確定していなくても計測処理が実行されるため、計測結果が格納されている。   FIG. 21C shows the content of the additional information when the second measurement point is not fixed. Since the second measurement point is not fixed, the value of the measurement result determination flag is 0, and the two-dimensional coordinates of the first measurement point are stored in the first point coordinate. 0 is stored in the coordinates. Since the cursor for inputting the second measurement point is displayed, the two-dimensional coordinates of the cursor at the time of image recording are stored in the current cursor coordinates. In the measurement between two points, since the measurement process is executed even if the second point is not fixed, the measurement result is stored.

上記の画像記録処理によって、画像記録時の計測点の確定の有無やカーソルの位置等の画面状態を画像と共に記録することができる。   By the image recording process described above, it is possible to record the screen state such as the presence / absence of the measurement point at the time of image recording and the position of the cursor together with the image.

次に、図22を参照しながら、ステップSO(画像再生処理)の詳細を説明する。まず、CPU18は初期化を実行する(ステップSO1)。続いて、CPU18は、カード I/F15を介してメモリカード32から付加情報を読み出し、付加情報中の結果フラグの値が1であるか否かを判定する(ステップSO2)。結果フラグの値が1であった場合(計測結果がある場合)には、処理がステップSO3に進む。また、結果フラグの値が0であった場合(計測結果がない場合)には、処理がステップSO6に進む。   Next, details of step SO (image reproduction processing) will be described with reference to FIG. First, the CPU 18 performs initialization (step SO1). Subsequently, the CPU 18 reads additional information from the memory card 32 via the card I / F 15 and determines whether or not the value of the result flag in the additional information is 1 (step SO2). If the value of the result flag is 1 (when there is a measurement result), the process proceeds to step SO3. If the value of the result flag is 0 (when there is no measurement result), the process proceeds to step SO6.

処理がステップSO3に進んだ場合、CPU18は、付加情報中の計測点確定フラグの値が1であるか否かを判定する(ステップSO3)。計測点確定フラグの値が1であった場合(2点目の計測点が確定している場合)には、処理がステップSO4に進む。また、計測点確定フラグの値が0であった場合(2点目の計測点が確定していない場合)には、処理がステップSO5に進む。   When the process proceeds to step SO3, the CPU 18 determines whether or not the value of the measurement point determination flag in the additional information is 1 (step SO3). When the value of the measurement point determination flag is 1 (when the second measurement point is fixed), the process proceeds to step SO4. If the value of the measurement point determination flag is 0 (when the second measurement point is not fixed), the process proceeds to step SO5.

処理がステップSO4に進んだ場合、CPU18は、カード I/F15を介してメモリカード32から画像データを読み出し、映像信号処理回路12へ出力する。また、CPU18は、付加情報に基づいて、操作メニューや、計測結果、計測点のアイコン等を表示するためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する(ステップSO4)。これによって、画像と共に操作メニューや、計測結果、計測点のアイコン等がモニタ4に表示される。このとき、CPU18は、付加情報中の1点目座標および2点目座標が示す位置に1点目および2点目の計測点のアイコンを固定表示するように映像信号処理回路12を制御する。   When the process proceeds to step SO4, the CPU 18 reads out the image data from the memory card 32 via the card I / F 15 and outputs it to the video signal processing circuit 12. Further, based on the additional information, the CPU 18 generates a graphic image signal for displaying an operation menu, a measurement result, a measurement point icon, and the like, and outputs the graphic image signal to the video signal processing circuit 12 (step SO4). As a result, an operation menu, measurement results, measurement point icons, and the like are displayed on the monitor 4 together with the image. At this time, the CPU 18 controls the video signal processing circuit 12 so that the icons of the first measurement point and the second measurement point are fixedly displayed at the positions indicated by the first coordinate and the second coordinate in the additional information.

処理がステップSO5に進んだ場合、CPU18は、カード I/F15を介してメモリカード32から画像データを読み出し、映像信号処理回路12へ出力する。また、CPU18は、付加情報に基づいて、操作メニューや、計測結果、カーソル、計測点のアイコン等を表示するためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する(ステップSO5)。これによって、画像と共に操作メニューや、計測結果、カーソル、計測点のアイコン等がモニタ4に表示される。このとき、CPU18は、付加情報中の1点目座標が示す位置に1点目の計測点のアイコンを固定表示し、付加情報中の現在カーソル座標が示す位置にカーソルを表示するように映像信号処理回路12を制御する。この後、ユーザがジョイスティックを操作すれば、その操作に応じてカーソルが移動する。   When the process proceeds to step SO5, the CPU 18 reads out the image data from the memory card 32 via the card I / F 15 and outputs it to the video signal processing circuit 12. Further, based on the additional information, the CPU 18 generates a graphic image signal for displaying an operation menu, a measurement result, a cursor, a measurement point icon, etc., and outputs the graphic image signal to the video signal processing circuit 12 (step SO5). As a result, an operation menu, a measurement result, a cursor, a measurement point icon, and the like are displayed on the monitor 4 together with the image. At this time, the CPU 18 fixes and displays the icon of the first measurement point at the position indicated by the first coordinate in the additional information, and displays the cursor at the position indicated by the current cursor coordinate in the additional information. The processing circuit 12 is controlled. Thereafter, when the user operates the joystick, the cursor moves in accordance with the operation.

処理がステップSO6に進んだ場合、CPU18は、カード I/F15を介してメモリカード32から画像データを読み出し、映像信号処理回路12へ出力する。また、CPU18は、付加情報に基づいて、操作メニューやカーソル等を表示するためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する(ステップSO6)。これによって、画像と共に操作メニューやカーソル等がモニタ4に表示される。このとき、CPU18は、所定のデフォルト位置にカーソルを表示するように映像信号処理回路12を制御する。この後、ユーザがジョイスティックを操作すれば、その操作に応じてカーソルが移動する。ステップS01〜S06が終了すると、画像再生処理が終了する。   When the processing proceeds to step SO6, the CPU 18 reads out the image data from the memory card 32 via the card I / F 15 and outputs it to the video signal processing circuit 12. Further, the CPU 18 generates a graphic image signal for displaying an operation menu, a cursor, etc. based on the additional information, and outputs it to the video signal processing circuit 12 (step SO6). As a result, an operation menu, a cursor, and the like are displayed on the monitor 4 together with the image. At this time, the CPU 18 controls the video signal processing circuit 12 to display a cursor at a predetermined default position. Thereafter, when the user operates the joystick, the cursor moves in accordance with the operation. When steps S01 to S06 are finished, the image reproduction process is finished.

図23は、画像再生処理によりモニタ4に表示される画面を示している。図23(a)は、2点目の計測点が確定している場合の画面を示している。1点目の計測点2300,2301および2点目の計測点2310,2311の位置には、確定した計測点を示す「×」印のアイコンが表示される。また、カーソルが計測点2310,2311の位置に表示され、次の2点間計測のために1点目の計測点を入力することが可能となる。図23(b)は、2点目の計測点が確定していない場合の画面を示している。1点目の計測点2302,2303の位置には、確定した計測点を示す「×」印のアイコンが表示される。また、2点目の計測点の入力を行うためのカーソル2320,2321が表示される。   FIG. 23 shows a screen displayed on the monitor 4 by the image reproduction process. FIG. 23A shows a screen when the second measurement point is fixed. At the positions of the first measurement points 2300 and 2301 and the second measurement points 2310 and 2311, icons of “x” marks indicating the determined measurement points are displayed. Further, the cursor is displayed at the positions of the measurement points 2310 and 2311, and the first measurement point can be input for the next measurement between the two points. FIG. 23B shows a screen when the second measurement point is not fixed. At the positions of the first measurement points 2302 and 2303, an “x” mark icon indicating the determined measurement point is displayed. In addition, cursors 2320 and 2321 for inputting the second measurement point are displayed.

上記の画像再生処理によって、画像記録前の画面状態を再現し、ユーザが続けて計測のための操作を行うことができる。なお、右画像上の計測点の座標については、左画像上の計測点の座標からパターンマッチング処理により算出してもよいし、右画像上の計測点の座標も付加情報に含めて画像と共に記録してもよい。   By the above-described image reproduction process, the screen state before image recording can be reproduced, and the user can continuously perform an operation for measurement. Note that the coordinates of the measurement points on the right image may be calculated by pattern matching processing from the coordinates of the measurement points on the left image, or the coordinates of the measurement points on the right image are included in the additional information and recorded together with the image. May be.

次に、本実施形態の変形例を説明する。2点間計測の他に、2点間を結ぶ基準線に対して1点から下ろした垂線の長さを計測する線基準計測でもリアルタイムに計測を行うことが可能である。図24は、線基準計測時にモニタ4に表示される画面を示している。前述した手順と同様にして、ユーザが計測点2400,2401を確定する操作を行うと、計測点2400,2401を結ぶ基準線2410が描かれる。基準線2410を決定する際には、確定した1点目の計測点とカーソル位置との2点間距離がリアルタイムに算出され、計測結果2430として表示される。計測点2400,2401の確定後、ユーザがジョイスティックの操作によりカーソル2420を移動させると、カーソル2420の位置から基準線2410に下ろした垂線2411の長さが算出され、計測結果2430として表示される。   Next, a modification of this embodiment will be described. In addition to measurement between two points, it is also possible to perform measurement in real time by line reference measurement that measures the length of a perpendicular drawn from one point with respect to a reference line connecting two points. FIG. 24 shows a screen displayed on the monitor 4 at the time of line reference measurement. When the user performs an operation of determining the measurement points 2400 and 2401 in the same manner as described above, a reference line 2410 connecting the measurement points 2400 and 2401 is drawn. When the reference line 2410 is determined, the distance between two points between the determined first measurement point and the cursor position is calculated in real time and displayed as a measurement result 2430. When the user moves the cursor 2420 by operating the joystick after the measurement points 2400 and 2401 are determined, the length of the perpendicular line 2411 drawn from the position of the cursor 2420 to the reference line 2410 is calculated and displayed as a measurement result 2430.

また、処理能力の高い装置(パーソナルコンピュータ等)の使用により面積計算をリアルタイムに行うことが可能な場合にも、本実施形態の計測方法を適用することが可能である。図25は、面積計算時にモニタ4に表示される画面を示している。前述した手順と同様にして、ユーザは計測点2500,2501,2502,2503を確定する操作を行う。ユーザがジョイスティックの操作により所望の位置にカーソルを移動させ、計測点を確定する操作を行うと、その位置に計測点が固定表示され、次の計測点を入力するためのカーソルが表示される。また、最後に確定した計測点とカーソル位置との2点間距離がリアルタイムに算出され、計測結果2530として表示される。   In addition, the measurement method of the present embodiment can be applied even when area calculation can be performed in real time by using an apparatus (such as a personal computer) with high processing capability. FIG. 25 shows a screen displayed on the monitor 4 during area calculation. Similar to the above-described procedure, the user performs an operation of determining the measurement points 2500, 2501, 2502, 2503. When the user moves the cursor to a desired position by operating the joystick and performs an operation for determining the measurement point, the measurement point is fixedly displayed at that position, and a cursor for inputting the next measurement point is displayed. Also, the distance between the two points between the last determined measurement point and the cursor position is calculated in real time and displayed as a measurement result 2530.

5点目の計測点を入力するためのカーソル2510および4点目の計測点2503を結ぶ線分2520が、1点目の計測点2500および2点目の計測点2501を結ぶ線分2521と交差すると、面積計算の対象となる閉領域が確定する。この閉領域は、線分2521,2522,2523,2524で囲まれた領域である。線分2524は閉領域の説明のために図示しているが、他の線分と同様に画面上に表示してもよい。閉領域が確定すると、閉領域の面積が算出され、計測結果2531として表示される。   A line segment 2520 connecting the cursor 2510 for inputting the fifth measurement point and the fourth measurement point 2503 intersects with a line segment 2521 connecting the first measurement point 2500 and the second measurement point 2501. Then, a closed region that is an area calculation target is determined. This closed region is a region surrounded by line segments 2521, 2522, 2523, and 2524. Although the line segment 2524 is illustrated for explaining the closed region, it may be displayed on the screen in the same manner as other line segments. When the closed region is confirmed, the area of the closed region is calculated and displayed as a measurement result 2531.

上述したように、本実施形態によれば、確定していない計測点と、確定した計測点との両方に基づいて計測を実行することが可能となる。これによって、計測点を確定する操作(ジョイスティックの押し込み操作)が減るので、操作の負担を軽減し、計測作業の効率を向上することができる。   As described above, according to the present embodiment, it is possible to execute measurement based on both the measurement points that are not fixed and the measurement points that are fixed. As a result, since the operation for determining the measurement point (joystick push-in operation) is reduced, the operation burden can be reduced and the efficiency of the measurement work can be improved.

また、2点間計測のように軽い処理で実行可能な計測を行う場合には、確定していない計測点と、確定した計測点との両方に基づいて計測を実行することによって、計測作業の効率を向上することができる。さらに、面積計算のように重い処理が必要な計測を行う場合には、確定した計測点のみに基づいて計測を実行することによって、計測を頻繁に行うことによる処理負荷の増加を抑えることができる。   In addition, when performing measurements that can be performed with a light process, such as measuring between two points, measurement is performed based on both the measurement points that have not been confirmed and the measurement points that have been confirmed. Efficiency can be improved. Furthermore, when performing measurement that requires heavy processing, such as area calculation, the increase in processing load due to frequent measurement can be suppressed by performing measurement based only on the determined measurement points. .

また、画像記録時に画面状態を画像データと共に記録し、画像再生時にその画面状態を再現することによって、計測作業の効率を維持することができる。   Further, the efficiency of the measurement work can be maintained by recording the screen state together with the image data at the time of image recording and reproducing the screen state at the time of image reproduction.

また、タイマから取得した時間、またはカーソルの移動速度に基づいて計測の実行タイミングを制御することによって、計測を頻繁に行うことによる処理負荷の増加を抑えることができる。   Also, by controlling the measurement execution timing based on the time acquired from the timer or the moving speed of the cursor, it is possible to suppress an increase in processing load due to frequent measurement.

また、カーソルの移動速度に応じてズームウィンドウの倍率を制御し、カーソルの移動速度が速い場合にズームウィンドウの倍率を低く、カーソルの移動速度が遅い場合にズームウィンドウの倍率を高くすることによって、計測作業の効率を向上することができる。   Also, by controlling the zoom window magnification according to the cursor movement speed, lowering the zoom window magnification when the cursor movement speed is fast, and increasing the zoom window magnification when the cursor movement speed is slow, The efficiency of measurement work can be improved.

以上、図面を参照して本発明の実施形態について詳述してきたが、具体的な構成は上記の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。   As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to the above-described embodiments, and includes design changes and the like without departing from the gist of the present invention. .

本発明の一実施形態による計測用内視鏡装置の全体構成を示す斜視図である。1 is a perspective view showing an overall configuration of a measurement endoscope apparatus according to an embodiment of the present invention. 本発明の一実施形態による計測用内視鏡装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the endoscope apparatus for measurement by one Embodiment of this invention. 本発明の一実施形態による計測用内視鏡装置が有する内視鏡の挿入部の先端部の斜視図である。It is a perspective view of the front-end | tip part of the insertion part of the endoscope which the endoscope apparatus for measurement by one Embodiment of this invention has. 本発明の一実施形態による計測用内視鏡装置が有する内視鏡の挿入部の先端部の断面図である。It is sectional drawing of the front-end | tip part of the insertion part of the endoscope which the endoscope apparatus for measurement by one Embodiment of this invention has. 本発明の一実施形態による計測用内視鏡装置に適用される光学アダプタに特有の光学データを測定する様子を示す斜視図である。It is a perspective view which shows a mode that the optical data peculiar to the optical adapter applied to the endoscope apparatus for measurement by one Embodiment of this invention are measured. 本発明の一実施形態による計測用内視鏡装置の表示画面を示す参考図である。It is a reference figure showing the display screen of the endoscope apparatus for measurement by one embodiment of the present invention. 本発明の一実施形態による計測用内視鏡装置の全体動作の手順を示すフローチャートである。It is a flowchart which shows the procedure of the whole operation | movement of the endoscope apparatus for measurement by one Embodiment of this invention. 本発明の一実施形態による計測用内視鏡装置の計測画面を示す参考図である。It is a reference figure showing the measurement screen of the endoscope apparatus for measurement by one embodiment of the present invention. 本発明の一実施形態による計測用内視鏡装置のメニュー画面を示す参考図である。It is a reference figure showing a menu screen of a measuring endoscope apparatus by one embodiment of the present invention. 本発明の一実施形態におけるカーソルの移動速度を示す参考図である。It is a reference figure which shows the moving speed of the cursor in one Embodiment of this invention. 本発明の一実施形態による計測用内視鏡装置が実行するステレオ計測の手順を示すフローチャートである。It is a flowchart which shows the procedure of the stereo measurement which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態による計測用内視鏡装置が実行するステレオ計測の手順を示すフローチャートである。It is a flowchart which shows the procedure of the stereo measurement which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態による計測用内視鏡装置が実行する3次元座標解析の手順を示すフローチャートである。It is a flowchart which shows the procedure of the three-dimensional coordinate analysis which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態における3次元座標解析の基本原理を示す参考図である。It is a reference figure which shows the basic principle of the three-dimensional coordinate analysis in one Embodiment of this invention. 本発明の一実施形態による計測用内視鏡装置が実行するパターンマッチング処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the pattern matching process which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態による計測用内視鏡装置が実行する計測処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the measurement process which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態による計測用内視鏡装置が実行するステレオ計測の手順を示すフローチャートである。It is a flowchart which shows the procedure of the stereo measurement which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態による計測用内視鏡装置が実行するステレオ計測の手順を示すフローチャートである。It is a flowchart which shows the procedure of the stereo measurement which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態による計測用内視鏡装置の計測画面を示す参考図である。It is a reference figure showing the measurement screen of the endoscope apparatus for measurement by one embodiment of the present invention. 本発明の一実施形態による計測用内視鏡装置が実行する画像記録処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image recording process which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態における付加情報の内容を示す参考図である。It is a reference figure which shows the content of the additional information in one Embodiment of this invention. 本発明の一実施形態による計測用内視鏡装置が実行する画像再生処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image reproduction process which the endoscope apparatus for measurement by one Embodiment of this invention performs. 本発明の一実施形態による計測用内視鏡装置の再生画面を示す参考図である。It is a reference figure showing the reproduction screen of the endoscope apparatus for measurement by one embodiment of the present invention. 本発明の一実施形態による計測用内視鏡装置の計測画面を示す参考図である。It is a reference figure showing the measurement screen of the endoscope apparatus for measurement by one embodiment of the present invention. 本発明の一実施形態による計測用内視鏡装置の計測画面を示す参考図である。It is a reference figure showing the measurement screen of the endoscope apparatus for measurement by one embodiment of the present invention.

符号の説明Explanation of symbols

1・・・計測用内視鏡装置、2・・・内視鏡、3・・・装置本体、4・・・モニタ、5・・・筐体、6・・・操作部(位置情報入力部、確定指示入力部)、8・・・内視鏡ユニット、9・・・CCU(撮像信号処理部)、10・・・制御ユニット、12・・・映像信号処理回路(表示信号生成部)、18・・・CPU(計測部、表示制御部、計測制御部、モード切替部、記録部、読出部)、20・・・挿入部、21・・・先端部、22・・・湾曲部、23・・・可撓管部、28・・・撮像素子   DESCRIPTION OF SYMBOLS 1 ... Measuring endoscope apparatus, 2 ... Endoscope, 3 ... Apparatus main body, 4 ... Monitor, 5 ... Housing | casing, 6 ... Operation part (position information input part) , Confirmation instruction input unit), 8 ... endoscope unit, 9 ... CCU (imaging signal processing unit), 10 ... control unit, 12 ... video signal processing circuit (display signal generation unit), 18 ... CPU (measurement unit, display control unit, measurement control unit, mode switching unit, recording unit, reading unit), 20 ... insertion unit, 21 ... tip portion, 22 ... curving unit, 23 ... Flexible tube, 28 ... Image sensor

Claims (8)

被写体像を光電変換し撮像信号を生成する内視鏡と、前記撮像信号を処理し画像データを生成する撮像信号処理部と、前記画像データを用いて三角測量の原理による計測を実行する計測部と、前記画像データに基づく画像を表示するための表示信号を生成する表示信号生成部とを備えた計測用内視鏡装置において、
画像上の計測位置を示す位置情報を入力するための位置情報入力部と、
前記計測位置の確定指示を入力するための確定指示入力部と、
前記位置情報入力部に入力された前記位置情報が示す位置に目印を表示し、前記確定指示入力部に前記確定指示が入力された場合には表示中の目印の位置を固定すると共に次の目印を表示するように前記表示信号生成部を制御する表示制御部と、
前記確定指示が入力されていない前記計測位置と、前記確定指示が入力された前記計測位置との両方に基づいて計測を実行するように前記計測部を制御する計測制御部と、
をさらに備えたことを特徴とする計測用内視鏡装置。
An endoscope that photoelectrically converts a subject image to generate an imaging signal, an imaging signal processing unit that processes the imaging signal to generate image data, and a measurement unit that performs measurement based on the principle of triangulation using the image data And a measurement endoscope apparatus comprising a display signal generation unit that generates a display signal for displaying an image based on the image data,
A position information input unit for inputting position information indicating a measurement position on the image;
A confirmation instruction input unit for inputting a confirmation instruction of the measurement position;
A mark is displayed at the position indicated by the position information input to the position information input unit. When the confirmation instruction is input to the confirmation instruction input unit, the position of the currently displayed mark is fixed and the next mark is displayed. A display control unit for controlling the display signal generation unit to display
A measurement control unit that controls the measurement unit to perform measurement based on both the measurement position where the confirmation instruction is not input and the measurement position where the confirmation instruction is input;
An endoscope apparatus for measurement, further comprising:
前記確定指示が入力されていない前記計測位置と、前記確定指示が入力された前記計測位置との両方に基づいて前記計測部が計測を実行する第1の計測モードと、前記確定指示が入力された前記計測位置のみに基づいて前記計測部が計測を実行する第2の計測モードとを切り替えるモード切替部をさらに備えたことを特徴とする請求項1に記載の計測用内視鏡装置。   A first measurement mode in which the measurement unit performs measurement based on both the measurement position where the confirmation instruction is not input and the measurement position where the confirmation instruction is input, and the confirmation instruction is input. The measurement endoscope apparatus according to claim 1, further comprising a mode switching unit that switches between a second measurement mode in which the measurement unit performs measurement based only on the measurement position. 表示中の目印に関する前記位置情報、表示中の目印に関する前記確定指示の入力の有無を示す状態情報、および前記画像データを記録媒体に記録する記録部をさらに備えたことを特徴とする請求項1または請求項2に記載の計測用内視鏡装置。   2. The recording apparatus according to claim 1, further comprising: a recording unit that records the position information regarding the currently displayed mark, status information indicating whether or not the confirmation instruction is input regarding the currently displayed mark, and the image data on a recording medium. Or the endoscope apparatus for measurement of Claim 2. 前記位置情報、前記状態情報、および前記画像データを前記記録媒体から読み出す読出部をさらに備え、
前記表示制御部はさらに、前記記録媒体から読み出された前記位置情報が示す位置に目印を表示し、前記確定指示が入力された目印の位置を固定し、前記確定指示が入力されていない目印の位置を、前記位置情報入力部に入力された前記位置情報が示す位置に更新するように前記表示信号生成部を制御する
ことを特徴とする請求項3に記載の計測用内視鏡装置。
A reading unit that reads the position information, the state information, and the image data from the recording medium;
The display control unit further displays a mark at a position indicated by the position information read from the recording medium, fixes a position of the mark where the confirmation instruction is input, and a mark where the confirmation instruction is not input The measurement endoscope apparatus according to claim 3, wherein the display signal generation unit is controlled to update the position of the display signal to a position indicated by the position information input to the position information input unit.
前記計測制御部はさらに、所定のタイミングからの経過時間に基づいて、前記計測部が計測を実行するタイミングを制御することを特徴とする請求項1〜請求項4のいずれかに記載の計測用内視鏡装置。   The measurement control unit according to any one of claims 1 to 4, wherein the measurement control unit further controls a timing at which the measurement unit executes measurement based on an elapsed time from a predetermined timing. Endoscopic device. 前記計測制御部はさらに、前記位置情報入力部に入力された前記位置情報が示す位置の移動速度に基づいて、前記計測部が計測を実行するタイミングを制御することを特徴とする請求項1〜請求項4のいずれかに記載の計測用内視鏡装置。   The said measurement control part further controls the timing which the said measurement part performs a measurement based on the moving speed of the position which the said positional information which was input into the said positional information input part shows. The measurement endoscope apparatus according to claim 4. 前記表示信号生成部は、前記画像データに基づいて、前記位置情報入力部に入力された前記位置情報が示す位置の画像を表示するための前記表示信号を生成し、
前記表示制御部はさらに、前記位置情報入力部に入力された前記位置情報が示す位置の移動速度に応じて、前記位置情報が示す位置の画像の表示倍率を制御する
ことを特徴とする請求項1〜請求項6のいずれかに記載の計測用内視鏡装置。
The display signal generation unit generates the display signal for displaying an image at a position indicated by the position information input to the position information input unit based on the image data,
The display control unit further controls a display magnification of an image at a position indicated by the position information in accordance with a moving speed of the position indicated by the position information input to the position information input unit. The measurement endoscope apparatus according to any one of claims 1 to 6.
被写体像を光電変換し撮像信号を生成する内視鏡と、前記撮像信号を処理し画像データを生成する撮像信号処理部と、前記画像データを用いて三角測量の原理による計測を実行する計測部と、前記画像データに基づく画像を表示するための表示信号を生成する表示信号生成部とを備えた計測用内視鏡装置を制御するコンピュータを、
画像上の計測位置を示す位置情報を入力するための位置情報入力部と、
前記計測位置の確定指示を入力するための確定指示入力部と、
前記位置情報入力部に入力された前記位置情報が示す位置に目印を表示し、前記確定指示入力部に前記確定指示が入力された場合には表示中の目印の位置を固定すると共に次の目印を表示するように前記表示信号生成部を制御する表示制御部と、
前記確定指示が入力されていない前記計測位置と、前記確定指示が入力された前記計測位置との両方に基づいて計測を実行するように前記計測部を制御する計測制御部と、
として機能させるためのプログラム。
An endoscope that photoelectrically converts a subject image to generate an imaging signal, an imaging signal processing unit that processes the imaging signal to generate image data, and a measurement unit that performs measurement based on the principle of triangulation using the image data And a computer that controls the measurement endoscope apparatus, including a display signal generation unit that generates a display signal for displaying an image based on the image data.
A position information input unit for inputting position information indicating a measurement position on the image;
A confirmation instruction input unit for inputting a confirmation instruction of the measurement position;
A mark is displayed at the position indicated by the position information input to the position information input unit. When the confirmation instruction is input to the confirmation instruction input unit, the position of the currently displayed mark is fixed and the next mark is displayed. A display control unit for controlling the display signal generation unit to display
A measurement control unit that controls the measurement unit to perform measurement based on both the measurement position where the confirmation instruction is not input and the measurement position where the confirmation instruction is input;
Program to function as.
JP2008105521A 2008-04-15 2008-04-15 Endoscope device for measurement and program Expired - Fee Related JP5073564B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008105521A JP5073564B2 (en) 2008-04-15 2008-04-15 Endoscope device for measurement and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008105521A JP5073564B2 (en) 2008-04-15 2008-04-15 Endoscope device for measurement and program

Publications (2)

Publication Number Publication Date
JP2009258273A JP2009258273A (en) 2009-11-05
JP5073564B2 true JP5073564B2 (en) 2012-11-14

Family

ID=41385812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008105521A Expired - Fee Related JP5073564B2 (en) 2008-04-15 2008-04-15 Endoscope device for measurement and program

Country Status (1)

Country Link
JP (1) JP5073564B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145270A1 (en) * 2016-02-23 2017-08-31 オリンパス株式会社 Image processing apparatus, image processing method, and endoscope

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5437087B2 (en) 2010-01-15 2014-03-12 オリンパス株式会社 Endoscope apparatus and program
JP2011170276A (en) * 2010-02-22 2011-09-01 Olympus Corp Endoscope device and program
US8194251B2 (en) * 2010-08-26 2012-06-05 Mitutoyo Corporation Method for operating a dual beam chromatic point sensor system for simultaneously measuring two surface regions
WO2012147679A1 (en) 2011-04-27 2012-11-01 オリンパス株式会社 Endoscopic device and measurement method
JP5846763B2 (en) 2011-05-24 2016-01-20 オリンパス株式会社 Endoscope device
JP5830270B2 (en) * 2011-05-24 2015-12-09 オリンパス株式会社 Endoscope apparatus and measuring method
KR101650322B1 (en) * 2012-01-31 2016-08-23 지멘스 에너지, 인코포레이티드 System and method for online inspection of turbines including temperature and vibration compensating lens mount
JP6016226B2 (en) * 2012-04-04 2016-10-26 シャープ株式会社 Length measuring device, length measuring method, program
JP5996233B2 (en) * 2012-03-29 2016-09-21 シャープ株式会社 Imaging device
US10091489B2 (en) 2012-03-29 2018-10-02 Sharp Kabushiki Kaisha Image capturing device, image processing method, and recording medium
JP6037683B2 (en) * 2012-07-02 2016-12-07 オリンパス株式会社 Measuring device, method of operating measuring device, and program
JP5976436B2 (en) * 2012-07-30 2016-08-23 オリンパス株式会社 Endoscope apparatus and program
JP6081209B2 (en) * 2013-02-01 2017-02-15 オリンパス株式会社 Endoscope apparatus and program
WO2018021047A1 (en) * 2016-07-29 2018-02-01 オリンパス株式会社 Endoscopic measurement device
JP6426215B2 (en) * 2017-01-18 2018-11-21 オリンパス株式会社 Endoscope apparatus and program
JP7084743B2 (en) * 2017-04-13 2022-06-15 オリンパス株式会社 Endoscope device and measurement method
CN113614607A (en) * 2019-03-29 2021-11-05 索尼集团公司 Medical viewing system, method and medical viewing apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145270A1 (en) * 2016-02-23 2017-08-31 オリンパス株式会社 Image processing apparatus, image processing method, and endoscope
JPWO2017145270A1 (en) * 2016-02-23 2018-12-20 オリンパス株式会社 Image processing apparatus, image processing method, and endoscope
US10912444B2 (en) 2016-02-23 2021-02-09 Olympus Corporation Image processing apparatus, image processing method, and endoscope

Also Published As

Publication number Publication date
JP2009258273A (en) 2009-11-05

Similar Documents

Publication Publication Date Title
JP5073564B2 (en) Endoscope device for measurement and program
US8004560B2 (en) Endoscope apparatus
US8913110B2 (en) Endoscope apparatus and measurement method
US8558879B2 (en) Endoscope apparatus and measuring method
US8496575B2 (en) Measuring endoscope apparatus, program and recording medium
US6914623B2 (en) Image processing measuring apparatus and measuring endoscope apparatus
JP5231173B2 (en) Endoscope device for measurement and program
JP5186286B2 (en) Endoscope device for measurement and program
US8531479B2 (en) Endoscope apparatus and program
JP5307407B2 (en) Endoscope apparatus and program
JP2008122759A (en) Endoscopic device for measurement, program and recording medium
JP7116925B2 (en) Observation device operating method, observation device, and program
JP5153381B2 (en) Endoscope device
JP2011170276A (en) Endoscope device and program
JP6081209B2 (en) Endoscope apparatus and program
JP5253109B2 (en) Endoscope apparatus and endoscopic image program
JP2008185895A (en) Endoscope device for measurement
JP6400767B2 (en) Measuring endoscope device
JP5602449B2 (en) Endoscope device
JP6426215B2 (en) Endoscope apparatus and program
JP2010256247A (en) Endoscope apparatus and measurement method
JP2023018984A (en) Insertion support system, insertion support method and program
JP6120537B2 (en) Measuring endoscope device
JP5791989B2 (en) Endoscope apparatus and program
JP2010020232A (en) Endoscopic system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120724

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120822

R151 Written notification of patent or utility model registration

Ref document number: 5073564

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees