WO2013099305A1 - 内視鏡画像処理装置、内視鏡画像上の位置の指定方法及び記憶媒体 - Google Patents

内視鏡画像処理装置、内視鏡画像上の位置の指定方法及び記憶媒体 Download PDF

Info

Publication number
WO2013099305A1
WO2013099305A1 PCT/JP2012/059687 JP2012059687W WO2013099305A1 WO 2013099305 A1 WO2013099305 A1 WO 2013099305A1 JP 2012059687 W JP2012059687 W JP 2012059687W WO 2013099305 A1 WO2013099305 A1 WO 2013099305A1
Authority
WO
WIPO (PCT)
Prior art keywords
pointer
auxiliary line
input auxiliary
auxiliary
endoscopic image
Prior art date
Application number
PCT/JP2012/059687
Other languages
English (en)
French (fr)
Inventor
山本 直樹
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2013099305A1 publication Critical patent/WO2013099305A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/00042Operational features of endoscopes provided with input arrangements for the user for mechanical operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device

Definitions

  • the present invention relates to an endoscopic image processing apparatus, a position designation method on an endoscopic image, and a storage medium.
  • An endoscope apparatus inserts an endoscope insertion section into an observation target, captures an image within the observation target with an imaging section provided at the distal end of the insertion section, and displays the image on a monitor.
  • the inside of the observation object can be inspected by looking at the image.
  • an endoscope apparatus having a measurement function capable of measuring the size of a scratch or a defect of a mechanical part, for example.
  • measurement values relating to the designated one or two points for example, from the distal end of the endoscope insertion portion to the one point. The distance between the two points and the distance between the two points are calculated.
  • an accurate measurement point in order to obtain an accurate measurement result, an accurate measurement point must be input.
  • an endoscope apparatus using a touch panel as an input and display device has been put into practical use because it can be operated intuitively and quickly.
  • the pointer is hidden by a finger or the like, and the pixel size is smaller than that of the finger or the like, so that a desired point is specified on the touch panel easily and accurately. It's not easy.
  • a pointer is displayed at a position away from a finger contact position by a predetermined distance so that a fine area can be designated on the touch panel image.
  • a method has been proposed that makes it possible to specify an arbitrary position on the image without being hidden by the user's finger.
  • the present invention has been made in view of such a problem, and is an endoscope image processing device that allows easy designation of an accurate designated point on a touch panel, a position designation method on an endoscopic image, and storage.
  • the purpose is to provide a medium.
  • An endoscope image processing apparatus includes a touch panel that has a display screen and detects a position on the display screen, and an endoscope image display unit that displays an endoscopic image on the display screen.
  • a first auxiliary graphic display unit for displaying a first auxiliary graphic for assisting in determining the position of the designated point on the display screen; and the insight of the designated point on the auxiliary graphic of the display screen.
  • a pointer display unit for displaying a pointer for designating a position on a mirror image, a pointer moving unit for moving the pointer on the auxiliary figure, and a position on the endoscopic image instructed by the pointer, A designated point determination unit that determines the designated point.
  • FIG. 1 is an external view showing an overall configuration of an endoscope apparatus according to a first embodiment of the present invention. It is a block diagram which shows the internal structure of the endoscope apparatus 1 concerning the 1st Embodiment of this invention. It is a figure for demonstrating the example of how to obtain
  • FIG. 1 is an external view showing the overall configuration of the endoscope apparatus according to the present embodiment.
  • the endoscope apparatus 1 includes an endoscope 2 and an apparatus main body 3.
  • the endoscope 2 includes an elongated and flexible insertion portion 11 and an operation portion 12 provided continuously with a proximal end portion of the insertion portion 11.
  • the endoscope 2 and the apparatus main body 3 are connected by a universal cable 13 having flexibility.
  • the insertion portion 11 includes a hard tip portion 14, which is arranged in order from the tip side, for example, a bending portion 15 that can be bent in the vertical and horizontal directions, and a flexible flexible tube portion 16.
  • a distal end hard portion (not shown) is provided in the distal end portion 14, and an objective optical system and an image sensor 21 (FIG. 2) are disposed in the distal end hard portion.
  • Various optical adapters such as a stereo optical adapter having two observation fields and a normal observation optical adapter having one observation field are detachably attached to the distal end portion 14.
  • the operation unit 12 is provided with various operation members, such as a release button and a bending operation joystick, for performing operations necessary for executing various operation controls of the endoscope apparatus 1.
  • the user can take a subject image by pressing the release button. Further, the user can bend the bending portion 15 by tilting the bending operation joystick, and can point the distal end portion 14 in a desired direction.
  • the apparatus main body 3 has a control unit 24 (FIG. 2) which will be described later, and can execute various functions.
  • Various functions include a measurement processing function.
  • the apparatus body 3 is provided with a touch panel 17.
  • the touch panel 17 can detect the approach or contact of an object such as a finger on the screen 17a of the touch panel 17 and input position information thereof, and can be operated by an image of a subject imaged by the endoscope 2, a processing menu, or the like.
  • This is an input / display device that displays control contents. That is, the touch panel 17 is a display device with a touch panel that has a display screen and detects a position on the display screen where an object touches.
  • the user can display a subject image on the screen 17a of the touch panel 17 or display a menu for various functions to execute a desired function from a plurality of functions.
  • the touch panel 17 is rotatably held with respect to the apparatus body 3 by a mechanism such as a hinge (not shown). As shown in FIG. 1, the user can adjust the angle of the touch panel 17 so that the user can easily see the screen 17a.
  • FIG. 2 is a block diagram showing an internal configuration of the endoscope apparatus 1.
  • An imaging element 21 is provided at the distal end portion of the insertion portion 11 of the endoscope 2.
  • the apparatus main body 3 includes an endoscope unit 22, a camera control unit (hereinafter abbreviated as CCU) 23, and a control unit 24.
  • An imaging signal from the imaging element 21 built in the distal end portion 14 of the insertion portion 11 is supplied to the endoscope unit 22.
  • the endoscope unit 22 includes a light source device (not shown) that supplies illumination light to the distal end portion 14 of the insertion portion 11 via a light guide, and a bending device that curves the bending portion 15 that constitutes the insertion portion 11 (see FIG. Not shown).
  • a light source device not shown
  • a bending device that curves the bending portion 15 that constitutes the insertion portion 11 (see FIG. Not shown).
  • the image sensor 21 photoelectrically converts a subject image formed through an optical adapter attached to the tip 14 to generate an image signal.
  • the imaging signal output from the imaging device 21 is input to the CCU 23 via the endoscope unit 22. This imaging signal is converted into a video signal such as an NTSC signal in the CCU 23 and supplied to the control unit 24.
  • a video signal processing circuit 31 to which a video signal as image data is input, a ROM 32, a RAM 33, a card interface (hereinafter referred to as a card I / F) 34, a USB interface (hereinafter referred to as a USB I / F). 35, an RS-232C interface (hereinafter referred to as RS-232CI / F17) 36, and a central processing unit (hereinafter referred to as CPU) 37 that executes the functions of these various circuits based on various programs and performs operation control. ing.
  • the video signal processing circuit 31, ROM 32, RAM 33, card I / F 34, USB I / F 35, RS-232CI / F 36, and CPU 37 are connected to one another via a bus 38.
  • the RS-232CI / F 36 is connected to the endoscope unit 22 and the CCU 23, and to the operation unit 12 for controlling and operating the endoscope unit 22 and the CCU 23.
  • the operation unit 12 for controlling and operating the endoscope unit 22 and the CCU 23.
  • communication necessary for controlling the operation of the endoscope unit 22 and the CCU 23 is performed between the RS-232CI / F 36 and the endoscope unit 22 and RS ⁇ according to the operation content. It is performed between 232CI / F36 and CCU23.
  • the USB I / F 35 is an interface for electrically connecting the control unit 24 and a personal computer (hereinafter abbreviated as PC) 41.
  • PC personal computer
  • the memory card 42 can be detachably attached to the card I / F 34. By attaching the memory card 42 to the card I / F 34, the CPU 37 loads data such as control information and image information stored in the memory card 42 into the control unit 24, or stores control information and image information. Data can be recorded in the memory card 42.
  • the video signal processing circuit 31 displays a composite image obtained by synthesizing the endoscopic image supplied from the CCU 23 and the graphic operation menu, so that the graphic image signal based on the operation menu generated under the control of the CPU 37 is displayed. And the video signal from the CCU 23 are combined.
  • the video signal processing circuit 31 performs processing for displaying the composite image display signal on the screen 17 a of the touch panel 17 and supplies the processed signal to the touch panel 17.
  • the video signal processing circuit 31 can perform processing for displaying only an endoscopic image or displaying only an image such as an operation menu alone. Therefore, at least one of an endoscope image, an operation menu image, a combined image of the endoscope image and the operation menu image, and the like can be displayed on the screen 17a of the touch panel 17.
  • the CPU 37 executes various programs and the like so as to perform processing designated by the user by executing a program stored in the ROM 32, and performs operation control, measurement processing, and the like of the endoscope apparatus 1.
  • the RAM 33 is used by the CPU 37 as a work area for temporarily storing data.
  • the CPU 37 functions as an endoscope image display unit, an auxiliary graphic display unit, an auxiliary graphic moving unit, a pointer display unit, a pointer display unit, and a designated point determination unit which will be described later.
  • the CPU 37 has a function of executing a program that causes the endoscope apparatus to function as an endoscope image display unit, an auxiliary graphic display unit, an auxiliary graphic moving unit, a pointer display unit, a pointer moving unit, and a designated point determining unit. ing.
  • the CPU 37 uses the principle of triangulation to Find 3D spatial coordinates. With this three-dimensional spatial coordinate, various measurements by stereo measurement are possible. At this time, the CPU 37 functions as a measurement processing unit.
  • FIG. 3 is a diagram for explaining an example of how to obtain the three-dimensional coordinates of measurement points by stereo measurement.
  • the three-dimensional coordinates (X, Y, Z) of the point 50 are calculated by the following formulas (1) to (3) by the triangulation method for the images picked up by the left and right optical systems.
  • the imaging device 21 the respective optical centers of the two images obtained from the object image projected on its imaging surface, respectively O L, two images of the O R is obtained.
  • each coordinate of the three-dimensional coordinates (X, Y, Z) of the point 50 is expressed by the following formula ( 1) to (3).
  • the three-dimensional coordinates of the point 50 are obtained using the parameters D and F.
  • various measurements such as the distance between two points, the distance between a line connecting two points and one point, the area, the depth, and the surface shape can be performed.
  • optical data indicating the characteristics of the optical system including the distal end portion 14 of the endoscope 2 and the stereo optical adapter is necessary.
  • the details of the optical data are described in, for example, Japanese Patent Application Laid-Open No. 2004-49638, so refer to the description.
  • the distance to the measurement point, the position of the measurement point, and the like are determined by other methods such as the active stereo measurement method, the TOF (Time of Flight) method, the confocal method, and the like. May be.
  • FIG. 4 is a diagram illustrating an example of an endoscopic image.
  • FIG. 5 is a flowchart showing an example of the flow of measurement point designation processing executed by the CPU 37 of the control unit 24 of the endoscope apparatus 1.
  • the endoscope apparatus 1 has a plurality of modes, and executes an operation according to the mode set by the user.
  • the endoscope apparatus 1 When the endoscope apparatus 1 is set to the measurement mode, the endoscope apparatus 1 performs a measurement process for a designated point designated by the user. That is, the endoscope apparatus 1 can be said to be an endoscope image processing apparatus that performs a measurement process that is one of predetermined processes based on a position on an endoscopic image designated by a designated point.
  • the measurement process is performed based on the three-dimensional position coordinates of the corresponding point of the subject displayed on the endoscopic image EI corresponding to the determined designated point.
  • FIG. 4 shows an endoscopic image EI showing a part of the turbine blade 61 that is missing as an image of the subject.
  • the user designates two points P1 and P2 as measurement points in order to measure the distance between the two points P1 and P2 of the missing portion.
  • the process of FIG. 5 is started.
  • the measurement point designation processing program of FIG. 5 is stored in the ROM 32, and the CPU 37 reads the measurement point designation processing program from the ROM 32 and executes it.
  • an endoscope image EI is displayed on the screen 17a as shown in FIG. 4 (S1).
  • the process of S1 constitutes an endoscope image display unit that displays the endoscope image EI on the screen 17a which is a display screen.
  • the endoscopic image EI obtained by imaging with the image sensor 21 can be enlarged or reduced on the screen 17a by a predetermined operation.
  • FIG. 6 is a diagram illustrating an example of the measurement screen 71 on which the first input auxiliary line L1 is displayed.
  • the input auxiliary line L1 is an auxiliary graphic for assisting the position determination of the measurement point that is the designated point.
  • the input auxiliary line L1 that is one straight line is displayed on the endoscopic image EI.
  • the two buttons 72 and 73 are also superimposed.
  • the button 72 is a button for the input auxiliary line L1, and is a button for rotating the input auxiliary line as will be described later.
  • the button 73 is a button for displaying the second input auxiliary line L2, as will be described later.
  • the input auxiliary line L1 is a horizontal line on the rectangular measurement screen 71 and is displayed at a predetermined position on the measurement screen 71.
  • the input auxiliary line L1 is indicated by a dotted line in FIG. 6, the display form of the input auxiliary line L1 is not limited to this.
  • a specific color line may be displayed.
  • the display color of the input auxiliary line L1 may be changeable. This is because the subject has various colors, so that the subject can be displayed in a different color from the subject so that the subject can be distinguished from the subject.
  • the input auxiliary line L1 is displayed on the measurement screen 71 as a horizontal line when the user taps the screen 17a with a finger.
  • the user may tap any two points on the screen 17a with a finger and display a line connecting the tapped two points on the measurement screen 71 as the input auxiliary line L1.
  • the user may trace the screen 17a with his / her finger and display the line connecting the start point and the end point on the measurement screen 71 as the input auxiliary line L1.
  • the process of S2 constitutes an auxiliary graphic display unit that displays the first auxiliary graphic for assisting the determination of the position of the designated point on the display screen.
  • the moving process of the first input auxiliary line L1 that can move the input auxiliary line L1 is executed (S3).
  • the input auxiliary line L1 is parallel on the measurement screen 71 in a predetermined pixel unit, for example, one pixel unit toward the touched position. Moving. Since the second movement is a movement in units of pixels, the input auxiliary line L1 can be finely moved on the measurement screen 71.
  • the input auxiliary line L1 is displayed so as to continue moving at the single point speed in the traced direction, and the movement stops when the user touches the screen 17a again with the finger.
  • the input auxiliary line L1 moves to a desired position.
  • FIG. 7 is a diagram for explaining the parallel movement of the input auxiliary line L1.
  • the user moves the input auxiliary line L1 in the direction indicated by the arrow A1 by the first to fourth moving methods described above, and finally, The input auxiliary line L1 can be positioned at a position passing through the point P1.
  • the four moving methods described above are methods of moving the input auxiliary line L1 in parallel, but there is also a moving method of rotating the input auxiliary line L1 using the button 72.
  • the drag is performed by moving the drag about the predetermined position of the input auxiliary line L1, for example, the midpoint of the input auxiliary line L1.
  • the input auxiliary line L1 rotates in the direction that is set.
  • the rotation amount of the input auxiliary line L1 on the measurement screen 71 is relatively rough.
  • This sixth movement is a predetermined amount of movement, such as one pixel on a virtual predetermined circle, and thus enables fine rotation of the first input auxiliary line L1.
  • FIG. 8 is a diagram for explaining the rotation of the input auxiliary line L1.
  • the user rotates the input auxiliary line L1 in the direction indicated by the arrow A2 as indicated by the alternate long and short dash line L12, and thereby moves the input auxiliary line L1. It can be located at a position passing through the point P1.
  • the process of S3 constitutes an auxiliary figure moving unit that moves the first input auxiliary line L1, which is an auxiliary figure, by translation or rotation based on a user input.
  • the first input auxiliary line L1 is moved according to the touched position and the movement amount on the screen 17a of the touch panel 17.
  • the first input auxiliary line L1 is moved in units of display pixels of the endoscopic image EI displayed on the screen 17a according to the number of taps or the contact time on the screen 17a of the touch panel 17.
  • FIG. 9 is a diagram illustrating a state where the input auxiliary line L1 is located at a position passing through the point P1.
  • FIG. 9 shows a state where the CPU 37 has moved the input auxiliary line L1 to a position passing through the point P1 by the first to fourth moving methods.
  • the CPU 37 determines whether or not the user has instructed to confirm the first input auxiliary line L1 (S4).
  • the presence / absence of the confirmation instruction is performed depending on whether or not the user has touched the button 73.
  • the confirmation instruction may be performed by a method other than the method of touching the button 73.
  • the first input auxiliary line L1 may be displayed as a line having a plurality of pixel widths such as two pixels and three pixels on the screen 17a.
  • the position of the input auxiliary line L1 is determined using the center value of the plurality of pixel widths.
  • FIG. 10 is a diagram illustrating an example of the measurement screen 71 on which the second input auxiliary line L2 is displayed.
  • the input auxiliary line L2 is superimposed on the endoscopic image EI.
  • the input auxiliary line L ⁇ b> 2 indicated by a dotted line is a line perpendicular to the rectangular measurement screen 71 and is displayed at a predetermined position on the measurement screen 71.
  • the process of S6 constitutes an auxiliary graphic display unit that displays a second auxiliary graphic for assisting the determination of the position of the designated point on the screen 17a.
  • the second input auxiliary line L2 may be displayed as a specific color line similarly to the first input auxiliary line L1, or the display color of the input auxiliary line L2 may be set and changed.
  • the input auxiliary line L2 is also input by the user tapping any two points on the screen 17a with a finger and connecting the tapped two points, like the first input auxiliary line L1 described above. It may be displayed on the measurement screen 71 as the auxiliary line L2. Alternatively, the user may trace with the finger touching the screen 17a, and a line connecting the start point and the end point may be displayed on the measurement screen 71 as the input auxiliary line L2.
  • the pointer CM1 is also displayed as a predetermined mark at the intersection of the first input auxiliary line L1 and the second input auxiliary line L2.
  • the pointer CM1 is a cross mark here, and is displayed in a color different from the colors of the first and second input auxiliary lines L1 and L2, for example.
  • the color of the predetermined mark may be changeable by the user.
  • the process of S7 constitutes a pointer display unit that displays a pointer CM1 for designating the position of the designated point on the endoscopic image EI on the first input auxiliary line L1 of the screen 17a.
  • the pointer CM1 is displayed at the position of the intersection determined based on the input auxiliary line L1 that is the first auxiliary graphic and the input auxiliary line L2 that is the second auxiliary graphic.
  • the pointer CM1 may be an arrow mark similar to the PC cursor, or a circle mark having a cross at the center.
  • the button 72A for the input auxiliary line L2 is also superimposed on the endoscope image EI.
  • the button 72A is a button for the input auxiliary line L2, has the same function as the button 72 described above, and is a button for rotating the input auxiliary line L2.
  • the second input auxiliary line L2 can be moved in the same manner as the first input auxiliary line L1.
  • the CPU 37 can accurately move the second input auxiliary line L2 to a desired position using the first to sixth moving methods described above based on the user input (S8).
  • the CPU 37 roughly translates the input auxiliary line L2 in the direction indicated by the arrow A3 as indicated by the alternate long and short dash line L21. Then, the CPU 37 finely translates the input auxiliary line L2 by the second movement method, and moves the input auxiliary line L2 to a position passing through the point P1.
  • the CPU 37 uses the user input to the button 72A to rotate the input auxiliary line L2 by the fifth and sixth movement methods described above and rotate the input auxiliary line L2 to a position passing through the point P1. It may be.
  • the process of S8 constitutes an auxiliary figure moving unit that moves the second input auxiliary line L2, which is an auxiliary figure, by translation or rotation.
  • the second input auxiliary line L2 can be moved according to the touched position and the moving amount on the screen 17a of the touch panel 17.
  • the second input auxiliary line L2 can be moved in units of display pixels of the endoscopic image EI displayed on the screen 17a according to the number of taps or the contact time on the screen 17a of the touch panel 17. .
  • the pointer CM1 is always present at the intersection of the first and second input auxiliary lines L1 and L2. Therefore, the pointer CM1 moves simultaneously with the movement of the first input auxiliary line L1 or the second input auxiliary line L2 (S9). That is, the process of S9 constitutes a pointer moving unit that moves the pointer CM1 on the first input auxiliary line L1 that is an auxiliary figure.
  • the CPU 37 determines whether or not the user has instructed to confirm the second input auxiliary line L2. (S10).
  • the confirmation instruction can be given, for example, when the user double taps the position of the pointer CM1 on the screen 17a with a finger.
  • the CPU 37 determines whether or not the first input auxiliary line L1 has been selected (S11).
  • the CPU 37 determines that one input auxiliary line L1 has been selected.
  • the process proceeds to S3, and the first input auxiliary line L1 can be moved. In this case, since the first and second input auxiliary lines L1 and L2 are displayed, if the first input auxiliary line L1 is moved, the first input auxiliary line L1 is moved. The pointer CM1 also moves at the same time. If the first input auxiliary line L1 is not selected (S11: NO), the process proceeds to S8.
  • the positions of the first and second input auxiliary lines L1 and L2 can be moved independently, and the user can move the pointer at the intersection of the first and second input auxiliary lines L1 and L2.
  • the center of CM1 can be aligned with point P1.
  • FIG. 11 is a diagram showing a state where the input auxiliary line L2 has been moved to a position passing through the point P1.
  • the second input auxiliary line L2 is determined.
  • Input auxiliary line determination processing is executed (S12).
  • pointer position determination processing for determining the position of the pointer CM1 that is the intersection of the first and second input auxiliary lines L1 and L2 is executed (S13).
  • the point P1 at the position corresponding to the position of the pointer CM1 is determined as the first measurement point.
  • the pointer position determination process (S13) is executed, the display of the two input auxiliary lines L1 and L2 disappears and only the pointer CM is displayed on the screen 17a. Therefore, the process of S13 constitutes a designated point determination unit that determines the position on the endoscopic image EI designated by the pointer CM1 as the designated point.
  • the point P1 as the first measurement point is specified by the two input auxiliary lines L1 and L2 that can move independently.
  • the pointer CM1 is always present at the intersection of the two input auxiliary lines L1 and L2.
  • the pointer CM1 moves simultaneously with the movement of the two input auxiliary lines L1 and L2. Therefore, since the pointer CM1 moves in accordance with the movement of the two input auxiliary lines L1 and L2, the pointer CM1 is not hidden by the user's finger.
  • each input auxiliary line can be moved finely by the second or fifth moving method, the measurement point can be accurately specified by the pointer CM1.
  • the measurement point for the point P2 can be specified by the user once again tapping the screen 17a with a finger. That is, when the user taps on the screen 17a once again with the finger, the display process of the first input auxiliary line L1 is executed again (S2), and then the processes of S3 to S11 described above are executed. Similar to P1, a measurement point for point P2 can be designated.
  • FIG. 12 is a diagram showing a state in which two measurement points P1 and P2 are designated. As shown in FIG. 12, two pointers CM1 and CM2 whose positions are determined by the CPU 37 based on user input correspond to two measurement points P1 and P2, respectively.
  • the user can cause the CPU 37 to execute a measurement processing program for calculating the distance between the designated two points P1 and P2.
  • the measurement process is a measurement process based on the three-dimensional position coordinates of the corresponding points of the subject displayed on the endoscopic image EI corresponding to the two specified points determined, for example, a distance measurement between two points. is there.
  • the CPU 37 when the CPU 37 moves the input auxiliary lines L1 and L2 based on user input, they can be moved separately. When one input auxiliary line is moved, the other input auxiliary line is not moved.
  • the CPU 37 may be configured to simultaneously move the input auxiliary line L1 and the input auxiliary line L2 separately while the two input auxiliary lines L1 and L2 are being touched simultaneously by the user.
  • the CPU 37 simultaneously drags two input auxiliary lines L1 and L2 passing through the pointer as the touched pointer moves. You may do it.
  • the second input auxiliary line L2 is displayed after the position of the first input auxiliary line L1 is determined.
  • Two input auxiliary lines L1 and L2 may be displayed simultaneously from the beginning.
  • the user can select an input auxiliary line that the user wants to move, and the movable input auxiliary line may be displayed in a color different from the color of the input auxiliary line that cannot be moved.
  • the user can recognize the input auxiliary line which can move. For example, when the user touches a predetermined button on the screen 17a, the CPU 37 displays only one input auxiliary line in a color (for example, red) different from the color (for example, black) of the other input auxiliary line.
  • the CPU 37 displays the other input auxiliary line in a color (for example, red) different from the color (for example, black) of the one input auxiliary line.
  • the color of the movable input auxiliary line and the color of the non-movable input auxiliary line may be set and changed by the user.
  • first and second input auxiliary lines described above are straight lines, they may be line segments, curved lines, or closed curves.
  • the CPU 37 moves each of the two auxiliary input lines based on the user input to display the pointer. Therefore, the position of the pointer is not hidden by the user's finger, and accurate measurement points can be easily specified on the touch panel.
  • measurement points are designated by two input auxiliary lines that are straight lines.
  • the measurement point is designated by two input auxiliary lines, a circle and a straight line.
  • the configuration of the endoscope apparatus according to the present embodiment is the same as that of the first endoscope apparatus, and the configuration and measurement point designation processing are the same as those in FIGS. 1, 2, and 5.
  • the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted. Operations different from those in the first embodiment will be described using the example of the endoscopic image in FIG.
  • FIG. 13 is a diagram showing an example of a measurement screen 71A on which the first input auxiliary line L3 is displayed.
  • the display process (S2) of the first input auxiliary line L3 is superimposed and displayed on the endoscope image EI on the measurement screen 71A, and the button 73 is also superimposed and displayed. Is done.
  • the circular input auxiliary line L3 is displayed at a predetermined position on the measurement screen 71A.
  • the input auxiliary line L3 is indicated by a dotted line in FIG. 13, but may be displayed by a line of a specific color.
  • the display color of the input auxiliary line L3 may be changeable by the user as in the first embodiment.
  • the user taps the outside or the inside of the first input auxiliary line L3 with the finger on the screen 17a.
  • the circle of the first input auxiliary line L3 is enlarged or reduced on the measurement screen 71A in units of one pixel.
  • the CPU 37 enlarges the first input auxiliary line L3 in units of one pixel according to the number of taps.
  • the CPU 37 reduces the first input auxiliary line L3 in a predetermined pixel unit, for example, one pixel unit, according to the number of taps.
  • the second enlargement / reduction is an enlargement / reduction in units of pixels, so that the first input auxiliary line L3 can be finely enlarged or reduced on the measurement screen 71A.
  • the CPU 37 may enlarge or reduce the circle by a pixel amount corresponding to the tap contact time.
  • a third enlargement / reduction method two icons for enlargement / reduction instructions, two buttons, etc. are displayed, and the CPU 37 is tapped by tapping one of the icons or buttons by the user. Depending on the number of times or the contact time, enlargement or reduction in pixel units may be performed.
  • the first input auxiliary line L3 can be moved.
  • this second movement is a movement in units of pixels, it enables fine movement of the input auxiliary line L3 on the measurement screen 71A.
  • FIG. 13 is a diagram for explaining the enlargement / reduction and translation of the input auxiliary line L3.
  • the CPU 37 enlarges the circle of the input auxiliary line L3 (direction B1 in FIG. 13), Reduction (direction B2 in FIG. 13) and movement of a circle (for example, movement in the direction indicated by arrow B3) can be performed.
  • the CPU 37 can enlarge, reduce, or move the input auxiliary line L3, which is a circular figure, to a desired position, for example, a position passing through the point P1, based on a user input.
  • the CPU 37 detects an input to the button 73 by the user S4: YES
  • the position of the first input auxiliary line L3 is determined (S5).
  • an image as shown in FIG. 14 is displayed (S6).
  • one second input auxiliary line L4 extending in the circumferential direction from the center C1 of the circle of the first input auxiliary line L3 is displayed superimposed on the endoscope image EI, and the button 72 is also displayed superimposed. It is a figure which shows the done image.
  • the pointer CM3 is displayed at the intersection of the first input auxiliary line L3 and the second input auxiliary line L4 (S7).
  • the CPU 37 can rotate or move the second input auxiliary line L4 by the following four methods (S8).
  • the rotation amount of the second input auxiliary line L4 on the measurement screen 71A is relatively rough.
  • the CPU 37 determines a predetermined position of the input auxiliary line L4, for example, the center position of the input auxiliary line L4, according to the position touched on the input auxiliary line L4. And the input auxiliary line L4 is rotated on the measurement screen 71A by a predetermined amount toward the touched position.
  • the predetermined amount of rotation is one pixel on a virtual predetermined circle centered on the center position of the input auxiliary line L4, one degree about the center position of the input auxiliary line L4, and so on.
  • This second rotation is a predetermined amount of rotation such as one pixel on a virtual predetermined circle, and thus enables a fine rotation amount of the input auxiliary line L4 on the measurement screen 71A.
  • the CPU 37 can move the input auxiliary lines L3 and L4 simultaneously.
  • the CPU 37 moves the relative position between the first input auxiliary line L3 and the second input auxiliary line L4.
  • the first input auxiliary line L3 and the second input auxiliary line L4 can be translated while maintaining the relationship.
  • the CPU 37 can independently rotate or move the circular first input auxiliary line L3 and the straight second input auxiliary line L4.
  • the CPU 37 always moves the pointer CM3 between the first input auxiliary line L3 and the second input auxiliary line L4. (S9).
  • the CPU 37 detects whether the user touches either the first input auxiliary line L3 or the second input auxiliary line L4, the CPU 37 detects the first input auxiliary line L3 and the second input auxiliary line L4. It is possible to switch which one is rotated or moved.
  • the selected state may be identified to the user by changing the color of the selected input auxiliary line.
  • FIG. 15 is a diagram illustrating a state where the second input auxiliary line L4 has been moved to a position passing through the point P1.
  • the CPU 37 detects a confirmation instruction (for example, a double tap on the pointer CM3) by the user in a state where the center of the pointer CM3 coincides with or almost coincides with the point P1 (S10: YES)
  • the second input A determination process of the second input auxiliary line L4 for determining the position of the auxiliary line L4 is executed (S12), and the position of the pointer CM3 which is the intersection of the first input auxiliary line L3 and the second input auxiliary line L4 is determined.
  • a pointer position determination process to be determined is executed (S13).
  • FIG. 16 is a diagram illustrating a state in which the measurement point P1 is designated.
  • the pointer CM3 whose position is determined by the CPU 37 based on the user input corresponds to the designated point of the measurement point P1.
  • the CPU 37 again displays the first input auxiliary line L1 by tapping the screen 17a once again with the finger.
  • a new pointer can be displayed and designated as a designated point by the same process.
  • the CPU 37 displays a circular graphic as the first input auxiliary line L3, and then displays a straight graphic as the second input auxiliary line L4.
  • the CPU 37 may first display a straight graphic as the first input auxiliary line L3 and then display a circular graphic as the second input auxiliary line L4.
  • the CPU 37 uses the circular input auxiliary line and the linear input auxiliary line to individually enlarge, reduce, move, and the like.
  • the pointer is displayed. For this reason, the position of the pointer is not hidden by the user's finger, and accurate measurement points can be easily specified on the touch panel.
  • the second input auxiliary line L4 described above is a straight line, it may be a line segment, a curve, or a closed curve.
  • the measurement point is specified by two input auxiliary lines that are straight lines or two input auxiliary lines that are straight lines.
  • the measurement point is designated by only one straight input auxiliary line.
  • the configuration of the endoscope apparatus of the present embodiment is the same as the configuration of the first endoscope apparatus, and the configuration and measurement point designation processing are the same as or similar to those in FIGS. Therefore, the description of the same configuration as in the first embodiment will be omitted using the same reference numerals, and the operation different from that in the first embodiment will be described using the example of the endoscopic image EI in FIG. .
  • the operation of the endoscope apparatus 1 according to the present embodiment will be described with reference to FIG. 17 instead of FIG.
  • FIG. 17 is a flowchart illustrating an example of the flow of measurement point designation processing executed by the CPU 37 of the control unit 24 of the endoscope apparatus 1.
  • the endoscope apparatus when the user touches the screen 17a of the touch panel 17 with a finger after the measurement mode is set, the process of FIG. Then, when the user taps the screen 17a once with a finger while the endoscopic image EI of FIG. 4 is displayed (S1), the CPU 37 executes the display process of the first input auxiliary line L5. (S2).
  • FIG. 18 is a diagram illustrating an example of the measurement screen 71B on which the first input auxiliary line L5 is displayed.
  • a single straight first input auxiliary line L5 is superimposed on the endoscope image EI on the measurement screen 71B.
  • the edge detection button 73B is also displayed in a superimposed manner.
  • the input auxiliary line L5 is displayed at a predetermined position on the measurement screen 71B.
  • the input auxiliary line L5 is indicated by a dotted line in FIG. 18, but may be displayed by a line of a specific color.
  • the display color of the input auxiliary line L5 may be changeable by the user as in the first embodiment.
  • the input auxiliary line L5 is displayed as a horizontal line on the measurement screen 71B by the CPU 37 when the user taps on the screen 17a with a finger.
  • the CPU 37 may display a line connecting the two tapped points as the input auxiliary line L5 on the measurement screen 71B.
  • the CPU 37 may display a straight line along the traced line as the input auxiliary line L5 on the measurement screen 71B.
  • the input auxiliary line L5 may be a line segment L51.
  • FIG. 19 is a diagram illustrating an example of the input auxiliary line L51 which is a line segment.
  • the moving process of the input auxiliary line L5 that can move the input auxiliary line L5 is executed (S3).
  • the moving method of the input auxiliary line L5 is the same as the first to sixth moving methods described in the first embodiment, and there are a plurality of methods.
  • the CPU 37 uses a desired method based on a user input.
  • the input auxiliary line L5 can be moved.
  • the CPU 37 can move the input auxiliary line L5 (moving in the directions of arrows C1 and C2) by the first to fourth moving methods.
  • the CPU 37 can rotate the input auxiliary line L5 by the fifth and sixth moving methods described in the first embodiment.
  • FIG. 20 is a diagram illustrating a case where the input auxiliary line L5 is moved to a position passing through the point P1.
  • the CPU 37 determines whether or not there is an instruction for edge detection, that is, whether or not the edge detection button 73B is pressed (S21).
  • the input auxiliary line L5 substantially coincides with the position passing through the point P1
  • the user presses the edge detection button 73B.
  • the position of the 1st input auxiliary line L5 will be determined (S5).
  • edge detection processing is executed (S22).
  • Edge processing detects the edge part on the input auxiliary line L5 based on the luminance information of the endoscopic image EI. Then, the CPU 37 displays the pointer CM4 at the detected edge position (S23).
  • the process of S23 constitutes a pointer display unit that displays a pointer CM4 for designating the position of the designated point on the endoscopic image EI on the input auxiliary line L5 of the screen 17a.
  • the pointer CM4 is displayed at the position of the edge portion on the input auxiliary line L5 which is the first auxiliary figure.
  • the CPU 37 can display the pointer CM4 at the point P1 simply by instructing the edge detection by the user, and the operation is easy.
  • a plurality of pointer candidates appear at the positions of the plurality of edge portions.
  • the CPU 37 may determine the tapped position as a designated point. That is, in S23, a plurality of pointer candidates are displayed on the first input auxiliary line L5.
  • the CPU 37 moves the pointer CM4 between the displayed pointer candidates. The user may tap the pointer CM4 when the pointer CM4 is at the position of the desired pointer candidate, and the CPU 37 may determine the designated point. It should be noted that the user may enable the CPU 37 to erase the pointer by long pressing (that is, touching for a long time) the pointer that the user wants to erase.
  • the CPU 37 may perform enlargement processing around the pinched place.
  • the CPU 37 changes the length of the line segment 51 as shown in FIG.
  • the detection range of edge detection may be changed by performing processing such as limiting the radius of curvature of the line formed by the detected edge portion to a predetermined range.
  • the CPU37 can move pointer CM4 based on a user's input (S24).
  • the moving method of the pointer CM4 is the same as the first to sixth moving methods described in the first embodiment, and there are a plurality of methods.
  • the CPU 37 moves the input auxiliary line L5 mainly using a fine moving method based on the user's input.
  • the pointer may be moved by another method. For example, when the user double taps the pointer CM4, the CPU 37 displays another straight line passing through the pointer CM4. When the CPU 37 moves the straight line using the first to sixth moving methods described above, the pointer at the intersection of the straight line and the input auxiliary line L5 moves with the movement of the straight line. Thereby, the pointer CM4 can be moved.
  • the first input auxiliary line L5 is movable
  • the pointer CM4 is displayed by the edge detection process
  • the pointer CM4 is also movable independently of the input auxiliary line L5.
  • the input auxiliary line L5 can be moved again (S11, S3). Whether the input auxiliary line L5 or the pointer CM4 is moved can be switched by the CPU 37 detecting that the user touches either the input auxiliary line L5 or the pointer CM4. The user may be able to identify the selected state by changing the color of the selected input auxiliary line L5 or pointer CM4.
  • FIG. 21 is a diagram showing a state in which the pointer CM4 has been moved to a desired position.
  • the CPU 37 detects a confirmation instruction from the user, for example, when the user double taps the pointer CM4 (S10: YES)
  • the CPU 37 executes a pointer position determination process for determining the position of the pointer CM4. (S13).
  • the screen 17a becomes the screen shown in FIG.
  • the first input auxiliary line L5 described above is a straight line or a line segment, but may be a curved line or a closed curve.
  • the pointer CM4 is displayed at the edge portion by the edge detection process. At this time, if the CPU 37 determines the position of the pointer CM4 without moving the position of the displayed pointer CM4, that is, determines the position, the CPU 37 automatically determines the position of the pointer CM4 determined by the edge detection process. Can be determined as measurement points.
  • the pointer is displayed by the edge detection process for the input auxiliary line L5, so that the position of the pointer is hidden by the user's finger.
  • the displayed pointer can be moved, accurate measurement points can be easily specified on the touch panel.
  • the endoscope apparatuses As described above, according to the endoscope apparatuses according to the above-described embodiments, it is possible to realize an endoscope apparatus that allows easy designation of designated points such as measurement points on the touch panel.
  • the designated point in the endoscope apparatus is a measurement point
  • the designated point is an instruction for pressing a function button or the like on the menu screen displayed on the screen 17a. A point etc. may be sufficient.
  • the endoscope image processing program for executing the operations described above is recorded in whole or in part as a computer program product on a portable medium such as a flexible disk or CD-ROM, or on a storage medium such as a hard disk. Or remembered.
  • the program is read by a computer, and all or part of the operation is executed. Alternatively, all or part of the program can be distributed or provided via a communication network.
  • the user can easily realize the endoscope apparatus according to the present embodiment by downloading the program via a communication network and installing the program on the computer or installing the program from the recording medium on the computer. it can.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Mechanical Engineering (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

 内視鏡装置1は、タッチパネル17の画面に内視鏡画像を表示する内視鏡画像表示部と、画面上において指定点の位置決定を補助するための第1の入力補助線L1を表示する第1補助図形表示部と、画面の第1の入力補助線L1上に、指定点の内視鏡画像上の位置を指定するためのポインタCM1を表示させるポインタ表示部と、第1の入力補助線L1上でポインタCM1を移動させるポインタ移動部と、ポインタCM1により指示された内視鏡画像上の位置を、指定点として決定する指定点決定部と、を備える。

Description

内視鏡画像処理装置、内視鏡画像上の位置の指定方法及び記憶媒体
 本発明は、内視鏡画像処理装置、内視鏡画像上の位置の指定方法及び記憶媒体に関する。
 従来より、内視鏡装置が工業分野及び医療分野において広く利用されている。内視鏡装置は、観察対象内に内視鏡挿入部を挿入して、挿入部の先端に設けられた撮像部により観察対象内の画像を撮像し、モニタに表示することによって、ユーザがその画像を見て、観察対象内を検査することができる。
 また、内視鏡装置には、例えば機械部品の傷や欠損等の大きさ等を計測することができる計測機能を有する内視鏡装置もある。このような内視鏡装置においては、ユーザが内視鏡画像上で計測点を指定すると、その指定された1点あるいは2点に関する計測値、例えば内視鏡挿入部の先端からその1点までの距離、2点間の距離等が演算して求められる。このような内視鏡装置において、正確な計測結果を得るためには正確な計測点の入力がされなければならない。
 ところで、近年、直感的に素早く操作できることから、入力及び表示装置としてタッチパネルを使用した内視鏡装置が実用化されている。 
 しかし、一般的に、タッチパネルにおける入力には、ポインタが指などで隠れてしまうこと、さらに画素サイズが指などに比べて小さいことから、タッチパネル上において、簡単かつ正確に、所望の点を指定するのが容易ではない。
 また、例えば、日本特開2010-272036号公報に開示のように、タッチパネルの画像上で細かいエリアを指定できるようにするために、指の接触位置から所定の距離だけ離れた位置にポインタを表示することにより、ユーザの指に隠れてしまうことなく画像上の任意の位置を指定することを可能にする方法が提案されている。
 しかし、上記の提案に係る方法においても、指の接触する位置によって点を指定しなければならない。このため、ユーザが所望の点を指定する場合には、ユーザは指をタッチパネルの画面上で細かくかつ正確に動かさなければならず、ユーザにとって正確な点の指定は容易ではない。
 そこで、本発明は、このような問題に鑑みてなされたものであり、タッチパネル上で正確な指定点の指定が容易な内視鏡画像処理装置、内視鏡画像上の位置の指定方法および記憶媒体を提供することを目的とする。
 本発明の一態様の内視鏡画像処理装置は、表示画面を有し、かつ前記表示画面上の位置を検出するタッチパネルと、前記表示画面に内視鏡画像を表示する内視鏡画像表示部と、前記表示画面上において指定点の位置決定を補助するための第1の補助図形を表示する第1補助図形表示部と、前記表示画面の前記補助図形上に、前記指定点の前記内視鏡画像上の位置を指定するためのポインタを表示させるポインタ表示部と、前記補助図形上で前記ポインタを移動させるポインタ移動部と、前記ポインタにより指示された前記内視鏡画像上の位置を、前記指定点として決定する指定点決定部と、を有する。 
本発明の第1の実施の形態に係わる内視鏡装置の全体構成を示す外観図である。 本発明の第1の実施の形態に係わる内視鏡装置1の内部構成を示すブロック図である。 本発明の第1の実施の形態に係わる、ステレオ計測による計測点の3次元座標の求め方の例を説明するための図である。 本発明の第1の実施の形態に係わる内視鏡画像の例を示す図である。 本発明の第1の実施の形態に係わる、内視鏡装置1の制御ユニット24のCPU37により実行される計測点の指定処理の流れの例を示すフローチャートである。 本発明の第1の実施の形態に係わる、第1の入力補助線L1が表示された計測点指定画像71の例を示す図である。 本発明の第1の実施の形態に係わる、入力補助線L1の平行移動を説明するための図である。 本発明の第1の実施の形態に係わる、入力補助線L1の回転を説明するための図である。 本発明の第1の実施の形態に係わる、入力補助線L1が点P1を通る位置に位置された状態を示す図である。 本発明の第1の実施の形態に係わる、第2の入力補助線L2が表示された計測点指定画像71の例を示す図である。 本発明の第1の実施の形態に係わる、第2の入力補助線L2が点P1を通る位置まで移動された状態を示す図である。 本発明の第1の実施の形態に係わる、2つの計測点P1、P2が指定された状態を示す図である。 本発明の第2の実施の形態に係わる、第1の入力補助線L3が表示された計測点指定画像71Aの例を示す図である。 本発明の第2の実施の形態に係わる、第1の入力補助線L3の円の中心C1から円周方向に伸びる1本の第2の入力補助線L4が重畳表示されると共に、ボタン72も重畳表示された画像を示す図である。 本発明の第2の実施の形態に係わる、第2の入力補助線L4が点P1を通る位置まで移動された状態を示す図である。 本発明の第2の実施の形態に係わる、計測点P1が指定された状態を示す図である。 本発明の第3の実施の形態に係わる、内視鏡装置1の制御ユニット24のCPU37により実行される計測点の指定処理の流れの例を示すフローチャートである。 本発明の第3の実施の形態に係わる、第1の入力補助線L5が表示された計測点指定画像71Bの例を示す図である。 本発明の第3の実施の形態に係わる、線分である入力補助線L51の例を示す図である。 本発明の第3の実施の形態に係わる、入力補助線L5が点P1を通る位置に移動した場合を示す図である。 本発明の第3の実施の形態に係わる、ポインタCM4が所望の位置まで移動された状態を示す図である。
 以下、図面を参照して本発明の実施の形態を説明する。
(第1の実施の形態)
(構成)
 図1は、本実施の形態に係わる内視鏡装置の全体構成を示す外観図である。
 内視鏡装置1は、内視鏡2と装置本体3とを有して構成されている。内視鏡2は、細長で可撓性を有する挿入部11と、挿入部11の基端部に連設された操作部12とを有する。内視鏡2と装置本体3とは、可撓性を有するユニバーサルケーブル13によって接続されている。
 挿入部11は、図1に示すように、先端側から順に連設された、硬質な先端部14、例えば上下左右方向に湾曲可能な湾曲部15、及び可撓性を有する可撓管部16を有する。先端部14内には、先端硬質部(図示せず)が設けられており、先端硬質部内には、対物光学系及び撮像素子21(図2)が配設されている。先端部14には、観察視野を2つ有するステレオ光学アダプタ、観察視野が1つの通常観察光学アダプタ等、各種光学アダプタが着脱自在になっている。
 操作部12には、内視鏡装置1の各種動作制御を実行する際に必要な操作を行うための各種操作部材、例えばレリーズボタン、湾曲操作用ジョイスティックなど、が設けられている。ユーザは、レリーズボタンを押下することにより被写体像を撮影することができる。またユーザは、湾曲操作用ジョイスティックを傾倒させることにより湾曲部15を湾曲させて、先端部14を所望の方向に向かせることができる。
 装置本体3は、後述する制御ユニット24(図2)を内部に有しており、各種機能を実行することができる。各種機能の中には、計測処理機能が含まれている。 
 また、装置本体3には、タッチパネル17が設けられている。タッチパネル17は、タッチパネル17の画面17a上への指などの物体の接近または接触を検出してその位置情報が入力可能で、かつ内視鏡2により撮像された被写体の画像、処理メニュー等による操作制御内容を表示する入力/表示装置である。すなわち、タッチパネル17は、表示画面を有し、かつ物体が接触等した表示画面上の位置を検出するタッチパネル付き表示装置である。ユーザは、タッチパネル17の画面17a上に被写体像を表示させたり、各種機能のためのメニューを表示させて複数の機能の中から所望の機能を実行させたりすることができる。
 なお、タッチパネル17は、装置本体3に対して、ヒンジ(図示せず)等の機構により、回動自在に保持されている。図1に示すように、ユーザは、ユーザにとって画面17aが見易い姿勢にタッチパネル17の角度を調整することができる。
 図2は、内視鏡装置1の内部構成を示すブロック図である。内視鏡2の挿入部11の先端部には、撮像素子21が設けられている。装置本体3内は、内視鏡ユニット22と、カメラコントロールユニット(以下、CCUと略す)23と、制御ユニット24とを有している。挿入部11の先端部14に内蔵された撮像素子21からの撮像信号は、内視鏡ユニット22に供給される。
 内視鏡ユニット22は、ライトガイドを介して挿入部11の先端部14へ照明光を供給する光源装置(図示せず)と、挿入部11を構成する湾曲部15を湾曲させる湾曲装置(図示せず)とを備えている。なお、ライトガイドを用いず、光源装置として例えばLEDを先端部14に備えてもよい。
 撮像素子21は、先端部14に装着された光学アダプタを介して結像された被写体像を光電変換し、撮像信号を生成する。内視鏡ユニット22を介して、CCU23に、撮像素子21から出力された撮像信号が入力される。この撮像信号は、CCU23内で例えばNTSC信号等の映像信号に変換されて、制御ユニット24へ供給される。
 制御ユニット24内には、画像データである映像信号が入力される映像信号処理回路31、ROM32、RAM33、カードインターフェイス(以下、カードI/Fという)34、USBインターフェイス(以下、USBI/Fという)35、RS-232Cインターフェイス(以下、RS-232CI/F17という)36、及びこれら各種回路の機能を各種プログラムに基づいて実行し動作制御を行う中央処理装置(以下、CPUという)37とが設けられている。映像信号処理回路31、ROM32、RAM33、カードI/F34、USBI/F35、RS-232CI/F36、及びCPU37は、バス38を介して互いに接続されている。
 RS-232CI/F36には、内視鏡ユニット22およびCCU23が接続されると共に、これら内視鏡ユニット22やCCU23等の制御および動作指示を行う操作部12が接続されている。ユーザが操作部12を操作すると、その操作内容に応じて、内視鏡ユニット22およびCCU23の動作を制御する際に必要な通信が、RS-232CI/F36と内視鏡ユニット22間およびRS-232CI/F36とCCU23間で行われる。
 USBI/F35は、制御ユニット24とパーソナルコンピュータ(以下、PCと略す)41とを電気的に接続するためのインターフェイスである。このUSBI/F35を介して制御ユニット24にPC41を接続することによって、ユーザは、PC41側で内視鏡画像の表示指示や、計測時における画像処理等の各種の指示を行うことができる。制御ユニット24とPC41との間では、各種処理に必要な制御情報や画像情報等のデータ等の入出力も行われる。
 カードI/F34には、メモリカード42を着脱自在に装着することができる。メモリカード42をカードI/F34に装着することにより、CPU37は、このメモリカード42に記憶されている制御情報や画像情報等のデータの制御ユニット24への取り込み、あるいは制御情報や画像情報等のデータのメモリカード42への記録を行うことが可能になる。
 映像信号処理回路31は、CCU23から供給された内視鏡画像と、グラフィックによる操作メニューとを合成した合成画像を表示するため、CPU37の制御の下で生成された、操作メニューに基づくグラフィック画像信号とCCU23からの映像信号とを合成する。そして映像信号処理回路31は、合成画像の表示信号にタッチパネル17の画面17a上に表示するための処理を行い、タッチパネル17に供給する。なお、この映像信号処理回路31は、内視鏡画像のみを表示し、あるいは操作メニュー等の画像のみを単独で表示するための処理を行うことも可能である。したがって、タッチパネル17の画面17a上には、内視鏡画像、操作メニュー画像、内視鏡画像と操作メニュー画像との合成画像等の少なくとも1つが表示可能である。
 CPU37は、ROM32に格納されているプログラムを実行することによって、ユーザにより指定された処理を行うように各種回路等を制御して、内視鏡装置1の動作制御、計測処理等を行う。RAM33は、CPU37によって、データの一時格納用の作業領域として使用される。
 CPU37は、後述する内視鏡画像表示部、補助図形表示部、補助図形移動部、ポインタ表示部、ポインタ表示部、及び指定点決定部として機能する。またはCPU37は、内視鏡装置が内視鏡画像表示部、補助図形表示部、補助図形移動部、ポインタ表示部、ポインタ移動部、及び指定点決定部として機能させるプログラムを実行する機能を有している。
 ここで、内視鏡装置1で実行される計測処理における計測の原理の例を説明する。観察光学系に左右2つの視野を形成するステレオ光学アダプタが、被写体像を左右の光学系で捉えたときの左右の対応点の座標に基づいて、CPU37は三角測量の原理を使用して被写体の3次元空間座標を求める。この3次元空間座標によって、ステレオ計測による各種計測が可能となる。このとき、CPU37は計測処理部として機能する。
 図3は、ステレオ計測による計測点の3次元座標の求め方の例を説明するための図である。左側および右側の光学系で撮像された画像に対して、三角測量の方法により、点50の3次元座標(X、Y、Z)が以下の(1)式~(3)式で計算される。撮像素子21により、その撮像面上に投影された被写体像から得られた2つの画像のそれぞれの光学中心を、それぞれO、Oとする2つの画像が得られる。但し、歪み補正が施された左右の画像上の点51、52の座標をそれぞれ(X、Y)、(X、Y)とし、座標空間内の左側と右側の光学中心53、54間の距離をDとし、焦点距離をFとし、t=D/(X-X)とすると、点50の3次元座標(X、Y、Z)の各座標は、次の式(1)~(3)で表すことができる。
 X=t×X+D/2   ・・・(1)
 Y=t×Y       ・・・(2)
 Z=t×F       ・・・(3)
 従って、得られた2つの画像上の点51、52の座標が決定されると、パラメータDおよびFを用いて点50の3次元座標が求まる。いくつかの点の3次元座標を求めることによって、2点間の距離、2点を結ぶ線と1点との距離、面積、深さ、及び表面形状等の様々な計測が可能である。
 また、左側の光学中心53または右側の光学中心54から被写体までの距離(物体距離)を求めることも可能となる。上記のステレオ計測を行うためには、内視鏡2の先端部14とステレオ光学アダプタを含む光学系の特性を示す光学データが必要である。なお、光学データの詳細は、例えば特開2004-49638号公報に記載されているので、その説明を参照されたし。
 なお、上述した方法に限らず、アクティブステレオ計測方式、TOF(タイム・オブ・フライト)方式、共焦点方式、等の他の方法により、計測点までの距離、計測点の位置等を求めるようにしてもよい。
(作用)
 次に、計測時における内視鏡装置1の動作を説明する。図4は、内視鏡画像の例を示す図である。図5は、内視鏡装置1の制御ユニット24のCPU37により実行される計測点の指定処理の流れの例を示すフローチャートである。
 内視鏡装置1は、複数のモードを有しており、ユーザにより設定されたモードに応じた動作を実行する。内視鏡装置1は、計測モードに設定されると、ユーザにより指定された指定点についての計測処理を行う。すなわち、内視鏡装置1は、指定点によって指定された内視鏡画像上の位置を基に、所定の処理の一つである計測処理を行う内視鏡画像処理装置ということができる。計測処理は、ここでは、決定された指定点に対応する、内視鏡画像EIに映し出された被写体の対応点の3次元位置座標に基づいて行われる。
 ここでは、図4に示す内視鏡画像EI上で、ユーザが計測点の指定を行う場合を例として、図5のフローチャートに沿って、計測処理のための計測点の指定処理について説明する。図4は、被写体の画像として、タービンブレード61の一部が欠けた部分を示す内視鏡画像EIを示している。ここでは、ユーザは、欠けた部分の2つの点P1、P2の距離を計測するために、2つの点P1、P2を計測点として指定する場合を想定する。
 計測モードが設定された後に、ユーザが、例えばタッチパネル17の画面17a上を指で触ると、図5の処理が開始される。図5の計測点指定処理プログラムがROM32に記憶されており、CPU37は、ROM32から計測点指定処理プログラムを読み出して実行する。図5の処理が開始されると、図4に示したように内視鏡画像EIが画面17a上に表示される(S1)。S1の処理が、表示画面である画面17aに内視鏡画像EIを表示する内視鏡画像表示部を構成する。なお、S1の処理では、撮像素子21により撮像して得られた内視鏡画像EIは、所定の操作により、画面17a上で、拡大表示若しくは縮小表示することも可能となっている。
 この内視鏡画像EIが表示された状態で、例えば、ユーザが指で画面17a上を1回タップすると、第1の入力補助線の表示処理が実行される(S2)。図6は、第1の入力補助線L1が表示された計測画面71の例を示す図である。入力補助線L1は、指定点である計測点の位置決定を補助するための補助図形である。
 第1の入力補助線の表示処理(S2)により、図6に示すように、画面17aに表示される計測画面71では、内視鏡画像EI上に1本の直線である入力補助線L1が重畳表示されると共に、2つのボタン72、73も重畳表示される。ボタン72は、入力補助線L1についてのボタンであり、後述するように入力補助線を回転させるためのボタンである。ボタン73は、後述するように、第2の入力補助線L2を表示させるためのボタンである。
 入力補助線L1は、矩形の計測画面71に水平な線であり、計測画面71上の予め決められた位置に表示される。入力補助線L1は、図6では点線で示しているが、入力補助線L1の表示形態はこれに限定されない。例えば点線に代えて、特定の色の線で表示されるようにしてもよい。さらに、入力補助線L1の表示色は、設定変更可能であってもよい。これは、被写体には様々な色のものがあるので、その色とは異なる色で表示して被写体と区別できるようにするためである。
 入力補助線L1は、ユーザが指で画面17a上をタップすると、計測画面71に水平な線として表示される。あるいは、ユーザが指で画面17a上の任意の2点をタップし、そのタップされた2点を結ぶ線を入力補助線L1として計測画面71上に表示するようにしてもよい。あるいは、ユーザが指で画面17a上を触りながらなぞり、その開始点と終了点を結ぶ線を入力補助線L1として計測画面71上に表示するようにしてもよい。 
 以上のように、S2の処理は、表示画面上において、指定点の位置決定を補助するための第1の補助図形を表示する補助図形表示部を構成する。
 S2の後、入力補助線L1が表示された状態で、入力補助線L1を移動させることができる第1の入力補助線L1の移動処理が実行される(S3)。
 第1の入力補助線L1の移動方法には複数の方法があり、ユーザは所望の方法を利用して、CPU37に入力補助線L1を移動させることができる。複数の移動方法には、例えば、次のような方法がある。
 (第1の移動方法)
 ユーザが指で、画面17a上で入力補助線L1を触れて選択し、その状態で所望の方向へドラッグすることによって、入力補助線L1が計測画面71上で平行移動する。この第1の移動は、指の動き量、すなわち画面17a上で触れられた位置の移動量、に応じたものであるので、計測画面71上での入力補助線L1の移動量は、比較的大まかなものである。
 (第2の移動方法)
 ユーザが指で、画面17a上で入力補助線L1外を触れると、触れられた位置の方向へ向かって、所定のピクセル単位、例えば1ピクセル単位で、入力補助線L1が計測画面71上で平行移動する。この第2の移動は、ピクセル単位の移動なので、計測画面71上での入力補助線L1の細かな移動を可能にするものである。
 (第3の移動方法)
 ユーザが指で、画面17a上で入力補助線L1外を触れながらスライドする、あるいは軽く撫でると、そのスライドした量あるいは撫でた量に比例した量だけ、そのスライドした方向に向かって、入力補助線L1が計測画面71上で平行移動する。この第3の移動は、指の動きに応じたものであるので、計測画面71上での入力補助線L1の移動量は、比較的大まかなものである。
 (第4の移動方法)
 ユーザが指で、画面17a上を触りながらなぞると、そのなぞった方向に、入力補助線L1を一点速度で移動し続けるように表示し、再度ユーザが指で画面17aに触れると移動が止まるようにして、所望の位置まで入力補助線L1が移動する。
 図7は、入力補助線L1の平行移動を説明するための図である。図7に示すように、上記の第1から第4の移動方法により、ユーザは、入力補助線L1を、矢印A1で示す方向に一点鎖線L11で示すように移動させて、最終的には、入力補助線L1を点P1を通る位置に位置させることができる。
 以上説明した4つの移動方法は、入力補助線L1を平行移動させる方法であるが、ボタン72を用いて入力補助線L1を回転させる移動方法もある。
 (第5の移動方法)
 ユーザが指で、画面17a上でボタン72に対応する位置に触れながらドラッグすると、ドラッグの移動量だけ、入力補助線L1の所定の位置、例えば入力補助線L1の中点、を中心として、ドラッグした方向に入力補助線L1が回転する。
 この第5の移動は、指の動きに応じたものであるので、計測画面71上での入力補助線L1の回転量は、比較的大まかなものである。
 (第6の移動方法)
 ユーザが指で、画面17a上でボタン72に触れた後、入力補助線L1以外の位置に触れると、入力補助線L1の所定の位置、例えば入力補助線L1の中点、を中心として、触れた位置の方向に向かって、所定量だけ、入力補助線L1が回転する。回転の所定量は、例えば、入力補助線L1の中央の位置を中心とする仮想の所定の円上の1画素分、入力補助線L1の中央の位置を中心として1度分、等である。
 この第6の移動は、仮想の所定の円上の1画素分、等の所定量の移動なので第1の入力補助線L1の細かな回転を可能にするものである。
 図8は、入力補助線L1の回転を説明するための図である。図8に示すように、上記の第5及び第6の回転方法により、ユーザは、入力補助線L1を矢印A2で示す方向に、一点鎖線L12で示すように回転させて、入力補助線L1を点P1を通る位置に位置させることができる。
 以上のように、S3の処理は、補助図形である第1の入力補助線L1を、ユーザの入力に基づいて平行移動あるいは回転させて移動する補助図形移動部を構成する。そして、S3では、タッチパネル17の画面17a上の触れられた位置及び移動量に応じて、第1の入力補助線L1が移動される。あるいはS3では、タッチパネル17の画面17a上へのタップ回数又は接触時間に応じて、画面17aに表示された内視鏡画像EIの表示画素単位で、第1の入力補助線L1が移動される。
 CPU37は、ユーザの入力に基づいて以上の方法を利用して、入力補助線L1を移動し、点P1を通る位置に位置させることができる。図9は、入力補助線L1が点P1を通る位置に位置された状態を示す図である。図9は、上記の第1から第4の移動方法により、CPU37が、入力補助線L1を、点P1を通る位置に移動させた状態を示す。
 以上のようにして、第1の入力補助線L1の移動処理(S3)の後に、ユーザが第1の入力補助線L1の確定指示をしたか否かがCPU37によって判断される(S4)。その確定指示の有無は、ここでは、ユーザは、ボタン73に触れたか否かによって、行われる。なお、その確定指示は、ボタン73に触れる方法以外の方法で行うようにしてもよい。
 なお、第1の入力補助線L1は、画面17a上の2画素分、3画素分などの複数の画素幅を有する線として表示してもよい。この場合、S4において、入力補助線L1の位置は、その複数の画素幅の中心の値を用いて決定される。
 入力補助線L1が点P1を通る位置に位置した後、ユーザがボタン73の位置を触れなければ(S4:NO)、処理は、S3に戻る。ユーザがボタン73の画面17a上の位置に触れると(S4:YES)、第1の入力補助線L1の位置を決定する第1の入力補助線の位置決定処理がCPU37によって実行される(S5)。その後、第2の入力補助線L2の表示処理が実行され(S6)、続いて、ポインタ表示処理が実行される(S7)。図10は、第2の入力補助線L2が表示された計測画面71の例を示す図である。
 第2の入力補助線L2の表示処理(S6)により、図10に示すように、内視鏡画像EI上に入力補助線L2が重畳表示される。点線で示した入力補助線L2は、矩形の計測画面71に垂直な線であり、計測画面71上の予め決められた位置に表示される。S6の処理が、画面17a上において、指定点の位置決定を補助するための第2の補助図形を表示する補助図形表示部を構成する。
 なお、第2の入力補助線L2も、第1の入力補助線L1と同様に、特定の色の線で表示されてもよいし、入力補助線L2の表示色を設定変更可能としてもよい。
 さらになお、入力補助線L2も、上述した第1の入力補助線L1と同様に、ユーザが指で、画面17a上の任意の2点をタップし、そのタップされた2点を結ぶ線が入力補助線L2として計測画面71上に表示されてもよい。あるいはユーザが指で、画面17a上を触りながらなぞり、その開始点と終了点を結ぶ線が入力補助線L2として計測画面71上に表示されてもよい。
 そして、ポインタ表示処理(S7)により、図10に示すように、第1の入力補助線L1と第2の入力補助線L2との交点に、所定のマークとしてポインタCM1が併せて表示される。ポインタCM1は、ここでは、十字マークであり、例えば第1と第2の入力補助線L1、L2の色とは異なる色で表示される。この所定のマークの色も、ユーザが設定変更可能であってもよい。S7の処理が、画面17aの第1の入力補助線L1上に、指定点の内視鏡画像EI上の位置を指定するためのポインタCM1を表示させるポインタ表示部を構成する。S7では、第1の補助図形である入力補助線L1と第2の補助図形である入力補助線L2に基づいて決定された交点の位置に、ポインタCM1が表示される。
 なお、ポインタCM1は、PCのカーソルと同様な矢印マークでもよいし、丸マークで中心に十字を有するもの、等であってもよい。
 また、このとき、図10に示すように、入力補助線L2についてのボタン72Aも内視鏡画像EIに重畳表示される。ボタン72Aは、入力補助線L2についてのボタンであり、上述したボタン72と同様の機能を有し、入力補助線L2を回転させるためのボタンである。
 S7の後、第2の入力補助線L2についても、第1の入力補助線L1と同様の移動が可能である。CPU37は、ユーザの入力に基づいて上述した第1から第6の移動方法を用いて、第2の入力補助線L2を、所望の位置まで正確に移動することができる(S8)。
 例えば、第1、第3又は第4の移動方法により、CPU37は矢印A3で示す方向に一点鎖線L21で示すように、入力補助線L2を大まかに平行移動させる。そしてCPU37は、第2の移動方法により、入力補助線L2を細かく平行移動させて、入力補助線L2を点P1を通る位置まで移動させる。 
 あるいは、CPU37は、ボタン72Aに対するユーザの入力を用いて、上述した第5及び第6の移動方法により、入力補助線L2を回転させて、入力補助線L2を点P1を通る位置まで回転するようにしてもよい。
 以上のように、S8の処理は、補助図形である第2の入力補助線L2を、平行移動あるいは回転させて移動する補助図形移動部を構成する。そして、S8では、タッチパネル17の画面17a上の触れられた位置及び移動量に応じて、第2の入力補助線L2を移動可能である。あるいはS8では、タッチパネル17の画面17a上へのタップ回数又は接触時間に応じて、画面17aに表示された内視鏡画像EIの表示画素単位で、第2の入力補助線L2を移動可能である。
 S8において、ポインタCM1は常に第1と第2の入力補助線L1、L2の交点に存在する。よって、第1の入力補助線L1又は第2の入力補助線L2の移動に応じて、ポインタCM1も同時に移動する(S9)。すなわち、S9の処理は、補助図形である第1の入力補助線L1上でポインタCM1を移動させるポインタ移動部を構成する。
 第1及び第2の入力補助線L1、L2が目的とする点P1をそれぞれが通る位置に移動されたとき、ユーザが第2の入力補助線L2の確定指示をしたか否かがCPU37によって判断される(S10)。その確定指示は、例えば、ユーザが指で画面17a上のポインタCM1の位置をダブルタップする等により行うことができる。
 なお、第2の入力補助線L2の確定指示がされないときは(S10:NO)、第1の入力補助線L1の選択がされたか否かがCPU37によって判定される(S11)。ここでは、第2の入力補助線L2の移動が行われた後に、第1の入力補助線L1の位置を変更する場合には、ユーザが指で第1の入力補助線L1を触れると、第1の入力補助線L1の選択がされたとCPU37によって判定される。
 第1の入力補助線L1の選択がされたときは(S11:YES)、処理は、S3へ移行して、第1の入力補助線L1の移動が可能となる。この場合、第1と第2の入力補助線L1、L2は表示されている状態であるので、第1の入力補助線L1の移動があると、第1の入力補助線L1の移動に伴って、ポインタCM1も同時に移動する。 
 第1の入力補助線L1の選択がされないと(S11:NO)、処理は、S8へ移行する。
 以上のようにして、第1と第2の入力補助線L1、L2の位置をそれぞれ独立して移動可能であり、ユーザは、第1と第2の入力補助線L1、L2の交点にあるポインタCM1の中心を、点P1に合わせることができる。
 図11は、入力補助線L2が点P1を通る位置まで移動された状態を示す図である。図11に示す状態で、ポインタCM1の中心が点P1に合致またはほぼ合致した状態で、ユーザが確定指示をすると(S10:YES)、第2の入力補助線L2の位置を決定する第2の入力補助線の決定処理が実行される(S12)。そして、第1と第2の入力補助線L1、L2の交点であるポインタCM1の位置を決定するポインタ位置決定処理が実行される(S13)。
 ポインタ位置決定処理により、ポインタCM1の位置に対応する位置にある点P1が、第1の計測点として決定される。ポインタ位置決定処理(S13)が実行されると、画面17aにおいては、2つの入力補助線L1、L2の表示は消えて、ポインタCMのみが表示される。よって、S13の処理が、ポインタCM1により指示された内視鏡画像EI上の位置を、指定点として決定する指定点決定部を構成する。
 以上のように、第1の計測点としての点P1は、独立して移動可能な2つの入力補助線L1、L2により指定される。このとき、ポインタCM1は、常に2つの入力補助線L1、L2の交点に存在する。ポインタCM1は、2つの入力補助線L1、L2の移動に伴って同時に移動する。従って、このように2つの入力補助線L1、L2の移動に応じて、ポインタCM1が移動するので、ポインタCM1がユーザの指で隠れてしまうということはない。さらに、各入力補助線は、第2又は第5の移動方法により、細かく移動させることができるため、ポインタCM1による、計測点の正確な指定も可能となる。
 次に、点P2についての計測点の指定は、ユーザが指で画面17a上を、再度1回タップすることにより行うことができる。すなわち、ユーザが指で画面17a上を、再度1回タップすると、再び第1の入力補助線L1の表示処理が実行され(S2)、その後、上述したS3からS11の処理が実行されて、点P1と同様に、点P2についての計測点を指定できる。
 図12は、2つの計測点P1、P2が指定された状態を示す図である。図12に示すように、ユーザの入力に基づいてCPU37により位置が決定された2つのポインタCM1、CM2が、それぞれ2つの計測点P1、P2に対応している。
 図5の処理の後、ユーザは、指定した2点P1、P2間の距離を算出する計測処理プログラムをCPU37に実行させることができる。ここでは、計測処理は、決定された2つの指定点に対応する、内視鏡画像EIに映し出された被写体の対応点の3次元位置座標に基づく計測処理、例えば2点間距離測定など、である。
 なお、以上は、ユーザが2つの計測点を指定する場合を説明したが、先端部14から計測点までの距離を計測する場合のように、1つの計測点のみを指定する場合は、上述した点P1についての計測点の指定だけとなる。
 また、上述した例では、ユーザの入力に基づいてCPU37が入力補助線L1、L2を移動させるときはそれぞれ別々に移動可能である。一方の入力補助線が移動をしていされているときは、他方の入力補助線の移動はされない。しかしながら、2つの入力補助線L1、L2がユーザによって同時に触れられている状態で、CPU37が入力補助線L1と入力補助線L2を同時に別々に動かすことができるようにしてもよい。
 さらにまた、ポインタCM1あるいはCM2が触れられている状態でドラッグされると、その触れられているポインタの移動に伴って、そのポインタを通る2つの入力補助線L1、L2がCPU37によって同時にドラッグされるようにしてもよい。
 なお、上述した例では、第1の入力補助線L1の位置が決定された後に、第2の入力補助線L2が表示されている。最初から2本の入力補助線L1、L2が同時に表示されてもよい。その場合、ユーザが移動したい入力補助線を選択できるようにして、移動可能な入力補助線は、移動不可能な入力補助線の色とは異なる色で表示されるようにしてもよい。これにより、ユーザは移動できる入力補助線を認識できる。例えば、ユーザが画面17a上の所定のボタンを触れることによって、CPU37は一方の入力補助線のみを、他方の入力補助線の色(例えば黒色)とは異なる色(例えば赤色)で表示する。そしてユーザが再度所定のボタンを触れると、CPU37は他方の入力補助線を一方の入力補助線の色(例えば黒色)とは異なる色(例えば赤色)で表示する。この場合、移動可能な入力補助線の色と、移動不可能な入力補助線の色とは、それぞれユーザによって設定変更可能としてもよい。
 さらになお、上述した第1と第2の入力補助線は直線であるが、線分、曲線、あるいは閉曲線でもよい。
 以上のように、上述した実施の形態の内視鏡装置によれば、CPU37はユーザの入力に基づき、2本の入力補助線を用いてそれぞれを個別に移動させてポインタを表示させている。そのため、ポインタの位置がユーザの指で隠れてしまうこともなく、タッチパネル上で正確な計測点の指定を容易に行うことができる。
(第2の実施の形態)
 第1の実施の形態の内視鏡装置では、直線である2本の入力補助線によって、計測点の指定が行われている。本実施の形態の内視鏡装置では、円と直線の2つの入力補助線によって、計測点の指定が行われる。
 本実施の形態の内視鏡装置の構成は、第1の内視鏡装置の構成と同じであり、その構成と計測点の指定処理は、図1、図2及び図5と同様であるので、以下、第1の実施の形態と同じ構成については同じ符号を用いて説明は省略し、第1の実施の形態と異なる動作について図4の内視鏡画像の例を用いて説明する。
 本実施の形態の内視鏡装置も、計測モードが設定された後に、ユーザがタッチパネル17の画面17a上を指で触れると、CPU37によって図5の処理が開始される。そして、図4の内視鏡画像EIが表示(S1)された状態で、ユーザが指で画面17a上を1回タップすると、第1の入力補助線L3の表示処理が実行される(S2)。
 図13は、第1の入力補助線L3が表示された計測画面71Aの例を示す図である。第1の入力補助線L3の表示処理(S2)により、計測画面71Aでは、内視鏡画像EI上に1つの円の第1の入力補助線L3が重畳表示されると共に、ボタン73も重畳表示される。
 円の入力補助線L3は、計測画面71A上の予め決められた位置に表示される。入力補助線L3は、図13では点線で示しているが、特定の色の線で表示されてもよい。入力補助線L3の表示色も、第1の実施の形態と同様に、ユーザによって設定変更可能であってもよい。
 ユーザが指で画面17a上の任意の2点をタップすると、そのタップされた2点の一方を円の中心とし、他方を円の円周上の点とする円形の線が入力補助線L3として表示される。あるいは、ユーザが指で画面17a上を触りながら円形になぞると、そのなぞった線に沿って近似した円形の線が入力補助線L3として表示される。 
 S2の後、第1の入力補助線L3が表示された状態で、第1の入力補助線L3を移動、拡大及び縮小させることができる第1の入力補助線L3の拡大縮小処理を含む移動処理が実行される(S3)。 
 第1の入力補助線L3の拡大縮小方法には、複数の方法があり、ユーザは、所望の方法を利用して、CPU37に第1の入力補助線L3を移動させることができる。複数の拡大縮小方法には、例えば、次のような方法がある。
 (第1の拡大縮小方法)
 ユーザが指で、画面17a上で第1の入力補助線L3である円の線上を触れて選択する。その状態で円の外周方向あるいは中心方向へドラッグすることによって、もしくは第1の入力補助線L3の円を、2本の指でそれぞれドラッグして近づけたり遠ざけたりする動作であるピンチ動作で動かすことによって、CPU37は、第1の入力補助線L1である円を計測画面71A上で拡大あるいは縮小する。
 この第1の拡大縮小方法は、指の動きに応じたものであるので、計測画面71A上での第1の入力補助線L3の移動量は、比較的大まかなものである。
 (第2の拡大縮小方法)
 ユーザが指で、画面17a上で第1の入力補助線L3の外側若しくは内側をタップする。タップされた位置の方向へ向かって、1ピクセル単位で、第1の入力補助線L3の円は、計測画面71A上で拡大もしくは縮小する。円の外側がタップされると、CPU37はタップの回数に応じて、1ピクセル単位で、第1の入力補助線L3を拡大する。一方、円の内側がタップされると、CPU37はタップの回数に応じて、所定のピクセル単位、例えば1ピクセル単位で、第1の入力補助線L3を縮小する。
 この第2の拡大縮小は、ピクセル単位の拡大若しくは縮小なので、計測画面71A上での第1の入力補助線L3の細かな拡大もしくは縮小を可能にするものである。なお、CPU37は、タップの接触時間に応じたピクセル量で、円を、拡大若しくは縮小するようにしてもよい。
 なお、第3の拡大縮小方法として、拡大と縮小の指示のための2つのアイコン、2つのボタンなどを表示させて、そのどちらかのアイコン又はボタンがユーザによってタップ等することによって、CPU37はタップの回数若しくは接触時間に応じて、ピクセル単位の拡大若しくは縮小を行ってもよい。
 また、第1の入力補助線L3の移動も可能である。
 (第1の移動方法)
 ユーザが指で、画面17a上で第1の入力補助線L3の中心を触れて選択して選択状態にする。その状態で所望の方向へドラッグすることによって、CPU37は、第1の入力補助線L3を計測画面71A上で平行移動する。
 (第2の移動方法)
 ユーザが指で、画面17a上で入力補助線L3の円の外を触れると、CPU37は触れられた位置の方向へ向かって、1ピクセル単位で、入力補助線L3を計測画面71A上で平行移動する。
 この第2の移動は、ピクセル単位の移動なので、計測画面71A上での入力補助線L3の細かな移動を可能にするものである。
 (第3の移動方法)
 ユーザが指で、画面17a上で第1の入力補助線L3の中心を触れて選択する。その状態で画面17a上を触りながらなぞると、CPU37はそのなぞった方向に、入力補助線L3を一点速度で移動し続ける。そしてユーザが指で再度画面17aに触れるとCPU37は入力補助線L3の移動を止め、入力補助線L3は所望の位置まで移動される。
 図13は、入力補助線L3の拡大縮小及び平行移動を説明するための図である。図13に示すように、上記の第1から第3の拡大縮小及び上記第1から第3の移動方法により、CPU37は、入力補助線L3の円の拡大(図13のB1方向)、円の縮小(図13のB2方向)、及び円の移動(例えば矢印B3で示す方向への移動)、を行うことができる。
 以上の方法により、CPU37はユーザの入力に基づいて、円形の図形である入力補助線L3を、所望の位置、例えば、点P1を通る位置に、拡大、縮小若しくは移動させることができる。
 円周の線である第1の入力補助線L3が点P1の位置にほぼ一致したら、ユーザがボタン73を押す。CPU37がユーザによるボタン73への入力を検知したら(S4:YES)、第1の入力補助線L3の位置が決定される(S5)。そして、図14のような画像が表示される(S6)。図14は、第1の入力補助線L3の円の中心C1から円周方向に伸びる1本の第2の入力補助線L4が内視鏡画像EIに重畳表示されると共に、ボタン72も重畳表示された画像を示す図である。そして、第1の入力補助線L3と第2の入力補助線L4の交点に、ポインタCM3が表示される(S7)。CPU37は、第2の入力補助線L4を次の4つの方法により、回転あるいは移動することができる(S8)。
 (第1の回転方法)
 ユーザが指で、画面17a上で、ボタン72に対応する位置に触れながらドラッグすると、CPU37はドラッグの移動量だけ、矢印B4あるいはB5で示すドラッグした方向に入力補助線L4を回転させる。
 この第4の移動は、指の動きに応じたものであるので、計測画面71A上での第2の入力補助線L4の回転量は、比較的大まかなものである。
 (第2の回転方法)
 ユーザが指で、画面17a上でボタン72を触れると、入力補助線L4に対して触れた位置に応じて、CPU37は入力補助線L4の所定の位置、例えば入力補助線L4の中央の位置、を中心として、触れられた位置の方向に向かって、所定量だけ、入力補助線L4を計測画面71A上で回転させる。回転の所定量は、入力補助線L4の中央の位置を中心とする仮想の所定の円上の1画素分、入力補助線L4の中央の位置を中心として1度分、等である。
 この第2の回転は、仮想の所定の円上の1画素分、等の所定量の回転なので、計測画面71A上での入力補助線L4の細かな回転量を可能にするものである。
 (第3の回転方法)
 ユーザが指で、画面17a上を触りながらなぞると、CPU37はそのなぞった方向に、入力補助線L4を一点速度で回転させる。そして再度ユーザが指で画面17aに触れるとCPU37は入力補助線L4の回転を止め、入力補助線L4は所望の位置まで回転される。
 また、CPU37は入力補助線L3及びL4を同時に移動することもできる。ユーザが第1の入力補助線L3の円の中心に触れながら、例えば矢印B6で示す方向にドラッグすると、CPU37は第1の入力補助線L3と第2の入力補助線L4との相対的な位置関係を保持したまま、第1の入力補助線L3と第2の入力補助線L4とを平行移動させることができる。
 以上のようにして、CPU37は、円の第1の入力補助線L3と直線の第2の入力補助線L4とを独立して回転若しくは移動させることができる。第1の入力補助線L3と第2の入力補助線L4とのいずれかが回転若しくは移動されているとき、CPU37はポインタCM3を常に第1の入力補助線L3と第2の入力補助線L4との交点に存在するように移動させる(S9)。第1の入力補助線L3と第2の入力補助線L4とのいずれかにユーザが触れているかをCPU37が検知することによって、CPU37は第1の入力補助線L3と第2の入力補助線L4とのどちらを回転若しくは移動させるかを切り換えることが可能である。なお、選択された方の入力補助線の色が変わる等により、選択状態がユーザに識別できるようにしてもよい。
 図15は、第2の入力補助線L4が点P1を通る位置まで移動された状態を示す図である。図15に示す状態で、ポインタCM3の中心が点P1に合致またはほぼ合致した状態で、ユーザによる確定指示(例えばポインタCM3に対するダブルタップ)をCPU37が検知すると(S10:YES)、第2の入力補助線L4の位置を決定する第2の入力補助線L4の決定処理が実行され(S12)、第1の入力補助線L3と第2の入力補助線L4との交点であるポインタCM3の位置を決定するポインタ位置決定処理が実行される(S13)。
 図16は、計測点P1が指定された状態を示す図である。図16に示すように、ユーザの入力に基づいてCPU37により位置が決定されたポインタCM3が、計測点P1の指定点に対応している。 
 そして、計測点P2についても、上述した第1の計測点P1と同様に、ユーザが指で画面17a上を、再度1回タップすることにより、CPU37は、再び第1の入力補助線L1の表示処理(S2)に戻り、同様の処理により、新たなポインタを表示させて指定点として指定することができる。
 なお、上記の例では、CPU37は第1の入力補助線L3として円形の図形を表示し、次に第2の入力補助線L4として直線の図形を表示させている。しかしながらCPU37は、最初に、第1の入力補助線L3として直線の図形を表示し、次に第2の入力補助線L4として円形の図形を表示させてもよい。
 以上のように、上述した実施の形態の内視鏡装置によれば、CPU37は円形の入力補助線と直線の入力補助線とを用いてそれぞれを個別に、拡大、縮小、移動等をさせてポインタを表示させている。このため、ポインタの位置がユーザの指で隠れてしまうこともなく、タッチパネル上で正確な計測点の指定を容易に行うことができる。
 さらになお、上述した第2の入力補助線L4は直線であるが、線分、曲線、あるいは閉曲線でもよい。
(第3の実施の形態)
 第1及び第2の実施の形態の内視鏡装置では、直線である2つの入力補助線又は円と直線である2つの入力補助線とによって、計測点の指定が行われているが、本実施の形態の内視鏡装置では、直線の1つの入力補助線のみによって、計測点の指定が行われる。
 本実施の形態の内視鏡装置の構成は、第1の内視鏡装置の構成と同じであり、その構成と計測点の指定処理は、図1、図2及び図5と同様あるいは類似するので、以下、第1の実施の形態と同じ構成については同じ符号を用いて説明は省略し、第1の実施の形態と異なる動作について図4の内視鏡画像EIの例を用いて説明する。図5に代わって図17により、本実施の形態の内視鏡装置1の動作を説明する。図17は、内視鏡装置1の制御ユニット24のCPU37により実行される計測点の指定処理の流れの例を示すフローチャートである。
 本実施の形態の内視鏡装置も、計測モードが設定された後に、ユーザがタッチパネル17の画面17a上を指で触れると、CPU37によって図17の処理が開始される。そして、図4の内視鏡画像EIが表示(S1)された状態で、ユーザが指で、画面17a上を1回タップすると、CPU37によって第1の入力補助線L5の表示処理が実行される(S2)。
 図18は、第1の入力補助線L5が表示された計測画面71Bの例を示す図である。第1の入力補助線L5の表示処理(S2)により、図18に示すように、計測画面71Bには、内視鏡画像EI上に1本の直線の第1の入力補助線L5が重畳表示されると共に、エッジ検出ボタン73Bも重畳表示される。
 入力補助線L5は、計測画面71B上の予め決められた位置に表示される。入力補助線L5は、図18では点線で示しているが、特定の色の線で表示されてもよい。入力補助線L5の表示色は、第1の実施の形態と同様に、ユーザによって設定変更可能であってもよい。
 入力補助線L5は、ユーザが指で画面17a上をタップすると、CPU37によって計測画面71Bに水平な線として表示される。ユーザが指で、画面17a上の任意の2点をタップすると、CPU37がそのタップされた2点を結ぶ線を入力補助線L5として計測画面71B上に表示するようにしてもよい。あるいは、ユーザが指で、画面17a上を触りながら円形になぞると、CPU37がそのなぞった線に沿った直線を入力補助線L5として計測画面71B上に表示するようにしてもよい。 
 さらになお、入力補助線L5は、線分L51でもよい。図19は、線分である入力補助線L51の例を示す図である。
 S2の後、入力補助線L5が表示された状態で、入力補助線L5を移動することができる入力補助線L5の移動処理が実行される(S3)。 
 入力補助線L5の移動方法は、第1の実施の形態で説明した第1から第6の移動方法と同様で、複数の方法があり、CPU37は、ユーザの入力に基づいて所望の方法を利用して、入力補助線L5を移動させることができる。図18に示すように、上記の第1から第4の移動方法により、CPU37は、入力補助線L5の移動(矢印C1、C2方向への移動)を行うことができる。さらに、第1の実施の形態で説明した第5と第6の移動方法により、CPU37は、入力補助線L5の回転を行うことができる。
 以上の方法により、CPU37はユーザの入力に基づいて、直線の入力補助線L5を、所望の位置、例えば、点P1を通る位置に、移動させることができる。図20は、入力補助線L5が点P1を通る位置に移動された場合を示す図である。
 次に、S3の処理の後、CPU37はエッジ検出の指示があったか否か、すなわちエッジ検出ボタン73Bが押されたか否かを判定する(S21)。入力補助線L5が点P1を通る位置にほぼ一致したら、ユーザがエッジ検出ボタン73Bを押す。CPU37がユーザによるボタン73Bへの入力を検知したら(S21:YES)、第1の入力補助線L5の位置が決定される(S5)。そして、エッジ検出処理が実行される(S22)。
 エッジ処理は、内視鏡画像EIの輝度情報に基づいて、入力補助線L5上のエッジ部を検出する。そしてCPU37は、検出されたエッジ部の位置に、ポインタCM4を表示する(S23)。S23の処理が、画面17aの入力補助線L5上に、指定点の内視鏡画像EI上の位置を指定するためのポインタCM4を表示させるポインタ表示部を構成する。S23では、第1の補助図形である入力補助線L5上のエッジ部の位置に、ポインタCM4が表示される。ユーザがエッジ検出指示をするだけで、CPU37によって点P1にポインタCM4を表示させることができ、操作が容易である。
 なお、エッジ検出処理により、複数のエッジ部が検出された場合は、複数のポインタ候補が複数のエッジ部の位置に出現する。このとき、ユーザが所望のポインタをタップすることにより、CPU37がそのタップされた位置を指定点として確定させるようにしてもよい。すなわち、S23において、第1の入力補助線L5上に複数のポインタ候補が表示される。次にS24において、ユーザによる所定の操作、例えばユーザが入力補助線L5をタップすることにより、CPU37はその表示された複数のポインタ候補間で、ポインタCM4を移動させる。ユーザは所望のポインタ候補の位置にポインタCM4が有るときにそのポインタCM4をタップし、CPU37に指定点を確定させるようにしてもよい。 
 なお、ユーザが消したいポインタを長押しする(すなわち長く触れる)ことにより、CPU37はそのポインタを消去できるようにしてもよい。
 さらに、複数のポインタが表示され、複数のポインタが密集していて見づらい場合にはユーザが計測画面71B上をピンチすると、CPU37はピンチした場所を中心に拡大処理が行われるようにしてもよい。
 また、エッジ検出において、余計なエッジ部の検出がされないようにするために、あるいはより多くのエッジ部が検出されるように、図19のようにCPU37は線分51の長さを変えたり、検出されたエッジ部により形成される線の曲率半径が所定の範囲のものに限定したりする等の処理を行って、エッジ検出の検出範囲を変更するようにしてもよい。
 そして、CPU37は、ユーザの入力に基づいてポインタCM4を移動させることができる(S24)。そのポインタCM4の移動方法も、第1の実施の形態で説明した第1から第6の移動方法と同様で、複数の方法がある。ここでは、エッジ検出処理により決定されたポインタCM4の位置を微修正するため、主に、ユーザの入力に基づく細かな移動方法を利用して、CPU37は、入力補助線L5を移動する。
 なお、ポインタの移動は別の方法で行うようにしてもよい。例えば、ユーザがポインタCM4をダブルタップすると、CPU37はそのポインタCM4を通るもう一つの直線を表示する。そして、上述した第1から第6の移動方法を利用してCPU37が直線を移動させると、その直線と入力補助線L5との交点にあるポインタが、直線の移動に伴って移動する。これにより、ポインタCM4を移動することができる。
 以上のようにして、第1の入力補助線L5は移動可能であり、エッジ検出処理によりポインタCM4が表示され、かつポインタCM4も入力補助線L5とは独立して移動可能である。
 S24の後、再度、入力補助線L5を移動させることもできる(S11、S3)。入力補助線L5とポインタCM4のどちらを移動させるかは、ユーザが入力補助線L5とポインタCM4のいずれかに触れることをCPU37が検知することで切り換えることが可能である。選択された方の入力補助線L5又はポインタCM4の色が変わる等により、選択状態がユーザに識別できるようにしてもよい。
 図21は、ポインタCM4が所望の位置まで移動された状態を示す図である。図21に示す状態で、例えばユーザがポインタCM4をダブルタップすることなどにより、CPU37がユーザによる確定指示を検知すると(S10:YES)、CPU37はポインタCM4の位置を決定するポインタ位置決定処理を実行する(S13)。S13の処理の結果、画面17aは、図16に示す画面になる。
 さらになお、上述した第1の入力補助線L5は、直線あるいは線分であるが、曲線又は閉曲線でもよい。
 そして、計測点P2についても、上述した第1の計測点P1と同様に、ユーザが指で画面17a上を、再度1回タップすることにより、処理は、再び第1の入力補助線L1の表示処理(S2)に戻り、同様の処理により、ポインタを表示させて指定点として指定することができる。
 また、本実施の形態では、CPU37が第1の入力補助線L5の位置を決定した後に、エッジ検出処理により、エッジ部にポインタCM4が表示される。このとき、表示されたポインタCM4の位置を移動させることなく、CPU37がポインタCM4の位置を決定、すなわち確定させるようにすれば、CPU37はエッジ検出処理により決定されたポインタCM4の位置を、自動的に計測点として決定することができる。
 以上のように、上述した実施の形態の内視鏡装置によれば、入力補助線L5についてのエッジ検出処理により、ポインタを表示させているので、ポインタの位置がユーザの指で隠れてしまうこともなく、かつ、その表示されたポインタも移動できるので、タッチパネル上で正確な計測点の指定を容易に行うことができる。
 以上のように、上述した各実施の形態に係る内視鏡装置によれば、タッチパネル上で正確な計測点等の指定点の指定が容易な内視鏡装置を実現することができる。 
 なお、上述した各実施の形態は、内視鏡装置における指定点が計測点である例であるが、指定点は、画面17a上に表示されたメニュー画面上の機能ボタン等を押すための指示点等でもよい。
 また、以上説明した動作を実行する内視鏡画像処理用プログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD-ROM等の可搬媒体や、ハードディスク等の記憶媒体に、その全体あるいは一部が記録され、あるいは記憶されている。そのプログラムがコンピュータにより読み取られて、動作の全部あるいは一部が実行される。あるいは、そのプログラムの全体あるいは一部を通信ネットワークを介して流通または提供することができる。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記録媒体からコンピュータにインストールしたりすることで、容易に本実施の形態の内視鏡装置を実現することができる。
 本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。例えば、上述した実施の形態に開示されている複数の構成要素を適宜組み合わせてもよいし、フローチャートにおけるステップの順序を適宜変更してもよいし、削除してもよい。

 本出願は、2011年12月28日に日本国に出願された特願2011-289241号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (15)

  1.  表示画面を有し、かつ前記表示画面上の位置を検出するタッチパネルと、
     前記表示画面に内視鏡画像を表示する内視鏡画像表示部と、
     前記表示画面上において指定点の位置決定を補助するための第1の補助図形を表示する第1補助図形表示部と、
     前記表示画面の前記補助図形上に、前記指定点の前記内視鏡画像上の位置を指定するためのポインタを表示させるポインタ表示部と、
     前記補助図形上で前記ポインタを移動させるポインタ移動部と、
     前記ポインタにより指示された前記内視鏡画像上の位置を、前記指定点として決定する指定点決定部と、
    を備えることを特徴とする内視鏡画像処理装置。
  2.  前記表示画面上において前記指定点の位置決定を補助するための第2の補助図形を表示する第2補助図形表示部を有し、
     前記ポインタ表示部は、前記第1の補助図形と前記第2の補助図形に基づいて決定された位置に、前記ポインタを表示することを特徴とする請求項1に記載の内視鏡画像処理装置。
  3.  前記指定点決定部により決定された前記指定点に対応する、前記内視鏡画像に映し出された被写体の対応点の3次元位置座標に基づいて前記被写体の3次元計測を行う計測処理部を有することを特徴とする請求項1又は2に記載の内視鏡画像処理装置。
  4.  前記第1の補助図形を、平行移動、回転、拡大及び縮小の少なくとも一つにより、移動する第1補助図形移動部を有し、
     前記ポインタ移動部は、前記第1補助図形移動部による前記第1の補助図形の移動に応じて前記ポインタを移動することを特徴とする請求項1、2又は3に記載の内視鏡画像処理装置。
  5.  前記第1図形移動部は、前記タッチパネルの前記表示画面上で触れられた位置の移動量に応じて、前記第1の補助図形を移動可能であることを特徴とする請求項4に記載の内視鏡画像処理装置。
  6.  前記第1補助図形移動部は、前記タッチパネルの前記表示画面上へのタップ回数または接触時間に応じて、前記表示画面に表示された前記内視鏡画像の表示画素単位で、前記補助図形を移動可能であることを特徴とする請求項4又は5に記載の内視鏡画像処理装置。
  7.  前記第2の補助図形を、平行移動、回転、拡大及び縮小の少なくとも一つにより、移動する第2補助図形移動部を有し、
     前記1の補助図形と前記第2の補助図形は、互いに独立して移動可能であることを特徴とする請求項4、5又は6に記載の内視鏡画像処理装置。
  8.  前記第1の補助図形は、直線、線分、曲線及び閉曲線のいずれかであることを特徴とする請求項1から7のいずれか1つに記載の内視鏡画像処理装置。
  9.  前記ポインタ表示部は、前記表示画面の前記補助図形上における、前記内視鏡画像について検出されたエッジ部の位置に、前記ポインタを表示することを特徴とする請求項1に記載の内視鏡画像処理装置。
  10.  前記ポインタ表示部は、前記第1の補助図形上に複数のポインタ候補を表示し、
     前記ポインタ移動部は、その表示された前記複数のポインタ候補間で、前記ポインタを移動させることを特徴とする請求項1に記載の内視鏡画像処理装置。
  11.  前記複数のポインタ候補は、前記表示画面の前記補助図形上における、前記内視鏡画像について検出されたエッジ部の位置に表示されることを特徴とする請求項10に記載の内視鏡画像処理装置。
  12.  前記内視鏡画像表示部は、前記表示画面に前記内視鏡画像を拡大若しくは縮小して表示可能であることを特徴とする請求項1から11のいずれか1つに記載の内視鏡画像処理装置。
  13.  内視鏡画像処理用プログラムを記録した記憶媒体であって、前記プログラムは、
     タッチパネルの表示画面に内視鏡画像を表示する内視鏡画像表示機能と、
     前記表示画面上において指定点の位置決定を補助するための補助図形を表示する補助図形表示機能と、
     前記表示画面の前記補助図形上に、前記指定点の前記内視鏡画像上の位置を指定するためのポインタを表示させるポインタ表示機能と、
     前記補助図形上で前記ポインタを移動させるポインタ移動機能と、
     前記ポインタにより指示された前記内視鏡画像上の位置を、前記指定点として決定する指定点決定機能と、
    を、コンピュータに実現させる記憶媒体。
  14.  タッチパネルの表示画面に内視鏡画像を表示し、
     前記表示画面上において指定点の位置決定を補助するための第1の補助図形を表示し、
     前記表示画面の前記第1の補助図形上に、前記指定点の前記内視鏡画像上の位置を指定するためのポインタを表示し、
     前記第1の補助図形上で前記ポインタを移動し、
     前記ポインタにより指示された前記内視鏡画像上の位置を、前記指定点として決定する、ことを特徴とする内視鏡画像上の位置の指定方法。
  15.  前記表示画面上において前記指定点の位置決定を補助するための第2の補助図形を表示し、
     前記第1の補助図形と前記第2の補助図形に基づいて決定された位置に、前記ポインタを表示することを特徴とする請求項14に記載の内視鏡画像上の位置の指定方法。
PCT/JP2012/059687 2011-12-28 2012-04-09 内視鏡画像処理装置、内視鏡画像上の位置の指定方法及び記憶媒体 WO2013099305A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-289241 2011-12-28
JP2011289241A JP2013137466A (ja) 2011-12-28 2011-12-28 内視鏡画像処理装置及び内視鏡画像処理用プログラム

Publications (1)

Publication Number Publication Date
WO2013099305A1 true WO2013099305A1 (ja) 2013-07-04

Family

ID=48696831

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/059687 WO2013099305A1 (ja) 2011-12-28 2012-04-09 内視鏡画像処理装置、内視鏡画像上の位置の指定方法及び記憶媒体

Country Status (2)

Country Link
JP (1) JP2013137466A (ja)
WO (1) WO2013099305A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017119351A1 (ja) * 2016-01-08 2017-07-13 オリンパス株式会社 内視鏡装置及び内視鏡装置の動作制御方法
US10419705B2 (en) 2015-03-13 2019-09-17 Olympus Corporation Endoscope image display apparatus, endoscope image display method and endoscope image display program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020022563A (ja) 2018-08-06 2020-02-13 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005137747A (ja) * 2003-11-10 2005-06-02 Toshiba Corp 超音波診断装置
JP2006166990A (ja) * 2004-12-13 2006-06-29 Olympus Corp 医用画像処理方法
JP2008076119A (ja) * 2006-09-19 2008-04-03 Sunx Ltd 変位センサ
JP2009129065A (ja) * 2007-11-21 2009-06-11 Panasonic Corp スイッチング装置とそれを用いた情報装置
JP2011027997A (ja) * 2009-07-24 2011-02-10 Olympus Corp 内視鏡装置、計測方法、およびプログラム
JP2011034455A (ja) * 2009-08-04 2011-02-17 Canon Inc データ入力装置及びデータ入力方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005137747A (ja) * 2003-11-10 2005-06-02 Toshiba Corp 超音波診断装置
JP2006166990A (ja) * 2004-12-13 2006-06-29 Olympus Corp 医用画像処理方法
JP2008076119A (ja) * 2006-09-19 2008-04-03 Sunx Ltd 変位センサ
JP2009129065A (ja) * 2007-11-21 2009-06-11 Panasonic Corp スイッチング装置とそれを用いた情報装置
JP2011027997A (ja) * 2009-07-24 2011-02-10 Olympus Corp 内視鏡装置、計測方法、およびプログラム
JP2011034455A (ja) * 2009-08-04 2011-02-17 Canon Inc データ入力装置及びデータ入力方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10419705B2 (en) 2015-03-13 2019-09-17 Olympus Corporation Endoscope image display apparatus, endoscope image display method and endoscope image display program
WO2017119351A1 (ja) * 2016-01-08 2017-07-13 オリンパス株式会社 内視鏡装置及び内視鏡装置の動作制御方法
US20180324352A1 (en) * 2016-01-08 2018-11-08 Olympus Corporation Endoscope Apparatus, Operation Control Method For Endoscope Apparatus, And Storage Medium Having Operation Control Program For Endoscope Apparatus Stored Therein
US10666854B2 (en) 2016-01-08 2020-05-26 Olympus Corporation Bending operation control for endoscope

Also Published As

Publication number Publication date
JP2013137466A (ja) 2013-07-11

Similar Documents

Publication Publication Date Title
JP6037683B2 (ja) 計測装置、計測装置の作動方法、およびプログラム
JP2014140402A (ja) 計測装置およびプログラム
JP6124570B2 (ja) Xyz直交測定装置
US12008721B2 (en) Mixed reality systems and methods for indicating an extent of a field of view of an imaging device
JP5883147B2 (ja) 画像表示装置及び医用画像撮像装置
JP5437087B2 (ja) 内視鏡装置およびプログラム
JP2016173703A (ja) タッチディスプレイを用いた入力操作を支援する方法
WO2017119351A1 (ja) 内視鏡装置及び内視鏡装置の動作制御方法
US20060176321A1 (en) Endoscope apparatus
US8531479B2 (en) Endoscope apparatus and program
WO2013099305A1 (ja) 内視鏡画像処理装置、内視鏡画像上の位置の指定方法及び記憶媒体
US10419705B2 (en) Endoscope image display apparatus, endoscope image display method and endoscope image display program
JP4674093B2 (ja) 内視鏡装置及びプログラム
JP2019170853A (ja) タッチパネル装置、湾曲制御プログラム、湾曲制御プログラムを記録した記録媒体、及び、内視鏡の湾曲制御方法
JP2010272036A (ja) 画像処理装置
KR101611484B1 (ko) 의료영상의 제공방법
JP5199634B2 (ja) 計測内視鏡システム
US20220020208A1 (en) Measurement method, measurement device, and recording medium
US20210256719A1 (en) Method and system for providing surgical site measurement
US20120100512A1 (en) Inspection apparatus and inspection method
EP4013301B1 (en) Systems for performance of depth sensor and auxiliary sensor-based operations associated with a computer-assisted surgical system
CN107072510B (zh) 内窥镜处理器、内窥镜处理器的信号处理方法以及控制程序
JPH07271504A (ja) 3次元仮想指示入力装置
JP2009086553A (ja) 計測内視鏡システム、計測内視鏡システム用計測方法、及び計測内視鏡システム用計測プログラム
CN113490905A (zh) 用于控制牙科机器的方法和系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12861944

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12861944

Country of ref document: EP

Kind code of ref document: A1