WO2017212725A1 - 医療用観察システム - Google Patents

医療用観察システム Download PDF

Info

Publication number
WO2017212725A1
WO2017212725A1 PCT/JP2017/009831 JP2017009831W WO2017212725A1 WO 2017212725 A1 WO2017212725 A1 WO 2017212725A1 JP 2017009831 W JP2017009831 W JP 2017009831W WO 2017212725 A1 WO2017212725 A1 WO 2017212725A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
endoscope
trigger signal
captured image
Prior art date
Application number
PCT/JP2017/009831
Other languages
English (en)
French (fr)
Inventor
長谷川 潤
誠一 伊藤
秋本 俊也
高橋 裕史
誠悟 伊藤
大西 順一
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2018501382A priority Critical patent/JPWO2017212725A1/ja
Publication of WO2017212725A1 publication Critical patent/WO2017212725A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes

Definitions

  • the present invention relates to a medical observation system that generates a three-dimensional model image based on observation with an endoscope.
  • the endoscope may be used for examination or observation in a hollow organ having a complicated three-dimensional shape in a subject such as a renal pelvis or a renal cup.
  • a hollow organ having a complicated three-dimensional shape in a subject
  • the three-dimensional shape (three-dimensional shape) of the luminal region to be observed is displayed and the observation status is presented to the user.
  • an observation support system is used.
  • Japanese Patent Laid-Open No. 10-234662 as a first conventional example discloses that generation of a three-dimensional model image from a slice image of a subject is started using an input operation from a mouse or a keyboard as a trigger. ing.
  • Japanese Patent Laid-Open No. 2002-306403 as a second conventional example reads out CT data of an organ near the distal end from a storage unit using a change in coordinate data of the distal end position of the endoscope as a trigger, It discloses that a three-dimensional image of an inner wall of a nearby surrounding organ is constructed and the three-dimensional image is displayed on a monitor.
  • the first conventional example requires an input operation by the user, there are some users who feel that the input operation is troublesome. If the user forgets the input operation during the examination, the generation of the three-dimensional model image is not started. And there are drawbacks to be improved. Further, the second conventional example discloses that a three-dimensional model image is generated by a change in the position of the tip of the endoscope, but generation of a three-dimensional model image is started based on the captured image. Not. When a user observes (or examines) a region to be examined such as the inside of an organ with an endoscope, a three-dimensional model image (three-dimensional shape image) such as the region being observed is constructed and displayed.
  • the shape of the region can be grasped, and it becomes easy to perform an operation of moving the endoscope next to the observation from the current observation state.
  • the user does not need a three-dimensional model image near the insertion port where the endoscope is inserted into the patient, and the examination target region or its surroundings
  • a medical observation system that starts construction of a three-dimensional model image when construction of the three-dimensional model image is to be started is desired.
  • the present invention has been made in view of the above points, and provides a medical observation system that automatically starts generating a three-dimensional model image by a trigger signal generated based on a captured image or the like. Objective.
  • the medical observation system is based on an endoscope having an imaging unit that images the inside of a subject having a three-dimensional shape, and based on a captured image output by the imaging unit.
  • a three-dimensional model image generating unit that constructs a three-dimensional model image; a signal generating unit that generates a trigger signal for starting generation of the three-dimensional model image when a predetermined parameter in the captured image changes by a predetermined value or more;
  • a control unit that controls the three-dimensional model image generation unit to start generating the three-dimensional model image based on the trigger signal generated by the signal generation unit.
  • a medical observation system includes an endoscope that observes the inside of a subject having a three-dimensional shape, and a three-dimensional model image generation unit that constructs a three-dimensional model image of the subject.
  • the signal generator for generating a trigger signal for starting generation of the three-dimensional model image when detecting that the endoscope is at a predetermined position, and the signal to the three-dimensional model image generator
  • a control unit configured to control generation of the three-dimensional model image based on the trigger signal generated by the generation unit.
  • FIG. 1 is a diagram showing an overall configuration of a medical observation system according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a configuration of the observation support apparatus in FIG.
  • FIG. 3 is a view showing a ureter into which an endoscope is inserted and a renal pelvis and a renal cup in the deep part thereof.
  • FIG. 4 is a flowchart showing the overall processing of the first embodiment.
  • FIG. 5A is a diagram showing an endoscopic image obtained in the ureter.
  • FIG. 5B is a diagram showing a state in which the distal end portion of the insertion portion is inserted into a narrow lumen as in the ureter.
  • FIG. 5C is a diagram showing an endoscopic image obtained in the case of FIG. 5B.
  • FIG. 5A is a diagram showing an endoscopic image obtained in the ureter.
  • FIG. 5B is a diagram showing a state in which the distal end portion of the insertion portion is inserted into a
  • FIG. 5D is a diagram showing a luminance distribution along the line of FIG. 5C.
  • FIG. 6A is a diagram showing an endoscopic image obtained in a renal pelvis.
  • FIG. 6B is a diagram illustrating a state where the distal end portion of the insertion portion is inserted into a wide lumen as in the renal pelvis.
  • FIG. 6C is a diagram showing an endoscopic image obtained in the case of FIG. 6B.
  • FIG. 6D shows the luminance distribution along the line of FIG. 6C.
  • FIG. 7A is a flowchart showing processing in the case of performing comparison or determination for generating a trigger signal using an average luminance value of an image.
  • FIG. 7B is a flowchart showing processing in which a part of FIG. 7A is modified.
  • FIG. 8A is a flowchart showing a process of performing comparison or determination for generating a trigger signal using an average luminance value of divided areas obtained by dividing an image.
  • FIG. 8B is a diagram illustrating a state in which the entire endoscopic image is divided into a plurality of divided regions.
  • FIG. 9A is a flowchart showing a process partially different from FIG. 8A.
  • FIG. 9B is a diagram illustrating a state in which a plurality of divided regions are set along one line in the endoscopic image.
  • FIG. 10 is a block diagram illustrating a configuration of a feature amount comparison unit according to the second embodiment of the present invention.
  • FIG. 11 is a flowchart illustrating a process for performing comparison or determination for generating a trigger signal in the second embodiment.
  • FIG. 12A is a diagram showing a state where an endoscope is inserted into a ureter.
  • FIG. 12B is a diagram showing an endoscopic image obtained in the case of FIG. 12A.
  • FIG. 13A is a diagram showing a state where an endoscope is inserted into a ureteropelvic junction transition part.
  • FIG. 13B is a diagram showing an endoscopic image obtained in the case of FIG. 13A.
  • FIG. 14A is a diagram showing a state where an endoscope is inserted into a renal pelvis.
  • FIG. 14B is a diagram showing an endoscopic image obtained in the case of FIG. 14A.
  • FIG. 15 is a diagram showing history information recorded in the memory when the distal end portion of the endoscope is inserted from the ureter to the renal pelvis.
  • FIG. 16A is a diagram showing an outline of an endoscopic image when the pharynx is observed by an endoscope.
  • FIG. 16B is a diagram showing an outline of an endoscopic image when the bronchus is observed with an endoscope.
  • FIG. 16C is a diagram showing an outline of an endoscopic image when a bifurcation portion of the left and right main bronchi is observed by an endoscope.
  • FIG. 17A is a diagram showing a more specific endoscopic image in the case of FIG. 16A.
  • FIG. 17B is a diagram showing a more specific endoscopic image in the case of FIG. 16B.
  • FIG. 17C is a diagram showing a more specific endoscopic image in the case of FIG. 16B.
  • FIG. 17D is a diagram showing a more specific endoscopic image in the case of FIG. 16C.
  • FIG. 18A is a diagram showing a state in which the endoscope is inserted to the vicinity of the distal end of the access sheath placed in the ureter.
  • 18B is a diagram showing an outline of an endoscopic image in the case of FIG. 18A.
  • 18C is a diagram showing a more specific endoscopic image in the case of FIG. 18B.
  • FIG. 18D is a diagram illustrating a state in which each pixel of the endoscopic image is plotted on a chromaticity diagram.
  • FIG. 18A is a diagram showing a state in which the endoscope is inserted to the vicinity of the distal end of the access sheath placed in the ureter.
  • 18B is a diagram showing an outline of an endoscopic image in the case of FIG. 18A.
  • FIG. 19 is a block diagram illustrating a configuration of a feature amount comparison unit according to the third embodiment of the present invention.
  • FIG. 20A is a flowchart illustrating processing for generating a trigger signal using a chromaticity diagram processing unit according to the third embodiment.
  • FIG. 20B is a flowchart illustrating processing for generating a trigger signal using the boundary processing unit according to the third embodiment.
  • FIG. 21 is a block diagram illustrating a configuration of a feature amount comparison unit according to the fourth embodiment of the present invention.
  • FIG. 22A is a view showing an image in which an entrance of a kidney cup having a specific structure is present.
  • FIG. 22B is a diagram showing an image in which a renal papilla having a specific structure is present.
  • FIG. 22C is a diagram showing an image in which a renal papilla in a state slightly different from FIG. 22B exists.
  • FIG. 23 is a flowchart showing processing for generating a trigger signal according to the fourth embodiment of the present invention.
  • FIG. 24A is a block diagram showing that the fifth embodiment of the present invention includes a calibration processing unit.
  • FIG. 24B is a flowchart showing processing in the fifth embodiment.
  • FIG. 25A is a diagram illustrating a state where the endoscope is inserted to the vicinity of the distal end of the access sheath placed in the ureter.
  • FIG. 25B is a diagram showing an endoscopic image acquired in the case of FIG. 25A.
  • FIG. 25C is a diagram showing a state where the distal end portion of the endoscope is inserted into the distal end portion of the access sheath from the state of FIG. 25A.
  • FIG. 25D shows the magnetic field generated by the coil of the antenna with respect to the coil arranged in the distal end portion of the endoscope, and the magnetic field changes around the eddy current due to the distal end portion of the access sheath made of metal. The figure which shows a mode to do.
  • FIG. 26A is a flowchart showing processing in the sixth embodiment of the present invention.
  • FIG. 26B is a flowchart showing processing in the first modification of the sixth embodiment.
  • FIG. 27 is a block diagram showing a configuration of an observation support apparatus in a second modification of the sixth embodiment.
  • the medical observation system 1 includes an endoscope 2, a light source device 4 arranged in a trolley 3, an endoscope image device 5, an observation support device 6, An antenna 7 that is connected to the observation support device 6 and generates a magnetic field, and a monitor 8 are included.
  • the endoscope 2 is a flexible endoscope having a flexible insertion portion 11, and the insertion portion 11 is inserted into a patient 9 that forms a subject.
  • the light source device 4 generates illumination light and supplies the generated illumination light to the endoscope 2 (the light guide 19).
  • the endoscope image device 5 performs signal processing on the imaging unit 25 provided in the endoscope 2.
  • the endoscopic image device 5 generates an image signal of an endoscopic image that becomes a display image to be displayed on the monitor 8 from the image signal of the captured image output from the imaging unit 25, and passes through the observation support device 6. Output to the monitor 8.
  • the monitor 8 displays an endoscope image in the endoscope image display area 8a and a 3D model image generated by the observation support apparatus 6 in the 3D model image display area 8b.
  • the observation support device 6 is configured to receive an endoscope image (image signal thereof) from the endoscope image device 5. (The image signal) may be input to the observation support device 6, and the observation support device 6 may also generate an endoscopic image (image signal thereof).
  • the endoscope 2 includes, for example, an insertion portion 11 that is inserted into a ureter 10 that forms a part of a predetermined luminal organ (also simply referred to as a luminal organ) that is a subject to be observed in a patient 9, It has the operation part 12 provided in the rear end (base end) of the insertion part 11, and the universal cable 13 extended from the operation part 12.
  • FIG. The light guide connector 14 provided at the end of the universal cable 13 is detachably connected to the light guide connector receiver of the light source device 4.
  • the ureter 10 communicates with the renal pelvis 51a and the renal cup 51b on the deep side (see FIG. 3).
  • the insertion portion 11 includes a hard distal end portion 15 provided at the distal end thereof, a bendable bending portion 16 provided at the rear end of the distal end portion 15, and a front end of the operation portion 12 from the rear end of the bending portion 16. And a flexible tube portion 17 having flexibility.
  • the operation unit 12 is provided with a bending operation knob 18 for bending the bending portion 16.
  • a light guide 19 that transmits illumination light is inserted into the insertion portion 11, and the tip of the light guide 19 is attached to the illumination window of the tip portion 15.
  • the rear end of the light guide 19 reaches the light guide connector 14.
  • Illumination light generated by the light source lamp 20 of the light source device 4 is collected and incident on the light guide connector 14 by the condenser lens 21, and the light guide 19 transmits the transmitted illumination light from the front end surface attached to the illumination window.
  • the light source device 4 also includes a light control circuit 22 that adjusts the amount of illumination light generated by the light source lamp 20.
  • An observation target site also referred to as a subject
  • An observation window (imaging window) provided adjacent to the illumination window of the distal end portion 15.
  • An optical image is formed at the imaging position by the objective optical system 23.
  • an imaging surface of a charge coupled device (abbreviated as CCD) 24 as an imaging device is arranged.
  • the CCD 24 has a predetermined angle of view (viewing angle).
  • the objective optical system 23 and the CCD 24 form an imaging unit (or imaging device) 25 that images the inside of a hollow organ. Since the angle of view of the CCD 24 also depends on the optical characteristics (for example, focal length) of the objective optical system 23, the angle of view of the imaging unit 25 taking into account the optical characteristics of the objective optical system 23, or objective optics It can also be said to be an angle of view when observing using a system.
  • the CCD 24 is connected to one end of a signal line 26 inserted through the insertion portion 11 or the like, and the other end of the signal line 26 is connected to the light guide connector 14 via a connection cable 27 (internal signal line). It reaches the signal connector 28 at the end of the connection cable 27.
  • the signal connector 28 is detachably connected to the signal connector receiver of the endoscope image apparatus 5.
  • the endoscopic image device 5 includes a driver 31 that generates a CCD drive signal and a signal processing circuit 32 that performs signal processing on the output signal of the CCD 24 and generates an image signal (video signal) of an endoscopic image.
  • the driver 31 applies a CCD drive signal to the CCD 24 via the signal line 26 and the like, and the CCD 24 outputs an image signal of a captured image obtained by photoelectrically converting the optical image formed on the imaging surface by the application of the CCD drive signal.
  • the CCD 24 is connected to one end of a signal line 26 inserted through the insertion portion 11 or the like, and the other end of the signal line 26 is connected to the light guide connector 14 via a connection cable 27 (internal signal line). It reaches the signal connector 28 at the end of the connection cable 27.
  • the signal connector 28 is detachably connected to the signal connector receiver of the endoscope image apparatus 5.
  • the signal processing circuit 32 sends the generated endoscopic image signal to the observation support apparatus 6 via the transmission line 29a.
  • the monitor 8 is configured to display a captured image corresponding to an optical image captured at a predetermined angle of view (range) formed on the imaging surface of the CCD 24 in an endoscope image display area (simply referred to as an image display area) 8a. Display the endoscopic image.
  • FIG. 1 shows a state in which an endoscopic image close to an octagon with four corners cut out is displayed when the imaging surface of the CCD 24 is, for example, a square.
  • the image signal of the endoscopic image generated by the signal processing circuit 32 is output to the dimming circuit 22 of the light source device 4 through the transmission line 29a, and the dimming circuit 22 is for several frames of the image signal.
  • a difference signal between the average value and the set reference brightness is generated, and the amount of illumination light generated by the light source lamp 20 is adjusted so that the value of the difference signal becomes zero.
  • the endoscope 2 has a memory 30 that stores information unique to the endoscope 2, for example, in the light guide connector 14, and this memory 30 has the number of pixels that the CCD 24 mounted on the endoscope 2 has. The data etc. are stored.
  • a reading circuit inside reads out the data connected to the memory 30 and outputs the data to the driver 31 and the signal processing circuit 32 in the endoscopic image device 5.
  • the driver 31 generates a CCD drive signal corresponding to the input pixel number data
  • the signal processing circuit 32 performs signal processing corresponding to the pixel number data.
  • the signal processing circuit 32 forms an input unit for inputting the generated image signal of, for example, a digital endoscope image or two-dimensional endoscope image data (also simply referred to as an endoscope image) to the observation support device 6. .
  • a plurality of position sensors for detecting (three-dimensional) of the distal end portion 15 are detected in the distal end portion 15 of the insertion portion 11 by detecting a magnetic field generated by the antenna 7 disposed at a predetermined position outside the body.
  • Sense coils 34a to 34c are arranged.
  • the sense coils 34a to 34c form an in-front-end sensor 34 (see FIG. 2) disposed in the front-end portion 15.
  • the two sense coils 34 a and 34 b disposed along the longitudinal direction of the insertion portion 11 (or the distal end portion 15) and the direction perpendicular to the line segment connecting the two sense coils 34 a and 34 b are disposed.
  • the sense coil 34c thus arranged is arranged.
  • the line segment direction connecting the sense coils 34a and 34b is arranged so as to substantially coincide with the optical axis direction (or the line-of-sight direction or the posture of the distal end portion 15) of the objective optical system 23 constituting the imaging unit 25. Further, the surfaces including the sense coils 34a to 34c are arranged so as to substantially coincide with the vertical direction on the imaging surface of the CCD 24.
  • the position information detected by the sense coils 34a to 34c is output from the endoscope image device 5 to the later-described distal end portion position estimation unit in the observation support device 6 via the transmission line 29b.
  • the tip position estimation unit 42 described later in the observation support device 6 detects the three-dimensional position of the tip portion 15 and the axial direction of the tip portion 15 by detecting the three-dimensional positions of the three sense coils 34a to 34c. It can be detected (estimated). In other words, the three-dimensional position of the objective optical system 23 and the line of sight of the objective optical system 23 constituting the imaging unit 25 arranged at a known distance from the detection of the three-dimensional positions of the sense coils 34a to 34c at the distal end portion 15, respectively. The direction (optical axis direction) can be detected.
  • the tip position estimation unit 42 forms a position / posture estimation unit that estimates the three-dimensional position and posture of the tip portion 15.
  • the imaging unit 25 in the endoscope 2 shown in FIG. 1 has a configuration in which the imaging surface of the CCD 24 is disposed at the imaging position of the objective optical system 23, but the objective optical system is between the objective optical system 23 and the CCD.
  • the present invention can also be applied to an endoscope provided with an imaging unit having a configuration using an image guide that transmits 23 optical images.
  • the sense coils 34 a to 34 c are connected to one end of a signal line 35 in the endoscope 2, and the other end of the signal line 35 is connected to a cable 27 extending from the light guide connector 14.
  • the signal line 35 in the cable 27 is connected to the tip position estimation unit 42 (see FIG. 2) in the observation support device 6 from the endoscope image device 5 through the transmission line 29b.
  • a body surface marker 36 is connected to the observation support device 6, and information on the reference position is obtained by the body surface marker 36 set at the reference position on the body surface in the patient 9, for example. Can be acquired.
  • a LAN as an external interface (external I / F) 37 is connected to the observation support apparatus 6 so that CT / MRI data or the like as 3D information of the patient 9 can be acquired from the CT / MRI apparatus. ing.
  • the observation support device 6 is connected to an input device 38 such as a keyboard, a mouse, an operation switch, and a foot switch.
  • a signal or the like can be input to the image processing unit 41 and the control unit 43 of the observation support apparatus 6.
  • FIG. 2 shows the configuration of the observation support apparatus 6 that performs processing for constructing a three-dimensional model image of the subject.
  • the observation support device 6 includes an image processing unit 41 that generates (constructs) a three-dimensional model image, a tip position estimation unit 42 that estimates a three-dimensional position of the tip portion 15, a control unit 43 that generates a trigger signal, and the like. And a combining unit 48 for combining images.
  • the image processing unit 41 includes a three-dimensional model image generation unit 41a that generates (constructs) a three-dimensional model image from a (two-dimensional) endoscopic image (or captured image) input from the endoscopic image device 5. Then, the generated three-dimensional model image (image signal thereof) is output to the synthesis unit 48.
  • the synthesizing unit 48 synthesizes the endoscopic image (the image signal thereof) and the three-dimensional model image (the image signal thereof) and outputs the synthesized image to the monitor 8.
  • the monitor 8 displays the endoscopic image and the three-dimensional model image. To do.
  • Sensor information from the in-tip sensor 34 (which forms the sense coils 34a to 34c) is input to the tip position estimation unit 42, and the positions and postures of the three sense coils are estimated.
  • the tip position estimation unit 42 estimates the position and posture of the tip portion 15 (or the position and line-of-sight direction of the objective optical system 23 of the tip portion 15) from the positions and postures of the three sensor coils.
  • sensor information from sensors (two sensor coils) (not shown) incorporated in the body surface marker 36 is input to the tip position estimation unit 42, and the positions and postures of the two sensor coils are estimated.
  • the tip position estimation unit 42 can perform calibration (registration) when estimating the position and orientation of the tip using the known marker position and orientation information.
  • the tip position estimation unit 42 outputs information on the estimated position and orientation to the three-dimensional model image generation unit 41a.
  • the three-dimensional model image generation unit 41a generates (constructs) a three-dimensional model image using the two-dimensional endoscope image and the position and orientation information estimated by the tip position estimation unit 42.
  • the tip position estimation unit 42 outputs information on the estimated position and orientation to the control unit 43.
  • the control unit 43 extracts a predetermined feature amount as a predetermined parameter in the input endoscopic image, compares it with a predetermined threshold value, and a trigger signal generation unit 45 that generates a trigger signal. And a magnetic field detection unit 46 and an operation detection unit 47. Further, the control unit 43 applies an AC signal for generating a magnetic field for position detection around each source coil to the plurality of source coils forming the antenna 7. In addition, in FIG. 25D mentioned later, the one source coil 7a shows the magnetic field H which generate
  • the feature amount comparison unit 44 in the present embodiment outputs a determination signal that is a comparison result signal for generating a trigger signal based on the luminance information of the endoscopic image (captured image).
  • the feature amount comparison unit 44 extracts the luminance of the endoscopic image, calculates the average value thereof, the luminance extraction circuit 44a, the average value of the luminance extracted by the luminance extraction circuit 44a, and the threshold storage unit 44c. And a comparison circuit (or determination circuit) 44b for comparing a threshold value stored in the memory and outputting a determination signal of the comparison result.
  • the luminance extraction circuit 44a selects an endoscope image for one frame or an image area along the line.
  • the function is divided into a plurality of areas, and a function of an area average value calculation circuit for calculating an average value of luminance in each area is awaited.
  • the surgeon can select any one of a plurality of processes for generating a trigger signal from the input device 38 based on the luminance information.
  • the trigger signal generation unit 45 forms a signal generation unit that generates a trigger signal based on the comparison result by the feature amount comparison unit 44 (the comparison circuit 44b).
  • the feature amount comparison unit 44 refers to the information on the position estimated by the tip position estimation unit 42 at each of different positions according to the insertion operation of the endoscope. Compare quantities.
  • the control unit 43 controls the three-dimensional model image generation unit 41a to start generating the image signal of the three-dimensional model image based on the trigger signal generated by the trigger signal generation unit 45.
  • the control unit 43 includes a central processing unit (CPU), a DSP, and the like.
  • the control unit 43 includes a feature amount comparison unit 44, a trigger signal generation unit 45, and the like.
  • the feature amount comparison unit 44 and the trigger signal generation are outside the control unit 43.
  • the part 45 may be provided.
  • the feature amount comparison unit 44 outputs a determination signal to the control unit 43, and the control unit 43 performs control so that the trigger signal generation unit 45 outputs the trigger signal to the three-dimensional model image generation unit 41a based on the determination signal.
  • the magnetic field detection unit 46 and the operation detection unit 47 will be described in an embodiment described later.
  • the medical observation system 1 includes an endoscope 2 having an imaging unit 25 that images the inside of a patient 9 as a subject having a three-dimensional shape, and a captured image output by the imaging unit 25.
  • a three-dimensional model image generating unit 41a that constructs a three-dimensional model image of the subject based on a corresponding endoscopic image), and when a predetermined parameter in the captured image changes by a predetermined value or more, the three-dimensional model Based on the trigger signal generated by the signal generation unit, the trigger signal generation unit 45 that forms a signal generation unit that generates a trigger signal for starting image generation, and the three-dimensional model image generation unit 41a And a control unit 43 that controls to start generation of the three-dimensional model image.
  • the endoscope as an endoscope provided with the distal end portion internal sensor 34 that detects information on the position and posture of the distal end portion 15 of the insertion portion 11 (or the position and line-of-sight direction of the objective optical system 23).
  • the case of the mirror 2 will be described.
  • the endoscope 2B having no sensor as shown by a two-dot chain line in FIG. 1 can be applied by changing a part of the configuration.
  • An endoscope 2B shown in FIG. 1 has the same configuration as that of the endoscope 2 except that the endoscope 2 has no sensor.
  • the endoscope 2B When the endoscope 2B is used, since it does not have a sensor, information on the position and line-of-sight direction of the objective optical system 23 at the distal end portion 15 of the insertion portion 11 cannot be obtained. Therefore, the three-dimensional shape information of the patient 9 into which the endoscope 2B is inserted is acquired from, for example, a CT apparatus, and information on the position and line-of-sight direction of the objective optical system 23 of the endoscope 2B is acquired by image matching. . A virtual endoscopic image corresponding to the endoscopic image obtained by the endoscope 2B is generated from the three-dimensional shape information by the CT apparatus, and the endoscope 2B is obtained by image matching between the endoscopic image and the virtual endoscopic image. Information on the position and line-of-sight direction of the objective optical system 23 is acquired. On the other hand, in the case of the endoscope 2, it becomes unnecessary to acquire the three-dimensional shape information of the patient 9 by the CT apparatus.
  • FIG. 3 shows the ureter 10 into which the insertion part 11 of the endoscope 2 is inserted, the deep renal pelvis 51a, and the renal cup 51b.
  • FIG. 4 shows a flowchart of overall processing, that is, processing for making a determination for starting construction of a three-dimensional model image, and construction of a three-dimensional model image when starting.
  • the endoscopic image device 5 outputs an endoscopic image corresponding to a captured image formed on the imaging surface of the CCD 24 by the objective optical system 23 to the image processing unit 41 in the observation support device 6. Further, the intra-tip sensor 34 disposed in the distal end 15 of the insertion unit 11 of the endoscope 2 outputs sensor information to the distal position estimation unit 42 in the observation support device 6.
  • the observation support apparatus 6 is in an operating state, and the control unit 43 initializes the observation support apparatus 6 as shown in step S1 of FIG.
  • the control unit 43 sets an initial value of a parameter i of a frame number of an input endoscopic image and a parameter j corresponding to a trigger signal indicating whether or not to generate a three-dimensional model image. 1,0.
  • the parameter i of the frame number is omitted, and is expressed by the frame number i.
  • j 0 is a parameter value in a state where a three-dimensional model image is not generated
  • the generation unit 3 is set to start generating a three-dimensional model image when the distal end portion of the insertion portion 11 is inserted into the renal pelvis 51a from the ureter 10.
  • the trigger signal is input from the trigger signal generation unit 45.
  • step S2 in FIG. 4 the three-dimensional model image generation unit 41a determines whether the parameter j is 1 (that is, a trigger signal is input). When the trigger signal is not input, the process proceeds to step S3. When the trigger signal is input, the process proceeds to step S4. In a state where the distal end portion 15 of the insertion portion 11 is inserted into the ureter 10, the process proceeds to step S3 as a result of the determination processing in step S2.
  • the feature amount comparison unit 44 captures an endoscopic image and position information. In step S3, the feature amount comparison unit 44 may capture an endoscope image, position and orientation information.
  • step S5 after the process of step S3, the feature amount comparison unit 44 detects a predetermined feature amount (parameter) C (ij) from the captured endoscope image.
  • C (i, j) represents a characteristic value of an image obtained from the luminance value of the input image in FIG. 7A described later.
  • C (i, j) becomes C (1,0).
  • step S6 the feature amount comparison unit 44 compares the detected predetermined feature amount C (ij) with a threshold value. Then, the feature amount comparison unit 44 outputs a comparison result as to whether or not the predetermined feature amount C (ij) is equal to or larger than the threshold value to the trigger signal generation unit 45 (in the control unit 43). Steps S5 and S6 will be described later with reference to FIG.
  • step S8 the trigger signal generation unit 45 generates a parameter j as 1, that is, a trigger signal, and outputs the trigger signal to the three-dimensional model image generation unit 41a.
  • the three-dimensional model image generation unit 41a takes in information of an endoscopic image, position, and line-of-sight direction (or position and orientation).
  • the 3D model image generating unit 41a constructs a 3D shape image (as a 3D model image).
  • a three-dimensional shape image is constructed using the endoscope image for one frame acquired immediately after the trigger signal is generated, and information on the position and the line-of-sight direction in that case.
  • the three-dimensional model image generation unit 41a outputs, to the monitor 8, an image signal of a three-dimensional shape image constructed using the endoscope image for one frame and the position and line-of-sight direction information in that case.
  • the monitor 8 displays (as a three-dimensional model image) a three-dimensional shape image constructed from an endoscopic image for one frame.
  • step S ⁇ b> 11 the control unit 43 determines whether or not an inspection end instruction signal is input from the end button or the like of the input device 38. If the inspection end instruction signal is not input, the process proceeds to step S7, the frame number parameter is incremented by 1, and the process returns to step S2.
  • step S4 After the trigger signal has been generated, the process proceeds to step S4 after step S2, and further performs steps S9 and S10.
  • steps S9 and S10 By repeating the loop processing of steps S2, S4, S9-S11, and S7, the construction area of the three-dimensional shape image increases.
  • a three-dimensional shape image corresponding to a captured (observed) endoscopic image captured while the distal end portion 15 of the insertion portion 11 is moved from the position where the construction of the three-dimensional shape image is started to the deep side of the renal pelvis 51a.
  • the constructed three-dimensional shape image is displayed on the monitor 8 as shown in FIG. Note that the observation direction (viewpoint direction) to be observed when a three-dimensional shape image is displayed on the monitor 8 can be set. If the observation direction is not set, the three-dimensional shape image is displayed with the default observation direction setting.
  • the three-dimensional shape image displayed on the monitor 8 allows the operator to grasp the shape and observation area of the renal pelvis 51a observed (inspected) by the endoscope 2 and facilitate the observation and treatment smoothly.
  • the surgeon operates an end button of the input device 38 and inputs an instruction end command signal.
  • the control unit 43 stops the process in which the 3D model image generation unit 41a constructs the 3D shape image, and ends the process in FIG.
  • the 3D model image generation unit 41a generates (constructs) a 3D shape image as a 3D model image and displays the generated 3D shape image on the monitor 8 has been described. .
  • the 3D model image generated by the 3D model image generation unit 41a is not limited to a 3D shape image.
  • a 3D construction region that is an observed 3D region from a 3D shape image
  • a 3D image is generated (constructed) to make the boundary with the 3D unconstructed region of observation (not constructed for) visible (or easily visible)
  • the monitor 8 displays the 3D image as a 3D model. It may be displayed as an image.
  • FIG. 5A to FIG. 6D a process for obtaining a comparison result for starting construction of a three-dimensional model image (generating a trigger signal) using luminance information as a predetermined feature amount will be described. I will explain it.
  • the luminance information in the endoscopic image is used as a predetermined feature amount for starting construction of the three-dimensional model image, and the distal end portion 15 of the insertion portion 11 is inserted into the renal pelvis 51a from the ureter 10. Detect the case.
  • the operator uses the average value of the endoscope image (for one frame) and the endoscope image (for one frame). It can be selected from the case where the average value of the divided areas is used and the case where the average value of the divided areas along the line set on the endoscopic image is used.
  • FIG. 5A shows an endoscopic image obtained in the ureter 10.
  • FIG. 5B shows a state in which the distal end portion 15 of the insertion portion 11 is inserted into a narrow lumen 10 a as in the ureter 10.
  • FIG. 5C shows an endoscopic image obtained in the case of FIG. 5B.
  • FIG. 5D shows a luminance distribution along the horizontal line in FIG. 5C. In FIG. 5D, the dotted line indicates the average value Pau of luminance.
  • FIGS. 5A to 5D in the ureter 10 or the narrow lumen 10a, observation (imaging) is performed by the objective optical system 23 of the distal end portion 15 of the insertion portion 11 of the endoscope 2 and the imaging portion 25 of the CCD 24.
  • the distance between the inner wall of the ureter 10 or the like and the distal end portion 15 becomes closer (smaller). Therefore, the peripheral part in the obtained endoscopic image has a high luminance value, and the central part in the endoscopic image has a low luminance value corresponding to the back part of the ureter 10 (the ureter 10 and the narrow lumen 10a are , Suppose it is almost straight).
  • FIG. 6A shows an endoscopic image obtained in the renal pelvis 51a.
  • FIG. 6B shows a state in which the distal end portion 15 of the insertion portion 11 is inserted into a wide lumen 50 as in the renal pelvis 51a
  • FIG. 6C shows an endoscopic image obtained in the case of FIG. 6B.
  • FIG. 6D shows a luminance distribution along the horizontal line in FIG. 6C. In FIG. 6D, the dotted line indicates the average value Pap of luminance.
  • the inside of the renal pelvis 51a or the like has a wide tubular structure, the inner wall and the distal end portion 15 of the renal pelvis 51a are observed (imaged) with the imaging portion 25 of the distal end portion 15 of the endoscope 2.
  • the distance to is far (large).
  • the dimming function by the dimming circuit 22 of the light source device 4 operates, the amount of illumination light increases, and the peripheral portion and the central portion in the obtained endoscopic image have substantially the same luminance value. .
  • the average value Pap in FIG. 6D is larger than Pau.
  • an endoscopic image of the renal pelvis 51a is determined using a threshold value Pa_th that satisfies a condition of Pau ⁇ Pa_th ⁇ Pap.
  • a determination signal for determining an image of the renal pelvis 51a (comparison result) from the captured image or endoscopic image using the characteristics of the luminance distribution as shown in FIGS. 5D and 6D. obtain.
  • the present embodiment includes three methods or configurations for determining the image of the renal pelvis 51a using the characteristics of the luminance distribution.
  • FIG. 7A or 7B, FIG. 8A, and FIG. 9A show three processes for determining an image of the renal pelvis 51a.
  • the operation will be described with reference to FIG. 7A. 7B may be employed instead of FIG. 7A.
  • the feature amount comparison unit 44 (the preprocessing unit or the luminance extraction circuit 44a) A noise removal process for removing noise in the image is performed.
  • the feature amount comparison unit 44 (the luminance extraction circuit 44a) removes noise using, for example, a Gaussian filter.
  • the feature amount comparison unit 44 (the pre-processing unit or the luminance extraction circuit 44a) performs a process of removing the halation portion in the endoscopic image.
  • the feature amount comparison unit 44 (the luminance extraction circuit 44a) converts, for example, an RGB image, which is a color component image of an endoscopic image, into a luminance image and a color difference image, and the luminance image (monochrome image) has an upper limit of gradation. An image portion that is equal to or greater than the threshold value near is removed as halation.
  • the feature amount comparison unit 44 calculates the luminance average value Pa of the luminance image (for one frame from which the halation portion is removed) of the endoscopic image that has undergone the processing in steps S21 and S22. Is calculated. Note that, as will be described with reference to FIG. 7B, the average luminance value Pa in a partial region on the central portion side of the endoscope image may be calculated.
  • the feature amount comparison unit 44 compares the luminance average value Pa with a preset threshold Pa_th for the luminance average value Pa. If the comparison result does not satisfy Pa ⁇ Pa_th, the process returns to step S7 (without generating a determination signal).
  • the comparison circuit 44 b When the comparison result satisfies Pa ⁇ Pa_th, the comparison circuit 44 b generates a determination signal and outputs the determination signal to the trigger signal generation unit 45. Then, in step S8, the trigger signal generation unit 45 generates a trigger signal. Then, as described in FIG. 4, the three-dimensional model image generation unit 41a starts to construct a three-dimensional shape image from the (two-dimensional) endoscopic image in the renal pelvis 51a.
  • step S23 of FIG. 7A the luminance average value Pa of the luminance image of the endoscopic image is calculated and compared with the threshold value Pa_th.
  • the center of the endoscopic image You may make it calculate the brightness
  • the comparison circuit 44b may compare the luminance average value Pa ′ with the threshold value Pa_th ′.
  • the central region may be set so as to include the peripheral region around the center of the endoscopic image. For example, the center area is set to about 1/9 to 1/2 of the entire area of the endoscopic image with the center at the center.
  • Steps S31 and S32 in FIG. 8A are the same processes as the noise removal in step S21 and the halation removal in step S22 in FIG. 7A.
  • the feature amount comparison unit 44 (the luminance extraction circuit 44a) divides the endoscopic image that has undergone the processing in steps S31 and S32 into divided regions as a plurality of image regions.
  • FIG. 8B shows a divided region Rd obtained by dividing the endoscopic image (after the processing in step S32) into N ⁇ N, where the number of divisions N in the horizontal direction and the vertical direction is 10, respectively.
  • the number of divisions N is not limited to 10, but may be a number of 2 or more. Further, the number of divisions N in the horizontal direction and the vertical direction is not limited to being equal, and may be set to different values.
  • the feature amount comparison unit 44 calculates the average luminance value of each divided region.
  • the feature amount comparison unit 44 compares the difference Pd with a threshold value Pd_th set for the difference Pd, and determines whether or not the difference Pd is equal to or less than the threshold value Pd_th. .
  • Endoscopic images in a narrow lumen 10a as in the ureter 10 as can be seen from the comparison between FIG. 5A and FIG. 6A, or between FIG. 5C and FIG. 6C, or between FIG. 5D and FIG.
  • the difference between the maximum value and the minimum value in the divided regions is larger than that in the renal pelvis 51a.
  • the threshold value Pd_th is set in consideration of the characteristics of the luminance distribution.
  • the difference Pd is larger than the threshold value Pd_th, and the endoscopic image in a wide lumen 50 as in the renal pelvis 51a.
  • the threshold value Pd_th is set so that the difference Pd is equal to or less than the threshold value Pd_th.
  • step S36 it is determined in step S36 that the difference Pd is greater than the threshold value Pd_th, and the process returns to the process in step S2 (in FIG. 4) through the process in step S7. Then, the same processing is repeated for the endoscopic image of the next frame number.
  • the difference Pd is determined to be greater than the threshold Pd_th. And the threshold value Pd_th are small.
  • the difference Pd is determined to be equal to or less than the threshold value Pd_th in step S36.
  • the comparison circuit 44b outputs a determination signal to the trigger signal generation unit 45.
  • the trigger signal generation unit 45 generates a trigger signal.
  • the three-dimensional model image generation unit 41a starts to construct a three-dimensional shape image from the (two-dimensional) endoscopic image in the renal pelvis 51a.
  • the process in FIG. 8A divides the entire endoscopic image into a plurality of divided areas two-dimensionally, whereas the process in FIG. 9A has a plurality of divided areas along a specific line in the endoscopic image. And the same processing as in FIG. 8A is performed for a plurality of divided regions.
  • the process in FIG. 9A is a process in which the process in step S33 in FIG. 8A is changed to step S33 ′, and the other processes are the same as those in FIG. 8A.
  • the feature amount comparison unit 44 sets a specific line in the endoscopic image as shown in FIG. 5C or FIG. 6C, for example, and a plurality of divided regions along the specific line. Set.
  • FIG. 9B shows a plurality of divided regions Rdh set along a specific line.
  • one line in the horizontal direction passing through the center of the endoscopic image is set as a specific line.
  • a plurality of lines are set, and a plurality of divided areas are set for the plurality of lines.
  • the threshold value Pa_th in step S36 in FIG. 9A is set according to the line in FIG. 9B and the size of the divided region Rdh in that case.
  • a three-dimensional model image that is automatically formed from a three-dimensional shape image by a trigger signal that is generated based on a captured image or an endoscopic image. Generation can begin. Therefore, since the operator does not need an operation for starting the generation of the three-dimensional model image, the operability can be improved.
  • the determination signal is generated from the similarity between the endoscopic image and a preset template image.
  • the feature-value comparison part 44 in the observation assistance apparatus 6 of FIG. 2 differs from 1st Embodiment.
  • the feature amount comparison unit 44 according to the present embodiment is a similarity calculation unit (or a similarity calculation unit) that calculates a similarity between an image setting unit 44d that sets a template image as a reference image and an endoscopic image. Degree comparison unit) 44e and a memory 44f for recording the result of the calculated similarity.
  • a determination signal for generating a trigger signal is output to the trigger signal generation unit 45.
  • Other configurations are the same as those in the first embodiment.
  • the overall processing in this embodiment is almost the same as that in the first embodiment shown in FIG. 4, and steps S5 and S6 in FIG. 4 are different from the first embodiment.
  • FIG. 11 shows details of processing corresponding to steps S5 and S6 in the present embodiment.
  • a template image in the ureteropelvic transition part 51c in the middle is prepared.
  • the endoscopic image acquired by the endoscope 2 inserted into the kidney from the ureter 10 is the template image having the characteristics in the ureter 10, the ureteropelvic transition part 51c, and the renal pelvis 51a.
  • the trigger A signal may be generated.
  • template images having characteristics in the ureter 10 or the ureteropellet transition part 51c and in the pelvis 51a are prepared, and are sufficiently similar to the template images in the ureter 10 or the ureteropellet transition part 51c. If a thing similar to the template image in the renal pelvis 51a is detected after the fact is detected, it may be determined that it has been inserted into the renal pelvis 51a, and a trigger signal may be generated. In addition, you may apply when inserting in another organ.
  • FIG. 12A, FIG. 13A, and FIG. 14A show a state in which the distal end portion of the insertion portion 11 is present in the ureter 10, in the ureteropellet transition portion 51c between the ureter 10 and the renal pelvis 51a, and in the renal pelvis 51a, respectively.
  • the medulla is shown by 51d
  • the cortex is shown by 51e.
  • 12B, 13BA, and 14B show endoscopic images acquired by the endoscope 2 in the case of FIGS. 12A, 13A, and 14A.
  • the endoscopic images in FIGS. 12B and 14B are similar to the endoscopic images shown in FIGS. 5A and 6A.
  • FIG. 13B shows an endoscopic image obtained in the bent ureteropelvic transition 51c.
  • the template image may be set by an actual endoscopic image, or may be set by an observation image obtained when the inside of a kidney phantom simulating a kidney is observed by the endoscope 2. Further, from the three-dimensional model of the kidney obtained by a CT apparatus or the like, from the virtual endoscopic image obtained when the endoscope is virtually arranged in the three-dimensional model, the inside of the ureter 10 and the ureteral renal pelvis are obtained. You may set the template image in the transition part 51c and the renal pelvis 51a.
  • the image setting unit 44d includes an image storage unit that stores the three types of template images set in advance as described above, and the image setting unit 44d reads the template image from the image storage unit and sets the template image.
  • the image storage unit may be formed by the memory 44f.
  • the feature amount comparison unit 44 (preprocessing unit or similarity calculation unit 44e thereof) performs noise removal and halation removal in steps S41 and S42. Steps S41 and S42 are the same as steps S21 and S22 in FIG. 7A.
  • the control unit 43 sets the parameter k of the template image (or template matching) to the initial value 0. The parameter k is set so that 0 corresponds to the ureter 10, 1 corresponds to the ureteral renal pelvis transition part 51 c, and 2 corresponds to the renal pelvis 51 a.
  • the feature amount comparison unit 44 (the image setting unit 44d) sets three types of template images corresponding to the parameter k.
  • the similarity calculation unit 44e performs template matching for calculating the similarity Sik between the endoscope image obtained by the endoscope 2 and the template image.
  • the similarity calculation unit 44e determines whether the parameter k is 2, and if the parameter k is not 2, the similarity calculation unit 44e sets the parameter k in the next step S47. Increase it by one and return to the process of step S44.
  • the similarity Sik between the endoscopic image of frame number i and the three types of template images is calculated by the loop processing of steps S44 to S47.
  • the similarity Sik between the endoscopic image and the template image is calculated by the following equation 1.
  • Sik ⁇ x ⁇ y (fi (x, y) ⁇ tk (x, y)) 2 (1)
  • fi (x, y) is the frame number i
  • tk (x, y) is the coordinates (x, y) represents a two-dimensional template image (its pixel value).
  • ⁇ x and ⁇ y represent addition within the range of the x coordinate and the y coordinate in the two-dimensional endoscope image and the two-dimensional template image.
  • the similarity Sik indicates that the smaller the value, the more similar.
  • Sik may be defined as a similarity index, and the smaller the similarity index Sik, the higher (higher) similarity may be expressed. If the parameter k is 2 in step S46, the process proceeds to step S48.
  • step S48 the similarity calculation unit 44e selects a template image in which the calculated three similarity Sik values are the smallest (most similar), sets the scene of the endoscopic image fi, For example, it is recorded in the memory 44f in the similarity calculation unit 44e.
  • the value of the similarity with the template image t0 thus made becomes the smallest.
  • the scene of the endoscopic image f1 is set (determined) as a scene Sc (ureter) for observing the inside of the ureter 10, and f1: Sc (ureter) is recorded in the memory 44f.
  • f1: scene Sc (ureter) indicates that the memory 44f records the endoscope image f1 of frame number 1 and the determined scene Sc (ureter) in association with each other.
  • the similarity calculation unit 44e determines whether or not history information (referred to as reference history information) detected in the order of the ureter 10, the ureteropelvic transition unit 51c, and the renal pelvis 51a exists in the memory 44f. To do. At present, since such history information does not exist, the process proceeds to step S7, the frame number i is increased by 1, and the process returns to step S2. In this way, the same processing is repeated for the endoscopic image fi of frame number i that is later in time.
  • reference history information referred to as reference history information
  • step S48 scene Sc (ureteral renal pelvis transition part) is recorded in the memory 44f. Also in this case, it is determined in the next step S49 that it is not reference history information, and the process proceeds to step S7.
  • step S48 fi: scene Sc (renal pelvis) is recorded in the memory 44f.
  • FIG. 1 An example of the history information stored in the memory 44f in this case is shown in FIG.
  • a scene Sc (L) calculated (set or determined) by similarity calculation is sequentially recorded in the memory 44f together with the endoscopic image fi assigned the frame number i.
  • L represents information on the ureter, ureteropelvic junction, and renal pelvis.
  • step S49 the similarity calculation unit 44e determines from the history information recorded in the memory 44f that the ureter, ureteropelvic transition unit, and renal pelvis are detected in this order, and triggers the determination signal. It outputs to the signal generation part 45, and progresses to the process of step S50.
  • step S50 the trigger signal generation unit 45 changes the parameter j from 0 to 1 and generates a trigger signal. Then, the process proceeds to the process of FIG. 4 and generation of a three-dimensional shape image is started. Note that, instead of the equation shown in Equation 1 as the similarity Sik, a normalized cross-correlation Tik shown in Equation 2 below may be used.
  • a plurality of template images each rotated around the center of the image may be prepared.
  • a reduced image with a reduced number of pixels may be used as the endoscopic image and the template image.
  • a lenplate image used when calculating the similarity a plurality of actual kidney observation images are used, and a neural network is constructed using the images as teacher data, and the ureter, ureteropelvic junction, renal pelvis May be detected.
  • FIG. 17A After the distal end portion 15 of the endoscope 2 passes through the pharynx in FIG. 17A, a thin lumen of the bronchus continues, and the endoscopic image in that case becomes an image as shown in FIG. 17B or FIG. 17C. Thereafter, the left and right main bronchi bifurcations as shown in FIG. 17D, in which the luminance in the endoscopic image is nearly uniform, are observed (note that the left and right main bronchi bifurcations have lumens of the renal pelvis Although it does not spread as much as possible, the left and right thin bronchi are separated and the branch wall is observed, so that the brightness is almost uniform).
  • the bronchus has a thin lumen structure as in the case of the ureter 10, and becomes an endoscopic image in which the center side becomes dark as shown in FIG. 17B or FIG. 17C.
  • an endoscope in which left and right main bronchi bifurcations having almost uniform luminance appear as shown in FIG. 17D. It becomes an image.
  • an endoscopic image in which the left and right main bronchi bifurcations appear can be detected (determined) from the luminance information, or the similarity using the template image can be calculated (detected). .
  • the three-dimensional shape image (three-dimensional model image for supporting the observation of the bronchi) is applied by applying the first and second embodiments.
  • the process of automatically starting the construction of () can be similarly performed from the endoscopic image.
  • FIG. 18A shows the access sheath 61 placed in the ureter 10, and the distal end of the access sheath 61 is arranged in front of the ureteral renal pelvis transition part 51 c. Then, by detecting the distal end of the access sheath 61 from the endoscopic image from the endoscope 2 inserted into the access sheath 61, it is possible to detect the front of the ureteral urinary tract transition portion in the ureter 10.
  • the access sheath 61 is composed of a metal different from the other portion (resin) in the distal end portion 61a, and the color thereof is also different.
  • the access sheath 61 as an insertion assisting tool has a conduit having an inner diameter larger than the outer diameter of the insertion portion 11 of the endoscope 2.
  • the distal end portion 15 of the insertion portion 11 of the endoscope 2 can be inserted from the insertion port 61b (see FIG. 25A) at the proximal end of the access sheath 61.
  • the distal end portion 15 of the inserted endoscope 2 can be projected to the outside from the projection opening at the distal end of the distal end portion 61a (see FIG. 25A) of the access sheath 61.
  • the boundary between the distal inner image I61a and the ureter inner wall image I10 It can detect from an endoscopic image. Further, as shown in FIGS. 18B and 18C, the boundary between the distal end internal image I61a of the access sheath 61 and the inner ureteral wall image I10 is a circle or an ellipse, so that the boundary can be detected from the shape. .
  • FIG. 19 shows a configuration of the feature amount comparison unit 44 in the present embodiment.
  • the present embodiment has the same configuration as that of FIGS. 1 and 2, and the detailed configuration of the feature amount comparison unit 44 in FIG. 2 is different from that of the first embodiment only. As shown in FIG.
  • the feature amount comparison unit 44 determines the boundary of a circle or an ellipse between the chromaticity diagram processing unit 44g that performs processing on the chromaticity diagram, and the distal inner image I61a and the inner ureteral wall image I10.
  • a boundary processing unit 44h that performs processing such as circular Hough transformation for detection.
  • the boundary processing unit 44h includes a circular Hough conversion processing unit that performs circular Hough conversion. The surgeon can select a case where the trigger signal is generated from the input device 38 using the chromaticity diagram processing unit 44g and a case where the trigger signal is generated using the boundary processing unit 44h.
  • FIG. 20A shows a process of performing comparison or determination for generating a trigger signal using the chromaticity diagram processing unit 44g in the present embodiment.
  • the feature amount comparison unit 44 (or the pre-processing unit thereof) performs processing for removing noise from the endoscopic image and processing for removing halation, as in steps S41 and S42.
  • the feature amount comparison unit 44 (its chromaticity diagram processing unit 44g) plots each pixel of the endoscopic image in the chromaticity diagram shown in FIG. 18D.
  • the position on the chromaticity diagram of the endoscope image corresponds to the color of the inner wall image I61 of the access sheath 61. It becomes the position. Then, when the distal end portion 15 of the endoscope 2 is inserted to the position shown in FIG. 18A or a position close thereto, the endoscopic image in that case becomes an image close to FIG. 18C, and in the chromaticity diagram, the tip internal image I61a. Multiple colors of are plotted. In FIG. 18D, a predetermined color area of the tip internal image I61a is indicated by C61a.
  • the feature amount comparison unit 44 determines whether or not the plotted positions (colors) exist in a predetermined color area C61a. If the predetermined number or more does not exist, the process moves to step S7, and the frame number is incremented by one. On the other hand, in the determination process of step S54, in the case of a determination result in which a predetermined number or more of the plotted positions exist in the predetermined color area C61a, the feature amount comparison unit 44 (the chromaticity diagram processing unit 44g) A determination signal for generating a trigger signal is output to the trigger signal generation unit 45. In the next step S8, the trigger signal generator 45 generates a trigger signal.
  • the three-dimensional model image generation unit 41a shown in FIG. 2 starts to construct a three-dimensional shape image.
  • a predetermined number or more in the color region C10 (shown in the chromaticity diagram of FIG. 18D) of the ureter inner wall image I10 or the ureteral renal pelvis transition part 51c on the chromaticity diagram A condition where the plotted position exists may be added.
  • the distal end portion 15 is close to the distal end portion 61a of the access sheath 61, the size of the circular region increases, and occupies the endoscopic image of the inner ureter inner wall image I10 or the ureteral renal pelvis transition portion 51c. The proportion also increases. Therefore, the determination in step S54 may be performed in consideration of the color plotted on the chromaticity diagram of such an image.
  • FIG. 20B a description will be given of processing in the case where the boundary is detected by circular Hough transformation by the boundary processing unit 44h using the fact that the boundary between the inside of the distal end of the access sheath and the ureter is substantially circular.
  • the process shown in FIG. 20B is a process in which steps S53 and S54 in FIG. 20A are changed to steps S61 to S64.
  • the feature amount comparison unit 44 extracts an edge in the endoscopic image.
  • the feature amount comparison unit 44 extracts edge components in the G image by the Canny operator using, for example, a green image (G image) in the RGB image forming the endoscopic image.
  • the feature amount comparison unit 44 performs processing for binarizing the luminance of the endoscopic image. More specifically, the feature amount comparison unit 44 (the boundary processing unit 44h) creates a density value histogram of the endoscopic image using the G image in the endoscopic image, and further sets a threshold value for binarization. Then, the endoscope image is binarized (using a p-tile method or the like).
  • the feature amount comparison unit 44 deletes the binarized portion in the ureter 10. More specifically, the feature amount comparison unit 44 (the boundary processing unit 44h) detects the ureter image region in the endoscopic image and deletes the binarized portion in the ureter image region. In the next step S64, the feature amount comparison unit 44 (the boundary processing unit 44h) votes each pixel of the binarized edge by the circular Hough transform to the parameter space. In the next step S65, the feature amount comparison unit 44 (the boundary processing unit 44h) performs a process of extracting a circle. More specifically, the feature amount comparison unit 44 (the boundary processing unit 44h) detects a position where the vote count in the parameter space is maximized.
  • the feature amount comparison unit 44 determines the presence or absence of the distal end portion 61 a of the access sheath 61. More specifically, the feature amount comparison unit 44 (the boundary processing unit 44h) determines whether or not the vote count detected in step S65 is equal to or greater than a specific threshold value. It is determined that the distal end portion 15 is an endoscopic image in a state where the distal end portion 15 does not exist in the vicinity of the distal end portion 61 a of the access sheath 61. In the case of this determination result, the process proceeds to step S7.
  • the feature amount comparison unit 44 (the boundary processing unit 44h) indicates that the distal end portion 15 of the endoscope 2 exists in the vicinity of the distal end portion 61a of the access sheath 61 when the vote count is equal to or greater than a specific threshold value. Is determined to be an endoscopic image. In the case of this determination result, the process proceeds to step S8.
  • the trigger signal is generated by detecting the distal end portion 61a of the access sheath 61 from the endoscopic image, and the construction of the three-dimensional shape image is automatically performed. Can be started.
  • the position at which the construction of the three-dimensional shape image is started can be adjusted by setting (adjusting) the position where the distal end portion 61a of the access sheath 61 is placed.
  • the feature amount comparison unit 44 has a structure detection unit 44i that detects a specific structure.
  • the structure detection unit 44i includes a memory 44j that stores characteristics of a reference image having a specific structure set as a detection target.
  • the structure detection unit 44i detects (determines) whether or not the endoscopic image acquired by the endoscope 2 has a specific structure.
  • the memory 44j can store the characteristics of a plurality of types of reference images having a specific structure, and the surgeon can select (set) a specific structure to be detected. That is, the surgeon selects a feature of one reference image from the features of a plurality of types of reference images, so that a three-dimensional shape image is obtained from the position of the detection result corresponding to the feature (specific structure) of the selected reference image. You can make a selection to start building.
  • FIG. 22A and FIG. 22B or 22C show examples of reference images having a specific structure.
  • FIG. 22A shows a reference image having a branch structure in which the entrance of the renal cup 51b from the renal pelvis 51a is observed.
  • FIG. 22A in the renal pelvis 51a, there is a structure (part) St1 that represents the entrance of the renal cup 51b and becomes darker in the image, as indicated by a plurality of arrows.
  • the structure detection unit 44i generates a determination signal and starts construction of a three-dimensional shape image when one or a plurality of branch structures are detected in the structure indicating the entrance of the kidney cup 51b. To do.
  • FIG. 22C shows the reference
  • the endoscope 2 is inserted into the kidney cup 51b, and has a color close to the skin color as shown by the arrows and a raised shape with respect to the peripheral color close to white as shown in FIG. 22B or 22C.
  • the structure detection unit 44i When the structures St2 and St3 of the renal papilla are detected, the structure detection unit 44i generates a determination signal and starts construction of a three-dimensional shape image.
  • FIG. 23 shows a flowchart of processing for generating a trigger signal in the present embodiment. This process is, for example, a process in which steps S53 and S54 are replaced with steps S71 and S72 in FIG. 20A.
  • the structure detection unit 44i refers to the specific structure of the reference image to be detected stored in the memory 44j, and determines whether or not the endoscope image acquired by the endoscope 2 has the specific structure. Is detected.
  • the structure detection unit 44i determines whether or not the endoscopic image has a specific structure at a ratio equal to or higher than a preset threshold value. If a specific structure is detected at a ratio less than the threshold, the process proceeds to step S7. If a specific structure is detected at a ratio equal to or greater than the threshold, the process proceeds to step S8.
  • construction (generation) of a three-dimensional shape image three-dimensional model image
  • the trigger signal generation unit 45 or the operation detection unit 47 includes a calibration processing unit 45a that performs calibration.
  • FIG. 24A illustrates an example in which the trigger signal generation unit 45 includes a calibration processing unit 45a.
  • the operator selects one of the case where the processing of the above-described embodiment is performed from the input device 38 and the case where the trigger signal is generated based on the processing by the calibration processing unit 45a. Can do.
  • the process of the above-described embodiment is selected, the process is the same as that of the above-described embodiment, and the operation has been described.
  • the processing when the calibration processing unit 45a is selected will be described below. Since the kidney moves by respiration, it is necessary to consider the movement of the kidney due to respiration in order to realize highly accurate observation support. For example, when the position of the distal end portion 15 of the endoscope 2 due to the movement of breathing is not corrected, a three-dimensional shape image (three-dimensional model image) based on the position of the distal end portion 15 of the endoscope 2 is constructed. Accuracy and accuracy when displayed are also reduced. Further, the endoscope tip is displayed at a position different from the actual position with respect to the renal pelvis / kidney cup shape displayed on the monitor 8.
  • the calibration processing unit 45a detects the movement of the kidney due to respiration, and performs a calibration process for correcting the position of the distal end portion 15 of the endoscope 2.
  • FIG. 24B shows processing of the present embodiment. Since the process shown in FIG. 24 is similar to the process of FIG. 4, only different parts will be described.
  • step S1 initialization is performed.
  • the calibration processing unit 45a performs a calibration process.
  • the calibration processing unit 45a moves the distal end portion 15 of the endoscope 2 inserted into the kidney in accordance with the movement of the kidney, thereby converting the movement of the position of the distal end portion 15 into the movement of the kidney. You may ask for.
  • the calibration processing unit 45a estimates the position of the distal end portion 15 due to respiration based on the amount of change in the movement of the kidney due to respiration with the distal end portion 15 of the endoscope 2 inserted into the kidney. Performs data estimation or acquisition processing. When the correction data acquisition capable of performing such estimation is completed, the calibration processing unit 45a outputs a determination signal or a trigger signal for notifying completion of calibration. When the calibration processor 45a is provided outside the trigger signal generator 45, the calibration processor 45a outputs a determination signal that causes the trigger signal generator 45 to generate a trigger signal. In step S82 subsequent to step S81, the calibration processing unit 45a determines whether calibration is completed (in other words, whether correction data acquisition is completed). If calibration has not been completed, the process returns to step S81.
  • step S4 after the process of step S8.
  • step S4 the same processing as in FIG. 4 is performed. However, if it is not the end in step S11, the process returns to step S4.
  • step S4 when the position information of the distal end portion 15 is taken in, the position information obtained by correcting the amount of fluctuation due to respiration as described above is acquired, and the process of step S9 is performed.
  • a trigger signal can be generated to automatically start construction of a three-dimensional shape image.
  • FIG. 25A is a view similar to FIG. 18A, and shows an enlarged view of the vicinity of the distal end portion 15 of the endoscope 2 and the distal end portion 61a of the access sheath 61 around it.
  • the distal end portion 61a of the access sheath 61 is made of a conductive metal, and the portion other than the distal end portion 61a is made of a non-metallic member (or insulating member) such as a resin.
  • the trigger signal generation unit 45 constituting the signal generation unit uses the fact that the distal end portion 61a of the access sheath 61 is different from the other portions of the access sheath 61 in terms of the magnetic field characteristics. Is generated (generated).
  • FIG. 25B shows a schematic diagram of an endoscopic image acquired in the state of FIG. 25A, and is the same diagram as FIG. 18B.
  • 25C shows a state in which the distal end portion 15 of the endoscope 2 is further inserted into the distal end portion 61a of the access sheath 61 in FIG. 25A.
  • sense coils 34a to 34c forming the tip end inner sensor 34 are arranged in the tip end portion 15. Further, an alternating current is applied to the source coil 7a constituting the antenna 7 disposed outside the patient 9, and this source coil 7a generates a (alternating current) magnetic field around it.
  • FIG. 25D shows a magnetic field generated by the source coil 7a and a sense coil 34a that detects the magnetic field (the sense coils 34b and 34c operate in the same manner as the sense coil 34a).
  • a time-varying current flows through the source coil 7a, and a time-varying magnetic field H is generated.
  • a current flows through the sense coil 34a by electromagnetic induction.
  • the sense coil 34a detects a combined magnetic field of the magnetic field generated by the eddy current Ce and the magnetic field H generated by the source coil 7a.
  • the output detected by the sense coil 34a varies depending on the presence or absence of the metal M.
  • the output of the sense coil 34a varies with the distal end portion 61a of the access sheath 61 as a boundary. Therefore, it is possible to determine that the distal end portion 15 of the endoscope 2 has passed through the distal end portion 61 a of the access sheath 61 by detecting the output that the magnetic field detection unit 46 varies.
  • FIG. 26A shows processing in this case.
  • the process of FIG. 26A differs from the process of steps S81 and S82 in FIG.
  • the magnetic field detection unit 46 monitors the temporal change amount Dt of the detection signal output from the in-tip-end sensor 34 in step S85.
  • the magnetic field detection unit 46 determines whether or not the absolute value of the temporal change amount Dt of the detection signal is greater than or equal to the threshold value Dth. If the absolute value is less than the threshold value Dth, the process returns to step S85.
  • the threshold value Dth is a positive value (Dth> 0).
  • a trigger signal is generated when a magnetic field change amount when the distal end portion 15 passes through the distal end portion 61a of the access sheath 61 is detected, and construction of a three-dimensional shape image can be automatically started.
  • the trigger signal may be generated in the following cases.
  • a trigger signal is generated based on the determination signal detected by the magnetic field detection unit 46 when the distal end portion 15 approaches the distal end portion 61a of the access sheath 61 and enters the distal end portion 61a (inside the distal end portion 61a). It may be generated.
  • the trigger signal generation unit 45 detects the three-dimensional model image.
  • a trigger signal for starting generation may be generated.
  • the magnetic field detection unit 46 is arranged in the distal end portion 15 of the endoscope 2, and the vicinity of the distal end portion 15 of the endoscope 2 is detected from the detection signal detected by the in-front end sensor 34 that detects the position of the distal end portion 15. A change in the magnetic field is detected, and a determination signal as a detection result is output to the trigger signal generation unit 45.
  • the trigger signal generator 45 Based on the detection result of the magnetic field detector 46, the trigger signal generator 45 detects that the tip 15 is at the position of the tip 61a of the access sheath 61 as a predetermined position, and generates a trigger signal.
  • the data is output to the dimensional model image generation unit 41a or the control unit 43.
  • the three-dimensional model image generation unit 41a starts generating a three-dimensional model image by a trigger signal from the trigger signal generation unit 45, or generates a three-dimensional model image based on the trigger signal under the control of the control unit 43.
  • the trigger signal generation unit 45 constitutes a signal generation unit that generates a trigger signal when it is detected that the endoscope 2 is at a predetermined position.
  • the trigger signal generation unit 45 may be configured to include the magnetic field detection unit 46, or conversely, the magnetic field detection unit 46 may be configured to include the trigger signal generation unit 45. And it can be said that this embodiment is the following structures.
  • the medical observation system 1 constructs an endoscope 2 for observing the inside of a patient 9 as a subject having a three-dimensional shape, and a three-dimensional model image of the subject.
  • the dimension model image generation unit 41a and the endoscope 2 are at predetermined positions such as the distal end portion 61a of the access sheath 61
  • the generation of the three-dimensional model image is started.
  • a trigger signal generation unit 45 that forms a signal generation unit that generates a trigger signal
  • the three-dimensional model image generation unit 41a based on the trigger signal generated by the signal generation unit, the three-dimensional model image
  • a control unit 43 that controls to start generation of.
  • the trigger signal may be generated also in other cases when it is detected (detected) that the distal end portion 15 of the endoscope 2 is at a predetermined position such as the distal end portion 61a of the access sheath 61. good.
  • the magnetic field detection unit 46 generates a trigger signal from the trigger signal generation unit 45 when the in-tip sensor 34 enters the detection range of the antenna 7, and the three-dimensional model image generation unit 41a constructs a three-dimensional shape image. May be configured to start.
  • the magnetic field detection unit 46 may generate a trigger signal when the absolute value of the signal level of the detection signal of the in-tip-end sensor 34 is equal to or greater than the signal level threshold.
  • the antenna 7 is within the detection range where the position of the tip 15 can be detected or estimated with a predetermined accuracy. judge.
  • the motion detection unit 47 calculates the moving speed of the tip 15 and generates a trigger signal when the moving speed is less than the threshold value.
  • the model image generation unit 41a may be configured to start construction of a three-dimensional shape image.
  • the time set from that time or the distance set from the predetermined position is 3
  • the dimensional model image generation unit 41a may start construction of a three-dimensional shape image.
  • the operation detection unit 47 detects an operation of the input device 38 or the foot switch by the user, an operation of inserting the endoscope 2, for example, a bending operation, or an operation of retracting after inserting the endoscope 2.
  • a configuration may be adopted in which a trigger signal is generated from the trigger signal generation unit 45 and the three-dimensional model image generation unit 41a starts construction of a three-dimensional shape image. Further, the trigger is based on a result (or a change result) of a predetermined parameter or more in the endoscopic image (captured image) and a detection result of the insertion operation of the endoscope 2 by a user such as an operator. A signal may be generated.
  • FIG. 26B shows an example of processing in this case (as a first modification of the sixth embodiment).
  • FIG. 26B is a flowchart for performing the process of step S6 ′ when, for example, in the process of FIG. 4, when the predetermined feature amount (parameter) C (i, j) is equal to or greater than the threshold value in step S6. Except for step S6 ', the process is the same as in FIG.
  • step S6 ′ for example, if the insertion motion detection unit formed by the motion detection unit 47 determines (detects) whether or not a (predetermined) insertion motion has been detected, and if no insertion motion is detected, step S7 is performed. Move on. On the other hand, when the insertion motion detection unit formed by the motion detection unit 47 detects the insertion motion in step S6 ′, the process proceeds to step S8 to generate a trigger signal.
  • the insertion operation detection unit formed by the operation detection unit 47 may be a bending operation by the endoscope 2 described above, or detects a predetermined insertion operation when the distal end inner sensor 34 enters the detection range of the antenna 7. It may be set if As described above, the trigger signal may be generated based on a plurality of determination results (or detection results).
  • FIG. 26B shows an example in which the captured image and the case of the insertion operation are combined, but the captured image may be combined with the temporal change amount of the detection signal in FIG. 26A.
  • a configuration may be employed in which the user can perform selection to selectively operate the above-described embodiment, modification, and the like from the input device 38.
  • the feature amount comparison unit 44 includes the luminance extraction circuit 44a, the comparison circuit 44b, and the threshold setting unit 44c in the first embodiment to the structure detection unit 44i and the memory 44j in the fourth embodiment.
  • the trigger signal generation unit 45 includes a calibration processing unit 45a.
  • the feature amount comparison unit 44 includes a luminance extraction circuit 44a, a comparison circuit 44b, a threshold setting unit 44c, an image setting unit 44d, a similarity calculation unit 44e, and a third embodiment. It includes a chromaticity diagram processing unit 44g, a boundary processing unit 44h, a structure detection unit 44i of the fourth embodiment, and a memory 44j.
  • the trigger signal generation unit 45 includes the calibration processing unit 45a described in the fifth embodiment. Then, the user selects one embodiment from the input device 38 to the luminance extraction circuit 44a, the comparison circuit 44b, the threshold value setting unit 44c to the structure detection unit 44i of the fourth embodiment, and the memory 44j. Thus, the configuration for starting the construction of the three-dimensional shape image can be selected.
  • the processing and operation of the above-described sixth embodiment can be performed by selecting the calibration processing unit 45a from the input device 38 or selecting the magnetic field detection unit 46.
  • the observation support device 6B of FIG. 27 When the observation support device 6B of FIG. 27 is used, when starting construction of a three-dimensional shape image, the user's choices are increased, and a medical observation system with good operability can be realized.
  • Different embodiments may be configured by partially combining the above-described embodiments.

Abstract

内視鏡の撮像部に基づく撮像画像(内視鏡画像)が入力される特徴量比較部44内の輝度抽出回路44aは、撮像画像の分割領域の輝度平均値の最大値と最小値との差分を算出し、比較回路44bは差分が閾値以下か否かを比較し、閾値以下の場合にはトリガ信号生成部45はトリガ信号を生成し、3次元モデル画像生成部41aは、撮像画像と、内視鏡の先端部内センサ34に基づく位置情報から3次元形状画像を構築する処理を開始する。

Description

医療用観察システム
 本発明は、内視鏡による観察に基づいて3次元モデル画像を生成する医療用観察システムに関する。
 近年、内視鏡は、医療用分野等において広く用いられるようになっている。また、内視鏡は、腎盂、腎杯のように被検体における複雑な3次元形状を有する管腔臓器内の検査、又は観察に使用される場合がある。 
 このように、複雑な3次元形状を有する管腔臓器内を観察するような場合には、観察しようとする管腔領域の3次元形状(立体形状)を表示して、観察状況をユーザに提示する観察支援システムが用いられる場合がある。 
 例えば、第1の従来例としての日本国特開平10-234662号公報は、マウス又はキーボードからの入力操作をトリガとして、被検体のスライス画像から3次元モデル画像の生成を開始することを開示している。 
 また、第2の従来例としての日本国特開2002-306403号公報は、内視鏡の先端位置の座標データの変化をトリガとして、先端付近の器官のCTデータを記憶部から読み出して、先端付近の周囲の器官の内壁の3次元画像を構築して、モニタに3次元画像を表示することを開示している。
 第1の従来例は、ユーザによる入力操作を必要とするため、入力操作が煩わしいと感じるユーザも存在し、また、検査中においてユーザが入力操作を忘れると、3次元モデル画像の生成が開始されないことが発生し、改善すべき欠点がある。 
 また、第2の従来例は、内視鏡の先端の位置の変化により3次元モデル画像を生成するが、撮像された画像に基づいて3次元モデル画像を生成することを開始することを開示していない。 
 ユーザは、内視鏡により臓器内部等の検査対象領域を観察(又は検査)する場合、観察している領域等の3次元モデル画像(3次元形状画像)を構築して表示すると、観察済みの領域の形状を把握できると共に、現在観察している状況から次に内視鏡を移動して観察しようとする作業を行い易くなる。 
 また、このように3次元モデル画像を構築して表示するようにした場合、ユーザは、内視鏡を患者に挿入した挿入口付近の3次元モデル画像を必要とせず、検査対象領域又はその周辺領域を観察する状態になった状態において3次元モデル画像の構築を開始する要望が多い。 
 このため、3次元モデル画像の構築を開始するべき状態になった場合に3次元モデル画像の構築を開始する医療用観察システムが望まれる。 
 本発明は上述した点に鑑みてなされたもので、撮像された画像等に基づいて生成されるトリガ信号により、自動的に3次元モデル画像の生成を開始する医療用観察システムを提供することを目的とする。
 本発明の一態様の医療用観察システムは、3次元形状を有する被検体の内部を撮像する撮像部を有する内視鏡と、前記撮像部により出力された撮像画像に基づいて、前記被検体の3次元モデル画像を構築する3次元モデル画像生成部と、前記撮像画像における所定のパラメータが所定値以上変化した場合、前記3次元モデル画像の生成を開始するトリガ信号を生成する信号生成部と、前記3次元モデル画像生成部に対して、前記信号生成部により生成された前記トリガ信号に基づいて、前記3次元モデル画像の生成を開始するよう制御する制御部と、を有する。 
 また、本発明の他の態様の医療用観察システムは、3次元形状を有する被検体の内部を観察する内視鏡と、前記被検体の3次元モデル画像を構築する3次元モデル画像生成部と、前記内視鏡が所定の位置にあることを検知した場合、前記3次元モデル画像の生成を開始するトリガ信号を生成する信号生成部と、前記3次元モデル画像生成部に対して、前記信号生成部により生成された前記トリガ信号に基づいて、前記3次元モデル画像の生成を開始するよう制御する制御部と、を有する。
図1は本発明の第1の実施形態の医療用観察システムの全体構成を示す図。 図2は、図1における観察支援装置の構成を示すブロック図。 図3は内視鏡が挿入される尿管及びその深部の腎盂、腎杯を示す図。 図4は第1の実施形態の全体的な処理を示すフローチャート。 図5Aは尿管内で得られる内視鏡画像を示す図。 図5Bは尿管内のように狭い管腔内に挿入部の先端部が挿入された様子を示す図。 図5Cは、図5Bの場合に得られる内視鏡画像を示す図。 図5Dは、図5Cの線に沿った輝度の分布を示す図。 図6Aは腎盂内で得られる内視鏡画像を示す図。 図6Bは腎盂内のように広い管腔内に挿入部の先端部が挿入された様子を示す図。 図6Cは、図6Bの場合に得られる内視鏡画像を示す図。 図6Dは、図6Cの線に沿った輝度の分布を示す 図7Aは画像の輝度平均値を用いてトリガ信号を生成するための比較又は判定を行う場合の処理を示すフローチャート。 図7Bは、図7Aの一部を変形した処理を示すフローチャート。 図8Aは画像を分割した分割領域の輝度平均値を用いてトリガ信号を生成するための比較又は判定を行う処理を示すフローチャート。 図8Bは内視鏡画像全体を複数の分割領域に分割した様子を示す図。 図9Aは、図8Aと一部が異なる処理を示すフローチャート。 図9Bは内視鏡画像における1つのラインに沿って複数の分割領域を設定した様子を示す図。 図10は本発明の第2の実施形態における特徴量比較部の構成を示すブロック図。 図11は第2の実施形態におけるトリガ信号を生成するための比較又は判定を行う処理を示すフローチャート。 図12Aは内視鏡を尿管内に挿入した状態を示す図。 図12Bは、図12Aの場合に得られる内視鏡画像を示す図。 図13Aは内視鏡を尿管腎盂移行部内に挿入した状態を示す図。 図13Bは、図13Aの場合に得られる内視鏡画像を示す図。 図14Aは内視鏡を腎盂内に挿入した状態を示す図。 図14Bは、図14Aの場合に得られる内視鏡画像を示す図。 図15は内視鏡の先端部が尿管内から腎盂内までに挿入された場合にメモリに記録される履歴情報を示す図。 図16Aは内視鏡により咽頭を観察した場合の内視鏡画像の概略を示す図。 図16Bは内視鏡により気管支を観察した場合の内視鏡画像の概略を示す図。 図16Cは内視鏡により左右の主気管支の分岐部を観察した場合の内視鏡画像の概略を示す図。 図17Aは、図16Aの場合のより具体的な内視鏡画像を示す図。 図17Bは、図16Bの場合のより具体的な内視鏡画像を示す図。 図17Cは、図16Bの場合のより具体的な内視鏡画像を示す図。 図17Dは、図16Cの場合のより具体的な内視鏡画像を示す図。 図18Aは内視鏡が尿管内に留置されたアクセスシースの先端付近まで挿入された様子を示す図。 図18Bは図18Aの場合における内視鏡画像の概略を示す図。 図18Cは、図18Bの場合のより具体的な内視鏡画像を示す図。 図18Dは内視鏡画像の各画素を色度図上にプロットした様子を示す図。 図19は本発明の第3の実施形態における特徴量比較部の構成を示すブロック図。 図20Aは第3の実施形態における色度図処理部を用いてトリガ信号を生成するための処理を示すフローチャート。 図20Bは第3の実施形態における境界処理部を用いてトリガ信号を生成するための処理を示すフローチャート。 図21は本発明の第4の実施形態における特徴量比較部の構成を示すブロック図。 図22Aは特定の構造となる腎杯の入口が存在する画像を示す図。 図22Bは特定の構造となる腎乳頭が存在する画像を示す図。 図22Cは、図22Bと若干、異なる状態の腎乳頭が存在する画像を示す図。 図23は本発明の第4の実施形態におけるトリガ信号を生成するための処理を示すフローチャート。 図24Aは本発明の第5の実施形態がキャリブレーション処理部を備えることを示すブロック図。 図24Bは第5の実施形態における処理を示すフローチャート。 図25Aは内視鏡が尿管内に留置されたアクセスシースの先端付近まで挿入された様子を示す図。 図25Bは、図25Aの場合において取得される内視鏡画像を示す図。 図25Cは図25Aの状態から内視鏡の先端部がアクセスシースの先端部内に挿入された状態の様子を示す図。 図25Dは内視鏡の先端部内に配置されたコイルに対して、アンテナのコイルが発生する磁界を示すと共に、金属で構成されたアクセスシースの先端部による渦電流により、その周囲に磁界が変化する様子を示す図。 図26Aは本発明の第6の実施形態における処理を示すフローチャート。 図26Bは第6の実施形態の第1変形例における処理を示すフローチャート。 図27は第6の実施形態の第2変形例における観察支援装置の構成を示すブロック図。
 以下、図面を参照して本発明の実施形態を説明する。 
(第1の実施形態)
 図1に示すように第1の実施形態の医療用観察システム1は、内視鏡2と、トロリー3に配置された光源装置4と、内視鏡画像装置5と、観察支援装置6と、観察支援装置6に接続され、磁界を発生するアンテナ7と、モニタ8とを有する。 
 内視鏡2は、軟性の挿入部11を有する軟性内視鏡であり、挿入部11は、被検体を形成する患者9内に挿入される。 
 光源装置4は、照明光を発生し、発生した照明光を内視鏡2(のライトガイド19)に供給する。内視鏡画像装置5は、内視鏡2に設けられた撮像部25に対する信号処理を行う。内視鏡画像装置5は、撮像部25から出力される撮像画像の画像信号からモニタ8に表示するための表示画像となる内視鏡画像の画像信号を生成し、観察支援装置6を介してモニタ8に出力する。モニタ8は、内視鏡画像表示エリア8aには内視鏡画像を、3次元モデル画像表示エリア8bには観察支援装置6により生成された3次元モデル画像をそれぞれ表示する。 
 なお、図1に示す例では、観察支援装置6には、内視鏡画像装置5からの内視鏡画像(の画像信号)が入力される構成となっているが、撮像部25の撮像画像(の画像信号)を観察支援装置6に入力し、観察支援装置6が内視鏡画像(の画像信号)も生成する構成にしても良い。
 内視鏡2は、患者9における観察対象の被検体となる所定の管腔臓器(単に管腔臓器とも言う)の一部を形成する例えば尿管10内に挿入される挿入部11と、この挿入部11の後端(基端)に設けられた操作部12と、操作部12から延出されるユニバーサルケーブル13とを有する。ユニバーサルケーブル13の端部に設けたライトガイドコネクタ14は、光源装置4のライトガイドコネクタ受けに着脱自在に接続される。 
 なお、尿管10は、その深部側において腎盂51a、腎杯51bに連通する(図3参照)。 
 挿入部11は、その先端に設けられた硬質の先端部15と、該先端部15の後端に設けられた湾曲可能な湾曲部16と、該湾曲部16の後端から操作部12の前端まで延びる可撓性を有する可撓管部17とを有する。 
 操作部12には湾曲部16を湾曲操作するための湾曲操作ノブ18が設けられている。
 図1における一部の拡大図で示すように挿入部11内には、照明光を伝送するライトガイド19が挿通されており、このライトガイド19の先端は、先端部15の照明窓に取り付けられ、ライトガイド19の後端は、ライトガイドコネクタ14に至る。
 ライトガイドコネクタ14には、光源装置4の光源ランプ20で発生した照明光が集光レンズ21により集光されて入射され、ライトガイド19は伝送した照明光を照明窓に取り付けられた先端面から出射する。また、光源装置4は、光源ランプ20で発生する照明光の光量を調整する調光回路22を有する。 
 照明窓から出射される照明光により照明された管腔臓器内の観察対象部位(被写体とも言う)は、先端部15の照明窓に隣接して設けられた観察窓(撮像窓)に取り付けられた対物光学系23によりその結像位置に光学像が結像される。対物光学系23の結像位置には、撮像素子としての例えば電荷結合素子(CCDと略記)24の撮像面が配置される。このCCD24は、所定の画角(視野角)を有する。 
 対物光学系23と、CCD24は、管腔臓器内を撮像する撮像部(又は撮像装置)25を形成する。なお、CCD24の画角は、対物光学系23の光学特性(例えば焦点距離)にも依存するために、対物光学系23の光学特性を考慮に入れた撮像部25の画角や、または対物光学系を用いて観察する場合の画角と言うこともできる。
 CCD24は、挿入部11内などを挿通された信号線26の一端と接続され、該信号線26の他端はライトガイドコネクタ14に接続される接続ケーブル27(内の信号線)を介して該接続ケーブル27の端部の信号コネクタ28に至る。この信号コネクタ28は内視鏡画像装置5の信号コネクタ受けに着脱自在に接続される。 
 内視鏡画像装置5は、CCD駆動信号を発生するドライバ31と、CCD24の出力信号に対する信号処理を行い、内視鏡画像の画像信号(映像信号)を生成する信号処理回路32とを有する。ドライバ31は、信号線26等を介してCCD24にCCD駆動信号を印加し、CCD駆動信号の印加によりCCD24は、撮像面に結像された光学像を光電変換した撮像画像の画像信号を出力する。 
 CCD24は、挿入部11内などを挿通された信号線26の一端と接続され、該信号線26の他端はライトガイドコネクタ14に接続される接続ケーブル27(内の信号線)を介して該接続ケーブル27の端部の信号コネクタ28に至る。この信号コネクタ28は内視鏡画像装置5の信号コネクタ受けに着脱自在に接続される。
 信号処理回路32は、生成した内視鏡画像の画像信号を伝送線29aを介して観察支援装置6に送る。モニタ8は、CCD24の撮像面に結像された所定の画角(の範囲)で撮像された光学像に対応する撮像画像を内視鏡画像表示エリア(単に画像表示エリアと略記)8aにおいて内視鏡画像を表示する。図1においては、CCD24の撮像面が例えば正方形の場合において、その4つの隅を切り欠いた8角形に近い内視鏡画像を表示する様子を示す。 
 また、信号処理回路32により生成された内視鏡画像の画像信号は、伝送線29aを介して光源装置4の調光回路22に出力し、調光回路22は、画像信号の数フレーム分の平均値と、設定された基準の明るさとの差信号を生成し、差信号の値が0になるように光源ランプ20が発生する照明光の光量を調整する。 
 内視鏡2は、例えばライトガイドコネクタ14内に、該内視鏡2に固有の情報を格納したメモリ30を有し、このメモリ30は、内視鏡2に搭載されたCCD24が有する画素数のデータ等を格納している。
 内視鏡画像装置5は、その内部の図示しない読出回路が、メモリ30に接続されたデータを読み出し、内視鏡画像装置5内のドライバ31と信号処理回路32に出力する。ドライバ31は、入力された画素数のデータに応じたCCD駆動信号を発生し、信号処理回路32は画素数のデータに対応した信号処理を行う。 
 上記信号処理回路32は、生成した例えばデジタルの内視鏡画像の画像信号又は2次元の内視鏡画像データ(単に内視鏡画像とも言う)を観察支援装置6に入力する入力部を形成する。 
 挿入部11の先端部15内には、体外における所定の位置に配置されたアンテナ7により発生した磁場を検出することにより先端部15の(3次元)を検出するための位置センサとなる複数のセンスコイル34a~34cが配置されている。センスコイル34a~34cは、先端部15内に配置された先端部内センサ34(図2参照)を形成する。 
 先端部15内において、挿入部11(又は先端部15)の長手方向に沿って配置された2つのセンスコイル34a,34bと、2つのセンスコイル34a,34bを結ぶ線分と直交する方向に配置されたセンスコイル34cとが配置されている。
 センスコイル34a,34bを結ぶ線分方向は、撮像部25を構成する対物光学系23の光軸方向(又は視線方向又は先端部15の姿勢)とほぼ一致するように配置されている。また、センスコイル34a~34cを含む面がCCD24の撮像面における上下方向にほぼ一致するように配置されている。 
 センスコイル34a~34cにより検出された位置情報は、内視鏡画像装置5から、伝送線29bを経由して観察支援装置6内の後述する先端部位置推定部に出力される。 
 このため、観察支援装置6内の後述する先端位置推定部42は、3つのセンスコイル34a~34cの3次元位置を検出することにより、先端部15の3次元位置及び先端部15の軸方向を検出(推定)することができる。換言すると、先端部15においてのセンスコイル34a~34cの3次元位置の検出からそれぞれ既知の距離離れて配置された撮像部25を構成する対物光学系23の3次元位置及び対物光学系23の視線方向(光軸方向)を検出することができる。 
 先端位置推定部42は、先端部15の3次元位置及び姿勢を推定する位置・姿勢推定部を形成する。
 なお、図1に示す内視鏡2における撮像部25は、対物光学系23の結像位置にCCD24の撮像面を配置した構成であるが、対物光学系23とCCDとの間に対物光学系23の光学像を伝送するイメージガイドを用いた構成の撮像部を備えた内視鏡の場合にも適用できる。 
 センスコイル34a~34cは、内視鏡2内の信号線35の一端に接続され、信号線35の他端は、ライトガイドコネクタ14から延出されるケーブル27と接続される。ケーブル27内の信号線35は、内視鏡画像装置5から伝送線29bを介して観察支援装置6内の先端位置推定部42(図2参照)と接続される。 
 また、図1に示すように観察支援装置6に体表マーカ36を接続して、患者9における例えば体表上の基準となる位置に設定した体表マーカ36によりその基準となる位置の情報を取得することができる。 
 また、観察支援装置6に外部インタフェース(外部I/F)37としてのLANを接続して、CT/MRI装置から患者9の3次元情報となるCT/MRIデータ等を取得することができるようにしている。
 また、図2に示すように観察支援装置6には、キーボード、マウス、操作スイッチ、フットスイッチ等の入力装置38が接続され、ユーザとしての術者は、入力装置38から指示信号や、選択の信号等を観察支援装置6の画像処理部41と制御部43に入力することができる。 
 図2は被検体の3次元モデル画像を構築する処理等を行う観察支援装置6の構成を示す。 
 観察支援装置6は、3次元モデル画像を生成(構築)する画像処理部41と、先端部15の3次元位置を推定する先端位置推定部42と、トリガ信号等を生成する制御部43と、画像の合成を行う合成部48とを有する。 
 画像処理部41は、内視鏡画像装置5から入力される(2次元の)内視鏡画像(又は撮像画像)から3次元モデル画像を生成(構築)する3次元モデル画像生成部41aを有し、生成した3次元モデル画像(の画像信号)を合成部48に出力する。 
 合成部48は、内視鏡画像(の画像信号)と3次元モデル画像(の画像信号)とを合成し、モニタ8に出力し、モニタ8は内視鏡画像と3次元モデル画像とを表示する。
 先端位置推定部42には、先端部内センサ34(を形成するセンスコイル34a~34c)からのセンサ情報が入力され、3つのセンスコイルの位置及び姿勢が推定される。先端位置推定部42は、3つのセンサコイルの位置及び姿勢から先端部15の位置及び姿勢(又は先端部15の対物光学系23の位置及び視線方向)を推定する。 
 また、先端位置推定部42には、体表マーカ36に組込まれた図示していないセンサ(2つのセンサコイル)からのセンサ情報が入力され、2つのセンサコイルの位置及び姿勢が推定される。また、先端位置推定部42は、既知となるマーカ位置及び姿勢の情報を用いて、先端部の位置と姿勢を推定する際の較正(レジストレーション)を行うことができる。 
 先端位置推定部42は、推定した位置及び姿勢の情報を3次元モデル画像生成部41aに出力する。 
 3次元モデル画像生成部41aは、2次元の内視鏡画像と、先端位置推定部42により推定された位置及び姿勢の情報とを用いて、3次元モデル画像を生成(構築)する。 
 また、先端位置推定部42は、推定した位置及び姿勢の情報を制御部43に出力する。
 制御部43は、入力される内視鏡画像における所定のパラメータとしての所定の特徴量を抽出し、所定の閾値と比較する特徴量比較部44と、トリガ信号を生成するトリガ信号生成部45と、磁界検出部46及び動作検知部47とを有する。 
 また、制御部43は、アンテナ7を形成する複数のソースコイルに対して、各ソースコイルの周囲に、それぞれ位置検出用の磁界を発生させる交流信号を印加する。なお、後述する図25Dにおいては、1つのソースコイル7aが、その周囲に発生する磁界Hを示す。 
 本実施形態における特徴量比較部44は、内視鏡画像(撮像画像)の輝度情報に基づいて、トリガ信号を生成させるための比較結果の信号となる判定信号を出力する。 
 このため、特徴量比較部44は、内視鏡画像の輝度を抽出すると共に、その平均値を算出する輝度抽出回路44aと、輝度抽出回路44aが抽出した輝度の平均値と、閾値格納部44cが格納する閾値とを比較し、比較結果の判定信号を出力する比較回路(又は判定回路)44bとを有する。
 また、輝度抽出回路44aは、1フレーム分の内視鏡画像の輝度の平均値を算出する平均値算出回路の機能を他に、1フレーム分の内視鏡画像又はラインの沿った画像領域を複数の領域に分割して、各領域における輝度の平均値を算出する領域平均値算出回路の機能を待つ。 
 そして、術者は、入力装置38から輝度情報に基づいてトリガ信号を生成する複数の処理における任意の1つの処理を選択することができる。 
 トリガ信号生成部45は、特徴量比較部44(の比較回路44b)による比較結果に基づいて、トリガ信号を生成する信号生成部を形成する。 
 なお、特徴量比較部44は、特徴量の比較を行う場合、内視鏡の挿入動作に応じた異なる位置の各々において、先端位置推定部42により推定された位置の情報を参照して、特徴量の比較を行う。 
 制御部43は、トリガ信号生成部45が生成したトリガ信号に基づいて、3次元モデル画像生成部41aに対して、3次元モデル画像の画像信号の生成を開始するように制御する。制御部43は、中央処理装置(CPU)、DSP等により構成される。
 なお、図2においては、制御部43が、特徴量比較部44及びトリガ信号生成部45等を内蔵した構成例を示しているが、制御部43の外部に特徴量比較部44及びトリガ信号生成部45を設けるようにしても良い。そして、特徴量比較部44が判定信号を制御部43に出力し、制御部43が判定信号に基づいてトリガ信号生成部45がトリガ信号を3次元モデル画像生成部41aに出力させる制御を行うようにしても良い。 
 なお、磁界検出部46と、動作検知部47に関しては、後述する実施形態において説明する。 
 本実施形態の医療用観察システム1は、3次元形状を有する被検体としての患者9の内部を撮像する撮像部25を有する内視鏡2と、前記撮像部25により出力された撮像画像(に対応する内視鏡画像)に基づいて、前記被検体の3次元モデル画像を構築する3次元モデル画像生成部41aと、前記撮像画像における所定のパラメータが所定値以上変化した場合、前記3次元モデル画像の生成を開始するトリガ信号を生成する信号生成部を形成するトリガ信号生成部45と、前記3次元モデル画像生成部41aに対して、前記信号生成部により生成された前記トリガ信号に基づいて、前記3次元モデル画像の生成を開始するよう制御する制御部43と、を有することを特徴とする。
 なお、本実施形態においては、挿入部11の先端部15の位置及び姿勢(又は対物光学系23の位置及び視線方向)の情報を検出する先端部内センサ34を備えた内視鏡としての内視鏡2の場合で説明する。しかし、図1において2点鎖線で示すようにセンサを有しない内視鏡2Bにおいても、一部の構成を変更することにより、適用できる。図1に示す内視鏡2Bは、内視鏡2においてのセンサを有しない構成以外は、内視鏡2と同様の構成である。 
 内視鏡2Bを用いる場合には、センサを有しないために、挿入部11の先端部15の対物光学系23の位置及び視線方向の情報が得られない。そのために、内視鏡2Bが挿入される患者9の3次元形状情報を、例えばCT装置から取得すると共に、画像マッチングにより内視鏡2Bの対物光学系23の位置及び視線方向の情報を取得する。 
 内視鏡2Bにより得られる内視鏡画像に対応する仮想内視鏡画像をCT装置による3次元形状情報から生成し、内視鏡画像と仮想内視鏡画像との画像マッチングにより内視鏡2Bの対物光学系23の位置及び視線方向の情報を取得する。これに対して、内視鏡2の場合には、CT装置による患者9の3次元形状情報を取得することが不要となる。
 次に本実施形態の動作を説明する。本実施形態の動作として、例えば内視鏡2を患者9の尿管10内に挿入し、その深部の腎盂、腎杯を検査(観察)する場合を説明する。図3は、内視鏡2の挿入部11が挿入される尿管10及び深部の腎盂51a、腎杯51bを示す。 
 また、図4は、全体的な処理、つまり、3次元モデル画像の構築を開始するための判定を行う処理と、開始した場合の3次元モデル画像構築のフローチャートを示す。 
 図1に示す内視鏡2を光源装置4,内視鏡画像装置5に接続し、内視鏡画像装置5を光源装置4と(モニタ8が接続された)観察支援装置6に接続して各装置の電源を投入して動作状態に設定する。 
 内視鏡画像装置5は、対物光学系23によりCCD24の撮像面に結像された撮像画像に相当する内視鏡画像を観察支援装置6内の画像処理部41に出力する。また内視鏡2の挿入部11の先端部15内に配置された先端部内センサ34は、センサ情報を観察支援装置6内の先端位置推定部42に出力する。
 観察支援装置6は、動作状態となり、図4のステップS1に示すように制御部43は、観察支援装置6を初期化する。制御部43は、初期化の処理として、入力される内視鏡画像のフレーム番号のパラメータiと、3次元モデル画像を生成させるか否かを表すトリガ信号に相当するパラメータjとをそれぞれ初期値1,0とする。以後では、フレーム番号のパラメータiを省略して、フレーム番号iで表記する。なお、j=0は、3次元モデル画像を生成させない状態のパラメータ値であり、j=1は、3次元モデル画像を生成させるトリガ信号が発生した状態のパラメータ値となる。 
 また、以下の説明においては、挿入部11の先端部が尿管10から腎盂51a内に挿入された状態の場合に3次元モデル画像の生成を開始するように設定される場合を説明する。 
 観察支援装置6に最初のフレーム番号i(=1)の内視鏡画像(図4では単に画像)は、画像処理部(の3次元モデル画像生成部41a)と特徴量比較部44に入力される。また、3次元モデル画像生成部41aにはトリガ信号が発生した場合には、トリガ信号生成部45からトリガ信号が入力される。
 図4におけるステップS2において、3次元モデル画像生成部41aは、パラメータjが1(つまり、トリガ信号が入力されている)かを判定する。トリガ信号が入力されていない場合には、ステップS3の処理に進み、トリガ信号が入力されている場合には、ステップS4の処理に進む。 
 挿入部11の先端部15を尿管10内に挿入したような状態においては、ステップS2の判定処理の結果、ステップS3の処理に進む。ステップS3において特徴量比較部44は、内視鏡画像、位置情報を取り込む。なお、ステップS3において特徴量比較部44は、内視鏡画像、位置及び姿勢情報を取り込むようにしても良い。 
 ステップS3の処理の後のステップS5において特徴量比較部44は、取り込んだ内視鏡画像から所定の特徴量(パラメータ)C(ij)を検出する。なお、C(i,j)は、後述する図7Aにおいては入力された画像の輝度値から得られる画像の特徴的な値を示す。現時点ではC(i,j)は、C(1,0)となる。そして、次のステップS6において特徴量比較部44は、検出した所定の特徴量C(ij)と、閾値とを比較する。そして、特徴量比較部44は、所定の特徴量C(ij)が閾値以上であるか否かの比較結果を(制御部43内の)トリガ信号生成部45に出力する。なお、ステップS5,S6処理に関しては、図5等を参照して後述する。
 上記のように挿入部11の先端部15が尿管10内に挿入された状態においては、所定の特徴量C(ij)は閾値未満となり、ステップS7の処理に進む。一方、所定の特徴量C(ij)が閾値以上となる場合には、ステップS8の処理に進む。 
 ステップS7において制御部43は、フレーム番号iを1つ増加させた(i=2)後、ステップS2の処理に戻る。このようにして、フレーム番号iが順次大きくなる内視鏡画像において、同様の処理が繰り返される。そして、挿入部11の先端部15が尿管10の深部の腎盂51a内に挿入されると、所定の特徴量C(ij)が閾値以上となり、ステップS6の処理からステップS8の処理に移る。 
 ステップS8においてトリガ信号生成部45は、パラメータjを1、つまりトリガ信号を発生し、トリガ信号を3次元モデル画像生成部41aに出力する。 
 次のステップS4において3次元モデル画像生成部41aは、内視鏡画像、位置及び視線方向(又は位置及び姿勢)の情報を取り込む。 
 次のステップS9において3次元モデル画像生成部41aは、(3次元モデル画像としての)3次元形状画像の構築を行う。
 現時点では、トリガ信号が発生した直後であるので、トリガ信号の発生直後において取得した1フレーム分の内視鏡画像と、その場合の位置及び視線方向の情報を用いて3次元形状画像の構築を開始する。 
 3次元モデル画像生成部41aは、1フレーム分の内視鏡画像とその場合の位置及び視線方向の情報を用いて構築した3次元形状画像の画像信号をモニタ8に出力する。 
 次のステップS10においてモニタ8は、1フレーム分の内視鏡画像により構築された3次元形状画像を(3次元モデル画像として)表示する。 
 次のステップS11において制御部43は、入力装置38の終了ボタンなどから検査終了の指示信号が入力されたか否かを判定する。検査終了の指示信号が入力されていない場合には、ステップS7の処理に移り、フレーム番号のパラメータが1つ増加された後、ステップS2の処理に戻る。
 トリガ信号が発生した状態であるので、ステップS2の処理の後、ステップS4の処理に進み、さらにステップS9、S10の処理を行う。ステップS2,S4,S9-S11,S7のループの処理を繰り返すことにより、3次元形状画像の構築領域が増加する。 
 3次元形状画像の構築を開始した位置から挿入部11の先端部15が腎盂51aの深部側に移動しながら撮像された撮像済み(観察済み)の内視鏡画像に対応した3次元形状画像が構築される。また、構築された3次元形状画像がモニタ8において例えば図1に示すように表示される。なお、モニタ8において3次元形状画像を表示した場合の観察する観察方向(視点方向)を設定することができる。観察方向が設定されない場合には、デフォルトの観察方向の設定の状態で3次元形状画像が表示される。
 モニタ8において表示される3次元形状画像により、術者は内視鏡2により観察(検査)している腎盂51aの形状及び観察領域を把握でき、観察や処置を円滑に行い易くなる。 
 術者は、観察や処置を終了する場合には入力装置38の終了ボタン等を操作して、検査終了の指示信号を入力する。すると、ステップS12に示すように制御部43は、3次元モデル画像生成部41aが3次元形状画像の構築をする処理を停止させ、図4の処理を終了する。 
 なお、上述の説明においては、3次元モデル画像生成部41aが、3次元モデル画像として3次元形状画像を生成(構築)して、生成した3次元形状画像をモニタ8に表示する例を説明した。
 3次元モデル画像生成部41aが生成する3次元モデル画像として3次元形状画像の場合に限定されるものでなく、例えば3次元形状画像から観察済みの3次元領域となる3次元構築領域と、未観察の(ために構築されていない)3次元未構築領域との境界を視認可能にする(又は視認し易くする)3次元画像を生成(構築)し、モニタ8において3次元画像を3次元モデル画像として表示するようにしても良い。 
 次に図5A-図6Dを参照して、所定の特徴量としての輝度情報を利用して、3次元モデル画像の構築を開始する(トリガ信号を生成する)比較結果を得る場合の処理を具体的に説明する。 
 本実施形態は、3次元モデル画像の構築を開始する所定の特徴量として、内視鏡画像における輝度情報を利用し、挿入部11の先端部15が尿管10から腎盂51a内に挿入された場合を検出する。また、腎盂51a内に挿入された場合を検出する輝度情報として、術者は、(1フレーム分の)内視鏡画像の平均値を用いる場合と、(1フレーム分の)内視鏡画像の分割領域の平均値を用いる場合と、内視鏡画像上に設定したラインに沿った分割領域の平均値を用いる場合と、から選択することができる。
 図5Aは、尿管10内で得られる内視鏡画像を示す。また、図5Bは、尿管10内のように狭い管腔10a内に挿入部11の先端部15が挿入された様子を示す。図5Cは、図5Bの場合に得られる内視鏡画像を示す。また、図5Dは、図5Cにおける水平方向のラインに沿った輝度の分布を示す。図5Dにおいて、点線は、輝度の平均値Pauを示す。
 図5A-図5Dから分かるように尿管10又は狭い管腔10a内では、内視鏡2の挿入部11の先端部15の対物光学系23及びCCD24の撮像部25により観察(撮像)した場合、尿管10等の内壁と先端部15との距離が近く(小さく)なる。 
 そのため、得られる内視鏡画像における周辺部は、高い輝度値となり、内視鏡画像における中心部は尿管10の奥部分に対応した低い輝度値となる(尿管10、狭い管腔10aは、ほぼ真っ直ぐな状態であるとする)。 
 図6Aは、腎盂51a内で得られる内視鏡画像を示す。また、図6Bは、腎盂51a内のように広い管腔50内に挿入部11の先端部15が挿入された様子を示し、図6Cは、図6Bの場合に得られる内視鏡画像を示す。また、図6Dは、図6Cの水平方向のラインに沿った輝度の分布を示す。図6Dにおいて、点線は、輝度の平均値Papを示す。
 図6A-図6Dから分かるように腎盂51a内等では、広い管状構造になる為、内視鏡2の先端部15の撮像部25により観察(撮像)した場合、腎盂51aの内壁と先端部15との距離が遠く(大きく)なる。この場合、光源装置4の調光回路22による調光機能が動作し、照明光の光量が増加し、得られる内視鏡画像における周辺部と中心部とは、ほぼ同じような輝度値になる。 
 図6Dの平均値Papは、Pauよりも大きくなる。そして、後述する図7Aの処理においては、Pau<Pa_th<Papの条件を満たす閾値Pa_thを用いて、腎盂51aの内視鏡画像の判定を行う。 
 本実施形態においては、図5D、図6Dに示すような輝度分布の特性を利用して、撮像された撮像画像又は内視鏡画像から腎盂51aの画像を判定する(比較結果の)判定信号を得る。 
 上述したように本実施形態においては、輝度分布の特性を利用して、腎盂51aの画像を判定する3つの方法又は構成を備えている。
 図7A又は図7Bと、図8Aと、図9Aは、腎盂51aの画像を判定する3つの処理を示す。まず、図7Aを参照して、その動作(処理)を説明する。なお、図7Aの代わりに図7Bを採用しても良い。 
 図4におけるステップS3の内視鏡画像、位置情報の取り込みの処理の後、図7AのステップS21に示すように特徴量比較部44(の前処理部又は輝度抽出回路44a)は、内視鏡画像におけるノイズを除去するノイズ除去の処理を行う。特徴量比較部44(の輝度抽出回路44a)は、例えばガウシアンフィルタを用いて、ノイズを除去する。 
 次のステップS22において特徴量比較部44(のの前処理部又は輝度抽出回路44a)は、内視鏡画像におけるハレーション部分の除去する処理を行う。特徴量比較部44(の輝度抽出回路44a)は、例えば内視鏡画像の色成分画像となるRGB画像を、輝度画像と色差画像に変換し、輝度画像(白黒画像)が、階調の上限に近い閾値以上となる画像部分をハレーションとして除去する。
 次のステップS23において特徴量比較部44(の輝度抽出回路44a)は、ステップS21,S22の処理を経た内視鏡画像の(ハレーション部分を除去した1フレーム分の)輝度画像の輝度平均値Paを算出する。なお、図7Bにおいて説明するように内視鏡画像の中心部側の一部の領域における輝度平均値Paを算出するようにしても良い。 
 次のステップS24において特徴量比較部44(の比較回路44b)は、輝度平均値Paと、その輝度平均値Paに対して予め設定した閾値Pa_thとを比較する。 
 Pa≧Pa_thを満たさない比較結果の場合には、(判定信号を発生しないで)ステップS7の処理に戻る。つまり、腎盂51a内の内視鏡画像を判定するための閾値Pa_thに達していないと判定され、次のフレーム番号iの内視鏡画像において同様の処理が繰り返される。そして、挿入部11の先端部15が腎盂51a内に挿入され、腎盂51a内の内視鏡画像を取得した状態になると、以下のような比較結果となる。 
 Pa≧Pa_thを満たす比較結果の場合には、比較回路44bは、判定信号を発生して、トリガ信号生成部45に出力する。すると、ステップS8においてトリガ信号生成部45は、トリガ信号を発生する。そして、図4において説明したように3次元モデル画像生成部41aは、腎盂51a内の(2次元)内視鏡画像から3次元形状画像の構築を開始する。
 図7AのステップS23においては、内視鏡画像の輝度画像の輝度平均値Paを算出して、閾値Pa_thと比較しているが、図7BのステップS23′に示すように内視鏡画像の中心領域における輝度画像の輝度平均値Pa′を算出するようにしても良い。そして、次のステップS24′において比較回路44bが、輝度平均値Pa′と閾値Pa_th′と比較するようにしても良い。中心領域としては、内視鏡画像の中心部を中心として、その周辺領域を含むように設定すれば良い。例えば中心領域として、中心部を中心として、内視鏡画像の全領域の1/9~1/2程度に設定する。 
 図7BにおけるステップS23′、S24′以外の処理は、図7Aと同じであり、その説明を省略する。 
 次に図8Aの処理を説明する。図8AにおけるステップS31とS32は、図7AのステップS21のノイズ除去とステップS22のハレーション除去と同じ処理である。 
 次のステップS33において特徴量比較部44(の輝度抽出回路44a)は、ステップS31,S32の処理を経た内視鏡画像を複数の画像領域としての分割領域に分割する。図8Bは、(ステップS32の処理後の)内視鏡画像を水平方向及び垂直方向の分割数Nをそれぞれ10としたN×Nに分割された分割領域Rdを示す。
 なお、分割数Nを10にした場合に限定されるものでなく、2以上の数であれば良い。また、水平方向及び垂直方向の分割数Nを等しくした場合に限らず、異なる値に設定しても良い。 
 次のステップS34において特徴量比較部44(の輝度抽出回路44a)は、各分割領域の輝度平均値を算出する。 
 次のステップS35において特徴量比較部44(の輝度抽出回路44a)は、各分割領域の輝度平均値の最大値Pmaxと各分割領域の輝度平均値の最小値Pminとを抽出する。更に、特徴量比較部44(の輝度抽出回路44a)は、最大値Pmaxと最小値Pminとの差分Pd(=Pmax-Pmin)を算出する。 
 次のステップS36において特徴量比較部44(の比較回路44b)は、差分Pdが、この差分Pdに対して設定された閾値Pd_thとを比較し、差分Pdが閾値Pd_th以下か否かを判定する。 
 図5Aと図6Aとの比較、又は図5Cと図6Cとの比較、又は図5Dと図6Dとの比較から分かるように尿管10内のように狭い管腔10a内での内視鏡画像の分割領域における最大値と最小値との差は、腎盂51a内の場合よりも大きい値となる。また、このような輝度分布の特性を考慮して、閾値Pd_thが設定されている。
 つまり、尿管10内のように狭い管腔10a内での内視鏡画像の場合には、差分Pdが閾値Pd_thより大きく、腎盂51a内のように広い管腔50内での内視鏡画像の場合には、差分Pdが閾値Pd_th以下となるように、閾値Pd_thが設定されている。
 このため、尿管10内の内視鏡画像の場合には、ステップS36において差分Pdが閾値Pd_thより大きいと判定され、ステップS7の処理を経て(図4の)ステップS2の処理に戻る。そして、次のフレーム番号の内視鏡画像に対する同様の処理が繰り返される。 
 挿入部11の先端部15が、尿管10の深部側に移動(挿入)され、腎盂51aに近づくと管腔が広くなり、ステップS36において差分Pdが閾値Pd_thより大きいと判定されるものの差分Pdと閾値Pd_thとのずれ量は小さくなる。
 そして、更に挿入部11の先端部15が、腎盂51a内に至ると、ステップS36において差分Pdが閾値Pd_th以下と判定される。この判定結果の場合に、比較回路44bは、判定信号をトリガ信号生成部45に出力する。 
 すると、ステップS8においてトリガ信号生成部45は、トリガ信号を発生する。そして、図4において説明したように3次元モデル画像生成部41aは、腎盂51a内の(2次元)内視鏡画像から3次元形状画像の構築を開始する。 
 次に図9Aを参照して3つ目の処理を説明する。図9Aに示す処理は、図8Aに類似するため、図8Aにおける処理と異なる部分のみを説明する。 
 図8Aにおいての処理は、内視鏡画像全体を2次元的に複数の分割領域に分割したのに対して、図9Aの処理は、内視鏡画像における特定のラインに沿って複数の分割領域を設定し、複数の分割領域に対して図8Aの場合と同様の処理を行う。 
 図9Aにおける処理は、図8AにおいてステップS33の処理をステップS33′に変更した処理となり、その他は図8Aと同じ処理となる。ステップS33′において特徴量比較部44(の輝度抽出回路44a)は、例えば図5C又は図6Cに示すように内視鏡画像において特定のラインを設定し、特定のラインに沿って複数の分割領域を設定する。
 図9Bは、特定のラインに沿って設定された複数の分割領域Rdhを示す。なお、図9Bでは特定のラインとして、内視鏡画像の中心を通る水平方向の1つのラインを設定したが、複数のラインを設定し、複数のラインに対して複数の分割領域を設定するようにしても良い。 
 なお、図9AにおけるステップS36における閾値Pa_thは、図9Bのライン及びその場合の分割領域Rdhの大きさ等に応じて設定される。 
 図9Aの処理を選択した場合には、図8Aの場合よりも少ない演算量で済む利点がある。そのため、観察支援装置6に入力される内視鏡画像から時間的な遅れが殆ど発生しないタイミングで、3次元形状画像の構築を開始できる。 
 このように動作する第1の実施形態によれば、撮像された撮像画像又は内視鏡画像に基づいて生成されるトリガ信号により、自動的に3次元形状画像により形成される3次元モデル画像の生成を開始することができる。従って、術者が3次元モデル画像の生成を開始させる操作を必要としないので、操作性を向上できる。
 (第2の実施形態)
 次に本発明の第2の実施形態を説明する。本実施形態は、内視鏡画像を予め設定したテンプレート画像との類似度から、判定信号を生成する。このため、本実施形態においては、図2の観察支援装置6における特徴量比較部44が、第1の実施形態と異なる。 
 図10に示すように本実施形態における特徴量比較部44は、参照画像としてのテンプレート画像を設定する画像設定部44dと、内視鏡画像との類似度を算出する類似度算出部(又は類似度比較部)44eと、算出した類似度の結果を記録するメモリ44fを有する。 
 類似度算出部44eは、算出した類似度が閾値設定部44cにおいて設定された類似度の閾値以下(但し、類似度の算出方法によっては閾値以上となる)に類似している比較結果の場合に、第1の実施形態の場合と同様に、トリガ信号を発生させるための判定信号をトリガ信号生成部45に出力する。その他の構成は、第1の実施形態と同様の構成である。 
 本実施形態における全体的な処理は、図4に示す第1の実施形態の場合と殆ど同じであり、第1の実施形態とは図4におけるステップS5,S6が異なる。 
 図11は本実施形態におけるステップS5,S6に相当する処理の詳細を示す。
 本実施形態においては、挿入口を有する尿管10から挿入口の深部側の挿入経路に沿った腎盂51a内に挿入された状態の内視鏡画像を精度良く判定するために、尿管10内、腎盂51a内での代表的な内視鏡画像となる2つのテンプレート画像の他に、その途中の尿管腎盂移行部51c内でのテンプレート画像を用意している。 
 そして、尿管10から腎臓内に挿入された内視鏡2により取得される内視鏡画像が、尿管10内、尿管腎盂移行部51c内、腎盂51a内の特徴を有する各テンプレート画像の時間順に十分に類似する事(又は閾値以下に類似する事)が検出された場合には、腎盂51a内に挿入されたと判定する。 
 より単純化して、例えば腎盂51a内の特徴を有するテンプレート画像と十分に類似する事(又は閾値以下に類似していること)が検出された場合に、腎盂51a内に挿入されたと判定し、トリガ信号を発生するようにしても良い。 
 また、尿管10内又は尿管腎盂移行部51c内と、腎盂51a内の特徴を有する各テンプレート画像を用意し、尿管10内又は尿管腎盂移行部51c内のテンプレート画像と十分に類似する事が検出された後に、腎盂51a内のテンプレート画像と十分に類似する事が検出された場合に、腎盂51a内に挿入されたと判定し、トリガ信号を発生するようにしても良い。なお、他の臓器に挿入する場合に適用しても良い。 
 図12A、図13A及び図14Aは、挿入部11の先端部がそれぞれ尿管10内、尿管10と腎盂51aとの間の尿管腎盂移行部51c内、腎盂51a内に存在する状態を示す。なお、図12A等においては、髄質を51d、皮質を51eで示している。 
 図12B、図13BA及び図14Bは、図12A、図13A及び図14Aの場合の内視鏡2により取得される内視鏡画像を示す。図12B、図14Bの内視鏡画像は、図5A、図6Aに示した内視鏡画像と類似したものである。図13Bは、屈曲している尿管腎盂移行部51c内において得られる内視鏡画像を示す。
 これらの内視鏡画像にそれぞれ類似した画像がそれぞれテンプレート画像として設定される。 
 テンプレート画像は、実際の内視鏡画像により設定しても良いし、腎臓を模擬した腎臓ファントム内を内視鏡2により観察した場合に得られる観察画像により設定しても良い。また、CT装置等で得られた腎臓の3次元モデルから、この3次元モデル内に仮想的に内視鏡を配置した際に得られる仮想内視鏡画像から、尿管10内、尿管腎盂移行部51c、腎盂51a内のテンプレート画像を設定しても良い。 
 更に、実際の尿管10内、尿管腎盂移行部51c、腎盂51a内において内視鏡2によりそれぞれ得られる複数枚の内視鏡画像から、それぞれ輝度の平均的な内視鏡画像を作成して、尿管10内、尿管腎盂移行部51c、腎盂51a内のテンプレート画像を設定しても良い。 
 画像設定部44dは、このように設定された3種類のテンプレート画像を予め格納する画像格納部を備え、画像設定部44dは、テンプレート画像を画像格納部から読み出し、テンプレート画像を設定する。なお、画像格納部をメモリ44fにより形成しても良い。
 図11の処理が開始すると、ステップS41及びS42において特徴量比較部44(の前処理部又は類似度算出部44e)は、ノイズ除去とハレーション除去とを行う。ステップS41及びS42の処理は、図7AのステップS21,S22と同様の処理である。 
 次のステップS43において制御部43は、テンプレート画像(又はテンプレートマッチング)のパラメータkを初期値0に設定する。なお、パラメータkは、0が尿管10、1が尿管腎盂移行部51c、2が腎盂51aに対応して設定される。 
 次のステップS44において特徴量比較部44(の画像設定部44d)は、パラメータkに対応して3種類のテンプレート画像の設定を行う。つまり、画像設定部44dは、このパラメータk=0に対応した尿管10のテンプレート画像、k=1の尿管腎盂移行部51cのテンプレート画像、k=1の腎盂のテンプレート画像を設定(用意)する。 
 次のステップS45において類似度算出部44eは、内視鏡2により得られた内視鏡画像と、テンプレート画像との類似度Sikを算出するテンプレートマッチングを行う。また、次のステップS46において類似度算出部44eは、パラメータkが2であるかを判定し、パラメータkが2でない場合には、次のステップS47おいて類似度算出部44eは、パラメータkを1つ大きくしてステップS44の処理に戻る。
 ステップS44~S47のループの処理により、フレーム番号iの内視鏡画像と3種類のテンプレート画像との類似度Sikが算出されることになる。 
 本実施形態においては、内視鏡画像とテンプレート画像との類似度Sikを、以下の式1により算出する。 
Sik=ΣxΣy(fi(x,y)-tk(x,y))   (1)
 ここで、fi(x,y)は、フレーム番号iで、座標(x,y)の2次元内視鏡画像(の画素値)、tk(x,y)は、パラメータkにおける座標(x、y)の2次元テンプレート画像(の画素値)を表す。また、ΣxとΣyは、2次元内視鏡画像及び2次元テンプレート画像におけるx座標とy座標の範囲内において加算することを表す。 
 式1から分かるように類似度Sikは、その値が小さい程、類似していることを示す。Sikを類似指数と定義し、類似指数Sikが小さい値ほど、類似度が大きい(高い)と表現しても良い。 
 ステップS46においてパラメータkが2の場合には、ステップS48の処理に進む。
 ステップS48において類似度算出部44eは、算出した3つの類似度Sikの値が、最小となる(最も類似している)テンプレート画像を選択して、その内視鏡画像fiのシーンを設定し、例えば類似度算出部44e内のメモリ44fに記録する。
 例えば、最初のフレーム番号i(i=1)の内視鏡画像f1の場合には、内視鏡2の先端部15が尿管10内に存在した場合には、尿管10に対して用意されたテンプレート画像t0との類似度の値が最も小さくなる。そして、内視鏡画像f1のシーンは、尿管10内を観察するシーンSc(尿管)として設定(判定)され、メモリ44fにf1:Sc(尿管)を記録する。なお、f1:シーンSc(尿管)は、メモリ44fがフレーム番号1の内視鏡画像f1と、判定されたシーンSc(尿管)とを対応付けて記録することを示す。 
 次のステップS49において類似度算出部44eは、メモリ44fに尿管10、尿管腎盂移行部51c、腎盂51aの順に検出された履歴情報(基準履歴情報と言う)が在るか否かを判定する。現時点では、そのような履歴情報が存在しないので、ステップS7の処理に移り、フレーム番号iを1つ大きくしてステップS2の処理に戻る。 
 このようにして、時間的に後のフレーム番号iの内視鏡画像fiに対して同様の処理が繰り返される。そして、内視鏡2の先端部15が尿管腎盂移行部51c内に達すると、その場合の内視鏡画像と尿管腎盂移行部51cのテンプレート画像t1との類似度の値が最小となる。そして、ステップS48においてメモリ44fには、fi:シーンSc(尿管腎盂移行部)が記録される。また、この場合においても、次のステップS49において基準履歴情報でないと判定され、ステップS7の処理に移る。
 このようにして、時間的に後のフレーム番号iの内視鏡画像fiに対して同様の処理が繰り返される。そして、内視鏡2の先端部15が腎盂51a内に達すると、その場合の内視鏡画像fiと腎盂51aのテンプレート画像t2との類似度の値が最小となる。そして、ステップS48においてメモリ44fには、fi:シーンSc(腎盂)が記録される。
 この場合のメモリ44fに格納された履歴情報の例を図15に示す。メモリ44fには、フレーム番号iが付けられた内視鏡画像fiと共に、類似度算出により算出(設定、又は判定)されたシーンSc(L)が順次記録される。ここで、Lは、尿管、尿管腎盂移行部、腎盂の情報を表す。内視鏡2の先端部15が尿管10からその深部側に挿入され、腎盂51a内に達すると、図15に示すように時間的に尿管、尿管腎盂移行部、腎盂の順序のシーンSc(L)の情報が記録される。 
 このような記録状態になると、ステップS49において類似度算出部44eは、メモリ44fに記録された履歴情報から、尿管、尿管腎盂移行部、腎盂の順に検出されたと判定し、判定信号をトリガ信号生成部45に出力し、ステップS50の処理に進む。
 ステップS50においてトリガ信号生成部45は、パラメータjを0から1にして、トリガ信号を発生する。そして、図4の処理に進み、3次元形状画像の生成が開始する。 
 なお、類似度Sikとして式1に示した式の代わりに、以下の式2に示す正規化相互相関Tikを利用しても良い。 
Tik=ΣxΣy{(fi(x,y)-<fi>)(tk(x,y)-<tk>)}/U   (2)
U=(ΣxΣy(fi(x,y)-<fi>)(tk(x,y)-<tk>)1/2
 なお、<fi>、<tk>は、それぞれfi、tkの平均値を表す。 
 また、テンプレートマッチングは、内視鏡画像とテンプレート画像とがほぼ一致した画像でないと、類似度が小さくならない為、観察方向が変化すると、検出(判定)の精度が低下する。精度の低下を防止するために、例えば、図12Bの内視鏡画像を尿管10の場合のテンプレート画像にする場合、点線で示すように特徴部分を切り出した、切り出し画像をテンプレート画像に設定しても良い。他のテンプレート画像に対しても同様に適用しても良い。
 また、尿管10、尿管腎盂移行部51c、腎盂51aの場合の各テンプレート画像として、それぞれを画像の中心の回りで回転した複数のテンプレート画像を用意するようにしても良い。この場合には、類似度を算出する場合の演算量が増大するため、内視鏡画像及びテンプレート画像として、画素数を縮小した縮小画像を利用するようにしても良い。 
 また、類似度を算出する場合に用いるレンプレート画像として、実際の腎臓の観察画像を複数枚用いて、その画像を教師データとしてニューラルネットワークを構築して、尿管、尿管腎盂移行部、腎盂を検出するようにしてもよい。 
 上述した第1及び第2の実施形態は、内視鏡2を尿管10から腎臓の腎盂側に挿入する場合を説明したが、内視鏡2を口から肺内に挿入する場合にも適用できることを以下に説明する。 
 内視鏡2の先端部15を口から肺に挿入した場合、撮像される画像は、図16Aの咽頭、図16Bの器管支,図16Cの左右の主気管支の分岐部の順番の内視鏡画像となる。なお、図16A、図16B,図16Cは、それぞれ概略図を示し、より具体的な画像は、図17A、図17B又は図17C,図17Dとなる。
 内視鏡2の先端部15が図17Aの咽頭を通過した後は、気管支の細い管腔が続き、その場合の内視鏡画像は図17B又は図17Cのような画像となる。その後、内視鏡画像における輝度が均一に近い状態となる、図17Dに示すような左右の主気管支の分岐部が観察される(なお、左右の主気管支の分岐部は、管腔は腎盂のように広がらないが、左右に細い気管支が分かれ、分岐の壁を観察する為、輝度が均一に近い状態となる)。 
 気管支は、尿管10の場合と同様に細い管腔構造となり、図17B又は図17Cに示すように中心側が暗くなる内視鏡画像となる。また、内視鏡2の先端部15が気管支の深部側(奥に)に挿入されると、図17Dに示すように輝度が均一に近い状態の左右の主気管支の分岐部が現れる内視鏡画像となる。そして、例えば、左右の主気管支の分岐部が現れる内視鏡画像を、輝度情報から検出(判定)したり、テンプレート画像を用いた類似度を算出して検出(判定)したりすることができる。 
 よって、上述した腎臓の観察の場合と同様に、第1の実施形態、第2の実施形態を適用して、(気管支の観察支援をするための)気管支の3次元形状画像(3次元モデル画像)の構築を自動的に開始させる処理を内視鏡画像から同様に行うことができる。
 (第3の実施形態)
 次に本発明の第3の実施形態を説明する。腎臓内等に内視鏡2を挿入する場合、円滑に挿入するための挿入補助具としてのアクセスシースを採用する場合がある。本実施形態においては、アクセスシースを採用した場合の実施形態である。 
 図18Aは、尿管10内に留置したアクセスシース61を示し、アクセスシース61の先端は、尿管腎盂移行部51cの手前あたりに配置される。そして、アクセスシース61内に挿入した内視鏡2より、アクセスシース61の先端を、内視鏡画像から検出することにより、尿管10における腎盂尿管移行部の手前を検出することができる。なお、アクセスシース61は、例えば後述する図25Aの拡大図に示すように先端部61aが、その他の部分(樹脂)と異なる金属により構成され、その色も異なる。 
 挿入補助具としてのアクセスシース61は、内視鏡2の挿入部11の外径よりも大きい内径の管路を有する。また、アクセスシース61の基端の挿入口61b(図25A参照)から内視鏡2の挿入部11の先端部15を挿入可能である。挿入された内視鏡2の先端部15をアクセスシース61の先端部61a(図25A参照)の先端の突出口から外部に突出させることができる。
 図18Aに示すように、アクセスシース61の先端付近に内視鏡2の先端部15を挿入した場合、図18Bの概略図に示すようにアクセスシース61の先端内部画像I61aと、その内側の尿管内壁画像(尿管内部画像)I10とを観察する状態となる。なお、先端内部画像I61aの外側は、アクセスシース61の内壁画像I61となり、先端部15がアクセスシース61の先端部内に位置すると、内壁画像I61は無くなり、先端内部画像I61aと、尿管内壁画像I10となる。 
 図18Bに対応した実際に得られる内視鏡画像は、図18Cのようになる。アクセスシース61の内壁画像I61と、アクセスシース61の先端内部画像I61aと、その内側の尿管内壁画像I10の色とが異なることから、先端内部画像I61aと尿管内壁画像I10との境界を内視鏡画像から検出することができる。 
 また、図18B及び図18Cに示すようにアクセスシース61の先端内部画像I61aとその内側の尿管内壁画像I10との境界は、円又は楕円となるので、その境界を形状から検出することもできる。
 本実施形態においては、上記境界を検出した場合には判定信号を発生し、内視鏡画像から3次元形状画像の構築を開始するトリガ信号を発生する。また、本実施形態においては、境界を検出(判定)するために、例えば図18Dに示す色度図を利用する。 
 図19は、本実施形態における特徴量比較部44の構成を示す。本実施形態は、図1及び図2と同様の構成であり、図2における特徴量比較部44のより詳細な構成が第1の実施形態の場合と異なるのみの構成となる。 
 図19に示すように特徴量比較部44は、色度図上の処理を行う色度図処理部44gと、先端内部画像I61aとその内側の尿管内壁画像I10との円又は楕円の境界を検出するための円形ハフ変換等の処理を行う境界処理部44hとを有する。また、境界処理部44hは、円形ハフ変換を行う円形ハフ変換処理部を含む。 
 術者は、入力装置38から色度図処理部44gを用いてトリガ信号を発生させる場合と、境界処理部44hを用いてトリガ信号を発生させる場合とを選択することができる。
 図20Aは、本実施形態における色度図処理部44gを用いてトリガ信号を生成するための比較又は判定を行う処理を示す。 
 ステップS51及びS52において特徴量比較部44(の前処理部又は)は、ステップS41及びS42の場合と同様に、内視鏡画像のノイズ除去の処理とハレーションの除去の処理を行う。 
 次のステップS53において特徴量比較部44(の色度図処理部44g)は、内視鏡画像の各画素を、図18Dに示す色度図にプロットする。 
 内視鏡2の先端部15が挿入された位置が図18Aに示す位置よりも浅い場合には、内視鏡画像の色度図上の位置は、アクセスシース61の内壁画像I61の色に対応した位置となる。 
 そして、内視鏡2の先端部15が図18A又はこれに近い位置まで挿入されると、その場合の内視鏡画像は図18Cに近い画像となり、色度図上においては、先端内部画像I61aの色が複数プロットされる。なお、図18Dにおいて、先端内部画像I61aの所定の色の領域をC61aで示している。
 次のステップS54において特徴量比較部44(の色度図処理部44g)は、プロットした位置(色)が所定の色の領域C61a内に所定数以上存在するかを判定する。所定数以上存在しない場合には、ステップS7に移り、フレーム番号を1つ増加する。 
 一方、ステップS54の判定処理において所定の色の領域C61a内に所定数以上、プロットされた位置が存在する判定結果の場合には、特徴量比較部44(の色度図処理部44g)は、トリガ信号を発生させる判定信号をトリガ信号生成部45に出力する。 
 次のステップS8においてトリガ信号生成部45はトリガ信号を発生する。そして、図2に示す3次元モデル画像生成部41aは、3次元形状画像の構築を開始する。 
 なお、ステップS54の判定処理として、更に色度図上において尿管内壁画像I10又は尿管腎盂移行部51cの画像の色の領域C10(図18Dの色度図において示す)に、所定数以上、プロットされた位置が存在する条件を追加しても良い。 
 先端部15がアクセスシース61の先端部61aに近い位置になると、円形の領域のサイズが大きくなり、その内側の尿管内壁画像I10又は尿管腎盂移行部51cの画像の内視鏡画像に占める割合も大きくなる。そのため、そのような画像の色度図上でプロットされた色も考慮してステップS54の判定を行うようにしても良い。
 次に図20Bを参照してアクセスシース先端内部と尿管との境界が、ほぼ円形を示すことを利用し、境界処理部44hによる円形ハフ変換により境界を検出する場合の処理を説明する。 
 図20Bに示す処理は、図20AにおけるステップS53とS54とを、ステップS61~S64に変更した処理となる。 
 ステップS52の処理のステップS61において特徴量比較部44(の境界処理部44h)は、内視鏡画像内のエッジ抽出を行う。特徴量比較部44(の境界処理部44h)は、例えば、内視鏡画像を形成するRGB画像におけるグリーン画像(G画像)を用いてCannyオペレータによるG画像内のエッジ成分を抽出する。 
 次のステップS62において特徴量比較部44(の境界処理部44h)は、内視鏡画像の輝度を2値化する処理を行う。より具体的には、特徴量比較部44(の境界処理部44h)は、内視鏡画像におけるG画像を用いて内視鏡画像の濃度値ヒストグラムを作成し、更に2値化の閾値を設定し、内視鏡画像を2値化する(p-タイル法等を用いる)。
 次のステップS63において特徴量比較部44(の境界処理部44h)は、尿管10内の2値化部分を削除する。より具体的には、特徴量比較部44(の境界処理部44h)は、内視鏡画像内の尿管画像領域を検出し、尿管画像領域内の2値化部分を削除する。 
 次のステップS64において特徴量比較部44(の境界処理部44h)は、円形ハフ変換による2値化したエッジの各画素をパラメータ空間に投票する。 
 次のステップS65において特徴量比較部44(の境界処理部44h)は、円形を抽出する処理を行う。より具体的には、特徴量比較部44(の境界処理部44h)は、パラメータ空間での投票度数が最大となる位置を検出する。 
 次のステップS66において特徴量比較部44(の境界処理部44h)は、アクセスシース61の先端部61aの有無を判定する。より具体的には、特徴量比較部44(の境界処理部44h)は、ステップS65で検出された投票度数が特定の閾値以上かを判定し、閾値未満である場合には、内視鏡2の先端部15がアクセスシース61の先端部61a付近に存在しない状態の内視鏡画像であると判定する。この判定結果の場合には、ステップS7の処理に進む。
 一方、特徴量比較部44(の境界処理部44h)は、投票度数が特定の閾値以上である場合には、内視鏡2の先端部15がアクセスシース61の先端部61a付近に存在する状態の内視鏡画像であると判定する。この判定結果の場合にはステップS8の処理に移る。
 本実施形態によれば、アクセスシース61を採用した場合、内視鏡画像からアクセスシース61の先端部61aを検出することにより、トリガ信号を発生して、3次元形状画像の構築を自動的に開始させることができる。 
 また、本実施形態においては、アクセスシース61の先端部61aを留置する位置の設定(調整)により、3次元形状画像の構築を開始させる位置を調整することができる。
 (第4の実施形態)
 次に本発明の第4の実施形態を説明する。本実施形態は、腎盂51a、腎杯51b内における特定の構造を検出した場合、トリガ信号を発生して、3次元形状画像の構築を開始する。 
 本実施形態は、図21に示すように特徴量比較部44は、特定の構造を検出する構造検出部44iを有する。構造検出部44iは、検出対象に設定される特定の構造を有する基準画像の特徴を格納するメモリ44jを有する。 
 構造検出部44iは、内視鏡2による取得される内視鏡画像が特定の構造を有するか否かを検出(判定)し、特定の構造を有することを検出した場合、判定信号をトリガ信号生成部に出力する。そして、3次元形状画像の構築が開始する。 
 なお、メモリ44jは、特定の構造を有する複数種類の基準画像の特徴を格納でき、術者は、検出対象とする特定の構造を選択(設定)できる。つまり、術者は、複数種類の基準画像の特徴から1つの基準画像の特徴を選択することにより、選択された基準画像の特徴(特定の構造)に相当する検出結果の位置から3次元形状画像の構築を開始させる選択を行うことができる。
 図22Aと、図22B又は図22Cは、特定の構造を有する基準画像の例を示す。図22Aは、腎盂51aから腎杯51bの入口が観察される分岐構造を有する基準画像を示す。図22Aのように腎盂51a内において、その画像内に複数の矢印で示すように腎杯51bの入口を表す、くぼんで奥が暗くなる構造(部分)St1が存在している。そして、構造検出部44iは、このような腎杯51bの入口を示す構造を1つ又は複数の分岐構造を検出した場合に、判定信号を発生し、3次元形状画像の構築が開始するようにする。 
 また、図22B又は図22Cは、上腎杯における腎乳頭を特定の色を有すると共に、隆起した形状となる特定の構造を有する基準画像を示す。内視鏡2を腎杯51b内に挿入し、図22B又は図22Cに示すように白色に近い周辺の色に対して、矢印で示すように肌色に近い色を有し、隆起した形状を有する腎乳頭の構造St2,St3を検出した場合に、構造検出部44iは、判定信号を発生し、3次元形状画像の構築が開始するようにする。その他の構成は、第1の実施形態と同様の構成である。 
 図23は、本実施形態におけるトリガ信号を生成するための処理のフローチャートを示す。この処理は、例えば図20Aにおいて、ステップS53,S54の処理をステップS71,S72に置換した処理となる。
 ステップS71において構造検出部44iは、メモリ44jに格納された検出対象の基準画像の特定の構造を参照して、内視鏡2による取得される内視鏡画像が特定の構造を有するか否かを検出する。 
 次のステップS72において構造検出部44iは、内視鏡画像が特定の構造を、予め設定された閾値以上の割合で特定の構造を有するか否かを判定する。閾値未満の割合で特定の構造を検出した場合には、ステップS7の処理に移り、閾値以上の割合で特定の構造を検出した場合にはステップS8の処理に進む。 
 本実施形態によれば、特定の構造を検出した場合に、自動的に3次元形状画像(3次元モデル画像)の構築(生成)を開始することができる。 
 また、複数種類の特定の構造を用意することにより、3次元形状画像を構築する位置を選択することができる。
 (第5の実施形態)
 次に本発明の第5の実施形態を説明する。本実施形態は、上述した第1~第4の実施形態のいずれかの実施形態において、トリガ信号生成部45又は動作検知部47が、キャリブレーションを行うキャリブレーション処理部45aを有する。図24Aは、トリガ信号生成部45がキャリブレーション処理部45aを有する例を示す。 
 また、本実施形態においては、術者は、入力装置38から上述した実施形態の処理を行う場合と、キャリブレーション処理部45aによる処理に基づいてトリガ信号を生成する場合との一方を選択することができる。上述した実施形態の処理を選択した場合には、上述した実施形態と同様の処理となり、説明済みの動作となる。そのために、以下ではキャリブレーション処理部45aを選択した場合の処理等を説明する。 
 腎臓は呼吸によって移動する為、精度の高い観察支援を実現するためには呼吸による腎臓の動きを考慮する必要がある。例えば、呼吸の動きによる内視鏡2の先端部15の位置を補正しない場合には、内視鏡2の先端部15の位置に基づく3次元形状画像(3次元モデル画像)を構築する場合の精度と、表示した場合の精度も低下する。また、モニタ8に表示される腎盂・腎杯形状に対して内視鏡先端が実際と異なる位置に表示される。
 このため、本実施形態においては、キャリブレーション処理部45aは、呼吸による腎臓の動きを検出して、内視鏡2の先端部15の位置を補正するキャリブレーションの処理を行う。そして、キャリブレーションが完了した場合には、3次元形状画像の構築を開始する。 
 図24Bは、本実施形態の処理を示す。図24に示す処理は、図4の処理と類似しているので、異なる部分のみ説明する。ステップS1として、初期化を行う。ここではパラメータjのみ用い、初期値j=0に設定し、ステップS2の処理に進む。ステップS2においてパラメータjが1でない場合には、ステップS81の処理に進み、ステップS81においてキャリブレーション処理部45aは、キャリブレーションの処理を行う。 
 キャリブレーション処理部45aは、腎臓内に挿入した内視鏡2の先端部15を、腎臓の動きに合わせて動かすことにより、先端部15の位置の動きを、腎臓の動きとして先端部15の位置を求めても良い。
 キャリブレーション処理部45aは、腎臓内に内視鏡2の先端部15が挿入された状態で、呼吸による腎臓の動きの変動量に基づいて、呼吸による先端部15の位置を推定する先端の位置データの推定又は取得の処理を行う。 
 このような推定を行うことが可能な補正のデータ取得が完了した状態になると、キャリブレーション処理部45aは、キャリブレーションが完了し、完了を通知する判定信号又はトリガ信号を出力する。なお、キャリブレーション処理部45aがトリガ信号生成部45の外部に設けられている場合には、キャリブレーション処理部45aがトリガ信号生成部45にトリガ信号を発生させる判定信号を出力する。 
 ステップS81の次のステップS82においてキャリブレーション処理部45aは、キャリブレーションが完了したか(換言すると、補正のデータ取得が完了したか)を判定する。キャリブレーションが完了していない場合には、ステップS81の処理に戻る。 
 一方、キャリブレーションが完了した場合には、ステップS8に進み、ステップS8の処理後にステップS4に進む。ステップS4以降は、図4と同様の処理を行う。但し、ステップS11において、終了でない場合にはステップS4の処理に戻る。また、ステップS4において、先端部15の位置の情報を取り込んだ際に、上記のように呼吸による変動量を補正した位置の情報を取得して、ステップS9の処理を行う。 
 本実施形態によれば、キャリブレーションの完了後に、トリガ信号を発生して、自動的に3次元形状画像の構築を開始できる。また、呼吸による先端部15の位置が変動した場合の影響を低減した3次元形状画像の構築ができる。
 (第6の実施形態)
 次に本発明の第6の実施形態を説明する。本実施形態は、上述した第1~第5の実施形態のいずれかの実施形態において、磁界検出部46が、磁界変化を検出した場合に判定信号をトリガ信号生成部45に出力し、3次元モデル画像生成部41aは、3次元形状画像の構築を開始する。入力装置38から磁界検出部46を用いない選択を行った場合には、上述した第1~第5の実施形態のいずれかの動作となる。このため以下では、入力装置38から磁界検出部46を用いる選択を行った場合を説明する。 
 内視鏡2の先端部15がアクセスシース61の先端部61a付近の位置を通過したような場合における、先端部内センサ34から出力される磁界の検出信号から磁界検出部46が磁界の変化量を検出して、トリガ信号を発生させる判定信号を発生する。 
 図25Aは、図18Aと同様の図であり、内視鏡2の先端部15及びその周囲のアクセスシース61の先端部61aの付近を拡大図により拡大して示す。拡大図からのハッチングから分かるように、アクセスシース61の先端部61aは、導電性を有する金属で構成され、先端部61a以外は樹脂等の非金属部材(又は絶縁製部材)で構成されている。以下に説明するようにアクセスシース61の先端部61aが、アクセスシース61におけるその他の部分と、磁界に対する特性が異なることを利用して、信号生成部を構成するトリガ信号生成部45は、トリガ信号を発生(生成)する。
 図25Bは、図25Aの状態で取得される内視鏡画像の概略図を示し、図18Bと同様の図となる。 
 図25Cは、図25Aにおいて、更に内視鏡2の先端部15がアクセスシース61の先端部61a内にまで挿入された状態を示す。 
 図25Cにおける円形部分の拡大図に示すように、先端部15内には先端部内センサ34を形成するセンスコイル34a~34cが配置されている。また、患者9の外部に配置されるアンテナ7を構成するソースコイル7aには、交流電流が印加され、このソースコイル7aは、その周囲に(交流)磁界を発生する。なお、先端部15の位置の検出精度を向上するために、複数のソースコイルが採用されている。 
 図25Dは、ソースコイル7aが発生する磁界と、その磁界を検出するセンスコイル34aを示す(センスコイル34b,34cは、センスコイル34aの場合と同様に作用する)。 
 図25Dに示すように、ソースコイル7aには時間的に変化する電流が流れ、時間的に変化する磁界Hが発生する。ソースコイル7aが発生した磁界H内にセンスコイル34aを配置した場合、電磁誘導によりセンスコイル34aに電流が流れる。
 また、ソースコイル7aが発生した磁界H内にアクセスシース61の先端部61aのような金属Mを配置した場合、磁束が金属Mを貫き、磁束の周りに渦電流Ceが流れる。渦電流Ceが流れると金属Mを貫いた磁束と逆方向に磁界が発生する。 
 そのため、金属Mの近傍にセンスコイル34aが配置されていると、センスコイル34aは、渦電流Ceによって発生した磁界とソースコイル7aが発生した磁界Hの合成された磁界を検出することになり、金属Mの有無によってセンスコイル34aが検出する出力が変化する。 
 内視鏡2の先端部15がアクセスシース61の先端部61a内に存在した場合、又は先端部61aを通過した場合、アクセスシース61の先端部61aを境にセンスコイル34aの出力が変動する。 
 従って、磁界検出部46が変動する出力を検出することにより、内視鏡2の先端部15がアクセスシース61の先端部61aを通過したことを判定することができる。
 図26Aは、この場合の処理を示す。図26Aの処理は、図24においてステップS81及びS82の処理が異なる。ステップS2においてパラメータjが1でない判定結果の場合には、ステップS85において磁界検出部46は、先端部内センサ34が出力する検出信号の時間的変化量Dtをモニタする。次のステップS86において磁界検出部46は、検出信号の時間的変化量Dtの絶対値が、閾値Dth以上であるか否かを判定し、閾値Dth未満の場合には、ステップS85の処理に戻る。なお、閾値Dthは、正の値である(Dth>0)。
 一方、検出信号の時間的変化量Dtの絶対値が、閾値Dth以上の場合には、磁界検出部46は、判定信号をトリガ信号生成部45に出力してステップS8に進む。ステップS8において、トリガ信号生成部45は、トリガ信号を発生し、このステップS8の処理後、ステップS4の処理に移る。なお、ステップS4,S9~S12は、図4における処理と同様である。 
 本実施形態によれば、先端部15がアクセスシース61の先端部61aを通過した際の磁界変化量を検出した場合にトリガ信号を発生し、自動的に3次元形状画像の構築を開始できる。
 なお、先端部15がアクセスシース61の先端部61aを通過した際の磁界変化量を検出した場合にトリガ信号を発生させる場合の他に、以下の場合においてトリガ信号を発生させるようにしても良い。 
 先端部15がアクセスシース61の先端部61aに近づき、先端部61a内(先端部61aの内側)に入った際の磁界変化量を磁界検出部46が検出した判定信号に基づいて、トリガ信号を発生させるようにしても良い。 
 換言すると、内視鏡2の先端部15がアクセスシース61の先端部61aのような所定の位置にあることを(磁界検出部46が)検知した場合、トリガ信号生成部45が3次元モデル画像の生成を開始するトリガ信号を生成するようにしても良い。 
 このように磁界検出部46が内視鏡2の先端部15内に配置され、先端部15の位置を検出する先端部内センサ34により検出される検出信号から内視鏡2の先端部15周辺の磁界変化を検出し、検出結果の判定信号をトリガ信号生成部45に出力する。
 トリガ信号生成部45は、磁界検出部46の検出結果に基づいて、先端部15が所定の位置としてのアクセスシース61の先端部61aの位置にあることを検知してトリガ信号を発生し、3次元モデル画像生成部41a又は制御部43に出力する。3次元モデル画像生成部41aは、トリガ信号生成部45からのトリガ信号により3次元モデル画像の生成を開始したり、又は制御部43による制御下でトリガ信号に基づいて3次元モデル画像の生成を開始する。 
 トリガ信号生成部45(及び磁界検出部46)は、内視鏡2が所定の位置にあることを検知した場合のトリガ信号を生成する信号生成部をトリガ信号生成部45が構成する。なお、トリガ信号生成部45が磁界検出部46を備える構成にしても良いし、逆に磁界検出部46がトリガ信号生成部45を備える構成にしても良い。そして、本実施形態は以下のような構成であるとも言える。
 本実施形態の医療用観察システム1(例えば図1)は、3次元形状を有する被検体としての患者9の内部を観察する内視鏡2と、前記被検体の3次元モデル画像を構築する3次元モデル画像生成部41aと、前記内視鏡2(の先端部15)がアクセスシース61の先端部61a等の所定の位置にあることを検知した場合、前記3次元モデル画像の生成を開始するトリガ信号を生成する信号生成部を形成するトリガ信号生成部45と、前記3次元モデル画像生成部41aに対して、前記信号生成部により生成された前記トリガ信号に基づいて、前記3次元モデル画像の生成を開始するよう制御する制御部43と、を有することを特徴とする。 
 上記のように内視鏡2の先端部15アクセスシース61の先端部61a等の所定の位置にあることを検知(検出)した場合の他の場合にも、トリガ信号を発生させるようにしても良い。 
 例えば、磁界検出部46が、先端部内センサ34がアンテナ7の検出範囲に入った場合に、トリガ信号生成部45からトリガ信号を発生させ、3次元モデル画像生成部41aが3次元形状画像の構築を開始するような構成にしても良い。
 より具体的には、磁界検出部46は、先端部内センサ34の検出信号の信号レベルの絶対値が、信号レベルの閾値以上となる場合に、トリガ信号を発生するようにしても良い。換言すると、先端部内センサ34の検出信号の信号レベルの絶対値が、信号レベルの閾値以上となる場合に所定の精度で先端部15の位置を検出又は推定できるアンテナ7の検出範囲内に入ったと判定する。 
 また、一定時間間隔等において先端部15の位置の推定から、動作検知部47が先端部15の移動速度を算出し、移動速度が閾値未満となった場合に、トリガ信号を発生し、3次元モデル画像生成部41aが3次元形状画像の構築を開始するような構成にしても良い。 
 また、第6の実施形態により、内視鏡2の先端部15が所定の位置にあることを検知した場合、その時間から設定された時間、又は所定の位置から設定された距離遡って、3次元モデル画像生成部41aが3次元形状画像の構築を開始するようにしても良い。
 その他に、動作検知部47がユーザによる入力装置38やフットスイッチの操作、内視鏡2の挿入の操作、例えば湾曲操作、内視鏡2を挿入した後の、後退させる操作を検知した場合に、トリガ信号生成部45からトリガ信号を発生させ、3次元モデル画像生成部41aが3次元形状画像の構築を開始するような構成にしても良い。 
 また、内視鏡画像(撮像画像)における所定のパラメータの所定値以上の結果(又は変化結果)と、術者等のユーザによる内視鏡2の挿入動作の検知結果と、に基づいて、トリガ信号を生成するようにしても良い。 
 図26Bは、この場合の処理の例を(第6の実施形態の第1変形例として)示す。図26Bは、例えば図4の処理において、ステップS6において所定の特徴量(パラメータ)C(i,j)が閾値以上の場合には、ステップS6′の処理を行うフローチャートとなる。ステップS6′以外は、図4と同様の処理となる。 
 ステップS6′において、例えば動作検知部47により形成される挿入動作検知部が、(所定の)挿入動作を検知したか否かを判定(検知)し、挿入動作を検知しない場合には、ステップS7に移る。一方、ステップS6′において、動作検知部47により形成される挿入動作検知部が、挿入動作を検知した場合には、ステップS8に進み、トリガ信号を発生する。
 動作検知部47により形成される挿入動作検知部は、上述した内視鏡2による湾曲操作等でも良いし、先端部内センサ34がアンテナ7の検出範囲に入った場合を、所定の挿入動作を検知した場合に設定しても良い。このように複数の判定結果(又は検知結果)に基づいて、トリガ信号を生成するようにしても良い。図26Bでは、撮像画像と挿入動作の場合とを組み合わせた例を示しているが、撮像画像と図26Aの検出信号の時間的変化量等とを組み合わせても良い。 
 また、ユーザが入力装置38から上述した実施形態及び変形例等を選択的に動作させる選択を行うことができる構成にしても良い。 
 図27は、ユーザが入力装置38から上述した実施形態及び変形例等を選択的に動作させることができる(第6の実施形態の第2変形例の)観察支援装置6Bを示す。 
 図27の観察支援装置6Bは、特徴量比較部44が第1の実施形態における輝度抽出回路44a,比較回路44b,閾値設定部44c,から第4の実施形態における構造検出部44i、メモリ44jまでを有する。また、トリガ信号生成部45は、キャリブレーション処理部45aを有する。
 特徴量比較部44は、第1の実施形態の輝度抽出回路44a,比較回路44b,閾値設定部44c,第2の実施形態の画像設定部44d、類似度算出部44e、第3の実施形態の色度図処理部44g、境界処理部44h、第4の実施形態の構造検出部44i、メモリ44jを有する。また、トリガ信号生成部45は、第5の実施形態で説明したキャリブレーション処理部45aを有する。 
 そして、ユーザは、入力装置38から第1の実施形態の輝度抽出回路44a,比較回路44b,閾値設定部44c~第4の実施形態の構造検出部44i、メモリ44jまでの1つの実施形態を選択して、3次元形状画像の構築を開始させる構成を選択できる。 
 また、その他に、入力装置38からキャリブレーション処理部45aを選択したり、磁界検出部46を選択する等して、上述した第6の実施形態等の処理や動作を行うようにすることもできる。図27の観察支援装置6Bを用いた場合には、3次元形状画像の構築を開始させる場合において、ユーザの選択肢が増え、操作性の良い医療用観察システムを実現できる。 
 なお、上述した実施形態等を部分的に組み合わせて異なる実施形態等を構成しても良い。
 本出願は、2016年6月7日に日本国に出願された特願2016-113777号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (13)

  1.  3次元形状を有する被検体の内部を撮像する撮像部を有する内視鏡と、
     前記撮像部により出力された撮像画像に基づいて、前記被検体の3次元モデル画像を構築する3次元モデル画像生成部と、
     前記撮像画像における所定のパラメータに基づいて、前記3次元モデル画像の生成を開始させるためのトリガ信号を生成する信号生成部と、
     前記3次元モデル画像生成部に対して、前記信号生成部により生成された前記トリガ信号に基づいて、前記3次元モデル画像の生成を開始するよう制御する制御部と、
     を有することを特徴とする医療用観察システム。
  2.  前記撮像画像における前記所定のパラメータを特徴量として所定の閾値と比較する特徴量比較部をさらに備え、
     前記信号生成部は、前記特徴量比較部による比較結果に基づいて、前記トリガ信号を生成することを特徴とする請求項1に記載の医療用観察システム。
  3.  前記所定のパラメータは、輝度情報であることを特徴とする請求項1に記載の医療用観察システム。
  4.  前記所定のパラメータは、前記撮像画像と、予め記憶されている参照画像と、の類似度であることを特徴とする請求項1に記載の医療用観察システム。
  5.  術者による前記内視鏡の挿入動作を検知する挿入動作検知部を更に備え、
     前記信号生成部は、前記所定のパラメータが所定値以上変化し、かつ前記挿入動作検知部による検知結果に基づいて、前記トリガ信号を生成することを特徴とする請求項1に記載の医療用観察システム。
  6.  3次元形状を有する被検体の内部を観察する内視鏡と、
     前記被検体の3次元モデル画像を構築する3次元モデル画像生成部と、
     前記内視鏡が所定の位置にあることを検知した場合、前記3次元モデル画像の生成を開始するトリガ信号を生成する信号生成部と、
     前記3次元モデル画像生成部に対して、前記信号生成部により生成された前記トリガ信号に基づいて、前記3次元モデル画像の生成を開始するよう制御する制御部と、
     を有することを特徴とする医療用観察システム。
  7.  前記内視鏡先端部周辺の磁界の変化を検出する磁界検出部をさらに備え、
     前記信号生成部は、前記磁界検出部による検出結果に基づいて、前記内視鏡が所定の位置にあることを検知して、前記トリガ信号を生成することを特徴とする請求項6に記載の医療用観察システム。
  8.  前記内視鏡が挿入口から内部に挿入することが可能であると共に、前記挿入口から挿入された前記内視鏡の先端部を突出口から外部に突出させることが可能な管路として形成された挿入補助具を更に備え、
     前記磁界検出部は、前記内視鏡の先端部が前記挿入補助具における前記突出口から突出された際の磁界変化を検出することを特徴とする請求項7に記載の医療用観察システム。
  9.  前記特徴量比較部は、前記撮像画像における前記特徴量として、前記撮像画像全体又は所定の方向に沿った前記撮像画像の領域を複数の分割領域に分割し、前記複数の分割領域それぞれの輝度平均値を算出し、更に前記輝度平均値の最大値と最小値との差分を算出する輝度算出回路を有し、
     前記差分が閾値以下の場合に、前記信号生成部は、前記トリガ信号を生成することを特徴とする請求項2に記載の医療用観察システム。
  10.  前記特徴量比較部は、前記内視鏡が挿入された前記被検体の内部における特定の位置においての前記撮像画像又は当該撮像画像に類似する画像を前記参照画像として予め記憶するメモリと、前記参照画像と実際に前記撮像部により撮像された前記撮像画像との類似度を算出する類似度算出部と、を有し、前記類似度算出部が十分に類似している比較結果の場合に、前記信号生成部は、前記トリガ信号を生成することを特徴とする請求項2に記載の医療用観察システム。
  11.  前記特徴量比較部は、前記内視鏡が挿入された前記被検体の内部における挿入口から該挿入口よりも深部側となる挿入経路に沿った少なくとも第1及び第2の特定の位置においての撮像画像又は当該撮像画像に類似する画像を、第1及び第2の参照画像として予め記憶するメモリと、前記第1及び第2の参照画像と実際に前記撮像部により撮像された前記撮像画像との類似度を算出する類似度算出部と、を有し、
     前記類似度算出部が前記撮像部による前記撮像画像が前記第1の参照画像と類似する比較結果を得た後に、前記撮像部による前記撮像画像が前記第2の参照画像と類似する比較結果を得た場合に、前記信号生成部は、前記トリガ信号を生成することを特徴とする請求項2に記載の医療用観察システム。
  12.  前記特徴量比較部は、前記内視鏡が挿入された前記被検体の内部における挿入口から該挿入口よりも深部側となる挿入経路に沿った第1、第2及び第3の特定の位置においての撮像画像又は当該撮像画像に類似する画像を、第1、第2及び第3の参照画像として予め記憶するメモリと、前記第1、第2及び第3の参照画像と実際に前記撮像部により撮像された前記撮像画像との類似度を算出する類似度算出部と、を有し、
     前記類似度算出部が前記撮像部による前記撮像画像が前記第1の参照画像と最も類似する第1の比較結果と、前記撮像部による前記撮像画像が前記第2の参照画像と最も類似する第2の比較結果とを順次得た後に、前記撮像部による前記撮像画像が前記第3の参照画像と最も類似する第3の比較結果を得た場合に、前記信号生成部は、前記トリガ信号を生成することを特徴とする請求項2に記載の医療用観察システム。
  13.  前記内視鏡が挿入口から内部に挿入することが可能であると共に、前記挿入口から挿入された前記内視鏡の先端部を突出口から外部に突出させることが可能な管路として形成され、前記突出口付近の内壁が他の内壁及び前記被検体内部の色と異なる色を有する挿入補助具を更に備え、
     前記特徴量比較部は、前記撮像部による前記撮像画像の各画素を色度図上にプロットする色度図処理部を有し、
     前記色度図処理部が色度図上にプロットされた各画素が前記突出口付近の内壁の色に相当する領域内に存在する数を所定数と比較し、所定数以上有る比較結果の場合に、前記信号生成部は、前記トリガ信号を生成することを特徴とする請求項2に記載の医療用観察システム。
PCT/JP2017/009831 2016-06-07 2017-03-10 医療用観察システム WO2017212725A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018501382A JPWO2017212725A1 (ja) 2016-06-07 2017-03-10 医療用観察システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016113777 2016-06-07
JP2016-113777 2016-06-07

Publications (1)

Publication Number Publication Date
WO2017212725A1 true WO2017212725A1 (ja) 2017-12-14

Family

ID=60578499

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/009831 WO2017212725A1 (ja) 2016-06-07 2017-03-10 医療用観察システム

Country Status (2)

Country Link
JP (1) JPWO2017212725A1 (ja)
WO (1) WO2017212725A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190090960A1 (en) * 2017-09-25 2019-03-28 Intuitive Surgical Operations, Inc. Tubular body structure imaging and locating system
WO2021054419A1 (ja) * 2019-09-20 2021-03-25 株式会社Micotoテクノロジー 内視鏡画像処理システム及び内視鏡画像処理方法
WO2021166103A1 (ja) * 2020-02-19 2021-08-26 オリンパス株式会社 内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法
JPWO2020153186A1 (ja) * 2019-01-24 2021-11-18 富士フイルム株式会社 内視鏡装置
WO2022080141A1 (ja) * 2020-10-12 2022-04-21 富士フイルム株式会社 内視鏡撮影装置、方法およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004290380A (ja) * 2003-03-26 2004-10-21 Olympus Corp 医療装置
WO2007139187A1 (ja) * 2006-05-31 2007-12-06 National University Corporation Chiba University 3次元画像構築装置及び方法並びにプログラム
JP2009056239A (ja) * 2007-09-03 2009-03-19 Olympus Medical Systems Corp 内視鏡装置
WO2014136579A1 (ja) * 2013-03-06 2014-09-12 オリンパスメディカルシステムズ株式会社 内視鏡システム及び内視鏡システムの作動方法
WO2015049962A1 (ja) * 2013-10-02 2015-04-09 オリンパスメディカルシステムズ株式会社 内視鏡システム
WO2015098210A1 (ja) * 2013-12-24 2015-07-02 オリンパス株式会社 内視鏡用シース

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004290380A (ja) * 2003-03-26 2004-10-21 Olympus Corp 医療装置
WO2007139187A1 (ja) * 2006-05-31 2007-12-06 National University Corporation Chiba University 3次元画像構築装置及び方法並びにプログラム
JP2009056239A (ja) * 2007-09-03 2009-03-19 Olympus Medical Systems Corp 内視鏡装置
WO2014136579A1 (ja) * 2013-03-06 2014-09-12 オリンパスメディカルシステムズ株式会社 内視鏡システム及び内視鏡システムの作動方法
WO2015049962A1 (ja) * 2013-10-02 2015-04-09 オリンパスメディカルシステムズ株式会社 内視鏡システム
WO2015098210A1 (ja) * 2013-12-24 2015-07-02 オリンパス株式会社 内視鏡用シース

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190090960A1 (en) * 2017-09-25 2019-03-28 Intuitive Surgical Operations, Inc. Tubular body structure imaging and locating system
JPWO2020153186A1 (ja) * 2019-01-24 2021-11-18 富士フイルム株式会社 内視鏡装置
US11957316B2 (en) 2019-01-24 2024-04-16 Fujifilm Corporation Endoscope apparatus
WO2021054419A1 (ja) * 2019-09-20 2021-03-25 株式会社Micotoテクノロジー 内視鏡画像処理システム及び内視鏡画像処理方法
WO2021166103A1 (ja) * 2020-02-19 2021-08-26 オリンパス株式会社 内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法
JP7423740B2 (ja) 2020-02-19 2024-01-29 オリンパス株式会社 内視鏡システム、管腔構造算出装置、管腔構造算出装置の作動方法及び管腔構造情報作成プログラム
WO2022080141A1 (ja) * 2020-10-12 2022-04-21 富士フイルム株式会社 内視鏡撮影装置、方法およびプログラム

Also Published As

Publication number Publication date
JPWO2017212725A1 (ja) 2018-06-28

Similar Documents

Publication Publication Date Title
US9516993B2 (en) Endoscope system
JP5855358B2 (ja) 内視鏡装置及び内視鏡装置の作動方法
WO2017212725A1 (ja) 医療用観察システム
JP5715311B2 (ja) 内視鏡システム
US9326660B2 (en) Endoscope system with insertion support apparatus
JP4585048B2 (ja) 内視鏡システム
JP5687811B1 (ja) 内視鏡システム
JP5865606B2 (ja) 内視鏡装置及び内視鏡装置の作動方法
JPWO2014156378A1 (ja) 内視鏡システム
CN108135453B (zh) 内窥镜系统和图像处理方法
JP5977900B2 (ja) 画像処理装置
JP6132901B2 (ja) 内視鏡装置
JP6022133B2 (ja) 医療装置
JPWO2014148184A1 (ja) 内視鏡システム
JPWO2019130868A1 (ja) 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム
JP7385731B2 (ja) 内視鏡システム、画像処理装置の作動方法及び内視鏡
US9345394B2 (en) Medical apparatus
WO2022202520A1 (ja) 医療情報処理装置、内視鏡システム、医療情報処理方法、及び医療情報処理プログラム
JP6335839B2 (ja) 医療装置、医療画像生成方法及び医療画像生成プログラム
WO2016039292A1 (ja) 内視鏡システム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018501382

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17809909

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17809909

Country of ref document: EP

Kind code of ref document: A1