WO2015190319A1 - 画像処理装置、画像処理方法、プログラム、および内視鏡システム - Google Patents

画像処理装置、画像処理方法、プログラム、および内視鏡システム Download PDF

Info

Publication number
WO2015190319A1
WO2015190319A1 PCT/JP2015/065535 JP2015065535W WO2015190319A1 WO 2015190319 A1 WO2015190319 A1 WO 2015190319A1 JP 2015065535 W JP2015065535 W JP 2015065535W WO 2015190319 A1 WO2015190319 A1 WO 2015190319A1
Authority
WO
WIPO (PCT)
Prior art keywords
frame
image processing
marker
unit
shake
Prior art date
Application number
PCT/JP2015/065535
Other languages
English (en)
French (fr)
Inventor
一木 洋
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/312,798 priority Critical patent/US10229480B2/en
Priority to EP15806801.5A priority patent/EP3155951A4/en
Publication of WO2015190319A1 publication Critical patent/WO2015190319A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • A61B1/00135Oversleeves mounted on the endoscope prior to insertion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00154Holding or positioning arrangements using guiding arrangements for insertion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Definitions

  • the present disclosure relates to an image processing apparatus, an image processing method, a program, and an endoscope system, and particularly suitable for use in performing an operation while viewing an affected part (surgical site) with an endoscope or a surgical microscope, for example.
  • the present invention relates to a processing device, an image processing method, a program, and an endoscope system.
  • hernia hernia
  • osteoporosis a very minimally invasive technique using a thin needle
  • an operation method in which a patient's back is largely incised is employed (see, for example, Patent Document 1).
  • a cylindrical retractor made of metal (generally also called a sleeve) is inserted into a small incised portion, and an endoscope (or a surgical site) is observed in the retractor (or Surgery is performed with a surgical microscope) and forceps for treating the surgical site.
  • FIG. 1 is a top view of a retractor inserted into a small incision and an endoscope inserted therein
  • FIG. 2 is a sectional view thereof
  • FIG. 3 is a state in which forceps are inserted in the retractor.
  • the endoscope 2 is conventionally fixed to the inner wall of the retractor 1.
  • a perspective mirror in which the visible range 3 is shifted laterally from the front in the longitudinal direction is employed as the endoscope 2 so that the surgical site existing in front of the tip of the retractor 1 can be imaged.
  • the endoscope 2 when the endoscope 2 is fixed to the inner wall of the retractor 1, the endoscope can be brought very close to the surgical site, so that the forceps 4 are difficult to enter the field of view and the surgical site is observed closely. it can.
  • the endoscope 2 since the endoscope 2 is fixed to the retractor 1, the endoscope 2 may narrow the movable range of the forceps 4 as shown in FIG. Further, in order to adjust the visible range (imaging range) 3 of the endoscope 2, the retractor 1 inserted into the human body is rotated, so that the influence of the rotation of the retractor 1 on the human body is minimized. Therefore, it is necessary to limit the shape of the retractor 1 to a cylindrical shape.
  • the present disclosure has been made in view of such a situation, and is arranged in a state where the endoscope is not fixed to the retractor but has a degree of freedom, and an image such as blurring that may occur in that case is provided. This makes it possible to correct deterioration.
  • An image processing apparatus in a surgical instrument that is captured in the frame to be processed in an image processing apparatus that corrects a moving image having a predetermined frame rate for each frame.
  • a marker detection unit that detects a marker
  • a calculation unit that calculates a shake correction amount based on the detected position of the marker
  • a shake correction unit that performs shake correction of the frame to be processed according to the shake correction amount.
  • the moving image can be taken by an imaging device that is held with a degree of freedom inside a cylindrical retractor, and the marker is provided on an inner wall of the retractor as the surgical instrument. Can be like that.
  • the marker may be provided in a strip shape on the end side of the inner wall of the retractor.
  • the imaging device can be an endoscope.
  • An image processing apparatus includes a motion vector detection unit that detects a motion vector between a shake-corrected frame before the processing target frame and the processing target frame.
  • the calculation unit may further calculate a shake correction amount based on the detected position of the marker, and finely adjust the calculated shake correction amount using the detected motion vector. Can do.
  • the motion vector detection unit can detect the motion vector by pixel matching between a shake-corrected frame before the processing target frame and the processing target frame.
  • the image processing device may further include a motion information acquisition unit that acquires motion information of the imaging device, and the motion vector detection unit uses the acquired motion information.
  • the search range of the pixel matching can be limited.
  • An image processing apparatus includes an object region detection unit that detects a region in which a predetermined object that may exist on the processing target frame is imprinted;
  • the image processing apparatus may further include a replacement unit that replaces the pixel value of the object area in the frame using the pixel value of the corresponding area of the shake-corrected frame before the processing target frame.
  • An image processing method is an image processing method of an image processing apparatus that corrects a moving image having a predetermined frame rate for each frame, and is imprinted on the frame to be processed by the image processing apparatus.
  • a marker detection step for detecting a marker provided on the surgical instrument, a calculation step for calculating a shake correction amount based on the detected position of the marker, and the frame to be processed according to the shake correction amount.
  • a blur correction step for performing blur correction.
  • a program detects a marker provided on a surgical instrument, which is copied in the frame to be processed, by a computer that corrects a moving image having a predetermined frame rate for each frame.
  • An endoscope system is an endoscope system having an endoscope and an image processing device, wherein the endoscope is held with flexibility in a cylindrical retractor.
  • a moving image of a predetermined frame rate is captured and supplied to the image processing device for each frame, and the image processing device is provided on the inner wall of the retractor that is imprinted on the frame to be processed.
  • a marker detection unit that detects the detected marker
  • a calculation unit that calculates a shake correction amount based on the detected position of the marker
  • a shake correction unit that performs shake correction of the frame to be processed according to the shake correction amount With.
  • a marker imprinted on a processing target frame is detected, a blur correction amount is calculated based on the detected position of the marker, and a processing target is calculated according to the blur correction amount.
  • the blur correction of the frame is performed.
  • An image processing apparatus is an image processing apparatus that corrects a moving image having a predetermined frame rate for each frame, and includes a predetermined object that may exist on a processing target frame.
  • An object region detecting unit for detecting a region
  • a blur correcting unit for performing blur correction of the frame to be processed
  • a pixel value of the object region in the blur corrected frame before the frame after the blur correction is included in the image processing apparatus.
  • a replacement unit that performs replacement using the pixel value of the corresponding region of the blur-corrected frame.
  • the moving image may be taken by an imaging device that is held with a degree of freedom inside a cylindrical retractor.
  • the imaging device can be an endoscope, and the predetermined object can be a forceps.
  • An image processing apparatus includes a marker detection unit that detects a marker provided on an inner wall of the retractor, which is captured in the frame to be processed, and a position of the detected marker And a shake correction unit that calculates a shake correction amount based on the blur correction amount, and the shake correction unit can perform shake correction of the processing target frame according to the shake correction amount.
  • the image processing device may further include a motion information acquisition unit that acquires motion information of an imaging device that captures the moving image, and the blur correction unit is based on the motion information. Then, blur correction of the frame to be processed can be performed.
  • An image processing method is an image processing method for an image processing apparatus that corrects a moving image having a predetermined frame rate for each frame, and is present on a frame to be processed by the image processing apparatus.
  • An object region detecting step for detecting a region in which a predetermined object to be obtained is imprinted; a blur correcting step for performing blur correction of the frame to be processed; and a pixel value of the object region in the blur corrected frame.
  • a program detects a region in which a predetermined object that may exist on a processing target frame is captured by a computer that corrects a moving image having a predetermined frame rate for each frame.
  • An endoscope system is an endoscope system having an endoscope and an image processing device, and the endoscope is held with flexibility in a cylindrical retractor.
  • a moving image of a predetermined frame rate is captured and supplied to the image processing apparatus for each frame, and the image processing apparatus includes a predetermined object that may exist on the processing target frame.
  • An object region detection unit for detecting a region, a blur correction unit for performing blur correction of the frame to be processed, and a pixel value of the object region in the blur corrected frame before the blur corrected frame.
  • a replacement unit that performs replacement using the pixel value of the corresponding region of the blur-corrected frame.
  • a region in which a predetermined object that may exist on the processing target frame is captured is detected, and the blur correction of the processing target frame is performed.
  • the pixel value of the object area in the frame is replaced with the pixel value of the corresponding area of the shake-corrected frame before the shake-corrected frame.
  • the first aspect of the present disclosure it is possible to correct blurring of a moving image captured by an imaging device or the like that is arranged with a degree of freedom without being fixed to the retractor.
  • the forceps that can be reflected in the moving image captured by the imaging device or the like that is not fixed to the retractor and has a degree of freedom are corrected so as to be inconspicuous. it can.
  • FIG. 4 is a top view of the retractor and endoscope employed in the present disclosure
  • FIG. 5 is a cross-sectional view thereof
  • FIG. 6 is a cross-sectional view of a state in which forceps are inserted in the retractor.
  • the endoscope 11 is held with a degree of freedom inside the retractor 10 via a support portion 12 made of a stretchable material.
  • a user such as a doctor who performs surgery
  • the visible range (imaging range) 13 is moved when the endoscope 11 is translated, correction is required for the moving image to be captured.
  • a strip-shaped marker 20 having a width L0 is provided on the inner wall on the lower end side of the retractor 10.
  • the marker 20 is such that the inner wall of the retractor 10 is colored in black, for example, by printing or vapor deposition, and the portion other than the marker 20 on the inner wall is colored in an achromatic color or a color distinguishable from the marker 20.
  • the upper end of the marker 20 is referred to as a marker edge 21. Only the marker edge 21 may be provided.
  • the endoscope 11 As the endoscope 11, a endoscope whose length is positioned above the marker edge 21 while being held inside the retractor 10 is employed. Thereby, since the distance between the lens disposed at the lower end of the endoscope 11 and the surgical site is increased, the angle of view of the lens can be narrowed, and this is an endoscope that is advantageous in both light quantity and image quality. 11 can be adopted.
  • marker information indicating the position of the marker edge 21, specifically, the distance L0 from the lower end of the retractor 10 to the marker edge 21 and the distance L1 from the lower end of the endoscope 11 to the marker edge 21 are measured in advance. It is assumed that it is held in a marker information holding unit 67 (FIG. 7) of the image processing apparatus 51 described later.
  • the endoscope 11 when the forceps 4 is inserted into the retractor 10, the endoscope 11 can be displaced inside the retractor 10 when the forceps 4 are moved. Therefore, it is possible to prevent the movable range of the forceps 4 from being narrowed by the presence of the endoscope 11. Moreover, the retractor 10 having a relatively small diameter can be employed.
  • the endoscope 11 can be moved without rotating the retractor 10 itself that is inserted into the human body as in the prior art. It is not necessary to limit the shape of 10 to a cylindrical shape. That is, the shape of the retractor 10 may be a cylindrical shape, and may be, for example, an elliptical cylindrical shape or a rectangular cylindrical shape.
  • FIG. 7 illustrates a configuration example of an endoscope system 50 to which the present disclosure is applied.
  • the endoscope system 50 includes an endoscope 11, an image processing device 51, and an image display device 52.
  • the endoscope 11 is held with a degree of freedom inside the retractor 10 as shown in FIGS.
  • the endoscope 11 includes an imaging unit 41 and a position sensor 42.
  • the imaging unit 41 outputs a moving image having a predetermined frame rate (for example, 30 to 120 fps) obtained as a result of imaging to the image processing device 51 in units of frames.
  • the position sensor 42 detects the movement of the endoscope 11 and outputs position sensor information representing the movement of the endoscope 11 to the image processing device 51.
  • the image processing device 51 performs shake correction on each frame of the moving image input from the endoscope 11 and outputs the corrected frame to the image display device 52.
  • the image display device 52 includes a liquid crystal display or the like, and presents a frame screen sequentially input from the image processing device 51 to the user.
  • FIG. 8 illustrates a configuration example of the image processing apparatus 51 according to the embodiment of the present disclosure.
  • the image processing device 51 includes a forceps region detection unit 61, a forceps region holding unit 62, a marker edge detection unit 63, a center estimation unit 64, a position sensor information acquisition unit 65, a tracking processing unit 66, a marker information holding unit 67, and a shake correction unit. 68, an image holding unit 69, and a replacement unit 70.
  • each frame of the moving image input from the imaging unit 41 of the endoscope 11 is supplied to the forceps region detection unit 61, the marker edge detection unit 63, and the tracking processing unit 66.
  • the forceps region detection unit 61 detects the forceps region 31 in which the forceps 4 are reflected from the frame supplied from the previous stage as shown in FIG. 9 and notifies the forceps region holding unit 62 of the coordinate information.
  • Any existing technique can be applied to the detection of the forceps region 31.
  • the forceps region 31 may be detected from all frames or may be detected at intervals of several frames.
  • the forceps area holding unit 62 temporarily holds the coordinate information of the forceps area 31 and supplies it in response to a request from the subsequent stage.
  • the marker edge detection unit 63 detects the marker edge 21 from the frame supplied from the previous stage as shown in FIG. 9 and notifies the center estimation unit 64 of the coordinate information.
  • the marker edge 21 can be detected based on the marker 20 on the inner wall of the retractor 10 and a sudden change in the color or brightness of other regions.
  • the center estimation unit 64 detects a circle (or ellipse) corresponding to the marker edge 21 on the frame by interpolating and connecting the coordinates of the detected marker edge 21. For detection of a circle or the like, a least square method, a Hough transform, or the like can be used. At this time, among the detected coordinates of the marker edge 21, those included in the forceps region may be excluded. Further, the center estimation unit 64 estimates center coordinates (hereinafter referred to as a marker center point 71) of the detected circle or the like, and notifies the shake correction unit 68 together with the center coordinates of the frame (hereinafter referred to as the image center point 72). .
  • a marker center point 71 center coordinates of the detected circle or the like
  • the state in which the endoscope 11 is fixed to the center of the retractor 10 is obtained by performing shake correction for keeping the position of the surgical site in the frame constant based on the amount of deviation between the marker center point 71 and the image center point 72. It is possible to obtain a frame in a state of being imaged at. This shake correction is performed by a shake correction unit 68 described later.
  • the position sensor information acquisition unit 65 acquires position sensor information from the position sensor 42 built in the endoscope 11, estimates the position of the endoscope 11 based on the position sensor information, and outputs it to the tracking processing unit 66. To do.
  • the tracking processing unit 66 performs pixel matching in the vicinity of the image center point 72 between the current frame input from the imaging unit 41 of the endoscope 11 and the past shake corrected frame held in the image holding unit 69. Do. In this pixel matching, the forceps region 31 can be excluded.
  • the search range for pixel matching can be limited based on the position of the endoscope 11. By performing pixel matching using the position sensor information, it is possible to quickly execute pixel matching.
  • the tracking processing unit 66 outputs the motion vector obtained as a result of pixel matching and the current frame to the blur correction unit 68.
  • pixel matching may be performed without using position sensor information.
  • the motion vector may be estimated based on only the position sensor information without performing pixel matching.
  • the marker information holding unit 67 holds marker information indicating the position of the marker 20 in the retractor 10 (specifically, distances L0 and L1 shown in FIG. 10), and the marker information holding unit 67 responds to the request from the shake correction unit 68. Supply.
  • the marker information holding unit 67 holds a plurality of marker information corresponding to the combination thereof, and the retractor 10 and the endoscope to be used are used. Marker information corresponding to the 11 combinations can be supplied to the center estimation unit 64.
  • the shake correction unit 68 calculates a shake correction amount based on the marker center point 71 notified from the center estimation unit 64, the image center point 72, and the marker information acquired from the marker information holding unit 67. The calculation of the shake correction amount will be described with reference to FIG.
  • FIG. 10 shows the relationship between the marker center point 71, the image center point 72, the distances L0 and L1, and the blur correction amount.
  • Blur correction amount (deviation amount between marker center point 71 and image center point 72) ⁇ L1 / (L1 + L0) ... (1)
  • the shake correction unit 68 finely adjusts the shake correction amount based on the motion vector input from the tracking processing unit 66.
  • the motion vector may be added to the shake correction amount calculated based on the marker center point 71 or the like, or weighting for multiplying the motion vector by a coefficient of 0 to 1.0. You may make it add, after performing.
  • the blur correction unit 68 performs blur correction by shifting the current frame according to the determined blur correction amount, and outputs the post-blur frame to the image holding unit 69 and the replacement unit 70. Note that the shake correction unit 68 may perform the shake correction based only on the position sensor information.
  • the image holding unit 69 temporarily holds the shake-corrected frame, and supplies the held frame in response to requests from the tracking processing unit 66 and the replacement unit 70.
  • the replacement unit 70 acquires the coordinate information of the forceps region 31 in the current frame after shake correction from the forceps region holding unit 62, and sets the pixel value of the forceps region 31 in the past frame in which the corresponding region was not the forceps region 31.
  • the pixel value is used for replacement. Specifically, the pixel value of the forceps region 31 in the current post-blurring frame is not the forceps region 31 corresponding to the pixel value and the past frame held in the image holding unit 69.
  • a frame to be output to the subsequent stage is generated by replacing the weighted average value with the pixel value of the object. In the weighted average, the coefficient is changed according to the interval between the frames to be weighted averaged.
  • Weighted average value 0.1 ⁇ Pixel value of current frame + 0.9 ⁇ Pixel value of previous frame
  • Weighted average value 0.2 ⁇ pixel value of current frame + 0.8 ⁇ 2 pixel previous pixel value
  • Weighted average value 0.3 ⁇ pixel value of current frame + 0.7 ⁇ pixel value of 3 frames before.
  • FIG. 11 is a flowchart illustrating a correction process (hereinafter referred to as a first correction process) by the image processing apparatus 51.
  • the first correction process is executed for each frame of the moving image input from the imaging unit 41 of the endoscope 11 to the image processing apparatus 51.
  • step S1 the forceps region detection unit 61 detects the forceps region 31 in the current frame input from the previous stage, and causes the forceps region holding unit 62 to hold the coordinate information.
  • step S ⁇ b> 2 the position sensor information acquisition unit 65 acquires position sensor information from the position sensor 42 of the endoscope 11, estimates the position of the endoscope 11 based on the position sensor information, and outputs it to the tracking processing unit 66. To do.
  • the tracking processing unit 66 sets the current frame input from the imaging unit 41 of the endoscope 11 and the past (for example, one frame before) shake-corrected frame held in the image holding unit 69. And the pixel matching near the image center point 72 is performed to detect the motion vector of the current frame with respect to the past frame, and the motion vector and the current frame are output to the blur correction unit 68.
  • step S4 the marker edge detection unit 63 detects the marker edge 21 in the frame input from the previous stage, and notifies the center estimation unit 64 of the coordinate information.
  • the center estimation unit 64 detects a circle (or an ellipse) corresponding to the marker edge 21 on the frame by interpolating and connecting the detected coordinates of the marker edge 21, and sets a marker center point 71 representing the center coordinates.
  • step S5 the marker edge detection unit 63 notifies the blur correction unit 68 of the marker center point 71 and the image center point 72 representing the center coordinates of the frame.
  • step S ⁇ b> 6 the shake correction unit 68 acquires the marker information from the marker information holding unit 67, and uses the acquired marker information, the marker center point 71 notified from the center estimation unit 64, and the image center point 72 as an expression ( Apply to 1) to calculate the blur correction amount. Further, the blur correction unit 68 finely adjusts the blur correction amount based on the motion vector input from the tracking processing unit 66, and then performs blur correction on the current frame, and the image after the blur correction is displayed in the image holding unit 69. And output to the replacement unit 70.
  • step S ⁇ b> 7 the replacement unit 70 replaces the pixel value of the forceps region 31 in the current frame after blurring correction with the pixel value of the past frame in which the corresponding region was not the forceps region 31, and outputs it to the subsequent stage.
  • description of the 1st correction process with respect to one frame of the moving image input sequentially is complete
  • the blur correction amount calculated based on the detected marker edge 21 is corrected after fine adjustment using a motion vector between frames that are temporally changed. Blur correction can be performed with high accuracy.
  • FIG. 12 is a flowchart for explaining another correction process (hereinafter referred to as a second correction process) by the image processing apparatus 51.
  • This second correction process is obtained by omitting steps S4, S5 and S7 from the first correction process described above with reference to FIG. That is, in the second correction process, the detection of the marker edge 21, the calculation of the shake correction amount based thereon, and the replacement of the forceps region 31 in the shake corrected frame are omitted.
  • the second correction process it is possible to perform a simple shake correction based only on the motion vector between frames that are output by the tracking processing unit 66 and that move forward and backward in time.
  • FIG. 13 is a flowchart for explaining still another correction process (hereinafter referred to as a third correction process) by the image processing apparatus 51.
  • This third correction process is obtained by omitting steps S2 to S6 from the first correction process described above with reference to FIG. That is, according to the third correction process, replacement of the forceps region 31 in the current frame is performed.
  • the moving image to be processed by the above-described image processing apparatus 51 is not limited to the one output by the endoscope 11 but may be one output by a surgical microscope, for example.
  • the series of processes described above can be executed by hardware or software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing a computer incorporated in dedicated hardware and various programs.
  • FIG. 12 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • the computer 100 may be disposed in an operating room where the endoscope 11 and the image display device 52 are disposed, or via the network represented by the endoscope 11 and the image display device 52 and the Internet. You may arrange
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 105 is further connected to the bus 104.
  • An input unit 106, an output unit 107, a storage unit 108, a communication unit 109, and a drive 110 are connected to the input / output interface 105.
  • the input unit 106 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 107 includes a display, a speaker, and the like.
  • the storage unit 108 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 109 includes a network interface or the like.
  • the drive 110 drives a removable medium 111 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 101 loads the program stored in the storage unit 108 to the RAM 103 via the input / output interface 105 and the bus 104 and executes the program. A series of processing is performed.
  • the program executed by the computer 100 may be a program that is processed in time series in the order described in this specification, or a necessary timing such as when a call is made in parallel. It may be a program in which processing is performed.
  • This indication can also take the following composition.
  • a marker detection unit for detecting a marker provided on the surgical instrument, which is copied in the frame to be processed;
  • a calculation unit that calculates a blur correction amount based on the detected position of the marker;
  • An image processing apparatus comprising: a blur correction unit that performs blur correction of the frame to be processed according to the blur correction amount.
  • the moving image is taken by an imaging device held with a degree of freedom inside a cylindrical retractor, The image processing apparatus according to (1), wherein the marker is provided on an inner wall of the retractor as the surgical instrument.
  • a movement information acquisition unit that acquires movement information of the imaging device; The image processing device according to (6), wherein the motion vector detection unit limits the search range of the pixel matching using the acquired motion information.
  • An object area detection unit for detecting an area in which a predetermined object that may exist on the frame to be processed is imprinted; A replacement unit that replaces the pixel value of the object area in the blur-corrected frame to be processed using the pixel value of the corresponding area of the blur-corrected frame before the processing target frame;
  • the image processing apparatus according to any one of (1) to (7).
  • a computer that corrects a moving image of a predetermined frame rate for each frame, A marker detection unit for detecting a marker provided on the surgical instrument, which is copied in the frame to be processed; A calculation unit that calculates a blur correction amount based on the detected position of the marker; A program that functions as a shake correction unit that performs shake correction of the frame to be processed according to the shake correction amount.
  • the endoscope is In a state where it is held with a degree of freedom inside the cylindrical retractor, a moving image of a predetermined frame rate is captured and supplied to the image processing device for each frame,
  • the image processing apparatus includes: A marker detection unit that detects a marker provided on the inner wall of the retractor, which is copied to the frame to be processed; A calculation unit that calculates a blur correction amount based on the detected position of the marker;
  • An endoscope system comprising: a shake correction unit that performs shake correction of the frame to be processed in accordance with the shake correction amount.
  • an image processing apparatus that corrects a moving image of a predetermined frame rate for each frame
  • An object area detection unit for detecting an area in which a predetermined object that may exist on the processing target frame is imprinted;
  • a shake correction unit that performs shake correction of the frame to be processed;
  • An image processing unit comprising: a replacement unit that replaces a pixel value of the object region in the shake-corrected frame using a pixel value of a corresponding region of a shake-corrected frame prior to the shake-corrected frame.
  • (13) The image processing device according to (12), wherein the moving image is picked up by an image pickup device that is held with a degree of freedom inside a cylindrical retractor.
  • the imaging device is an endoscope, The image processing apparatus according to (13), wherein the predetermined object is forceps.
  • a marker detection unit that detects a marker provided on the inner wall of the retractor, which is copied to the frame to be processed;
  • a calculation unit that calculates a blur correction amount based on the detected position of the marker, and
  • a motion information acquisition unit that acquires motion information of an imaging device that captures the moving image;
  • the image processing apparatus according to any one of (12) to (14), wherein the shake correction unit performs shake correction of the frame to be processed based on the motion information.
  • An object region detection step for detecting a region in which a predetermined object that may exist on the processing target frame is imprinted;
  • a computer that corrects a moving image of a predetermined frame rate for each frame, An object area detection unit for detecting an area in which a predetermined object that may exist on the processing target frame is imprinted; A shake correction unit that performs shake correction of the frame to be processed; Causing the pixel value of the object area in the shake-corrected frame to function as a replacement unit that replaces the pixel value of the corresponding area of the shake-corrected frame prior to the shake-corrected frame. program.
  • the endoscope In a state where it is held with a degree of freedom inside the cylindrical retractor, a moving image of a predetermined frame rate is captured and supplied to the image processing device for each frame,
  • the image processing apparatus includes: A shake correction unit that performs shake correction of the frame to be processed; A replacement unit that replaces the pixel value of the object region in the shake-corrected frame with the pixel value of the corresponding region of the shake-corrected frame prior to the shake-corrected frame.
  • a shake correction unit that performs shake correction of the frame to be processed
  • a replacement unit that replaces the pixel value of the object region in the shake-corrected frame with the pixel value of the corresponding region of the shake-corrected frame prior to the shake-corrected frame.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Astronomy & Astrophysics (AREA)
  • Human Computer Interaction (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Adjustment Of Camera Lenses (AREA)

Abstract

 本開示は、リトラクタに対して内視鏡を固定せず自由度を持たせた状態で配置し、かつ、その場合に発生し得るぶれなどの画像劣化を補正することができるようにする画像処理装置、画像処理方法、プログラム、および内視鏡システムに関する。 本開示の一側面である画像処理装置は、所定のフレームレートの動画像をフレーム毎に補正する画像処理装置において、処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出部と、検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部とを備える。本開示は、内視鏡システムに適用できる。

Description

画像処理装置、画像処理方法、プログラム、および内視鏡システム
 本開示は、画像処理装置、画像処理方法、プログラム、および内視鏡システムに関し、特に、例えば、内視鏡や手術顕微鏡により患部(手術部位)を見ながら手術を行う場合に用いて好適な画像処理装置、画像処理方法、プログラム、および内視鏡システムに関する。
 脊椎の手術を行なう疾病には、ヘルニア、骨粗鬆症、変形性関節症などある。従来、ヘルニアや軽微な骨粗鬆症に対しては、細い針を用いた非常に低侵襲な術式が採用されている。重度の骨粗鬆症や変形性関節症に対しては、患者の背中を大きく切開する術式が採用されている(例えば、特許文献1参照)。
 近年、従来では大きく切開する必要があった疾病に対しても、必要最小限の箇所だけを切開する術式が広まってきている。該術式の場合、小さく切開した個所に、金属から成る円筒型のリトラクタ(一般的には、スリーブとも称される)を挿し込み、リトラクタ内に手術部位を観察するための内視鏡(または手術顕微鏡)と、手術部位を処置するための鉗子等が入れられて手術が行われる。
 図1は、小さく切開した個所に挿し込まれたリトラクタと、そこに入れられた内視鏡の上面図、図2は、その断面図、図3は、リトラクタの中に鉗子が入れられた状態の断面図を示している。
 図示するように、従来において、内視鏡2は、リトラクタ1の内壁に固定される。この場合、リトラクタ1の先端の正面に存在する手術部位を撮像できるように、内視鏡2には長手方向の正面から可視範囲3が側方にずらされた斜視鏡が採用される。
特表2011-502550
 上述したように、リトラクタ1の内壁に内視鏡2を固定した場合、手術部位のごく近くまで内視鏡を接近させることができるので、鉗子4が視界に入りにくく、手術部位を間近で観察できる。
 しかしながら、リトラクタ1に内視鏡2が固定されているために、図3に示されるように、内視鏡2が鉗子4の可動範囲を狭めてしまうことがある。また、内視鏡2の可視範囲(撮像範囲)3を調整するには、人体に挿し込まれた状態のリトラクタ1を回転させることになるので、人体に対するリトラクタ1の回転の影響を最も少なくするためにも、リトラクタ1の形状を円筒型に限定する必要があった。
 本開示はこのような状況に鑑みてなされたものであり、リトラクタに対して内視鏡を固定せず自由度を持たせた状態で配置し、かつ、その場合に発生し得るぶれなどの画像劣化を補正できるようにするものである。
 本開示の第1の側面である画像処理装置は、所定のフレームレートの動画像をフレーム毎に補正する画像処理装置において、処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出部と、検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部とを備える。
 前記動画像は、筒型のリトラクタの内側に自由度を持って保持されている撮像装置によって撮像されたものとすることができ、前記マーカは、前記術具としての前記リトラクタの内壁に設けられているようにすることができる。
 前記マーカは、前記リトラクタの内壁の端側に帯状に設けられているようにすることができる。
 前記撮像装置は、内視鏡とすることができる。
 本開示の第1の側面である画像処理装置は、処理対象の前記フレームよりも前のぶれ補正済みのフレームと、前記処理対象の前記フレームとの間の動きベクトルを検出する動きベクトル検出部をさらに備えることができ、前記算出部は、前記検出された前記マーカの位置に基づいてぶれ補正量を算出し、算出した前記ぶれ補正量を、検出された前記動きベクトルを用いて微調整することができる。
 前記動きベクトル検出部は、処理対象の前記フレームよりも前のぶれ補正済みのフレームと、前記処理対象の前記フレームとの間の画素マッチングにより、前記動きベクトルを検出することができる。
 本開示の第1の側面である画像処理装置は、前記撮像装置の動き情報を取得する動き情報取得部をさらに備えることができ、前記動きベクトル検出部は、取得された前記動き情報を用いて、前記画素マッチングの探索範囲を制限することができる。
 本開示の第1の側面である画像処理装置は、処理対象の前記フレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、処理対象のぶれ補正済みの前記フレームにおける前記物体領域の画素値を、処理対象の前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部とをさらに備えることができる。
 本開示の第1の側面である画像処理方法は、所定のフレームレートの動画像をフレーム毎に補正する画像処理装置の画像処理方法において、前記画像処理装置による、処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出ステップと、検出された前記マーカの位置に基づいてぶれ補正量を算出する算出ステップと、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正ステップとを含む。
 本開示の第1の側面であるプログラムは、所定のフレームレートの動画像をフレーム毎に補正するコンピュータを、処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出部と、前記検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部として機能させる。
 本開示の第1の側面である内視鏡システムは、内視鏡と画像処理装置を有する内視鏡システムにおいて、前記内視鏡が、筒型のリトラクタの内側に自由度を持って保持された状態で、所定のフレームレートの動画像を撮像してフレーム毎に前記画像処理装置に供給し、前記画像処理装置が、処理対象の前記フレームに写し込まれている、前記リトラクタの内壁に設けられたマーカを検出するマーカ検出部と、検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部とを備える。
 本開示の第1の側面においては、処理対象のフレームに写し込まれているマーカが検出され、検出された前記マーカの位置に基づいてぶれ補正量が算出され、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正が行われる。
 本開示の第2の側面である画像処理装置は、所定のフレームレートの動画像をフレーム毎に補正する画像処理装置において、処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、処理対象の前記フレームのぶれ補正を行うぶれ補正部と、前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部とを備える。
 前記動画像は、筒型のリトラクタの内側に自由度を持って保持されている撮像装置によって撮像されたものとすることができる。
 前記撮像装置は、内視鏡とすることができ、前記所定の物体は、鉗子とすることができる。
 本開示の第2の側面である画像処理装置は、処理対象の前記フレームに写し込まれている、前記リトラクタの内壁に設けられたマーカを検出するマーカ検出部と、検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部とをさらに備えることができ、前記ぶれ補正部は、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うことができる。
 本開示の第2の側面である画像処理装置は、前記動画像を撮像する撮像装置の動き情報を取得する動き情報取得部をさらに備えることができ、前記ぶれ補正部は、前記動き情報に基づき、処理対象の前記フレームのぶれ補正を行うことができる。
 本開示の第2の側面である画像処理方法は、所定のフレームレートの動画像をフレーム毎に補正する画像処理装置の画像処理方法において、前記画像処理装置による、処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出ステップと、処理対象の前記フレームのぶれ補正を行うぶれ補正ステップと、前記ぶれ補正済みの前記フレームにおける前記物体領域の画素値を、前記ぶれ補正済みのフレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換ステップとを含む。
 本開示の第2の側面であるプログラムは、所定のフレームレートの動画像をフレーム毎に補正するコンピュータを、処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、処理対象の前記フレームのぶれ補正を行うぶれ補正部と、前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部として機能させる。
 本開示の第2の側面である内視鏡システムは、内視鏡と画像処理装置を有する内視鏡システムにおいて、前記内視鏡が、筒型のリトラクタの内側に自由度を持って保持された状態で、所定のフレームレートの動画像を撮像してフレーム毎に前記画像処理装置に供給し、前記画像処理装置が、処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、処理対象の前記フレームのぶれ補正を行うぶれ補正部と、前記ぶれ補正済みの前記フレームにおける前記物体領域の画素値を、前記ぶれ補正済みのフレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部とを備える。
 本開示の第2の側面においては、処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域が検出されて、処理対象の前記フレームのぶれ補正が行われ、ぶれ補正済みのフレームにおける前記物体領域の画素値が、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換される。
 本開示の第1の側面によれば、リトラクタに対して固定せず自由度を持たせた状態で配置された撮像装置などによって撮像された動画像のぶれを補正できる。
 本開示の第2の側面によれば、リトラクタに対して固定せず自由度を持たせた状態で配置された撮像装置などによって撮像された動画像に写り込み得る鉗子などを目立たなくなるように補正できる。
従来のリトラクタに内視鏡を固定した場合の上面図である。 従来のリトラクタに内視鏡を固定した場合の断面図である。 従来のリトラクタに内視鏡を固定した場合の鉗子の可動範囲を示す断面図である。 本開示に採用するトラクタと内視鏡の上面図である。 本開示に採用するリトラクタと内視鏡の断面図である。 本開示に採用するリトラクタに鉗子を入れた状態の断面図である。 本開示を適用した内視鏡システムの構成例を示すブロック図である。 図7の画像処理装置の詳細な構成例を示すブロック図である。 動画像データの1フレームの表示例を示す図である。 マーカ中心点、患部画像中心点などの位置関係を示す図である。 補正処理を説明するフローチャートである。 他の補正処理を説明するフローチャートである。 さらに他の補正処理を説明するフローチャートである。 コンピュータの構成例を示すブロック図である。
 以下、本開示を実施するための最良の形態(以下、実施の形態と称する)について、図面を参照しながら詳細に説明する。
 <リトラクタに対する内視鏡の配置>
 初めに、本開示に採用するリトラクタ(術具)と内視鏡の配置について、図4乃至図6を参照して説明する。
 図4は、本開示に採用するリトラクタと内視鏡の上面図、図5は、その断面図、図6は、リトラクタの中に鉗子が入れられた状態の断面図を示している。
 図4に示すように、内視鏡11は、伸縮可能な素材から成る支持部12を介してリトラクタ10の内側に自由度を持った状態で保持されている。これにより、ユーザ(手術を行う医師等)は、内視鏡11をリトラクタ10の内側で任意の位置に平行移動させることができる。ただし、内視鏡11が平行移動されることにより、その可視範囲(撮像範囲)13が移動することになるので、撮像される動画像に対して補正が必要となる。
 図5に示されるように、リトラクタ10の下端側の内壁には幅L0の帯状のマーカ20が設けられている。マーカ20は、リトラクタ10の内壁が、印刷または蒸着などにより、例えば黒色で彩色されたものであり、内壁のマーカ20以外の部分は無彩色、またはマーカ20と区別できる色で彩色されている。特に、マーカ20の上端をマーカエッジ21と称する。なお、マーカエッジ21のみを設けるようにしてもよい。
 内視鏡11については、リトラクタ10の内側に保持された状態でその下端が、マーカエッジ21よりも上側に位置する長さのものを採用する。これにより、内視鏡11の下端に配置されているレンズと手術部位との距離が離れるので、該レンズの画角を狭くすることができ、これにより光量と画質の両面で有利な内視鏡11を採用することができる。
 なお、マーカエッジ21の位置を表すマーカ情報、具体的には、リトラクタ10の下端からマーカエッジ21までの距離L0と、内視鏡11の下端からマーカエッジ21までの距離L1は予め計測されており、後述する画像処理装置51のマーカ情報保持部67(図7)に保持されているものとする。
 また、図6に示すように、リトラクタ10の中に鉗子4を入れた場合、鉗子4を移動させるに際して、リトラクタ10の内側で内視鏡11をずらすことができる。よって、鉗子4の可動範囲が内視鏡11の存在によって狭められることを抑止できる。また、比較的径の狭いリトラクタ10を採用することができる。
 さらに、内視鏡11の可視範囲13を調整するに際し、従来のように人体に挿し込まれている状態のリトラクタ10自体を回転させることなく、内視鏡11を移動させることができるので、リトラクタ10の形状を円筒型に限定する必要がない。すなわち、リトラクタ10の形状は筒状であればよく、例えば、楕円筒型、角筒型等であってもよい。
 <本開示を適用した内視鏡システム50の構成例>
 次に、図7は、本開示を適用した内視鏡システム50の構成例を示している。この内視鏡システム50は、内視鏡11、画像処理装置51、および画像表示装置52から構成される。
 内視鏡11は、図4乃至図6に示されたように、リトラクタ10の内側に自由度を持った状態で保持される。
 内視鏡11は、撮像部41および位置センサ42を有する。撮像部41は、撮像の結果得られる所定のフレームレート(例えば、30乃至120fps)の動画像をフレーム単位で画像処理装置51に出力する。位置センサ42は、内視鏡11の動きを検知し、内視鏡11の動きを表す位置センサ情報を画像処理装置51に出力する。
 画像処理装置51は、内視鏡11から入力された動画像の各フレームに対してぶれ補正などを行い、補正済みのフレームを画像表示装置52に出力する。画像表示装置52は、液晶ディスプレイなどから成り、画像処理装置51から順次入力されるフレームの画面をユーザに提示する。
 <本開示の実施の形態である画像処理装置51の構成例>
 次に、図8は、本開示の実施の形態である画像処理装置51の構成例を示している。
 画像処理装置51は、鉗子領域検出部61、鉗子領域保持部62、マーカエッジ検出部63、中心推定部64、位置センサ情報取得部65、トラッキング処理部66、マーカ情報保持部67、ぶれ補正部68、画像保持部69、および置換部70から構成される。
 画像処理装置51においては、内視鏡11の撮像部41から入力される動画像の各フレームが、鉗子領域検出部61、マーカエッジ検出部63、およびトラッキング処理部66に供給される。
 鉗子領域検出部61は、図9に示されるような前段から供給されるフレームから、鉗子4が写り込んでいる鉗子領域31を検出し、その座標情報を鉗子領域保持部62に通知する。鉗子領域31の検出には、既存の任意の技術を適用できる。例えば、人体の手術部位ともリトラクタ10の内壁とも異なる色相(例えば、青色)で鉗子31を表面加工し、その色相に基づいて鉗子領域31を検出するクロマキ技術を適用することができる。なお、鉗子領域31は、全てのフレームから検出してもよいし、数フレーム間隔で検出するようにしてもよい。
 鉗子領域保持部62は、鉗子領域31の座標情報を一時的に保持し、後段からの要求に応じてそれを供給する。
 マーカエッジ検出部63は、図9に示されるような前段から供給されるフレームから、マーカエッジ21を検出し、その座標情報を中心推定部64に通知する。なお、マーカエッジ21は、リトラクタ10の内壁におけるマーカ20と、その他の領域の色や輝度の急激な変化に基づいて検出できる。
 中心推定部64は、検出されたマーカエッジ21の座標を補間、連結することによりフレーム上に、マーカエッジ21に対応する円(または楕円)を検出する。円等の検出には、最小二乗法、ハフ変換などを用いることができる。このとき、検出されたマーカエッジ21の座標のうち、鉗子領域に含まれるものを除外してもよい。また、中心推定部64は、検出した円等の中心座標(以下、マーカ中心点71と称する)を推定し、フレームの中心座標(以下、画像中心点72)とともに、ぶれ補正部68に通知する。
 ところで、内視鏡11がリトラクタ10の中心に位置している場合、マーカ中心点71と画像中心点72は一致するが、内視鏡11がリトラクタ10の中心から変位している場合、マーカ中心点71と画像中心点72にはズレが生じる。したがって、マーカ中心点71と画像中心点72とのズレ量に基づいて、フレームにおける手術部位の位置を一定に保つためのぶれ補正を行えば、内視鏡11をリトラクタ10の中心に固定した状態で撮像された状態のフレームを得ることができる。このぶれ補正は、後述するぶれ補正部68にて行われる。
 位置センサ情報取得部65は、内視鏡11に内蔵されている位置センサ42から位置センサ情報を取得し、位置センサ情報に基づいて内視鏡11の位置を推定してトラッキング処理部66に出力する。トラッキング処理部66は、内視鏡11の撮像部41から入力される現在のフレームと、画像保持部69に保持されている過去のぶれ補正済みのフレームとの画像中心点72付近の画素マッチングを行う。この画素マッチングに際しては、鉗子領域31を除外することができる。また、画素マッチングの探索範囲は、内視鏡11の位置に基づいて制限することができる。位置センサ情報を用いて画素マッチングを行うことにより、画素マッチングを速やかに実行することができる。トラッキング処理部66は、画素マッチングの結果得られる動きベクトルと現在のフレームをぶれ補正部68に出力する。なお、位置センサ情報を用いずに画素マッチングを行うようにしてもよい。反対に、画素マッチングを行わず、位置センサ情報のみに基づいて動きベクトルを推定してもよい。
 マーカ情報保持部67は、リトラクタ10におけるマーカ20の位置を表すマーカ情報(具体的には、図10に示す距離L0,L1)を保持しており、ぶれ補正部68からの要求に応じてそれを供給する。なお、リトラクタ10と内視鏡11の種類が複数存在する場合、マーカ情報保持部67には、それらの組み合わせに応じた複数のマーカ情報が保持されており、使用されるリトラクタ10と内視鏡11の組み合わせに応じたマーカ情報を中心推定部64に供給することができる。
 ぶれ補正部68は、中心推定部64から通知されるマーカ中心点71、および画像中心点72、並びにマーカ情報保持部67から取得するマーカ情報に基づいて、ぶれ補正量を算出する。ぶれ補正量の算出について図10を参照して説明する。
 図10は、マーカ中心点71、画像中心点72、距離L0,L1、および、ぶれ補正量の関係を示している。
 同図に示されるように、
 ぶれ補正量:(マーカ中心点71と画像中心点72のずれ量)=L1:(L1+L0)
の関係があるので、ぶれ補正量は次式(1)により算出される。
 ぶれ補正量=(マーカ中心点71と画像中心点72のずれ量)×L1/(L1+L0)
                                ・・・(1)
 さらに、ぶれ補正部68は、トラッキング処理部66から入力される動きベクトルに基づき、ぶれ補正量を微調整する。動きベクトルに基づくぶれ補正量の微調整は、マーカ中心点71などに基づいて算出したぶれ補正量に動きベクトルを加算してもよいし、動きベクトルに0乃至1.0の係数を乗算する重み付けを行ってから加算するようにしてもよい。ぶれ補正部68は、決定したぶれ補正量に従い、現在のフレームをシフトすることによってぶれ補正を行い、ぶれ補正後のフレームを画像保持部69および置換部70に出力する。なお、ぶれ補正部68において、位置センサ情報のみに基づいてぶれ補正を行うようにしてもよい。
 画像保持部69は、ぶれ補正後のフレームを一時的に保持し、保持するフレームをトラッキング処理部66および置換部70からの要求に応じて供給する。
 置換部70は、ぶれ補正後の現在のフレームにおける鉗子領域31の座標情報を鉗子領域保持部62から取得し、鉗子領域31の画素値を、対応する領域が鉗子領域31ではなかった過去のフレームの画素値を用いて置換する。具体的には、現在のぶれ補正後のフレームにおける鉗子領域31の画素値を、該画素値と、画像保持部69に保持されている過去のフレームのうち、対応する領域が鉗子領域31ではないものの画素値との加重平均値で置換することにより、後段に出力するフレームを生成する。なお、加重平均に際しては、加重平均するフレーム間の間隔に応じて係数を変更する。
 例えば、1フレーム前の画素値と加重平均する場合、
 加重平均値=0.1×現在のフレームの画素値+0.9×1フレーム前の画素値
 例えば、2フレーム前の画素値と加重平均する場合、
 加重平均値=0.2×現在のフレームの画素値+0.8×2フレーム前の画素値
 例えば、3フレーム前の画素値と加重平均する場合、
 加重平均値=0.3×現在のフレームの画素値+0.7×3フレーム前の画素値
等とする。これにより、鉗子領域31が目立たず、手術部位に溶け込んでいるようなフレームを得ることができる。
 ただし、現在のぶれ補正後のフレームにおける鉗子領域31に対応する領域が鉗子領域ではない過去のフレームが画像保持部69に保持されていない場合、鉗子領域31の置換は行わない。
 <画像処理装置51による補正処理>
 図11は、画像処理装置51による補正処理(以下、第1の補正処理と称する)を説明するフローチャートである。
 この第1の補正処理は、画像処理装置51に対して、内視鏡11の撮像部41から入力される動画像の各フレームに対して実行される。
 ステップS1において、鉗子領域検出部61は、前段から入力された現在のフレームにおける鉗子領域31を検出し、その座標情報を鉗子領域保持部62に保持させる。ステップS2において、位置センサ情報取得部65は、内視鏡11の位置センサ42から位置センサ情報を取得し、位置センサ情報に基づいて内視鏡11の位置を推定してトラッキング処理部66に出力する。ステップS3において、トラッキング処理部66は、内視鏡11の撮像部41から入力される現在のフレームと、画像保持部69に保持されている過去(例えば、1フレーム前)のぶれ補正済みのフレームとの画像中心点72付近の画素マッチングを行って、過去のフレームに対する現在のフレームの動きベクトルを検出し、動きベクトルと現在のフレームをぶれ補正部68に出力する。
 ステップS4において、マーカエッジ検出部63は、前段から入力されたフレームにおけるマーカエッジ21を検出し、その座標情報を中心推定部64に通知する。中心推定部64は、検出されたマーカエッジ21の座標を補間、連結することによりフレーム上に、マーカエッジ21に対応する円(または楕円)を検出し、その中心座標を表すマーカ中心点71を推定する。ステップS5において、マーカエッジ検出部63は、マーカ中心点71とフレームの中心座標を表す画像中心点72をぶれ補正部68に通知する。
 なお、上述したステップS1乃至S3の処理と、ステップS4およびS5の処理とは、実際には、平行して実行される。
 ステップS6において、ぶれ補正部68は、マーカ情報保持部67からマーカ情報を取得し、取得したマーカ情報、並びに、中心推定部64から通知されたマーカ中心点71、および画像中心点72を式(1)に適用してぶれ補正量を算出する。また、ぶれ補正部68は、トラッキング処理部66から入力された動きベクトルに基づき、ぶれ補正量を微調整してから、現在のフレームのぶれ補正を行い、ぶれ補正後のフレームを画像保持部69および置換部70に出力する。
 ステップS7において、置換部70は、ぶれ補正後の現在のフレームにおける鉗子領域31の画素値を、対応する領域が鉗子領域31ではなかった過去のフレームの画素値を用いて置換して後段に出力する。以上で、順次入力される動画像の1フレームに対する第1の補正処理の説明を終了する。
 以上に説明した第1の補正処理によれば、検出したマーカエッジ21に基づいて算出したぶれ補正量を、時間的に前後するフレーム間の動きベクトルを用いて微調整してから補正するので、高い精度でぶれ補正を行うことができる。
 次に、図12は、画像処理装置51による他の補正処理(以下、第2の補正処理と称する)を説明するフローチャートである。
 この第2の補正処理は、図11を参照して上述した第1の補正処理から、ステップS4,S5およびS7の処理を省略したものである。すなわち、第2の補正処理では、マーカエッジ21の検出とそれに基づくぶれ補正量の算出、および、ぶれ補正済みのフレームにおける鉗子領域31の置換が省略される。
 第2の補正処理によれば、トラッキング処理部66が出力する、時間的に前後するフレーム間の動きベクトルのみに基づいて、簡易なぶれ補正を行うことができる。
 次に、図13は、画像処理装置51によるさらに他の補正処理(以下、第3の補正処理と称する)を説明するフローチャートである。
 この第3の補正処理は、図11を参照して上述した第1の補正処理から、ステップS2乃至S6の処理を省略したものである。すなわち、第3の補正処理によれば、現在のフレームにおける鉗子領域31の置換が行われる。
 なお、上述した画像処理装置51が処理対象とする動画像は、内視鏡11が出力するものに限らず、例えば、手術顕微鏡が出力するものであってもよい。
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図12は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 このコンピュータ100は、内視鏡11および画像表示装置52が配置されている手術室などに配置してもよいし、内視鏡11および画像表示装置52と、インターネットに代表されるネットワークを介して接続可能な遠隔地に配置してもよい。
 コンピュータ100において、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
 バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、およびドライブ110が接続されている。
 入力部106は、キーボード、マウス、マイクロフォンなどよりなる。出力部107は、ディスプレイ、スピーカなどよりなる。記憶部108は、ハードディスクや不揮発性のメモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア111を駆動する。
 以上のように構成されるコンピュータ100では、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105およびバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
 なお、コンピュータ100が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
 本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 本開示は以下のような構成も取ることができる。
(1)
 所定のフレームレートの動画像をフレーム毎に補正する画像処理装置において、
 処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出部と、
 検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、
 前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部と
 を備える画像処理装置。
(2)
 前記動画像は、筒型のリトラクタの内側に自由度を持って保持されている撮像装置によって撮像されたものであり、
 前記マーカは、前記術具としての前記リトラクタの内壁に設けられている
 前記(1)に記載の画像処理装置。
(3)
 前記マーカは、前記リトラクタの内壁の端側に帯状に設けられている
 前記(2)に記載の画像処理装置。
(4)
 前記撮像装置は、内視鏡である
 前記(2)または(3)に記載の画像処理装置。
(5)
 処理対象の前記フレームよりも前のぶれ補正済みのフレームと、前記処理対象の前記フレームとの間の動きベクトルを検出する動きベクトル検出部をさらに備え、
 前記算出部は、前記検出された前記マーカの位置に基づいてぶれ補正量を算出し、算出した前記ぶれ補正量を、検出された前記動きベクトルを用いて微調整する
 前記(1)から(4)のいずれかに記載の画像処理装置。
(6)
 前記動きベクトル検出部は、処理対象の前記フレームよりも前のぶれ補正済みのフレームと、前記処理対象の前記フレームとの間の画素マッチングにより、前記動きベクトルを検出する
 前記(5)に記載の画像処理装置。
(7)
 前記撮像装置の動き情報を取得する動き情報取得部をさらに備え、
 前記動きベクトル検出部は、取得された前記動き情報を用いて、前記画素マッチングの探索範囲を制限する
 前記(6)に記載の画像処理装置。
(8)
 処理対象の前記フレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、
 処理対象のぶれ補正済みの前記フレームにおける前記物体領域の画素値を、処理対象の前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
 をさらに備える前記(1)から(7)のいずれかに記載の画像処理装置。
(9)
 所定のフレームレートの動画像をフレーム毎に補正する画像処理装置の画像処理方法において、
 前記画像処理装置による、
  処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出ステップと、
  検出された前記マーカの位置に基づいてぶれ補正量を算出する算出ステップと、
  前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正ステップと
 を含む画像処理方法。
(10)
 所定のフレームレートの動画像をフレーム毎に補正するコンピュータを、
 処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出部と、
 検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、
 前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部と
 して機能させるプログラム。
(11)
 内視鏡と画像処理装置を有する内視鏡システムにおいて、
 前記内視鏡は、
  筒型のリトラクタの内側に自由度を持って保持された状態で、所定のフレームレートの動画像を撮像してフレーム毎に前記画像処理装置に供給し、
 前記画像処理装置は、
  処理対象の前記フレームに写し込まれている、前記リトラクタの内壁に設けられたマーカを検出するマーカ検出部と、
  検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、
  前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部と
 を備える
 内視鏡システム。
(12)
 所定のフレームレートの動画像をフレーム毎に補正する画像処理装置において、
 処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、
 処理対象の前記フレームのぶれ補正を行うぶれ補正部と、
 前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
 を備える画像処理装置。
(13)
 前記動画像は、筒型のリトラクタの内側に自由度を持って保持されている撮像装置によって撮像されたものである
 前記(12)に記載の画像処理装置。
(14)
 前記撮像装置は、内視鏡であり、
 前記所定の物体は、鉗子である
 前記(13)に記載の画像処理装置。
(15)
 処理対象の前記フレームに写し込まれている、前記リトラクタの内壁に設けられたマーカを検出するマーカ検出部と、
 検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と
 をさらに備え、
 前記ぶれ補正部は、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行う
 前記(12)から(14)のいずれかに記載の画像処理装置。
(16)
 前記動画像を撮像する撮像装置の動き情報を取得する動き情報取得部をさらに備え、
 前記ぶれ補正部は、前記動き情報に基づき、処理対象の前記フレームのぶれ補正を行う
 前記(12)から(14)のいずれかに記載の画像処理装置。
(17)
 所定のフレームレートの動画像をフレーム毎に補正する画像処理装置の画像処理方法において、
 前記画像処理装置による、
  処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出ステップと、
  処理対象の前記フレームのぶれ補正を行うぶれ補正ステップと、
  前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換ステップと
 を含む画像処理方法。
(18)
 所定のフレームレートの動画像をフレーム毎に補正するコンピュータを、
 処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、
 処理対象の前記フレームのぶれ補正を行うぶれ補正部と、
 前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
 して機能させるプログラム。
(19)
 内視鏡と画像処理装置を有する内視鏡システムにおいて、
 前記内視鏡は、
  筒型のリトラクタの内側に自由度を持って保持された状態で、所定のフレームレートの動画像を撮像してフレーム毎に前記画像処理装置に供給し、
 前記画像処理装置は、
  処理対象の前記フレームのぶれ補正を行うぶれ補正部と、
 前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
 を備える
 内視鏡システム。
 10 リトラクタ, 11 内視鏡, 12 保持部, 20 マーカ, 21 マーカエッジ, 41 撮像部, 42 位置センサ, 50 内視鏡システム, 51 画像処理装置, 52 画像表示装置, 61 鉗子領域検出部, 62 鉗子領域保持部, 63 マーカエッジ検出部, 64 中心推定部, 65 位置センサ情報取得部, 66 トラッキング処理部, 67 マーカ情報保持部, 68 ぶれ補正部, 69 G像保持部, 70 置換部, 100 コンピュータ, 101 CPU

Claims (19)

  1.  所定のフレームレートの動画像をフレーム毎に補正する画像処理装置において、
     処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出部と、
     検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、
     前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部と
     を備える画像処理装置。
  2.  前記動画像は、筒型のリトラクタの内側に自由度を持って保持されている撮像装置によって撮像されたものであり、
     前記マーカは、前記術具としての前記リトラクタの内壁に設けられている
     請求項1に記載の画像処理装置。
  3.  前記マーカは、前記リトラクタの内壁の端側に帯状に設けられている
     請求項2に記載の画像処理装置。
  4.  前記撮像装置は、内視鏡である
     請求項2に記載の画像処理装置。
  5.  処理対象の前記フレームよりも前のぶれ補正済みのフレームと、前記処理対象の前記フレームとの間の動きベクトルを検出する動きベクトル検出部をさらに備え、
     前記算出部は、前記検出された前記マーカの位置に基づいてぶれ補正量を算出し、算出した前記ぶれ補正量を、検出された前記動きベクトルを用いて微調整する
     請求項2に記載の画像処理装置。
  6.  前記動きベクトル検出部は、処理対象の前記フレームよりも前のぶれ補正済みのフレームと、前記処理対象の前記フレームとの間の画素マッチングにより、前記動きベクトルを検出する
     請求項5に記載の画像処理装置。
  7.  前記撮像装置の動き情報を取得する動き情報取得部をさらに備え、
     前記動きベクトル検出部は、取得された前記動き情報を用いて、前記画素マッチングの探索範囲を制限する
     請求項6に記載の画像処理装置。
  8.  処理対象の前記フレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、
     処理対象のぶれ補正済みの前記フレームにおける前記物体領域の画素値を、処理対象の前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
     をさらに備える請求項2に記載の画像処理装置。
  9.  所定のフレームレートの動画像をフレーム毎に補正する画像処理装置の画像処理方法において、
     前記画像処理装置による、
      処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出ステップと、
      検出された前記マーカの位置に基づいてぶれ補正量を算出する算出ステップと、
      前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正ステップと
     を含む画像処理方法。
  10.  所定のフレームレートの動画像をフレーム毎に補正するコンピュータを、
     処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出部と、
     検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、
     前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部と
     して機能させるプログラム。
  11.  内視鏡と画像処理装置を有する内視鏡システムにおいて、
     前記内視鏡は、
      筒型のリトラクタの内側に自由度を持って保持された状態で、所定のフレームレートの動画像を撮像してフレーム毎に前記画像処理装置に供給し、
     前記画像処理装置は、
      処理対象の前記フレームに写し込まれている、前記リトラクタの内壁に設けられたマーカを検出するマーカ検出部と、
      検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、
      前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部と
     を備える
     内視鏡システム。
  12.  所定のフレームレートの動画像をフレーム毎に補正する画像処理装置において、
     処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、
     処理対象の前記フレームのぶれ補正を行うぶれ補正部と、
     前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
     を備える画像処理装置。
  13.  前記動画像は、筒型のリトラクタの内側に自由度を持って保持されている撮像装置によって撮像されたものである
     請求項12に記載の画像処理装置。
  14.  前記撮像装置は、内視鏡であり、
     前記所定の物体は、鉗子である
     請求項13に記載の画像処理装置。
  15.  処理対象の前記フレームに写し込まれている、前記リトラクタの内壁に設けられたマーカを検出するマーカ検出部と、
     検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と
     をさらに備え、
     前記ぶれ補正部は、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行う
     請求項12に記載の画像処理装置。
  16.  前記動画像を撮像する撮像装置の動き情報を取得する動き情報取得部をさらに備え、
     前記ぶれ補正部は、前記動き情報に基づき、処理対象の前記フレームのぶれ補正を行う
     請求項12に記載の画像処理装置。
  17.  所定のフレームレートの動画像をフレーム毎に補正する画像処理装置の画像処理方法において、
     前記画像処理装置による、
      処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出ステップと、
      処理対象の前記フレームのぶれ補正を行うぶれ補正ステップと、
      前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換ステップと
     を含む画像処理方法。
  18.  所定のフレームレートの動画像をフレーム毎に補正するコンピュータを、
     処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、
     処理対象の前記フレームのぶれ補正を行うぶれ補正部と、
     前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
     して機能させるプログラム。
  19.  内視鏡と画像処理装置を有する内視鏡システムにおいて、
     前記内視鏡は、
      筒型のリトラクタの内側に自由度を持って保持された状態で、所定のフレームレートの動画像を撮像してフレーム毎に前記画像処理装置に供給し、
     前記画像処理装置は、
      処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、
      処理対象の前記フレームのぶれ補正を行うぶれ補正部と、
     前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
     を備える
     内視鏡システム。
PCT/JP2015/065535 2014-06-11 2015-05-29 画像処理装置、画像処理方法、プログラム、および内視鏡システム WO2015190319A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/312,798 US10229480B2 (en) 2014-06-11 2015-05-29 Image processing device, image processing method, program, and endoscope system
EP15806801.5A EP3155951A4 (en) 2014-06-11 2015-05-29 Image processing device, image processing method, program, and endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-120206 2014-06-11
JP2014120206A JP2016000065A (ja) 2014-06-11 2014-06-11 画像処理装置、画像処理方法、プログラム、および内視鏡システム

Publications (1)

Publication Number Publication Date
WO2015190319A1 true WO2015190319A1 (ja) 2015-12-17

Family

ID=54833420

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/065535 WO2015190319A1 (ja) 2014-06-11 2015-05-29 画像処理装置、画像処理方法、プログラム、および内視鏡システム

Country Status (4)

Country Link
US (1) US10229480B2 (ja)
EP (1) EP3155951A4 (ja)
JP (1) JP2016000065A (ja)
WO (1) WO2015190319A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11301964B2 (en) 2016-03-29 2022-04-12 Sony Corporation Image processing apparatus, image processing method, and medical system to correct blurring without removing a screen motion caused by a biological body motion

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108778093B (zh) * 2016-04-19 2021-01-05 奥林巴斯株式会社 内窥镜系统
JP6825625B2 (ja) * 2016-06-28 2021-02-03 ソニー株式会社 画像処理装置および画像処理装置の作動方法、並びに医療用撮像システム
CN112384123A (zh) * 2018-07-06 2021-02-19 索尼公司 医学观察系统、医学观察设备和医学观察设备的驱动方法
CN111798387A (zh) * 2020-06-24 2020-10-20 海南大学 一种用于共聚焦内窥镜的图像处理方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0549599A (ja) * 1991-08-23 1993-03-02 Olympus Optical Co Ltd 電子内視鏡装置
JPH11168717A (ja) * 1997-12-04 1999-06-22 Matsushita Electric Ind Co Ltd ビデオスコープ
JP2005323681A (ja) * 2004-05-12 2005-11-24 Fujinon Corp 体腔内観察装置
JP2012239644A (ja) * 2011-05-19 2012-12-10 Olympus Corp 画像処理装置、内視鏡装置、画像処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060074307A1 (en) * 2004-05-10 2006-04-06 Tatsuo Igarashi Body cavity diagnostic system
JP5154572B2 (ja) 2006-12-15 2013-02-27 ザ エーデルマン リサーチ リミテッド 椎弓截骨術及び椎弓形成術の方法及びデバイス
JP2007289720A (ja) * 2007-06-11 2007-11-08 Olympus Corp 超音波画像診断装置
JP2015020012A (ja) * 2013-07-23 2015-02-02 Mediaedge株式会社 術部撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0549599A (ja) * 1991-08-23 1993-03-02 Olympus Optical Co Ltd 電子内視鏡装置
JPH11168717A (ja) * 1997-12-04 1999-06-22 Matsushita Electric Ind Co Ltd ビデオスコープ
JP2005323681A (ja) * 2004-05-12 2005-11-24 Fujinon Corp 体腔内観察装置
JP2012239644A (ja) * 2011-05-19 2012-12-10 Olympus Corp 画像処理装置、内視鏡装置、画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3155951A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11301964B2 (en) 2016-03-29 2022-04-12 Sony Corporation Image processing apparatus, image processing method, and medical system to correct blurring without removing a screen motion caused by a biological body motion
US11849913B2 (en) 2016-03-29 2023-12-26 Sony Group Corporation Image processing apparatus, image processing method, and medical system to correct image blurrings

Also Published As

Publication number Publication date
US10229480B2 (en) 2019-03-12
US20170206640A1 (en) 2017-07-20
JP2016000065A (ja) 2016-01-07
EP3155951A1 (en) 2017-04-19
EP3155951A4 (en) 2018-03-14

Similar Documents

Publication Publication Date Title
WO2015190319A1 (ja) 画像処理装置、画像処理方法、プログラム、および内視鏡システム
US10694933B2 (en) Image processing apparatus and image processing method for image display including determining position of superimposed zoomed image
JP7289653B2 (ja) 制御装置、内視鏡撮像装置、制御方法、プログラムおよび内視鏡システム
US20170366773A1 (en) Projection in endoscopic medical imaging
US9345391B2 (en) Control device, endoscope apparatus, aperture control method, and information storage medium
US10561300B2 (en) Image processing apparatus, image processing method, and image processing program
US10820787B2 (en) Endoscope device and focus control method for endoscope device
EP3179897A1 (en) Endoscope system, image processing device, image processing method, and program
JP5911296B2 (ja) 画像処理装置、撮像装置、顕微鏡システム、画像処理方法、及び画像処理プログラム
US8052598B2 (en) Systems and methods for calibrating an endoscope
JP2022550913A (ja) リアルタイム画像処理を使用するビデオガイド付き臨床手技中に視界の方向を変更するためのシステムおよび方法
US20180342079A1 (en) Image processing apparatus, image processing method, and computer readable recording medium
CN104302226A (zh) 视频分析设备、视频分析方法和注视点显示系统
JP6324119B2 (ja) 回転角度算出方法、注視点検出方法、情報入力方法、回転角度算出装置、注視点検出装置、情報入力装置、回転角度算出プログラム、注視点検出プログラム及び情報入力プログラム
JP2023113689A (ja) 外科用内視鏡ビデオストリームの画像補正
AU2014280958B2 (en) Registration across frame boundaries in AO-SLO capture
WO2017169824A1 (ja) 制御装置および方法並びに手術システム
KR20190065754A (ko) 내시경용 증강현실을 위한 이미지 왜곡 보정 방법 및 장치
JP6653386B2 (ja) 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法
US11451698B2 (en) Medical system and control unit
JP7245773B2 (ja) 画像処理装置、画像処理プログラム及び画像処理方法
JP2021142175A (ja) 術野監視システム
WO2020049993A1 (ja) 画像処理装置、画像処理方法及びプログラム
KR20210137307A (ko) 오브젝트 크기 측정 방법 및 장치
WO2022103408A1 (en) Method and system for depth-based illumination correction

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15806801

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15312798

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2015806801

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015806801

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE