WO2014171391A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2014171391A1
WO2014171391A1 PCT/JP2014/060398 JP2014060398W WO2014171391A1 WO 2014171391 A1 WO2014171391 A1 WO 2014171391A1 JP 2014060398 W JP2014060398 W JP 2014060398W WO 2014171391 A1 WO2014171391 A1 WO 2014171391A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image
information
endoscope
distal end
Prior art date
Application number
PCT/JP2014/060398
Other languages
English (en)
French (fr)
Inventor
秋本 俊也
大西 順一
満祐 伊藤
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to JP2014552430A priority Critical patent/JP5687811B1/ja
Priority to EP14785125.7A priority patent/EP2888991B1/en
Priority to CN201480002770.8A priority patent/CN104755009B/zh
Publication of WO2014171391A1 publication Critical patent/WO2014171391A1/ja
Priority to US14/670,858 priority patent/US9357945B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners

Definitions

  • the present invention relates to an endoscope system for imaging an inside of a subject by an imaging means.
  • endoscopes having an insertion portion that can be inserted into a body cavity or the like have been widely used in the medical field and the like.
  • it is inserted into a luminal organ that branches in a complicated manner like the bronchus in the body cavity, and the target site (affected tissue) on the terminal side of the luminal organ is examined, or a biopsy or treatment using a treatment instrument is performed.
  • it may be difficult to introduce the distal end of the insertion portion up to the vicinity of the target site only with the endoscopic image obtained upon insertion.
  • Japanese Patent Application Laid-Open No. 2011-189074 as a first conventional example describes an insertion part to be inserted into a bronchus, a plurality of FBG sensor parts disposed in the insertion part, and a three-dimensional bronchi obtained in advance.
  • a storage unit for storing image data, a shape measurement unit for measuring the shape of the insertion unit from the data of the FBG sensor unit, a core calculation unit for calculating the core of the bronchus from the three-dimensional image data stored in the storage unit, and a shape A medical device is disclosed that includes a position calculation unit that calculates a position of an insertion unit based on a shape measured by a measurement unit and a core wire calculated by a core wire calculation unit. And the position and direction of the front-end
  • Japanese Patent Laid-Open No. 2012-24518 acquires a center line of a tubular tissue (tubular organ) of a subject from a previously acquired three-dimensional image of the subject, An endoscopic image taken while moving the inserted endoscope along the longitudinal direction of the tubular tissue is displayed, and one characteristic region of the tubular tissue is displayed in the displayed endoscopic image.
  • a position corresponding to the one feature region is set on the center line, and the moving amount and the traveling direction of the endoscope further moved from the reference position Is calculated as a current position from the position corresponding to the one feature region along the center line by the acquired amount of movement in the acquired traveling direction, and the calculated current position is
  • the centerline It discloses a support device to be displayed in. Then, the position of the imaging means is calculated from the core line of the tubular organ, the moving amount of the imaging means, and the traveling direction.
  • the first conventional example discloses the viewpoint of calculating the position of the distal end of the insertion portion by extracting the core line
  • the second conventional example discloses the core line of the luminal organ and the imaging means (endoscopic distal end).
  • the present invention has been made in view of the above points, and provides an endoscope system that records posture information together with information on the position of the tip of an endoscope so as to facilitate realignment. Objective.
  • An endoscope system is configured to extract a predetermined luminal organ from an image storage unit configured to store three-dimensional image information of a subject acquired in advance, and the three-dimensional image information.
  • a direction comparison unit configured to compare the core line direction of the predetermined luminal organ extracted by the extraction unit and the line-of-sight direction, and an angle formed by the core line direction and the line-of-sight direction is equal to or less than a predetermined threshold value
  • a position and orientation information recording unit configured to record information on the position and orientation of the distal end of the insertion unit of the endoscope.
  • FIG. 1 is a diagram showing an overall configuration of an endoscope system according to a first embodiment of the present invention.
  • FIG. 2A is a diagram showing a bronchial shape image as a bronchial shape image.
  • FIG. 2B is a diagram showing a state in which the position and direction of the distal end of the insertion portion of the endoscope are displayed superimposed on the bronchial shape image shown in FIG. 2A.
  • FIG. 2C is an explanatory diagram showing a state of comparing angles formed by the line-of-sight direction and the core line direction.
  • FIG. 2D is a diagram illustrating a display example of information displayed on the monitor when the alignment is performed again.
  • FIG. 3 is a flowchart showing a typical processing example of the first embodiment.
  • FIG. 3 is a flowchart showing a typical processing example of the first embodiment.
  • FIG. 4 is a diagram illustrating an overall configuration of an endoscope system according to a first modification of the first embodiment including a position sensor.
  • FIG. 5 is an explanatory diagram of alignment of two coordinate systems in the first modification.
  • FIG. 6 is a flowchart showing a part of processing in the second modification.
  • FIG. 7 is a flowchart showing a part of processing in the second embodiment of the present invention.
  • FIG. 8 is a flowchart showing a part of the processing in the third embodiment of the present invention.
  • FIG. 9 is a flowchart showing a part of the processing in the fourth embodiment of the present invention.
  • FIG. 10 is an explanatory diagram of the operation in the fifth embodiment of the present invention.
  • the endoscope system 1 As shown in FIG. 1, the endoscope system 1 according to the first embodiment of the present invention is inserted into a bronchus 2 (FIG. 2A) as a predetermined luminal organ in a patient as a subject to be examined.
  • An endoscope apparatus 4 including the endoscope 3 and an insertion support apparatus 5 that is used together with the endoscope apparatus 4 and supports the insertion of the endoscope 3 are mainly configured.
  • the endoscope apparatus 4 corresponds to the endoscope 3, a light source device 6 that supplies illumination light to the endoscope 3, and an imaging element 7 that constitutes an imaging means (imaging unit) mounted on the endoscope 3.
  • a camera control unit (abbreviated as CCU) 8 as a signal processing device that performs signal processing and a monitor 9 as a display device (display unit) that displays an endoscopic image generated by the CCU 8 are included.
  • the endoscope 3 includes an elongated insertion portion (or endoscope insertion portion) 11 having flexibility, and an operation portion 12 provided at the rear end of the insertion portion 11.
  • An illumination window and an observation window are provided at the distal end portion 13 provided in the vicinity.
  • a light guide 14 that transmits illumination light is inserted into the insertion unit 11 and the operation unit 12, and an incident end at the rear end of the light guide 14 is connected to the light source device 6.
  • Illumination light generated by the LED enters the incident end.
  • the illumination light transmitted by the light guide 14 is emitted forward from an emission end (tip surface) attached to the illumination window.
  • an objective lens 15 that forms an objective optical system that forms an image of a subject is attached to the observation window, and an imaging device 7 such as a charge coupled device (CCD) is disposed at the imaging position.
  • the element 7 forms an imaging device 16 as imaging means (imaging unit) that images the inside of the bronchus 2 as a predetermined luminal organ into which the insertion unit 11 is inserted as a subject.
  • the optical axis direction of the objective lens 15 is parallel to the axial direction or the longitudinal direction of the distal end portion 13 (or distal end) of the insertion portion 11. Therefore, the imaging direction (or the line of sight seen by the user via the imaging device 16) for imaging the subject by the imaging device 16 is the front side of the objective lens 15 along the optical axis direction of the objective lens 15 (opposite to the imaging device 7). Side) direction. Further, it can be approximated that the optical axis direction of the objective lens 15 and the axial direction or longitudinal direction of the distal end portion 13 of the insertion portion 11 coincide.
  • the imaging direction or the line-of-sight direction of the imaging device 7 through the objective lens 15 coincides with the axial direction or the longitudinal direction of the distal end of the insertion portion 11. Then, the position and orientation of the distal end of the insertion portion 11 is determined based on information on at least the imaging direction or line-of-sight direction of the objective lens 15 disposed at the distal end of the insertion portion 11, and conversely, information on the position and orientation of the distal end of the insertion portion 11 is determined. From this, the imaging direction or line-of-sight direction of the objective lens 15 is determined.
  • the position and posture of the distal end of the insertion portion 11 can also be referred to as the position of the distal end of the insertion portion 11 and the axial direction or longitudinal direction of the distal end or the line-of-sight direction of the objective lens 15.
  • the present invention is not limited to the endoscope 3 having the configuration in which the imaging device 16 is provided in the distal end portion 13 as shown in FIG. 1, and is configured by a fiber bundle at the imaging position of the objective lens 15 provided in the distal end portion 13.
  • the present invention can also be applied to a fiberscope in which the distal end surface of the image guide is arranged and a camera-mounted endoscope in which a TV camera is mounted on the eyepiece of the image guide.
  • at least the objective lens 15 is disposed at the distal end portion 13. For this reason, the gaze direction of the objective lens 15 or the gaze direction by the objective lens 15 is mainly used rather than the gaze direction of the imaging device 16.
  • the image sensor 7 is connected to the CCU 8 through a signal line inserted through the insertion unit 11 and the operation unit 12.
  • the CCU 8 generates an image signal of a captured image corresponding to the optical image formed on the imaging surface of the image sensor 7 by the internal image signal generation circuit 8 a and outputs the image signal to the monitor 9.
  • the monitor 9 displays an image (moving image) of the image signal as an endoscopic image.
  • a bendable bending portion 19 is provided at the rear end of the distal end portion 13 in the insertion portion 11 of the endoscope 3, and the operator performs an operation of rotating a bending operation knob 20 provided in the operation portion 12.
  • the bending portion 19 can be bent in any direction up and down and left and right via a wire (not shown).
  • the insertion support device 5 sends CT data as three-dimensional image information of a patient generated by a known CT device to a patient to be examined by the endoscope 3, such as a DVD, a Blu-ray disc, or a flash memory.
  • CT data capturing unit 21 that is captured via a portable storage medium, and a CT image data storage unit 22 that stores the CT data captured by the CT data capturing unit 21 are provided.
  • the CT image data storage unit 22 may store CT data (as three-dimensional image information of a patient as a subject) generated by a CT apparatus via a communication line, the Internet, or the like.
  • the CT image data storage unit 22 can be configured by a hard disk device, a flash memory, a DVD, or the like.
  • the CT image data storage unit 22 constituting the image storage means includes a CT image data obtained by separating image data from the CT data, and a first coordinate system corresponding to the CT image data obtained by separating position information from the CT data. It has the matching image information storage part 22a memorize
  • the insertion support apparatus 5 includes a luminal organ extraction circuit as a luminal organ extraction means that extracts three-dimensional image data of the bronchi 2 as a predetermined luminal organ from the CT image data in the CT image data storage unit 22.
  • the bronchus extraction part 23 which becomes.
  • the bronchi extraction unit 23 obtains three-dimensional shape information (shape data) representing the hollow shape of the bronchus 2 from the extracted three-dimensional data (more specifically, three-dimensional volume data) of the bronchus 2 and the three-dimensional shape. Image information (image data) is generated. That is, the bronchi extraction unit 23 includes a bronchial shape image generation unit 23a as a bronchial shape image generation unit that generates a bronchial shape image as a hollow three-dimensional bronchial shape image from the extracted three-dimensional data of the bronchi 2. .
  • the bronchi extraction unit 23 may be configured by software such as a central processing unit (abbreviated as CPU), or may be configured by hardware using an FPGA (Field Programmable Gate Array) or an electronic circuit element. Also good.
  • the image processing unit 25 and the control unit 26 to be described later may be similarly configured by software such as a CPU, or may be configured by hardware using an FPGA or an electronic circuit element.
  • the bronchi extracting unit 23 extracts the three-dimensional position data in the first coordinate system (or CT coordinate system) corresponding to the three-dimensional data in association with the three-dimensional data.
  • the bronchus extraction unit 23 includes an association information storage unit 23b including a memory that stores association information in which 3D shape data of the bronchi 2 (that is, bronchial shape data) and 3D position data are associated with each other.
  • the insertion support device 5 is a virtual endoscopic image corresponding to an endoscopic image captured by the image sensor 7 via the objective lens 15 provided at the distal end portion 13 of the insertion portion 11 in the endoscope 3.
  • a virtual endoscopic image (referred to as a VBS image) as a virtual endoscopic image generating means for forming a VBS image generating unit 24 comprising a VBS image generating circuit.
  • the VBS image generation unit 24 includes information about the objective lens 15 mounted on the distal end portion 13 of the endoscope 3 and the image sensor 7 (information such as the focal length of the objective lens 15, the number of pixels of the image sensor 7, and the pixel size). ) Is input from the input device 31, for example.
  • the VBS image generation unit 24 is an imaging system that forms an image of the subject in the bronchus 2 on the imaging surface of the image sensor 7 by the objective lens 15 disposed at the distal end of the endoscope 3 that is actually inserted into the bronchus 2. Based on the characteristic information, information such as the pixel size and the number of pixels of the image sensor 7 that converts the optical image formed on the imaging surface into an endoscopic image, and the bronchial shape data, the bronchus 2 is inserted into the bronchus 2.
  • An endoscopic image of the inside of the bronchus 2 along the line-of-sight direction of the objective lens 15 is taken with the three-dimensional position (also simply referred to as position) of the distal end of the insertion portion 11 of the endoscope 3 as the viewpoint position.
  • An endoscopic image is virtually drawn to generate a VBS image.
  • the VBS image generation unit 24 uses the position of the distal end (the objective lens 15) of the insertion unit 11 as the viewpoint position in the CT coordinate system, and places the objective lens 15 at the viewpoint position so that the optical axis thereof is along the line-of-sight direction. Assuming that the image pickup surface of the image pickup device 7 is virtually arranged at the image formation position after being virtually arranged, an image in the bronchus 2 formed on the image pickup surface is generated as a VBS image. Therefore, in a state where the images of the endoscopic image and the VBS image are sufficiently matched so that the endoscope 3 is inserted from the viewpoint position of the VBS image in the CT coordinate system and the information on the viewing direction.
  • the position / orientation calculation unit 25b described later calculates (estimates) the position / orientation information in this way.
  • the endoscope 3 has an identification information generating unit composed of a ROM or the like that generates identification information unique to each endoscope 3, the identification of the endoscope 3 connected to the insertion support device 5 is performed.
  • the VBS image generation unit 24 may automatically acquire information on the objective lens 15 and the image sensor 7 mounted on the endoscope 3 and generate a corresponding VBS image. .
  • the insertion support apparatus 5 performs image processing such as an alignment processing unit 25a configured to perform alignment between the endoscopic image input from the CCU 8 and the VBS image of the VBS image generation unit 24 by image matching.
  • the image processing unit 25 configured to perform the control
  • the control unit 26 configured as a control unit configured to control the image processing unit 25, and the like, and used as information for supporting insertion under the control of the control unit 26
  • a position / orientation information recording unit 27 serving as a position / orientation information recording unit configured to store information on the position and orientation of the distal end of the insertion unit 11;
  • the posture of the distal end of the insertion portion 11 is determined by the longitudinal direction or the axial direction of the distal end (which almost coincides with the line-of-sight direction of the objective lens 15 disposed at the distal end).
  • the insertion support apparatus 5 is configured to generate a CT tomographic image (referred to as an MPR image) as a multi-section reconstructed image based on the CT image data stored in the CT image data storage unit 22. And generating a route setting screen as an insertion route setting screen having the MPR image generated by the MPR image generating unit 28, and setting a route for insertion into the target site in the bronchus 2 of the endoscope 3 And a configured route setting unit 29.
  • a CT tomographic image referred to as an MPR image
  • a route setting screen as an insertion route setting screen having the MPR image generated by the MPR image generating unit 28, and setting a route for insertion into the target site in the bronchus 2 of the endoscope 3
  • a configured route setting unit 29 a configured route setting unit 29.
  • the path setting unit 29 determines the target from the insertion start position (of the insertion unit 11) in the bronchi 2 from the CT image data and the bronchial shape image 2a. It has a function of a route data generation unit (or route data generation circuit) 29a that generates route data to a target position in the vicinity of the part 36.
  • the spar Spi (i 1, 2, 3, 4, 5) where the lumen in the bronchus 2 branches into the bronchial branch, and the branch where the core wire 35 as the center line of the lumen branches. Point Bi is shown.
  • the endoscope system 1 further includes an input device 31 including a keyboard and a pointing device for inputting setting information to the route setting unit 29. Further, the operator can input parameters and data when performing image processing from the input device 31 to the image processing unit 25, and can select or instruct the control operation to the control unit 26. it can.
  • the route setting unit 29 sends information on the set route to the VBS image generation unit 24, the MPR image generation unit 28, and the control unit 26.
  • the VBS image generation unit 24 and the MPR image generation unit 28 generate a VBS image and an MPR image along the route, respectively, and the control unit 26 controls the operation of each unit along the route.
  • the image processing unit 25 receives an endoscopic image generated by the CCU 8 and a VBS image generated by the VBS image generation unit 24.
  • the bronchial shape image 2a generated by the bronchial shape image generating unit 23a is also input to the image processing unit 25.
  • the alignment processing unit 25a of the image processing unit 25 is performed. Estimates (or calculates) the position of the distal end of the insertion portion 11 and the longitudinal direction or axial direction of the distal end as its posture by image matching. That is, the alignment processing unit 25a has a function of a position / orientation calculation unit (position / orientation calculation circuit) 25b as a position / orientation calculation unit that calculates information on the position and orientation of the tip of the insertion unit 11 by image matching.
  • a three-dimensional position (a known position) that can be specified from the bronchial shape image 2a by the CT coordinate system, such as the entrance of the bronchus 2 or the carina K (see FIG. 2A), or a position in the vicinity thereof, is the image matching start position.
  • the VBS image generation unit 24 generates a VBS image based on the position and orientation information set in consideration of the line-of-sight direction and optical characteristics of the objective lens 15. Then, the operator inserts the distal end of the insertion portion 11 so that the endoscopic image looks the same as the VBS image.
  • the alignment processing unit 25a of the image processing unit 25 matches the endoscope image and the VBS image under the set conditions (within an error that can ensure a predetermined accuracy).
  • the image matching process is started.
  • the alignment processing unit 25a detects or calculates the position determined by the position of the distal end of the insertion unit 11 and the posture determined by the viewing direction of the objective lens 15 (or the longitudinal direction of the distal end) by estimation. It has a function of a position / orientation calculation unit (position / orientation calculation circuit) 25b as an attitude calculation unit.
  • the position / orientation calculation unit 25b has a function of a position calculation unit (position calculation circuit) 25c as a position calculation unit that detects or calculates the three-dimensional position of the distal end of the insertion unit 11 by estimation.
  • a position sensor 41 for position detection is provided at the distal end portion 13, and a position calculation unit 42 b that detects (calculates) the three-dimensional position of the distal end of the insertion portion 11 using the position sensor 41.
  • the posture may be calculated by image matching.
  • the distal end of the insertion portion 11 is used in the same meaning as the distal end of the endoscope 3.
  • the image processing unit 25 includes an image comparison unit (image comparison circuit) 25d as an image comparison unit that compares the endoscopic image acquired by the imaging device 7 via the objective lens 15 and the VBS image, and an objective.
  • a direction in which a line-of-sight direction detection unit (line-of-sight direction detection circuit) 25e serving as a line-of-sight direction detection unit that detects a line-of-sight direction by the lens 15 is compared with the core line direction as the direction of the center line of the lumen of the bronchi 2
  • a direction comparison unit (direction comparison circuit) 25f as a comparison means.
  • the image processing unit 25 includes a core line direction calculation unit (core line direction calculation circuit) 25g that calculates (acquires) a core line direction in the vicinity of the position of the distal end of the insertion unit 11 where the line-of-sight direction detection unit 25e detects the line-of-sight direction. .
  • the core line direction calculation unit 25g compares, for example, the tangent line of the core wire 35 in the CT coordinate system corresponding to the vicinity of the position of the distal end of the insertion unit 11 where the visual line direction detection unit 25e has detected the visual line direction or a direction close thereto (compare with the visual line direction). Calculated as the core wire direction.
  • the direction comparison unit 25f compares the line-of-sight direction with the core line direction calculated by the core wire direction calculation unit 25g.
  • the line-of-sight direction detection unit 25e or the direction comparison unit 25f may have a function of the core line direction calculation unit 25g.
  • the direction comparison unit 25f is a bronchus as a predetermined luminal organ extracted by the bronchi extraction unit 23 constituting the luminal organ extraction unit. Is calculated, and the calculated core line direction is compared with the line-of-sight direction detected by the line-of-sight direction detection unit 25e.
  • the position / orientation calculation unit 25b determines the position and orientation of the distal end of the insertion unit 11 in the case of a comparison result when the endoscope image and the VBS image match within a preset condition by the image comparison unit 25d.
  • Information in other words, information on the position of the distal end of the insertion portion 11 and the line-of-sight direction of the objective lens 15 is calculated (acquired).
  • the line-of-sight direction detection unit 25e is almost equivalent to a tip direction detection unit that detects the longitudinal direction of the tip of the insertion unit 11, and the position / orientation calculation unit 25b calculates the position and posture information of the tip of the insertion unit 11.
  • the line-of-sight direction is calculated (detected) from the information on the posture.
  • the position / orientation calculation unit 25b may have a function of the line-of-sight direction detection unit 25e.
  • the image processing unit 25 also functions as an image generation unit configured to generate an image to be displayed on the monitor 32 under the control of the display control unit 26a configured to control display in the control unit 26. Have.
  • the image processing unit 25 temporarily stores image data and the like of an endoscopic image and a VBS image when the image comparison unit 25d performs image comparison, or data such as position, posture, and line-of-sight direction. Is inserted based on the detection result of the presence or absence of the rotational change of the endoscopic image by monitoring the presence or absence of the rotational change of the endoscopic image as will be described later.
  • a direction change detection unit (direction change detection circuit) 25i (indicated by a dotted line in FIG. 1) configured to constitute a direction change detection means for detecting a rotational direction change of the unit 11.
  • the image processing unit 25 normally outputs the image signal (video signal) of the bronchial shape image 2 a generated by the bronchial shape image generation unit 23 a to the monitor 32.
  • the bronchial shape image 2a is displayed as a two-dimensional tomographic image cut out in a cross section along the direction passing through the center of the lumen, for example.
  • the display is not limited to a two-dimensional tomographic image, and a three-dimensional image may be displayed. In the case of displaying a three-dimensional image, for example, it may be displayed in a projection view by a parallel projection method or in a perspective view so that the inside of the lumen can be seen.
  • a core line 35 passing through the center of the lumen of the bronchus 2 is also displayed on the bronchial shape image 2 a displayed on the monitor 32.
  • the core wire 35 is generated by, for example, the bronchial shape image generation unit 23a, but the image processing unit 25 may generate the core wire 35.
  • the core wire 35 When a user such as an operator inserts the insertion portion 11 into the bronchus 2 from the distal end thereof, the core wire 35 is displayed. Therefore, the insertion operation of the insertion portion 11 can be easily performed by referring to the display. . In addition, by performing an operation of inserting along the core wire 35, a process of calculating (estimating) the position and posture of the distal end of the insertion unit 11 by image matching can be performed in a short time.
  • the image processing unit 25 uses the matching (image matching) of both the endoscopic image and the VBS image under the CT coordinate system in the operation of inserting into the deep side (terminal side) of the bronchus 2.
  • a process of calculating a movement distance can also be performed. That is, when both images match at a certain position, the endoscopic image changes with an operation of moving the distal end of the insertion portion 11 along the core line 35 (for insertion).
  • the alignment processing unit 25a or the position / orientation calculation unit 25b uses the VBS image (output from the VBS image generation unit 24) when moving on the route along the core line 35 and the endoscopic image and The best matching VBS image is selected by image processing, and the three-dimensional position corresponding to the selected VBS image is calculated (estimated) as the position of the tip of the insertion unit 11. Therefore, the position / orientation calculation unit 25b and the position calculation unit 25c can also calculate (estimate) the moved movement distance from the difference between the two positions. Note that the distal end of the insertion unit 11 may be moved at a position deviated from the core wire 35.
  • the VBS image generation unit 24 generates a VBS image at a position eccentric from the core wire 35 by an appropriate distance.
  • the VBS image can be output to the alignment processing unit 25a. In this way, the range of position calculation by image matching can be expanded.
  • the control unit 26 corrects the route data generated by the route data generation unit 29a (before insertion of the insertion unit 11 of the endoscope 3) by the position of the distal end of the insertion unit 11 calculated by the alignment processing unit 25a. You may make it do.
  • control unit 26 determines whether or not the distal end of the insertion unit 11 calculated by the image processing unit 25 (the position / orientation calculation unit 25b) satisfies a predetermined condition, a condition determination unit (condition determination circuit) 26b. It has the function of. In the case of a determination result that satisfies a predetermined condition, the condition determination unit 26b stores information on the position of the distal end of the corresponding insertion unit 11 and the posture (corresponding to the line-of-sight direction of the objective lens 15), that is, position and posture information using a memory or the like
  • the position / orientation information recording unit 27 is configured to record.
  • the condition determination unit 26 b has a function of a recording control unit (recording control circuit) as a recording control unit that records the position and orientation information in the position and orientation information recording unit 27.
  • a recording control unit recording control circuit
  • the VBS image corresponding to the position / orientation information and the recording time are associated with the position / orientation information. You may make it record on the recording part 27.
  • the angle ⁇ formed by the core line direction of the bronchus 2 compared by the direction comparison unit 25f and the line-of-sight direction detected by the line-of-sight direction detection unit 25e is equal to or less than a predetermined threshold
  • the predetermined threshold information is recorded in the position / orientation information recording unit 27 including, for example, a memory, but may be recorded in a recording device such as a memory other than the position / orientation information recording unit 27.
  • the direction comparison unit 25f records the position and posture information of the distal end of the insertion unit 11 in this case.
  • Control is performed so as to be recorded in the unit 27.
  • the condition determination unit 26 b is illustrated as being provided inside the control unit 26, but the condition determination unit 26 b may be provided within the image processing unit 25. Further, the direction comparison unit 25f may be configured to have the function of the condition determination unit 26b.
  • the following inner product may be used. Calculate (set) each unit vector in the core line direction and the line-of-sight direction, calculate the inner product of both vectors, and set the case where the calculated inner product value is equal to or greater than the threshold when the predetermined condition is satisfied You may do it.
  • the condition that the angle ⁇ formed by both directions is equal to or less than a predetermined threshold is that the line-of-sight direction at the distal end of the insertion portion 11 is substantially the same as the core line direction. In this case, the distal side of the bronchus 2 is visible. If there is a branching portion in the vicinity, the branching portion, which is a characteristic region for insertion, can be captured in the field of view, and alignment can be easily performed. On the other hand, regardless of whether or not the predetermined condition is satisfied, if the position and orientation information is recorded, information inappropriate for the alignment is included, and it is difficult to perform the alignment again.
  • the position / orientation information recording unit 27 stores the position / orientation information on the tip of the insertion unit 11 and the VBS such as the VBS image corresponding to the position / orientation information and the information on the position and line-of-sight direction of the CT coordinate system used to generate the VBS image. It may be configured to include a position / orientation information & VBS image generation information recording unit 27a for recording image generation information.
  • the position and orientation information recording unit 27 may also record the endoscope image corresponding to the position and orientation information together with the position and orientation information, the VBS image corresponding to the position and orientation information, and the recording time thereof. Then, the endoscope image recorded together with the VBS image recorded in the position / orientation information recording unit 27 may be used when the alignment is performed again.
  • the insertion is performed when the angle ⁇ formed by the line-of-sight direction and the core line direction satisfies a condition equal to or less than a predetermined threshold value.
  • Information on the position and orientation of the tip of the unit 11 is recorded in the position and orientation information recording unit 27.
  • the point on the core line calculated by the core direction calculation unit 25g and the core line direction may be recorded.
  • the VBS image is acquired from the recorded position and orientation information and displayed.
  • the accuracy of position estimation (using image matching) of the distal end of the insertion unit 11 is reduced by the moving operation of the insertion unit 11 after the initial alignment by image matching, and the registration is performed again (or re-alignment). ), It is possible to present information for the realignment as candidate information.
  • the operator may input an instruction to perform realignment to the image processing unit 25 or the control unit 26 from a keyboard, a mouse, or the like that constitutes the input device 31.
  • a re-alignment instruction or the like is given (or a trigger is input)
  • the display control unit 26 a of the control unit 26 reads candidate information in the vicinity of the current position of the distal end of the insertion unit 11 from the position and orientation information recording unit 27. Then, control is performed to present candidate information on the monitor 32 via the image processing unit 25.
  • the display control unit 26a that performs control for presenting candidate information on the monitor 32 has a function of a candidate information presentation control unit configured to control candidate information presentation. Further, the image processing unit 25 has a function of a candidate information generation unit configured to display the candidate information on the monitor 32 under the control of the candidate information presentation of the display control unit 26a. Note that the display control unit 26 a may read out information from the position / orientation information recording unit 27 and perform control so that candidate information is presented on the monitor 32 without going through the image processing unit 25.
  • the candidate information is presented on the monitor 32, for example, information on the position and orientation of the tip of the insertion unit 11 in the candidate information related to (or by image comparison) on the bronchial shape image 2a shown in FIG.
  • the alignment processing unit 25a of the image processing unit 25 estimates (calculates) the tip and posture of the insertion unit 11 using image matching when the tip of the insertion unit 11 is moved. In some cases, an image matching error may occur that makes it impossible to perform image matching within the specified accuracy.
  • the alignment processing unit 25a of the image processing unit 25 generates an image matching error signal and displays on the monitor 32 that the image matching error has occurred. Further, the alignment processing unit 25a sends an image matching error signal to the control unit 26, and the display control unit 26a of the control unit 26 performs control for presenting candidate information on the monitor 32.
  • the monitor 32 forms candidate information presenting means (candidate information presenting unit) configured to present candidate information to the surgeon. The surgeon performs the alignment process again using the candidate information. By performing the alignment process again, the surgeon can continue the insertion operation of the insertion portion 11 from the vicinity of the position where the alignment process is performed again. If the surgeon determines that the accuracy of the image matching has deteriorated, the above processing may be performed by instructing realignment.
  • the endoscope system 1 having such a configuration includes a CT image data storage unit 22 configured to form image storage means for storing three-dimensional image information of a subject acquired in advance, and a predetermined amount based on the three-dimensional image information.
  • a bronchial extraction unit 23 configured to form a luminal organ extracting means for extracting the bronchi 2 as a luminal organ of the cervical organ, and an objective lens as an objective optical system provided at the distal end of the insertion unit 11 of the endoscope 3 15, a gaze direction detection unit 25 e configured to form a gaze direction detection unit that detects a gaze direction by the objective lens 15, and the core direction of the predetermined luminal organ extracted by the luminal organ extraction unit
  • a direction comparison unit 25f configured to form a direction comparison unit that compares the line-of-sight direction, and the endoscope when an angle formed by the core line direction and the line-of-sight direction is equal to or smaller than a predetermined threshold value.
  • the insertion portion 11 position and orientation information recording unit 27 configured
  • the alignment processing unit 25 a of the image processing unit 25 outputs the VBS image (image signal thereof) of the VBS image generation unit 24 at the reference position to the monitor 32.
  • the surgeon designates one of the reference positions from the input device 31, inserts the tip of the insertion unit 11 into the designated reference position, and performs alignment processing on the alignment processing unit 25a of the image processing unit 25. Instruct to do.
  • the alignment processing unit 25a determines the position and orientation of the distal end of the insertion unit 11 based on the result of the alignment process. Is estimated (calculated) by image matching. Specifically, using the position information of alignment as an initial value of image matching, a VBS image that best matches an endoscopic image is calculated by image processing. In step S3, the alignment processing unit 25a determines whether or not the position and orientation of the distal end of the insertion unit 11 can be estimated within a predetermined condition by image matching (for example, whether the estimated position is inside the bronchus) (that is, the position and orientation are determined). Whether or not the estimation is successful).
  • step S4 the image processing unit 25 (the image generation unit thereof) uses the position of the distal end of the insertion unit 11 estimated by the position / orientation calculation unit 25b as the bronchial shape image. Image processing for superimposing and displaying at the estimated position on 2a is performed.
  • FIG. 2B shows a display example of an image generated by the image processing in step S4.
  • step S3 shows the distal end side of the insertion portion 11 of the endoscope 3 inserted into the bronchus 2 by a two-dot chain line, and the estimated distal end of the insertion portion 11 in the bronchial shape image 2a as the shape image thereof.
  • the longitudinal direction or the line-of-sight direction D1 corresponding to the posture of the distal end of the insertion portion 11 is indicated by an arrow.
  • step S ⁇ b> 5 the line-of-sight direction detection unit 25 e calculates the line-of-sight direction D ⁇ b> 1 of the objective lens 15 from the information on the posture of the distal end of the insertion unit 11 estimated (calculated) by the position and orientation calculation unit 25 b.
  • the core line direction calculation unit 25g calculates a core line direction E1 in the vicinity of the position of the distal end of the insertion unit 11 in which the line-of-sight direction D1 is calculated.
  • the direction comparison unit 25f compares the line-of-sight direction D1 and the core line direction E1, and outputs the comparison result to the condition determination unit 26b.
  • FIG. 2C shows the state of the process in step S5.
  • the estimated position of the distal end of the insertion portion 11 is indicated by P1
  • the line-of-sight direction is indicated by D1.
  • the position of the core wire 35 closest to the position P1 is indicated by C1
  • the core wire direction calculating unit 25g calculates the core wire direction E1 at the position C1
  • the direction comparing unit 25f compares both directions.
  • the core wire direction calculation unit 25g may calculate the core wire direction E1 with C1 as the position in the case of a perpendicular line having a minimum length from the position P1 to the intersection with the core wire 35, for example. Further, the core line direction E1 may be calculated at a position satisfying a condition close to a perpendicular line from the position P1 to the core line 35.
  • FIG. 2C shows a state in which the angle ⁇ formed by both directions is calculated by the direction comparison unit 25f.
  • the condition determination unit 26b determines whether or not the calculated angle ⁇ as the comparison result is equal to or less than a predetermined threshold ⁇ th.
  • the position / orientation information recording unit 27 in the next step S7 the tip of the insertion unit 11 in the case of the determination result
  • the process proceeds to step S10.
  • an endoscopic image corresponding to the position and orientation may be recorded in association with the position and orientation.
  • step S7 only position and orientation information, position and orientation information and time information, or position and orientation information and a VBS image may be recorded.
  • step S8 the alignment processing unit 25a generates an image matching error signal.
  • This signal becomes a signal for presenting candidate information and is input to the control unit 26.
  • the display control unit 26a of the control unit 26 controls the presentation of candidate information.
  • the display control unit 26a displays information including the position / orientation information recorded in the position / orientation information recording unit 27 and the corresponding VBS image on the monitor 32 as candidate information before the generation of the candidate information presentation signal.
  • the process returns to step S1.
  • FIG. 2D shows an example of candidate information displayed on the monitor 32.
  • 2D schematically shows the position P3 of the distal end of the insertion portion 11 in a state where an image matching error signal is generated (actually, the position P3 is indefinite).
  • the position P2 of the tip and the posture (line-of-sight direction) D2 are displayed on the bronchial shape image 2a, and A VBS image corresponding to the position and orientation information is displayed.
  • the image processing unit 25 performs image processing so that an endoscopic image corresponding to the position and orientation information is displayed adjacent to the VBS image, for example, as indicated by a dotted line. In this case, it may be displayed at a position adjacent to the VBS image so as to be easily compared at the same display magnification. Furthermore, one of the VBS image and the endoscopic image may be displayed movably so that the operator can superimpose (combine) one image on the other image with a mouse or the like. This makes it easier for the operator to check the degree of image matching. Furthermore, the image processing unit 25 may perform image processing for displaying the current endoscopic image input from the CCU 8 around the VBS image or the endoscopic image. FIG.
  • 2D shows an example of candidate information based on position and orientation information recorded most recently before the occurrence of the signal when an image matching error signal is generated, for example.
  • the surgeon can input the display number of candidate information from the input device 31 and appropriately set the display number of candidate information such as a VBS image displayed on the monitor 32 at the same time.
  • the surgeon refers to the VBS image in FIG. 2D and moves the distal end of the insertion portion 11, for example, so that the current endoscopic image sufficiently matches the VBS image displayed on the monitor 32.
  • the alignment operation is performed so as to be in a state.
  • the alignment processing unit 25a obtains information on the viewpoint position and the line-of-sight direction of the VBS image in the setting state in which the alignment is sufficiently matched, and uses the information as the tip of the insertion unit 11 thereafter. It is used as information on the position and orientation of In this way, the processing after step S2 is repeated. Note that the current endoscopic image shown in FIG.
  • 2D is converted into both the VBS image and an endoscopic image (recorded reference endoscopic image) that matches the VBS image with a predetermined accuracy. You may make it superimpose display.
  • the operator can confirm the degree of alignment between the current endoscopic image and the VBS image by adjusting the position of the distal end of the insertion portion 11 including its posture, The degree of alignment between the endoscope image and the reference endoscope image can be confirmed.
  • the VBS image is an image that does not take into account fine irregularities such as wrinkles on the inner wall of the bronchus 2, whereas the reference endoscopic image is an image obtained by capturing the inside of the bronchus 2 actually captured at the preceding time. Therefore, it may be easier to confirm the degree of alignment by comparing the endoscope images.
  • the surgeon can easily confirm the degree of alignment in the two superimposed images (VBS image and current endoscopic image, reference endoscopic image and current endoscopic image) in this embodiment.
  • the degree of alignment can be confirmed with reference to the superimposed image (or both superimposed images).
  • step S7 the controller 26 causes the operator to input the input device 31 in step S10. From this, it is detected whether an instruction signal (trigger) for presenting candidate information is generated.
  • step S8 If there is a trigger, the process proceeds to step S8. On the other hand, if there is no trigger in step S10, in the next step S11, the position / orientation calculation unit 25b determines whether or not the distal end of the insertion unit 11 has been inserted to the target position.
  • the surgeon inserts as shown in step S12 with reference to the display of the position and orientation information of the distal end of the insertion portion 11 displayed on the monitor 32.
  • the tip of the part 11 is inserted into the deep side of the bronchus 2.
  • step S12 the process returns to step S2, and the position and orientation of the distal end of the insertion portion 11 are estimated. If the target position is inserted in step S11, the insertion operation in FIG. 3 is terminated.
  • posture information is recorded as position and posture information together with the position of the distal end of the endoscope so as to facilitate realignment and the like. Therefore, according to the present embodiment, the insertion unit 11 serving as candidate information for presentation that can be used when re-alignment is performed during the operation of the operator inserting the insertion unit 11. Is recorded in the position / orientation information recording unit 27, and in the case where estimation of the position of the tip of the insertion unit 11 or the like fails, presentation candidate information suitable for alignment may be presented. Therefore, the insertion operation can be performed smoothly.
  • the position and orientation of the tip of the insertion unit 11 are estimated using image processing for image matching, an error is detected from the initial alignment state by the image processing algorithm. It gradually becomes larger.
  • FIG. 4 shows a configuration of an endoscope system 1B of a first modification example in the first embodiment.
  • An endoscope system 1B shown in FIG. 4 is the same as the endoscope system 1 shown in FIG. 1, but the distal end of the imaging device 16 or the insertion portion 11 is further positioned in the vicinity of the imaging device 16 in the distal end portion 13 of the insertion portion 11.
  • a position sensor 41 for detecting the position is provided.
  • measurement processing that performs processing for measuring (detecting) a three-dimensional position (also simply referred to as a position) of the position sensor 41 at a predetermined position in the insertion support apparatus 5 outside the endoscope 3 and the subject.
  • An apparatus or measurement processing unit 42 is provided. A detection signal from the position sensor 41 is input to the measurement processing unit 42.
  • the measurement processing unit 42 uses a position sensor 41 to calculate or estimate a three-dimensional position of the distal end of the insertion unit 11 inserted into the bronchus 2 as a predetermined luminal organ. (Or position estimation unit) 42b. In this case, the position calculation unit 25c in the image processing unit 25 is not provided. As a means or method for position calculation (position estimation) in this modification, for example, a method using magnetism can be used.
  • a position sensor 41 composed of a coil detects an alternating magnetic field generated from a plurality of antennas 42a connected to the measurement processing unit 42, and the amplitude and phase of the signal in the signal detected by the position sensor 41 (amplitude detection)
  • the distance from the antenna 42a to the position sensor 41 is measured by the measurement processing unit 42 (provided with a circuit and a phase detection circuit).
  • the measurement processing unit 42 can specify the three-dimensional position of the position sensor 41 by providing three or more antennas 42a at different known positions.
  • an AC signal is applied to a coil constituting the position sensor 41 to generate an AC magnetic field around the coil, and the AC magnetic field is detected on the antenna 42a side to calculate or detect the position of the position sensor 41.
  • a magnetic position detection device using a coil has been described.
  • the configurations of the position sensor 41 and the measurement processing unit 42 are not limited to those described above.
  • a plurality of coils for position detection are arranged at predetermined intervals along the longitudinal direction of the insertion portion 11, the shape of the insertion portion 11 is estimated from the positions of the plurality of coils, and the position of the distal end portion 13 or the like is detected. You may be able to do that.
  • the position information of the tip of the insertion unit 11 calculated (estimated) by the measurement processing unit 42 is output to the control unit 26 and the image processing unit 25.
  • the position (position information) in the first coordinate system as the CT coordinate system for managing the image data of the three-dimensional shape of the bronchus 2 and the sensor coordinates based on the antenna of the position sensor 41 Position alignment with the position (position information) in the second coordinate system as the system is performed.
  • the image processing unit 25 may have a function of a registration processing unit 25a that performs registration and registration of both coordinate systems and controls the registration, and the control processing unit 26 indicates a registration processing unit 26c as indicated by a dotted line. You may have the function.
  • FIG. 5 is an explanatory diagram of the registration operation.
  • the operator sequentially sets the distal end portion 13 (or the position sensor 41) of the endoscope 3 at, for example, four points Q0 to Q3 in the vicinity of the entrance of the bronchus 2, and the first coordinate system O-XYZ and the second coordinate system are set.
  • An instruction or instruction input for associating positions in the coordinate system o-xyz is performed from the input device 31.
  • the input device 31 forms an instruction input unit or an instruction input unit that gives an instruction for position association.
  • the tip 13 (or the position sensor 41) is moved to a position Q0 (0, 0, 0) of the origin O in the first coordinate system O-XYZ, a position Q1 (1, 0, 0) on the X coordinate, Y
  • the operator sequentially sets the position Q2 (0, 1, 0) on the coordinates and the position Q3 (0, 0, 1) on the Z coordinates, and the surgeon instructs the position association.
  • the measurement processing unit 42 sequentially measures each position at (x0, y0, z0), (x1, y1, z1), (x2, y2, z2), (x3, y3, z3).
  • the control unit 26 performs position association and controls to record the position association information in the position / orientation information recording unit 27.
  • Position association information in this case (specifically, Q0 (0, 0, 0), Q1 (1, 0, 0), Q2 (0, 1, 0), Q3 in the first coordinate system O-XYZ) (0, 0, 1) is (x0, y0, z0), (x1, y1, z1), (x2, y2, z2), (x3, y3, z3) in the second coordinate system o-xyz.
  • the position / orientation information recording unit 27 records information corresponding to each of the information.
  • the alignment processing unit 26 c determines conversion information that associates arbitrary positions in both coordinate systems using the position association information stored in the position and orientation information recording unit 27.
  • the alignment processing unit 26 c records this conversion information in the position / orientation information recording unit 27.
  • the coordinate positions Q0 (0, 0, 0), Q1 (1, 0, 0), Q2 (0, 1, 0), Q3 (0, 0, 1) and the corresponding coordinate positions ( x0, y0, z0), (x1, y1, z1), (x2, y2, z2), (x3, y3, z3) are simplified to Q0 ⁇ (x0, y0, z0), Q1 ⁇ (x1, y1, z1), Q2 ⁇ (x2, y2, z2), and Q3 ⁇ (x3, y3, z3).
  • position association may be performed (determined) with three points from which one point is omitted.
  • the surgeon sequentially brings the distal end portion 13 of the endoscope 3 into contact with the position specified in the first coordinate system.
  • a VBS image is used as a method of expressing the position specified in the first coordinate system. That is, the surgeon operates the endoscope 3 so that the VBS image and the endoscope image look the same.
  • the information on the line-of-sight direction when the VBS image is generated is the information on the line-of-sight direction at the distal end of the insertion unit 11 (in other words, the posture information). ) Is acquired (set).
  • the surgeon After the position matching process is completed in this way, the surgeon starts inserting the insertion portion 11 of the endoscope 3 into the bronchus 2 and performing an endoscopic examination.
  • the position of the CT coordinate system (first coordinate system) corresponding to the position of the distal end of the insertion unit 11 estimated by the position calculation unit (position estimation unit) 42b is the inside of the lumen of the bronchus 2
  • the positional deviation between the two coordinate systems becomes clear as in the case where the above condition is not satisfied, it is determined that the position estimation has failed.
  • Other configurations are the same as those of the first embodiment shown in FIG.
  • the position of the distal end of the insertion unit 11 is estimated using the position sensor 41, and the positioning processing unit 26c of the control unit 26 performs the positioning again when the positioning fails. Except for the change to, almost the same processing as in FIG. 3 showing the operation of the first embodiment is performed.
  • the alignment processing unit 25a of the image processing unit 25 has a function of a second alignment processing unit configured to perform alignment by image matching.
  • the alignment processing unit 25a has a function of an alignment monitoring processing unit configured to monitor the alignment state of both coordinate systems by image matching. For example, when the distal end of the insertion unit 11 is inserted into the bronchus 2, the position of the endoscope image and the position calculation unit 42b in the second coordinate system changes as the distal end of the insertion unit 11 moves.
  • the VBS image generated by the position information of the CT coordinate system (first coordinate system) and input to the image processing unit 25 also changes corresponding to the change of the position in the second coordinate system.
  • the alignment processing unit 25a of the image processing unit 25 monitors both images, and when the shift amount of both images shifts to a preset value or more, the registration fails (or the alignment is necessary). Is determined. Further, in this modification, from the condition that the position of the CT coordinate system (first coordinate system) corresponding to the position of the distal end of the insertion section 11 estimated by the position calculation section 42b is inside the lumen of the bronchus 2. Even when the positional deviation between the two coordinate systems becomes clear as in the case of deviating, it is determined that the alignment has failed (or the alignment is necessary).
  • the position / posture information is recorded in the position / posture information recording unit 27 when the predetermined condition is satisfied, and the insertion unit 11 is recorded.
  • the position of the tip of the head is unsuccessful, it can be presented as candidate information for presentation. Therefore, the positioning can be performed again in a short time, and the insertion operation can be performed smoothly. it can.
  • the position of the tip of the insertion portion 11 is estimated using the position sensor 41 after the initial alignment, and when the distance from the aligned position increases, the initial alignment state Therefore, the error tends to increase.
  • the position sensor 41 is used, and the position is re-adjusted using image matching so that the error is sufficiently small, and the operation for insertion from the vicinity of the re-aligned position to the deeper side is performed. It becomes possible to perform smoothly.
  • the angle when it is determined whether or not the calculated angle ⁇ is equal to or smaller than a predetermined threshold ⁇ th, the angle may be changed according to the branch order of the bronchus 2.
  • FIG. FIG. 6 changes a part of the processing of FIG. Steps S1-S3 in FIG. 6 are the same as those in FIG. 3, and in step S21 following step S3, the image processing unit 25 acquires the branch order, and then proceeds to step S4.
  • Steps S4 to S5 are the same as those in FIG. 3, and in step S6 ′ subsequent to step S5, the condition determination unit 26b determines that the calculated angle ⁇ is equal to or less than a predetermined threshold ⁇ thj set corresponding to the order.
  • step S7 It is determined whether or not.
  • the processing subsequent to step S7 after step S6 ' is the same as in the case of FIG. For this reason, step S7 and subsequent steps are omitted in FIG.
  • the condition for recording position and orientation information can be changed according to the position of the distal end of the insertion portion 11 inserted into the bronchus 2. For example, if the moving distance from the entrance increases as if it has moved to the distal side of the bronchus 2, the accuracy of calculating the position and orientation tends to decrease. That is, there is a possibility that the frequency of recording the position / orientation information for performing the alignment again is reduced.
  • a branch order number in which the bronchus 2 branches sequentially from the insertion port of the bronchus 2 to the target position on the peripheral side of the bronchus 2 may be used.
  • the condition determination unit 26b determines whether or not the angle ⁇ d formed by the two line-of-sight directions is equal to or larger than the second predetermined threshold ⁇ dth, but the configuration other than the condition determination unit 26b An element (for example, the direction comparison unit 25f or the line-of-sight direction detection unit 25e) may perform this. Further, the information of the second predetermined threshold value ⁇ dth is recorded in, for example, the position / orientation information recording unit 27.
  • FIG. 7 shows a part of a flowchart of a typical example of the operation in the present embodiment. FIG. 7 differs from FIG. 3 only in some processes.
  • step S1 to step S6 in FIG. 7 Processing from step S1 to step S6 in FIG. 7 is the same as the processing shown in FIG.
  • the condition determination unit 26b uses the latest position and orientation information recorded in the position and orientation information recording unit 27.
  • the line-of-sight direction Dre is read and sent to the image processing unit 25.
  • step S32 for example, the direction comparison unit 25f calculates an angle ⁇ d formed by the current line-of-sight direction calculated in step S5 and the line-of-sight direction Dre read from the position / orientation information recording unit 27, and the condition determination unit 26b. Send to.
  • step S33 the condition determination unit 26b determines whether or not the angle ⁇ d is equal to or greater than the second threshold ⁇ dth. If the determination result is that the angle ⁇ d is equal to or greater than the second predetermined threshold ⁇ dth, the current position / orientation information is recorded in the position / orientation information recording unit 27 together with the VBS image and time in the next step S7.
  • step S10 In the case of the determination result that the angle ⁇ d is not equal to or greater than the second predetermined threshold ⁇ dth, the process proceeds to step S10.
  • Other processes in FIG. 7 are the same as those in FIG.
  • the angle ⁇ calculated in step S5 is determined to be equal to or smaller than the predetermined threshold value ⁇ th in the next step S6, the position / orientation information at the time of the determination (current). Is recorded in the position / orientation information recording unit 27 over time.
  • step S6 when it is determined in step S6 that the angle ⁇ is equal to or smaller than the predetermined threshold ⁇ th, the position and orientation information recorded in the position and orientation information recording unit 27 immediately before that time is used.
  • the line-of-sight direction Dre is read, and the angle ⁇ d formed with the line-of-sight direction at that time is calculated. Only when the angle ⁇ d is equal to or greater than the second predetermined threshold value ⁇ dth, the position and orientation information at that time Is recorded in the position / orientation information recording unit 27 over time.
  • the present embodiment records the position / orientation information at that time only in the first embodiment when the direction of sight line changes significantly when recorded immediately before. Then, excessive recording of position and orientation information under similar conditions is avoided.
  • the distal end of the insertion portion 11 passes through a position where it branches off from the position where it is inserted and moves to the bronchial branch side, which is the peripheral side, it is expected that the line-of-sight direction will change when passing through the branching position. Therefore, the position and orientation information at the time of such movement can be recorded.
  • the second predetermined threshold value ⁇ dth may be automatically determined as follows.
  • a position / orientation information recording unit 27 which forms a branch information recording unit configured to record branch information including the three-dimensional position and branch angle of the branch point.
  • the branch information recording unit automatically determines the second predetermined threshold ⁇ dth, and using the determined second predetermined threshold ⁇ dth, the direction comparing unit 25f The angle ⁇ d formed by the past gaze direction recorded in the position / orientation information recording unit 27 and the current gaze direction detected by the gaze direction detection unit 25e is compared with the determined second predetermined threshold value ⁇ dth.
  • the branch information recording unit exists along the target position side from the three-dimensional position based on the three-dimensional position of the distal end of the insertion unit 11 when the current gaze direction is detected by the gaze direction detection unit 25e.
  • the second predetermined threshold value ⁇ dth in the branch information of the next branch point to be determined may be automatically determined.
  • the second predetermined threshold ⁇ dth (candidate information) is recorded in association with the branch information including the three-dimensional position and the branch angle of each branch point where the bronchus 2 branches in the middle of reaching the target position.
  • a second predetermined threshold value recorded in advance in association with the branching information of the branching point where the tip of the insertion unit 11 is expected to reach next based on the information of the three-dimensional position where the tip of the unit 11 is presently present ⁇ dth is selectively determined.
  • the second predetermined threshold value ⁇ dth is automatically set even when the branch angle at the midway branch point is different. It is possible to effectively assist the operator in inserting the distal end of the insertion portion 11.
  • the latest line-of-sight direction Dre recorded in step S31 is read and the angle ⁇ d formed with the current line-of-sight direction is calculated.
  • the latest line-of-sight direction is used.
  • This embodiment has the same configuration as that shown in FIG.
  • This embodiment further includes means for reducing the frequency of recording the position and orientation information in the first or second embodiment.
  • the frequency of recording increases because the frequency of the inserted insertion portion 11 being inserted in parallel with the core wire increases.
  • the position / posture information to be performed will increase more than the amount of information desired by the surgeon.
  • the second embodiment and its modification if the insertion portion 11 is staggered in a portion having a large bronchial diameter, the frequency of recording increases, and the recorded position and orientation information.
  • the amount of information desired by the surgeon may increase. Increasing the position / orientation information to be recorded other than what is required reduces usability for the surgeon.
  • FIG. 8 shows a flowchart of a typical processing example in the present embodiment.
  • steps S1 to S6 are the same as those in FIG.
  • the processing is the same as the processing in FIG. 3 except that the processing in steps S41 to S43 described below is provided between step S6 and step S7.
  • step S6 When the angle ⁇ calculated in step S6 satisfies the condition equal to or less than the predetermined threshold ⁇ th, for example, the position calculation unit 25c having the function of the distance calculation unit in step S41 has a distance L1 from the tip position recorded last time. It is determined whether or not a condition equal to or greater than the threshold value Lth1 is satisfied. If this condition is satisfied, the process proceeds to step S7. If this condition is not satisfied, the process proceeds to step S42. In step S42, the branch image recognition unit that recognizes a branch image from the endoscopic image provided in the image processing unit 25 by image processing determines whether or not a condition for viewing the branch image in the endoscopic image is satisfied. Do.
  • the endoscopic image is binarized with a certain threshold value, and it is determined whether there are a plurality of dark portions having a certain number of pixels. If this condition is satisfied, the process proceeds to step S7. If this condition is not satisfied, the process proceeds to step S43.
  • the position calculation unit 25c having the function of the distance calculation unit in step S43 satisfies the condition that the distance L2 between the position of the distal end of the insertion unit 11 and the point on the core line 35 closest to the position of the distal end is equal to or less than the threshold value Lth2. It is determined whether or not.
  • the distance thresholds Lth1 and Lth2 may be set as follows.
  • the threshold values Lth1 and Lth2 may be set to the same value for all bronchi 2, may be set to a value corresponding to the value of the bronchus diameter for each bronchus 2, or may be set to a site or bronchus order You may set to the value according to.
  • the distances L1 and L2 may be distances along a straight line between two points, or may be calculated from a point on the core wire 35 closest to the position of the distal end of the insertion portion 11 and a path on the core wire 35 to the branch point. (Measurement) may be performed.
  • step S6 and steps S41 to S43 in FIG. 8 may be changed.
  • the processing of steps S41 to S43 may be performed before the determination processing of step S6, and the determination processing of step S6 may be performed when any of the conditions is satisfied.
  • the distance calculation unit monitors whether or not the distal end of the insertion unit 11 has moved a predetermined distance interval or more from the position of the distal end of the insertion unit 11 that previously recorded the position and orientation information. If it has moved, the determination process of step S6 may be performed, and if the determination condition of step S6 is satisfied, the position and orientation information may be recorded in step S7.
  • step S6 it is determined whether or not the distance calculation unit has moved the distal end of the insertion unit 11 from the position of the distal end of the insertion unit 11 by a predetermined distance interval or more. Monitoring is performed, and when the movement is over a predetermined distance interval, the process of step S6 (or steps S5 and S6) is performed. When the determination condition of step S6 is satisfied, the position / orientation information may be recorded in step S7.
  • the direction comparison unit 25f as the direction comparison unit compares the line-of-sight direction with the core line direction when the moving distance of the distal end of the insertion unit 11 is equal to or greater than a predetermined distance interval in the lumen of the bronchus 2. Including doing.
  • This embodiment has a direction change detection unit 25i as shown by the dotted line in FIG. 1 or FIG. 3 in the first embodiment, and the direction change detection unit 25i observes the distal end of the insertion unit 11 of the endoscope 3.
  • the direction (azimuth) of the endoscopic image captured through the objective lens 15 fixed to the window (imaging window) is compared with the direction of the endoscopic image when the position and orientation information is recorded one time before. .
  • the position and orientation information is recorded when the condition that the angle ⁇ ro between the two directions is equal to or greater than the threshold value ⁇ ros, in other words, when the angle ⁇ ro between the two directions is sufficiently large.
  • the direction (azimuth) of the endoscopic image has the same meaning as the direction around the insertion portion 11 as follows.
  • the VBS image used for image matching has the distal end (the objective lens 15) of the insertion portion 11 in a predetermined direction (orientation) together with the viewpoint and line-of-sight direction in the CT coordinate system.
  • it is generated corresponding to what is photoelectrically converted by the CCD 16 fixed in a predetermined direction (orientation).
  • the vertical direction when the endoscopic image is displayed on the monitor 9 is on the imaging surface of the CCD 16 (around the circumference of the insertion portion 11) so as to coincide with the vertical bending direction when the bending portion 19 is bent.
  • the direction is preset.
  • the direction (azimuth) of the endoscopic image does not change unless the insertion unit 11 is rotated around its circumferential direction. Therefore, the direction change detection unit 25i has a function of a direction change detection unit that detects a change in the direction of the endoscopic image or a change in the direction around the insertion unit 11.
  • the direction change detection unit 25i detects a change in the direction of the endoscope image or a change in the direction around the insertion unit 11, the direction change detection unit 25i starts from a predetermined direction (or a reference direction) of the endoscope image or the like. It is also possible to detect a change in.
  • the upper direction of the endoscopic image may be set as a predetermined direction, and a change from the upper direction of the endoscopic image may be detected.
  • FIG. 9 shows a part of typical processing in the present embodiment.
  • steps S1 to S6 are the same as those in FIG.
  • the process proceeds to step S51.
  • the direction change detection unit 25i determines the direction of the endoscopic image in the current state of the distal end of the insertion unit 11, and the direction of the endoscopic image at the time of the previous recording (recording once for this time).
  • the angle ⁇ ro formed by the two directions is calculated, and it is further determined whether or not the angle ⁇ ro formed by the two directions satisfies a condition equal to or greater than the threshold value ⁇ roth.
  • step S7 ′ in addition to the current position and orientation information as described above, information on the direction (azimuth) of the endoscope image is also stored in the position and orientation information recording unit 27. Record. If the determination result does not satisfy the condition in step S51, the process proceeds to step S10. Other processes are the same as those in FIG.
  • position and orientation information can be recorded with an appropriate amount of information without excessively recording position and orientation information, and usability (convenience) for the user can be improved.
  • Other effects are the same as those of the first embodiment.
  • the angle ⁇ ro formed by the (circumferential) direction of the distal end of the current insertion portion 11 and the direction recorded one time before is compared in step S51.
  • the angle ⁇ ron formed with the recorded direction is compared, and the current position / orientation information may be recorded in the position / orientation information recording unit 27 when the angle ⁇ ron is equal to or greater than the threshold ⁇ ronth.
  • the difference angle from the predetermined direction is calculated, and the difference angle from the upper direction is also recorded when the difference angle is recorded in the position / orientation information recording unit 27. May be recorded.
  • FIG. 10 is an explanatory diagram of the operation of the present embodiment.
  • the condition of the first embodiment is applied to the region R1 where the distal end of the insertion portion 11 exists, and the second portion is applied to the region R2.
  • the conditions of the third embodiment are applied, and the conditions of the third embodiment are applied to the region R3.
  • a region is set as shown in FIG. 10 up to a position away from the branch point by a certain distance on the core line and otherwise.
  • b) Region included in sphere centered at bifurcation point and other region c) Distance from carina d) Bronchial order e) Bronchial diameter calculated from tomographic image f) Previous restart (re-alignment)
  • Each area is set according to the distance from the position. Further, a plurality of these conditions may be combined. According to the present embodiment, the effects of the above-described embodiment can be obtained, and the conditions for recording by the user can be selected in more detail.
  • an embodiment configured by partially combining a plurality of the first to fourth embodiments including the above-described modification examples also belongs to the present invention.
  • the three-dimensional image data of the bronchus 2 as a predetermined luminal organ may not be extracted from the CT image data, but directly generated by volume rendering from the CT image data. .

Abstract

 内視鏡システムは、予め取得した被検体における3次元画像情報を記憶する画像記憶部と、3次元画像情報から所定の管腔臓器を抽出する管腔臓器抽出部と、内視鏡の挿入部の先端に設けられた対物光学系と、対物光学系による視線方向を検出する視線方向検出部と、管腔臓器抽出部により抽出された所定の管腔臓器の芯線方向と視線方向とを比較する方向比較部と、芯線方向と視線方向とのなす角が所定の閾値以下の場合に内視鏡の挿入部の先端の位置及び姿勢の情報を記録する位置姿勢情報記録部と、を備える。

Description

内視鏡システム
 本発明は、被検体内を撮像手段により撮像する内視鏡システムに関する。
 近年、体腔内等に挿入可能な挿入部を有する内視鏡は医療分野などにおいて広く用いられるようになっている。 
 一方、体腔内における気管支のように複雑に分岐した管腔臓器内に挿入して管腔臓器の末端側の目標部位(の患部組織)を検査、又は処置具による生検や処置を行うような場合においては、挿入した際に得られる内視鏡画像のみでは、目標部位付近まで挿入部先端を導入することが困難な場合がある。
 このため、目標部位付近まで内視鏡の挿入部先端を導入する作業を支援するための表示等を行うシステム又は装置が提案されている。
 例えば、第1の従来例としての日本国特開2011-189074号公報は、気管支に挿入される挿入部と、挿入部に配設される複数のFBGセンサ部と、予め取得した気管支の3次元画像データを記憶する記憶部と、FBGセンサ部のデータから挿入部の形状を測定する形状測定部と、記憶部に記憶される3次元画像データから気管支の芯線を算出する芯線算出部と、形状測定部が測定する形状と芯線算出部が算出する芯線とをもとに、挿入部の位置を算出する位置算出部と、を具備する医療装置を開示している。そして、芯線を抽出することにより、挿入部の先端の位置と方向とを算出する。
 また、第2の従来例としての日本国特開2012-24518号公報は、予め取得した被検体の3次元画像から被検体の管状組織(管状臓器)の中心線を取得し、前記管状組織に挿入された内視鏡を前記管状組織の長手方向に沿って移動しつつ撮影された内視鏡画像を表示し、表示された前記内視鏡画像に前記管状組織の1つの特徴領域が表示されたときに、前記内視鏡の基準位置を入力するとともに前記中心線上に前記1つの特徴領域に対応する位置を設定し、前記基準位置からさらに移動された前記内視鏡の移動量及び進行方向を取得し、前記1つの特徴領域に対応する位置から、前記中心線に沿って、前記取得した進行方向に前記取得した移動量だけ離れた位置を現在位置として算出し、算出された現在位置を表す指標を前記中心線上に表示させる支援装置を開示している。そして、管状臓器の芯線と、撮像手段の移動量及び進行方向により撮像手段の位置を算出する。
 上記第1の従来例は、芯線を抽出することにより、挿入部の先端の位置を算出する観点を開示し、第2の従来例は、管腔臓器の芯線と撮像手段(内視鏡先端)の移動量及び進行方向によって、撮像手段(内視鏡先端)の位置を算出することを開示しているが、挿入部の先端の位置の算出(推定)に失敗した場合に必要になる再度の位置合わせを行うのに適した情報を記録することを開示していない。 
 再度の位置合わせを行うような場合には、単に芯線の情報のみだけを挿入部の先端の位置に関する情報として記録するよりも、対物光学系を介して撮像手段により撮像する場合の視線方向等の姿勢情報も記録して、再度の位置合わせを行い易くすることが望まれる。 
 本発明は上述した点に鑑みてなされたもので、再度の位置合わせ等を行い易くするように内視鏡の先端の位置の情報と共に姿勢の情報を記録する内視鏡システムを提供することを目的とする。
 本発明の一態様の内視鏡システムは、予め取得した被検体における3次元画像情報を記憶するよう構成された画像記憶部と、前記3次元画像情報から所定の管腔臓器を抽出するよう構成された管腔臓器抽出部と、内視鏡の挿入部の先端に設けられた対物光学系と、前記対物光学系による視線方向を検出するよう構成された視線方向検出部と、前記管腔臓器抽出部により抽出された前記所定の管腔臓器の芯線方向と前記視線方向とを比較するよう構成された方向比較部と、前記芯線方向と前記視線方向とのなす角が所定の閾値以下の場合に前記内視鏡の挿入部の先端の位置及び姿勢の情報を記録するよう構成された位置姿勢情報記録部と、を備える。
図1は本発明の第1の実施形態の内視鏡システムの全体構成を示す図。 図2Aは気管支の形状画像としての気管支形状画像を示す図。 図2Bは図2Aに示す気管支形状画像上に内視鏡の挿入部の先端の位置と方向とを重畳して表示した様子を示す図。 図2Cは視線方向と芯線方向とのなす角を比較する様子の説明図。 図2Dは再度の位置合わせを行う際にモニタに表示する情報の表示例を示す図。 図3は第1の実施形態の代表的な処理例を示すフローチャート。 図4は位置センサを備えた第1の実施形態の第1変形例の内視鏡システムの全体構成を示す図。 図5は第1変形例における2つの座標系の位置合わせの説明図。 図6は第2変形例における処理の一部を示すフローチャート。 図7は本発明の第2の実施形態における処理の一部を示すフローチャート。 図8は本発明の第3の実施形態における処理の一部を示すフローチャート。 図9は本発明の第4の実施形態における処理の一部を示すフローチャート。 図10は本発明の第5の実施形態における動作の説明図。
  以下、図面を参照して本発明の実施形態を説明する。 
(第1の実施形態)
 図1に示すように本発明の第1の実施形態の内視鏡システム1は、検査対象となる被検体としての患者における所定の管腔臓器としての気管支2(図2A)内に挿入される内視鏡3を備えた内視鏡装置4と、この内視鏡装置4と共に使用され、内視鏡3の挿入支援を行うための挿入支援装置5と、から主に構成される。 
 内視鏡装置4は、内視鏡3と、この内視鏡3に照明光を供給する光源装置6と、内視鏡3に搭載された撮像手段(撮像部)を構成する撮像素子7に対する信号処理を行う信号処理装置としてのカメラコントロールユニット(CCUと略記)8と、CCU8により生成された内視鏡画像を表示する表示装置(表示部)としてのモニタ9と、を有する。
 内視鏡3は、可撓性を有する細長の挿入部(又は内視鏡挿入部)11と、この挿入部11の後端に設けられた操作部12とを有し、挿入部11の先端付近に設けた先端部13には照明窓と観察窓とが設けられる。挿入部11,操作部12内には照明光を伝達するライトガイド14が挿通され、このライトガイド14の後端の入射端は光源装置6に接続され、光源装置6内の図示しない光源ランプ又はLEDにより発生した照明光が入射端に入射される。このライトガイド14により伝達された照明光は、照明窓に取り付けられた出射端(先端面)から前方に出射される。 
 また、観察窓には、被写体を結像する対物光学系を形成する対物レンズ15が取り付けられ、その結像位置に電荷結合素子(CCD)等の撮像素子7が配置され、対物レンズ15と撮像素子7とにより、挿入部11が挿入される所定の管腔臓器としての気管支2内部を被写体として撮像する撮像手段(撮像部)としての撮像装置16が形成される。
 なお、本実施形態においては、対物レンズ15の光軸方向は、挿入部11の先端部13(又は先端)の軸方向又は長手方向と平行である。従って、撮像装置16により被写体を撮像する撮像方向(又は撮像装置16を介してユーザが見る視線方向)は、対物レンズ15の光軸方向に沿った対物レンズ15の前方側(撮像素子7と反対側)の方向となる。また、対物レンズ15の光軸方向と、挿入部11の先端部13の軸方向又は長手方向は一致すると近似できる。 
 このため、本実施形態においては、対物レンズ15を介しての撮像素子7の撮像方向又は視線方向は、挿入部11の先端の軸方向又は長手方向と一致すると近似できる。そして、少なくとも挿入部11の先端に配置された対物レンズ15の撮像方向又は視線方向の情報によって挿入部11の先端の位置と姿勢が決定し、逆に挿入部11の先端の位置と姿勢の情報から対物レンズ15の撮像方向又は視線方向が決定する。
 本実施形態においては、挿入部11の先端の位置と姿勢を、挿入部11の先端の位置と先端の軸方向又は長手方向又は対物レンズ15の視線方向と言い換えることもできる。 
 なお、本発明は、図1に示すように先端部13に撮像装置16を設けた構成の内視鏡3に限らず、先端部13に設けた対物レンズ15の結像位置にファイババンドルで構成したイメージガイドの先端面を配置したファイバススコープと、該イメージガイドの接眼部にTVカメラを装着したカメラ装着内視鏡の場合にも適用できる。いずれの内視鏡の場合にも先端部13には、少なくとも対物レンズ15が配置されている。このため、撮像装置16の視線方向よりも対物レンズ15の視線方向または対物レンズ15による視線方向を主に用いる。
 撮像素子7は、挿入部11,操作部12内を挿通された信号線を介してCCU8に接続される。CCU8は、その内部の画像信号生成回路8aにより撮像素子7の撮像面に結像された光学像に対応する撮像画像の画像信号を生成し、この画像信号をモニタ9に出力する。モニタ9は、画像信号の画像(動画像)を、内視鏡画像として表示する。 
 内視鏡3の挿入部11における先端部13の後端には湾曲自在の湾曲部19が設けてあり、術者は操作部12に設けた湾曲操作ノブ20を回転する操作を行うことにより、図示しないワイヤを介して湾曲部19を上下、左右の任意の方向に湾曲することができる。 
 上記挿入支援装置5は、内視鏡3による検査が行われる患者に対して、公知のCT装置で生成された患者の3次元画像情報としてのCTデータを、DVD、ブルーレイディスク、フラッシュメモリ等の可搬型の記憶媒体を介して取り込むCTデータ取込部21と、このCTデータ取込部21によって取り込まれたCTデータを記憶するCT画像データ記憶部22とを有する。
 なお、CT画像データ記憶部22は、CT装置で生成された(被検体としての患者の3次元画像情報としての)CTデータを通信回線、インタネット等を経由して記憶しても良い。このCT画像データ記憶部22は、ハードディスク装置や、フラッシュメモリ、DVD等により構成することができる。
 また、画像記憶手段を構成するCT画像データ記憶部22は、CTデータより画像データを分離したCT画像データと、CTデータより位置情報を分離した該CT画像データに対応する第1の座標系を用いた3次元の位置データとを対応付けた対応付け画像情報として記憶する対応付け画像情報記憶部22aを有する。 
 また、挿入支援装置5は、CT画像データ記憶部22のCT画像データから所定の管腔臓器としての気管支2の3次元画像データを抽出する管腔臓器抽出手段としての管腔臓器抽出回路等からなる気管支抽出部23を有する。
 この気管支抽出部23は、抽出した気管支2の3次元データ(より具体的には3次元のボリュームデータ)から、気管支2の中空形状を表す3次元形状の情報(形状データ)と、3次元形状の画像情報(画像データ)を生成する。つまり、気管支抽出部23は、抽出した気管支2の3次元データから中空の3次元形状の気管支形状の画像としての気管支形状画像を生成する気管支形状画像生成手段としての気管支形状画像生成部23aを有する。なお、気管支抽出部23は、中央処理装置(CPUと略記)等のソフトウェアで構成しても良いし、或いはFPGA(Field Programmable Gate Array)等や、電子回路素子を用いてハードウェアで構成しても良い。なお、後述する画像処理部25、制御部26も同様にCPU等のソフトウェアで構成しても良いし、FPGA、電子回路素子を用いてハードウェアで構成しても良い。
 また、この気管支抽出部23は、気管支2の3次元データを抽出する際、3次元データに対応する第1の座標系(又はCT座標系)での3次元の位置データと対応付けて抽出する。そして、この気管支抽出部23は、気管支2の3次元形状のデータ(つまり気管支形状データ)と3次元の位置データとを対応付けした対応付け情報を記憶するメモリなどからなる対応付け情報記憶部23bを有する。
 また、挿入支援装置5は、内視鏡3における挿入部11の先端部13に設けた対物レンズ15を介して撮像素子7により撮像される内視鏡画像に対応する仮想的な内視鏡画像としての仮想内視鏡画像(VBS画像と言う)を生成する仮想内視鏡画像生成手段を形成するVBS画像生成回路からなるVBS画像生成部24を有する。 
 VBS画像生成部24には、内視鏡3の先端部13に搭載された対物レンズ15と、撮像素子7に関する情報(対物レンズ15の焦点距離、撮像素子7の画素数、画素サイズ等の情報)が、例えば入力装置31から入力される。 
 VBS画像生成部24は、実際に気管支2内に挿入された内視鏡3の先端に配置された対物レンズ15により気管支2内の被写体を撮像素子7の撮像面に結像する結像系の特性情報と、撮像面に結像された光学像を内視鏡画像に変換する撮像素子7の画素サイズ、画素数などの情報と、気管支形状データに基づいて、気管支2内に挿入された前記内視鏡3の挿入部11の先端のCT座標系での3次元位置(単に位置とも言う)を視点位置として、対物レンズ15の視線方向に沿った気管支2内を内視鏡的に撮像した内視鏡画像を仮想的に描画してVBS画像を生成する。
 つまり、VBS画像生成部24は、CT座標系において挿入部11の先端(の対物レンズ15)の位置を視点位置として、該視点位置に対物レンズ15を、その光軸が視線方向に沿うように仮想的に配置してその結像位置に撮像素子7の撮像面が仮想的に配置されているとして、その撮像面に結像される気管支2内の画像をVBS画像として生成する。 
 従って、内視鏡画像とVBS画像との両画像を十分に一致するように画像マッチングさせた状態においては、CT座標系でのVBS画像の視点位置と視線方向の情報から内視鏡3の挿入部11の先端の位置と、先端に配置された対物レンズ15の視線方向と殆ど一致する先端の長手方向の姿勢の情報を取得することができる。後述する位置姿勢算出部25bは、このようにして位置姿勢情報を算出(推定)する。 
 なお、内視鏡3が各内視鏡3に固有の識別情報を発生するROM等から構成される識別情報発生部を有する場合には、挿入支援装置5に接続された内視鏡3の識別情報に基づいて、VBS画像生成部24が、自動的にその内視鏡3に搭載された対物レンズ15と撮像素子7の情報を取得して、対応するVBS画像を生成するようにしても良い。
 また、挿入支援装置5は、CCU8から入力される内視鏡画像と、VBS画像生成部24のVBS画像との位置合わせを画像マッチングで行うよう構成された位置合わせ処理部25a等の画像処理を行うよう構成された画像処理部25と、画像処理部25等の制御を行うよう構成された制御手段としての制御部26と、制御部26の制御下で挿入支援するための情報として利用される挿入部11の先端の位置及び姿勢の情報を記憶するよう構成された位置姿勢情報記録手段としての位置姿勢情報記録部27とを有する。なお、挿入部11の先端の姿勢は、本実施形態においては、(先端に配置された対物レンズ15の視線方向と殆ど一致する)先端の長手方向又は軸方向で決定する。 
 また、挿入支援装置5は、CT画像データ記憶部22に記憶されたCT画像データに基づき多断面再構築画像としてのCT断層画像(MPR画像という)を生成するよう構成されたMPR画像生成部28と、MPR画像生成部28が生成したMPR画像を有する挿入経路の設定画面としての経路設定画面を生成し、内視鏡3の気管支2内の目標部位側へ挿入する際の経路を設定するよう構成された経路設定部29とを有する。
 そして、例えばCT画像データから図2Aに示すように目標部位36を指定した場合、経路設定部29はCT画像データと気管支形状画像2aとから気管支2における(挿入部11の)挿入開始位置から目標部位36近傍となる目標位置までの経路データを生成する経路データ生成部(又は経路データ生成回路)29aの機能を有する。なお、図2Aにおいては、気管支2における管腔が気管支枝に分岐する境界のスパーSpi(i=1,2,3,4,5)や、管腔の中心線としての芯線35が分岐する分岐点Biを示している。 
 また、内視鏡システム1は、経路設定部29に対して設定情報を入力するキーボードやポインティングデバイス等からなる入力装置31を有する。また、術者は、この入力装置31から画像処理部25に対して、画像処理を行う際のパラメータや、データを入力したり、制御部26に対して制御動作を選択や、指示することができる。
 また、術者が経路設定を行った場合、経路設定部29は設定された経路の情報をVBS画像生成部24、MPR画像生成部28、制御部26に送る。VBS画像生成部24及びMPR画像生成部28は、それぞれ経路に沿ったVBS画像、MPR画像を生成し、制御部26は経路に沿って各部の動作の制御を行う。 
 上記画像処理部25には、CCU8により生成された内視鏡画像と、VBS画像生成部24により生成されたVBS画像とが入力される。また、気管支形状画像生成部23aにより生成された気管支形状画像2aも、画像処理部25に入力される。 
 本実施形態においては、撮像装置16が配置された挿入部11の先端部13に、挿入部11の先端の位置を検出するセンサを搭載していないため、画像処理部25の位置合わせ処理部25aは、画像マッチングによって挿入部11の先端の位置と、その姿勢としての先端の長手方向又は軸方向を推定(又は算出)する。つまり、位置合わせ処理部25aは、画像マッチングによって挿入部11の先端の位置及び姿勢の情報を算出する位置姿勢算出手段としての位置姿勢算出部(位置姿勢算出回路)25bの機能を有する。
 補足説明すると、予め、気管支2の入口やカリーナK(図2A参照)等、気管支形状画像2aからCT座標系により特定できる3次元位置(既知となる位置)又はその近傍位置を画像マッチングの開始位置として設定すると共に、対物レンズ15の視線方向及び光学特性を考慮して設定したその位置姿勢情報を基にVBS画像生成部24はVBS画像を生成する。 
 そして、術者は内視鏡画像がVBS画像と同じように見えるように挿入部11の先端を挿入する。このような位置合わせを行うことにより、画像処理部25の位置合わせ処理部25aは、内視鏡画像とVBS画像とが設定された条件(所定の精度を確保できる誤差以内)で一致するように画像マッチングの処理を開始する。このような処理を行うことにより、位置合わせ処理部25aは、挿入部11の先端の位置と対物レンズ15の視線方向(又は先端の長手方向)で決定する姿勢とを推定により検出又は算出する位置姿勢算出手段としての位置姿勢算出部(位置姿勢算出回路)25bの機能を有する。
 なお、位置姿勢算出部25bは、挿入部11の先端の3次元位置を推定により検出又は算出する位置算出手段としての位置算出部(位置算出回路)25cの機能を有する。
 後述する図4に示す変形例のように先端部13に位置検出の位置センサ41を設け、該位置センサ41を用いて挿入部11の先端の3次元位置を検出(算出)する位置算出部42bを構成し、画像マッチングにより姿勢を算出しても良い。なお、本明細書においては、挿入部11の先端は、内視鏡3の先端と同じ意味で用いる。 
 また、画像処理部25は、対物レンズ15を介して撮像素子7により取得される内視鏡画像と、VBS画像とを比較する画像比較手段としての画像比較部(画像比較回路)25dと、対物レンズ15による視線方向を検出する視線方向検出手段としての視線方向検出部(視線方向検出回路)25eと、気管支2の管腔の中心線の方向としての芯線方向と、視線方向とを比較する方向比較手段としての方向比較部(方向比較回路)25fとを有する。
 また、画像処理部25は、視線方向検出部25eが視線方向を検出した挿入部11の先端の位置付近での芯線方向を算出(取得)する芯線方向算出部(芯線方向算出回路)25gを有する。芯線方向算出部25gは、例えば視線方向検出部25eが視線方向を検出した挿入部11の先端の位置付近に対応するCT座標系での芯線35の接線又はこれに近い方向を(視線方向と比較する際の)芯線方向として算出する。そして、方向比較部25fは、上記視線方向と芯線方向算出部25gにより算出された芯線方向とを比較する。視線方向検出部25e又は方向比較部25fが、芯線方向算出部25gの機能を備える構成にしても良い。方向比較部25fが芯線方向算出部25gの機能を備える構成の場合には、方向比較部25fは、管腔臓器抽出部を構成する気管支抽出部23により抽出された所定の管腔臓器としての気管支の芯線方向を算出し、算出した芯線方向と視線方向検出部25eにより検出された視線方向とを比較する。 
 上記位置姿勢算出部25bは、画像比較部25dにより内視鏡画像と、VBS画像とが予め設定された条件以内で一致した場合の比較結果の場合に、挿入部11の先端の位置及び姿勢の情報(換言すると、挿入部11の先端の位置及び対物レンズ15の視線方向の情報)を算出(取得)する。
 上記視線方向検出部25eは、挿入部11の先端の長手方向を検出する先端方向検出手段と殆ど等価であり、上記位置姿勢算出部25bが挿入部11の先端の位置及び姿勢の情報を算出した際の姿勢の情報から視線方向を算出(検出)する。このため、位置姿勢算出部25bが視線方向検出部25eの機能を備える構成にしても良い。 
 また、画像処理部25は、制御部26における表示を制御するよう構成された表示制御部26a等の制御の下で、モニタ32に表示する画像を生成するよう構成された画像生成部の機能を有する。 
 また、画像処理部25は、画像比較部25dが画像の比較を行う場合の内視鏡画像と、VBS画像との画像データ等を一時的に記憶したり、位置や姿勢や視線方向等のデータを一時的に記憶する画像メモリ25hと、後述するように内視鏡画像の回転的な変化の有無をモニタすることにより、内視鏡画像の回転的な変化の有無の検出結果に基づいて挿入部11の回転的な方向変化を検出する方向変化検出手段を構成するよう構成された方向変化検出部(方向変化検出回路)25i(図1において点線で示している)とを有する。
 表示制御部26aの制御下で、画像処理部25は、通常は、気管支形状画像生成部23aにより生成された気管支形状画像2aの画像信号(映像信号)をモニタ32に出力し、モニタ32には図2Aに示すように気管支形状画像2aが例えば管腔の中心を通る方向に沿った断面で切り出した2次元断層画像として表示される。なお、2次元断層画像で表示する場合に限定されるものでなく、3次元画像で表示しても良い。3次元画像で表示する場合には、例えば平行投影法による投影図や、管腔内部が分かるように透視図で表示しても良い。 
 また、図2Aに示すように、モニタ32において表示される気管支形状画像2aには、気管支2の管腔の中心を通る芯線35も表示するようにしている。芯線35は、例えば気管支形状画像生成部23aが生成するが、画像処理部25において芯線35を生成しても良い。
 術者等のユーザは、挿入部11をその先端から気管支2内に挿入する場合、芯線35が表示されるため、その表示を参考にすることによって、挿入部11の挿入の操作が行い易くなる。また、芯線35に沿って挿入する操作を行うことにより、画像マッチングによる挿入部11の先端の位置及び姿勢を算出(推定)する処理を短時間に行うことができる。 
 画像処理部25は、気管支2の深部側(末端側)に挿入する操作において、内視鏡画像とVBS画像との両画像のマッチング(画像マッチング)を利用して、CT座標系のもとで挿入部11の先端の移動した位置及び姿勢の他に、移動距離を算出する処理を行うこともできる。 
 つまり、ある位置において両画像がマッチングしている場合、挿入部11の先端を芯線35に沿って(挿入のために)移動する操作に伴って、内視鏡画像が変化する。
 この場合、位置合わせ処理部25a又は位置姿勢算出部25bは、芯線35に沿った経路上で移動した場合の(VBS画像生成部24から出力される)VBS画像を用いて前記内視鏡画像と最も良くマッチングするVBS画像を画像処理により選出し、選出したVBS画像に対応する3次元位置を挿入部11の先端の位置として算出(推定)する。従って、位置姿勢算出部25bや位置算出部25cは、移動した移動距離も2つの位置の差分量から算出(推定)することができる。 
 なお、挿入部11の先端は、芯線35上から外れた位置において移動される場合もあるため、芯線35から適宜の距離だけ偏心した位置においてのVBS画像をVBS画像生成部24が生成し、生成したVBS画像を位置合わせ処理部25aに出力することができるようにしている。このようにして、画像マッチングによる位置算出の範囲を拡大できるようにしている。上記制御部26は、位置合わせ処理部25aにより算出した挿入部11の先端の位置により経路データ生成部29aによって、(内視鏡3の挿入部11の挿入前に)生成された経路データを補正するようにしても良い。
 また、制御部26は、画像処理部25(の位置姿勢算出部25b)により算出された挿入部11の先端が所定の条件を満たすか否かの判定を行う条件判定部(条件判定回路)26bの機能を有する。条件判定部26bは、所定の条件を満たす判定結果の場合に、該当する挿入部11の先端の位置及び(対物レンズ15の視線方向に対応する)姿勢の情報、つまり位置姿勢情報をメモリ等により構成される位置姿勢情報記録部27に記録させる。 
 このため、条件判定部26bは、位置姿勢情報を位置姿勢情報記録部27に記録させる記録制御手段としての記録制御部(記録制御回路)の機能を有する。なお、位置姿勢情報を位置姿勢情報記録部27に記録させる場合、位置姿勢情報の他に、該位置姿勢情報に対応するVBS画像と、その記録の時間とを位置姿勢情報に関連付けて位置姿勢情報記録部27に記録させるようにしても良い。
 このようにすると、再度の位置合わせを行うために提示する情報(候補情報とも言う)を提示する場合、位置姿勢情報に対応するVBS画像を取得して表示することを短時間に表示できる。また、記録する時の時間を記録しておくことにより、例えば再度の位置合わせを行う時間に近い過去の情報を選択的に表示したり、所定の時間間隔内における複数の情報を表示するように制御することが可能になる。また、情報を表示(提示)する際に、時間を表示することにより、術者が、情報の時間的変化などを把握し易くなる。 
 なお、VBS画像を記録しない場合においても、記録した位置姿勢情報から、該位置姿勢情報に対応するVBS画像を取得して表示することも可能になる。しかし、挿入部11を気管支2の深部側の目標とする目標位置まで挿入する過程において、再度の位置合わせ等を行い、以前の位置合わせの際の座標系を補正したような場合には、該補正等を考慮してVBS画像を取得して表示することが必要となる。上記のようにVBS画像も記録しておくと、再度の位置合わせの有無に関係なく、各位置姿勢情報に対応するVBS画像を短時間に表示することができる。
 本実施形態においては、方向比較部25fにより比較された気管支2の芯線方向と、視線方向検出部25eにより検出された視線方向とのなす角θが所定の閾値以下となる場合を、上記所定の条件を満たす場合に設定している。なお、所定の閾値の情報は、例えばメモリ等から構成される位置姿勢情報記録部27に記録されているが、位置姿勢情報記録部27以外のメモリ等の記録装置に記録しても良い。 
 上記方向比較部25fは、気管支2の芯線方向と、視線方向とのなす角θが所定の閾値以下となる場合に、この場合の挿入部11の先端の位置及び姿勢の情報を位置姿勢情報記録部27に記録させるように制御する。なお、図1では条件判定部26bを制御部26内部に設けた構成で示しているが、画像処理部25内に条件判定部26bを設けた構成にしても良い。 
 また、方向比較部25fが、条件判定部26bの機能を備えた構成にしても良い。なお、上記両方向のなす角θを用いて、上記所定の条件を設定する代わりに、以下の内積を利用しても良い。上記芯線方向と、視線方向の各単位ベクトルを算出(設定)し、両ベクトルの内積を算出して、算出された内積の値が閾値以上となる場合を、上記所定の条件を満たす場合に設定しても良い。
 両方向のなす角θが所定の閾値以下となる条件は、挿入部11の先端の視線方向が芯線方向と概略同じとなるため、その場合には、気管支2の末梢側が見える状態となり、その状態では近くに分岐部が存在すると、挿入する場合の特徴領域となる分岐部を視野内に捕らえられ、位置合わせも行い易くなる。これに対して、所定の条件を満たすか否かに無関係に、位置姿勢情報を記録すると、位置合わせに不適切な情報も含まれてしまい、再度の位置合わせを円滑に行い難くなる。
 位置姿勢情報記録部27に位置姿勢情報を記録する場合、挿入部11の先端の位置及び姿勢と、該先端の位置及び姿勢に対応するVBS画像を(その視線方向又は姿勢の情報と共に)記録し、提示が必要な場合に提示する候補情報として記録するようにしても良い。 
 つまり、位置姿勢情報記録部27は、挿入部11の先端の位置姿勢情報と、該位置姿勢情報に対応するVBS画像及びVBS画像の生成に用いるCT座標系の位置及び視線方向の情報等のVBS画像生成情報とを記録する位置姿勢情報&VBS画像生成情報記録部27aを備えた構成にしても良い。
 また、位置姿勢情報記録部27等に記録された情報は、読み出すことにより、モニタ32に位置合わせの候補となる候補情報として提示(表示)が可能な情報であるので、候補情報として記録する候補情報記録部の機能を有するとも言える。 
 なお、上記位置姿勢情報、該位置姿勢情報に対応するVBS画像、その記録の時間と共に、該位置姿勢情報に対応する内視鏡画像も位置姿勢情報記録部27に記録するようにしても良い。そして、位置姿勢情報記録部27に記録されたVBS画像と共に記録された内視鏡画像を、再度の位置合わせを行う場合に利用することができるようにしても良い。 
 本実施形態においては、挿入部11を気管支2内の目標位置まで挿入する操作の過程において、上述した視線方向と芯線方向とのなす角θが所定の閾値以下の条件を満たす場合には、挿入部11の先端の位置及び姿勢の情報等を位置姿勢情報記録部27に記録する。
 また、挿入部11の先端の位置姿勢情報の代わりに芯線方向算出部25gが算出した芯線上の点と芯線方向を記録するようにしても良い。この場合、VBS画像は記録した位置姿勢情報から取得して表示することになる。
 これにより、画像マッチングによる最初の位置合わせ後から挿入部11の移動操作により挿入部11の先端の(画像マッチングを利用した)位置推定の精度が低下して、再度の位置合わせ(又は再位置合わせ)を行うことが必要になった場合等においては、その再位置合わせのための情報を候補情報として提示することができるようにしている。 
 再位置合わせを行う指示を術者が入力装置31を構成するキーボード、マウス等から画像処理部25又は制御部26に指示入力しても良い。 
 再位置合わせの指示等がされる(又はトリガ入力される)と、制御部26の表示制御部26aは、現在の挿入部11の先端の位置付近における候補情報を位置姿勢情報記録部27から読み出し、画像処理部25を経てモニタ32において候補情報を提示する制御を行う。
 モニタ32において候補情報を提示する制御を行う表示制御部26aは、候補情報提示の制御を行うよう構成された候補情報提示制御部の機能を有する。また、画像処理部25は、表示制御部26aの候補情報提示の制御を受けて、候補情報をモニタ32に表示するよう構成された候補情報生成部の機能を有する。 
 なお、表示制御部26aが、位置姿勢情報記録部27から情報を読み出し、画像処理部25を経ることなくモニタ32において候補情報を提示するように制御しても良い。モニタ32において候補情報を提示する場合、例えば2次元断層画像として図2Dに示す気管支形状画像2a上に、画像比較に関する(又は画像比較により)候補情報における挿入部11の先端の位置及び姿勢の情報と、該候情報に対応するVBS画像を表示する。 
 上述したように、画像処理部25の位置合わせ処理部25aは、挿入部11の先端が移動された場合、画像マッチングを利用して挿入部11の先端及び姿勢を推定(算出)するが、設定された精度以内で画像マッチングすることができなくなる画像マッチングエラーが発生する場合がある。
 この場合には、画像処理部25の位置合わせ処理部25aは、画像マッチングエラーの信号を発生し、モニタ32において画像マッチングエラーが発生したことを表示する。また、位置合わせ処理部25aは、画像マッチングエラーの信号を制御部26に送り、制御部26の表示制御部26aは、モニタ32において候補情報を提示する制御を行う。そして、上記モニタ32は、術者に対して候補情報を提示するよう構成された候補情報提示手段(候補情報提示部)を形成する。 
 術者は、候補情報を用いて再度の位置合わせ処理を行う。再度の位置合わせ処理を行うことにより、術者はこの再度の位置合わせ処理を行った位置付近から挿入部11の挿入操作を続行することができるようになる。 
 また、術者が画像マッチングの精度が悪化したと判断した場合は、再位置合わせの指示をして上記の処理をさせてもよい。
 このような構成の内視鏡システム1は、予め取得した被検体における3次元画像情報を記憶する画像記憶手段を形成するよう構成されたCT画像データ記憶部22と、前記3次元画像情報から所定の管腔臓器としての気管支2を抽出する管腔臓器抽出手段を形成するよう構成された気管支抽出部23と、内視鏡3の挿入部11の先端に設けられた対物光学系としての対物レンズ15と、対物レンズ15による視線方向を検出する視線方向検出手段を形成するよう構成された視線方向検出部25eと、前記管腔臓器抽出手段により抽出された前記所定の管腔臓器の芯線方向と前記視線方向とを比較する方向比較手段を形成するよう構成された方向比較部25fと、前記芯線方向と前記視線方向とのなす角が所定の閾値以下の場合に前記内視鏡3の挿入部11の先端の位置及び姿勢の情報を記録する位置姿勢情報記録手段を形成するよう構成された位置姿勢情報記録部27と、を備えることを特徴とする。
 次に本実施形態における代表的な処理を図3のフローチャートを参照して説明する。図1の内視鏡システム1における内視鏡装置4,挿入支援装置5の電源が投入され、各部が動作状態になると、図3に示す最初のステップS1において、内視鏡3の挿入部11の先端を患者の気管支2の入口の位置等、術者が内視鏡画像で位置を判断しやすい部位を少なくとも1つ基準位置に設定する。 
 そして、画像処理部25の位置合わせ処理部25aは、基準位置におけるVBS画像生成部24のVBS画像(の画像信号)をモニタ32に出力する。術者は、入力装置31から基準位置の1つを指定し、挿入部11の先端を指定した基準位置に挿入するとともに、画像処理部25の位置合わせ処理部25aに対して位置合わせの処理を行うように指示する。
 ステップS1の位置合わせの処理を行った後、ステップS2に示すように位置合わせ処理部25a(の位置姿勢算出部25b)は、位置合わせ処理の結果を基に挿入部11の先端の位置及び姿勢を画像マッチングにより推定(算出)する。具体的には、画像マッチングの初期値として位置合わせの位置の情報を使用して、内視鏡画像と最も良くマッチングするVBS画像を画像処理により算出する。 
 ステップS3において位置合わせ処理部25aは、画像マッチングにより挿入部11の先端の位置及び姿勢の推定が所定条件以内(例えば推定位置が気管支内部にあるか)でできたか否か(つまり位置及び姿勢の推定が成功したか否か)の判定を行う。ステップS3の判定が成功の場合には、ステップS4に示すように画像処理部25(の画像生成部)は、位置姿勢算出部25bにより推定された挿入部11の先端の位置を、気管支形状画像2a上における推定された位置に重畳して表示する画像処理を行う。図2Bは、ステップS4の画像処理により生成された画像の表示例を示す。
 図2Bは、気管支2内に挿入された内視鏡3の挿入部11の先端側を2点鎖線で示すと共に、その形状画像としての気管支形状画像2aにおける、推定された挿入部11の先端の位置P1及び姿勢に対応する先端の長手方向又は視線方向D1を(気管支形状画像2aに)重畳して表示した様子を示す。
 なお、図2Bにおいては、挿入部11の先端の姿勢に対応する長手方向又は視線方向D1を矢印で示している。また、ステップS3の判定処理が成功した場合には、ステップS4と共に、ステップS5の処理が行われる。 
 ステップS5において視線方向検出部25eは、位置姿勢算出部25bにより推定(算出)された挿入部11の先端の姿勢の情報から対物レンズ15の視線方向D1を算出する。また、芯線方向算出部25gは、視線方向D1が算出された前記挿入部11の先端の位置付近での芯線方向E1を算出する。そして、方向比較部25fは、視線方向D1と芯線方向E1とを比較し、比較結果を条件判定部26bに出力する。
 次のステップS6において条件判定部26bは、視線方向D1と芯線方向E1とのなす角θが予め設定された所定の閾値θth以下か否かを判定する。 
 図2CはステップS5の処理の様子を示す。図2Cでは挿入部11の先端の推定された位置をP1、その視線方向をD1で示している。また、位置P1に最も近い芯線35の位置をC1で示し、芯線方向算出部25gは、この位置C1においてその芯線方向E1を算出し、方向比較部25fは両方向を比較する。なお、芯線方向算出部25gは、例えば位置P1から芯線35への交点に至る長さが最小となる垂線の場合の位置をC1として芯線方向E1を算出するようにしても良い。また、位置P1から芯線35へ下した垂線に近い条件を満たす位置において、芯線方向E1を算出するようにしても良い。
 図2Cでは、方向比較部25fにより両方向のなす角θが算出された様子を示す。条件判定部26bは、比較結果としての算出された角θが所定の閾値θth以下か否かを判定する。図2Cに示すように算出された角θが所定の閾値θth以下となる判定結果の場合には、次のステップS7において位置姿勢情報記録部27は、該判定結果の場合の挿入部11の先端の位置及び姿勢の情報としての位置姿勢情報を、(該位置姿勢に対応する)VBS画像及び判定結果の時間と共に記録した後、ステップS10の処理に移る。なお、この場合、その位置姿勢に対応する内視鏡画像もその位置姿勢に関連付けて記録しても良い。なお、ステップS7において、位置姿勢情報のみ、又は位置姿勢情報と時間の情報、又は位置姿勢情報とVBS画像を記録するようにしても良い。
 一方、ステップS3の推定が失敗した場合にはステップS8の処理に移る。ステップS8において、位置合わせ処理部25aは、画像マッチングエラーの信号を発生する。この信号は、候補情報の提示の信号となり、制御部26に入力される。 
 制御部26の表示制御部26aは、候補情報の提示の制御を行う。表示制御部26aは、候補情報の提示の信号の発生前に、位置姿勢情報記録部27に記録された位置姿勢情報と対応するVBS画像とを含む情報を候補情報としてモニタ32に表示するように制御した後、ステップS1の処理に戻る。
 図2Dはモニタ32に表示される候補情報の例を示す。図2Dにおいて、画像マッチングエラーの信号が発生した状態の挿入部11の先端の位置P3を模式的に示す(実際には位置P3は不定となる)。その際に、位置姿勢情報記録部27に記録された位置姿勢情報に基づいてモニタ32には、先端の位置P2とその姿勢(視線方向)D2とが気管支形状画像2a上に表示され、かつ該位置姿勢情報に対応するVBS画像が表示される。
 また、本実施形態においては、画像処理部25は、例えば点線で示すように前記位置姿勢情報に対応する内視鏡画像を、VBS画像に隣接して表示されるように画像処理する。この場合、VBS画像に隣接した位置に、同じ表示倍率で比較し易いように表示するようにしても良い。 
 さらに、VBS画像又は内視鏡画像の一方を移動自在に表示し、術者がマウス等で一方の画像を他方の画像上に重畳表示(合成表示)することができるようにしても良い。このようにすると、画像マッチングの程度を術者が確認し易くなる。 
 さらに、画像処理部25は、CCU8から入力される現在の内視鏡画像も、VBS画像又は内視鏡画像の周辺に表示する画像処理を行うようにしても良い。 
 なお、図2Dは、例えば、画像マッチングエラーの信号が発生した場合、該信号が発生する前において最新に記録された位置姿勢情報による候補情報の例を示す。術者が入力装置31から、候補情報の表示数を入力して、モニタ32に同時に表示されるVBS画像等の候補情報の表示数を、適宜に設定することもできる。
 術者は、図2DのVBS画像を参考にして、例えば挿入部11の先端を移動する等して、現在の内視鏡画像が、モニタ32上に表示されているVBS画像と十分に一致する状態となるように位置合わせの操作を行う。そして、位置合わせ処理部25aは、十分に一致する位置合わせした設定状態において、その設定状態でのVBS画像の視点位置と視線方向の情報を取得して、その情報を以後の挿入部11の先端の位置及び姿勢の情報として用いる。このようにして、ステップS2以降の処理を繰り返す。 
 なお、図2Dに示す現在の内視鏡画像を、VBS画像と、該VBS画像に所定の精度で画像マッチングする内視鏡画像(記録された基準の内視鏡画像)との両方の画像に重畳表示させるようにしても良い。この状態においては、術者が挿入部11の先端の位置をその姿勢を含めて調整することにより、現在の内視鏡画像とVBS画像との位置合わせの程度を確認することができると共に、現在の内視鏡画像と、基準の内視鏡画像との位置合わせの程度を確認することができる。
 VBS画像は、気管支2の内壁の襞などの細かい凹凸を考慮していない画像であるのに対して、基準の内視鏡画像は先行した時間において実際に撮像した気管支2内を撮像した画像であるため、内視鏡画像同士で比較した方が位置合わせの程度を確認することが行い易い場合もある。術者は、本実施形態における2つの重畳画像(VBS画像と現在の内視鏡画像、基準の内視鏡画像と現在の内視鏡画像)において、位置合わせの程度を確認することが行い易い重畳画像(又は両方の重畳画像)を参考にして、位置合わせの程度を確認することができる。 
 上記図3のステップS6において算出された角θが所定の閾値θthを超える場合、又はステップS7において位置姿勢情報等を記録した場合には、ステップS10において制御部26は、術者が入力装置31から候補情報の提示の指示信号(トリガ)を発生させているか検出する。
 これは画像マッチングの推定が失敗していることを検出できない場合、例えば、内視鏡が急激に動くと画像マッチングによる推定位置が所定条件(気管支内部にあるか)を満たしているが、明らかに別の位置であるという場合、術者が位置合わせを再度行うと判断したときに指示信号を発生させる。そして、トリガ有りの場合には、ステップS8の処理に移る。 
 一方、ステップS10のトリガがない場合には、次のステップS11において位置姿勢算出部25bは、挿入部11の先端が目標位置まで挿入されたか否かの判定を行う。 
 挿入部11の先端が目標位置まで挿入されていない場合には、術者は、モニタ32に表示される挿入部11の先端の位置姿勢情報の表示を参考にして、ステップS12に示すように挿入部11の先端を気管支2の深部側に挿入する。
 ステップS12の処理の後に、ステップS2に戻り、挿入部11の先端の位置及び姿勢の推定処理を行う。ステップS11において目標位置まで挿入された場合には、図3の挿入の操作を終了する。 
 このように動作する本実施形態においては、再度の位置合わせ等を行い易くするように内視鏡の先端の位置と共に姿勢の情報を位置姿勢情報として記録する。従って、本実施形態によれば、術者が挿入部11を挿入する操作を行った場合の最中において、再度の位置合わせを行う場合に用いることができる提示用の候補情報としての挿入部11の先端の位置姿勢情報を位置姿勢情報記録部27に記録し、挿入部11の先端の位置の推定等が失敗したような場合に、位置合わせに適した提示用の候補情報を提示することができるようにしているので、挿入の操作を円滑に行うことができる。 
 また、本実施形態においては、画像マッチングの画像処理を利用して挿入部11の先端の位置及び姿勢の推定を行うようにしているため、画像処理のアルゴリズムにより最初の位置合わせの状態から誤差が次第に大きくなり易くなる。
 このような場合にも、再度の画像マッチングによる再度の位置合わせにより、誤差を十分に小さくして、再度の位置合わせした位置付近からより深部側への挿入の操作を行うことが可能になる。 
 図4は第1の実施形態における第1変形例の内視鏡システム1Bの構成を示す。図4に示す内視鏡システム1Bは、図1の内視鏡システム1において、さらに挿入部11の先端部13内における撮像装置16の近傍の位置に、撮像装置16又は挿入部11の先端の位置を検出するための位置センサ41が設けてある。 
 また、内視鏡3及び被検体の外部となり、挿入支援装置5内の所定の位置には、この位置センサ41の3次元位置(単に位置とも記す)を計測(検出)する処理を行う計測処理装置又は計測処理部42が設けてある。位置センサ41による検出信号は、計測処理部42に入力される。
 この計測処理部42は、位置センサ41を用いて所定の管腔臓器としての気管支2内に挿入される挿入部11の先端の3次元位置を算出又は推定する位置算出手段としての位置算出部(又は位置推定部)42bの機能を有する。この場合には、画像処理部25内の位置算出部25cを有しない。 
 本変形例の位置算出(位置推定)の手段又は方法としては、例えば磁気を利用したものを利用できる。計測処理部42に接続された複数のアンテナ42aから発せられる交流磁場をコイルで構成された位置センサ41が検知し、この位置センサ41で検知した信号における、その信号の振幅及び位相を(振幅検出回路及び位相検出回路を備えた)計測処理部42が検出することによりアンテナ42aから位置センサ41までの距離を計測する。計測処理部42は、3つ以上となる複数のアンテナ42aをそれぞれ異なる既知の位置に設けることにより、位置センサ41の3次元位置を特定することが可能になる。
 なお、位置センサ41を構成するコイルに交流信号を印加して、その周囲に交流磁場を発生させ、アンテナ42a側で交流磁場を検知して位置センサ41の位置を算出又は検出する構成にしても良い。一例としてコイルを用いた磁気式位置検出装置を説明したが、位置センサ41及び計測処理部42の構成は、上記説明の場合に限定されるものでない。 
 例えば、挿入部11の長手方向に沿って所定間隔で位置検出のための複数のコイルを配置し、複数のコイルの位置から挿入部11の形状を推定し、先端部13等の位置を検出することができるようにしても良い。計測処理部42により算出(推定)された挿入部11の先端の位置情報は、制御部26と画像処理部25とに出力される。
 本変形例の場合には、気管支2の3次元形状の画像データを管理するCT座標系としての第1の座標系での位置(位置情報)と、位置センサ41のアンテナを基準としたセンサ座標系としての第2の座標系での位置(位置情報)との位置合わせを行う。例えば画像処理部25は、両座標系の位置合わせ(レジストレーション)及びその制御を行う位置合わせ処理部25aの機能を持っても良いし、制御部26が点線で示すように位置合わせ処理部26cの機能を持っても良い。 
 図5はレジストレーションの動作の説明図を示す。例えば気管支2の入り口付近における例えば4点Q0-Q3に、術者は内視鏡3の先端部13(又は位置センサ41)を順次設定して、第1の座標系O-XYZと第2の座標系o-xyzにおいてそれぞれ位置対応付けする指示又は指示入力を入力装置31から行う。このため、入力装置31は、位置対応付けの指示を行う指示入力部又は指示入力手段を形成する。
 例えば、先端部13(又は位置センサ41)を、第1の座標系O-XYZにおける原点Oの位置Q0(0,0,0),X座標上の位置Q1(1,0,0)、Y座標上の位置Q2(0,1,0)、Z座標上の位置Q3(0,0,1)、に順次設定して、術者が位置対応付けの指示を行う。この指示において、各位置において計測処理部42が順次計測した位置を(x0,y0,z0)、(x1,y1,z1)、(x2,y2,z2)、(x3,y3,z3)とすると、制御部26は位置対応付けを行い、位置対応付け情報を位置姿勢情報記録部27に記録するように制御する。 
 この場合の位置対応付け情報(具体的には、第1の座標系O-XYZにおけるQ0(0,0,0)、Q1(1,0,0)、Q2(0,1,0)、Q3(0,0,1)は、第2の座標系o-xyzにおいては(x0,y0,z0)、(x1,y1,z1)、(x2,y2,z2)、(x3,y3,z3)がそれぞれ対応する情報)を位置姿勢情報記録部27は記録する。
 また、位置合わせ処理部26cは、位置姿勢情報記録部27に記憶した位置対応付け情報を用いて両座標系の任意の位置を対応つける変換情報を決定する。位置合わせ処理部26cは、この変換情報を位置姿勢情報記録部27に記録する。 
 図5においては、座標位置Q0(0,0,0),Q1(1,0,0),Q2(0,1,0),Q3(0,0,1)と、それぞれ対応する座標位置(x0,y0,z0)、(x1,y1,z1)、(x2,y2,z2)、(x3,y3,z3)とを簡略化してQ0⇔(x0,y0,z0)、Q1⇔(x1,y1,z1)、Q2⇔(x2,y2,z2)、Q3⇔(x3,y3,z3)で示している。なお、図5に示す4点でなく、そのうちの1点を省略した3点で位置対応付けを行う(決定する)ようにしても良い。
 具体的には、術者は第1の座標系で指定された位置に内視鏡3の先端部13を順次接触させることになる。このとき、第1の座標系で指定された位置を表現する方法として、VBS画像を用いる。つまり、術者はVBS画像と内視鏡画像が同じに見えるよう内視鏡3を操作する。また、VBS画像と内視鏡画像が同じに見えるように設定した状態において、そのVBS画像を生成した場合の視線方向の情報を、挿入部11の先端の視線方向の情報(換言すると姿勢の情報)として取得(設定)する。 
 このように位置対応付けの処理が終了した後、術者は、内視鏡3の挿入部11を気管支2内に挿入して内視鏡検査を行うことを開始する。 
 本変形例においては、位置算出部(位置推定部)42bにより推定された挿入部11の先端の位置に対応するCT座標系(第1の座標系)の位置が気管支2の管腔の内側となる条件から外れる場合のように、両座標系の位置ずれが明らかとなる場合に位置推定が失敗した状態と判定する。その他の構成は、図1に第1の実施形態と同様である。
 本変形例の動作は、挿入部11の先端の位置を位置センサ41を用いて推定すること、位置合わせが失敗した場合に行う再度の位置合わせを制御部26の位置合わせ処理部26cが行うことに変更したことを除けば第1の実施形態の動作を示す図3と殆ど同じ処理を行う。 
 本変形例の場合には、画像処理部25の位置合わせ処理部25aは、画像マッチングによる位置合わせを行うよう構成された第2の位置合わせ処理部の機能を有する。 
 また、位置合わせ処理部25aは、両座標系の位置合わせの状態を、画像マッチングにより監視するよう構成された位置合わせ監視処理部の機能を有する。例えば、挿入部11の先端が気管支2内に挿入された場合、挿入部11の先端の移動と共に、内視鏡画像と位置算出部42bによる第2の座標系での位置が変化する。
 また、第2の座標系での位置の変化に対応してCT座標系(第1の座標系)の位置情報により生成されて画像処理部25に入力されるVBS画像も変化する。画像処理部25の位置合わせ処理部25aは両画像を監視し、両画像のずれ量が予め設定された値以上にずれた場合に、位置合わせが失敗した状態(又は位置合わせが必要な状態)と判定する。 
 また、本変形例においては、位置算出部42bにより推定された挿入部11の先端の位置に対応するCT座標系(第1の座標系)の位置が気管支2の管腔の内側となる条件から外れる場合のように、両座標系の位置ずれが明らかとなる場合も位置合わせが失敗した状態(又は位置合わせが必要な状態)と判定する。その他の構成は、図1に第1の実施形態と同様である。 
 本変形例の動作は、挿入部11の先端の位置を位置センサ41を用いて推定すること、位置合わせが失敗した場合に行う位置合わせを制御部26の位置合わせ処理部26cが行うことに変更したことを除けば第1の実施形態の動作を示す図3と殆ど同じ処理を行う。
 本変形例によれば、術者が挿入部11を挿入する操作を行った場合の最中において、所定の条件を満たす場合に位置姿勢情報を位置姿勢情報記録部27に記録し、挿入部11の先端の位置の推定が失敗したような場合に、提示用の候補情報として提示することができるようにしているので、再度の位置合わせを短時間に行え、挿入の操作を円滑に行うことができる。 
 また、変形例においては、最初の位置合わせ後に位置センサ41を用いて挿入部11の先端の位置推定を行うようにしており、位置合わせした位置からの距離が大きくなると、最初の位置合わせの状態から誤差が大きくなり易くなる。このような場合にも、位置センサ41を用いると共に、画像マッチングを用いた再度の位置合わせにより、誤差を十分に小さくして、再度の位置合わせした位置付近からより深部側への挿入の操作を円滑に行うことが可能になる。
 なお、上記第1の実施形態において、算出した角θが所定の閾値θth以下であるか否かを判定する場合、気管支2の分岐の次数に応じて変更するようにしても良い。この第2変形例の場合の処理の一部を図6に示す。図6は、図3の処理の一部を変更している。図6のステップS1-S3は図3と同じであり、ステップS3の次のステップS21において画像処理部25は、分岐の次数を取得した後、ステップS4に移る。 
 また、ステップS4-S5は、図3と同じ処理であり、ステップS5の次のステップS6′において条件判定部26bは、算出された角θが次数に対応して設定された所定の閾値θthj以下か否かを判定する。ステップS6′の次のステップS7以降の処理は、図3の場合と同様である。このため、図6においては、ステップS7以降を省略している。 
 本変形例によれば、気管支2内に挿入された挿入部11の先端の位置に応じて位置姿勢情報を記録する条件を変更することができる。例えば、気管支2の末梢側に移動したように入り口からの移動距離が大きくなると、位置及び姿勢を算出する精度が低下し易くなる傾向になり易い。つまり、再度の位置合わせを行うための位置姿勢情報を記録する頻度が少なくなる可能性がある。このため、例えば分岐の次数が大きくなる程、所定の閾値θthjの値を大きな値に設定することによって、末梢側においても位置合わせを行うことができる位置の間隔が大きくなることを防止するようにしても良い。なお、上記分岐の次数の代わりに、気管支2の挿入口から気管支2の抹消側の目標位置に至るまでに気管支2が順次分岐する分岐順序数を用いても良い。
  (第2の実施形態)
 次に本発明の第2の実施形態を説明する。本実施形態における構成は、図1又は図4と同様である。本実施形態は、第1の実施形態において、所定の条件を満たす場合における今回(又は現在)の視線方向と、位置姿勢情報記録部27に記録された最新の位置姿勢情報における視線方向(記録視線方向)Dreとを比較し、両方視線向のなす角θdが第2の所定の閾値θdth以上となる場合に、今回の位置姿勢情報を位置姿勢情報記録部27に記録する。 
 なお、本実施形態においては、例えば条件判定部26bが、上記の両視線方向のなす角θdが第2の所定の閾値θdth以上となるか否かを判定するが、条件判定部26b以外の構成要素(例えば方向比較部25fや視線方向検出部25e)が行うようにしても良い。また、第2の所定の閾値θdthの情報は、例えば位置姿勢情報記録部27内に記録される。 
 図7は、本実施形態における動作の代表例のフローチャートの一部を示す。図7は、図3において一部の処理が異なるのみとなる。
 図7におけるステップS1からステップS6までは図3に示す処理と同様の処理を行う。ステップS6において算出された角θが所定の閾値θth以下の条件を満たす場合には、次のステップS31において例えば条件判定部26bは、位置姿勢情報記録部27に記録された最新の位置姿勢情報における視線方向Dreを読み出し、画像処理部25に送る。 
 ステップS32において例えば、方向比較部25fは、ステップS5において算出された現在の視線方向と、位置姿勢情報記録部27から読み出された視線方向Dreとのなす角θdを算出し、条件判定部26bに送る。ステップS33において条件判定部26bは、角θdが第2の閾値θdth以上となるか否かを判定する。 
 角θdが第2の所定の閾値θdth以上となる判定結果の場合には、次のステップS7において、現在の位置姿勢情報をVBS画像及び時間と共に、位置姿勢情報記録部27に記録する。
 一方、角θdが第2の所定の閾値θdth以上とならない判定結果の場合には、ステップS10の処理に移る。図7におけるその他の処理は、図3の場合と同様である。 
 第1の実施形態においてはステップS5において算出された角θが、次のステップS6において所定の閾値θth以下と判定された場合には、その判定が行われた時点(現在)での位置姿勢情報が位置姿勢情報記録部27に経時的に記録される。 
 これに対して、本実施形態においては、ステップS6において角θが所定の閾値θth以下と判定された場合には、さらにその時点の直前に位置姿勢情報記録部27に記録された位置姿勢情報における視線方向Dreが読み出され、その時点での視線方向とのなす角θdが算出され、該角θdが第2の所定の閾値θdth以上となる判定結果の場合のみ、その時点での位置姿勢情報が位置姿勢情報記録部27に経時的に記録される。
 換言すると、第1の実施形態において、視線方向と芯線方向とのなす角θが十分に小さい条件を満たすと、その条件を満たす時点での位置姿勢情報が繰り返し記録されるのに対して、本実施形態においては、その時点での視線方向と、その直前に記録されている視線方向とのなす角θdが第2の所定の閾値θdth以上とならない限り、その時点での位置姿勢情報を記録しない。 
 従って、本実施形態は、第1の実施形態において、直前に記録した場合の視線方向とかなり変化した場合においてのみ、その時点の位置姿勢情報を記録する。そして、類似した条件の位置姿勢情報を過度に記録するのを避けるようにしている。挿入部11の先端が挿入されている位置から分岐する位置を通過して、抹消側となる気管支枝側に移動する場合においては、分岐する位置を通過する際に視線方向が変化することが期待できるため、そのような移動の際の位置姿勢情報を記録することができるようにしている。
 本実施形態によれば、第1の実施形態とほぼ同様に位置姿勢情報を記録することができる作用効果を有する他に、過度に類似した位置姿勢情報の記録を避け、適切な情報量の位置姿勢情報に絞って記録することができる。従って、術者などのユーザに対して、必要最小限に近い位置姿勢情報のみを提供でき、再度の位置合わせの際に、候補情報が多すぎることなく、円滑に位置合わせを行うことが可能になる。換言すると、ユーザに対する使い勝手を向上できる。また、本実施形態において、上記第2の所定の閾値θdthを以下のように自動的に決定するようにしても良い。
 上述した経路データ生成部29aにより生成される挿入部11の先端の挿入開始位置から目標部位36近傍となる目標位置までの経路データにおける該目標位置に至る途中においての気管支2が分岐する1つ以上の分岐点の3次元位置及び分岐角を含む分岐情報を記録するよう構成された分岐情報記録部を形成する例えば位置姿勢情報記録部27とを設ける。そして、分岐点の分岐情報に応じて、分岐情報記録部は、第2の所定の閾値θdthを自動的に決定し、決定された第2の所定の閾値θdthを用いて方向比較部25fは、位置姿勢情報記録部27に記録された過去の視線方向と、視線方向検出部25eにより検出された現在の視線方向とのなす角θdが、決定された第2の所定の閾値θdthと比較するようにしても良い。
 また、分岐情報記録部は、視線方向検出部25eにより現在の視線方向が検出された際の前記挿入部11の先端の3次元位置に基づき、当該3次元位置よりも目標位置側に沿って存在する次の分岐点の分岐情報における第2の所定の閾値θdthを自動的に決定するようにしても良い。
 換言すると、目標位置に至る途中においての気管支2が分岐する各分岐点の3次元位置及び分岐角を含む分岐情報に関連付けてそれぞれ第2の所定の閾値θdth(の候補情報)を記録し、挿入部11の先端が現在存在している3次元位置の情報に基づいて、該挿入部11の先端が次に到達すると予想される分岐点の分岐情報に関連付けて予め記録した第2の所定の閾値θdthを選択的に決定する。
 このようにすると、挿入部11の先端を目標部位36側に挿入した場合、途中の分岐点の分岐角などが異なるような場合に対しても、第2の所定の閾値θdthを自動的に設定でき、術者が挿入部11の先端を挿入する作業を有効に支援できる。
 なお、本実施形態においては、ステップS31において記録された最新の視線方向Dreを読み出して、現在の視線方向とのなす角θdを算出していたが、その変形例として、最新の視線方向の場合を含めて整数n回前(例えば最新に記録された視線方向は1回前のn=1に該当)に記録された視線方向Drenを読み出し、現在の視線方向とのなす角を算出するようにしても良い。
 そして、算出した角が上記第2の閾値θdthに対応する閾値θdth′以上か否かを判定し、第2の閾値θdth′以上となる判定結果の場合に、位置姿勢情報を記録するようにしても良い。なお、本変形例の動作は、図7におけるステップS31の処理としてn回前に記録された視線方向Drenを読出すと読み替え、さらにステップS32における視線方向DreをDrenと読み替える動作になる。 
 本変形例は、第1の実施形態と第2の実施形態との中間的な作用効果を有する。
  (第3の実施形態)
 次に本発明の第3の実施形態を説明する。本実施形態は、図1又は図4と同様の構成である。本実施形態は、第1ないしは第2の実施形態において、さらに位置姿勢情報を記録する頻度を削減する手段を備える。 
 第1の実施形態においては、気管支径(気管支の内径)が細い部位においては、挿入された挿入部11が芯線と平行に挿入される頻度が高くなるため、記録する頻度も増えてしまい、記録される位置姿勢情報が、術者が望む情報量よりも増大してしまう可能性がある。 
 また、第2の実施形態及びその変形例においては、気管支径が太い部位においては、挿入部11を挿入する際にふらつかせてしまうと、記録する頻度も増えてしまい、記録される位置姿勢情報が、術者が望む情報量よりも増大してしまう可能性がある。 
 記録する位置姿勢情報は、必要とされるもの以外で増大することは、術者にとって使い勝手が低下する。
 このため、本実施形態においては、図3のステップS7の位置姿勢情報を記録処理の前に、さらに以下のa)~c)の少なくとも1つの条件を満たすか否かを判定する。そして、以下の条件を満たす場合に記録を行うように記録を制限する処理を行うようにして、実際に位置姿勢情報を記録する頻度を減らすようにする。 
 a)前回記録した先端の位置からの距離が閾値Lth以上
 b)内視鏡画像中に分岐の画像が見えるとき
 c)挿入部11の先端の位置と、該先端の位置に最も近い芯線35上の点との距離が閾値Lth2以下
 図8は、本実施形態における代表的な処理例のフローチャートを示す。 
 図8においては、ステップS1からステップS6までは、図3と同じ処理である。また、ステップS6とステップS7との間に、以下に説明するステップS41~S43を設けた処理以外は、図3の処理と同様である。
 ステップS6において算出された角θが所定の閾値θth以下の条件を満たす場合には、ステップS41において距離算出部の機能を持つ例えば位置算出部25cは、前回記録した先端の位置からの距離L1が閾値Lth1以上の条件を満たすか否かを判定する。 
 この条件を満たす場合にはステップS7の処理に進み、この条件を満たさない場合にはステップS42の処理に移る。ステップS42において画像処理部25に設けた内視鏡画像から分岐の画像を画像処理により認識する分岐画像認識部は、内視鏡画像中に分岐の画像が見える条件を満たすか否かの判定を行う。具体的には、内視鏡画像をある閾値にて2値化し、一定の画素数を持つ暗部の個数が複数あるか否かの判定を行う。 
 この条件を満たす場合にはステップS7の処理に進み、この条件を満たさない場合にはステップS43の処理に移る。ステップS43において距離算出部の機能を持つ例えば位置算出部25cは、挿入部11の先端の位置と、該先端の位置に最も近い芯線35上の点との距離L2が閾値Lth2以下の条件を満たすか否かを判定する。
 この条件を満たす場合にはステップS7の処理に進み、この条件を満たさない場合にはステップS10の処理に移る。 
 なお、上記距離の閾値Lth1,Lth2に関しては、以下のように設定しても良い。 
 閾値Lth1,Lth2は、全ての気管支2に対して同じ値に設定しても良いし、気管支2毎に気管支径の値に応じた値に設定しても良いし、又は部位や気管支の次数に応じた値に設定しても良い。 
 また、距離L1,L2は、2点間の直線に沿った距離でも良いし、又は挿入部11の先端の位置に最も近い芯線35上の点と分岐点までの芯線35上での道のりで算出(計測)しても良い。
 本実施形態によれば、位置姿勢情報を過度に記録することを低減(削減)するようにしているので、ユーザに対する使い勝手を向上することができる。その他、第1の実施形態と同様の効果を有する。 
 なお、図8のステップS6とステップS41~S43の処理の順番を変更しても良い。例えば、ステップS6の判定処理を行う前に、ステップS41~S43の処理を行い、いずれかの条件を満たす場合にステップS6の判定処理を行うようにしても良い。 
 また、例えば、距離算出部が前回、位置姿勢情報を記録した挿入部11の先端の位置から所定の距離間隔以上、挿入部11の先端が移動したか否かを監視し、所定の距離間隔以上移動した場合にステップS6の判定処理を行い、ステップS6の判定条件を満たす場合に、ステップS7において位置姿勢情報を記録するようにしても良い。
 また、ステップS6の処理(又はステップS5とS6の処理)を行う前提として、距離算出部が挿入部11の先端の位置から所定の距離間隔以上、挿入部11の先端が移動したか否かを監視し、所定の距離間隔以上移動した場合にステップS6(又はステップS5とS6)の処理を行うようにする。 
 ステップS6の判定条件を満たす場合に、ステップS7において位置姿勢情報を記録するようにしても良い。この場合には、方向比較手段としての方向比較部25fは、挿入部11の先端の移動距離が気管支2の管腔内において所定の距離間隔以上の場合に、視線方向と芯線方向との比較を行うことを含む。
  (第4の実施形態)
 次に本発明の第4の実施形態を説明する。本実施形態は、第1の実施形態において、図1又は図3の点線で示すように方向変化検出部25iを有し、方向変化検出部25iは内視鏡3の挿入部11の先端の観察窓(撮像窓)に固定された対物レンズ15を介して撮像した内視鏡画像の方向(方位)と、1回前に位置姿勢情報を記録したときの内視鏡画像の方向とを比較する。 
 そして、両方向のなす角θroが閾値θroth以上となる条件を満たす場合、換言すると両方向のなす角θroが十分に大きい場合に、位置姿勢情報を記録する。なお、内視鏡画像の方向(方位)は、以下のように挿入部11の周周りの方向と同じ意味である。
 術者は、現在挿入部11の先端が挿入されている状態での気管支2(又は気管支枝)におけるその末梢側で分岐している気管支枝側に挿入部11の先端を通過(挿入)させる際に、挿入部11をひねる(ねじる)操作をしばしば行う。本実施形態においては、この操作を利用して、以下のように同じ気管支枝での複数回の位置姿勢情報の記録を避ける。 
 分岐している気管支枝側に通過(挿入)させる際に通常1回行われる操作を検出し、その操作を検出した際に位置姿勢情報を記録することにより、そのような検出を行わない場合における同じ気管支枝での複数回の位置姿勢情報の記録を避ける。 
 なお、画像マッチングに用いられる(内視鏡画像と比較される)VBS画像は、CT座標系における視点及び視線方向と共に、挿入部11の先端(の対物レンズ15)が所定の方向(方位)に設定された状態において、同様に所定の方向(方位)に固定されたCCD16により光電変換されるものに対応して生成される。なお、内視鏡画像がモニタ9において表示される場合の上下方向は、湾曲部19を湾曲する場合の上下の湾曲方向と一致するようにCCD16の撮像面の(挿入部11の周回りの)方向が予め設定されている。
 このため、画像マッチングを行って、実際の挿入部11の先端の位置及び姿勢の情報をCT座標系の情報から取得する場合、挿入部11の周回りの方向(方位)の情報も取得することができる。 
 本実施形態においては、位置姿勢情報を位置姿勢情報記録部27に記録する場合、更に、内視鏡画像の方向(方位)(又は挿入部11の周回りの方向(方位))の情報も記録する。そして、位置姿勢情報記録部27に記録された情報から内視鏡画像の方向(方位)の情報を(方向変化を算出するために)参照することができるようにしている。 
 内視鏡画像の方向(方位)は、挿入部11が、その周方向の回りで回転されないと変化しない。このため、方向変化検出部25iは、内視鏡画像の方向の変化、又は挿入部11の周回りの方向の変化を検出する方向変化検出手段の機能を有する。
 なお、方向変化検出部25iが、内視鏡画像の方向の変化、又は挿入部11の周回りの方向の変化を検出する場合、内視鏡画像等の所定の方向(又は基準の方向)からの変化を検出するようにしても良い。例えば、内視鏡画像の上方向を所定の方向として設定し、内視鏡画像の上方向からの変化を検出するようにしても良い。図9は、本実施形態における代表的な処理の一部を示す。
 図9においては、ステップS1からステップS6までは、図3と同じ処理である。ステップS6において算出された角θが所定の閾値θth以下の条件を満たす場合には、ステップS51の処理に進む。 
 ステップS51において方向変化検出部25iは、現在の挿入部11の先端の状態においての内視鏡画像の方向と、前回記録(今回に関して1回前に記録)した時の内視鏡画像の方向との両方向のなす角θroを算出し、さらに両方向のなす角θroが閾値θroth以上の条件を満たすか否かを判定する。 
 ステップS51における条件を満たす判定結果の場合には、ステップS7′において上記のように現在の位置姿勢情報と共に、更に内視鏡画像の方向(方位)の情報も含めて位置姿勢情報記録部27に記録する。ステップS51における条件を満たさない判定結果の場合には、ステップS10の処理に移る。その他の処理は、図3の場合と同様である。
 本実施形態によれば、過度に位置姿勢情報を記録することなく、適切な情報量で位置姿勢情報を記録することができ、ユーザに対する使い勝手(利便性)を向上できる。その他、第1の実施形態と同様の効果を有する。 
 上記第4の実施形態においては、ステップS51において現在の挿入部11の先端の(周周り)の方向と、1回前に記録された方向とのなす角θroを比較したが、n回前に記録された方向とのなす角θronを比較し、この角θronが閾値θronth以上である場合に現在の位置姿勢情報を、位置姿勢情報記録部27に記録するようにしても良い。なお、内視鏡画像の方向の情報を取得した場合、所定の方向(又は基準の方向)からの差分角を算出し、位置姿勢情報記録部27に記録する場合にも上方向からの差分角を記録するようにしても良い。
  (第5の実施形態)
 次に本発明の第5の実施形態を説明する。本実施形態は、上述した実施形態(変形例を含む)を組み合わせたものであり、その構成は図1又は図4と同様である。本実施形態においては、上述した実施形態のいずれか2つ以上の条件を挿入部11の先端が存在する領域毎に切り替えて使用する。 
 図10は本実施形態の動作の説明図を示す。本実施形態においては、気管支内に挿入部11が挿入された場合、挿入部11の先端が存在する領域R1においては、第1の実施形態の条件を適用し、領域R2においては、第2の実施形態の条件を適用し、領域R3においては第3の実施形態の条件を適用する。 
 領域Rk(k=1,2,3,…)の設定方法は、以下の通りである。
 a)分岐点から芯線上で一定の距離離れた位置までとそれ以外では図10のように領域が設定される。 
b)分岐点を中心とした球に含まれる領域とそれ以外の領域
c)カリーナからの距離
d)気管支の次数
e)断層像画像から算出した気管支径
f)前回リスタート(再度の位置合わせ)した位置からの距離
に応じて、各領域を設定する。 
 さらに、これらの条件は、複数を組み合わせても良い。 
 本実施形態によれば、上述した実施形態の効果を有すると共に、さらにユーザにより記録する場合の条件をより詳細に選択することができる。
 また、上述した変形例の場合を含む第1~4の実施形態における複数を部分的に組み合わせて構成される実施形態も本発明に属する。 
 また、気管支形状画像やVBS画像を生成するに当たり、CT画像データから所定の管腔臓器としての気管支2の3次元画像データを抽出するのでなく、CT画像データよりボリュームレンダリングで直接生成してもよい。
 本出願は、2013年4月15日に日本国に出願された特願2013-084918号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (10)

  1.  予め取得した被検体における3次元画像情報を記憶するよう構成された画像記憶部と、
     前記3次元画像情報から所定の管腔臓器を抽出するよう構成された管腔臓器抽出部と、
     内視鏡の挿入部の先端に設けられた対物光学系と、
     前記対物光学系による視線方向を検出するよう構成された視線方向検出部と、
     前記管腔臓器抽出部により抽出された前記所定の管腔臓器の芯線方向と前記視線方向とを比較するよう構成された方向比較部と、
     前記芯線方向と前記視線方向とのなす角が所定の閾値以下の場合に前記内視鏡の挿入部の先端の位置及び姿勢の情報を記録するよう構成された位置姿勢情報記録部と、
     を備えることを特徴とする内視鏡システム。
  2.  前記方向比較部は、前記位置姿勢情報記録部において過去に記録された前記姿勢の情報に基づく過去の視線方向と前記視線方向検出部により検出された現在の視線方向との比較を行い、
     前記位置情報記録部は、前記方向比較部による過去の前記視線方向と前記視線方向検出部により検出された現在の視線方向とのなす角が第2の所定の閾値より大きい場合に前記内視鏡の挿入部の先端の位置及び姿勢の情報を記録することを特徴とする請求項1に記載の内視鏡システム。
  3.  前記方向比較部は、前記所定の管腔臓器において、前記挿入部の先端の移動距離が、所定の距離間隔以上の場合に前記芯線方向と前記視線方向との比較を行うことを特徴とする請求項1に記載の内視鏡システム。
  4.  内視鏡内に設けられ、前記所定の管腔臓器内を撮像するよう構成された撮像部を備え、
     前記撮像部によって取得された内視鏡画像の方向の変化を検出するよう構成された方向変化検出部を更に有し、
     前記方向変化検出部により検出された前記内視鏡画像の方向と、前記位置姿勢情報記録部に記録されている内視鏡画像の方向とのなす角が、閾値以上の変化を検出した場合に、前記位置姿勢情報記録部は、前記内視鏡の挿入部の先端の位置及び姿勢の情報を記録することを特徴とする請求項1に記載の内視鏡システム。
  5.  内視鏡内に設けられ、前記所定の管腔臓器内を撮像するよう構成された撮像部と、
     前記3次元画像情報を基に所定の視点位置から内視鏡的に描画した仮想内視鏡画像を生成するよう構成された仮想内視鏡画像生成部と、
     前記撮像部により撮像された前記所定の管腔臓器内の内視鏡画像と前記仮想内視鏡画像を比較するよう構成された画像比較部と、
     前記画像比較部の比較結果に基づいて前記内視鏡の挿入部の先端の位置及び姿勢の情報を算出するよう構成された位置姿勢情報算出部と、
     を更に備えることを特徴とする請求項1に記載の内視鏡システム。
  6.  内視鏡内に設けられ、前記所定の管腔臓器内を撮像するよう構成された撮像部と、
     前記3次元画像情報を基に所定の視点位置から内視鏡的に描画した仮想内視鏡画像を生成するよう構成された仮想内視鏡画像生成部と、
     前記撮像部により撮像された前記所定の管腔臓器内の内視鏡画像と前記仮想内視鏡画像を比較するよう構成された画像比較部と、
     前記画像比較部の比較結果に基づいて前記内視鏡の挿入部の先端の位置及び姿勢の情報を算出するよう構成された位置姿勢情報算出部と、
     を更に備えることを特徴とする請求項2に記載の内視鏡システム。
  7.  前記位置姿勢情報記録部は、前記内視鏡の挿入部の先端の位置及び姿勢の情報と共に、当該挿入部の先端の位置及び姿勢に対応する前記仮想内視鏡画像及び前記撮像部により撮像された内視鏡画像の方向の情報を記録することを特徴とする請求項5に記載の内視鏡システム。
  8.  前記所定の管腔臓器の管腔形状画像を生成するよう構成された管腔形状画像生成部と、
     前記画像比較部を用いた前記内視鏡画像と前記仮想内視鏡との比較による画像マッチングが設定された精度内で行えない場合には、前記位置姿勢情報算出部に記録された前記内視鏡の挿入部の先端の位置及び姿勢の情報を、前記管腔形状画像上に重畳して表示するよう構成された表示部と、
     を更に有することを特徴とする請求項5に記載の内視鏡システム。
  9.  前記被検体の3次元画像情報に対して目標部位を指定した場合、前記3次元画像情報及び前記管腔臓器抽出部により抽出された前記所定の管腔臓器の管腔形状画像から、前記所定の管腔臓器においての前記挿入部の先端の挿入開始位置から前記目標部位近傍となる目標位置までの経路データを生成するよう構成された経路データ生成部と、
     前記経路データの前記目標位置に至る途中においての前記所定の管腔臓器が分岐する分岐点の3次元位置及び分岐角を含む分岐情報を記録するよう構成された分岐情報記録部と、を有し、前記分岐点の分岐情報に応じて、分岐情報記録部は、前記第2の所定の閾値を自動的に決定し、決定された前記第2の所定の閾値を用いて前記方向比較部は、比較を行うことを特徴とする請求項2に記載の内視鏡システム。
  10.  前記分岐情報記録部は、前記視線方向検出部により現在の視線方向が検出された際の前記挿入部の先端の3次元位置に基づき、当該3次元位置よりも目標位置側に沿って存在する次の分岐点の分岐情報に基づいて、前記第2の所定の閾値を自動的に決定することを特徴とする請求項9に記載の内視鏡システム。
PCT/JP2014/060398 2013-04-15 2014-04-10 内視鏡システム WO2014171391A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014552430A JP5687811B1 (ja) 2013-04-15 2014-04-10 内視鏡システム
EP14785125.7A EP2888991B1 (en) 2013-04-15 2014-04-10 Endoscope system
CN201480002770.8A CN104755009B (zh) 2013-04-15 2014-04-10 内窥镜系统
US14/670,858 US9357945B2 (en) 2013-04-15 2015-03-27 Endoscope system having a position and posture calculating portion

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013084918 2013-04-15
JP2013-084918 2013-04-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/670,858 Continuation US9357945B2 (en) 2013-04-15 2015-03-27 Endoscope system having a position and posture calculating portion

Publications (1)

Publication Number Publication Date
WO2014171391A1 true WO2014171391A1 (ja) 2014-10-23

Family

ID=51731334

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/060398 WO2014171391A1 (ja) 2013-04-15 2014-04-10 内視鏡システム

Country Status (5)

Country Link
US (1) US9357945B2 (ja)
EP (1) EP2888991B1 (ja)
JP (1) JP5687811B1 (ja)
CN (1) CN104755009B (ja)
WO (1) WO2014171391A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019010506A (ja) * 2017-06-21 2019-01-24 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 形状推定をともなう軌道情報による位置合わせの改良

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014157480A1 (ja) * 2013-03-29 2014-10-02 富士フイルム株式会社 内視鏡下外科手術装置
CN105188506B (zh) * 2013-03-29 2017-04-12 富士胶片株式会社 内窥镜下外科手术装置
WO2014157479A1 (ja) * 2013-03-29 2014-10-02 富士フイルム株式会社 内視鏡下外科手術装置
GB201501157D0 (en) * 2015-01-23 2015-03-11 Scopis Gmbh Instrument guidance system for sinus surgery
US10143364B2 (en) * 2015-07-23 2018-12-04 Ankon Technologies Co., Ltd Controlled image capturing method including position tracking and system used therein
WO2017195797A1 (ja) * 2016-05-09 2017-11-16 東芝メディカルシステムズ株式会社 医用画像診断装置
JP6608111B2 (ja) * 2016-09-28 2019-11-20 富士フイルム株式会社 医用画像保存再生装置および方法並びにプログラム
CN110167417B (zh) * 2017-01-26 2022-01-07 奥林巴斯株式会社 图像处理装置、动作方法和存储介质
CN110769731B (zh) 2017-06-15 2022-02-25 奥林巴斯株式会社 内窥镜系统、内窥镜用处理系统、图像处理方法
EP3801190A4 (en) * 2018-05-30 2022-03-02 Auris Health, Inc. SYSTEMS AND METHODS FOR SENSOR-BASED BRANCH LOCATION PREDICTION
CN112315582B (zh) * 2019-08-05 2022-03-25 罗雄彪 一种手术器械的定位方法、系统及装置
US11696671B2 (en) * 2019-08-19 2023-07-11 Covidien Ag Steerable endoscope with motion alignment
JP2022128218A (ja) * 2021-02-22 2022-09-01 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
CN116433874A (zh) * 2021-12-31 2023-07-14 杭州堃博生物科技有限公司 支气管镜导航方法、装置、设备及存储介质
CN116416414B (zh) * 2021-12-31 2023-09-22 杭州堃博生物科技有限公司 肺部支气管镜导航方法、电子装置及计算机可读存储介质
CN115414120A (zh) * 2022-11-07 2022-12-02 中南大学 一种内镜导航系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
JP2009279250A (ja) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp 医療機器
WO2011102012A1 (ja) * 2010-02-22 2011-08-25 オリンパスメディカルシステムズ株式会社 医療機器
JP2011189074A (ja) 2010-03-16 2011-09-29 Olympus Medical Systems Corp 医療機器
JP2012024518A (ja) 2010-07-28 2012-02-09 Fujifilm Corp 内視鏡観察を支援する装置および方法、並びに、プログラム
WO2013031637A1 (ja) * 2011-08-31 2013-03-07 テルモ株式会社 呼吸域用ナビゲーションシステム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7477768B2 (en) * 1999-06-29 2009-01-13 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
AU2003264354A1 (en) * 2002-08-30 2004-04-30 Olympus Corporation Medical treatment system, endoscope system, endoscope insert operation program, and endoscope device
WO2007023631A1 (ja) * 2005-08-25 2007-03-01 Olympus Medical Systems Corp. 内視鏡挿入形状解析装置及び内視鏡挿入形状解析システム
JP4789545B2 (ja) * 2005-08-25 2011-10-12 オリンパスメディカルシステムズ株式会社 内視鏡挿入形状解析装置
EP2358269B1 (en) * 2007-03-08 2019-04-10 Sync-RX, Ltd. Image processing and tool actuation for medical procedures
JP5639764B2 (ja) * 2007-03-08 2014-12-10 シンク−アールエックス,リミティド 運動する器官と共に使用するイメージング及びツール
US20100201683A1 (en) * 2007-07-31 2010-08-12 Takashi Shirahata Medical image display apparatus and medical image display method
WO2009116465A1 (ja) * 2008-03-21 2009-09-24 株式会社 日立メディコ 医用画像表示装置及び医用画像表示方法
RU2011120186A (ru) * 2008-10-20 2012-11-27 Конинклейке Филипс Электроникс, Н.В. Способ и система локализации на основе изображений
WO2011094518A2 (en) * 2010-01-28 2011-08-04 The Penn State Research Foundation Image-based global registration system and method applicable to bronchoscopy guidance
JP4728456B1 (ja) 2010-02-22 2011-07-20 オリンパスメディカルシステムズ株式会社 医療機器
JP5380348B2 (ja) * 2010-03-31 2014-01-08 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP5160699B2 (ja) * 2011-01-24 2013-03-13 オリンパスメディカルシステムズ株式会社 医療機器

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
JP2009279250A (ja) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp 医療機器
WO2011102012A1 (ja) * 2010-02-22 2011-08-25 オリンパスメディカルシステムズ株式会社 医療機器
JP2011189074A (ja) 2010-03-16 2011-09-29 Olympus Medical Systems Corp 医療機器
JP2012024518A (ja) 2010-07-28 2012-02-09 Fujifilm Corp 内視鏡観察を支援する装置および方法、並びに、プログラム
WO2013031637A1 (ja) * 2011-08-31 2013-03-07 テルモ株式会社 呼吸域用ナビゲーションシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2888991A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019010506A (ja) * 2017-06-21 2019-01-24 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 形状推定をともなう軌道情報による位置合わせの改良
JP7154832B2 (ja) 2017-06-21 2022-10-18 バイオセンス・ウエブスター・(イスラエル)・リミテッド 形状推定をともなう軌道情報による位置合わせの改良

Also Published As

Publication number Publication date
EP2888991A1 (en) 2015-07-01
EP2888991B1 (en) 2017-11-01
JP5687811B1 (ja) 2015-03-25
JPWO2014171391A1 (ja) 2017-02-23
CN104755009B (zh) 2017-04-19
US20150196228A1 (en) 2015-07-16
US9357945B2 (en) 2016-06-07
EP2888991A4 (en) 2016-05-18
CN104755009A (zh) 2015-07-01

Similar Documents

Publication Publication Date Title
JP5687811B1 (ja) 内視鏡システム
JP5718537B2 (ja) 内視鏡システム
US9516993B2 (en) Endoscope system
JP5715311B2 (ja) 内視鏡システム
JP5160699B2 (ja) 医療機器
JP5159995B2 (ja) 内視鏡システム
JPWO2014156378A1 (ja) 内視鏡システム
US20130281821A1 (en) Intraoperative camera calibration for endoscopic surgery
WO2011062035A1 (ja) 生検支援システム
JP5977900B2 (ja) 画像処理装置
US9345394B2 (en) Medical apparatus
KR102313319B1 (ko) 증강현실 대장 내시경 시스템 및 이를 이용한 모니터링 방법
WO2016039292A1 (ja) 内視鏡システム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2014552430

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14785125

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2014785125

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014785125

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE