WO2018235255A1 - 医療システムとその作動方法 - Google Patents

医療システムとその作動方法 Download PDF

Info

Publication number
WO2018235255A1
WO2018235255A1 PCT/JP2017/023156 JP2017023156W WO2018235255A1 WO 2018235255 A1 WO2018235255 A1 WO 2018235255A1 JP 2017023156 W JP2017023156 W JP 2017023156W WO 2018235255 A1 WO2018235255 A1 WO 2018235255A1
Authority
WO
WIPO (PCT)
Prior art keywords
treatment tool
endoscope
treatment
coordinates
unit
Prior art date
Application number
PCT/JP2017/023156
Other languages
English (en)
French (fr)
Inventor
井上 慎太郎
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2017/023156 priority Critical patent/WO2018235255A1/ja
Publication of WO2018235255A1 publication Critical patent/WO2018235255A1/ja
Priority to US16/711,866 priority patent/US11510552B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00087Tools
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • A61B1/00133Drive units for endoscopic tools inserted through or with the endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/018Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor for receiving instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30172Centreline of tubular or elongated structure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present invention relates to medical systems and methods of operation thereof.
  • Patent Document 1 and Patent Document 2 there is a disadvantage that only a specific treatment tool having a magnetic sensor, a color marker, etc. can be set as a tracking target, and the treatment tool to be tracked every time the treatment tool is replaced There is a disadvantage that the magnetic sensor and the color marker have to be replaced.
  • the present invention has been made in view of the above-described circumstances, and provides a medical system capable of easily discriminating a treatment tool to be followed without using a specific magnetic sensor or a color marker, and an operation method thereof.
  • the purpose is to
  • One aspect of the present invention processes an endoscope, one or more treatment tools, and two or more images acquired at different times by the endoscope to extract the treatment tools, and the extracted each
  • a treatment tool coordinate calculation unit that determines the direction of the longitudinal axis of the treatment tool and calculates the coordinates of the determined intersection point of the two or more longitudinal axes, and the coordinates of the intersection point calculated by the treatment tool coordinate calculation unit It is a medical system provided with the judgment part which judges whether it is the above-mentioned treatment tool which it is object of pursuit.
  • the treatment tool coordinate calculation unit processes each image to extract the treatment tool, and the direction of the longitudinal axis of the treatment tool is determined, and the intersection point of the determined two or more longitudinal axes The coordinates of are calculated.
  • the direction of the longitudinal axis of each treatment tool changes, but if the treatment tool is the same, the same position
  • the longitudinal axis intersects at a single point of intersection as it penetrates the body wall at. Therefore, based on the coordinates of the intersection, it is possible to identify at which position the body wall is penetrated, and the treatment tool to be followed can be easily identified without using a specific magnetic sensor or color marker. can do.
  • the display unit for displaying the image acquired by the endoscope and the display unit display the determination result by the determination unit in association with the treatment tool extracted in the image. And a display control unit. By doing this, the operator can easily confirm on the display unit whether the treatment tool existing on the image displayed on the display unit is the treatment tool to be followed. .
  • the storage part which registers beforehand the coordinates of the registration point which is the intersection which can be taken of the treatment tool which becomes the tracking object, and the judgment part is the above calculated by the treatment tool coordinate calculation part. If the distance between the coordinates of the intersection point and the coordinates of the registration point registered in advance in the storage unit is equal to or less than a predetermined threshold, the treatment tool having the longitudinal axis passing the coordinates of the intersection point is a tracking target It may be determined that By doing this, when the registration point, which is an intersection that can be taken by the treatment tool to be followed, is stored in the storage unit in advance, and the coordinates of the intersection of the longitudinal axis of the treatment tool are calculated by the treatment tool coordinate calculation unit, When the distance to the coordinates of the registration point stored in the storage unit is equal to or less than a predetermined threshold value, it can be easily determined that the treatment tool is a tracking target.
  • a drive mechanism that drives the endoscope or any of the treatment tools, and a treatment tool operation detection unit that detects an operation of the treatment tool that is determined to be a follow target by the determination unit.
  • a control unit configured to control the drive mechanism such that the endoscope or the other treatment tool follows the operation of the treatment tool detected by the treatment tool operation detection unit.
  • the drive mechanism when the drive mechanism is provided in the endoscope, the drive mechanism is operated so as to move the visual field range of the endoscope following the operation of the treatment tool determined to be the follow target. Can.
  • the drive mechanism when the drive mechanism is provided in another treatment tool, the other treatment tool is operated following the operation of the treatment tool determined to be the follow target, and the tissue in the vicinity of the target site is displaced. And the like can be implemented by the operation of the object to be followed.
  • another aspect of the present invention includes an endoscope, one or more treatment tools, and a processor that processes two or more images acquired at different times by the endoscope, the processor comprising two or more processors. Calculating the coordinates of the point of intersection of the determined two or more longitudinal axes by processing the image of the above to extract the treatment instrument, determining the direction of the longitudinal axis of each of the extracted treatment instruments It is a medical system which judges whether it is the above-mentioned treatment implement made into tracking object based on coordinates of the above-mentioned intersection.
  • a treatment tool extraction step for extracting a treatment tool, and a treatment tool for determining the direction of the longitudinal axis of the treatment tool extracted in the treatment tool extraction step and calculating the coordinates of the intersection point of the determined two or more longitudinal axes A method of operating a medical system, comprising: a coordinate calculation step; and a determination step of determining whether or not the treatment tool is to be followed based on the coordinates of the intersection point calculated in the treatment tool coordinate calculation step.
  • the method further includes a registration step of registering in advance coordinates of registration points that are the intersections of the treatment tool to be followed, the determination step being the calculation of the treatment tool coordinate calculation step. Following the treatment tool having the longitudinal axis passing through the coordinates of the intersection point when the distance between the coordinates of the intersection point and the coordinates of the registration point registered in advance by the registration step is equal to or less than a predetermined threshold It may be determined that it is a target.
  • a treatment tool operation detection step of detecting a movement of the treatment tool determined to be a tracking target in the determination step, and a movement of the treatment tool detected in the treatment tool movement detection step Control step of controlling a drive mechanism for driving the endoscope or the other treatment tool so that the endoscope or the other treatment tool follows.
  • ADVANTAGE OF THE INVENTION According to this invention, it is effective in the ability to discriminate
  • FIG. 3A It is a figure which shows the direction of the determined longitudinal axis of a treatment tool from the outline of the treatment tool extracted by FIG. 3B. It is a figure which shows the coordinate of the intersection calculated by the longitudinal axis determined by FIG. 3C. It is a perspective view which shows typically the relationship between the position of the treatment tool in the medical system of FIG. 1, and an image. It is a flowchart explaining the operating method of the medical system of FIG. It is a figure which shows the example of a display of the determination result on the monitor by the medical system of FIG.
  • a medical system 1 according to an embodiment of the present invention and an operation method thereof will be described below with reference to the drawings.
  • a medical system 1 according to the present embodiment is, as shown in FIG. 1, an endoscope 3 having a configuration in which a tip is inserted into a body cavity through a trocar 2 disposed through a body wall H;
  • the control unit 6 controls the electric arm 5 based on the image acquired by the endoscope 3 and the monitor (display unit) 7 that displays the image acquired by the endoscope 3.
  • the endoscope 3 is configured to sequentially acquire an image including a treatment target site (affected area) G in a body cavity and a tip end of the treatment tool 4.
  • the electric arm 5 is, for example, a six-axis articulated robot and includes a motor (not shown) for driving each axis and an encoder (not shown) for detecting the rotation angle of the motor, and is attached to the tip.
  • the position and orientation of the endoscope 3 can be detected and set to a desired position and orientation.
  • the control unit 6 includes a processor (not shown) and a memory (not shown), and as shown in FIG. 2, two or more images (see FIG. 3A) acquired at different times by the endoscope 3.
  • the treatment tool extraction unit 8 for extracting the treatment tool 4 and the direction of the longitudinal axis O of the extracted treatment tool 4 as shown in FIG. 3C
  • the longitudinal axis direction determination unit 9 that determines the coordinates of the intersection points P and Q of the longitudinal axis O of each treatment tool 4 determined in two or more images, as shown in FIG. Treatment tool coordinate calculation unit 10).
  • control unit 6 determines, based on the coordinates of the intersection points P and Q calculated by the intersection point coordinate calculation unit 10, the determination unit 11 which determines whether or not the treatment tool 4 having the longitudinal axis O is a tracking target. And a treatment control unit 12 for detecting the movement of the treatment tool 4 determined to be a tracking target, and a drive control unit for controlling the electric arm 5 to make the field of view of the endoscope 3 follow the detected movement. A control unit 13 and a display control unit 15 for superimposing the determination result on the image acquired by the endoscope 3 and displaying the result on the monitor 7 are provided.
  • the control unit 6 further includes a storage unit 14 that registers in advance the coordinates of the constraining point S of the treatment tool 4 to be followed.
  • the treatment tool extraction unit 8 processes the image sent from the endoscope 3 and extracts a portion having a linear edge in the image as the treatment tool 4.
  • the longitudinal axis direction determination unit 9 is configured to determine the center line of the treatment tool 4 extracted by the treatment tool extraction unit 8 as the longitudinal axis O.
  • the intersection point coordinate calculation unit 10 calculates the intersection point P disposed on the extension of the longitudinal axis O by overlapping the longitudinal axes O of the treatment tool 4 determined in two or more images acquired at different times. It has become.
  • FIG. 4 shows the positional relationship at the intersection point P as an example.
  • the restraint point S of the treatment tool 4 exists at any position on the straight line T connecting the intersection point P disposed on the extension of the longitudinal axis O and the principal point R of the optical system. Can. Similarly, it is considered that the restraint point S of the treatment tool 4 exists at any position on a straight line T ′ connecting the intersection point Q disposed on the extension of the longitudinal axis O and the principal point R of the optical system. be able to.
  • the determination unit 11 defines different straight lines T and T ′ connecting the intersection points P and Q calculated by the intersection point coordinate calculation unit 10 and the principal point R of the optical system, respectively. By calculating the distance to T ′, when the distance is within the threshold, it is determined that the treatment tool 4 having the longitudinal axis O is the treatment tool 4 to be followed.
  • the determination unit 11 calculates the distance between the two based on the three-dimensional coordinates of the intersection points P and Q calculated by the intersection point coordinate calculation unit 10 and the three-dimensional coordinates of the constraint point S stored in the storage unit 14. It is determined whether the treatment tool 4 having the longitudinal axis O is the treatment tool 4 to be followed.
  • the treatment tool operation detection unit 12 processes the image acquired by the endoscope 3 and the operation of the treatment tool 4 determined to be the follow-up treatment tool 4 by the determination unit 11, for example, the tip of the treatment tool 4 It detects position movement.
  • the drive control unit 13 controls the motorized arm 5 so that the center position of the field of view of the endoscope 3 coincides with the tip position of the treatment tool 4 detected by the treatment tool operation detection unit 12. ing. That is, the motorized arm 5 is driven to move the endoscope 3 along the vector from the center position of the image acquired by the endoscope 3 to the tip position of the treatment tool 4 detected in the image. It has become.
  • the operation method of the medical system 1 according to the present embodiment configured as described above will be described below.
  • the endoscope 3 is inserted into one trocar 2 and the treatment tool 4 is inserted into the other two trocars A and B, and the tip of the endoscope 3 and the tip of the treatment tool 4 are placed in the body cavity.
  • the coordinate positions of at least one trocker A, B are registered in advance as trockers (restraint points) A, B into which the treatment tool 4 to be followed is inserted, as shown in FIG. 5 (registration step S1) .
  • step S2 With the operation of the endoscope 3, an image of the tissue including the affected area G in the body cavity is acquired, and the treatment tool 4 is operated so that the two treatment tools 4 are disposed in the image of the endoscope 3, It switches to the follow-up mode (step S2). Switching to the follow-up mode may be performed by voice, foot pedal or push button.
  • image acquisition step S3 when images at different times are sequentially acquired by the endoscope 3 (image acquisition step S3), each acquired image is sent to the control unit 6, and the treatment tool extraction unit 8 in the control unit 6
  • the image processing is performed according to the procedure to extract the treatment tool 4 present in the image (treatment tool extraction step S4).
  • the longitudinal axis direction determination unit 9 determines a straight line indicating the direction of the longitudinal axis O (step S5).
  • two or more straight lines determined for each treatment tool 4 are determined
  • the coordinates of the intersection points P and Q of two or more straight lines are calculated (treatment tool coordinate calculation step S6).
  • the calculated coordinates of the intersection points P and Q are sent to the determination unit 11 so that straight lines T and T ′ connecting the intersection points P and Q and the principal point R of the optical system are stored in the storage unit 14.
  • a distance to the coordinates of the constraint point S stored is calculated, and when the distance is equal to or less than a predetermined threshold value, it is determined that the treatment tool 4 to be followed is (determination step S7). That is, in the case where the treatment tool 4 inserted from one of the two trocars A and B into which the treatment tool 4 is inserted is the treatment tool 4 to be followed at all times, one of the two trocars A and B
  • the coordinates of the trocker A are stored as the constraint point S in the registration step S1.
  • a straight line representing the direction of two or more longitudinal axes O determined by extracting the treatment tool 4 inserted from the other trocar B passes a position away from the coordinates of the restraint point S by a distance exceeding a predetermined threshold value Since the intersection points P and Q are formed on the straight line, it is possible to clearly determine that they are not to be followed.
  • the operation of the electric arm 5 moves the endoscope 3 following the operation of the treatment tool 4 determined to be the follow target, and the tip of the treatment tool 4 is always disposed at the center of the endoscope image.
  • Ru That is, the operator can perform the treatment of the affected area G with the treatment tool 4 at the center of the endoscope image only by operating the treatment tool 4 while viewing the endoscope image.
  • the process from the image acquisition step S3 is repeated until the end of the follow-up mode is instructed (step S11).
  • the central point of the imaging device is displaced, so the position of the restraint point S registered from the driving amount of the endoscope 3 may be updated.
  • the distal end of the endoscope 3 is an electric joint, and the operation of the electric joint is performed.
  • the field of view of the endoscope 3 may be made to follow the movement of the distal end of the treatment instrument 4.
  • the endoscope 3 in order to detect the position and attitude of the endoscope 3, is supported by a 6-axis articulated joint support arm capable of detecting the angle of each axis, or an optical marker or a magnetic marker May be attached to the endoscope 3 to detect the position of the optical marker or magnetic marker from the outside.
  • the endoscope 3 may replace with this and may make another treatment tool 4 follow.
  • the first treatment tool 4 is used in combination with the treatment with the second treatment tool 4.
  • treatment is performed by the second treatment tool 4 and switching to the follow-up mode by voice, foot pedal or push button as necessary.
  • the second treatment tool 4 may be moved to move the first treatment tool 4.
  • a method of attaching two or more markers at intervals in the longitudinal direction, extracting the treatment tool 4 by color, or implementing a learning model to recognize the treatment tool 4 by AI technology such as deep learning May be adopted.
  • straight lines T and T ′ connecting the intersection points P and Q of the longitudinal axes O of the treatment tool 4 respectively recognized on images acquired at different times and the principal point R of the optical system Whether the object to be followed is determined based on the distance from the point S. Instead, the distance between the two-dimensional coordinates of the intersection points P and Q calculated on the image and the two-dimensional coordinates of the constraining point S It may be determined whether it is a follow target.
  • control unit 6 is hardware configured of a processor and a memory.
  • a configuration in which the memory is connected by a communication line or a configuration in which another memory is connected by a communication line or the like may be adopted.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Endoscopes (AREA)
  • Surgical Instruments (AREA)

Abstract

磁気センサや色マーカを用いることなく、追従対象とする処置具を簡易に判別することを目的として、本発明に係る医療システム(1)は、内視鏡(3)および1以上の処置具(4)と、内視鏡(3)により異なる時刻に取得された2以上の画像を処理して、処置具(4)を抽出し、抽出された各処置具(4)の長手軸の方向を決定し、決定された2以上の長手軸の交点の座標を算出する処置具座標算出部と、処置具座標算出部により算出された交点の座標に基づいて、追従対象とする処置具(4)であるか否かを判定する判定部とを備える。

Description

医療システムとその作動方法
 本発明は、医療システムとその作動方法に関するものである。
 磁気センサや色マーカを用いて処置具位置を検出し、検出された処置具位置に基づいて処置具に追従するように内視鏡の視野を移動させる医療システムが知られている(例えば、特許文献1および特許文献2参照。)。
特開2000-166857号公報 特開2003-127076号公報
 しかしながら、特許文献1および特許文献2の医療システムでは、磁気センサや色マーカ等を備える特定の処置具しか追従対象として設定できないという不都合があるとともに、処置具を交換する都度に追従対象の処置具に磁気センサや色マーカを付け替えなければならないという不都合がある。
 本発明は上述した事情に鑑みてなされたものであって、特定の磁気センサや色マーカを用いることなく、追従対象とする処置具を簡易に判別することができる医療システムとその作動方法を提供することを目的としている。
 本発明の一態様は、内視鏡および1以上の処置具と、前記内視鏡により異なる時刻に取得された2以上の画像を処理して、前記処置具を抽出し、抽出された各前記処置具の長手軸の方向を決定し、決定された2以上の前記長手軸の交点の座標を算出する処置具座標算出部と、該処置具座標算出部により算出された前記交点の座標に基づいて、追従対象とする前記処置具であるか否かを判定する判定部とを備える医療システムである。
 本態様によれば、内視鏡および1以上の処置具を体内に挿入して、内視鏡により対象部位を観察しながら処置具により処置を行う手技において、内視鏡により異なる時刻に2以上の画像が取得されると、処置具座標算出部により、各画像が処理されて処置具が抽出されるとともに、処置具の長手軸の方向が決定され、決定された2以上の長手軸の交点の座標が算出される。
 すなわち、異なる時刻において取得された画像内に含まれる処置具が移動している場合には、各処置具の長手軸の方向は変化しているが、同一の処置具であれば、同一の位置において体壁を貫通しているので、長手軸は単一の交点において交差する。したがって、交点の座標に基づいて、どの位置において体壁を貫通しているのかを特定することが可能となり、特定の磁気センサや色マーカを用いることなく、追従対象とする処置具を簡易に判別することができる。
 上記態様においては、前記内視鏡により取得された前記画像を表示する表示部と、該表示部に、前記判定部による判定結果を、前記画像内に抽出された前記処置具に対応づけて表示する表示制御部とを備えていてもよい。
 このようにすることで、表示部に表示された画像上に存在する処置具が、追従対象とする処置具であるか否かを、表示部上において、操作者が容易に確認することができる。
 また、上記態様においては、追従対象となる前記処置具の取り得る前記交点である登録点の座標を予め登録する記憶部を備え、前記判定部が、前記処置具座標算出部により算出された前記交点の座標と、前記記憶部に予め登録されている前記登録点の座標との距離が所定の閾値以下である場合に、前記交点の座標を通過する前記長手軸を有する前記処置具を追従対象であると判定してもよい。
 このようにすることで、予め追従対象となる処置具の取り得る交点である登録点が記憶部に記憶され、処置具座標算出部により処置具の長手軸の交点の座標が算出されたときには、記憶部に記憶されている登録点の座標との距離が所定の閾値以下である場合に、追従対象の処置具であることを簡易に判定することができる。
 また、上記態様においては、前記内視鏡またはいずれかの前記処置具を駆動する駆動機構と、前記判定部により追従対象であると判定された前記処置具の動作を検出する処置具動作検出部と、該処置具動作検出部により検出された前記処置具の動作に前記内視鏡または他の前記処置具を追従させるように前記駆動機構を制御する制御部とを備えていてもよい。
 このようにすることで、追従対象である処置具の動作が処置具動作検出部により検出され、内視鏡または他の処置具を追従対象である処置具に追従させるように駆動機構が制御部により制御される。
 すなわち、駆動機構が内視鏡に設けられている場合には、追従対象であると判定された処置具の動作に追従して内視鏡の視野範囲を移動させるように駆動機構を作動させることができる。また、駆動機構が他の処置具に設けられている場合には、追従対象であると判定された処置具の動作に追従して、他の処置具を動作させ、対象部位近傍の組織の圧排等の処置を追従対象の動作によって実施させることができる。
 また、本発明の他の態様は、内視鏡および1以上の処置具と、前記内視鏡により異なる時刻に取得された2以上の画像を処理するプロセッサとを備え、該プロセッサが、2以上の前記画像を処理して、前記処置具を抽出し、抽出された各前記処置具の長手軸の方向を決定し、決定された2以上の前記長手軸の交点の座標を算出し、算出された前記交点の座標に基づいて、追従対象とする前記処置具であるか否かを判定する医療システムである。
 また、本発明の他の態様は、内視鏡により、1以上の処置具を含む2以上の画像を異なる時刻に取得する画像取得ステップと、該画像取得ステップにおいて取得された各画像において、前記処置具を抽出する処置具抽出ステップと、該処置具抽出ステップにおいて抽出された前記処置具の長手軸の方向を決定し、決定された2以上の前記長手軸の交点の座標を算出する処置具座標算出ステップと、該処置具座標算出ステップにおいて算出された前記交点の座標に基づいて、追従対象とする前記処置具であるか否かを判定する判定ステップとを含む医療システムの作動方法である。
 上記態様においては、前記内視鏡により取得された前記画像と、前記判定ステップによる判定結果とを、前記処置具抽出ステップにおいて前記画像内に抽出された前記処置具に対応づけて表示する表示ステップとを含んでいてもよい。
 また、上記態様においては、追従対象となる前記処置具の取り得る前記交点である登録点の座標を予め登録する登録ステップを含み、前記判定ステップが、前記処置具座標算出ステップにより算出された前記交点の座標と、前記登録ステップよりに予め登録されている前記登録点の座標との距離が所定の閾値以下である場合に、前記交点の座標を通過する前記長手軸を有する前記処置具を追従対象であると判定してもよい。
 また、上記態様においては、前記判定ステップにより追従対象であると判定された前記処置具の動作を検出する処置具動作検出ステップと、該処置具動作検出ステップにより検出された前記処置具の動作に前記内視鏡または他の前記処置具を追従させるように前記内視鏡または他の前記処置具を駆動する駆動機構を制御する制御ステップとを含んでいてもよい。
 本発明によれば、磁気センサや色マーカを用いることなく、追従対象とする処置具を簡易に判別することができるという効果を奏する。
本発明の一実施形態に係る医療システムの一例を示す全体構成図である。 図1の医療システムの制御部を説明するブロック図である。 図1の医療システムにより取得された内視鏡画像の一例を示す図である。 図3Aの画像を処理して処置具が抽出された状態を示す図である。 図3Bにより抽出された処置具の輪郭から処置具の決定された長手軸の方向を示す図である。 図3Cにより決定された長手軸により算出された交点の座標を示す図である。 図1の医療システムにおける処置具の位置と画像との関係を模式的に示す斜視図である。 図1の医療システムの作動方法を説明するフローチャートである。 図1の医療システムによるモニタへの判定結果の表示例を示す図である。
 本発明の一実施形態に係る医療システム1とその作動方法について、図面を参照して以下に説明する。
 本実施形態に係る医療システム1は、図1に示されるように、体壁Hを貫通して配置されるトロッカ2を介して先端が体腔内に挿入される構成の内視鏡3と、同じくトロッカA,Bを介して先端が体腔内に挿入される1以上、例えば2つの処置具4と、内視鏡3を取りつけて内視鏡3の位置および姿勢を移動させる電動アーム(駆動機構)5と、内視鏡3により取得された画像に基づいて電動アーム5を制御する制御部6と、内視鏡3により取得された画像を表示するモニタ(表示部)7とを備えている。
 内視鏡3は、体腔内の処置対象部位(患部)Gと処置具4の先端部を含む画像を経時的に取得するようになっている。
 電動アーム5は、例えば、6軸多関節型のロボットであって、各軸を駆動するモータ(図示略)と、モータの回転角度を検出するエンコーダ(図示略)とを備え、先端に取り付けた内視鏡3の位置および姿勢を検出し所望の位置および姿勢に設定することができるようになっている。
 制御部6は、プロセッサ(図示略)およびメモリ(図示略)により構成され、図2に示されるように、内視鏡3により異なる時刻に取得された2以上の画像(図3A参照。)を処理して、各画像内において、図3Bに示されるように、処置具4を抽出する処置具抽出部8と、図3Cに示されるように、抽出された処置具4の長手軸Oの方向を決定する長手軸方向決定部9と、図3Dに示されるように、2以上の画像において決定された各処置具4の長手軸Oの交点P,Qの座標を算出する交点座標算出部(処置具座標算出部)10とを備えている。
 また、制御部6は、交点座標算出部10により算出された交点P,Qの座標に基づいて、当該長手軸Oを有する処置具4が追従対象であるか否かを判定する判定部11と、追従対象であると判定された処置具4の動作を検出する処置具動作検出部12と、検出された動作に内視鏡3の視野を追従させるように電動アーム5を制御する駆動制御部(制御部)13と、内視鏡3により取得された画像に、判定結果を重畳してモニタ7に表示させる表示制御部15とを備えている。
 また、制御部6は、追従対象となる処置具4の拘束点Sの座標を予め登録する記憶部14を備えている。
 処置具抽出部8は、内視鏡3から送られてきた画像を処理して画像内における直線状のエッジを有する部分を処置具4として抽出するようになっている。
 長手軸方向決定部9は、処置具抽出部8により抽出された処置具4の中心線を長手軸Oとして決定するようになっている。
 交点座標算出部10は、異なる時刻において取得された2以上の画像において決定された処置具4の長手軸Oを重ねることにより、それら長手軸Oの延長線上に配置される交点Pを算出するようになっている。
 内視鏡3が2次元画像を取得する場合には、内視鏡3に備えられた光学系の主点R、撮像面U、物体V、撮像面Uに投影される処置具4の像の長手軸Oが図4に示される位置関係にあり、撮像面Uに投影される物体Vの像が内視鏡3により取得されている画像を表している。図4は、一例として、交点Pにおける位置関係を示している。
 これにより、長手軸Oの延長線上に配置されている交点Pと光学系の主点Rとを結ぶ直線T上のいずれかの位置に処置具4の拘束点Sが存在していると考えることができる。同様に、長手軸Oの延長線上に配置されている交点Qと光学系の主点Rとを結ぶ直線T’上のいずれかの位置に処置具4の拘束点Sが存在していると考えることができる。
 判定部11は、交点座標算出部10により算出された交点P,Qと光学系の主点Rとを結ぶ異なる直線T,T’をそれぞれ定義し、登録されている拘束点Sと直線T,T’との距離を算出することにより、距離が閾値以内である場合に、当該長手軸Oを有する処置具4が追従対象の処置具4であると判定するようになっている。
 一方、内視鏡3が3次元画像を取得する場合には、処置具4の長手軸Oの奥行き方向の傾きも分かるので、長手軸Oの交点P,Qとしては3次元座標を得ることができる。
 この場合には判定部11は、交点座標算出部10により算出された交点P,Qの3次元座標と、記憶部14に記憶されている拘束点Sの3次元座標とから両者の距離を計算し、当該長手軸Oを有する処置具4が追従対象の処置具4であるか否かを判定するようになっている。
 処置具動作検出部12は、内視鏡3により取得された画像を処理して判定部11により追従対象の処置具4であると判定された処置具4の動作、例えば、処置具4の先端位置の動きを検出するようになっている。
 駆動制御部13は、処置具動作検出部12により検出された処置具4の先端位置に内視鏡3の視野の中心位置が一致して配置されるように電動アーム5を制御するようになっている。すなわち、内視鏡3により取得された画像の中心位置から画像内において検出された処置具4の先端位置までのベクトルに沿って内視鏡3を移動させるように電動アーム5を駆動するようになっている。
 このように構成された本実施形態に係る医療システム1の作動方法について、以下に説明する。
 本実施形態に係る医療システム1を用いて体腔内の患部Gを処置するには、図1に示されるように、体壁Hを貫通して設置された3つのトロッカ2,A,Bのうちの1つのトロッカ2に内視鏡3を挿入し、他の2つのトロッカA,Bに処置具4を挿入し、内視鏡3の先端および処置具4の先端を体腔内に配置する。少なくとも1つのトロッカA,Bの座標位置については、図5に示されるように、追従対象となる処置具4を挿入するトロッカ(拘束点)A,Bとして予め登録しておく(登録ステップS1)。
 内視鏡3の作動により、体腔内の患部Gを含む組織の画像を取得し、内視鏡3の画像内に2つの処置具4が配置されるように処置具4を操作した状態で、追従モードに切り替える(ステップS2)。追従モードへの切替は、音声、フットペダルあるいは押しボタンによって行えばよい。
 追従モードにおいては、内視鏡3により異なる時刻の画像が順次取得される(画像取得ステップS3)と、取得された各画像が制御部6に送られ、制御部6内の処置具抽出部8により画像処理されて画像内に存在する処置具4が抽出される(処置具抽出ステップS4)。
 次いで、画像内において抽出された処置具4の輪郭から長手軸方向決定部9により、長手軸Oの方向を示す直線が決定される(ステップS5)。
 画像内における処置具4の抽出および長手軸O方向の決定が、異なる時刻に取得された2以上の画像に対してなされると、各処置具4に対して決定された2以上の直線が決定されるので、2以上の直線の交点P,Qの座標が算出される(処置具座標算出ステップS6)。
 算出された交点P,Qの座標は、判定部11に送られることにより、判定部11において、交点P,Qと光学系の主点Rとを結ぶ直線T,T’と、記憶部14に記憶されている拘束点Sの座標との距離が算出され、距離が所定の閾値以下である場合には、追従対象の処置具4であると判定される(判定ステップS7)。
 すなわち、処置具4を挿入している2つのトロッカA,Bの内、一方のトロッカAから挿入されている処置具4を常に追従対象の処置具4であるとする場合には、当該一方のトロッカAの座標が登録ステップS1において拘束点Sとして記憶されている。これにより、内視鏡3の画像から検出された2つの直線の交点P,Qと光学系の主点Rとを結ぶ直線T,T’が拘束点Sの近傍を通過していることを確認するだけで、長手軸Oを有する処置具4を追従対象であると簡易かつ正確に判定することができる。
 他方のトロッカBから挿入されている処置具4を抽出して決定された2以上の長手軸Oの方向を表す直線は拘束点Sの座標から所定の閾値を超えた距離だけ離れた位置を通過する直線上に交点P,Qを形成するので、追従対象ではないと明確に判定することができる。
 そして、追従対象が判定された場合には、図6に示されるように、モニタ7に表示されている内視鏡画像内の処置具4に対応する位置に2つのトロッカA,Bの位置を示す表示(例えば、トロッカA、トロッカBと言う文字)が重畳されて表示される(表示ステップS8)。
 また、これと同時に、経時的に取得された画像処理によって追従対象であると判定された処置具4の動作が、処置具動作検出部12により検出され(処置具動作検出ステップS9)、駆動制御部13によって電動アーム5が制御される(制御ステップS10)。
 これにより、電動アーム5の作動によって内視鏡3が、追従対象と判定された処置具4の動作に追従して移動させられ、処置具4の先端が常に内視鏡画像の中心に配置される。すなわち、操作者は、内視鏡画像を見ながら処置具4を操作するだけで、処置具4による患部Gの処置を内視鏡画像の常に中央において実施することができる。
 そして、追従モードの終了が指令されるまで画像取得ステップS3からの工程が繰り返される(ステップS11)。
 なお、内視鏡3が駆動された後には、撮像素子の中心点が変位するので、内視鏡3の駆動量から登録された拘束点Sの位置を更新すればよい。
 このように本実施形態に係る医療システム1とその作動方法によれば、処置具4の先端に特定の磁気センサや色マーカを設置しなくても、その処置具4が追従対象であるか否かを内視鏡画像から容易にかつ正確に判定することができる。
 したがって、追従対象となる処置具4が交換される都度に磁気センサや色マーカを付け替える必要がない。また、磁気センサや色マーカを付した同じ種類の処置具4が複数挿入されたとしても、いずれかの処置具4を追従対象として他の処置具4から識別することができるという利点がある。
 なお、本実施形態においては、既存の内視鏡3を電動アーム5によって移動する例を説明したが、これに代えて、内視鏡3の先端が電動関節となっていて、電動関節の作動により、内視鏡3の視野を処置具4の先端の動作に追従させることにしてもよい。この場合には、内視鏡3の位置および姿勢を検出するために、各軸の角度を検出可能な6軸多関節型の支持アームに内視鏡3を支持させたり、光学マーカや磁気マーカを内視鏡3に取り付けて、外部から光学マーカや磁気マーカの位置を検出したりすればよい。
 また、追従対象となった処置具4に内視鏡3を追従させる場合を例示したが、これに代えて、他の処置具4を追従させてもよい。例えば、体内に挿入した第1の処置具4によって患部G近傍の組織を圧排しながら第2の処置具4によって患部Gを処置する場合に、第2の処置具4による処置に合わせて第1の処置具4による圧排状態を変化させたい場合がある。
 このような場合に、第1の処置具4によって組織を把持させた状態で、第2の処置具4で処置を行い、必要に応じて音声、フットペダルあるいは押しボタンによって追従モードに切り替えることにより、第2の処置具4に追従させて第1の処置具4を移動させることにすればよい。
 また、内視鏡3の画像において処置具4の長手軸Oの方向を決定する方法としては、上述したように、画像処理によって処置具4を抽出する場合の他、処置具4の先端に、長手方向に間隔をあけて2箇所以上のマーカを付したり、色によって処置具4を抽出したり、ディープラーニングなどAI技術によって処置具4を認識する学習モデルを実装して判別させたりする方法を採用してもよい。
 また、本実施形態においては、異なる時刻に取得された画像上でそれぞれ認識された処置具4の長手軸Oの交点P,Qと光学系の主点Rとを結ぶ直線T,T’と拘束点Sとの距離により追従対象であるか否かを判定したが、これに代えて、画像上で算出される交点P,Qの2次元座標と、拘束点Sの2次元座標との距離により追従対象であるか否かを判定してもよい。
 また、本実施形態においては、制御部6はプロセッサとメモリで構成されるハードウェアである。これに代えて、メモリが通信回線で接続される構成、あるいは別のストレージと通信回線等で接続されている構成を採用してもよい。
 1 医療システム
 3 内視鏡
 4 処置具
 5 電動アーム(駆動機構)
 6 制御部
 7 モニタ(表示部)
 10 交点座標算出部(処置具座標算出部)
 11 判定部
 12 処置具動作検出部
 13 駆動制御部(制御部)
 14 記憶部
 15 表示制御部
 S1 登録ステップ
 S3 画像取得ステップ
 S4 処置具抽出ステップ
 S6 処置具座標算出ステップ
 S7 判定ステップ
 S8 表示ステップ
 S9 処置具動作検出ステップ
 S10 制御ステップ
 H 体壁
 O 長手軸
 P,Q 交点

Claims (9)

  1.  内視鏡および1以上の処置具と、
     前記内視鏡により異なる時刻に取得された2以上の画像を処理して、前記処置具を抽出し、抽出された各前記処置具の長手軸の方向を決定し、決定された2以上の前記長手軸の交点の座標を算出する処置具座標算出部と、
     該処置具座標算出部により算出された前記交点の座標に基づいて、追従対象とする前記処置具であるか否かを判定する判定部とを備える医療システム。
  2.  前記内視鏡により取得された前記画像を表示する表示部と、
     該表示部に、前記判定部による判定結果を、前記画像内に抽出された前記処置具に対応づけて表示する表示制御部とを備える請求項1に記載の医療システム。
  3.  追従対象となる前記処置具の取り得る前記交点である登録点の座標を予め登録する記憶部を備え、
     前記判定部が、前記処置具座標算出部により算出された前記交点の座標と、前記記憶部に予め登録されている前記登録点の座標との距離が所定の閾値以下である場合に、前記交点の座標を通過する前記長手軸を有する前記処置具を追従対象であると判定する請求項1または請求項2に記載の医療システム。
  4.  前記内視鏡またはいずれかの前記処置具を駆動する駆動機構と、
     前記判定部により追従対象であると判定された前記処置具の動作を検出する処置具動作検出部と、
     該処置具動作検出部により検出された前記処置具の動作に前記内視鏡または他の前記処置具を追従させるように前記駆動機構を制御する制御部とを備える請求項1から請求項3のいずれかに記載の医療システム。
  5.  内視鏡および1以上の処置具と、
     前記内視鏡により異なる時刻に取得された2以上の画像を処理するプロセッサとを備え、
     該プロセッサが、2以上の前記画像を処理して、前記処置具を抽出し、抽出された各前記処置具の長手軸の方向を決定し、決定された2以上の前記長手軸の交点の座標を算出し、算出された前記交点の座標に基づいて、追従対象とする前記処置具であるか否かを判定する医療システム。
  6.  内視鏡により、1以上の処置具を含む2以上の画像を異なる時刻に取得する画像取得ステップと、
     該画像取得ステップにおいて取得された各画像において、前記処置具を抽出する処置具抽出ステップと、
     該処置具抽出ステップにおいて抽出された前記処置具の長手軸の方向を決定し、決定された2以上の前記長手軸の交点の座標を算出する処置具座標算出ステップと、
     該処置具座標算出ステップにおいて算出された前記交点の座標に基づいて、追従対象とする前記処置具であるか否かを判定する判定ステップとを含む医療システムの作動方法。
  7.  前記内視鏡により取得された前記画像と、前記判定ステップによる判定結果とを、前記処置具抽出ステップにおいて前記画像内に抽出された前記処置具に対応づけて表示する表示ステップとを含む請求項6に記載の医療システムの作動方法。
  8.  追従対象となる前記処置具の取り得る前記交点である登録点の座標を予め登録する登録ステップを含み、
     前記判定ステップが、前記処置具座標算出ステップにより算出された前記交点の座標と、前記登録ステップよりに予め登録されている前記登録点の座標との距離が所定の閾値以下である場合に、前記交点の座標を通過する前記長手軸を有する前記処置具を追従対象であると判定する請求項6または請求項7に記載の医療システムの作動方法。
  9.  前記判定ステップにより追従対象であると判定された前記処置具の動作を検出する処置具動作検出ステップと、
     該処置具動作検出ステップにより検出された前記処置具の動作に前記内視鏡または他の前記処置具を追従させるように前記内視鏡または他の前記処置具を駆動する駆動機構を制御する制御ステップとを含む請求項6から請求項8のいずれかに記載の医療システムの作動方法。
PCT/JP2017/023156 2017-06-23 2017-06-23 医療システムとその作動方法 WO2018235255A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2017/023156 WO2018235255A1 (ja) 2017-06-23 2017-06-23 医療システムとその作動方法
US16/711,866 US11510552B2 (en) 2017-06-23 2019-12-12 Medical system and operation method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/023156 WO2018235255A1 (ja) 2017-06-23 2017-06-23 医療システムとその作動方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/711,866 Continuation US11510552B2 (en) 2017-06-23 2019-12-12 Medical system and operation method therefor

Publications (1)

Publication Number Publication Date
WO2018235255A1 true WO2018235255A1 (ja) 2018-12-27

Family

ID=64737717

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/023156 WO2018235255A1 (ja) 2017-06-23 2017-06-23 医療システムとその作動方法

Country Status (2)

Country Link
US (1) US11510552B2 (ja)
WO (1) WO2018235255A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020141995A (ja) * 2019-03-08 2020-09-10 富士フイルム株式会社 内視鏡画像学習装置、方法及びプログラム、内視鏡画像認識装置
WO2022054428A1 (ja) * 2020-09-10 2022-03-17 オリンパス株式会社 医療システムおよび制御方法
WO2023127004A1 (ja) * 2021-12-27 2023-07-06 オリンパス株式会社 内視鏡システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113786152B (zh) * 2021-11-17 2022-02-08 极限人工智能有限公司 一种内窥镜镜头跟踪方法及内窥镜系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08164148A (ja) * 1994-12-13 1996-06-25 Olympus Optical Co Ltd 内視鏡下手術装置
JPH0938030A (ja) * 1995-07-28 1997-02-10 Shimadzu Corp 内視鏡装置
JPH10314104A (ja) * 1997-05-14 1998-12-02 Olympus Optical Co Ltd 内視鏡の視野変換装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5347987A (en) * 1991-04-08 1994-09-20 Feldstein David A Self-centering endoscope system
JP3419869B2 (ja) 1993-12-28 2003-06-23 オリンパス光学工業株式会社 医療器具
US5836869A (en) 1994-12-13 1998-11-17 Olympus Optical Co., Ltd. Image tracking endoscope system
JP4382894B2 (ja) 1998-12-04 2009-12-16 オリンパス株式会社 視野移動内視鏡システム
IL140136A (en) * 2000-12-06 2010-06-16 Intumed Ltd Apparatus for self-guided intubation
US7967742B2 (en) * 2005-02-14 2011-06-28 Karl Storz Imaging, Inc. Method for using variable direction of view endoscopy in conjunction with image guided surgical systems
DE102005029903A1 (de) * 2005-06-25 2007-01-04 Universitätsklinikum Hamburg-Eppendorf Verfahren und Vorrichtung zur 3D-Navigation auf Schichtbildern
WO2007025081A2 (en) * 2005-08-24 2007-03-01 Traxtal Inc. System, method and devices for navigated flexible endoscopy
JP5084139B2 (ja) 2005-12-12 2012-11-28 オリンパスメディカルシステムズ株式会社 内視鏡装置
EP2008244B1 (en) * 2006-03-30 2016-04-27 Stryker European Holdings I, LLC System and method for optical position measurement and guidance of a rigid or semi flexible tool to a target
US7841980B2 (en) 2006-05-11 2010-11-30 Olympus Medical Systems Corp. Treatment system, trocar, treatment method and calibration method
US8542900B2 (en) * 2007-03-08 2013-09-24 Sync-Rx Ltd. Automatic reduction of interfering elements from an image stream of a moving organ
US20080287783A1 (en) * 2007-05-16 2008-11-20 General Electric Company System and method of tracking delivery of an imaging probe
US9469034B2 (en) * 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US20100111389A1 (en) * 2007-12-06 2010-05-06 Siemens Medical Solutions Usa, Inc. System and method for planning and guiding percutaneous procedures
US20100076305A1 (en) * 2008-06-25 2010-03-25 Deutsches Krebsforschungszentrum Stiftung Des Offentlichen Rechts Method, system and computer program product for targeting of a target with an elongate instrument
JP4724262B2 (ja) * 2009-09-30 2011-07-13 オリンパスメディカルシステムズ株式会社 内視鏡装置
US20150238276A1 (en) * 2012-09-30 2015-08-27 M.S.T. Medical Surgery Technologies Ltd. Device and method for assisting laparoscopic surgery - directing and maneuvering articulating tool
JP5846385B2 (ja) * 2012-11-07 2016-01-20 国立大学法人東京工業大学 内視鏡操作システム
JP6072283B2 (ja) * 2013-01-28 2017-02-01 オリンパス株式会社 医療用マニピュレータおよび医療用マニピュレータの作動方法
US10736497B2 (en) * 2013-03-11 2020-08-11 Institut Hospitalo-Universitaire De Chirurgie Mini-Invasive Guidee Par L'image Anatomical site relocalisation using dual data synchronisation
CN105101895B (zh) 2013-03-28 2019-11-26 皇家飞利浦有限公司 经引导的高剂量率近距离放射治疗中的仪器定位
GB201406821D0 (en) * 2014-04-16 2014-05-28 Univ Leuven Kath Method and device for estimating an optimal pivot point
US9603668B2 (en) * 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US10991069B2 (en) * 2014-10-08 2021-04-27 Samsung Electronics Co., Ltd. Method and apparatus for registration of medical images
US11007014B2 (en) * 2015-12-18 2021-05-18 Koninklijke Philips N.V. Medical instrument tracking
EP3609424A1 (en) * 2017-04-14 2020-02-19 Stryker Corporation Surgical systems and methods for facilitating ad-hoc intraoperative planning of surgical procedures

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08164148A (ja) * 1994-12-13 1996-06-25 Olympus Optical Co Ltd 内視鏡下手術装置
JPH0938030A (ja) * 1995-07-28 1997-02-10 Shimadzu Corp 内視鏡装置
JPH10314104A (ja) * 1997-05-14 1998-12-02 Olympus Optical Co Ltd 内視鏡の視野変換装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020141995A (ja) * 2019-03-08 2020-09-10 富士フイルム株式会社 内視鏡画像学習装置、方法及びプログラム、内視鏡画像認識装置
JP7128135B2 (ja) 2019-03-08 2022-08-30 富士フイルム株式会社 内視鏡画像学習装置、方法及びプログラム、内視鏡画像認識装置
US11450079B2 (en) 2019-03-08 2022-09-20 Fujifilm Corporation Endoscopic image learning device, endoscopic image learning method, endoscopic image learning program, and endoscopic image recognition device
WO2022054428A1 (ja) * 2020-09-10 2022-03-17 オリンパス株式会社 医療システムおよび制御方法
WO2022054882A1 (ja) * 2020-09-10 2022-03-17 オリンパス株式会社 制御装置、内視鏡システムおよび制御方法
JP7522840B2 (ja) 2020-09-10 2024-07-25 オリンパス株式会社 制御装置
JP7535587B2 (ja) 2020-09-10 2024-08-16 オリンパス株式会社 医療システムおよび医療システムの作動方法
WO2023127004A1 (ja) * 2021-12-27 2023-07-06 オリンパス株式会社 内視鏡システム

Also Published As

Publication number Publication date
US11510552B2 (en) 2022-11-29
US20200113419A1 (en) 2020-04-16

Similar Documents

Publication Publication Date Title
JP7295153B2 (ja) 遠隔操作医療システムにおける器具のオフスクリーン表示のためのシステム及び方法
US10660716B2 (en) Systems and methods for rendering onscreen identification of instruments in a teleoperational medical system
US11510552B2 (en) Medical system and operation method therefor
US11872006B2 (en) Systems and methods for onscreen identification of instruments in a teleoperational medical system
EP2745795B1 (en) System for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
JP4152402B2 (ja) 手術支援装置
WO2017115425A1 (ja) 医療用マニピュレータシステム
CN114929146A (zh) 促进手术空间中的非机器人装置的受指导远程操作的系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17914535

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17914535

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP