WO2017122322A1 - 医療用マニピュレータシステム - Google Patents

医療用マニピュレータシステム Download PDF

Info

Publication number
WO2017122322A1
WO2017122322A1 PCT/JP2016/050974 JP2016050974W WO2017122322A1 WO 2017122322 A1 WO2017122322 A1 WO 2017122322A1 JP 2016050974 W JP2016050974 W JP 2016050974W WO 2017122322 A1 WO2017122322 A1 WO 2017122322A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
external force
manipulator
pseudo
unit
Prior art date
Application number
PCT/JP2016/050974
Other languages
English (en)
French (fr)
Inventor
卓未 磯田
満彰 長谷川
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2016/050974 priority Critical patent/WO2017122322A1/ja
Priority to JP2017561464A priority patent/JP6619456B2/ja
Publication of WO2017122322A1 publication Critical patent/WO2017122322A1/ja
Priority to US16/032,153 priority patent/US10959787B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • A61B1/00133Drive units for endoscopic tools inserted through or with the endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • A61B1/00135Oversleeves mounted on the endoscope prior to insertion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00154Holding or positioning arrangements using guiding arrangements for insertion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/0016Holding or positioning arrangements using motor drive units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/71Manipulators operated by drive cable mechanisms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/065Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/067Measuring instruments not otherwise provided for for measuring angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Definitions

  • the present invention relates to a medical manipulator system.
  • a medical manipulator system treats an affected area with a treatment tool attached to a manipulator inserted into the body while observing an image acquired by an endoscope inserted into the body (see, for example, Patent Document 1). .)
  • the medical manipulator system of Patent Document 1 displays an auxiliary image obtained by superimposing a manipulator obtained by calculation on a real image obtained by an endoscope in a superimposed manner.
  • the auxiliary image displays the position of the manipulator that should be originally arranged based on the operation command from the control unit.
  • the medical manipulator system of Patent Document 1 has a case where the transparency of the semitransparent auxiliary image is low because the auxiliary image of the synthesized translucent manipulator is superimposed on the manipulator of the actual image acquired by the endoscope In some cases, a part of the actual image is obstructed by the auxiliary image, which disturbs the operation. On the other hand, when the transparency of the semi-transparent auxiliary image is low enough not to interfere with the observation of the actual image, it is difficult to visually recognize the auxiliary image, and there is no point in superimposing and displaying the auxiliary image.
  • the present invention has been made in view of the above-described circumstances, and provides a medical manipulator system capable of presenting necessary information using an auxiliary image while minimizing the blockage of the actual image using the auxiliary image.
  • the purpose is that.
  • One embodiment of the present invention detects a manipulator having a treatment section at the tip, a control section that controls the manipulator, an endoscope that images a treatment state of the treatment section by the manipulator, and an external force applied to the manipulator.
  • An external force detection unit an image generation unit that generates a pseudo image of the manipulator at a position based on a control signal from the control unit; and generates a composite image superimposed on an actual image acquired by the endoscope; and the image generation
  • a medical manipulator for changing the display mode of the pseudo image based on the magnitude of the external force detected by the external force detection unit.
  • the actual image of the acquired endoscope is displayed.
  • the pseudo image of the manipulator generated by the image generation unit is superimposed on the actual image and displayed on the display unit. Since the pseudo image is generated at a position based on a control signal from the control unit, when an external force is applied to the manipulator and movement is restricted, a deviation occurs between the manipulator in the actual image and the pseudo image.
  • the image generation unit changes the display mode of the pseudo image according to the magnitude of the external force detected by the external force detection unit, the display mode is different depending on whether the external force is large or small. Can do. Thereby, when the external force applied to the manipulator is large, it can be displayed so that it can be recognized, and the operator can be alerted. In addition, when the external force applied to the manipulator is small, the actual image can be prevented from being blocked by the pseudo image by displaying the image so as not to stand out.
  • the display mode of the pseudo image may be changed so that the image generation unit is more conspicuous in the composite image as the magnitude of the external force detected by the external force detection unit is larger.
  • the greater the external force applied to the manipulator the more the manipulator in the actual image is separated from the pseudo image, so that the pseudo image is conspicuous and the operator can be alerted.
  • the external force applied to the manipulator is small, it is possible to prevent the pseudo image from interfering with the actual image by displaying the image so as not to stand out.
  • the said image generation part may make transparency of the said pseudo image low, so that the magnitude
  • the said image generation part may change the color of the said pseudo image to a conspicuous color, so that the magnitude
  • the said image generation part produces
  • the line of the pseudo image consisting of the line drawing becomes thick, so that the pseudo image can be conspicuous and the operator can be alerted.
  • the pseudo image can be prevented from interfering with the real image by thinning the line of the pseudo image.
  • the external force detection unit detects the position of the manipulator by processing the real image, and calculates the external force based on a difference from the position of the pseudo image of the manipulator generated by the image generation unit. It may be detected.
  • the actual image acquired by the endoscope is processed by the external force detection unit to detect the position of the manipulator, and the difference from the position of the manipulator pseudo image generated by the image generation unit is calculated.
  • the magnitude of the external force is detected according to the magnitude of the difference.
  • the said manipulator may be driven with a wire, and the said external force detection part may detect the said external force based on the tension
  • the present invention it is possible to present necessary information using the auxiliary image while minimizing the blockage of the actual image using the auxiliary image.
  • FIG. 1 is an overall configuration diagram showing a medical manipulator system according to a first embodiment of the present invention. It is a perspective view which shows the front-end
  • the medical manipulator system 1 includes an endoscope 2, a manipulator 4 having a treatment section 3 at the tip, a control section 5 that controls the manipulator 4, and a display section 6. And.
  • the endoscope 2 and the manipulator 4 are respectively inserted into lumens 8 and 9 of an overtube 7 that is inserted into a patient's body.
  • the overtube 7 is inserted into the body so that the tip of the overtube 7 faces the affected part X
  • the endoscope 2 is projected from the opening of the lumen 9 provided at the tip of the overtube 7, as shown in FIG.
  • an in-vivo image including the affected part X is acquired, and the affected part X can be treated by the treatment part 3 of the manipulator 4 which is also projected from the opening of the lumen 8.
  • the manipulator 4 includes, for example, a flexible insertion portion 10 that is inserted into the lumen 8 of the overtube 7, a movable portion 13 having one or more joints 11 and 12 provided at the distal end of the insertion portion 10, and a movable portion. 13 is provided with a treatment section 3 provided at the distal end of 13 and a drive section 14 provided at the proximal end of the insertion section 10 and driving the movable section 13 with a wire (not shown).
  • control unit 5 generates a control signal generation unit (control unit) that generates a control signal for operating the drive unit 14 based on an operation input input via the operation unit 15 operated by the operator.
  • An image generation unit 17 that generates a composite image superimposed on the actual image, and an image processing unit (external force detection unit) 18 that processes the actual image acquired by the endoscope 2 and detects an external force applied to the manipulator 4.
  • image processing unit external force detection unit
  • the image generation unit 17 calculates the positions of the joints 11 and 12 of the manipulator 4 from the kinematic equation based on the control signal, and the manipulator 4 and the treatment unit 3 in which the joints 11 and 12 are arranged at the calculated positions.
  • a pseudo image representing the shape is generated by computer graphics.
  • the image processing unit 18 performs image processing on the actual image acquired by the endoscope 2, extracts the positions of the joints 11 and 12 of the manipulator 4 existing on the actual image, and extracts the joints of the extracted manipulator 4. The difference between the positions 11 and 12 and the positions of the joints 11 and 12 of the manipulator 4 calculated by the image generation unit 17 is calculated.
  • the image processing unit 18 detects and outputs the magnitude of the external force based on the magnitude of the difference between the calculated positions of the joints 11 and 12.
  • the image generation unit 17 sets the transparency of the pseudo image of the manipulator 4 according to the magnitude of the external force applied to the manipulator 4 output from the image processing unit 18. It is supposed to change. That is, the image generation unit 17 sorts the magnitude of the external force output from the image processing unit 18 into a plurality of stages based on the threshold value, and when it is determined that the minimum is the smallest, the image generation unit 17 determines the transparency of the pseudo image. It is set to the highest value, and as the magnitude of the external force becomes larger, the transparency of the pseudo image is changed to be lowered.
  • the endoscope 2 and the manipulator 4 are passed through the lumens 8 and 9 of the overtube 7 having the tip inserted into the body. Is inserted and exposed from the tip of the overtube 7.
  • the affected part X When the affected part X is disposed within the visual field range of the endoscope 2, an actual image acquired by the endoscope 2 is displayed on the display unit 6. By inserting the manipulator 4 and disposing the tip within the field of view of the endoscope 2, the tip of the manipulator 4 is displayed on the display unit 6, so that the operator looks at the display unit 6 while operating the operation unit 15. By operating the manipulator 4, the affected part X can be treated.
  • a control signal is generated by the control signal generation unit 16, the movable unit 13 of the manipulator 4 is operated by the operation of the drive unit 14, and the image generation unit 17 performs the operation.
  • a pseudo image of the manipulator 4 is generated based on the control signal.
  • the manipulator 4 on the actual image and the pseudo image of the manipulator 4 generated from the control signal are displayed at substantially the same position.
  • the image generation unit 17 determines that the external force applied to the manipulator 4 is small, and the generated pseudo image is set to have high transparency, and a composite image superimposed on the real image is generated in a display form in which the pseudo image is not conspicuous. The As a result, the pseudo image displayed at a position that completely overlaps the manipulator 4 on the actual image does not block the actual image, so that the treatment is not disturbed.
  • the image generation unit 17 determines that the external force applied to the manipulator 4 is large, the transparency of the generated pseudo image is set to be low, and the synthesized image is generated by superimposing the pseudo image on the actual image. .
  • the pseudo image with low transparency is displayed at a position shifted from the manipulator 4 on the actual image, and the operator can recognize that the external force applied to the manipulator 4 has increased.
  • the medical manipulator system 1 by changing the display mode of the pseudo image, when the external force applied to the manipulator 4 is small, the real image is not blocked, and the pseudo image is increased as the external force increases.
  • the pseudo image is increased as the external force increases.
  • the transparency of the pseudo image is switched to a plurality of levels by a plurality of thresholds. Instead, according to the position difference between the manipulator 4 of the real image and the manipulator 4 of the pseudo image.
  • the transparency may be switched continuously.
  • the color of the pseudo image may be changed.
  • the manipulator 4 of the pseudo image may be changed to a conspicuous color, and when the external force is small, the color may be changed to an inconspicuous color.
  • a pseudo image can be made conspicuous by increasing the intensity of green, which is a complementary color of red.
  • the transparency of the line and the color of the line may be changed according to the magnitude of the external force applied to the manipulator 4. It is also possible to make the line thicker as the external force increases.
  • a pseudo image of the manipulator 4 of the portion displayed on the display unit 6 is generated and the display form of the entire pseudo image is changed.
  • the magnitude of the external force is increased for each of the joints 11 and 12. Therefore, the display form may be changed for each of the joints 11 and 12.
  • an arrow may be displayed in the direction in which the external force is applied, and the length and thickness of the arrow may be changed according to the magnitude of the external force.
  • the image processing unit 18 performs image processing on the real image to extract the position of the manipulator 4 on the real image, and calculates a difference from the position of the pseudo image generated by the image generation unit 17.
  • the magnitude of the external force applied to the manipulator 4 may be detected.
  • the magnitude of the external force may be detected by any other method. For example, when the external force applied to the manipulator 4 increases, the tension of the wire driving the movable portion 13 increases. Therefore, the magnitude of the external force may be estimated from the magnitude of the tension.
  • a sensor such as an angle sensor or a strain gauge can be disposed at each joint 11, 12 of the manipulator 4, an external force applied to the manipulator 4 may be detected based on the output of the sensor.
  • the medical manipulator system 20 according to the present embodiment is different from the medical manipulator system 1 of the first embodiment in that a rigid manipulator 21 is employed as shown in FIG. Therefore, in the present embodiment, the configuration of the medical manipulator system 20 will be mainly described, and the configuration common to the first embodiment will be denoted by the same reference numerals and description thereof will be omitted.
  • the medical manipulator system 20 includes an endoscope 2, a manipulator 21, a retraction device 22 that excludes the organ B in the abdominal cavity (body cavity) A, a retraction device 22, and the endoscope 2. And a trocar 23 for inserting the manipulator 21, articulated electric arms 24, 25, and 26 that hold the base end portions of the retraction tool 22, the endoscope 2, and the manipulator 21 outside the body, and are operated by an operator.
  • An operation unit 15, a control unit 5, and a display unit 6 are provided.
  • the manipulator 21 includes an elongated insertion portion 28 that can be inserted into the abdominal cavity A, a movable portion 13, and a drive portion 14.
  • the control signal generation unit 16 of the control unit 5 generates a control signal for operating the joints of the electric arms 24, 25, and 26 based on the operation input input to the operation unit 15.
  • a signal corresponding to the operation input is transmitted to the control signal generation unit 16 of the control unit 5, and the joint is selected based on the signal received by the control signal generation unit 16.
  • a control signal to be operated is generated, and the electric arms 24, 25, and 26 are operated based on the generated control signal.
  • the operator can remotely operate the retraction tool 22, the endoscope 2, and the manipulator 21 inserted into the body cavity via the operation unit 15.
  • control signal generation unit 16 receives detection values from an encoder (not shown) provided in the electric arms 24, 25, and 26 that detects the rotation angle of each joint, and based on the received detection values of the encoder, The positions and postures of the retraction tool 22, the endoscope 2, and the manipulator 21 are calculated. Then, the control signal generation unit 16 operates the joint of the electric arm 24 holding the exclusion device 22 so as to move the displacement device 22 based on the calculated position and posture of the endoscope 2 and the manipulator 21. A control signal to be generated is generated.
  • the retraction device 22 A control signal for operating the joint of the electric arm 24 is generated so as to move in the direction away from the endoscope 2 or the manipulator 21.
  • the retraction device 22 when the manipulator 21 approaches the retraction device 22 while operating the endoscope 2 and the manipulator 21 in the abdominal cavity A and performing treatment, the retraction device By moving automatically so that 22 moves away from the manipulator 21, the organ B located in the vicinity of the manipulator 21 is further excluded, and a treatment space for the manipulator 21 is newly secured.
  • the retraction tool 22 automatically moves so as to move away from the endoscope 2, and the visual field of the endoscope 2 is secured.
  • the efficiency of the surgery can be further improved by moving the exclusion tool 22 so as to cooperate with the operation of another medical instrument used simultaneously with the exclusion tool 22.
  • the image generation unit 17 generates pseudo images of the manipulator 21 and the exclusion device 22 based on the control signal. Then, the transparency of the pseudo image is set based on the difference between the positions of the manipulator 21 and the exclusion device 22 on the actual image and the positions of the manipulator 21 and the exclusion device 22 of the pseudo image, which are calculated by the image processing unit 18.
  • the transparency is set high, and the pseudo image does not obstruct the real image, so that it does not interfere with the treatment.
  • the manipulator 21 and the exclusion device 22 are operated while the tips of the manipulator 21 and the exclusion device 22 are in contact with the affected part X during treatment, the external force received by the manipulator 21 and the exclusion device 22 from the affected part X increases. . For this reason, the difference between the positions of the manipulator 21 and the exclusion device 22 on the actual image and the positions of the manipulator 21 and the exclusion device 22 on the pseudo image, which are calculated by the image processing unit 18, increases.
  • the image generation unit 17 determines that the external force applied to the manipulator 21 and the exclusion device 22 is large, sets the transparency of the generated pseudo image low, makes the pseudo image stand out, and superimposes it on the actual image.
  • the synthesized image is generated.
  • the pseudo image with low transparency is displayed at a position shifted from the manipulator 21 and the exclusion device 22 on the actual image, and the operator can recognize that the external force applied to the manipulator 21 and the exclusion device 22 has increased. it can.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Manipulator (AREA)
  • Endoscopes (AREA)

Abstract

 補助画像による実画像の遮断を最小限に抑えて、補助画像による必要な情報を提示することを目的として、本発明に係る医療用マニピュレータシステム(1)は、先端に処置部(3)を有するマニピュレータ(4)と、マニピュレータ(4)を制御する制御部(5)と、マニピュレータ(4)による処置部(3)の処置状態を撮影する内視鏡(2)と、マニピュレータ(4)に加わる外力を検出する外力検出部と、制御部(5)による制御信号に基づく位置にマニピュレータ(4)の疑似画像を生成し、内視鏡(2)により取得される実画像に重畳した合成画像を生成する画像生成部と、画像生成部により生成された合成画像を表示する表示部(6)とを備え、画像生成部が、外力検出部により検出された外力の大きさに基づいて、疑似画像の表示態様を変化させる。

Description

医療用マニピュレータシステム
 本発明は、医療用マニピュレータシステムに関するものである。
 体内に挿入した内視鏡により取得された画像を観察しながら、体内に挿入したマニピュレータに取り付けられた処置具により患部の処置を行う医療用マニピュレータシステムが知られている(例えば、特許文献1参照。)。
 特許文献1の医療用マニピュレータシステムは、内視鏡により取得された実画像上に、演算により取得されたマニピュレータを半透明に合成した補助画像を重畳して表示している。補助画像は、制御部による動作指令に基づいて本来配置されるべきマニピュレータの位置を表示する。
米国特許出願公開第2014/135792号公報
 特許文献1の医療用マニピュレータシステムは、内視鏡により取得された実画像のマニピュレータに、合成された半透明のマニピュレータの補助画像が重畳されているため、半透明の補助画像の透明度が低い場合には、補助画像によって実画像の一部が遮られ、手術の邪魔になる。一方、実画像の観察の邪魔にならない程度に半透明の補助画像の透明度が低い場合には、補助画像を視認することが困難になり、補助画像を重畳表示する意味がない。
 本発明は、上述した事情に鑑みてなされたものであって、補助画像による実画像の遮断を最小限に抑えて、補助画像による必要な情報を提示することができる医療用マニピュレータシステムを提供することを目的としている。
 本発明の一態様は、先端に処置部を有するマニピュレータと、該マニピュレータを制御する制御部と、前記マニピュレータによる前記処置部の処置状態を撮影する内視鏡と、前記マニピュレータに加わる外力を検出する外力検出部と、前記制御部による制御信号に基づく位置に前記マニピュレータの疑似画像を生成し、前記内視鏡により取得される実画像に重畳した合成画像を生成する画像生成部と、該画像生成部により生成された合成画像を表示する表示部とを備え、前記画像生成部が、前記外力検出部により検出された外力の大きさに基づいて、前記疑似画像の表示態様を変化させる医療用マニピュレータシステムである。
 本態様によれば、マニピュレータおよび内視鏡を体内に挿入して患部に近接させ、内視鏡によってマニピュレータの処置部による患部の処置状態を撮影すると、取得された内視鏡の実画像が表示部に表示されるとともに、画像生成部によって生成されたマニピュレータの疑似画像が、実画像に重畳されて表示部に表示される。疑似画像は、制御部による制御信号に基づく位置に生成されるので、マニピュレータに外力がかかって移動が制限されると、実画像中のマニピュレータと疑似画像との間にズレが発生する。
 この場合において、画像生成部は、外力検出部によって検出された外力の大きさに応じて疑似画像の表示態様を変化させるので、外力が大きい場合と外力が小さい場合とで表示態様を異ならせることができる。これにより、マニピュレータにかかる外力が大きい場合に、それとわかるように表示することができ、操作者に注意を喚起することができる。また、マニピュレータにかかる外力が小さい場合には目立たないように表示することで、疑似画像によって実画像が遮られないようにすることができる。
 上記態様においては、前記画像生成部が、前記外力検出部により検出された外力の大きさが大きいほど、前記合成画像内において目立つように前記疑似画像の表示態様を変化させてもよい。
 このようにすることで、マニピュレータにかかる外力が大きいほど実画像内のマニピュレータと疑似画像とが乖離するので、疑似画像を目立たせて操作者に注意を喚起することができる。また、マニピュレータにかかる外力が小さい場合には目立たないように表示することで、疑似画像が実画像の邪魔にならないようにすることができる。
 また、上記態様においては、前記画像生成部が、前記外力検出部により検出された外力の大きさが大きいほど、前記疑似画像の透明度を低くしてもよい。
 このようにすることで、マニピュレータにかかる外力が大きくなると疑似画像の透明度が低くなるので、疑似画像を目立たせて操作者に注意を喚起することができる。また、マニピュレータにかかる外力が小さい場合には透明度を高くすることで、目立たないように表示することができ、疑似画像が実画像の邪魔にならないようにすることができる。
 また、上記態様においては、前記画像生成部が、前記外力検出部により検出された外力の大きさが大きいほど、前記疑似画像の色を目立つ色に変更してもよい。
 このようにすることで、マニピュレータにかかる外力が大きくなると疑似画像の色が目立つ色になるので、疑似画像を目立たせて操作者に注意を喚起することができる。また、マニピュレータにかかる外力が小さい場合には、疑似画像が目立たない色で表示され、疑似画像が実画像の邪魔にならないようにすることができる。
 また、上記態様においては、前記画像生成部が、前記疑似画像を線画により生成し、前記外力検出部により検出された外力の大きさが大きいほど、前記疑似画像の線を太く変更してもよい。
 このようにすることで、マニピュレータにかかる外力が大きくなると線画からなる疑似画像の線が太くなるので、疑似画像を目立たせて操作者に注意を喚起することができる。また、マニピュレータにかかる外力が小さい場合には、疑似画像の線を細くすることで、疑似画像が実画像の邪魔にならないようにすることができる。
 また、上記態様においては、前記外力検出部が、前記実画像を処理して前記マニピュレータの位置を検出し、前記画像生成部により生成される前記マニピュレータの疑似画像の位置との差分によって前記外力を検出してもよい。
 このようにすることで、内視鏡により取得された実画像が外力検出部によって処理されてマニピュレータの位置が検出され、画像生成部により生成されたマニピュレータの疑似画像の位置との差分が算出され、差分の大きさに応じて外力の大きさが検出される。これにより、特別なセンサを備えることなく、内視鏡画像を処理して、マニピュレータに加わる外力の大きさを検出することができる。
 また、上記態様においては、前記マニピュレータが、ワイヤによって駆動され、前記外力検出部が、前記ワイヤの張力に基づいて、前記外力を検出してもよい。
 このようにすることで、マニピュレータに外力がかかると、マニピュレータを駆動するワイヤの張力が増大するので、その張力を検出することによって外力を検出することができる。
 本発明によれば、補助画像による実画像の遮断を最小限に抑えて、補助画像による必要な情報を提示することができるという効果を奏する。
本発明の第1の実施形態に係る医療用マニピュレータシステムを示す全体構成図である。 図1の医療用マニピュレータシステムのオーバーチューブの先端部を示す斜視図である。 図1の医療用マニピュレータシステムの制御部を説明するブロック図である。 図1の医療用マニピュレータシステムの表示部に表示される画像例であり、外力が小さい場合を示す図である。 図1の医療用マニピュレータシステムの表示部に表示される画像例であり、外力が中くらいの場合を示す図である。 図1の医療用マニピュレータシステムの表示部に表示される画像例であり、外力が大きい場合を示す図である。 本発明の第2の実施形態に係る医療用マニピュレータシステムを示す全体構成図である。
 本発明の第1の実施形態に係る医療用マニピュレータシステム1について、図面を参照して以下に説明する。
 本実施形態に係る医療用マニピュレータシステム1は、図1に示されるように、内視鏡2と、先端に処置部3を有するマニピュレータ4と、マニピュレータ4を制御する制御部5と、表示部6とを備えている。
 内視鏡2およびマニピュレータ4は、患者の体内に挿入されるオーバーチューブ7のルーメン8,9にそれぞれ挿入されている。オーバーチューブ7を、その先端が患部Xに対向するように体内に挿入すると、図2に示されるように、オーバーチューブ7の先端に設けられたルーメン9の開口から突出させられた内視鏡2により患部Xを含む体内の画像を取得し、同じくルーメン8の開口から突出させられたマニピュレータ4の処置部3によって患部Xを処置することができるようになっている。
 マニピュレータ4は、例えば、オーバーチューブ7のルーメン8内に挿入される軟性の挿入部10と、該挿入部10の先端に設けられた1以上の関節11,12を有する可動部13と、可動部13の先端に設けられた処置部3と、挿入部10の基端に設けられ図示しないワイヤによって可動部13を駆動する駆動部14とを備えている。
 制御部5は、図3に示されるように、操作者によって操作される操作部15を介して入力された操作入力に基づいて駆動部14を動作させる制御信号を生成する制御信号生成部(制御部)16と、該制御信号生成部16により生成された制御信号に基づいて、マニピュレータ4の疑似画像(補助画像)を生成するとともに、生成した疑似画像を内視鏡2による撮影により取得された実画像上に重畳した合成画像を生成する画像生成部17と、内視鏡2により取得された実画像を処理してマニピュレータ4に加わる外力を検出する画像処理部(外力検出部)18とを備えている。
 画像生成部17は、制御信号に基づいて、運動学方程式からマニピュレータ4の各関節11,12の位置を算出し、算出された位置に各関節11,12を配置したマニピュレータ4および処置部3の形状を表す疑似画像をコンピュータグラフィックにより生成するようになっている。
 画像処理部18は、内視鏡2により取得された実画像を画像処理して、実画像上に存在するマニピュレータ4の各関節11,12の位置を抽出し、抽出されたマニピュレータ4の各関節11,12の位置と、画像生成部17により算出されたマニピュレータ4の各関節11,12の位置との差分を算出するようになっている。画像処理部18は、算出されたいずれかの関節11,12の位置の差分の大きさによって、外力の大きさを検出して出力するようになっている。
 そして、本実施形態に係る医療用マニピュレータシステム1においては、画像生成部17は、画像処理部18から出力された、マニピュレータ4にかかる外力の大きさに応じて、マニピュレータ4の疑似画像の透明度を変化させるようになっている。
 すなわち、画像生成部17は、画像処理部18から出力された外力の大きさを閾値によって複数段階に選別し、最も小さいと判断される場合には、画像生成部17は、疑似画像の透明度を最も高くし、外力の大きさが大きくなるにつれて、疑似画像の透明度を低くするように変化させるようになっている。
 このように構成された本実施形態に係る医療用マニピュレータシステム1の作用について以下に説明する。
 本実施形態に係る医療用マニピュレータシステム1を用いて患者の体内の患部Xを処置するには、先端を体内に挿入したオーバーチューブ7のルーメン8,9を介して、内視鏡2およびマニピュレータ4を挿入し、オーバーチューブ7の先端から露出させる。
 内視鏡2の視野範囲内に患部Xを配置すると、内視鏡2により取得された実画像が表示部6に表示される。マニピュレータ4を挿入して、先端を内視鏡2の視野範囲内に配置することにより、マニピュレータ4の先端が表示部6に表示されるので、操作者は、表示部6を見ながら操作部15を操作することにより、マニピュレータ4を動作させて、患部Xを処置することができる。
 操作部15が操作されて操作入力が入力されると、制御信号生成部16によって制御信号が生成され、駆動部14の作動によってマニピュレータ4の可動部13が作動させられるとともに、画像生成部17によって、制御信号に基づいてマニピュレータ4の疑似画像が生成される。
 この場合において、マニピュレータ4の先端の処置部3が患部Xに接触していない状態、あるいは、マニピュレータ4の各部が体内の組織等に接触していない場合には、マニピュレータ4には大きな外力が作用しておらず、図4に示されるように、実画像上のマニピュレータ4と、制御信号から生成したマニピュレータ4の疑似画像とはほぼ同じ位置に表示される。
 このため、画像処理部18において算出される、実画像上のマニピュレータ4の位置と疑似画像のマニピュレータ4の位置との差分はゼロに近い。したがって、画像生成部17は、マニピュレータ4にかかる外力が小さいと判定し、生成した疑似画像の透明度が高く設定され、疑似画像が目立たない表示形態にして、実画像に重畳した合成画像が生成される。
 その結果、実画像上のマニピュレータ4に完全に重なる位置に表示される疑似画像が実画像を遮らないので、処置の邪魔になることがない。
 一方、処置中にマニピュレータ4の先端の処置部3が患部Xに接触した状態で、マニピュレータ4を動作させると、患部Xからマニピュレータ4が受ける外力が増大する。このため、画像処理部18において算出される、実画像上のマニピュレータ4の位置と疑似画像のマニピュレータ4の位置との差分が図5および図6に示されるように、増大していく。
 したがって、画像生成部17は、マニピュレータ4にかかる外力が大きいと判定し、生成した疑似画像の透明度が低く設定され、疑似画像を目立つ表示形態にして、実画像に重畳した合成画像が生成される。その結果、透明度の低い疑似画像が、実画像上のマニピュレータ4からずれた位置に表示され、操作者に、マニピュレータ4にかかる外力が増大したことを認識させることができる。
 このように、本実施形態に係る医療用マニピュレータシステム1によれば、疑似画像の表示態様を変化させることにより、マニピュレータ4にかかる外力が小さいときには実画像を遮らず、外力が大きくなるに従って疑似画像を目立たせることにより、外力が大きくなったことを強調して操作者に知らせることができるという利点がある。
 なお、本実施形態においては、複数の閾値によって疑似画像の透明度を複数段階に切り替えることとしたが、これに代えて、実画像のマニピュレータ4と疑似画像のマニピュレータ4との位置の差分に応じて連続的に透明度を切り替えることにしてもよい。
 また、疑似画像の透明度を変更することに代えて、あるいはこれと共に、疑似画像の色を変化させることにしてもよい。マニピュレータ4にかかる外力が大きい場合には、疑似画像のマニピュレータ4を目立つ色に変えていき、外力が小さい場合には目立たない色に変えていくことにしてもよい。
 例えば、赤色の多い体内の生体組織に対して目立つ色としては、赤の補色である緑色の強度を大きくして行くことにより、疑似画像を目立たせることができる。
 また、疑似画像として、マニピュレータ4の輪郭あるいはマニピュレータ4の骨格を表す線画を採用する場合には、マニピュレータ4にかかる外力の大きさに応じて線の透明度や線の色を変化させることにしてもよいし、外力が大きいほど線を太くすることにしてもよい。
 また、表示部6に表示される部分のマニピュレータ4の疑似画像を生成して、その疑似画像全体の表示形態を変更することとしたが、これに代えて、関節11,12毎に外力の大きさを判断して、関節11,12毎に表示形態を変更することにしてもよい。
 また、外力のかかっている方向に矢印を表示し、外力の大きさに応じて矢印の長さや太さを変更することにしてもよい。
 また、本実施形態においては、画像処理部18において、実画像を画像処理して実画像上のマニピュレータ4の位置を抽出し、画像生成部17において生成された疑似画像の位置との差分を算出することによってマニピュレータ4にかかる外力の大きさを検出することとしたが、これに代えて、他の任意の方法によって外力の大きさを検出することにしてもよい。例えば、マニピュレータ4にかかる外力が増大すると、可動部13を駆動しているワイヤの張力が増大するので、その張力の大きさから外力の大きさを推定することにしてもよい。
 また、マニピュレータ4の各関節11,12に角度センサあるいは歪みゲージ等のセンサを配置できる場合には、センサの出力によってマニピュレータ4にかかる外力を検出することにしてもよい。
 次に、本発明の第2の実施形態に係る医療用マニピュレータシステム20について図7を参照して説明する。
 本実施形態に係る医療用マニピュレータシステム20は、図7に示されるように、硬性のマニピュレータ21を採用している点で、第1の実施形態の医療用マニピュレータシステム1と異なっている。したがって、本実施形態においては、医療用マニピュレータシステム20の構成について主に説明し、第1の実施形態と共通する構成については、同一の符号を付して説明を省略する。
 医療用マニピュレータシステム20は、図7に示されるように、内視鏡2と、マニピュレータ21と、腹腔(体腔)A内の臓器Bを圧排する圧排具22と、圧排具22、内視鏡2およびマニピュレータ21を挿入するトロッカ23と、圧排具22、内視鏡2およびマニピュレータ21の各々の基端部分を体外において保持する多関節の電動アーム24,25,26と、操作者によって操作される操作部15と、制御部5と、表示部6とを備えている。
 マニピュレータ21は、腹腔A内に挿入可能な細長い挿入部28と、可動部13と、駆動部14とを備えている。
 制御部5の制御信号生成部16は、操作部15に入力された操作入力に基づいて電動アーム24,25,26の関節を動作させる制御信号を生成するようになっている。
 操作者によって操作部15に操作入力が入力されると、その操作入力に対応する信号が制御部5の制御信号生成部16へ送信され、制御信号生成部16が受信した信号に基づいて関節を動作させる制御信号を生成し、生成された制御信号に基づいて電動アーム24,25,26が作動するようになっている。これにより、操作者は、体腔内に挿入されている圧排具22、内視鏡2およびマニピュレータ21を、操作部15を介して遠隔操作することができるようになっている。
 さらに、制御信号生成部16は、電動アーム24,25,26に設けられた、各関節の回転角度を検出する図示しないエンコーダから検出値を受信し、受信したエンコーダの検出値に基づいて体腔内における圧排具22、内視鏡2およびマニピュレータ21の位置および姿勢を計算する。そして、制御信号生成部16は、算出した内視鏡2およびマニピュレータ21の位置および姿勢に基づいて圧排具22を移動させるように、該圧排具22を保持している電動アーム24の関節を動作させる制御信号を生成する。具体的には、制御信号生成部16は、内視鏡2およびマニピュレータ21が圧排具22へ接近して該圧排具22との間の距離が所定の閾値未満になったときに、圧排具22を内視鏡2またはマニピュレータ21から遠ざける方向へ移動させるように、電動アーム24の関節を動作させる制御信号を生成する。
 このように構成された医療用マニピュレータシステム20によれば、腹腔A内の内視鏡2およびマニピュレータ21を操作して処置を行っている最中にマニピュレータ21が圧排具22に近づくと、圧排具22がマニピュレータ21から遠ざかるように自動的に移動することによってマニピュレータ21の近傍に位置していた臓器Bがさらに圧排され、マニピュレータ21の処置空間が新たに確保される。同様に、内視鏡2が圧排具22に近づくと、圧排具22が内視鏡2から遠ざかるように自動的に移動して内視鏡2の視野が確保される。このように、圧排具22と同時に使用される他の医療器具の動作と協調するように圧排具22を移動させることによって、手術のさらなる効率化を図ることができるという利点がある。
 この場合において、本実施形態に係る医療用マニピュレータシステムによれば、画像生成部17によって、制御信号に基づいてマニピュレータ21および圧排具22の疑似画像が生成される。そして、画像処理部18において算出される、実画像上のマニピュレータ21および圧排具22の位置と疑似画像のマニピュレータ21および圧排具22の位置との差分に基づいて疑似画像の透明度が設定される。
 その結果、実画像上のマニピュレータ21および圧排具22に完全に重なる場合には透明度が高く設定されて、疑似画像が実画像を遮らないので、処置の邪魔になることがない。逆に、処置中にマニピュレータ21および圧排具22の先端等が患部Xに接触した状態で、マニピュレータ21および圧排具22を動作させると、患部Xからマニピュレータ21および圧排具22が受ける外力が増大する。このため、画像処理部18において算出される、実画像上のマニピュレータ21および圧排具22の位置と疑似画像のマニピュレータ21および圧排具22の位置との差分が増大していく。
 この場合には、画像生成部17は、マニピュレータ21および圧排具22にかかる外力が大きいと判定し、生成した疑似画像の透明度を低く設定し、疑似画像を目立つ表示形態にして、実画像に重畳した合成画像を生成する。その結果、透明度の低い疑似画像が、実画像上のマニピュレータ21および圧排具22からずれた位置に表示され、操作者に、マニピュレータ21および圧排具22にかかる外力が増大したことを認識させることができる。
 1,20 医療用マニピュレータシステム
 2 内視鏡
 3 処置部
 4,21 マニピュレータ
 22 圧排具(マニピュレータ)
 6 表示部
 16 制御信号生成部(制御部)
 17 画像生成部
 18 画像処理部(外力検出部)

Claims (7)

  1.  先端に処置部を有するマニピュレータと、
     該マニピュレータを制御する制御部と、
     前記マニピュレータによる前記処置部の処置状態を撮影する内視鏡と、
     前記マニピュレータに加わる外力を検出する外力検出部と、
     前記制御部による制御信号に基づく位置に前記マニピュレータの疑似画像を生成し、前記内視鏡により取得される実画像に重畳した合成画像を生成する画像生成部と、
     該画像生成部により生成された合成画像を表示する表示部とを備え、
     前記画像生成部が、前記外力検出部により検出された外力の大きさに基づいて、前記疑似画像の表示態様を変化させる医療用マニピュレータシステム。
  2.  前記画像生成部が、前記外力検出部により検出された外力の大きさが大きいほど、前記合成画像内において目立つように前記疑似画像の表示態様を変化させる請求項1に記載の医療用マニピュレータシステム。
  3.  前記画像生成部が、前記外力検出部により検出された外力の大きさが大きいほど、前記疑似画像の透明度を低くする請求項2に記載の医療用マニピュレータシステム。
  4.  前記画像生成部が、前記外力検出部により検出された外力の大きさが大きいほど、前記疑似画像の色を目立つ色に変更する請求項2に記載の医療用マニピュレータシステム。
  5.  前記画像生成部が、前記疑似画像を線画により生成し、前記外力検出部により検出された外力の大きさが大きいほど、前記疑似画像の線を太く変更する請求項2に記載の医療用マニピュレータシステム。
  6.  前記外力検出部が、前記実画像を処理して前記マニピュレータの位置を検出し、前記画像生成部により生成される前記マニピュレータの疑似画像の位置との差分によって前記外力を検出する請求項1から請求項5のいずれかに記載の医療用マニピュレータシステム。
  7.  前記マニピュレータが、ワイヤによって駆動され、
     前記外力検出部が、前記ワイヤの張力に基づいて、前記外力を検出する請求項1から請求項5のいずれかに記載の医療用マニピュレータシステム。
     
PCT/JP2016/050974 2016-01-14 2016-01-14 医療用マニピュレータシステム WO2017122322A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2016/050974 WO2017122322A1 (ja) 2016-01-14 2016-01-14 医療用マニピュレータシステム
JP2017561464A JP6619456B2 (ja) 2016-01-14 2016-01-14 医療用マニピュレータシステムおよび医療用マニピュレータシステムの作動方法
US16/032,153 US10959787B2 (en) 2016-01-14 2018-07-11 Medical manipulator system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/050974 WO2017122322A1 (ja) 2016-01-14 2016-01-14 医療用マニピュレータシステム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/032,153 Continuation US10959787B2 (en) 2016-01-14 2018-07-11 Medical manipulator system

Publications (1)

Publication Number Publication Date
WO2017122322A1 true WO2017122322A1 (ja) 2017-07-20

Family

ID=59312015

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/050974 WO2017122322A1 (ja) 2016-01-14 2016-01-14 医療用マニピュレータシステム

Country Status (3)

Country Link
US (1) US10959787B2 (ja)
JP (1) JP6619456B2 (ja)
WO (1) WO2017122322A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020146373A (ja) * 2019-03-15 2020-09-17 リバーフィールド株式会社 医用ロボットシステムの力覚表示装置および力覚表示方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010090059A1 (ja) * 2009-02-03 2010-08-12 オリンパスメディカルシステムズ株式会社 マニピュレータ
US20140135792A1 (en) * 2006-06-29 2014-05-15 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical instrument

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07184923A (ja) 1993-12-28 1995-07-25 Hitachi Ltd 遠隔微細手術支援装置
JP3608448B2 (ja) 1999-08-31 2005-01-12 株式会社日立製作所 治療装置
JP2001104333A (ja) 1999-10-07 2001-04-17 Hitachi Ltd 手術支援装置
JP2001150368A (ja) 1999-11-24 2001-06-05 Olympus Optical Co Ltd マニピュレータ制御装置
US8971597B2 (en) 2005-05-16 2015-03-03 Intuitive Surgical Operations, Inc. Efficient vision and kinematic data fusion for robotic surgical instruments and other applications
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
JP2007029232A (ja) 2005-07-25 2007-02-08 Hitachi Medical Corp 内視鏡手術操作支援システム
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US7831096B2 (en) * 2006-11-17 2010-11-09 General Electric Company Medical navigation system with tool and/or implant integration into fluoroscopic image projections and method of use
US8594841B2 (en) * 2008-12-31 2013-11-26 Intuitive Surgical Operations, Inc. Visual force feedback in a minimally invasive surgical procedure
US8374723B2 (en) * 2008-12-31 2013-02-12 Intuitive Surgical Operations, Inc. Obtaining force information in a minimally invasive surgical procedure
RU2668490C2 (ru) * 2012-04-19 2018-10-01 Конинклейке Филипс Н.В. Инструменты наведения для ручного управления эндоскопом с помощью 3d-изображений, полученных до операции и во время операции
JP6112300B2 (ja) 2013-01-10 2017-04-12 パナソニックIpマネジメント株式会社 マスタースレーブロボットの制御装置及び制御方法、マスタースレーブロボット、並びに、制御プログラム
JP2015163172A (ja) 2014-02-28 2015-09-10 オリンパス株式会社 圧排装置およびロボットシステム
US20150377613A1 (en) * 2014-06-30 2015-12-31 Samsung Electronics Co., Ltd. Systems and methods for reconstructing 3d surfaces of tubular lumens
US9947091B2 (en) * 2015-11-16 2018-04-17 Biosense Webster (Israel) Ltd. Locally applied transparency for a CT image
EP4374768A3 (en) * 2016-06-30 2024-08-07 Intuitive Surgical Operations, Inc. Graphical user interface for displaying guidance information in a plurality of modes during an image-guided procedure
EP3478210B1 (en) * 2016-06-30 2023-08-09 Intuitive Surgical Operations, Inc. Graphical user interface for displaying guidance information during an image-guided procedure

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140135792A1 (en) * 2006-06-29 2014-05-15 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical instrument
WO2010090059A1 (ja) * 2009-02-03 2010-08-12 オリンパスメディカルシステムズ株式会社 マニピュレータ

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020146373A (ja) * 2019-03-15 2020-09-17 リバーフィールド株式会社 医用ロボットシステムの力覚表示装置および力覚表示方法
US12011243B2 (en) 2019-03-15 2024-06-18 Riverfield Inc. Force sense display device and force sense display method of medical robot system

Also Published As

Publication number Publication date
US20180325607A1 (en) 2018-11-15
JPWO2017122322A1 (ja) 2018-11-29
JP6619456B2 (ja) 2019-12-11
US10959787B2 (en) 2021-03-30

Similar Documents

Publication Publication Date Title
US20240033013A1 (en) Graphical user interface for displaying guidance information during an image-guided procedure
CN110325093B (zh) 医疗用臂系统、控制装置与控制方法
JP6851427B2 (ja) 遠隔操作医療システムにおける器具のオフスクリーン表示のためのシステム及び方法
US8497898B2 (en) Endoscope system and low visibility determining method
JP5750122B2 (ja) ロボット内視鏡の作動制御方法およびシステム
WO2017115425A1 (ja) 医療用マニピュレータシステム
JP6147459B2 (ja) 医療用マニピュレータシステム
JP6033444B2 (ja) ロボット支援型手術システムとその作動方法
CN111465340B (zh) 推荐操作呈现系统、推荐操作呈现控制装置以及推荐操作呈现控制方法
JP6177488B2 (ja) マニピュレータ及び医療システム
JP5826727B2 (ja) 医用システム
JP2015016181A (ja) 手術支援ロボット
JP6104479B2 (ja) マニピュレータシステム
JP2004041778A (ja) 体腔内観察システム
US10085616B2 (en) Endoscope system configured to prevent mis-insertion of treatment tool in channel and method of operating the same
JP6619456B2 (ja) 医療用マニピュレータシステムおよび医療用マニピュレータシステムの作動方法
KR101601021B1 (ko) 자이로 센서를 이용한 3d 내시경 시스템
WO2023150162A1 (en) Robotic catheter system and methods for displaying corrective actions therefor
KR102099563B1 (ko) 최소 침습 수술을 위한 수술로봇 시스템 및 이를 이용한 충돌방지 방법
JP2005334472A (ja) 医療システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16884925

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2017561464

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16884925

Country of ref document: EP

Kind code of ref document: A1