WO2011142165A1 - 操作入力装置およびマニピュレータシステム - Google Patents

操作入力装置およびマニピュレータシステム Download PDF

Info

Publication number
WO2011142165A1
WO2011142165A1 PCT/JP2011/055050 JP2011055050W WO2011142165A1 WO 2011142165 A1 WO2011142165 A1 WO 2011142165A1 JP 2011055050 W JP2011055050 W JP 2011055050W WO 2011142165 A1 WO2011142165 A1 WO 2011142165A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
display
input device
operation input
head
Prior art date
Application number
PCT/JP2011/055050
Other languages
English (en)
French (fr)
Inventor
量平 小川
岸 宏亮
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to EP11780422.9A priority Critical patent/EP2570890A4/en
Priority to CN201180021874.XA priority patent/CN102869310B/zh
Publication of WO2011142165A1 publication Critical patent/WO2011142165A1/ja
Priority to US13/669,801 priority patent/US9361818B2/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3612Image-producing devices, e.g. surgical cameras with images taken automatically
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35482Eyephone, head-mounted 2-D or 3-D display, also voice and other control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45117Medical, radio surgery manipulator

Definitions

  • the present invention relates to an operation input device and a manipulator system.
  • Patent Document 1 a virtual experience type game device in which a sensor for detecting the position of a display and an operation unit is provided on a ceiling is known (for example, see Patent Document 1).
  • the method of detecting the position and orientation of the display and operation unit using a space sensor provided on the ceiling can be applied to a dedicated room without an obstacle between the ceiling and the display or operation unit.
  • the position and orientation information of the display and the operation unit in the spatial sensor coordinate system is obtained by acquiring the position and orientation information of the display and the operation unit having the respective coordinate systems by a spatial sensor fixed to the ceiling. Therefore, since the relative positional relationship between the display and the operation unit is acquired, there is a disadvantage that the calculation of coordinate conversion is complicated and takes time.
  • the present invention has been made in view of the above-described circumstances, and an object thereof is to provide an operation input device and a manipulator system that can prevent a movable range of an operation unit from being limited with a simple configuration. It is said.
  • One embodiment of the present invention includes a display, an operation unit that operates a display object displayed on the display, a head mounting unit that is mounted on an operator's head, and the head mounting unit or the operation unit.
  • a relative position sensor for detecting the relative position and relative posture of the other to the other, and a control for operating a display object displayed in the display based on a change in the relative position and the relative posture detected by the relative position sensor
  • An operation input device is provided.
  • the control unit activates the display object displayed in the display based on the detected change in the relative position and relative posture. Because the relative position and relative orientation of the head-mounted part attached to the operator's head and the operation part operated by the same operator are detected, the operation is different from the conventional method in which a sensor is provided on the ceiling or wall. It is possible to prevent the movable range of the portion from being limited by other obstacles.
  • the display is fixed to the head mounting portion so as to be disposed in front of the operator's eyes when the head mounting portion is mounted on the operator's head. Also good. By doing in this way, the operator who mounted
  • the relative position sensor is provided on one of the head-mounted unit or the operation unit and the other image is provided on the other of the head-mounted unit or the operation unit and images the index. May be provided.
  • the relative position between the head mounting unit and the operation unit can be directly determined by photographing the index provided on one of the head mounting unit or the operation unit with the imaging unit provided on the other side. Can be detected.
  • the relative position / posture information of the operation part in the line-of-sight coordinate system based on the operator's visual field can be acquired, so it is displayed on the display. Conversion between the display object to be displayed and the line-of-sight coordinate system for displaying it is omitted or facilitated. As a result, it is possible to reduce the amount of calculation and perform high-speed processing and to perform an intuitive operation.
  • the indicators are provided in at least four places that are not arranged on the same plane. In this way, a change in the relative posture between the head mounting unit and the operation unit is detected based on a change in the overall position of the four indicators, and a change in the position between the indicators of the four indicators is detected. A change in the relative position between the mounting portion and the operation portion can be detected.
  • the relative position sensor may include a line-of-sight detection sensor capable of acquiring an operator's line of sight. By doing so, it is possible to acquire a more accurate operator's line of sight and the relative position of the operation unit.
  • a spatial sensor that detects displacement information in the spatial coordinate system may be provided in at least one of the head-mounted unit or the operation unit.
  • the displacement information in the spatial coordinate system of the head mounting unit or the operation unit provided with the space sensor and the relative position and the relative posture between the head mounting unit and the operation unit are included in the display.
  • the accuracy of the operation of the displayed object can be improved. It is possible to determine whether the change in the relative position or relative posture between the head mounting unit and the operation unit is caused by displacing the head mounting unit or the operation unit. The operation can be controlled more accurately.
  • the display may be fixed in a spatial coordinate system, and may include a display index that is captured by the imaging unit provided on the other of the head mounting unit or the operation unit. .
  • the display index provided in the display fixed to the spatial coordinate system can be photographed by the imaging unit, and the angle and position of the display with respect to the imaging unit can be detected.
  • the angle and direction of the display object can be adjusted, and the coordinates of the display object can always be kept constant with respect to the operator's gaze coordinate system. It becomes.
  • One aspect of the present invention provides a manipulator system including any one of the operation input devices described above, a manipulator that is the display object, and an observation device that acquires an image of the display object to be displayed on the display.
  • a manipulator system including any one of the operation input devices described above, a manipulator that is the display object, and an observation device that acquires an image of the display object to be displayed on the display.
  • a manipulator system 1 includes a manipulator 2 inserted into the body of a patient A, an endoscope (observation apparatus) 3 that captures an image of the manipulator 2, and the present embodiment. And an operation input device 4 according to the embodiment.
  • the endoscope 3 can also change its posture, position and operating state by a motor 3a.
  • the operation input device 4 includes a display unit (display) 5 that displays an image of the manipulator 2 in the body of the patient A acquired by the endoscope 3, and is attached to the head C of the operator B.
  • Head-mounted display head-mounted unit: hereinafter referred to as HMD (Head Mounted Display)
  • HMD Head Mounted Display
  • the HMD 6 is configured to place the display unit 5 in front of the eyes of the operator B while being mounted on the head C of the operator B.
  • the HMD 6 includes an imaging unit (relative position sensor) 9 such as a CCD having a visual field capable of photographing the front of the head C of the operator B while being mounted on the head C of the operator B, and the HMD 6.
  • An acceleration sensor (spatial sensor) 10 that detects acceleration in a spatial coordinate system is provided.
  • the HMD 6 includes a transmission unit 11 that wirelessly transmits an image signal captured by the imaging unit 9 and an acceleration signal in the spatial coordinate system of the HMD 6 detected by the acceleration sensor 10.
  • the operation unit 7 can be operated by holding the operator B in hand and operating the manipulator 2 and the endoscope 3.
  • Four LEDs (index: relative position sensor) 12 that emit light by being arranged at positions not arranged on the same plane are fixed to the operation unit 7.
  • the operation unit 7 includes a manipulator 2 and a transmission unit 13 that wirelessly transmits an operation input signal of the endoscope 3.
  • the control unit 8 includes a transmission / reception unit 14 that processes an image signal acquired by the endoscope 3 and transmits the processed image signal to the HMD 6, and an image captured by the display unit 5 provided in the HMD 6. Is displayed.
  • the control unit 8 receives the image signal and acceleration signal wirelessly transmitted from the HMD 6 and the operation input signal wirelessly transmitted from the operation unit 7 by the reception unit 14, and receives a control signal for operating the manipulator 2.
  • the motor 2a of the manipulator 2 is operated based on the generated control signal, and the manipulator 2 is moved or the operating state is changed. Based on these control signals, the motor 3a of the endoscope 3 can be operated to move the endoscope 3 or change the operating state.
  • control unit 8 processes an image acquired by the imaging unit 9 provided in the HMD 6, and operates the HMD 6 according to the position and interval of the LED 12 on the operation unit 7 captured by the imaging unit 9. The relative position and relative posture of the unit 7 are calculated.
  • the control unit 8 calculates the position and orientation of the HMD 6 in the spatial coordinate system based on the acceleration signal output from the acceleration sensor 10 provided in the HMD 6.
  • the control unit 8 determines whether it is due to the displacement of the HMD 6 or the displacement of the operation unit 7 depending on the acceleration signal from the acceleration sensor 10.
  • the control signal for moving the endoscope 3 is generated for the portion due to the displacement of the HMD 6 and the control signal for the manipulator is generated for the portion due to the displacement of the operation unit 7.
  • the position and interval of the LED 12 acquired by the imaging unit 9 can be changed both when the HMD 6 is fixed and the operation unit 7 is displaced and when the operation unit 7 is fixed and the HMD 6 is displaced. it can.
  • the endoscope uses a control signal based on the displacement amount of the HMD 6. 3
  • the manipulator 2 can be actuated by using as a control signal a portion due to the displacement of the operation unit 7 excluding the displacement amount of the HMD 6.
  • the operation of the endoscope 3 can select a control mode such as stop or operation by providing a filter or a threshold for the displacement of the HMD 6.
  • the three-dimensional information of the operation unit 7 relative to the visual axis coordinate system of the operator B fixed to the HMD 6 can be directly acquired by the imaging unit 9 provided in the HMD 6.
  • the coordinate conversion in the control unit 8 can be reduced and the calculation can be performed at high speed.
  • the imaging unit 9 provided in the HMD 6 and the four LEDs 12 provided in the operation unit 7 are provided as relative position sensors.
  • the LED 12 may be provided on the HMD 6.
  • the relative position may be acquired using three LEDs attached to the operation unit 7 or the HMD 6.
  • the LEDs that is, the indicators are arranged and fixed at positions that are not arranged on the same straight line.
  • two or more imaging units may be provided.
  • the spatial sensor including the acceleration sensor 10 is provided in the HMD 6, it may be provided in the operation unit 7 instead.
  • the acceleration sensor 10 may be provided in both the HMD 6 and the operation unit 7. In this way, it is possible to operate even when the imaging unit 9 is malfunctioning. There is an advantage that the detection accuracy can be improved by correcting the relative position and the relative posture using the detection value of one acceleration sensor 10.
  • the relative position may be detected from the imaging unit 9 and at least one index, and the relative posture may be acquired by the acceleration sensor 10.
  • the signals from the operation unit 7 and the HMD 6 are sent to the control unit 8 by wireless transmission.
  • the HMD 6 and the operation unit 7 are connected to the control unit 8 by wiring 15. Then, it may be transmitted by wire.
  • the control unit 8 may be attached to the operator B to further allow the operator B to freely move.
  • HMD6 which has the display part 5 arrange
  • the operator B since the relative positional relationship and the relative angle between the operator B and the display 16 change due to the movement of the operator B, the operator B displays the manipulator 2 displayed on the display 16 unless the display is changed. Must be understood by transforming the movement of the brain in the brain.
  • the display 16 is provided with the same LED (display index) 17 as described above, and the imaging section 9 and the acceleration sensor 10 provided on the head C of the operator B are used to connect the head C of the operator B to the display 16.
  • the imaging section 9 and the acceleration sensor 10 provided on the head C of the operator B are used to connect the head C of the operator B to the display 16.
  • the index In the present embodiment, four LEDs 12 that are not arranged on the same plane are exemplified as the index, but instead of this, a fluorescent marker or any other index may be adopted. Five or more indicators may be provided.
  • the acceleration sensor 10 was illustrated as a space sensor, it may replace with this and may employ

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Computer Hardware Design (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 簡易な構成で操作部の可動範囲が制限されてしまうのを防止する。ディスプレイ(5)と、該ディスプレイ(5)上に表示された表示物(2)を操作する操作部(7)と、操作者(B)の頭部(C)に装着される頭部装着部(6)と、該頭部装着部(6)または操作部(7)の一方に対する他方の相対位置および相対姿勢を検出する相対位置センサ(9,12)と、該相対位置センサ(9,12)により検出された相対位置および相対姿勢の変化に基づいてディスプレイ(5)内に表示されている表示物(2)を作動させる制御部(8)とを備える操作入力装置(1)を提供する。

Description

操作入力装置およびマニピュレータシステム
 本発明は、操作入力装置およびマニピュレータシステムに関するものである。
 従来、ディスプレイおよび操作部の位置検出を行うセンサを天井に設けた仮想体験型ゲーム装置が知られている(例えば、特許文献1参照。)。
特開2000-126462号公報
 しかしながら、天井に設けた空間センサによりディスプレイや操作部の位置および姿勢検出を行う方法では、天井とディスプレイや操作部との間に障害物のない専用の部屋では適用できるが、照明装置や計器等の設備が存在して障害物となる手術室では適用することが困難であり、可動範囲が制限されてしまうという不都合がある。従来技術の方法では、それぞれの座標系を有するディスプレイや操作部の位置や姿勢情報を、天井に固定された空間センサによって取得することによりディスプレイと操作部それぞれの空間センサ座標系における位置・姿勢情報から、ディスプレイと操作部の相対位置関係を取得するので、座標変換の演算が複雑で時間がかかるという不都合がある。
 本発明は、上述した事情に鑑みてなされたものであって、簡易な構成で操作部の可動範囲が制限されてしまうのを防止することができる操作入力装置およびマニピュレータシステムを提供することを目的としている。
 上記目的を達成するために、本発明は以下の手段を提供する。
 本発明の一態様は、ディスプレイと、該ディスプレイ上に表示された表示物を操作する操作部と、操作者の頭部に装着される頭部装着部と、該頭部装着部または前記操作部の一方に対する他方の相対位置および相対姿勢を検出する相対位置センサと、該相対位置センサにより検出された相対位置および相対姿勢の変化に基づいて前記ディスプレイ内に表示されている表示物を作動させる制御部とを備える操作入力装置を提供する。
 上記態様によれば、頭部装着部を頭部に装着した操作者がディスプレイに表示されている標示物を見ながら、操作部を操作すると、相対位置センサにより頭部装着部または操作部の一方に対する他方の相対位置および相対姿勢が検出され、制御部により、検出された相対位置および相対姿勢の変化に基づいてディスプレイ内に表示されている表示物が作動される。操作者の頭部に装着した頭部装着部と、同一の操作者が操作する操作部との相対位置および相対姿勢を検出するので、天井や壁面にセンサを備える従来の方法とは異なり、操作部の可動範囲が他の障害物によって制限されてしまうのを防止することができる。
 上記態様においては、前記ディスプレイは、前記頭部装着部が前記操作者の頭部に装着されたときに、前記操作者の眼前に配置されるように、前記頭部装着部に固定されていてもよい。
 このようにすることで、頭部装着部を装着した操作者は、眼前に配置されたディスプレイに表示された表示物を見ながら操作することができる。ディスプレイが操作者の頭部に装着されることにより、操作者の移動を可能にすることができる。
 上記態様においては、前記相対位置センサが、前記頭部装着部または前記操作部の一方に設けられた指標と、前記頭部装着部または前記操作部の他方に設けられ、前記指標を撮影する撮像部とを備えていてもよい。
 このようにすることで、頭部装着部または操作部の一方に設けられた指標を、他方に設けられた撮像部によって撮影することにより、頭部装着部と操作部との相対位置を直接的に検出することができる。頭部装着部に固定したディスプレイを、操作者の眼前に置くことで、操作者の視野を基準とした視線座標系での操作部の相対位置・姿勢情報が取得できるため、ディスプレイ上に表示される表示物と、それを表示する視線座標系との変換が省略あるいは容易になる。これにより、演算量を低減して高速処理が可能となると共に直感的な操作が可能となる。
 上記態様においては、前記撮像部を1つ備えていることにしてもよい。
 この場合は、前記指標が同一平面上に配置されない少なくとも4箇所に設けられていればよい。
 このようにすることで、4箇所の指標の全体的な位置の変化によって頭部装着部と操作部との相対姿勢の変化を検出し、4箇所の指標の指標間の位置の変化によって頭部装着部と操作部との相対位置の変化を検出することができる。
 上記態様においては、前記撮像部を2以上備えていてもよい。
 この場合は、前記指標が同一直線上に配置されない少なくとも3箇所に設けられていればよい。
 このようにすることで、3箇所の指標の全体的な位置の変化によって頭部装着部と操作部との相対姿勢の変化を検出し、3箇所の指標の指標間の位置の変化によって頭部装着部と操作部との相対位置の変化を検出することができる。
 上記態様においては、前記相対位置センサが、操作者の視線を取得可能な視線検出センサを備えていてもよい。このようにすることで、より正確な操作者の視線と操作部の相対位置が取得できる。
 上記態様においては、前記頭部装着部または前記操作部の少なくとも一方に、その空間座標系における変位情報を検出する空間センサを備えていてもよい。
 このようにすることで、空間センサが備えられた頭部装着部または操作部の空間座標系における変位情報と、頭部装着部と操作部との相対位置および相対姿勢とに基づいてディスプレイ内に表示されている表示物の動作の精度を向上することができる。
 頭部装着部と操作部との間の相対位置あるいは相対姿勢の変化が、頭部装着部あるいは操作部のいずれを変位させたために発生したものであるのかを判別でき、制御部による表示物の作動をより正確に制御することが可能となる。
 上記態様においては、前記ディスプレイが、空間座標系に固定されるとともに、前記頭部装着部または前記操作部の前記他方に設けられた前記撮像部により撮影されるディスプレイ用指標を備えていてもよい。
 このようにすることで、空間座標系に固定されたディスプレイに備えられたディスプレイ用指標を撮像部によって撮影して、撮像部に対するディスプレイの角度や位置を検出することができる。これにより、操作者がディスプレイに対して移動しても、表示物の角度や方向を調節することができ、操作者の視線座標系に対して、表示物の座標を常に一定に保つことが可能となる。
 本発明の一態様は、上記いずれかの操作入力装置と、前記表示物であるマニピュレータと、前記ディスプレイに表示する前記表示物の映像を取得する観察装置とを備えるマニピュレータシステムを提供する。
 このようにすることで、観察装置により取得された表示物であるマニピュレータの映像がディスプレイに表示され、操作入力装置に備えられた操作部と頭部装着部との相対位置および相対姿勢の変化によって制御部がマニピュレータを作動させる。これにより、操作部の可動範囲が他の障害物によって制限されてしまうのを防止ししながら、マニピュレータによる処置を行うことができる。
 本発明によれば、簡易な構成で操作部の可動範囲が制限されてしまうのを防止することができる、煩雑な座標変換による計算コストを低減できるという効果を奏する。
本発明の一実施形態に係るマニピュレータシステムを示す全体構成図である。 図1のマニピュレータシステムに備えられた本実施形態に係る操作入力装置を示すブロック図である。 図2の操作入力装置の変形例を示す全体構成図である。 図2の操作入力装置の他の変形例を示す全体構成図である。 図2の操作入力装置の他の変形例を示す全体構成図である。
 本発明の一実施形態に係る操作入力装置およびマニピュレータシステムについて、図面を参照して以下に説明する。
 本実施形態に係るマニピュレータシステム1は、図1に示されるように、患者Aの体内に挿入されるマニピュレータ2と、該マニピュレータ2の映像を撮影する内視鏡(観察装置)3と、本実施形態に係る操作入力装置4とを備えている。
 マニピュレータ2は、図1に示す例では、2つ設けられ、それぞれモータ2aによって、その姿勢や位置や作動状態をそれぞれ変化させることができるようになっている。内視鏡3もモータ3aによって、その姿勢や位置や作動状態を変化させることができるようになっている。
 本実施形態に係る操作入力装置4は、内視鏡3により取得された患者Aの体内におけるマニピュレータ2の映像を表示する表示部(ディスプレイ)5を備え、操作者Bの頭部Cに装着される頭部装着型ディスプレイ(頭部装着部:以下、HMD(Head Mounted Display)という。)6と、操作者Bによって操作される操作部7と、操作部7の操作によりマニピュレータ2を作動させる制御部8とを備えている。
 HMD6は、操作者Bの頭部Cに装着された状態で、表示部5を操作者Bの眼前に配置するように構成されている。HMD6には、操作者Bの頭部Cに装着された状態で、操作者Bの頭部Cの前方を撮影可能な視野を有するCCDのような撮像部(相対位置センサ)9と、HMD6の空間座標系における加速度を検出する加速度センサ(空間センサ)10とが備えられている。
 HMD6は、図2に示されるように、撮像部9により撮影した画像信号および加速度センサ10により検出したHMD6の空間座標系における加速度信号を無線送信する送信部11を備えている。
 操作部7は操作者Bが手に保持して、操作することにより、マニピュレータ2および内視鏡3を操作することができるようになっている。操作部7には、同一平面上に配置されない位置に配置されて発光する4個のLED(指標:相対位置センサ)12が固定されている。操作部7は、マニピュレータ2および、内視鏡3の操作入力信号を無線送信する送信部13を備えている。
 制御部8は、内視鏡3により取得された画像信号が入力されることにより、これを処理してHMD6に送信する送受信部14を備え、HMD6に設けられた表示部5に撮影された画像を表示させるようになっている。
 制御部8は、HMD6から無線送信されてきた画像信号および加速度信号と、操作部7から無線送信されてきた操作入力信号を受信部14により受信して、マニピュレータ2を動作させるための制御信号を生成し、生成した制御信号に基づいてマニピュレータ2のモータ2aを作動させ、マニピュレータ2を移動させあるいは作動状態を変化させるようになっている。これらの制御信号に基づいて内視鏡3のモータ3aを作動させ、内視鏡3を移動させあるいは作動状態を変化させることもできる。
 具体的には、制御部8は、HMD6に設けられた撮像部9により取得された画像を処理して、撮像部9により撮影された操作部7上のLED12の位置および間隔によって、HMD6に対する操作部7の相対位置および相対姿勢を算出するようになっている。制御部8は、HMD6に設けられた加速度センサ10から出力される加速度信号に基づいて、空間座標系におけるHMD6の位置および姿勢を算出するようになっている。
 制御部8は、HMD6に対する操作部7の相対位置および相対姿勢が変化したときには、加速度センサ10からの加速度信号によって、それがHMD6の変位によるものであるのか、操作部7の変位によるものであるのかを判定し、HMD6の変位による部分については内視鏡3を動かすための制御信号を発生させ、操作部7の変位による部分についてはマニピュレータの制御信号を発生させるようになっている。
 すなわち、HMD6を固定して操作部7を変位させた場合および操作部7を固定してHMD6を変位させた場合のいずれにおいても撮像部9により取得されたLED12の位置および間隔を変化させることができる。しかし、加速度センサ10によって検出されたHMD6の変位量分については、操作者Bが頭部Cを移動させたために発生したものであるので、このHMD6の変位量に基づいた制御信号により内視鏡3を制御し、HMD6の変位量を除いた操作部7の変位による部分を制御信号としてマニピュレータ2を作動させることができる。内視鏡3の動作は、HMD6の変位にフィルタや閾値を設けて、停止や動作などの制御モードが選択できる。 
 このように、本実施形態に係るマニピュレータシステム1および操作入力装置4によれば、操作者Bの頭部Cに装着するHMD6に、操作者Bが手に保持する操作部7のHMD6に対する相対位置および相対姿勢を検出する撮像部9を配置しているので、操作者Bが移動しても、照明や計器等の障害物によって両者間の空間が遮られず、操作部7の移動範囲が制限されることを防止することができる。すなわち、操作者Bは自由な位置で、自由な姿勢でマニピュレータ2を操作することができる。
 HMD6に固定された操作者Bの視線座標系に対する相対的な操作部7の3次元情報をHMD6に設けた撮像部9によって直接的に取得することができる。その結果、制御部8における座標変換を軽減して、演算を高速に行うことができるという利点がある。
 HMD6に操作者の視線を取得できる視線検出センサ18を取り付けることで、より正確な操作者の視線と操作部の相対位置が取得できる。
 本実施形態においては、相対位置センサとしてHMD6に設けた撮像部9と操作部7に設けた4個のLED12とを備えるものを例示したが、これに代えて、撮像部9を操作部7に設け、HMD6にLED12を設けることにしてもよい。
 撮像部9を2つ設けることで、操作部7もしくはHMD6に取り付けるLEDを3点として相対位置を取得してもよい。この場合、LEDつまり指標は同一直線上に配置されない位置に配置されて固定される。また、指標は、少なくとも3箇所あればよい。さらに、撮像部は、2つ以上設けることにしてもよい。
 加速度センサ10からなる空間センサをHMD6に設けることにしたが、これに代えて、操作部7に設けることにしてもよい。
 加速度センサ10については、HMD6および操作部7の両方に設けることにしてもよい。このようにすることで撮像部9が動作不良の場合においても操作可能とすることができる。一方の加速度センサ10の検出値を用いて、相対位置および相対姿勢を補正することにより、検出精度を向上することができるという利点がある。
 加速度センサ10をHMD6および操作部7の両方に設けた場合、相対位置を撮像部9と少なくとも1つの指標とから検出し、相対姿勢を加速度センサ10により取得してもよい。
 操作部7およびHMD6からの信号を無線送信により制御部8に送ることとしたが、これに代えて、図3に示されるように、HMD6と操作部7とを制御部8に配線15によって接続して、有線にて送信することにしてもよい。図4に示されるように、制御部8を操作者Bに装着することにして、さらに操作者Bの自由な移動を可能にしてもよい。
 本実施形態においては、頭部装着部として操作者Bの眼前に配置される表示部5を有するHMD6を例示したが、これに代えて、図5に示されるように、操作者Bの頭部Cには、撮像部9と加速度センサ10のみを固定し、表示部5については、空間座標系に固定される別置き型のディスプレイ16を採用してもよい。この場合に、操作者Bの移動により、操作者Bとディスプレイ16との相対位置関係や相対角度が変化するため、表示を変更しなければ、操作者Bはディスプレイ16に表示されているマニピュレータ2の動きを脳内で変換して理解しなければならない。
 そこで、ディスプレイ16に上記と同様のLED(ディスプレイ用指標)17を設け、操作者Bの頭部Cに設けた撮像部9と加速度センサ10とにより、操作者Bの頭部Cとディスプレイ16との相対位置関係をも検出して、表示を変更することにより、脳内で変換しなくても、操作者Bに対して常に同一の状態でマニピュレータ2の動作を表示することが可能となる。
 本実施形態においては、指標として、同一平面上に配置されない4個のLED12を例示したが、これに代えて、蛍光マーカや他の任意の指標を採用してもよい。
 指標は5個以上設けることにしてもよい。
 本実施形態においては、空間センサとして加速度センサ10を例示したが、これに代えてジャイロセンサや速度センサを採用してもよい。また、これらの組み合わせでもよい。
 A 患者
 B 操作者
 C 頭部
 1 マニピュレータシステム
 2 マニピュレータ(表示物)
 3 内視鏡(観察装置)
 4 操作入力装置
 5 表示部(ディスプレイ)
 6 HMD(頭部装着型ディスプレイ、頭部装着部)
 7 操作部
 8 制御部
 9 撮像部(相対位置センサ)
 10 加速度センサ(空間センサ)
 12 LED(指標、相対位置センサ)
 15 配線
 16 ディスプレイ
 17 指標(ディスプレイ用指標)
 18 視線検出センサ

Claims (11)

  1.  ディスプレイと、
     該ディスプレイ上に表示された表示物を操作する操作部と、
     操作者の頭部に装着される頭部装着部と、
     該頭部装着部または前記操作部の一方に対する他方の相対位置および相対姿勢を検出する相対位置センサと、
     該相対位置センサにより検出された相対位置および相対姿勢の変化に基づいて前記ディスプレイ内に表示されている表示物を作動させる制御部とを備える操作入力装置。
  2.  前記ディスプレイは、前記頭部装着部が前記操作者の頭部に装着されたときに前記操作者の眼前に配置されるように、前記頭部装着部に固定されている請求項1に記載の操作入力装置。
  3.  前記相対位置センサが、前記頭部装着部または前記操作部の一方に設けられた指標と、前記頭部装着部または前記操作部の他方に設けられ、前記指標を撮影する撮像部とを備える請求項1に記載の操作入力装置。
  4.  前記撮像部を1つ備える請求項3に記載の操作入力装置。
  5.  前記指標が同一平面上に配置されない少なくとも4箇所に設けられている請求項4に記載の操作入力装置。
  6.  前記撮像部を2以上備える請求項3に記載の操作入力装置。
  7.  前記指標が同一直線上に配置されない少なくとも3箇所に設けられている請求項6に記載の操作入力装置。
  8.  前記相対位置センサが、操作者の視線を取得可能な視線検出センサを備える請求項1に記載の操作入力装置。
  9.  前記頭部装着部または前記操作部の少なくとも一方に、その空間座標系における変位情報を検出する空間センサを備える請求項1に記載の操作入力装置。
  10.  前記ディスプレイが、空間座標系に固定されるとともに、前記頭部装着部または前記操作部の前記他方に設けられた前記撮像部により撮影されるディスプレイ用指標を備える請求項3に記載の操作入力装置。
  11.  請求項1から請求項10のいずれかに記載の操作入力装置と、
     前記表示物であるマニピュレータと、
     前記ディスプレイに表示する前記表示物の映像を取得する観察装置とを備えるマニピュレータシステム。
PCT/JP2011/055050 2010-05-10 2011-03-04 操作入力装置およびマニピュレータシステム WO2011142165A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP11780422.9A EP2570890A4 (en) 2010-05-10 2011-03-04 OPERATING ENTRY AND MANIPULATOR SYSTEM
CN201180021874.XA CN102869310B (zh) 2010-05-10 2011-03-04 操作输入装置以及机械手系统
US13/669,801 US9361818B2 (en) 2010-05-10 2012-11-06 Operation input device and manipulator system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010108344A JP5704833B2 (ja) 2010-05-10 2010-05-10 操作入力装置およびマニピュレータシステム
JP2010-108344 2010-05-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/669,801 Continuation US9361818B2 (en) 2010-05-10 2012-11-06 Operation input device and manipulator system

Publications (1)

Publication Number Publication Date
WO2011142165A1 true WO2011142165A1 (ja) 2011-11-17

Family

ID=44914223

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/055050 WO2011142165A1 (ja) 2010-05-10 2011-03-04 操作入力装置およびマニピュレータシステム

Country Status (5)

Country Link
US (1) US9361818B2 (ja)
EP (1) EP2570890A4 (ja)
JP (1) JP5704833B2 (ja)
CN (1) CN102869310B (ja)
WO (1) WO2011142165A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103699209A (zh) * 2012-09-27 2014-04-02 联想(北京)有限公司 一种输入设备
WO2014037953A3 (en) * 2012-09-10 2014-06-12 Elbit Systems Ltd. Digital system for surgical video capturing and display
JP2016158794A (ja) * 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
CN106137399A (zh) * 2016-08-31 2016-11-23 北京术锐技术有限公司 一种基于嵌入式计算机的手术机器人集成控制系统
CN106175650A (zh) * 2016-06-29 2016-12-07 上海波鸿医疗器械科技有限公司 一种穿戴型腔镜虚拟显示系统

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9943372B2 (en) 2005-04-18 2018-04-17 M.S.T. Medical Surgery Technologies Ltd. Device having a wearable interface for improving laparoscopic surgery and methods for use thereof
US9259289B2 (en) 2011-05-13 2016-02-16 Intuitive Surgical Operations, Inc. Estimation of a position and orientation of a frame used in controlling movement of a tool
US9757206B2 (en) 2011-08-21 2017-09-12 M.S.T. Medical Surgery Technologies Ltd Device and method for assisting laparoscopic surgery—rule based approach
US10866783B2 (en) 2011-08-21 2020-12-15 Transenterix Europe S.A.R.L. Vocally activated surgical control system
US9204939B2 (en) 2011-08-21 2015-12-08 M.S.T. Medical Surgery Technologies Ltd. Device and method for assisting laparoscopic surgery—rule based approach
US11561762B2 (en) * 2011-08-21 2023-01-24 Asensus Surgical Europe S.A.R.L. Vocally actuated surgical control system
US9795282B2 (en) 2011-09-20 2017-10-24 M.S.T. Medical Surgery Technologies Ltd Device and method for maneuvering endoscope
JP5993127B2 (ja) * 2011-10-25 2016-09-14 オリンパス株式会社 頭部装着型表示装置、情報端末、プログラム、情報記憶媒体、画像処理システム、頭部装着型表示装置の制御方法及び情報端末の制御方法
JP6323974B2 (ja) * 2012-05-18 2018-05-16 オリンパス株式会社 手術支援装置
US9066323B2 (en) 2012-11-15 2015-06-23 Hewlett-Packard Development Company, L.P. Ad Hoc network connection
JP5549749B1 (ja) * 2013-01-16 2014-07-16 株式会社安川電機 ロボット教示システム、ロボット教示プログラムの生成方法および教示ツール
JP6616281B2 (ja) 2013-03-14 2019-12-04 エスアールアイ インターナショナル コンパクトなロボット手首部
CN109171977A (zh) * 2013-03-15 2019-01-11 Sri国际公司 超灵巧型手术系统
US20150187198A1 (en) * 2013-12-27 2015-07-02 Aaron G. Silverberg Orientation Measurement And Guidance Of Manually Positioned Objects
JP6542259B2 (ja) * 2014-04-24 2019-07-10 コヴィディエン リミテッド パートナーシップ ロボットインターフェース位置調整決定システムおよび方法
US10799302B2 (en) * 2014-07-10 2020-10-13 Transenterix Europe S.A.R.L. Interface for laparoscopic surgeries—movement gestures
KR101645392B1 (ko) 2014-08-13 2016-08-02 주식회사 고영테크놀러지 트랙킹 시스템 및 이를 이용한 트랙킹 방법
US10908681B2 (en) 2015-02-20 2021-02-02 Covidien Lp Operating room and surgical site awareness
KR20170139655A (ko) 2015-04-23 2017-12-19 에스알아이 인터내셔널 초정교 수술 시스템 사용자 인터페이스 디바이스
WO2016190057A1 (ja) * 2015-05-22 2016-12-01 コニカミノルタ株式会社 ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法
US10828115B2 (en) 2015-07-23 2020-11-10 Sri International Robotic arm and robotic surgical system
ITUB20153938A1 (it) * 2015-09-28 2017-03-28 Marco Raoul Marini Dispositivo per endoscopia
US10646289B2 (en) 2015-12-29 2020-05-12 Koninklijke Philips N.V. System, controller and method using virtual reality device for robotic surgery
JP6835850B2 (ja) * 2015-12-29 2021-02-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 手術ロボットの制御のためのシステム、制御ユニット、及び方法
EP3421195A4 (en) * 2016-02-25 2020-01-08 Olympus Corporation MANIPULATOR SYSTEM AND OPERATING METHOD THEREFOR
CN105868569A (zh) * 2016-04-15 2016-08-17 福建水立方三维数字科技有限公司 一种产科护理虚拟仿真平台及其操作方法
EP3484402A4 (en) 2016-07-14 2020-03-25 Intuitive Surgical Operations Inc. SECONDARY INSTRUMENT CONTROL IN A COMPUTER-BASED TELE-OPERATED SYSTEM
WO2018078470A1 (en) * 2016-10-25 2018-05-03 Novartis Ag Medical spatial orientation system
CN106781972A (zh) * 2016-12-27 2017-05-31 泉州医学高等专科学校 基于vr技术的胎儿平产接生模拟系统及方法
WO2018143360A1 (ja) * 2017-02-03 2018-08-09 良夫 川又 相対位置検出システム及び画像表示システム
JP6823018B2 (ja) * 2018-08-03 2021-01-27 ファナック株式会社 協調動作支援装置
CN109498162B (zh) * 2018-12-20 2023-11-03 深圳市精锋医疗科技股份有限公司 提升沉浸感的主操作台及手术机器人
US11607287B2 (en) 2019-12-31 2023-03-21 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
US11409091B2 (en) * 2019-12-31 2022-08-09 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
US11864841B2 (en) 2019-12-31 2024-01-09 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
CN112822480B (zh) 2020-12-31 2022-05-17 青岛小鸟看看科技有限公司 Vr系统及其定位追踪方法
JP2024003621A (ja) * 2022-06-27 2024-01-15 川崎重工業株式会社 手術支援システムおよび手術支援システムの制御方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126462A (ja) 1999-11-17 2000-05-09 Namco Ltd 仮想体験型ゲ―ム装置
JP2005500096A (ja) * 2001-06-13 2005-01-06 ヴォリューム・インタラクションズ・プライヴェート・リミテッド ガイドシステム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07110735A (ja) 1993-10-14 1995-04-25 Nippon Telegr & Teleph Corp <Ntt> 装着型ペン入力装置
JP3482228B2 (ja) * 1993-11-02 2003-12-22 オリンパス株式会社 視線検出によるマニピュレータ制御システム
JP3610110B2 (ja) 1995-02-23 2005-01-12 オリンパス株式会社 医療用マニピュレータ
JP3816599B2 (ja) * 1996-10-29 2006-08-30 オリンパス株式会社 体腔内処置観察システム
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
JP2000279425A (ja) * 1999-03-30 2000-10-10 Olympus Optical Co Ltd ナビゲーション装置
CN1373969A (zh) * 1999-07-13 2002-10-09 瑟吉维森有限公司 立体视频观察和图象放大系统
WO2001056007A1 (en) * 2000-01-28 2001-08-02 Intersense, Inc. Self-referenced tracking
JP2002269567A (ja) * 2001-03-13 2002-09-20 Canon Inc 動き検出方法
CN1676286A (zh) * 2004-04-02 2005-10-05 李朝辉 生物信息随动即时示教控制机器人
HU0401034D0 (en) * 2004-05-24 2004-08-30 Ratai Daniel System of three dimension induting computer technology, and method of executing spatial processes
US7763015B2 (en) * 2005-01-24 2010-07-27 Intuitive Surgical Operations, Inc. Modular manipulator support for robotic surgery
US7907166B2 (en) * 2005-12-30 2011-03-15 Intuitive Surgical Operations, Inc. Stereo telestration for robotic surgery
GB2464092A (en) * 2008-09-25 2010-04-07 Prosurgics Ltd Surgical mechanism control system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126462A (ja) 1999-11-17 2000-05-09 Namco Ltd 仮想体験型ゲ―ム装置
JP2005500096A (ja) * 2001-06-13 2005-01-06 ヴォリューム・インタラクションズ・プライヴェート・リミテッド ガイドシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2570890A4

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10345582B2 (en) 2012-09-10 2019-07-09 Elbit Systems Ltd. Microsurgery system for displaying in real time magnified digital image sequences of an operated area
WO2014037953A3 (en) * 2012-09-10 2014-06-12 Elbit Systems Ltd. Digital system for surgical video capturing and display
CN104918572A (zh) * 2012-09-10 2015-09-16 艾尔比特系统有限公司 用于外科手术的视频捕获和显示的数字系统
US10895742B2 (en) 2012-09-10 2021-01-19 Elbit Systems Ltd. Microsurgery system for displaying in real time magnified digital image sequences of an operated area
EP3725254A3 (en) * 2012-09-10 2020-12-16 Elbit Systems Ltd. Microsurgery system with a robotic arm controlled by a head-mounted display
CN103699209A (zh) * 2012-09-27 2014-04-02 联想(北京)有限公司 一种输入设备
JP2016158794A (ja) * 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
US10712575B2 (en) 2015-02-27 2020-07-14 Sony Interactive Entertainment Inc. Display control apparatus, display control method, and recording medium for setting viewpoint and sightline in a virtual three- dimensional space
US11474361B2 (en) 2015-02-27 2022-10-18 Sony Interactive Entertainment Inc. Display control apparatus, display control method, and recording medium for setting viewpoint and sightline in a virtual three-dimensional space
CN106175650A (zh) * 2016-06-29 2016-12-07 上海波鸿医疗器械科技有限公司 一种穿戴型腔镜虚拟显示系统
CN106137399B (zh) * 2016-08-31 2018-09-04 北京术锐技术有限公司 一种基于嵌入式计算机的手术机器人集成控制系统
CN106137399A (zh) * 2016-08-31 2016-11-23 北京术锐技术有限公司 一种基于嵌入式计算机的手术机器人集成控制系统
US11484375B2 (en) 2016-08-31 2022-11-01 Beijing Surgerii Technology Co., Ltd. Integrated control system for a surgical robot based on embedded computers

Also Published As

Publication number Publication date
EP2570890A4 (en) 2016-12-07
US9361818B2 (en) 2016-06-07
EP2570890A1 (en) 2013-03-20
US20130063580A1 (en) 2013-03-14
CN102869310B (zh) 2016-06-08
JP2011237987A (ja) 2011-11-24
JP5704833B2 (ja) 2015-04-22
CN102869310A (zh) 2013-01-09

Similar Documents

Publication Publication Date Title
JP5704833B2 (ja) 操作入力装置およびマニピュレータシステム
JP5530234B2 (ja) 操作入力装置およびマニピュレータシステム
US20240080433A1 (en) Systems and methods for mediated-reality surgical visualization
CN108366833B (zh) 手术信息处理设备和方法
KR101705921B1 (ko) 수술 로봇의 통합적 표현
EP3449859B1 (en) Control device, control method and surgical system
EP3177010B1 (en) Information processing device, information processing method, and image display system
JP2012223363A (ja) 手術用撮像システム及び手術用ロボット
EP2671686A1 (en) Master operation input device and master-slave manipulator
JP4899217B2 (ja) 前庭動眼反射の原理を用いる眼球運動制御装置
US20150317830A1 (en) Endoscopic surgery assisting system and image control method
JP2021194539A (ja) 外科手術中のコンピュータ支援ナビゲーション用のカメラ追跡バー
US20190090728A1 (en) Visualization system comprising an observation apparatus and an endoscope
CN115666406A (zh) 在外科手术机器人系统中确定体内深度感知的系统和方法
JP2016158911A5 (ja)
AU2019292458A1 (en) Display control system, display control device, and display control method
JP6657858B2 (ja) ロボット操作システム
EP3376276B1 (en) Constant horizon 3d imaging system and related method
WO2016092941A1 (ja) カプセル内視鏡システム及びその撮像方法
US20200093545A1 (en) Control apparatus, control method, and medical observation system
He et al. Sensor-fusion based augmented-reality surgical navigation system
JP5800609B2 (ja) 医療用マスタスレーブマニピュレータ
US20220079415A1 (en) Visualization system comprising an observation apparatus and an endoscope
US20230310086A1 (en) Camera tracking system identifying phantom markers during computer assisted surgery navigation
JPH07294296A (ja) 遠隔監視装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180021874.X

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11780422

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011780422

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE