CN101903140B - 机器人、医疗工作台和用于将图像投影到对象表面的方法 - Google Patents

机器人、医疗工作台和用于将图像投影到对象表面的方法 Download PDF

Info

Publication number
CN101903140B
CN101903140B CN2008801168765A CN200880116876A CN101903140B CN 101903140 B CN101903140 B CN 101903140B CN 2008801168765 A CN2008801168765 A CN 2008801168765A CN 200880116876 A CN200880116876 A CN 200880116876A CN 101903140 B CN101903140 B CN 101903140B
Authority
CN
China
Prior art keywords
image
robot
projected
distortion
robots arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2008801168765A
Other languages
English (en)
Other versions
CN101903140A (zh
Inventor
托拜厄斯·奥尔特迈尔
德克·雅各布
格奥尔·帕辛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KUKA Laboratories GmbH
Original Assignee
KUKA Laboratories GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KUKA Laboratories GmbH filed Critical KUKA Laboratories GmbH
Publication of CN101903140A publication Critical patent/CN101903140A/zh
Application granted granted Critical
Publication of CN101903140B publication Critical patent/CN101903140B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T74/00Machine element or mechanism
    • Y10T74/20Control lever and linkage systems
    • Y10T74/20207Multiple controlling elements for single controlled element
    • Y10T74/20305Robotic arm

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Manipulator (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种机器人(R)、一种医疗工作台和一种将图像(20)投影到对象(P)表面上的方法。所述机器人(R)具有机器人臂(A)和固定在机器人臂(A)上或集成在机器人臂(A)中的装置(18),该装置(18)用于将图像(20)投影在对象(P)的表面上。

Description

机器人、医疗工作台和用于将图像投影到对象表面的方法
技术领域
本发明涉及一种机器人、一种医疗工作台和一种将图像投影到对象表面上的方法。
背景技术
例如,在外科手术当中越来越多地使用基于计算机的信息系统向为生命体做手术的外科医生提供信息。对于手术而言,这些信息例如包括生命体的生命体征、风险结构或对象位置。所述信息例如可以由信息系统的显示装置示出,并且该信息系统同样包括用于操控的输入装置。由于利用显示装置所示出的信息,外科医生必须在手术台和显示装置之间进行视角转换,在必要情况下可能还有输入装置。
发明内容
因此本发明的目的在于,提出一种装置,该装置可以允许简化的采集可视信息的前提条件。
本发明的目的通过一种机器人实现,该机器人具有机器人臂、固定在机器人臂上或集成在机器人臂中的装置,该装置用于将图像投影在对象表面上。
本发明的目的还通过一种将图像投影在对象表面上的方法来实现,该方法包括以下步骤:
利用集成在机器人的机器人臂中或固定在机器人臂上的用于投影图像的装置,将图像投影在对象、特别是一种生命体的表面上。
虽然根据本发明的方法或根据本发明的机器人特别考虑用于医疗领域,但是也可以考虑将它们应用到非医疗领域,例如,对机器进行保养、检查和维修。
工业机器人通常是执行机器,其装备有特定的工具,并对多个运动轴,特别是关于方向、位置和工作流程是可编程的,以自动地处理对象。工业机器人通常包括也被称为机械臂的机器人手臂、控制装置,必要时还有执行器,执行器可以设计为,例如作为用于抓住工具的夹持器,或者例如应用于医疗技术中时,用于传送医疗器械。机械臂或机器人手臂实质上描述了机器人的可运动部分。机器人手臂尤其是具有多个轴,它们例如通过电动驱动器由例如实施为计算机的控制装置来控制。
为了将图像投影在特别是生命体的对象的表面上,根据本发明,将图像投影装置集成在机器人的机器人臂中或固定在机器人臂上。因此可以相对简单的方式,根据对机器人臂的适当控制来将图像投影在对象的表面上。所述图像投影装置尤其可以被集成在或固定在所谓的机器人的工具中心点(TCP)的附近。投影的位置例如可以通过软件来选择。
根据本发明的机器人的一种实施方式,该机器人具有特别是固定在机器人臂上或集成在机器人臂中的装置,用于从投影在对象表面上的图像拍摄图像,其中,特别设置一种机器人的数据处理装置,用于分析图像数据组,该图像数据组对应于通过所述图像拍摄装置从投影在对象表面上的图像所拍摄的图像。用于从投影在对象表面的图像拍摄图像的装置例如是照相机或传感器,它们尤其可以提供2.5D的周围环境的图像。但是,所述图像拍摄装置也可以例如固定在三角架、墙壁或覆盖物上。
如果例如投影的图像涉及特别是机器人的数据处理装置的虚拟输入装置,或者涉及其他数据处理装置的虚拟输入装置,则根据本发明的机器人的一种扩展,将机器人的数据处理装置设置为,对基于工作人员的身体语言的图像数据组进行分析,以识别对虚拟输入装置的操作。虚拟输入装置可以具有,例如虚拟的、借助于所投影的图像在对象的表面上所示出的操作元件,其中,数据处理装置例如利用模式识别算法对图像数据组进行分析,以确定工作人员是否接触到虚拟示出的操作元件。根据对图像或图像数据组的分析,可以相应地识别工作人员的身体语言,并将其解释为对虚拟输入装置的操作。如果所述对象特别涉及到生命体,例如等待治疗的患者,则工作人员,例如外科医生或普通医生,能够在无菌环境中操作虚拟输入装置。
根据本发明的机器人的另一种实施方式,机器人具有用于识别由对象表面的表面几何形状所引起的投影图像的畸变的装置,该装置控制图像投影装置,以使图像投影装置至少能够部分地对投影的图像的畸变进行补偿。可以将畸变理解为图像高度,即以非线性方式取决于相应的对象点(Objektpunkt)的高度的投影图像的图像点与图像中心之间的距离。也可以说,成像比例取决于相应的对象点的高度。畸变会导致,例如,成像没有通过投影图像的图像中心的直线被曲折地再现。
根据本发明的机器人的一种扩展,所述用于识别畸变的装置具有:特别是集成在机器人臂中或固定在机器人臂上的图像拍摄装置,以及数据处理装置,根据这种实施方式,数据处理装置设置为,根据所分析的图像数据组对畸变进行识别。这可以例如通过下述方法实现:将与从投影图像拍摄的图像相对应的图像数据组与对应的投影图像的图像数据组进行对比。由此产生用于确定畸变的立体系统(Stereosystem)。在对投影图像进行投影时,可以考虑投影图像的颠倒成像,从而能够至少部分地对畸变进行补偿。
例如,可以在图像投影期间确定畸变。但是,畸变的确定也可以在使用参考图像对图像投影装置的校正过程中进行。
根据本发明的机器人的另一种实施方式,数据处理装置设置为,根据事先建立的对象的其他图像数据组,尤其是对象的三维图像数据组,对图像投影装置进行控制,以使图像投影装置至少部分地补偿投影图像的畸变。如果对象涉及生命体,则可以特别使用成像医疗设备,如磁共振成像仪、计算机断层扫描设备、X光机或超声波来建立对象的其他图像数据组。
根据本发明的机器人特别设计为应用于医疗工作台的范围内。根据本发明医疗工作台的一种实施方式,位于根据本发明的机器人旁的医疗工作台具有用于检测生命体和机器人位置的导航系统,其中机器人的数据处理装置设置为,控制图像投影装置,从而在至少部分地补偿投影图像的畸变时考虑到机器人和生命体的位置。因此这种根据本发明的医疗工作台的扩展被实现为,对于根据本发明的方法还实施以下步骤:
特别是利用导航系统确定机器人和生命体的位置,
根据生命体和机器人的位置,并根据事先从生命体拍摄的图像数据组,确定投影在生命体表面上的图像的预期的畸变,并
根据机器人和生命体的位置以及根据生命体的图像数据组,至少部分地对投影在表面上的图像的预期的畸变进行补偿。
导航系统在医疗技术中,特别是在最小介入医疗技术中,是普遍公知的,例如由专利文献DE 19951503B4所公知的。导航系统包括:例如,设置在机器人上的标记;设置在生命体上或患者躺在其上的病床上的标记;和用于采集标记的装置。用于采集标记的装置例如是光学采集装置,如立体照相机。导航系统根据利用采集标记的装置所采集到的标记以基本上普遍公知的方式确定机器人和生命体的位置。根据机器人和生命体的位置以及由生命体采集到的图像数据组,尤其是三维图像数据组,数据处理装置可以计算出投影图像的预期畸变,并相应地调整图像投影的畸变,从而至少部分地对预期的畸变进行补偿。
用于采集导航系统的标记的装置也可以用于从投影图像拍摄图像。对应于图像的图像数据组也可以用于识别畸变的装置中。
如果在治疗生命体期间,为了确定生命体的位置而使用导航系统,则可以通过患者的移动来更新对预期畸变的部分补偿。例如,这种补偿可以通过相同的投影装置来实施。
但是根据本发明的方法的一种实施方式,对至少部分补偿进行更新,其中,对机器人臂相应于生命体的移动一同引导。
在根据本发明的机器人或根据本发明的方法中,可以相应地采用所谓的增强现实(英语:Augmented Reality)。通常把增强现实理解为真实感知的计算机辅助增强。
附图说明
在所附简图中示例性描述了本发明的实施例。
图1示出了机器人,
图2示出了具有医疗工作台的图1中的机器人,
图3示出了虚拟输入装置,和
图4示出了成像医疗技术系统。
具体实施方式
图1示出了具有机器人臂A的机器人R,在当前实施例的情况下,机器人臂A被固定在基座S上。机器人臂A基本上示出了机器人R的可运动的部分,其具有多个轴1-6、多个杠杆7-10和法兰F,例如工具或医疗器械可以固定在法兰F上。
在当前实施例的情况下,每个轴1-6都利用电动驱动装置运动,所述电动驱动装置以未示出的方式电动连接机器人R的控制计算机17,使得控制计算机17或在控制计算机17上运行的计算机程序能够控制电动驱动装置,从而可以基本上在空间中自由地调整机器人R的法兰F的位置和方向。机器人R的电动驱动装置每一个都具有例如电动机11-16,必要时还具有控制电动机11-16的功率电子电路。
在当前实施例的情况下,投影仪18集成在机器人臂A中,特别是集成在法兰F中,投影仪18可以将图像投影在对象的表面上。也可以选择将投影仪18例如可松脱地固定在机器人臂A的结构上,特别是固定在法兰F上。
投影仪18以未示出的方式电连接计算机,例如控制计算机17。
在当前实施例的情况下,机器人R被设置成图2中所示的医疗工作台的一部分。
在上当前实施例的情况下,示出的医疗工作台具有:位于机器人R旁边的病床L,病床L必要时是高度可调的;以及导航系统。病床L被设置为,在图2中所示出的患者P可以躺在病床上。在图2中未示出的外科医生可以例如对患者P实施手术。
在当前实施例的情况下,机器人R被设置为,利用机器人R的投影仪18将图像20投影在患者P的表面上。在本实施例中,图3所示出的投影图像20描述了用于控制计算机17的输入装置,或用于在图中未示出的其他数据处理装置的输入装置,并且投影图像20具有例如键盘的形状。投影图像20形状的虚拟输入装置也具有虚拟操作元件21,虚拟操作元件21例如与真实的键盘的键相同。
在当前实施例的情况下,机器人R还具有与控制计算机17电连接的照相机19,照相机19集成在机器人臂A中或固定在机器人臂A上。照相机19被设置为,能够从患者P身上的投影图像20拍摄图像。利用模式识别算法,控制计算机17或在控制计算机17上运行的计算机程序对与从投影图像20所拍摄的图像相对应的图像数据组进行分析,在图中未示出的工作人员(例如治疗患者P的外科医生)是否在操作虚拟的并以投影图像20的形式示出示出的虚拟输入装置的虚拟操作元件21。如果根据所提到的图像数据组,在控制计算机17上运行的计算机程序可以识别外科医生例如碰触到虚拟操作元件21的范围,则在控制计算机17上运行的计算机程序可以引起与操作虚拟操作元件21相对应的反应。
投影图像20由于患者P起伏的表面而具有畸变。这当前实施例的情况下,畸变至少能够部分地通过在将图像20投影到患者P上之前,利用投影仪18将未在附图中详细示出的参考图像投影在患者P上得到补偿。在此,参考图像通常投影在患者P表面上与投影图像20相同的位置上。
随后,利用照相机19拍摄所投影的参考图像的图像,并使用另一个在控制计算机17上运行的计算机程序对属于该图像的图像数据组进行分析。控制计算机17根据对应于由投影的参考图像拍摄的图像的图像数据组和投影的参考图像的标称显式来控制投影仪18,使投影仪18至少能够部分地对稍后要成像的投影图像20的畸变进行补偿。
在另一种实施方式中,在对患者P进行治疗之前,利用在图4中示出的成像医疗技术设备22特别是产生患者P的三维图像数据组。成像医疗技术设备22例如是磁共振成像仪、计算机断层扫描设备、X光机(例如C形臂X光机)或超声波设备。
由患者P产生的三维图像数据组例如可以用于对患者P的诊断,并在机器人R的控制计算机17中运行。根据机器人R和患者P的位置以及根据患者P的三维图像数据组,另一个在控制计算机17中运行的计算机程序可以确定投影图像20的预期的畸变,并由此使投影仪18的投影发生改变,从而至少部分地补偿投影图像20的预期的畸变。
为了确定机器人R和患者P的位置,使用以上所述的导航系统。导航系统通常对于专业人员而言是普遍公知的,导航系统例如包括:立体照相机23、设置在患者P上的参考标记M1和设置在机器人R上的参考标记M2。为了确定机器人R和患者P的位置,采用立体照相机23对参考标记M1、M2拍照,而后利用导航系统的计算机24以普遍公知的方式对属于M1和M2的图像数据组进行分析。此外,导航系统的计算机24以未示出的方式与机器人R的控制计算机17连接,以为控制计算机17提供关于机器人R的位置、特别是机器人R的投影仪18的位置以及患者P的位置的信息。
此外,在上述实施例中还能够,对由于患者P的移动而变化的投影图像20的畸变进行校正,其中,例如根据已知的患者P的移动或患者P的由于移动而改变的位置,调整投影仪18,或者随着患者P的移动来一同引导机器人臂A,使得改变了的畸变至少能够部分地得到补偿。

Claims (12)

1.一种机器人,其具有机器人臂(A)和固定在所述机器人臂(A)上或集成在所述机器人臂(A)中的装置(18),该装置(18)用于将图像(20)投影到对象(P)的表面上,以及具有数据处理装置(17),和固定在所述机器人臂(A)上或集成在所述机器人臂(A)中、用于从所述投影在对象(P)表面上的图像(20)拍摄图像的装置(19),其中,所述数据处理装置(17)设置用于分析图像数据组,该图像数据组对应于利用所述拍摄图像的装置(19)从所述投影在对象(P)表面上的图像(20)所拍摄的图像,以及其中,所述投影图像(20)表示所述数据处理装置(17)的虚拟输入装置,或者另一数据处理装置的虚拟输入装置,所述数据处理装置(17)设置为,用于分析基于工作人员身体语言的图像数据组,以识别对所述虚拟输入装置的操作,以及具有用于识别由所述对象(P)表面的表面几何形状引起的所述投影图像(20)的畸变的装置,该装置对所述图像投影装置(18)进行控制,使该图像投影装置(18)至少能够部分地对所述投影图像(20)的畸变进行补偿。
2.如权利要求1所述的机器人,其中,所述用于识别畸变的装置包括:所述集成在所述机器人臂(A)中或固定在所述机器人臂(A)上的用于拍摄图像的装置(19),以及所述数据处理装置(17),其中,所述数据处理装置(17)设置为,根据所分析的图像数据组对畸变进行识别。
3.如权利要求1或2所述的机器人,所述数据处理装置(17)设置为,根据事先建立的所述对象(P)的其他图像数据组来控制所述图像投影装置,使该图像投影装置至少部分地对所述投影图像(20)的畸变进行补偿。
4.如权利要求3所述的机器人,其中,所述对象(P)的其他的图像数据组是利用成像医疗技术设备(22)产生的三维图像数据组。
5.如权利要求1所述的机器人,其中,该机器人(R)用于医疗工作台中。
6.如权利要求4所述的机器人,其中,所述数据处理装置(17)设置为,对所述图像投影装置(18)进行控制,使得在至少部分地对所述投影图像(20)的畸变进行补偿时考虑该机器人(R)和对象(P)的位置,其中,所述机器人(R)和对象(P)的位置是利用导航系统(23,24,M1,M2)采集的。
7.如权利要求6所述的机器人,其中,所述导航系统(23,24,M1,M2)具有设置在该机器人(R)上的标记(M2)、设置在所述对象(P)上或设置在该对象位于其上的病床(L)上的标记(M2),和用于采集所述标记(M1,M2)的装置(23)。
8.如权利要求7所述的机器人,其中,所述用于采集标记(M1,M2)的装置(23)还用于,从投影在所述对象(P)上的图像(20)拍摄图像,其中,所述数据处理装置(17)设置成,对对应于利用所述采集标记(M1,M2)的装置(23)对投影在所述对象(P)上的图像(20)所拍摄的图像的图像数据组进行分析。
9.一种将图像投影在对象表面的方法,包括以下步骤:
利用集成在机器人(R)的机器人臂(A)中或固定在所述机器人臂(A)上的图像投影装置(18),将图像(20)投影到对象(P)的表面上;
利用固定在所述机器人臂(A)上或集成在所述机器人臂(A)中的照相机(19),从所述投影在对象(P)表面上的图像(20)拍摄图像,其中,所述投影图像(20)示出了虚拟输入装置;
基于工作人员的身体语言,对与利用所述照相机(19)拍摄的图像相对应的其他图像数据组进行分析,以识别对所述虚拟输入装置的操作;以及
利用导航系统(23,24,M1,M2)确定所述机器人(R)和所述对象(P)的位置,
根据所述机器人(R)和所述对象(P)的位置,以及根据事先从所述对象(P)拍摄的图像数据组,确定投影在所述对象(P)表面上的所述图像(20)的预期的畸变,以及
根据所述机器人(R)和所述对象(P)的位置,以及根据所述对象(P)的图像数据组,至少部分地对所述投影在表面上的图像(20)的预期的畸变进行补偿。
10.如权利要求9所述的方法,包括:根据所述对象(P)的移动,对所述投影在表面上的图像(20)的预期的畸变的至少部分的补偿进行更新。
11.如权利要求10所述的方法,包括:根据所述对象(P)的通过所述机器人臂(A)相应于该对象(P)的移动而引导的移动,对所述投影在表面上的图像(20)的预期的畸变的至少部分的补偿进行更新。
12.如权利要求9到11中任一项所述的方法,其中,所述对象(P)的图像数据组是利用成像医疗技术设备(22)拍摄的。
CN2008801168765A 2007-11-19 2008-11-18 机器人、医疗工作台和用于将图像投影到对象表面的方法 Active CN101903140B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102007055204A DE102007055204B4 (de) 2007-11-19 2007-11-19 Roboter, medizinischer Arbeitsplatz und Verfahren zum Projizieren eines Bildes auf die Oberfläche eines Objekts
DE102007055204.3 2007-11-19
PCT/EP2008/065758 WO2009065831A2 (de) 2007-11-19 2008-11-18 Roboter, medizinischer arbeitsplatz und verfahren zum projizieren eines bildes auf die oberfläche eines objekts

Publications (2)

Publication Number Publication Date
CN101903140A CN101903140A (zh) 2010-12-01
CN101903140B true CN101903140B (zh) 2013-03-06

Family

ID=40532562

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008801168765A Active CN101903140B (zh) 2007-11-19 2008-11-18 机器人、医疗工作台和用于将图像投影到对象表面的方法

Country Status (7)

Country Link
US (1) US8965583B2 (zh)
EP (1) EP2214872B1 (zh)
JP (1) JP5249343B2 (zh)
KR (1) KR101280665B1 (zh)
CN (1) CN101903140B (zh)
DE (1) DE102007055204B4 (zh)
WO (1) WO2009065831A2 (zh)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2404713A4 (en) * 2009-03-06 2014-08-20 Yaskawa Denki Seisakusho Kk JOINT UNIT FOR ROBOT AND ROBOT
US8751049B2 (en) * 2010-05-24 2014-06-10 Massachusetts Institute Of Technology Kinetic input/output
DE102011111949B4 (de) * 2011-08-29 2013-05-29 Thermo Electron Led Gmbh Laborabzug und insbesondere Sicherheitswerkbank mit Projektionsvorrichtung
CN104054023B (zh) * 2011-11-16 2017-11-17 欧特法斯公司 用于与机器人控制的物体映射的3d投影的系统和方法
US9832352B2 (en) 2011-11-16 2017-11-28 Autofuss System and method for 3D projection mapping with robotically controlled objects
EP2785269B1 (en) 2011-12-03 2022-05-11 Koninklijke Philips N.V. Robotic guidance of ultrasound probe in endoscopic surgery
US9679500B2 (en) * 2013-03-15 2017-06-13 University Of Central Florida Research Foundation, Inc. Physical-virtual patient bed system
US10380921B2 (en) * 2013-03-15 2019-08-13 University Of Central Florida Research Foundation, Inc. Physical-virtual patient bed system
CN105431102B (zh) 2013-06-11 2018-01-30 迷你麦克斯医疗 用于身体部分的计划量的处理的系统
CN116211466A (zh) * 2014-03-17 2023-06-06 直观外科手术操作公司 用于利用基准标记的台姿态跟踪的方法和装置
CN103974048B (zh) 2014-04-28 2016-05-04 京东方科技集团股份有限公司 控制可穿戴设备投影的方法及装置、可穿戴设备
DE102014211115A1 (de) * 2014-06-11 2015-12-17 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur gestengesteuerten Einstellung von Einstellgrößen an einer Röntgenquelle
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
DE102016203701A1 (de) 2016-03-07 2017-09-07 Kuka Roboter Gmbh Industrieroboter mit mindestens zwei Bilderfassungseinrichtungen
CN111132631A (zh) * 2017-08-10 2020-05-08 直观外科手术操作公司 用于远程操作组件中交互点显示的系统和方法
US11980507B2 (en) 2018-05-02 2024-05-14 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
DE102019206779A1 (de) 2018-06-13 2019-12-19 Heidelberger Druckmaschinen Ag Bildinspektionsroboter
JP7172305B2 (ja) * 2018-09-03 2022-11-16 セイコーエプソン株式会社 三次元計測装置およびロボットシステム
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11772276B2 (en) 2020-01-02 2023-10-03 Universal City Studios Llc Systems and methods for optical performance captured animated figure with real-time reactive projected media
DE102020201070A1 (de) * 2020-01-29 2021-07-29 Siemens Healthcare Gmbh Darstellungsvorrichtung
US12008917B2 (en) 2020-02-10 2024-06-11 University Of Central Florida Research Foundation, Inc. Physical-virtual patient system
DE102020213038A1 (de) 2020-10-15 2022-04-21 Kuka Deutschland Gmbh Verfahren zur Durchführung von Gesundheitstests und mobile Gesundheitstestanlage
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
CN114508680A (zh) * 2021-12-22 2022-05-17 江苏艾克斯医疗设备有限公司 一种医疗影像投影设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1322329A (zh) * 1998-10-07 2001-11-14 英特尔公司 采用扫描传感器的输入设备
CN1479191A (zh) * 2002-08-28 2004-03-03 由田新技股份有限公司 投影式虚拟键盘装置
EP1555507A1 (en) * 2004-01-19 2005-07-20 Fanuc Ltd Three-dimensional visual sensor

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4373804A (en) * 1979-04-30 1983-02-15 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects
US6973202B2 (en) * 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
US9572519B2 (en) * 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
DE19951502A1 (de) * 1999-06-28 2001-01-18 Siemens Ag System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild
US6317616B1 (en) * 1999-09-15 2001-11-13 Neil David Glossop Method and system to facilitate image guided surgery
DE10033723C1 (de) * 2000-07-12 2002-02-21 Siemens Ag Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs
DE10108547B4 (de) * 2001-02-22 2006-04-20 Siemens Ag Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern
KR20040056489A (ko) * 2002-12-23 2004-07-01 한국전자통신연구원 임의의 영사면에 대한 화면 왜곡현상 보정 시스템 및 그방법
JP2005165804A (ja) * 2003-12-04 2005-06-23 Matsushita Electric Ind Co Ltd データ入力装置
US7993289B2 (en) * 2003-12-30 2011-08-09 Medicis Technologies Corporation Systems and methods for the destruction of adipose tissue
US7567833B2 (en) * 2004-03-08 2009-07-28 Stryker Leibinger Gmbh & Co. Kg Enhanced illumination device and method
JP2005304596A (ja) * 2004-04-19 2005-11-04 Olympus Corp 医療用遠隔操作装置
JP2006102360A (ja) * 2004-10-08 2006-04-20 Matsushita Electric Ind Co Ltd 生体情報提示装置
JP4449081B2 (ja) * 2005-10-11 2010-04-14 国立大学法人 千葉大学 撮像装置及び撮像システム
JP4836122B2 (ja) * 2006-02-09 2011-12-14 国立大学法人浜松医科大学 手術支援装置、方法及びプログラム
JP2008006551A (ja) 2006-06-29 2008-01-17 National Univ Corp Shizuoka Univ 作動装置
US20080136775A1 (en) * 2006-12-08 2008-06-12 Conant Carson V Virtual input device for computing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1322329A (zh) * 1998-10-07 2001-11-14 英特尔公司 采用扫描传感器的输入设备
CN1479191A (zh) * 2002-08-28 2004-03-03 由田新技股份有限公司 投影式虚拟键盘装置
EP1555507A1 (en) * 2004-01-19 2005-07-20 Fanuc Ltd Three-dimensional visual sensor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JP特开2005-313291A 2005.11.10

Also Published As

Publication number Publication date
EP2214872A2 (de) 2010-08-11
KR101280665B1 (ko) 2013-07-01
US20100275719A1 (en) 2010-11-04
DE102007055204B4 (de) 2010-04-08
DE102007055204A1 (de) 2009-05-20
JP5249343B2 (ja) 2013-07-31
WO2009065831A2 (de) 2009-05-28
JP2011502673A (ja) 2011-01-27
KR20100106308A (ko) 2010-10-01
US8965583B2 (en) 2015-02-24
CN101903140A (zh) 2010-12-01
EP2214872B1 (de) 2019-02-13
WO2009065831A3 (de) 2009-10-15

Similar Documents

Publication Publication Date Title
CN101903140B (zh) 机器人、医疗工作台和用于将图像投影到对象表面的方法
AU2020399817B2 (en) Navigation surgery system and registration method therefor, electronic device, and support apparatus
US11416995B2 (en) Systems, devices, and methods for contactless patient registration for a medical procedure
US11382582B1 (en) Imaging systems and methods
US20200289208A1 (en) Method of fluoroscopic surgical registration
WO2021184890A1 (zh) 治疗设备及其配准方法、配准装置
CN113768625B (zh) 手术机器人系统的机械臂构型确定方法、装置和设备
CN114730454A (zh) 场景感知系统和方法
WO2023183854A1 (en) Improved imaging systems and methods
WO2023040897A1 (zh) 一种手术机器人的空间注册位姿计算方法和系统
US20230248467A1 (en) Method of medical navigation
CN117598784A (zh) 一种手术机器人导航定位方法、装置及机器人系统
CN117122413A (zh) 用于骨科手术机器人的基于oct成像的定位导航方法
CN116828160A (zh) 一种投影方法及手术辅助系统
JP2006020746A (ja) 画像表示装置
CN117357143A (zh) 一种可自主移动的双机械臂数字化x线摄影系统及装置
CN115105105A (zh) 医疗辅助装置
CN118139729A (zh) 用于自动化校准医学机器人的摄像头的校准方法和外科手术辅助系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: KUKA LABORATORY EQUIPMENT GMBH

Free format text: FORMER OWNER: AMATEC ROBOTICS GMBH

Effective date: 20110818

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20110818

Address after: Augsburg

Applicant after: Kuka Lab GmbH

Address before: Augsburg

Applicant before: Amatec Robotics GmbH

C14 Grant of patent or utility model
GR01 Patent grant