CN116724323A - 用于对象操纵站的光学组件 - Google Patents
用于对象操纵站的光学组件 Download PDFInfo
- Publication number
- CN116724323A CN116724323A CN202180088800.1A CN202180088800A CN116724323A CN 116724323 A CN116724323 A CN 116724323A CN 202180088800 A CN202180088800 A CN 202180088800A CN 116724323 A CN116724323 A CN 116724323A
- Authority
- CN
- China
- Prior art keywords
- processing
- optical assembly
- program
- optical
- surgical instrument
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 claims abstract description 70
- 238000012545 processing Methods 0.000 claims abstract description 46
- 238000011282 treatment Methods 0.000 claims abstract description 14
- 230000003190 augmentative effect Effects 0.000 claims abstract description 8
- 230000000007 visual effect Effects 0.000 claims description 24
- 238000009877 rendering Methods 0.000 claims description 11
- 230000008521 reorganization Effects 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 238000013135 deep learning Methods 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 7
- 238000012795 verification Methods 0.000 claims description 4
- 238000001931 thermography Methods 0.000 claims description 2
- 238000004659 sterilization and disinfection Methods 0.000 abstract description 50
- 230000001954 sterilising effect Effects 0.000 description 25
- 238000012549 training Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 238000003860 storage Methods 0.000 description 12
- 238000004140 cleaning Methods 0.000 description 9
- 238000007726 management method Methods 0.000 description 9
- 238000005406 washing Methods 0.000 description 6
- 238000007689 inspection Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004806 packaging method and process Methods 0.000 description 3
- 239000004984 smart glass Substances 0.000 description 3
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000012414 sterilization procedure Methods 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 238000013329 compounding Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000000399 orthopedic effect Effects 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
- A61B90/94—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
- A61B90/94—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
- A61B90/96—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text using barcodes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
- A61B90/98—Identification means for patients or instruments, e.g. tags using electromagnetic means, e.g. transponders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/40—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
Abstract
本发明涉及一种可穿戴式增强现实光学组件(10),使用在用于处理对象(200)的中心,尤其手术仪器(200)消毒单元中,涉及光学装置(100),其包括根据本发明的光学组件(10)以及控制单元(101);用于管理对象、尤其手术仪器(200)的方法;实施所述方法的管理和跟踪程序;以及用于待消毒的对象(200)的处理周期的管理的方法。
Description
技术领域
本公开的实施例涉及用于处理对象(object)的中心、尤其消毒单元中的可穿戴式增强现实光学组件。
尤其,光学组件允许操作者在手术仪器的管理和由适合在特定外科操作中使用的多个手术仪器形成的套件的重组方面得到支持。
本公开的实施例进一步涉及包括根据本发明的光学组件的装置以及用于对象操纵的方法。
本公开的实施例还涉及用于管理对象处理周期的方法,通过该方法,尤其能够限定处理周期的参数,例如手术仪器的消毒。
背景技术
众所周知,在提供适合手术的手术室的设施(诸如医院、诊所或门诊诊所)中,通常每年组装和消毒数十万台手术仪器,包括剪刀和钳子、钻头、矫形切割器、手术刀、内窥镜仪器、托盘、手术仪器盒等。
消毒周期包括三个主要阶段:接收和洗涤、包装、消毒和最终检查,通常在相邻但不同的区域进行,原因是更好地控制洗涤和消毒过程。
在接收和洗涤阶段,使用的仪器来自手术室,被批量放置,经过不同的洗涤和消毒阶段。在第二阶段,识别并检查每个单独的仪器的完整性、磨损和清洁状况。必要时,例如,如果怀疑存在有机残留物,则在放大镜的帮助下直观地评估清洁水平。然后将仪器单个包装或重新组装成套件。
即使在今天,检查和组装主要是手动完成的;然而,有一些技术可以帮助操作者通过读取光学或射频识别码或通过在屏幕上显示组成套件的仪器的图像来识别仪器。然后,容器内仪器的精确位置的核对清单和图形表示能够用于套件的重组。
然后对包装好的仪器或套件进行消毒,在最终检查之后,重新插入用户回路中。
用于支持操作者重组手术套件的现有技术解决方案的一个缺点是,它们通常提供固定的工作站进行操作。需要将各种仪器准备段分开以便保持逐渐获得的清洁和消毒条件,因此即使在套件检查的后续阶段,例如在消毒阶段之后验证套件,也无法使用相同的工作站。如果要确保在手术仪器处理的所有阶段对操作者的支持,则需要将固定的工作站的数量成倍增加。
相反,便携式仪器,诸如光学或射频识别码读取器,需要由操作者操纵。除了因为这些仪器是手动操纵的所以无法解决验证清洁和消毒条件的问题之外,它们的使用使操作者的工作复杂化,操作者必须同时操纵手术仪器和/或套件容器以及便携式仪器。使用消毒手套也使各种操作更加困难。
然而,已知的光学组件没有解决上述问题,尤其在套件或对象专用组的可追溯性和重组方面,在以下文件中进行了描述,例如:巴比琴科·德米特里(BABICHENKO DMITRIY)等人:“SterileAR:Exploration of Augmented Reality and Computer VisionApproaches far Real-Time Feedback in Sterile Compounding Training(消毒AR:消毒复合训练中实时反馈的增强现实和计算机视觉方法的探索)”,2020年第六届国际沉浸式学习研究网络会议(ILRN),沉浸式学习研究网络会议,2020年6月21日(2020-06-21),第62-69页,XP033807343;US-A-2019/328921;和维罗尼卡克拉(VERONIKA)等人:“Smartglasses in the Sterile Supply Process(消毒供应过程中的智能眼镜)”,2019年第10届人类增强国际会议议程,ACM,美国纽约市宾州广场2号701室NY1 0121-0701,2019年9月8日(2019-09-08),第859-861页,XP058440986。因此,需要完善光学组件,至少可以克服现有技术的一个缺点。
发明内容
尤其,本发明的一个目的是具有一种光学组件,其支持操作者重组对象专用组(尤其手术套件)。
通过这种方式,能够减少在正确重组过程中出现错误的可能性,错误很耗时,也是仪器管理期间经济损失的原因,也可能对患者有害。也能够克服训练新雇佣的有经验人员时的困难,否则这通常很耗时并且需要在训练阶段得到更有经验和更熟练的操作者的持续支持。
本发明的另一个目的是通过帮助操作者识别任何有机残留物、污渍、污垢或类似物,使清洁过程更加有效,从而提高使用和对象(尤其手术仪器)的安全性。
再又一个目的是保持手术仪器或套件的效率,允许更好地识别仪器损坏,诸如钝边缘、锁定装置释放以及生锈等改变的存在。
本发明还旨在提供一种光学组件,其能够使用在用于对象专用组的重组的多个处理步骤中。
此外,本发明旨在微调用于通过本发明的光学组件本身管理对象、尤其手术仪器的方法。
最后,本发明旨在微调用于管理对象处理周期的方法,通过这种方法尤其能够限定处理周期的参数。
申请人已经研究、测试并实现了本发明以克服现有技术的缺点,获得了上述以及进一步的目的和利益。
本发明在独立权利要求中表达和表征。从属权利要求显示了本发明的其他特征或提议的主要解决方案的变型。
根据上述目的,本公开的实施例涉及可穿戴式增强现实光学组件,使用在用于处理对象的中心(尤其手术仪器消毒单元),该可穿戴式增强现实光学组件超出了现有技术的限制并消除了其中发现的缺陷。
由于可穿戴,光学组件能够使用而无需手动操纵,使操作者的手自由,并且保证对象和对象专用组的清洁和消毒。操作者也能够将其带到他们必须移动以履行职责的各个区域。
根据实施例,光学组件适合通过计算机视觉技术允许识别对象,尤其手术仪器。
根据实施例,光学组件包括电磁采集器件、处理器和观察设备。
根据实施例,电磁采集器件配置为至少检测对象的图像和/或识别码。
处理器还包括用于管理和跟踪对象的程序,所述程序适于识别所述对象以及为操作者提供用于套件或对象专用组的重组的指示。
获得的图像可以有利地保留以允许消毒过程的更好的可溯性。
上述处理器可以配置为执行与对象相关的图像和数据处理算法,以及根据图像和数据生成视觉内容。观察设备可以适于再现视觉内容,以便穿戴光学组件的消毒单元的操作者能够直观获得这些内容。
光学组件允许通过显示与对象有关的以及可能与对象必须插入的组有关的视觉内容,使操作者在对象专用组的重组中得到有利支持,使得它们直接叠加在操作者当时正在查看的外部现实上。
光学组件还能够自动识别对象在特定的对象专用组中的位置,这意味着操作者能够避免需要编制该组本身内容的核对清单。
也可以通过这种方式评估与每个专用组相关的实际负载,其中负载是指对象的数量、类型、位置或类似信息,这限定了处理单元的每个装备的项目必须执行的工作量。
根据实施例,光学组件配置为执行基于深度学习技术和/或神经网络的计算机视觉算法。这使得可以确保有利地改进对所获得的图像的分析,以及更有效地识别对象中的任何有机残留物、污渍、污垢或损坏,从而使清洁过程更有效率,以及提高对象或对象专用组的效率以及它们在使用过程中的安全性。
此外,它使对象的识别更加确定,因为它们通常彼此非常相似。
根据上述目的,本公开的实施例进一步涉及用于管理待消毒对象的处理周期的方法,由此在手术仪器消毒的情况下限定了处理周期的参数。参数设置方法可以涉及通过与存在于处理篮中的对象专用组(例如手术套件)的每个容器关联的实际负载的信息来确定处理周期的参数,例如用于洗涤、消毒或类似处理,以及将所述参数发送到用于检查处理装备(尤其消毒单元中的消毒和/或储存对象(尤其手术仪器)的装备)的单元。通过这种方式,能够有利地提高清洁处理的效率,使控制消毒周期的处理自动化,以及简化操作者的工作。因此,能够提高对象专用组的重组的效率和安全性,操作者可以对此投入更多的关注和注意力。
附图说明
本发明的这些和其他方面、特征和优点将从参考附图的以下实施例公开中变得清晰,仅以示例方式提供,不作为限制,其中:
-图1是根据本公开的实施例的光学组件的三维示意图;
-图1a是根据本公开的进一步实施例的光学组件的三维示意图;
-图2是在消毒室的场景中使用时,能通过图1和图1a的光学组件实现的增强现实的说明性视图;
-图3是光学装置的示意图,包括根据本公开的实施例使用的图1和图1a的光学组件;
-图4是根据本公开的实施例的使用中的图3的光学组件的三维示意图。
为了便于理解,在可行的情况下,使用了相同的附图标记来识别附图中的相同共同元件。应该注意的是,实施例的元件和特征可以方便地组合或合并到其他实施例中,而无需进一步澄清。
具体实施方式
现在将详细参考本发明的可行实施例,其中一个以上实例仅以示例方式示出在附图中。此处使用的短语和术语也仅用于说明目的。
参考图1、图1a和图2,本公开的实施例是指可穿戴式增强现实光学组件10,使用在用于处理对象200的中心、尤其手术仪器消毒单元200。
参考图3和图4,本公开的实施例进一步涉及使用在用于处理对象200的中心(尤其手术仪器消毒单元200)的光学装置100,包括根据本发明的光学组件10和控制单元101。
上述对象200可以由对象专用组201组成;尤其,如果对象200是手术仪器,手术仪器200可以组成手术仪器套件201。
仅作为举例,下面描述了手术仪器消毒单元200的使用情形。
根据实施例,光学组件10包括:
-电磁采集器件11,其配置为至少检测手术仪器200的图像和/或识别码202;
-处理器12,其执行与所述手术仪器200相关的图像和数据处理算法,以及适于根据图像和数据生成视觉内容16a;
-能够再现视觉内容的观察设备13,以便使它们对于消毒单元的操作者300能够可见。
与所述手术仪器200相关的上述图像和数据可以是与手术仪器200、手术套件201的组成、洗涤和消毒程序、消毒单元的装备400、401的组织和管理等相关的图像和信息。例如,信息可以相关于仪器200的尺寸、放置仪器200的套件201、套件201中的位置和布置(例如,一对剪刀200可以处于打开或关闭位置)、识别码202、它所经受的消毒程序的历史、与要执行的程序相关的指令等。
数据或其部分可以以视觉内容16a或音频内容的形式提供给操作者300。所述数据也能够由光学组件10和/或光学装置100使用,用于处理和/或存储经处理的数据。
视觉内容16a可以是图像、图像序列、视频、文本或其组合或类似内容,适于再现与手术仪器200相关的数据或部分数据。
根据实施例,光学组件10还包括通信模块14,用于与控制单元101通信,用于传输和/或接收所述数据。
例如,观察设备13配置为一副眼镜,如图1和图1a所示,或为遮阳板,或以类似形式。尤其,观察设备13可以配置为已知类型的智能玻璃。
观察设备可以包括操作者头部300的附接元件15,诸如颞部件、松紧带、头盔等。
如图2所示,观察设备13包括虚拟屏幕16和再现器件17,该器件能够再现与手术仪器200相关的视觉内容16a以经由屏幕16使得它们对操作者300视觉可见。尤其,上述视觉内容16a仅对穿戴光学组件10的操作者300可见。
观察设备13还能够包括在上面显示虚拟屏幕16的支持介质18或光学组合器。光学组合器18能够是透明元件,例如由一个或两个透明材料的透镜组成,以便允许观察外部现实和向操作者显示视觉内容16a的叠加。
再现器件17可以是该领域已知类型的投影仪,能够将处理器26接收的视觉内容16a再现在光学组合器18上。
在实施例变体中,光学组合器18和再现器件17集成到单个组件中,诸如全息、液晶、OLED(有机LED)或类似显示器。
图2示意地描绘了操作者在观察设备13的屏幕16上可见的示例。视觉内容16a可以叠加在手术仪器200和手术套件201容器的实际图像上,例如箭头形状的指示,涉及放置错误的任何手术仪器200,诸如错误布置的一对剪刀、或放置手术仪器200的容器或容器段。
因此,本发明可以直观、立即、有效地定位构成套件201的手术仪器200,它们必须放置的方式,以及它们可能包含的任何缺陷和/或类似的指示。它还可以在屏幕16上显示与消毒单元的装备400、401的状态相关的警告,诸如错误、周期结束、卸载等待信号等。
本发明还能够自动识别手术仪器200在给定手术仪器200套件201容器中的位置,这意味着操作者能够避免编制容器本身内容的核对清单。
本发明还能够通过显示可行周期的识别码202(例如QR码等)来自动选择处理周期。
光学组件10可以进一步包括声学设备19,诸如耳机、骨传导耳机和/或扬声器,通过其,光学组件可以经由声学信号(诸如音调、警报等)与操作者300连接。
例如,依靠与钩元件15相关联并配置为播放声音内容的扬声器19,光学组件10可以提供声音指导的口头信息。然后,光学组件10还可以提供包括声音内容和视觉内容16a在内的多媒体内容。
根据实施例,处理器12可以包括处理设备21和存储设备22,其上可以安装或能够安装管理和跟踪程序或其部分。
根据实施例,处理器12配置为执行计算机视觉算法。
所述计算机视觉算法可以基于深度学习技术和/或神经网络。
根据实施例变体,计算机视觉算法可以基于传统的匹配技术。仅举例来说,可以使用箱中取物技术。
存储设备22还可以存储与手术仪器200相关的数据,以及与基于深度学习技术和/或神经网络的计算机视觉算法的训练集和验证集相关的数据。
存储设备22可以连接到处理设备21,从这些商用设备中选择,诸如随机存取存储器(RAM)、只读存储器(ROM)或任何其他形式的数字存储器。
处理设备21可以是任何形式的计算机处理器,能够用于在图像和识别码202处理领域中有利地处理数据。
处理设备21可以适于通过上述管理和跟踪程序或其部分来处理与手术仪器200相关的数据,诸如通过采集器件11获得的数据,可能还有外部控制单元101发送的数据。
尤其,处理设备21可以适于自主处理上述数据或获取外部控制单元101处理的数据,以及进一步处理或管理它们以用于控制再现器件17。
为此目的,处理设备21可以适于执行用于管理和跟踪手术仪器200的程序或其部分。
根据实施例,处理设备21可以包括训练模块和用于使用基于深度学习技术和/或神经网络的计算机视觉算法的模块。
根据实施例,电磁采集器件11包括一个以上图像采集设备,从摄像机和热成像摄像机中选择。
电磁采集器件11可以进一步包括一个以上电子采集器件,诸如射频、RFID(射频识别)标签、NFC(近场通信)标签、RTLS(实时定位系统)等。
然后,电磁采集器件11可以读取任何识别码202,诸如字母数字类型代码,例如由数字和字母序列、线性或二维条、RFID标签、NFC标签和/或类似内容组成的“说话”代码。
根据实施例,通信模块14可以是短程(蓝牙、蓝牙BLE、Zigbee或类似)和/或中程(诸如LPWAN或类似)和/或远程(Wi-Fi、3G、4G SIM卡或类似)无线类型设备。
光学组件10可以进一步包括与操作者300的接口设备20,作为控制光学组件10本身的器件。
接口设备20可以是声学类型,诸如麦克风,可以配备语音识别软件,操作者300可以通过语音命令与光学组件连接。
例如,通过麦克风20,操作者300可以要求处理器显示屏幕16上显示的视觉内容16a,以及请求其他类型的视觉内容16a或类似内容。通过这种方式,能够有利地确保进一步提高用户友好性以及避免污染。
接口设备20也可以是手动操作的设备,例如如图1a所示,由按钮20a、开关和/或类似组成的命令,用于操作者300以已知方式输入命令。所述命令可以包括用于与处理器12、通信模块14和/或再现器件16通信的连接电缆20b或无线元件。
根据实施例,光学装置100中包含的控制单元101可以包括一个以上处理单元102或CPU、一个以上计算机数据存储设备103、可能的电子数据库104,以及辅助和输入/输出电路105。控制单元101也可以配置为以已知方式与外部数据库连接。
控制单元101可以配置为至少与光学组件10的处理器12协作用于存储和/或处理与手术仪器200相关的数据。
根据替代实施例,控制单元101可以配置为以自主方式处理与手术仪器200相关的数据,以及将其发送到处理器12用于进一步处理或管理以控制再现器件17。
根据另一个实施例,控制单元101可以配置为控制光学组件10,以便在数据存储和/或处理阶段控制所述处理器12。
为此,控制单元101可以适于执行用于管理和跟踪手术仪器200的程序或部分程序。根据实施例,控制单元101可以配置为执行计算机视觉算法。
控制单元101可以配置为将光学组件10与消毒单元中的用于手术仪器200的处理或消毒的设备400或存储设备401连接。
处理单元102可以是任何形式的计算机处理器,能够用于在消毒单元的监测和控制中有利地处理数据。
一个以上存储设备103可以连接到处理单元102,可以是一个以上这些商用设备,诸如随机存取存储器(RAM)、只读存储器(ROM)、软盘、硬盘、大容量存储器或任何其他形式的数字存储器,本地的或远程的。
管理和跟踪程序或其部分可以安装在或能够安装在一个以上存储设备103上,以控制一个以上处理单元102。与手术仪器200相关的数据也可以存储在一个以上存储设备103上。
根据控制单元101配置为执行基于深度学习技术和/或神经网络的计算机视觉算法的实施例,训练模块和用于使用上述算法的模块可以包含在一个以上处理单元102中。与基于深度学习技术和/或神经网络的计算机视觉算法的训练集和验证集相关的数据也可以存储在一个以上存储设备103上。
电子数据库104可以适于存储与手术仪器200、手术套件201或类似相关的数据,目的是处理由光学组件10收集的数据、质量控制、统计分析、操作者安全管理300等。
辅助和输入/输出电路105可以适于与操作者300、组件10、外部电源系统、外部数据库、后续处理系统和/或类似进行连接。
辅助和输入/输出电路105可以包括与组件10、可能与消毒单元的消毒设备400和/或存储设备401的通信元件。
通信元件可以是有线类型设备(以太网、SB或类似)和/或短程(蓝牙、蓝牙BLE、Zigbee或类似)和/或中程(如LPWAN或类似)和/或远程(Wi-Fi、3G、4G SIM卡或类似)无线类型设备。
辅助和输入/输出电路105可以进一步包括操作者接口装备,诸如视频终端、键盘、鼠标、打印机等,通过这些装备来显示数据、输入命令等以用于消毒单元的操作。
根据实施例,辅助和输入/输出电路105可以提供图形接口,尤其包括图形处理单元、GPU内存、图形训练模块和图形使用模块,用于在基于深度学习技术和/或神经网络的计算机视觉算法中的接口。
本公开的实施例涉及用于管理和跟踪手术仪器200的程序,包括用于处理与手术仪器200相关的图像和数据的算法,以及用于根据图像和数据生成视觉内容16a的算法。
用于管理和跟踪手术仪器200的程序可以进一步包括用于通过与手术套件容器201的实际装载相关的信息来确定洗涤周期参数的算法,以及将所述参数发送到控制单元101以检查用于消毒400或将手术仪器200存储401在消毒单元中所使用的装备。
上述程序可以包括确定用于使用光学组件10的方法的执行的指令,一旦实施指令,能够编译用于手术仪器200识别操作,以便为手术套件201的重组提供有用的指示。
上述有用的指示可以是关于构成套件201的仪器200的信息、它们的位置、它们在套件201中的布局顺序以及类似信息。例如,该程序可以验证手术仪器200是否正确放置在套件201容器中,例如通过定位一对开放式剪刀,以及它们是否正确间隔以便随后的自动清洗和消毒操作。
上述程序可以进一步包括用于手术仪器200的符合性评估的指令。
这里的符合性是指手术仪器200没有任何有机残留物、污渍、污垢或类似物以及手术仪器200没有损坏的情形。可以通过比较采集器件11检测到的图像与存储的图像来进行符合性评估。
上述程序还可以包括用于最终验证手术套件201和/或正确包装和/或装入消毒篮的指令。
该程序还可以编制与手术套件的组成相关的核对清单,这些清单目前是手动编制的。
该程序可以包括用于通过与存储的图像比较以识别手术仪器200以及可能以评估其符合性,来处理由光学组件10的电磁采集器件11获得的图像的指令。
该程序可以包括用于处理上述图像以执行与手术仪器唯一关联的光学识别码202的识别阶段的指令。该识别可以通过技术来实现,例如文本,诸如OCR(光学字符识别)等。
根据实施例,用于管理和跟踪手术仪器200的程序包括基于深度学习技术和/或神经网络的计算机视觉算法。
根据一个实施例变体,用于管理和跟踪手术仪器200的程序包括基于传统匹配技术的计算机视觉算法。
上述计算机视觉算法可以适于执行上述一个以上操作,包括识别、符合性评估、为手术套件201的重组提供有用的指示以及最终验证。
计算机视觉算法可以适于操纵二维(2D)和三维(3D)图像。
本公开的实施例还涉及使用根据本发明的光学组件10的方法,使用在用于处理对象的中心,尤其手术仪器200消毒单元。
该方法涉及:
-至少检测手术仪器200的图像和/或识别码202;
-处理与手术仪器200相关的图像和数据,以及根据所述图像和数据生成视觉内容16a;
-再现视觉内容16a,使其直观地提供给消毒单元的操作者300。
该方法还可以包括控制阶段以验证手术套件201的准备是否正确执行。在一个实施例中,如果由采集器件检测到的图像和/或识别码202与存储在处理器12和/或控制单元101中的相应图像/代码一致,则此验证的结果为正,而如果此类图像/代码不重合,则为负。
该方法还可以包括训练一算法以识别包装和装入消毒篮何时正确执行。
该方法可以通过光学组件10在初始阶段获取兼容和不兼容的手术仪器200的一组图像(诸如手术仪器200损坏或变脏的图像),来提供视觉算法的训练,具有与操作者为训练和验证阶段提供的他们的状况有关的关联特征或判断。
该方法可以提供采集同一手术仪器200在不同位置的图像组以便获得其几何形状,以及提供如此训练的视觉算法的使用。
训练也可以在使用算法期间被更新,例如通过在获取新手术仪器200的图像的同时插入新的表征。
本公开的实施例还涉及用于管理待消毒的对象的处理周期的方法,目的是限定周期参数,尤其手术仪器200的消毒。
参数设置方法可以通过与手术套件容器201的实际装载相关的信息来确定消毒周期的参数,并将所述参数发送到控制单元101,以检查用于消毒400或将手术仪器200存储401在消毒单元中的设备。
上述参数可以是消毒周期阶段的持续时间、温度(例如洗涤水或消毒蒸汽的温度)、洗涤和/或消毒物质的浓度等。
参数设置方法可以进一步包括确定错误参数,指示一个以上手术仪器200以不符合的方式定位。
根据实施例,与手术套件201容器的实际装载相关的信息可以由根据本发明的光学组件10提供。
根据实施例变体,与手术套件容器201的实际装载相关的信息可以通过未在附图中公开的固定组件提供。例如,固定组件可以是包括一个以上摄像机的光学组件。
根据另一实施例变体,固定组件可以是非光学的,和/或包括不基于光学原理的一个以上数据收集工具。例如,一个以上数据收集工具可以是一个以上RFID、NFC、RTLS标签阅读器或类似。
固定组件可以进一步包括处理器,用于执行管理和跟踪手术仪器200的程序。
根据实施例,固定组件可以放置在工作台、手术仪器200的拾取点或类似上。固定组件优选放置在消毒设备400或存储设备401等的输入处。
显然的是,可以在不偏离权利要求限定的本发明范围的情况下,对光学组件10、光学装置100、管理和跟踪程序、用于管理手术仪器200的方法以及上述参数设置方法进行修改和/或添加部件或步骤。
在以下权利要求中,括号中的附图标记的唯一目的是方便阅读,不得被视为特定权利要求所依据的保护范围的限制因素。
Claims (12)
1.一种可穿戴式增强现实光学组件(10),使用在用于处理对象(200)的中心中,用于通过计算机视觉技术识别所述对象(200),包括:电磁采集器件(11),其配置为至少检测对象(200)的图像和/或识别码(202);处理器(12),其配置为执行图像和数据处理算法,还生成视觉内容(16a);以及观察设备(13),其能够再现所述视觉内容(16a)以使它们对于操作者(300)视觉可见,其中所述处理器(12)包括用于管理和跟踪对象(200)的程序,所述程序适于识别所述对象(200)以及为操作者(300)提供用于重组套件或对象专用组(201)的指示。
2.根据权利要求1所述的光学组件(10),其特征在于,所述处理器(12)配置为执行基于深度学习技术和/或神经网络的计算机视觉算法。
3.根据权利要求1或2所述的光学组件(10),其特征在于,所述观察设备(13)包括虚拟屏幕(16)和能够再现所述视觉内容(16a)的再现器件(17)。
4.根据前述权利要求中任一项所述的光学组件(10),其特征在于,其配备有配置为向外部控制单元(101)发送/接收所述数据的通信模块(14)。
5.根据前述权利要求中任一项所述的光学组件(10),其特征在于,所述电磁采集器件(11)包括从摄像机和热成像摄像机中选择的一个以上设备,此外可能包括从RFID标签和NCF标签阅读器中选择的一个以上电子采集器件。
6.一种用在处理对象(200)的中心的光学装置(100),其特征在于,其包括根据权利要求1至5中任一项所述的光学组件(10)以及控制单元(101),所述控制单元配置为至少在存储和/或处理与所述对象(200)相关的数据的步骤中与处理器(12)协作,和/或将所述光学组件(10)与所述中心中用于处理(400)或存储(401)对象(200)的装备连接,其中,所述控制单元(101)包括用于管理和跟踪对象(200)的程序,所述程序适于识别所述对象(200)以及可能识别其符合性,从而提供用于重组对象专用组(201)以及可能它们的最终验证的有用指示。
7.一种用于管理和跟踪对象(200)的程序,包括确定用于通过根据权利要求1至5中任一项所述的光学组件(10)管理对象(200)的方法的执行的指令,所述程序指令适于一旦执行就允许识别所述对象(200)以及为对象专用组(201)的重组提供指示。
8.根据权利要求6所述的管理和跟踪程序,其特征在于,其包括用于处理由电磁采集器件(11)获得的所述光学组件(10)的图像的指令,以通过与存储的图像比较来识别所述对象(200)及可能识别它们的符合性。
9.根据权利要求9至10中任一项所述的管理和跟踪程序,其特征在于,其包括用于处理由电磁采集器件(11)获得的所述光学组件(10)的图像的指令,以执行识别与对象(200)唯一关联的识别码(202)的步骤。
10.根据权利要求8至10中任一项所述的管理和跟踪程序,其特征在于,其包括基于深度学习技术和/或神经网络的计算机视觉算法。
11.一种用于在用于处理对象(200)的中心中操纵对象(200)的方法,适于允许通过根据权利要求1至5中任一项所述的光学组件(10)处理所述对象(200),其中所述方法提供了以下步骤:
-至少检测对象(200)的图像和/或识别码(202);
-处理与所述对象(200)相关的图像和数据,以及根据所述图像和数据生成与所述对象(200)相关的视觉内容(16a);
-再现所述视觉内容(16a)以使其对处理中心的操作者(300)视觉可见。
12.一种用于管理待消毒的对象(200)的处理周期的方法,通过该方法限定所述处理周期的参数,其特征在于,所述方法包括依靠通过权利要求11所述的方法获得的信息来确定处理周期的参数。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT102020000030098A IT202000030098A1 (it) | 2020-12-07 | 2020-12-07 | Assieme ottico per l'uso in una centrale di trattamento di oggetti |
IT102020000030098 | 2020-12-07 | ||
PCT/IT2021/050393 WO2022123609A1 (en) | 2020-12-07 | 2021-12-06 | Optical assembly for use in an object handling station |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116724323A true CN116724323A (zh) | 2023-09-08 |
Family
ID=74669401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180088800.1A Pending CN116724323A (zh) | 2020-12-07 | 2021-12-06 | 用于对象操纵站的光学组件 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20240074814A1 (zh) |
EP (1) | EP4256421A1 (zh) |
JP (1) | JP2024500318A (zh) |
CN (1) | CN116724323A (zh) |
AU (1) | AU2021395584A1 (zh) |
IT (1) | IT202000030098A1 (zh) |
WO (1) | WO2022123609A1 (zh) |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10556032B2 (en) * | 2018-04-25 | 2020-02-11 | Safetraces, Inc. | Sanitation monitoring system using pathogen surrogates and surrogate tracking |
-
2020
- 2020-12-07 IT IT102020000030098A patent/IT202000030098A1/it unknown
-
2021
- 2021-12-06 EP EP21839694.3A patent/EP4256421A1/en active Pending
- 2021-12-06 JP JP2023534283A patent/JP2024500318A/ja active Pending
- 2021-12-06 AU AU2021395584A patent/AU2021395584A1/en active Pending
- 2021-12-06 CN CN202180088800.1A patent/CN116724323A/zh active Pending
- 2021-12-06 WO PCT/IT2021/050393 patent/WO2022123609A1/en active Application Filing
- 2021-12-06 US US18/256,112 patent/US20240074814A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2022123609A1 (en) | 2022-06-16 |
US20240074814A1 (en) | 2024-03-07 |
AU2021395584A1 (en) | 2023-06-29 |
JP2024500318A (ja) | 2024-01-09 |
EP4256421A1 (en) | 2023-10-11 |
IT202000030098A1 (it) | 2022-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220183773A1 (en) | Systems and methods for providing guidance for a robotic medical procedure | |
US11672611B2 (en) | Automatic identification of instruments | |
US20180082480A1 (en) | Augmented reality surgical technique guidance | |
US10741282B2 (en) | Medical tool work support system, medical tool work support method, and medical tool work support program | |
US20200043604A1 (en) | Automated sterilization system with artificial intelligence for processing surgical instruments and methods employed thereof | |
CN110765835A (zh) | 一种基于边缘信息的手术视频流程识别方法 | |
CN112784672A (zh) | 基于计算机视觉的手术场景评估 | |
US20220015841A1 (en) | Robotic device and sterilization unit for surgical instrument | |
CN116724323A (zh) | 用于对象操纵站的光学组件 | |
WO2021124221A1 (en) | Platform for handling of medical devices associated with a medical device kit | |
CN113920063A (zh) | 一种医学病灶图像分析系统 | |
US20230386074A1 (en) | Computer vision and machine learning to track surgical tools through a use cycle | |
EP2913726A2 (en) | Industrial automation equipment and machine procedure simulation | |
Yokoyama et al. | Recognition of instrument passing and group attention for understanding intraoperative state of surgical team | |
Codex | Predictive Evaluation Methods in Microsurgery for Brain Aneurysms: Advancements in Neuroimaging and Virtual Reality Simulation Technology | |
WO2023018920A1 (en) | Surgical supply and reprocessing system | |
CN117462079A (zh) | 应用于固有荧光病变检测仪的智能提示系统、介质和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |