CN116795213A - 基于增强现实技术的智能人机交互系统及方法 - Google Patents
基于增强现实技术的智能人机交互系统及方法 Download PDFInfo
- Publication number
- CN116795213A CN116795213A CN202310739549.1A CN202310739549A CN116795213A CN 116795213 A CN116795213 A CN 116795213A CN 202310739549 A CN202310739549 A CN 202310739549A CN 116795213 A CN116795213 A CN 116795213A
- Authority
- CN
- China
- Prior art keywords
- module
- image
- patient
- augmented reality
- mri
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005516 engineering process Methods 0.000 title claims abstract description 26
- 230000003993 interaction Effects 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 title claims abstract description 20
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 19
- 230000003287 optical effect Effects 0.000 claims abstract description 26
- 238000012545 processing Methods 0.000 claims abstract description 20
- 238000003384 imaging method Methods 0.000 claims abstract description 19
- 238000002595 magnetic resonance imaging Methods 0.000 claims description 25
- 239000011521 glass Substances 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 7
- 230000002708 enhancing effect Effects 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 230000035790 physiological processes and functions Effects 0.000 claims description 3
- 238000012805 post-processing Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000009877 rendering Methods 0.000 claims description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 6
- 230000000694 effects Effects 0.000 abstract description 3
- 230000003902 lesion Effects 0.000 abstract description 2
- 210000001519 tissue Anatomy 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 210000000629 knee joint Anatomy 0.000 description 3
- 210000003205 muscle Anatomy 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 210000001835 viscera Anatomy 0.000 description 2
- 208000012260 Accidental injury Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000845 cartilage Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/108—Computer aided selection or customisation of medical implants or cutting guides
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
- G02B2027/0174—Head mounted characterised by optical features holographic
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Primary Health Care (AREA)
- Robotics (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Epidemiology (AREA)
- Computer Graphics (AREA)
- Heart & Thoracic Surgery (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- General Business, Economics & Management (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Business, Economics & Management (AREA)
- Human Computer Interaction (AREA)
- Urology & Nephrology (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
本发明提供基于增强现实技术的智能人机交互系统及方法,涉及AR人机交互技术领域。该基于增强现实技术的智能人机交互系统,包括成像模块、图像处理模块、投影模块和AR模块,所述成像模块设置有光学扫描仪和MRI扫描仪,所述图像处理模块用于将扫描到的图像数据转化为三维模型,所述投影模块用于将虚拟的三维模型投影到患者身上,与真实身体结合显示,所述AR模块用于观察投影至患者身体上三维模型并进行手术规划、导航和操作指导。通过将两种扫描技术所得到的影像信息进行融合,得到一张更加准确、详细的影像,结合AR技术可以帮助医生在手术过程中更准确地识别和定位病变部位,提高手术治疗效果。
Description
技术领域
本发明涉及AR人机交互技术领域,具体为基于增强现实技术的智能人机交互系统及方法。
背景技术
AR技术是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,其可将原本在现实世界的一定时间空间范围内很难体验到的实体信息(如视觉信息、声音、味道和触觉等)通过计算机技术等模拟仿真后再进行叠加,以将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感官体验,可实现将真实的环境和虚拟的物体实时叠加到同一画面或空间。
现有的医疗人机交互系统中交互方式多通过采用传统的文本、按钮、菜单等交互方式进行,交互效果不理想,在手术操作过程中,无法通过采用多模态融合图像的增强现实技术对手术进行指导,手术操作难度高,时间长,医护人员劳动强度大,患者需要承受手术痛苦,恢复时间长。
发明内容
针对现有技术的不足,本发明提供了基于增强现实技术的智能人机交互系统及方法,解决了现有技术中医疗人机交互系统不够高效的问题。
为实现以上目的,本发明通过以下技术方案予以实现:基于增强现实技术的智能人机交互系统,包括成像模块、图像处理模块、投影模块和AR模块,所述成像模块设置有光学扫描仪和MRI扫描仪,所述图像处理模块用于将扫描到的图像数据转化为三维模型,所述投影模块用于将虚拟的三维模型投影到患者身上,与真实身体结合显示,所述AR模块用于观察投影至患者身体上三维模型并进行手术规划、导航和操作指导。
通过上述技术方案将光学扫描仪获取到的皮肤和肌肉等表浅结构的成像和MRI扫描仪获取到的内脏和骨骼等深层结构图像相结合,经过图像处理模块对两幅图像进行处理融合后由投影模块投影至患者本体,最有通过AR模块进行观测,大大地缩短手术时间,减少手术过程中的复杂程度,从而降低手术风险。
优选的,所述AR模块通过无线局域网连接有反馈模块,所述反馈模块设置有计算机和手持终端,所述反馈模块用于监测AR模块的实时工作状态。
通过上述技术方案将AR模块的实时工作状态反馈至反馈模块显示,能够监测AR模块的状态变化,监测数据能够直观地反馈至外接,方便及时调整监测状态或数据。
优选的,所述光学扫描仪通过多角度拍摄和成像,捕捉物体的表面形态和纹理信息,所述MRI扫描仪用于对物体内部水分子的分布和运动状态进行成像,得到其内部结构、生理功能等信息。
通过上述技术方案能够获得皮肤和肌肉等表浅结构图像与内脏和骨骼等深层结构图像,通过多模态图像成像能够得到更加准确、详细的影像,能够避免单一图像的局限性。
优选的,所述AR模块设置有眼镜框架、摄像头、显示器、储存器和处理器,所述眼镜框架用于AR模块的佩戴,所述摄像头用于观测虚拟的三维模型与患者真实本体的成像,所述显示器用于显示观测数据,所述处理器器用于处理AR模块所需的各种数据,包括实时渲染、图形处理和指令控制,所述储存器用于存储AR模块所需的软件和数据,所述摄像头、显示器、储存器和处理器均安装在眼镜框架上。
通过上述技术方案能够将AR模块通过眼镜框架佩戴在医护人员的眼部,通过摄像头将检测到的成像呈现在显示器上,医护人员按能够实时观测AR成像的图像,结合AR图像能够快速对病灶处进行定位,方便医护人员的手术操作。
优选的,所述投影模块设置有投影仪、超声波测距仪、陀螺仪和升降平台,所述投影仪用于投影三维图像,所述超声波测距仪和陀螺仪用于获取物体到测距仪的距离信息和姿态信息,所述升降平台用于调整投影仪的高度与姿态,所述投影仪、超声波测距仪和陀螺仪均安装在升降平台的下方,所述升降平台设置在患者病患处的上方。
通过上述技术方案可以根据患者的位置调整投影仪的高度与投影姿态,直至投影的三维图像与患者身体重合,能够通过患者本体与增强现实的三维图像相结合,为医护人员提供准确的手术引导。
优选的,基于增强现实技术的智能人机交互方法,包括以下步骤:
S1.首先通过光学扫描仪和MRI扫描仪对患者身体进行扫描,分别获取人体组织外部外部的形态、大小、位置、结构和排列的图像信息以及人体组织的内部结构、形态、大小、位置、组织密度的图像信息;
S2.通过图像处理模块对S1中获取的图像进行处理与融合,其具体步骤如下:
a.图像预处理:将光学扫描和MRI扫描的原始图像进行增强和滤波,去除可能存在的噪声和伪影;
b.图像配准:将光学扫描和MRI扫描的图像进行配准,使它们能够在相同的坐标系中进行处理;
c.特征提取:从光学扫描和MRI扫描的图像中提取出相关的边缘和纹理特征信息;
d.加权融合:采用加权平均的方法将光学扫描和MRI扫描的特征图像融合到一起,其计算公式如下:
F(x,y)=w1*I1(x,y)+w2*I2(x,y)
其中,F(x,y)是融合后的结果图像,I1(x,y)和I2(x,y)分别是光学扫描和MRI扫描的特征图像,w1和w2是相应的权重;
e.后处理:对融合后的结果图像进行后处理,去除可能存在的噪声和伪影,增强图像的对比度和清晰度。
S3.通过投影仪将融合后的图像投影到患者身体上,并通过超声波测距仪与陀螺仪检测与患者之间的投影具体与姿态,从而控制升降平台进行调整,直至融合图像与患者本体重合并进行病灶标记;
S4.通过AR模块的摄像头对患者本体以及患者的三维融合图像进行观测并通过显示器进行显示,医护人员通过佩戴AR模块对患者进行手术并通过显示器进行手术进程监督与引导。
本发明提供了基于增强现实技术的智能人机交互系统及方法。具备以下
有益效果:
本发明通过将两种扫描技术所得到的影像信息进行融合,得到一张更加准确、详细的影像,结合AR技术可以在手术中提供高品质的影像和信息,帮助医生在手术过程中更准确地识别和定位病变部位,避免手术中的意外伤害或手术失败,大大地缩短手术时间,减少手术过程中的复杂程度,从而降低手术风险,患者的疼痛以及恢复时间也会减少,从而提高临床诊断的准确性和治疗效果。
附图说明
图1为本发明的系统图;
图2为本发明的AR模块示意图;
图3为本发明的成像模块示意图;
图4为本发明的投影模块示意图;
图5为本发明的反馈模块示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例:
如图1-5所示,本发明实施例提供基于增强现实技术的智能人机交互系统,包括成像模块、图像处理模块、投影模块和AR模块,成像模块设置有光学扫描仪和MRI扫描仪,图像处理模块用于将扫描到的图像数据转化为三维模型,投影模块用于将虚拟的三维模型投影到患者身上,与真实身体结合显示,AR模块用于观察投影至患者身体上三维模型并进行手术规划、导航和操作指导。
AR模块通过无线局域网连接有反馈模块,反馈模块设置有计算机和手持终端,反馈模块用于监测AR模块的实时工作状态。
光学扫描仪通过多角度拍摄和成像,捕捉物体的表面形态和纹理信息,MRI扫描仪用于对物体内部水分子的分布和运动状态进行成像,得到其内部结构、生理功能等信息。
AR模块设置有眼镜框架、摄像头、显示器、储存器和处理器,眼镜框架用于AR模块的佩戴,摄像头用于观测虚拟的三维模型与患者真实本体的成像,显示器用于显示观测数据,处理器器用于处理AR模块所需的各种数据,包括实时渲染、图形处理和指令控制,储存器用于存储AR模块所需的软件和数据,摄像头、显示器、储存器和处理器均安装在眼镜框架上。
投影模块设置有投影仪、超声波测距仪、陀螺仪和升降平台,投影仪用于投影三维图像,超声波测距仪和陀螺仪用于获取物体到测距仪的距离信息和姿态信息,升降平台用于调整投影仪的高度与姿态,投影仪、超声波测距仪和陀螺仪均安装在升降平台的下方,升降平台设置在患者病患处的上方。
在具体实施例中,在常规的膝关节翻修手术中,医生需要切除受损软骨和骨头,并植入人工关节,传统做法是依靠积累的经验和医生的直觉,通过肉眼观察病人的膝关节和医疗设备的数据来决定手术方案和操作方式,这种手术方式存在很大的不确定性和风险,采用AR技术,医生可以穿戴AR设备,将三维数字模型叠加在实际手术场景下,并用手势识别技术和语音指令来控制数字模型,通过AR模型的帮助,医生可以更加直观地观察病人的膝关节结构,进行精细的测量和分析,定位手术区域和切口的位置,在手术过程中,反馈可以实时地反馈手术进度和操作结果,比如反馈手术中出现的异常情况、提醒患者的身体反应和监测手术区域的温度和压力等,医生可以更快速、准确地进行手术,减少误操作和并发症的风险,提高手术成功率和患者的放心程度。
基于增强现实技术的智能人机交互方法,包括以下步骤:
S1.首先通过光学扫描仪和MRI扫描仪对患者身体进行扫描,分别获取人体组织外部外部的形态、大小、位置、结构和排列的图像信息以及人体组织的内部结构、形态、大小、位置、组织密度的图像信息;
S2.通过图像处理模块对S1中获取的图像进行处理与融合,其具体步骤如下:
a.图像预处理:将光学扫描和MRI扫描的原始图像进行增强和滤波,去除可能存在的噪声和伪影;
b.图像配准:将光学扫描和MRI扫描的图像进行配准,使它们能够在相同的坐标系中进行处理;
c.特征提取:从光学扫描和MRI扫描的图像中提取出相关的边缘和纹理特征信息;
d.加权融合:采用加权平均的方法将光学扫描和MRI扫描的特征图像融合到一起,其计算公式如下:
F(x,y)=w1*I1(x,y)+w2*I2(x,y)
其中,F(x,y)是融合后的结果图像,I1(x,y)和I2(x,y)分别是光学扫描和MRI扫描的特征图像,w1和w2是相应的权重;
e.后处理:对融合后的结果图像进行后处理,去除可能存在的噪声和伪影,增强图像的对比度和清晰度。
S3.通过投影仪将融合后的图像投影到患者身体上,并通过超声波测距仪与陀螺仪检测与患者之间的投影具体与姿态,从而控制升降平台进行调整,直至融合图像与患者本体重合并进行病灶标记;
S4.通过AR模块的摄像头对患者本体以及患者的三维融合图像进行观测并通过显示器进行显示,医护人员通过佩戴AR模块对患者进行手术并通过显示器进行手术进程监督与引导。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (6)
1.基于增强现实技术的智能人机交互系统,包括成像模块、图像处理模块、投影模块和AR模块,其特征在于:所述成像模块设置有光学扫描仪和MRI扫描仪,所述图像处理模块用于将扫描到的图像数据转化为三维模型,所述投影模块用于将虚拟的三维模型投影到患者身上,与真实身体结合显示,所述AR模块用于观察投影至患者身体上三维模型并进行手术规划、导航和操作指导。
2.根据权利要求1所述的基于增强现实技术的智能人机交互系统,其特征在于:所述AR模块通过无线局域网连接有反馈模块,所述反馈模块设置有计算机和手持终端,所述反馈模块用于监测AR模块的实时工作状态。
3.根据权利要求1所述的基于增强现实技术的智能人机交互系统,其特征在于:所述光学扫描仪通过多角度拍摄和成像,捕捉物体的表面形态和纹理信息,所述MRI扫描仪用于对物体内部水分子的分布和运动状态进行成像,得到其内部结构、生理功能等信息。
4.根据权利要求1所述的基于增强现实技术的智能人机交互系统,其特征在于:所述AR模块设置有眼镜框架、摄像头、显示器、储存器和处理器,所述眼镜框架用于AR模块的佩戴,所述摄像头用于观测虚拟的三维模型与患者真实本体的成像,所述显示器用于显示观测数据,所述处理器器用于处理AR模块所需的各种数据,包括实时渲染、图形处理和指令控制,所述储存器用于存储AR模块所需的软件和数据,所述摄像头、显示器、储存器和处理器均安装在眼镜框架上。
5.根据权利要求1所述的基于增强现实技术的智能人机交互系统,其特征在于:所述投影模块设置有投影仪、超声波测距仪、陀螺仪和升降平台,所述投影仪用于投影三维图像,所述超声波测距仪和陀螺仪用于获取物体到测距仪的距离信息和姿态信息,所述升降平台用于调整投影仪的高度与姿态,所述投影仪、超声波测距仪和陀螺仪均安装在升降平台的下方,所述升降平台设置在患者病患处的上方。
6.根据权利要求1-5任一条所述的基于增强现实技术的智能人机交互方法,其特征在于,包括以下步骤:
S1.首先通过光学扫描仪和MRI扫描仪对患者身体进行扫描,分别获取人体组织外部外部的形态、大小、位置、结构和排列的图像信息以及人体组织的内部结构、形态、大小、位置、组织密度的图像信息;
S2.通过图像处理模块对S1中获取的图像进行处理与融合,其具体步骤如下:
a.图像预处理:将光学扫描和MRI扫描的原始图像进行增强和滤波,去除可能存在的噪声和伪影;
b.图像配准:将光学扫描和MRI扫描的图像进行配准,使它们能够在相同的坐标系中进行处理;
c.特征提取:从光学扫描和MRI扫描的图像中提取出相关的边缘和纹理特征信息;
d.加权融合:采用加权平均的方法将光学扫描和MRI扫描的特征图像融合到一起,其计算公式如下:
F(x,y)=w1*I 1(x,y)+w2*I2(x,y)
其中,F(x,y)是融合后的结果图像,I 1(x,y)和I 2(x,y)分别是光学扫描和MRI扫描的特征图像,w1和w2是相应的权重;
e.后处理:对融合后的结果图像进行后处理,去除可能存在的噪声和伪影,增强图像的对比度和清晰度。
S3.通过投影仪将融合后的图像投影到患者身体上,并通过超声波测距仪与陀螺仪检测与患者之间的投影具体与姿态,从而控制升降平台进行调整,直至融合图像与患者本体重合并进行病灶标记;
S4.通过AR模块的摄像头对患者本体以及患者的三维融合图像进行观测并通过显示器进行显示,医护人员通过佩戴AR模块对患者进行手术并通过显示器进行手术进程监督与引导。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310739549.1A CN116795213A (zh) | 2023-06-21 | 2023-06-21 | 基于增强现实技术的智能人机交互系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310739549.1A CN116795213A (zh) | 2023-06-21 | 2023-06-21 | 基于增强现实技术的智能人机交互系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116795213A true CN116795213A (zh) | 2023-09-22 |
Family
ID=88033908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310739549.1A Pending CN116795213A (zh) | 2023-06-21 | 2023-06-21 | 基于增强现实技术的智能人机交互系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116795213A (zh) |
-
2023
- 2023-06-21 CN CN202310739549.1A patent/CN116795213A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110353806B (zh) | 用于微创全膝关节置换手术的增强现实导航方法及系统 | |
US10881353B2 (en) | Machine-guided imaging techniques | |
CN109512514A (zh) | 一种混合现实骨科微创手术导航系统及使用方法 | |
Richa et al. | Vision-based proximity detection in retinal surgery | |
KR20220112246A (ko) | 증강 현실을 사용하는 의료 절차 | |
CN111867438A (zh) | 手术辅助设备、手术方法、非暂时性计算机可读介质和手术辅助系统 | |
CN109549659A (zh) | 一种自动获得扫描部位定位片的方法和系统 | |
JP2010274044A (ja) | 手術支援装置、手術支援方法及び手術支援プログラム | |
US20200113636A1 (en) | Robotically-assisted surgical device, robotically-assisted surgery method, and system | |
JP6162517B2 (ja) | 体位決定支援装置及び医用画像診断装置 | |
CN109820590B (zh) | 一种骨盆骨折复位智能监控系统 | |
JP6493885B2 (ja) | 画像位置合せ装置、画像位置合せ装置の作動方法および画像位置合せプログラム | |
CN106326856A (zh) | 一种手术图像处理方法及装置 | |
CN114787869A (zh) | 用于在医学成像流程期间监测对象的装置、方法和计算机程序 | |
Berger et al. | Computer-vision-enabled augmented reality fundus biomicroscopy | |
CN111658142A (zh) | 一种基于mr的病灶全息导航方法及系统 | |
CN109350059B (zh) | 用于肘部自动对准的组合的转向引擎和界标引擎 | |
JP6598422B2 (ja) | 医用情報処理装置、システム及びプログラム | |
CN115954096B (zh) | 一种基于图像数据处理的腔镜vr成像系统 | |
CN116823898A (zh) | 一种混合现实增强显示方法及系统 | |
CN115474951B (zh) | 用于控制对象的医学成像检查的方法、医学成像系统和计算机可读数据存储介质 | |
CN116795213A (zh) | 基于增强现实技术的智能人机交互系统及方法 | |
WO2022206434A1 (zh) | 一种用于手术导航的交互配准系统、方法、电子设备和可读存储介质 | |
CN113081013B (zh) | 定位片扫描方法、装置及系统 | |
WO2021020419A1 (ja) | 医療画像処理装置および医療画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |