CN116869652A - 基于超声图像和电子皮肤的手术机器人及其定位方法 - Google Patents
基于超声图像和电子皮肤的手术机器人及其定位方法 Download PDFInfo
- Publication number
- CN116869652A CN116869652A CN202311075600.XA CN202311075600A CN116869652A CN 116869652 A CN116869652 A CN 116869652A CN 202311075600 A CN202311075600 A CN 202311075600A CN 116869652 A CN116869652 A CN 116869652A
- Authority
- CN
- China
- Prior art keywords
- data
- positioning
- image
- generate
- ultrasonic image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000005516 engineering process Methods 0.000 claims abstract description 57
- 238000000605 extraction Methods 0.000 claims abstract description 34
- 238000013507 mapping Methods 0.000 claims abstract description 24
- 238000005457 optimization Methods 0.000 claims abstract description 21
- 238000010276 construction Methods 0.000 claims abstract description 13
- 230000033001 locomotion Effects 0.000 claims description 149
- 238000012545 processing Methods 0.000 claims description 149
- 238000002604 ultrasonography Methods 0.000 claims description 93
- 238000004422 calculation algorithm Methods 0.000 claims description 69
- 230000009466 transformation Effects 0.000 claims description 35
- 238000005192 partition Methods 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 claims description 30
- 238000006243 chemical reaction Methods 0.000 claims description 29
- 230000008569 process Effects 0.000 claims description 29
- 238000007637 random forest analysis Methods 0.000 claims description 21
- 238000004140 cleaning Methods 0.000 claims description 17
- 238000003702 image correction Methods 0.000 claims description 15
- 238000005259 measurement Methods 0.000 claims description 14
- 230000009467 reduction Effects 0.000 claims description 14
- 230000010354 integration Effects 0.000 claims description 13
- 230000002159 abnormal effect Effects 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 8
- 230000001629 suppression Effects 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 5
- 230000003902 lesion Effects 0.000 description 14
- 238000001356 surgical procedure Methods 0.000 description 8
- 238000012937 correction Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 238000003066 decision tree Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 230000036285 pathological change Effects 0.000 description 3
- 231100000915 pathological change Toxicity 0.000 description 3
- 238000011524 similarity measure Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000017531 blood circulation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013486 operation strategy Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000035515 penetration Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000011425 standardization method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000010224 classification analysis Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000004141 dimensional analysis Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0858—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving measuring tissue layers, e.g. skin, interfaces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5207—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5223—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5269—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2063—Acoustic tracking systems, e.g. using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Computational Linguistics (AREA)
- Physiology (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
本发明涉及医疗临床技术领域,尤其涉及一种基于超声图像和电子皮肤的手术机器人及其定位方法。所述方法包括以下步骤:对皮肤采集布局图进行坐标提取,生成标准定位坐标数据;利用电子皮肤技术对标准定位坐标数据进行穿刺区域皮肤标记及坐标优化,生成精准空间坐标数据;利用超声影像采集设备对皮肤采集布局图进行超声图像数据采集,生成超声影像数据;利用三维建模技术对超声影像数据进行三维影像构建,生成三维影像模型;根据精准空间坐标数据对三维影像模型进行三维影像目标定位映射,生成目标位置数据;根据目标位置数据进行导航路径规划及指令编码,生成机器人导航指令数据。通过精准定位皮肤目标位置,使得手术机器人规划出最佳的导航路径。
Description
技术领域
本发明涉及医疗临床技术领域,尤其涉及一种基于超声图像和电子皮肤的手术机器人及其定位方法。
背景技术
随着医疗技术的进步,手术机器人在现代医疗领域中发挥着越来越重要的作用,手术机器人可以提供精确、稳定和精细的操作,大大减少了手术风险并提高了手术效果。然而,传统的手术机器人仍然存在一些限制,手术机器人的视觉感知和精确定位等方面不够精准及安全。
发明内容
基于此,本发明提供一种基于超声图像和电子皮肤的手术机器人及其定位方法,以解决至少一个上述技术问题。
为实现上述目的,一种基于超声图像和电子皮肤的手术机器人的定位方法,包括以下步骤:
步骤S1:获取用户的皮肤采集布局图;根据传感器对皮肤采集布局图进行数据采集处理,生成原始定位图像数据;对原始定位图像数据进行定位点坐标提取及编码转换,生成标准定位坐标数据;
步骤S2:对标准定位坐标数据进行不同时间区间的坐标数据整合处理,生成分区定位坐标数据;对分区定位坐标数据进行坐标数据的频率特征提取处理,生成坐标频率特征数据;
步骤S3:利用随机森林算法对坐标频率特征数据进行定位点运动趋势预测,生成定位运动趋势数据;
步骤S4:利用电子皮肤技术对分区定位坐标数据进行穿刺区域皮肤标记,并利用定位运动趋势数据进行坐标点优化,生成精准空间坐标数据;
步骤S5:利用超声影像采集设备对皮肤采集布局图进行超声图像数据采集,生成超声影像数据;对超声影像数据进行三维影像参数提取处理,生成三维影像参数数据;利用三维建模技术对三维影像参数数据进行三维影像构建,生成三维影像模型;
步骤S6:根据精准空间坐标数据对三维影像模型进行三维影像目标定位映射,生成目标位置数据;根据目标位置数据进行导航路径规划,生成导航路径数据;利用编码器对导航路径数据进行指令编码,生成机器人导航指令数据。
本发明通过采集用户的皮肤布局图和对其进行数据处理,生成标准定位坐标数据,能够提取和转换定位点坐标,实现手术机器人在目标区域的准确定位,精准定位有助于确保手术机器人在手术过程中的精确操作,最小化潜在的误差和风险。利用随机森林算法对坐标频率特征数据进行处理,生成定位运动趋势数据,可以预测手术机器人在操作过程中的运动趋势,有助于提前调整机器人的姿态和动作,使其更加稳定和准确地执行手术任务。利用电子皮肤技术对分区定位坐标数据进行穿刺区域皮肤标记,并结合定位运动趋势数据进行坐标点优化,提高手术机器人在特定区域的穿刺准确性和安全性,同时通过坐标点优化,进一步提升机器人的操作精度和效果。通过超声影像采集设备获取皮肤采集布局图的超声图像数据,并提取三维影像参数,生成三维影像模型,结合精准空间坐标数据,对三维影像模型进行目标定位映射,能够提供更加详细和准确的目标位置数据,为手术机器人在手术区域内的定位和操作提供可靠的依据。根据目标位置数据进行导航路径规划,生成导航路径数据,利用编码器对导航路径数据进行指令编码,生成机器人导航指令数据,可以使手术机器人在复杂的手术环境中高效导航,并根据指令数据进行准确的操作和执行,提高手术的效率和安全性。因此,本发明的手术机器人定位方法通过对目标坐标点进行标记,并且通过电子皮肤技术获得具体的定位点坐标,考虑定位点坐标的运动趋势进行优化,并映射到建立的三维空间中,使得手术机器人的导航路径更加精准及安全。
优选地,步骤S1包括以下步骤:
步骤S11:获取用户的皮肤采集布局图,其中皮肤采集布局图包括定位点标记信息;
步骤S12:根据传感器对皮肤采集布局图进行数据采集处理,生成原始定位图像数据;
步骤S13:对原始定位图像数据进行数据清洗处理,生成清洗定位图像数据;
步骤S14:利用低通滤波对清洗定位图像数据进行数据降噪处理,生成降噪定位图像数据;
步骤S15:根据定位点标记信息对降噪定位图像数据进行定位点坐标提取处理,生成定位坐标数据;
步骤S16:利用编码器对定位坐标图像进行编码转换,生成编码定位坐标数据;
步骤S17:利用最小-最大标准化对编码定位坐标数据进行数据标准化转化,生成标准定位坐标数据。
本发明获取用户的皮肤采集布局图,其中皮肤采集布局图包括定位点标记信息。在手术准备阶段,通过与用户进行交互或事先提供的模板,获得皮肤采集布局图。该布局图标记了手术目标区域的定位点信息,有助于准确定位和操作。通过使用合适的传感器,如光学传感器或深度相机,对皮肤采集布局图进行扫描或拍摄,获得原始图像数据,这些数据记录了手术目标区域的外观和表面特征。应用图像处理算法和滤波技术,对原始定位图像数据进行清洗,以去除不必要的干扰和噪声,提高后续处理的准确性和可靠性。通过应用低通滤波器,可以去除高频噪声和细节,保留图像的主要结构信息,这有助于进一步减少图像中的噪声,并增强手术目标区域的辨识度和稳定性。通过分析布局图中的定位点标记信息,识别和提取出对应于手术目标区域的定位点在降噪定位图像数据中的位置,这些定位点的坐标数据将用于后续的定位和导航过程。采用适当的编码算法,将定位坐标数据转换成编码形式,以便更高效地存储和处理,编码可以压缩数据量,并提高数据传输和处理的速度和效率。通过最小-最大标准化方法,将编码定位坐标数据进行线性变换,使其数值范围映射到指定的标准范围内,这有助于确保不同来源的数据具有一致的尺度和可比性,为后续处理和分析提供一致的基准。
优选地,步骤S2包括以下步骤:
步骤S21:利用离散小波变换技术对标准定位坐标数据进行离散格式数据转换处理,生成离散定位坐标数据;
步骤S22:根据预设的穿刺皮肤时间区间对离散定位坐标数据进行不同时间区间的坐标数据整合处理,生成分区定位坐标数据;
步骤S23:利用傅里叶变换技术对分区定位坐标数据进行频率数据转换处理,生成坐标数据频谱图;
步骤S24:利用统计特征对坐标数据频谱图进行频率特征提取处理,生成坐标频率特征数据。
本发明通过应用离散小波变换,可以将连续的标准定位坐标数据转换为离散的表示形式,离散小波变换能够提取出不同频率范围内的信号特征,从而更好地描述定位坐标数据的局部细节和全局特征。根据手术需求和穿刺操作的时间区间,将离散定位坐标数据按照不同时间段进行分组和整合,这有助于将时间序列信息考虑在内,提供了更准确和动态的定位坐标数据,以适应手术过程中的实时变化。通过应用傅里叶变换,可以将分区定位坐标数据从时域转换到频域,这使得我们能够观察到坐标数据中不同频率的成分和振幅特征,以及它们在时间上的变化情况。通过计算坐标数据频谱图的统计特征,如平均值、方差、峰值等,可以提取出频率特征,这些特征反映了坐标数据中不同频率成分的分布和特性,有助于进一步分析和预测定位点的运动趋势。
优选地,步骤S3包括以下步骤:
步骤S31:利用随机森林算法建立坐标数据频谱图与运动趋势的映射关系,生成初始运动趋势预测模型;
步骤S32:获取运动趋势-坐标频率关联数据;
步骤S33:利用运动趋势-坐标频率关联数据对初始运动趋势预测模型进行模型训练处理,生成运动趋势预测模型;
步骤S34:将坐标频率特征数据传输至运动趋势预测模型中进行定位点运动趋势预测,生成定位运动趋势数据。
本发明随机森林是一种集成学习算法,通过构建多个决策树模型并进行投票或平均,能够有效处理多特征和高维数据,将坐标数据频谱图作为输入特征,运动趋势作为输出标签,建立起二者之间的映射关系,形成初始的运动趋势预测模型。获取运动趋势-坐标频率关联数据,通过采集实际手术操作过程中的运动趋势和对应的坐标频率数据,用于后续的模型训练和验证。利用运动趋势-坐标频率关联数据对初始运动趋势预测模型进行模型训练处理,通过学习关联数据的模式和规律,调整模型的参数和权重,从而得到更准确和可靠的运动趋势预测模型。将坐标频率特征数据传输至运动趋势预测模型中进行定位点运动趋势预测,将坐标频率特征数据输入到训练好的运动趋势预测模型中,进行预测操作,模型将根据输入的频率特征数据预测定位点的运动趋势,生成定位运动趋势数据,为后续的坐标优化和导航路径规划提供重要的参考和指导。
优选地,步骤S4包括以下步骤:
步骤S41:利用电子皮肤技术对分区定位坐标数据进行穿刺区域标记处理,生成空间坐标数据;
步骤S42:利用定位运动趋势数据对空间坐标数据进行坐标点的运动趋势优化处理,生成精准空间坐标数据。
本发明电子皮肤是一种灵活的传感器系统,可以精确地感知和记录触摸、压力和力量等信息,将电子皮肤技术应用于手术机器人的穿刺操作中,根据分区定位坐标数据,对穿刺区域进行标记,通过电子皮肤的反馈信息,机器人可以准确识别穿刺点的位置和深度,从而生成空间坐标数据。通过定位运动趋势数据,对空间坐标数据进行进一步的优化,运动趋势数据提供了关于定位点运动的信息,如皮肤在手术过程中微妙的变化等,结合这些信息,手术机器人可以根据预测的运动趋势对坐标点进行优化,以更准确地确定坐标点在空间中的位置。这有助于提高手术机器人的精确性和稳定性,确保穿刺操作的准确性和安全性。
优选地,步骤S5包括以下步骤:
步骤S51:利用超声影像采集设备对皮肤采集布局图进行超声图像数据采集,生成超声影像数据;
步骤S52:利用超声影像增强算法对超声影像数据进行影像增强处理,生成增强超声影像数据;
步骤S53:根据预设的医疗影像校正模板对增强影像数据进行图像校正处理,生成校正超声影像数据;
步骤S54:对校正超声影像数据进行精准超声影像提取处理,生成精准超声影像数据;
步骤S55:利用刚体变换技术对精准超声影像数据进行三维刚性变换处理,生成三维影像参数数据;
步骤S56:利用三维建模技术对三维影像参数数据进行三维影像构建,生成三维影像模型。
本发明利用专用的超声影像采集设备对皮肤采集布局图进行超声图像数据采集,生成原始的超声影像数据,超声影像数据具有无创、实时和可重复采集等优点,能够提供关于组织结构、血流和病变等信息。应用超声影像增强算法对原始超声影像数据进行处理,生成增强的超声影像数据,通过增强算法的优化调整,可以提高超声影像的对比度、亮度和细节可见度,增强的超声影像数据能够提供更清晰、更具信息量的图像,有助于医生更准确地分析和解读超声影像。根据预设的医疗影像校正模板,对增强超声影像数据进行图像校正处理,图像校正可以消除因设备和姿态差异引起的影像畸变,使得超声影像更符合几何结构和解剖关系,校正后的超声影像数据能够提供更准确的空间位置和尺度信息,有助于医生在操作和诊断过程中更准确地定位和判断。对校正超声影像数据进行精准的超声影像提取处理,提取出感兴趣区域内的关键信息,通过有效的图像分割和特征提取算法,可以将超声影像中的目标区域和结构提取出来,形成精准的超声影像数据,精准超声影像数据有助于医生更好地观察和分析特定的组织结构和病变区域。利用刚体变换技术对精准超声影像数据进行三维刚性变换处理,生成三维影像参数数据,刚体变换能够对超声影像数据进行平移、旋转和缩放等操作,使得超声影像能够在三维空间中准确地定位和呈现,通过三维影像构建,可以生成具有空间几何信息的三维影像模型,为医生提供更全面、更直观的超声影像视角。
优选地,步骤S52中的超声影像增强算法如下所示:
;
式中,表示为增强超声影像数据,表示为超声影像数据的数据量,表示为超声
影像的对比度数据,表示为超声影像的亮度数据,表示为第个超声影像数据,表示为
超声影像的噪声抑制程度生成的权重信息,表示为超声影像的灰度值数据,表示为影像
细节生成的权重信息,表示为控制图像的边缘增强程度的调整值,表示为增强超声影像
数据的异常调整值。
本发明利用一种超声影像增强算法,该算法充分考虑了超声影像数据的数据量
、超声影像的对比度数据、超声影像的亮度数据、第个超声影像数据、超声影像的噪声
抑制程度生成的权重信息、超声影像的灰度值数据、影像细节生成的权重信息、控制图
像的边缘增强程度的调整值以及函数之间的相互作用关系,以形成函数关系式:
即,,通过参数调节和计算公式中的
各项项,超声影像增强算法能够改善图像的对比度、亮度和灰度级,以获得更清晰、更明亮、
更易于观察和解读的超声影像,图像质量的提高有助于减少伪影、噪声和图像模糊,提供更
准确的解剖结构和病变细节信息;通过噪声抑制程度生成的权重信息以及影像细节生成的
权重信息有效提高了超声影像的信噪比和细节可见度,能够更准确地检测和诊断病变,尤
其是微小或低对比度的病变,增强的超声影像提供了更多的信息,使医生能够做出更准确
和可靠的诊断决策;控制图像的边缘增强程度的调整值能够增加图像中边缘结构的对比度
和清晰度,边缘信息可以帮助他们更准确地识别组织结构的边界和轮廓,通过增强边缘,算
法有助于提高手术导航、病变定位和手术规划的准确性和可行性;通过超声影像的对比度
数据、超声影像的亮度数据以及超声影像的灰度值数据提供了更多超声影像数据的详细细
节特征,更好地观察和分析影像结构特征,使得超声影像的细节处增强。利用增强超声影像
数据的异常调整值对函数关系式进行调整修正,减少异常数据或误差项带来的误差影响,
从而更准确地生成增强超声影像数据,提高了对超声影像数据进行影像增强处理的准确
性和可靠性。同时该公式中的权重信息以及调整值可以根据实际情况进行调整,应用于不
同的超声影像数据中,提高了算法的灵活性与适用性。
优选地,步骤S54包括以下步骤:
步骤S541:对校正超声影像数据进行数据对齐处理,生成超声影像对齐数据;
步骤S542:利用超声影像相似度计算公式对超声影像对齐数据进行相似度度量计算,生成超声影像相似度数据;
其中,超声影像相似度计算公式如下所示:
;
式中,表示为超声影像相似度数据,表示为超声影像对齐数据的数据大小,表
示为超声影像对齐数据,表示为超声影像对齐数据的图像点数,表示为根据超声影像对
齐数据生成的平均影像模板数据,表示为第个像素点的特征尺度差异生成的权重信息,表示为第个像素点的特征形状差异生成的权重信息,表示为第个像素点的纹理特
征数据,表示为超声影像相似度得分数据,表示为根据超声影像对齐数据与平均影像模
板数据生成的结构特征差值,表示为超声影像相似度数据的异常调整值。
步骤S543:利用预设的超声影像相似度阈值对超声影像相似度数据进行超声影像相似度判断处理,当超声影像相似度数据小于超声影像相似度阈值时,将超声影像相似度数据对应的超声影像对齐数据剔除,当超声影像相似度数据不小于超声影像相似度阈值时,将超声影像相似度数据对应的超声影像对齐数据进行数据标记,以生成精准超声影像数据。
本发明在校正超声影像数据的基础上,进行数据对齐处理,以确保超声影像之间的一致性和准确性,数据对齐是将不同的超声影像数据进行配准,使其在空间上保持一致,通过对超声影像数据进行平移、旋转、缩放等变换操作,可以将它们对齐到相同的坐标系中,这有助于消除由于姿态差异、扫描角度等因素引起的图像畸变和不准确性。利用超声影像相似度计算公式对经过数据对齐处理的超声影像数据进行相似度度量计算,相似度度量是衡量图像之间的相似程度的指标,通过计算超声影像数据之间的相似度,可以评估它们的结构、纹理和特征的相似性,相似度度量计算为后续的超声影像相似度判断和数据筛选提供了依据。利用预设的超声影像相似度阈值对相似度数据进行判断处理,当超声影像相似度数据小于超声影像相似度阈值时,说明两幅图像之间的相似度较低,可能存在配准不准确或数据噪声的情况,因此将相应的超声影像对齐数据剔除,而当超声影像相似度数据不小于超声影像相似度阈值时,说明两幅图像之间的相似度较高,配准准确性较高,因此将相应的超声影像对齐数据进行标记,以生成精准的超声影像数据。
本发明利用一种超声影像相似度计算公式,该公式充分考虑了超声影像对齐数据
的数据大小、超声影像对齐数据、超声影像对齐数据的图像点数、根据超声影像对齐数
据生成的平均影像模板数据、第个像素点的特征尺度差异生成的权重信息、第个像
素点的特征形状差异生成的权重信息、第个像素点的纹理特征数据、超声影像相似
度得分数据、根据超声影像对齐数据与平均影像模板数据生成的结构特征差值以及函
数之间的相互作用关系,以形成函数关系式:
即,,超声影像对齐数据
与根据超声影像对齐数据生成的平均影像模板数据的差值,可以得到该超声影像对齐数据
的初步相识度数据,并通过其他参数进行打分,以此使得结果更为准确;第个像素点的特
征尺度差异生成的权重信息与特征形状差异生成的权重信息表示对相似度的共享程度,可
以根据具体情况突出或抑制不同特征的影响,提高相似度计算的准确性和敏感性,使得算
法能够更好地适应不同类型和特点的超声影像数据;第个像素点的纹理特征数据描述超
声影像中的纹理特点,对纹理特征的考虑,可以更好地反映和比较超声影像中的纹理信息,
这对于区分不同组织或病变的纹理特征非常重要,纹理特征的加入能够提高相似度计算的
准确性和区分能力;超声影像相似度得分数据可以将相似度转化为一个具体的得分,提供
了对相似度的度量和比较基准,这有助于对超声影像进行排序和筛选,从而选取出相似度
较高的影像数据;根据超声影像对齐数据与平均影像模板数据生成的结构特征差值可以更
准确地评估影像之间的结构相似度,这有助于对超声影像的解读和分析,尤其是对于病变
的定位和评估提供重要的参考。该公式综合考虑了特征尺度差异、特征形状差异和纹理特
征等多个方面的相似度度量,通过将这些特征的相似度进行加权和累积,可以综合评估超
声影像之间的相似程度,这有助于更全面地捕捉和比较超声影像之间的特征相似性,提供
更准确的相似度评估。利用超声影像相似度数据的异常调整值对函数关系式进行调整修
正,减少异常数据或误差项带来的误差影响,从而更准确地生成超声影像相似度数据,提
高了对超声影像对齐数据进行相似度度量计算的准确性和可靠性。同时该公式中的权重信
息以及调整值可以根据实际情况进行调整,应用于不同的超声影像对齐数据中,提高了算
法的灵活性与适用性。
优选地,步骤S6包括以下步骤:
步骤S61:根据精准空间坐标数据对三维影像模型进行三维影像目标定位映射,生成目标位置数据;
步骤S62:利用路径规划算法对目标位置数据进行最优路径规划处理,生成初步导航路径数据;
步骤S63:根据预设的非穿刺区域对初步导航路径数据进行路径调整处理,生成导航路径数据;
步骤S64:利用编码器对导航路径数据进行指令编码,生成机器人导航指令数据。
本发明利用精准空间坐标数据,将目标位置映射到三维影像模型上,通过将精确的空间坐标与三维模型进行匹配,可以确定目标在三维影像模型中的准确位置,这有助于精确定位手术目标,为后续的路径规划和导航提供准确的目标位置信息。根据目标位置数据和手术机器人的运动能力,采用路径规划算法来确定最优的导航路径,路径规划算法考虑了机器人的运动限制、环境障碍物和目标位置之间的关系,以生成可行且最优的路径,这有助于提高机器人的导航效率和路径的准确性,确保机器人能够高效地达到目标位置。根据预设的非穿刺区域对初步导航路径数据进行路径调整处理,生成导航路径数据,在手术过程中,可能存在一些非穿刺区域,例如敏感器官或重要组织结构,根据预设的非穿刺区域,对初步导航路径进行调整,以避开这些区域,路径调整算法会重新计算导航路径,确保机器人绕过非穿刺区域,同时仍能有效地到达目标位置,这有助于提高手术安全性和成功率,保护敏感组织结构的完整性。将经过路径规划和调整后的导航路径数据进行编码,以生成机器人的导航指令,编码器将路径数据转化为机器人可以理解和执行的指令格式,这有助于机器人准确地遵循预定的导航路径,实现精确的导航和定位,通过编码器生成的导航指令,机器人能够在手术过程中按照预定路径自主导航,实现准确的目标定位和移动。
在本说明书中,提供了一种基于超声图像和电子皮肤的手术机器人,包括底座、驱动件、控制器与机械手臂,控制器及驱动件均安装于底座内,机械手臂转动地安装于底座上,控制器与驱动件电性连接,驱动件与机械手臂传动连接,控制器内安装有存储器,存储器内存储有:
数据采集模块:用于获取用户的皮肤采集布局图;根据传感器对皮肤采集布局图进行数据采集处理,生成原始定位图像数据;对原始定位图像数据进行定位点坐标提取及编码转换,生成标准定位坐标数据;
坐标频率转换模块:用于对标准定位坐标数据进行不同时间区间的坐标数据整合处理,生成分区定位坐标数据;对分区定位坐标数据进行坐标数据的频率特征提取处理,生成坐标频率特征数据;
定位点运动趋势预测模块:利用随机森林算法对坐标频率特征数据进行定位点运动趋势预测,生成定位运动趋势数据;
空间坐标点构建模块:利用电子皮肤技术对分区定位坐标数据进行穿刺区域皮肤标记,并利用定位运动趋势数据进行坐标点优化,生成精准空间坐标数据;
三维影像模型构建模块:利用超声影像采集设备对皮肤采集布局图进行超声图像数据采集,生成超声影像数据;对超声影像数据进行三维影像参数提取处理,生成三维影像参数数据;利用三维建模技术对三维影像参数数据进行三维影像构建,生成三维影像模型;
机器人导航指令模块:根据精准空间坐标数据对三维影像模型进行三维影像目标定位映射,生成目标位置数据;根据目标位置数据进行导航路径规划,生成导航路径数据;利用编码器对导航路径数据进行指令编码,生成机器人导航指令数据。
本申请有益效果在于,本发明采用电子皮肤技术获取皮肤采集布局图,并对其进行数据处理和清洗,生成高精度的定位坐标数据。这种定位方法能够提供手术机器人准确的位置信息,实现精确的手术操作,精准的定位能力对于复杂手术过程至关重要,可以帮助医生准确定位手术目标并进行精细操作。通过对定位坐标数据进行频率特征提取和运动趋势建模,可以实现对手术目标的运动趋势预测,这种实时预测能力使得手术机器人能够根据目标的运动趋势进行适时的调整和响应,确保手术操作的准确性和稳定性,医生可以在操作过程中更好地预测目标的运动轨迹,提高手术的成功率和安全性。采用超声影像增强算法和校正模板对超声影像数据进行处理,能够提高影像的清晰度和准确性,增强后的超声影像能够更清楚地观察手术目标和周围组织的结构,辅助手术决策和操作,校正处理可以纠正超声影像中可能存在的畸变,提供更真实、可靠的影像信息,以此做出准确的诊断和手术规划。通过对精准空间坐标数据和超声影像数据的处理,能够进行三维刚性变换和建模,生成高精度的三维影像模型,这种三维影像重建提供了医生全面的手术目标信息,包括目标的形状、位置和周围结构,有助于手术规划和导航,可以在三维影像模型中进行虚拟操作和路径规划,提前评估手术风险并制定最佳的手术策略。基于精准的定位和三维影像模型,手术机器人能够实现智能导航和路径规划,结合预设的非穿刺区域和安全要求,机器人能够生成最优的导航路径和指令,确保手术操作的高效性和安全性,通过路径调整处理和指令编码,机器人可以灵活地适应手术环境和需求,实现精确的操作路径和姿态控制。
附图说明
图1为本发明一种基于超声图像和电子皮肤的手术机器人的定位方法的步骤流程示意图;
图2为图1中步骤S2的详细实施步骤流程示意图;
图3为图1中步骤S3的详细实施步骤流程示意图;
图4为图1中步骤S5的详细实施步骤流程示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面结合附图对本发明专利的技术方法进行清楚、完整的描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域所属的技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
此外,附图仅为本发明的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器方法和/或微控制器方法中实现这些功能实体。
应当理解的是,虽然在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制。使用这些术语仅仅是为了将一个单元与另一个单元进行区分。举例来说,在不背离示例性实施例的范围的情况下,第一单元可以被称为第二单元,并且类似地第二单元可以被称为第一单元。这里所使用的术语“和/或”包括其中一个或更多所列出的相关联项目的任意和所有组合。
为实现上述目的,请参阅图1至图4,本发明提供一种基于超声图像和电子皮肤的手术机器人的定位方法,包括以下步骤:
步骤S1:获取用户的皮肤采集布局图;根据传感器对皮肤采集布局图进行数据采集处理,生成原始定位图像数据;对原始定位图像数据进行定位点坐标提取及编码转换,生成标准定位坐标数据;
步骤S2:对标准定位坐标数据进行不同时间区间的坐标数据整合处理,生成分区定位坐标数据;对分区定位坐标数据进行坐标数据的频率特征提取处理,生成坐标频率特征数据;
步骤S3:利用随机森林算法对坐标频率特征数据进行定位点运动趋势预测,生成定位运动趋势数据;
步骤S4:利用电子皮肤技术对分区定位坐标数据进行穿刺区域皮肤标记,并利用定位运动趋势数据进行坐标点优化,生成精准空间坐标数据;
步骤S5:利用超声影像采集设备对皮肤采集布局图进行超声图像数据采集,生成超声影像数据;对超声影像数据进行三维影像参数提取处理,生成三维影像参数数据;利用三维建模技术对三维影像参数数据进行三维影像构建,生成三维影像模型;
步骤S6:根据精准空间坐标数据对三维影像模型进行三维影像目标定位映射,生成目标位置数据;根据目标位置数据进行导航路径规划,生成导航路径数据;利用编码器对导航路径数据进行指令编码,生成机器人导航指令数据。
本发明通过采集用户的皮肤布局图和对其进行数据处理,生成标准定位坐标数据,能够提取和转换定位点坐标,实现手术机器人在目标区域的准确定位,精准定位有助于确保手术机器人在手术过程中的精确操作,最小化潜在的误差和风险。利用随机森林算法对坐标频率特征数据进行处理,生成定位运动趋势数据,可以预测手术机器人在操作过程中的运动趋势,有助于提前调整机器人的姿态和动作,使其更加稳定和准确地执行手术任务。利用电子皮肤技术对分区定位坐标数据进行穿刺区域皮肤标记,并结合定位运动趋势数据进行坐标点优化,提高手术机器人在特定区域的穿刺准确性和安全性,同时通过坐标点优化,进一步提升机器人的操作精度和效果。通过超声影像采集设备获取皮肤采集布局图的超声图像数据,并提取三维影像参数,生成三维影像模型,结合精准空间坐标数据,对三维影像模型进行目标定位映射,能够提供更加详细和准确的目标位置数据,为手术机器人在手术区域内的定位和操作提供可靠的依据。根据目标位置数据进行导航路径规划,生成导航路径数据,利用编码器对导航路径数据进行指令编码,生成机器人导航指令数据,可以使手术机器人在复杂的手术环境中高效导航,并根据指令数据进行准确的操作和执行,提高手术的效率和安全性。因此,本发明的手术机器人定位方法通过对目标坐标点进行标记,并且通过电子皮肤技术获得具体的定位点坐标,考虑定位点坐标的运动趋势进行优化,并映射到建立的三维空间中,使得手术机器人的导航路径更加精准及安全。
本发明实施例中,参考图1所述,为本发明一种于超声图像和电子皮肤的手术机器人及定位方法的步骤流程示意图,在本实施例中,所述于超声图像和电子皮肤的手术机器人及定位方法包括以下步骤:
步骤S1:获取用户的皮肤采集布局图;根据传感器对皮肤采集布局图进行数据采集处理,生成原始定位图像数据;对原始定位图像数据进行定位点坐标提取及编码转换,生成标准定位坐标数据;
本发明实施例中,预先规划需要采集用户皮肤的部分,以此获取用户的皮肤采集布局图,通过在机器人手臂上安装多个传感器,如摄像头阵列或深度摄像头来实现,传感器将捕捉到皮肤表面的图像或深度信息,以进行数据采集处理以生成原始定位图像数据,这包括对每个传感器采集的图像或深度信息进行预处理和校正,以确保图像的质量和准确性。从原始定位图像数据中提取定位点的坐标并进行编码转换,以生成标准定位坐标数据,通过摄像头和图像处理算法,可以识别皮肤上的标记点,并将其转化为向量形式的标准坐标数据。
步骤S2:对标准定位坐标数据进行不同时间区间的坐标数据整合处理,生成分区定位坐标数据;对分区定位坐标数据进行坐标数据的频率特征提取处理,生成坐标频率特征数据;
本发明实施例中,机器人对标准定位坐标数据进行不同时间区间的坐标数据整合处理,生成分区定位坐标数据,这可以通过对连续多个时间点的定位坐标数据进行处理和整合来实现。对分区定位坐标数据进行坐标数据的频率特征提取处理,生成坐标频率特征数据,这可以通过对坐标数据进行傅里叶变换生成坐标数据的频谱图,通过坐标的变化频率和趋势来提取频率特征。
步骤S3:利用随机森林算法对坐标频率特征数据进行定位点运动趋势预测,生成定位运动趋势数据;
本发明实施例中,利用随机森林算法对坐标频率特征数据进行定位点运动趋势预测,生成定位运动趋势数据,随机森林是一种机器学习算法,可以根据输入的特征数据预测目标值,利用历史的坐标频率特征数据作为输入,训练随机森林模型,然后使用该模型对未来的坐标数据进行预测,生成定位运动趋势数据。
步骤S4:利用电子皮肤技术对分区定位坐标数据进行穿刺区域皮肤标记,并利用定位运动趋势数据进行坐标点优化,生成精准空间坐标数据;
本发明实施例中,利用电子皮肤技术对分区定位坐标数据进行穿刺区域皮肤标记,根据定位运动趋势数据,对坐标点进行优化,生成精准空间坐标数据,电子皮肤技术可以感知皮肤的触摸和压力等信息,因此可以帮助机器人准确标记穿刺区域,并根据运动趋势数据优化坐标点的位置和轨迹。
步骤S5:利用超声影像采集设备对皮肤采集布局图进行超声图像数据采集,生成超声影像数据;对超声影像数据进行三维影像参数提取处理,生成三维影像参数数据;利用三维建模技术对三维影像参数数据进行三维影像构建,生成三维影像模型;
本发明实施例中,利用超声影像采集设备对皮肤采集布局图进行超声图像数据采集,这可以通过超声探头将超声波发送到皮肤内部,然后接收和处理返回的超声波信号来实现,通过超声图像数据,可以观察和分析皮肤内部的组织结构和病变情况。随后,对超声影像数据进行三维影像参数提取处理,生成三维影像参数数据,这包括从超声图像中提取组织结构的形状、大小和位置等参数。
步骤S6:根据精准空间坐标数据对三维影像模型进行三维影像目标定位映射,生成目标位置数据;根据目标位置数据进行导航路径规划,生成导航路径数据;利用编码器对导航路径数据进行指令编码,生成机器人导航指令数据。
本发明实施例中,根据精准空间坐标数据对三维影像模型进行三维影像目标定位映射,生成目标位置数据,根据目标位置数据进行导航路径规划,生成导航路径数据,路径规划算法可以根据手术目标和环境条件,在三维影像模型中确定最优路径以达到目标位置,利用编码器对导航路径数据进行指令编码,生成机器人导航指令数据,这些指令包含了机器人在手术过程中的导航和操作指导。
优选地,步骤S1包括以下步骤:
步骤S11:获取用户的皮肤采集布局图,其中皮肤采集布局图包括定位点标记信息;
步骤S12:根据传感器对皮肤采集布局图进行数据采集处理,生成原始定位图像数据;
步骤S13:对原始定位图像数据进行数据清洗处理,生成清洗定位图像数据;
步骤S14:利用低通滤波对清洗定位图像数据进行数据降噪处理,生成降噪定位图像数据;
步骤S15:根据定位点标记信息对降噪定位图像数据进行定位点坐标提取处理,生成定位坐标数据;
步骤S16:利用编码器对定位坐标图像进行编码转换,生成编码定位坐标数据;
步骤S17:利用最小-最大标准化对编码定位坐标数据进行数据标准化转化,生成标准定位坐标数据。
本发明获取用户的皮肤采集布局图,其中皮肤采集布局图包括定位点标记信息。在手术准备阶段,通过与用户进行交互或事先提供的模板,获得皮肤采集布局图。该布局图标记了手术目标区域的定位点信息,有助于准确定位和操作。通过使用合适的传感器,如光学传感器或深度相机,对皮肤采集布局图进行扫描或拍摄,获得原始图像数据,这些数据记录了手术目标区域的外观和表面特征。应用图像处理算法和滤波技术,对原始定位图像数据进行清洗,以去除不必要的干扰和噪声,提高后续处理的准确性和可靠性。通过应用低通滤波器,可以去除高频噪声和细节,保留图像的主要结构信息,这有助于进一步减少图像中的噪声,并增强手术目标区域的辨识度和稳定性。通过分析布局图中的定位点标记信息,识别和提取出对应于手术目标区域的定位点在降噪定位图像数据中的位置,这些定位点的坐标数据将用于后续的定位和导航过程。采用适当的编码算法,将定位坐标数据转换成编码形式,以便更高效地存储和处理,编码可以压缩数据量,并提高数据传输和处理的速度和效率。通过最小-最大标准化方法,将编码定位坐标数据进行线性变换,使其数值范围映射到指定的标准范围内,这有助于确保不同来源的数据具有一致的尺度和可比性,为后续处理和分析提供一致的基准。
本发明实施例中,获取用户的皮肤采集布局图,该布局图包含了定位点的标记信息,这些标记信息可以是特定形状或颜色的标记点,在皮肤上被放置以辅助机器人进行定位操作。利用传感器对皮肤采集布局图进行数据采集处理,生成原始定位图像数据,传感器可以是摄像头或其他图像采集设备,用于获取皮肤表面的图像数据。对原始定位图像数据进行数据清洗处理,以去除噪声和不必要的信息,生成清洗定位图像数据,清洗过程可以包括图像滤波、边缘检测等图像处理技术。利用低通滤波对清洗定位图像数据进行降噪处理,以消除高频噪声成分,生成降噪定位图像数据,低通滤波可以平滑图像,使得定位点更清晰可辨。根据定位点标记信息对降噪定位图像数据进行定位点坐标提取处理,提取出每个定位点的坐标数据,生成定位坐标数据,例如可以使用图像处理算法检测和识别定位点的位置。利用编码器对定位坐标图像进行编码转换,将定位坐标数据转换为数字编码,生成编码定位坐标数据,编码过程可以将定位坐标映射为特定的编码规则,以便后续处理和分析。利用最小-最大标准化对编码定位坐标数据进行数据标准化转换,将坐标数据按照统一的标准范围进行缩放,生成标准定位坐标数据,最小-最大标准化可将坐标数据映射到[0, 1]的范围内,以便后续的定位和导航计算。
优选地,步骤S2包括以下步骤:
步骤S21:利用离散小波变换技术对标准定位坐标数据进行离散格式数据转换处理,生成离散定位坐标数据;
步骤S22:根据预设的穿刺皮肤时间区间对离散定位坐标数据进行不同时间区间的坐标数据整合处理,生成分区定位坐标数据;
步骤S23:利用傅里叶变换技术对分区定位坐标数据进行频率数据转换处理,生成坐标数据频谱图;
步骤S24:利用统计特征对坐标数据频谱图进行频率特征提取处理,生成坐标频率特征数据。
本发明通过应用离散小波变换,可以将连续的标准定位坐标数据转换为离散的表示形式,离散小波变换能够提取出不同频率范围内的信号特征,从而更好地描述定位坐标数据的局部细节和全局特征。根据手术需求和穿刺操作的时间区间,将离散定位坐标数据按照不同时间段进行分组和整合,这有助于将时间序列信息考虑在内,提供了更准确和动态的定位坐标数据,以适应手术过程中的实时变化。通过应用傅里叶变换,可以将分区定位坐标数据从时域转换到频域,这使得我们能够观察到坐标数据中不同频率的成分和振幅特征,以及它们在时间上的变化情况。通过计算坐标数据频谱图的统计特征,如平均值、方差、峰值等,可以提取出频率特征,这些特征反映了坐标数据中不同频率成分的分布和特性,有助于进一步分析和预测定位点的运动趋势。
作为本发明的一个实例,参考图2所示,为图1中步骤S2的详细实施步骤流程示意图,在本实例中所述步骤S2包括:
步骤S21:利用离散小波变换技术对标准定位坐标数据进行离散格式数据转换处理,生成离散定位坐标数据;
本发明实施例中,利用离散小波变换技术对标准定位坐标数据进行离散格式数据转换处理,将标准定位坐标数据进行离散化处理,以便后续的频域分析和处理,离散小波变换是一种数学变换方法,通过将连续信号转换为离散信号来分析信号的频域特征。
步骤S22:根据预设的穿刺皮肤时间区间对离散定位坐标数据进行不同时间区间的坐标数据整合处理,生成分区定位坐标数据;
本发明实施例中,根据预设的穿刺皮肤时间区间对离散定位坐标数据进行不同时间区间的坐标数据整合处理,将离散定位坐标数据根据不同时间段进行分割,并将每个时间段内的坐标数据整合在一起,形成分区定位坐标数据,以此捕捉到不同时间段内的定位变化趋势,以提供更具体的定位信息。
步骤S23:利用傅里叶变换技术对分区定位坐标数据进行频率数据转换处理,生成坐标数据频谱图;
本发明实施例中,利用傅里叶变换技术对分区定位坐标数据进行频率数据转换处理,生成坐标数据频谱图,傅里叶变换是一种信号处理技术,可以将信号从时域转换到频域,将分区定位坐标数据应用傅里叶变换,将其表示为频域上的频谱信息,通过频率数据转换,可以分析定位坐标数据在不同频率上的能量分布和特征。
步骤S24:利用统计特征对坐标数据频谱图进行频率特征提取处理,生成坐标频率特征数据。
本发明实施例中,利用统计特征对坐标数据频谱图进行统计特征提取,统计特征是描述数据集合性质的数学量,如均值、方差、最大值、最小值等,计算出频率特征指标,如均值、标准差、能量等,以此生成坐标频率特征数据,这些频率特征数据提供了定位坐标数据在频域上的重要信息,有助于后续的运动趋势预测和优化处理。
优选地,步骤S3包括以下步骤:
步骤S31:利用随机森林算法建立坐标数据频谱图与运动趋势的映射关系,生成初始运动趋势预测模型;
步骤S32:获取运动趋势-坐标频率关联数据;
步骤S33:利用运动趋势-坐标频率关联数据对初始运动趋势预测模型进行模型训练处理,生成运动趋势预测模型;
步骤S34:将坐标频率特征数据传输至运动趋势预测模型中进行定位点运动趋势预测,生成定位运动趋势数据。
本发明随机森林是一种集成学习算法,通过构建多个决策树模型并进行投票或平均,能够有效处理多特征和高维数据,将坐标数据频谱图作为输入特征,运动趋势作为输出标签,建立起二者之间的映射关系,形成初始的运动趋势预测模型。获取运动趋势-坐标频率关联数据,通过采集实际手术操作过程中的运动趋势和对应的坐标频率数据,用于后续的模型训练和验证。利用运动趋势-坐标频率关联数据对初始运动趋势预测模型进行模型训练处理,通过学习关联数据的模式和规律,调整模型的参数和权重,从而得到更准确和可靠的运动趋势预测模型。将坐标频率特征数据传输至运动趋势预测模型中进行定位点运动趋势预测,将坐标频率特征数据输入到训练好的运动趋势预测模型中,进行预测操作,模型将根据输入的频率特征数据预测定位点的运动趋势,生成定位运动趋势数据,为后续的坐标优化和导航路径规划提供重要的参考和指导。
作为本发明的一个实例,参考图3所示,为图1中步骤S3的详细实施步骤流程示意图,在本实例中所述步骤S3包括:
步骤S31:利用随机森林算法建立坐标数据频谱图与运动趋势的映射关系,生成初始运动趋势预测模型;
本发明实施例中,利用随机森林算法建立坐标数据频谱图与运动趋势的映射关系,生成初始运动趋势预测模型,随机森林是一种集成学习方法,通过构建多个决策树并综合它们的预测结果来进行分类或回归分析,利用随机森林算法建立坐标数据频谱图与运动趋势之间的关联关系,训练出一个初始的运动趋势预测模型。
步骤S32:获取运动趋势-坐标频率关联数据;
本发明实施例中,获取运动趋势-坐标频率关联数据,这些数据是事先收集或经过实验获取的运动趋势与坐标频率之间的关联关系数据,它们可以包含不同运动趋势下的坐标频率数据样本,用于训练和评估运动趋势预测模型。
步骤S33:利用运动趋势-坐标频率关联数据对初始运动趋势预测模型进行模型训练处理,生成运动趋势预测模型;
本发明实施例中,利用运动趋势-坐标频率关联数据对初始运动趋势预测模型进行模型训练处理,生成运动趋势预测模型,通过将运动趋势-坐标频率关联数据输入到初始模型中,并进行模型训练和参数调整,生成一个经过优化的运动趋势预测模型,这个模型可以更准确地根据坐标频率特征数据预测定位点的运动趋势。
步骤S34:将坐标频率特征数据传输至运动趋势预测模型中进行定位点运动趋势预测,生成定位运动趋势数据。
本发明实施例中,将坐标频率特征数据传输至运动趋势预测模型中进行定位点运动趋势预测,生成定位运动趋势数据,将从超声图像和电子皮肤采集的坐标频率特征数据输入到已训练好的运动趋势预测模型中,模型将根据这些特征数据预测定位点的运动趋势,生成的定位运动趋势数据可以用于后续的坐标点优化和精准空间坐标数据生成。
优选地,步骤S4包括以下步骤:
步骤S41:利用电子皮肤技术对分区定位坐标数据进行穿刺区域标记处理,生成空间坐标数据;
步骤S42:利用定位运动趋势数据对空间坐标数据进行坐标点的运动趋势优化处理,生成精准空间坐标数据。
本发明电子皮肤是一种灵活的传感器系统,可以精确地感知和记录触摸、压力和力量等信息,将电子皮肤技术应用于手术机器人的穿刺操作中,根据分区定位坐标数据,对穿刺区域进行标记,通过电子皮肤的反馈信息,机器人可以准确识别穿刺点的位置和深度,从而生成空间坐标数据。通过定位运动趋势数据,对空间坐标数据进行进一步的优化,运动趋势数据提供了关于定位点运动的信息,如皮肤在手术过程中微妙的变化等,结合这些信息,手术机器人可以根据预测的运动趋势对坐标点进行优化,以更准确地确定坐标点在空间中的位置。这有助于提高手术机器人的精确性和稳定性,确保穿刺操作的准确性和安全性。
本发明实施例中,电子皮肤是一种灵敏的传感技术,可以检测和记录与机器人接触的力、压力和形状等信息,利用电子皮肤技术获取分区定位坐标数据,并通过对这些数据进行穿刺区域标记处理,确定在皮肤上需要进行穿刺的区域,生成了包含空间坐标信息的数据,为后续的精准定位提供了基础。通过定位运动趋势数据,可以对空间坐标数据进行进一步的优化,这里的优化是指根据运动趋势信息,对坐标点进行调整和修正,以提高定位的精准度和准确性,通过运动趋势优化处理,得到了更精准的空间坐标数据,可以用于后续的三维影像目标定位映射和导航路径规划。
优选地,步骤S5包括以下步骤:
步骤S51:利用超声影像采集设备对皮肤采集布局图进行超声图像数据采集,生成超声影像数据;
步骤S52:利用超声影像增强算法对超声影像数据进行影像增强处理,生成增强超声影像数据;
步骤S53:根据预设的医疗影像校正模板对增强影像数据进行图像校正处理,生成校正超声影像数据;
步骤S54:对校正超声影像数据进行精准超声影像提取处理,生成精准超声影像数据;
步骤S55:利用刚体变换技术对精准超声影像数据进行三维刚性变换处理,生成三维影像参数数据;
步骤S56:利用三维建模技术对三维影像参数数据进行三维影像构建,生成三维影像模型。
本发明利用专用的超声影像采集设备对皮肤采集布局图进行超声图像数据采集,生成原始的超声影像数据,超声影像数据具有无创、实时和可重复采集等优点,能够提供关于组织结构、血流和病变等信息。应用超声影像增强算法对原始超声影像数据进行处理,生成增强的超声影像数据,通过增强算法的优化调整,可以提高超声影像的对比度、亮度和细节可见度,增强的超声影像数据能够提供更清晰、更具信息量的图像,有助于医生更准确地分析和解读超声影像。根据预设的医疗影像校正模板,对增强超声影像数据进行图像校正处理,图像校正可以消除因设备和姿态差异引起的影像畸变,使得超声影像更符合几何结构和解剖关系,校正后的超声影像数据能够提供更准确的空间位置和尺度信息,有助于医生在操作和诊断过程中更准确地定位和判断。对校正超声影像数据进行精准的超声影像提取处理,提取出感兴趣区域内的关键信息,通过有效的图像分割和特征提取算法,可以将超声影像中的目标区域和结构提取出来,形成精准的超声影像数据,精准超声影像数据有助于医生更好地观察和分析特定的组织结构和病变区域。利用刚体变换技术对精准超声影像数据进行三维刚性变换处理,生成三维影像参数数据,刚体变换能够对超声影像数据进行平移、旋转和缩放等操作,使得超声影像能够在三维空间中准确地定位和呈现,通过三维影像构建,可以生成具有空间几何信息的三维影像模型,为医生提供更全面、更直观的超声影像视角。
作为本发明的一个实例,参考图4所示,为图1中步骤S5的详细实施步骤流程示意图,在本实例中所述步骤S5包括:
步骤S51:利用超声影像采集设备对皮肤采集布局图进行超声图像数据采集,生成超声影像数据;
本发明实施例中,超声影像采集设备利用超声波技术对皮肤进行扫描,获取包含组织结构和特征的超声图像数据,这些超声图像数据提供了对皮肤和相关组织的内部结构的可视化。
步骤S52:利用超声影像增强算法对超声影像数据进行影像增强处理,生成增强超声影像数据;
本发明实施例中,超声影像增强算法可以增强超声图像的对比度、清晰度和细节,以改善图像的可视化效果和信息内容,通过应用这些算法,超声影像数据被优化和增强,以提供更准确和可靠的信息。
步骤S53:根据预设的医疗影像校正模板对增强影像数据进行图像校正处理,生成校正超声影像数据;
本发明实施例中,医疗影像校正模板是一组预先定义的校正参数和模板,用于纠正超声图像中的畸变和失真,利用历史的医疗影像数据定义该模板,例如超声图像的摆放位置等信息,通过应用校正模板,增强影像数据被调整和校正,以消除任何形变和变形,获得准确的图像表现。
步骤S54:对校正超声影像数据进行精准超声影像提取处理,生成精准超声影像数据;
本发明实施例中,对校正超声影像数据进行进一步的筛选,提取出更加精确的超声影像数据,以此生成精准超声影像数据。
步骤S55:利用刚体变换技术对精准超声影像数据进行三维刚性变换处理,生成三维影像参数数据;
本发明实施例中,刚体变换是一种数学变换,用于对图像或对象进行平移、旋转和缩放等刚性变换操作,通过应用刚体变换技术,精准超声影像数据被转换为适合进行后续三维分析和处理的形式,生成包含位置、姿态和尺寸等参数的三维影像参数数据。
步骤S56:利用三维建模技术对三维影像参数数据进行三维影像构建,生成三维影像模型。
本发明实施例中,三维建模技术将三维影像参数数据转化为具有空间结构的三维模型,以提供更直观和可视化的表示,其中包括:Polygon多边形建模、NURBS曲面建模、Parametric参数化建模、Reverse逆向建模等,通过应用三维建模技术,三维影像参数数据被转化为包含解剖结构和组织形态的三维影像模型,为手术机器人的目标定位和导航提供了更丰富和详细的信息。
优选地,步骤S52中的超声影像增强算法如下所示:
;
式中,表示为增强超声影像数据,表示为超声影像数据的数据量,表示为超声
影像的对比度数据,表示为超声影像的亮度数据,表示为第个超声影像数据,表示为
超声影像的噪声抑制程度生成的权重信息,表示为超声影像的灰度值数据,表示为影像
细节生成的权重信息,表示为控制图像的边缘增强程度的调整值,表示为增强超声影像
数据的异常调整值。
本发明利用一种超声影像增强算法,该算法充分考虑了超声影像数据的数据量
、超声影像的对比度数据、超声影像的亮度数据、第个超声影像数据、超声影像的噪声
抑制程度生成的权重信息、超声影像的灰度值数据、影像细节生成的权重信息、控制图
像的边缘增强程度的调整值以及函数之间的相互作用关系,以形成函数关系式:
即,,通过参数调节和计算公式中的
各项项,超声影像增强算法能够改善图像的对比度、亮度和灰度级,以获得更清晰、更明亮、
更易于观察和解读的超声影像,图像质量的提高有助于减少伪影、噪声和图像模糊,提供更
准确的解剖结构和病变细节信息;通过噪声抑制程度生成的权重信息以及影像细节生成的
权重信息有效提高了超声影像的信噪比和细节可见度,能够更准确地检测和诊断病变,尤
其是微小或低对比度的病变,增强的超声影像提供了更多的信息,使医生能够做出更准确
和可靠的诊断决策;控制图像的边缘增强程度的调整值能够增加图像中边缘结构的对比度
和清晰度,边缘信息可以帮助他们更准确地识别组织结构的边界和轮廓,通过增强边缘,算
法有助于提高手术导航、病变定位和手术规划的准确性和可行性;通过超声影像的对比度
数据、超声影像的亮度数据以及超声影像的灰度值数据提供了更多超声影像数据的详细细
节特征,更好地观察和分析影像结构特征,使得超声影像的细节处增强。利用增强超声影像
数据的异常调整值对函数关系式进行调整修正,减少异常数据或误差项带来的误差影响,
从而更准确地生成增强超声影像数据,提高了对超声影像数据进行影像增强处理的准确
性和可靠性。同时该公式中的权重信息以及调整值可以根据实际情况进行调整,应用于不
同的超声影像数据中,提高了算法的灵活性与适用性。
优选地,步骤S54包括以下步骤:
步骤S541:对校正超声影像数据进行数据对齐处理,生成超声影像对齐数据;
步骤S542:利用超声影像相似度计算公式对超声影像对齐数据进行相似度度量计算,生成超声影像相似度数据;
其中,超声影像相似度计算公式如下所示:
;
式中,表示为超声影像相似度数据,表示为超声影像对齐数据的数据大小,表
示为超声影像对齐数据,表示为超声影像对齐数据的图像点数,表示为根据超声影像对
齐数据生成的平均影像模板数据,表示为第个像素点的特征尺度差异生成的权重信息,表示为第个像素点的特征形状差异生成的权重信息,表示为第个像素点的纹理特
征数据,表示为超声影像相似度得分数据,表示为根据超声影像对齐数据与平均影像模
板数据生成的结构特征差值,表示为超声影像相似度数据的异常调整值。
步骤S543:利用预设的超声影像相似度阈值对超声影像相似度数据进行超声影像相似度判断处理,当超声影像相似度数据小于超声影像相似度阈值时,将超声影像相似度数据对应的超声影像对齐数据剔除,当超声影像相似度数据不小于超声影像相似度阈值时,将超声影像相似度数据对应的超声影像对齐数据进行数据标记,以生成精准超声影像数据。
本发明在校正超声影像数据的基础上,进行数据对齐处理,以确保超声影像之间的一致性和准确性,数据对齐是将不同的超声影像数据进行配准,使其在空间上保持一致,通过对超声影像数据进行平移、旋转、缩放等变换操作,可以将它们对齐到相同的坐标系中,这有助于消除由于姿态差异、扫描角度等因素引起的图像畸变和不准确性。利用超声影像相似度计算公式对经过数据对齐处理的超声影像数据进行相似度度量计算,相似度度量是衡量图像之间的相似程度的指标,通过计算超声影像数据之间的相似度,可以评估它们的结构、纹理和特征的相似性,相似度度量计算为后续的超声影像相似度判断和数据筛选提供了依据。利用预设的超声影像相似度阈值对相似度数据进行判断处理,当超声影像相似度数据小于超声影像相似度阈值时,说明两幅图像之间的相似度较低,可能存在配准不准确或数据噪声的情况,因此将相应的超声影像对齐数据剔除,而当超声影像相似度数据不小于超声影像相似度阈值时,说明两幅图像之间的相似度较高,配准准确性较高,因此将相应的超声影像对齐数据进行标记,以生成精准的超声影像数据。
本发明利用一种超声影像相似度计算公式,该公式充分考虑了超声影像对齐数据
的数据大小、超声影像对齐数据、超声影像对齐数据的图像点数、根据超声影像对齐数
据生成的平均影像模板数据、第个像素点的特征尺度差异生成的权重信息、第个像
素点的特征形状差异生成的权重信息、第个像素点的纹理特征数据、超声影像相似
度得分数据、根据超声影像对齐数据与平均影像模板数据生成的结构特征差值以及函
数之间的相互作用关系,以形成函数关系式:
即,,超声影像对齐数据
与根据超声影像对齐数据生成的平均影像模板数据的差值,可以得到该超声影像对齐数据
的初步相识度数据,并通过其他参数进行打分,以此使得结果更为准确;第个像素点的特
征尺度差异生成的权重信息与特征形状差异生成的权重信息表示对相似度的共享程度,可
以根据具体情况突出或抑制不同特征的影响,提高相似度计算的准确性和敏感性,使得算
法能够更好地适应不同类型和特点的超声影像数据;第个像素点的纹理特征数据描述超
声影像中的纹理特点,对纹理特征的考虑,可以更好地反映和比较超声影像中的纹理信息,
这对于区分不同组织或病变的纹理特征非常重要,纹理特征的加入能够提高相似度计算的
准确性和区分能力;超声影像相似度得分数据可以将相似度转化为一个具体的得分,提供
了对相似度的度量和比较基准,这有助于对超声影像进行排序和筛选,从而选取出相似度
较高的影像数据;根据超声影像对齐数据与平均影像模板数据生成的结构特征差值可以更
准确地评估影像之间的结构相似度,这有助于对超声影像的解读和分析,尤其是对于病变
的定位和评估提供重要的参考。该公式综合考虑了特征尺度差异、特征形状差异和纹理特
征等多个方面的相似度度量,通过将这些特征的相似度进行加权和累积,可以综合评估超
声影像之间的相似程度,这有助于更全面地捕捉和比较超声影像之间的特征相似性,提供
更准确的相似度评估。利用超声影像相似度数据的异常调整值对函数关系式进行调整修
正,减少异常数据或误差项带来的误差影响,从而更准确地生成超声影像相似度数据,提
高了对超声影像对齐数据进行相似度度量计算的准确性和可靠性。同时该公式中的权重信
息以及调整值可以根据实际情况进行调整,应用于不同的超声影像对齐数据中,提高了算
法的灵活性与适用性。
本发明实施例中,对校正超声影像数据进行数据对齐处理,生成超声影像对齐数据。数据对齐是一种图像处理技术,用于将不同视角或时间的图像数据进行匹配和对准,以消除图像之间的差异,通过对校正超声影像数据应用数据对齐算法,确保不同图像之间的空间一致性和对齐,生成具有一致参考框架的超声影像对齐数据。利用超声影像相似度计算公式对超声影像对齐数据进行相似度度量计算,生成超声影像相似度数据,超声影像相似度计算公式是一种数学公式,用于量化和衡量超声影像数据之间的相似程度。通过将超声影像对齐数据输入到相似度计算公式中,利用像素之间的差异、特征权重和调整项等参数,计算出超声影像对齐数据之间的相似度得分,生成超声影像相似度数据。通过比较超声影像相似度数据与预设阈值的大小关系,进行判断处理。如果超声影像相似度数据小于超声影像相似度阈值,表示相似度不足以满足要求,将对应的超声影像对齐数据剔除;如果超声影像相似度数据不小于超声影像相似度阈值,表示相似度达到要求,将对应的超声影像对齐数据进行数据标记。
优选地,步骤S6包括以下步骤:
步骤S61:根据精准空间坐标数据对三维影像模型进行三维影像目标定位映射,生成目标位置数据;
步骤S62:利用路径规划算法对目标位置数据进行最优路径规划处理,生成初步导航路径数据;
步骤S63:根据预设的非穿刺区域对初步导航路径数据进行路径调整处理,生成导航路径数据;
步骤S64:利用编码器对导航路径数据进行指令编码,生成机器人导航指令数据。
本发明利用精准空间坐标数据,将目标位置映射到三维影像模型上,通过将精确的空间坐标与三维模型进行匹配,可以确定目标在三维影像模型中的准确位置,这有助于精确定位手术目标,为后续的路径规划和导航提供准确的目标位置信息。根据目标位置数据和手术机器人的运动能力,采用路径规划算法来确定最优的导航路径,路径规划算法考虑了机器人的运动限制、环境障碍物和目标位置之间的关系,以生成可行且最优的路径,这有助于提高机器人的导航效率和路径的准确性,确保机器人能够高效地达到目标位置。根据预设的非穿刺区域对初步导航路径数据进行路径调整处理,生成导航路径数据,在手术过程中,可能存在一些非穿刺区域,例如敏感器官或重要组织结构,根据预设的非穿刺区域,对初步导航路径进行调整,以避开这些区域,路径调整算法会重新计算导航路径,确保机器人绕过非穿刺区域,同时仍能有效地到达目标位置,这有助于提高手术安全性和成功率,保护敏感组织结构的完整性。将经过路径规划和调整后的导航路径数据进行编码,以生成机器人的导航指令,编码器将路径数据转化为机器人可以理解和执行的指令格式,这有助于机器人准确地遵循预定的导航路径,实现精确的导航和定位,通过编码器生成的导航指令,机器人能够在手术过程中按照预定路径自主导航,实现准确的目标定位和移动。
本发明实施例中,根据精准空间坐标数据对三维影像模型进行三维影像目标定位映射,生成目标位置数据,通过将精准空间坐标数据与三维影像模型进行映射和匹配,确定目标在三维影像中的准确位置,通过三维影像模型的定位,我们可以获得目标位置的具体坐标信息。利用路径规划算法对目标位置数据进行最优路径规划处理,生成初步导航路径数据,路径规划算法是一种计算机算法,通过考虑目标位置、环境条件和约束等因素,确定机器人从当前位置到目标位置的最佳路径,根据目标位置数据和相关环境信息,应用路径规划算法计算出一条初步的导航路径,该路径被认为是从当前位置到目标位置的最优路径。根据预设的非穿刺区域对初步导航路径数据进行路径调整处理,生成导航路径数据,非穿刺区域是指在手术过程中应避免进行穿刺的区域,如重要血管或器官区域,根据预设的非穿刺区域的信息,对初步导航路径进行调整,以确保导航路径避开这些敏感区域,生成经过路径调整的导航路径数据。利用编码器对导航路径数据进行指令编码,生成机器人导航指令数据,编码器是一种将导航路径数据转化为机器人可理解和执行的指令格式的工具,通过将导航路径数据传递给编码器,将其转化为机器人能够理解和执行的指令序列,生成机器人导航指令数据,这些指令数据将指导机器人在手术过程中按照导航路径进行移动和操作。
在本说明书中,还提供了一种基于超声图像和电子皮肤的手术机器人,包括底座、驱动件、控制器与机械手臂,控制器及驱动件均安装于底座内,机械手臂转动地安装于底座上,控制器与驱动件电性连接,驱动件与机械手臂传动连接,控制器内安装有存储器,存储器内存储有:
数据采集模块:用于获取用户的皮肤采集布局图;根据传感器对皮肤采集布局图进行数据采集处理,生成原始定位图像数据;对原始定位图像数据进行定位点坐标提取及编码转换,生成标准定位坐标数据;
坐标频率转换模块:用于对标准定位坐标数据进行不同时间区间的坐标数据整合处理,生成分区定位坐标数据;对分区定位坐标数据进行坐标数据的频率特征提取处理,生成坐标频率特征数据;
定位点运动趋势预测模块:利用随机森林算法对坐标频率特征数据进行定位点运动趋势预测,生成定位运动趋势数据;
空间坐标点构建模块:利用电子皮肤技术对分区定位坐标数据进行穿刺区域皮肤标记,并利用定位运动趋势数据进行坐标点优化,生成精准空间坐标数据;
三维影像模型构建模块:利用超声影像采集设备对皮肤采集布局图进行超声图像数据采集,生成超声影像数据;对超声影像数据进行三维影像参数提取处理,生成三维影像参数数据;利用三维建模技术对三维影像参数数据进行三维影像构建,生成三维影像模型;
机器人导航指令模块:根据精准空间坐标数据对三维影像模型进行三维影像目标定位映射,生成目标位置数据;根据目标位置数据进行导航路径规划,生成导航路径数据;利用编码器对导航路径数据进行指令编码,生成机器人导航指令数据。
本申请有益效果在于,本发明采用电子皮肤技术获取皮肤采集布局图,并对其进行数据处理和清洗,生成高精度的定位坐标数据。这种定位方法能够提供手术机器人准确的位置信息,实现精确的手术操作,精准的定位能力对于复杂手术过程至关重要,可以帮助医生准确定位手术目标并进行精细操作。通过对定位坐标数据进行频率特征提取和运动趋势建模,可以实现对手术目标的运动趋势预测,这种实时预测能力使得手术机器人能够根据目标的运动趋势进行适时的调整和响应,确保手术操作的准确性和稳定性,医生可以在操作过程中更好地预测目标的运动轨迹,提高手术的成功率和安全性。采用超声影像增强算法和校正模板对超声影像数据进行处理,能够提高影像的清晰度和准确性,增强后的超声影像能够更清楚地观察手术目标和周围组织的结构,辅助手术决策和操作,校正处理可以纠正超声影像中可能存在的畸变,提供更真实、可靠的影像信息,以此做出准确的诊断和手术规划。通过对精准空间坐标数据和超声影像数据的处理,能够进行三维刚性变换和建模,生成高精度的三维影像模型,这种三维影像重建提供了医生全面的手术目标信息,包括目标的形状、位置和周围结构,有助于手术规划和导航,可以在三维影像模型中进行虚拟操作和路径规划,提前评估手术风险并制定最佳的手术策略。基于精准的定位和三维影像模型,手术机器人能够实现智能导航和路径规划,结合预设的非穿刺区域和安全要求,机器人能够生成最优的导航路径和指令,确保手术操作的高效性和安全性,通过路径调整处理和指令编码,机器人可以灵活地适应手术环境和需求,实现精确的操作路径和姿态控制。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在申请文件的等同要件的含义和范围内的所有变化涵括在本发明内。
以上所述仅是本发明的具体实施方式,使本领域技术人员能够理解或实现本发明。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所发明的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种基于超声图像和电子皮肤的手术机器人的定位方法,其特征在于,包括以下步骤:
步骤S1:获取用户的皮肤采集布局图;根据传感器对皮肤采集布局图进行数据采集处理,生成原始定位图像数据;对原始定位图像数据进行定位点坐标提取及编码转换,生成标准定位坐标数据;
步骤S2:对标准定位坐标数据进行不同时间区间的坐标数据整合处理,生成分区定位坐标数据;对分区定位坐标数据进行坐标数据的频率特征提取处理,生成坐标频率特征数据;
步骤S3:利用随机森林算法对坐标频率特征数据进行定位点运动趋势预测,生成定位运动趋势数据;
步骤S4:利用电子皮肤技术对分区定位坐标数据进行穿刺区域皮肤标记,并利用定位运动趋势数据进行坐标点优化,生成精准空间坐标数据;
步骤S5:利用超声影像采集设备对皮肤采集布局图进行超声图像数据采集,生成超声影像数据;对超声影像数据进行三维影像参数提取处理,生成三维影像参数数据;利用三维建模技术对三维影像参数数据进行三维影像构建,生成三维影像模型;
步骤S6:根据精准空间坐标数据对三维影像模型进行三维影像目标定位映射,生成目标位置数据;根据目标位置数据进行导航路径规划,生成导航路径数据;利用编码器对导航路径数据进行指令编码,生成机器人导航指令数据。
2.根据权利要求1所述的基于超声图像和电子皮肤的手术机器人的定位方法,其特征在于,步骤S1包括以下步骤:
步骤S11:获取用户的皮肤采集布局图,其中皮肤采集布局图包括定位点标记信息;
步骤S12:根据传感器对皮肤采集布局图进行数据采集处理,生成原始定位图像数据;
步骤S13:对原始定位图像数据进行数据清洗处理,生成清洗定位图像数据;
步骤S14:利用低通滤波对清洗定位图像数据进行数据降噪处理,生成降噪定位图像数据;
步骤S15:根据定位点标记信息对降噪定位图像数据进行定位点坐标提取处理,生成定位坐标数据;
步骤S16:利用编码器对定位坐标图像进行编码转换,生成编码定位坐标数据;
步骤S17:利用最小-最大标准化对编码定位坐标数据进行数据标准化转化,生成标准定位坐标数据。
3.根据权利要求2所述的基于超声图像和电子皮肤的手术机器人的定位方法,其特征在于,步骤S2包括以下步骤:
步骤S21:利用离散小波变换技术对标准定位坐标数据进行离散格式数据转换处理,生成离散定位坐标数据;
步骤S22:根据预设的穿刺皮肤时间区间对离散定位坐标数据进行不同时间区间的坐标数据整合处理,生成分区定位坐标数据;
步骤S23:利用傅里叶变换技术对分区定位坐标数据进行频率数据转换处理,生成坐标数据频谱图;
步骤S24:利用统计特征对坐标数据频谱图进行频率特征提取处理,生成坐标频率特征数据。
4.根据权利要求3所述的基于超声图像和电子皮肤的手术机器人的定位方法,其特征在于,步骤S3包括以下步骤:
步骤S31:利用随机森林算法建立坐标数据频谱图与运动趋势的映射关系,生成初始运动趋势预测模型;
步骤S32:获取运动趋势-坐标频率关联数据;
步骤S33:利用运动趋势-坐标频率关联数据对初始运动趋势预测模型进行模型训练处理,生成运动趋势预测模型;
步骤S34:将坐标频率特征数据传输至运动趋势预测模型中进行定位点运动趋势预测,生成定位运动趋势数据。
5.根据权利要求4所述的基于超声图像和电子皮肤的手术机器人的定位方法,其特征在于,步骤S4包括以下步骤:
步骤S41:利用电子皮肤技术对分区定位坐标数据进行穿刺区域标记处理,生成空间坐标数据;
步骤S42:利用定位运动趋势数据对空间坐标数据进行坐标点的运动趋势优化处理,生成精准空间坐标数据。
6.根据权利要求5所述的基于超声图像和电子皮肤的手术机器人的定位方法,其特征在于,步骤S5包括以下步骤:
步骤S51:利用超声影像采集设备对皮肤采集布局图进行超声图像数据采集,生成超声影像数据;
步骤S52:利用超声影像增强算法对超声影像数据进行影像增强处理,生成增强超声影像数据;
步骤S53:根据预设的医疗影像校正模板对增强影像数据进行图像校正处理,生成校正超声影像数据;
步骤S54:对校正超声影像数据进行精准超声影像提取处理,生成精准超声影像数据;
步骤S55:利用刚体变换技术对精准超声影像数据进行三维刚性变换处理,生成三维影像参数数据;
步骤S56:利用三维建模技术对三维影像参数数据进行三维影像构建,生成三维影像模型。
7.根据权利要求6所述的基于超声图像和电子皮肤的手术机器人的定位方法,其特征在于,步骤S52中的超声影像增强算法如下所示:
;
式中,表示为增强超声影像数据,/>表示为超声影像数据的数据量,/>表示为超声影像的对比度数据,/>表示为超声影像的亮度数据,/>表示为第/>个超声影像数据,/>表示为超声影像的噪声抑制程度生成的权重信息,/>表示为超声影像的灰度值数据,/>表示为影像细节生成的权重信息,/>表示为控制图像的边缘增强程度的调整值,/>表示为增强超声影像数据的异常调整值。
8.根据权利要求7所述的基于超声图像和电子皮肤的手术机器人的定位方法,其特征在于,步骤S54包括以下步骤:
步骤S541:对校正超声影像数据进行数据对齐处理,生成超声影像对齐数据;
步骤S542:利用超声影像相似度计算公式对超声影像对齐数据进行相似度度量计算,生成超声影像相似度数据;
其中,超声影像相似度计算公式如下所示:
;
式中,表示为超声影像相似度数据,/>表示为超声影像对齐数据的数据大小,/>表示为超声影像对齐数据,/>表示为超声影像对齐数据的图像点数,/>表示为根据超声影像对齐数据生成的平均影像模板数据,/>表示为第/>个像素点的特征尺度差异生成的权重信息,/>表示为第/>个像素点的特征形状差异生成的权重信息,/>表示为第/>个像素点的纹理特征数据,/>表示为超声影像相似度得分数据,/>表示为根据超声影像对齐数据与平均影像模板数据生成的结构特征差值,/>表示为超声影像相似度数据的异常调整值;
步骤S543:利用预设的超声影像相似度阈值对超声影像相似度数据进行超声影像相似度判断处理,当超声影像相似度数据小于超声影像相似度阈值时,将超声影像相似度数据对应的超声影像对齐数据剔除,当超声影像相似度数据不小于超声影像相似度阈值时,将超声影像相似度数据对应的超声影像对齐数据进行数据标记,以生成精准超声影像数据。
9.根据权利要求8所述的基于超声图像和电子皮肤的手术机器人的定位方法,其特征在于,步骤S6包括以下步骤:
步骤S61:根据精准空间坐标数据对三维影像模型进行三维影像目标定位映射,生成目标位置数据;
步骤S62:利用路径规划算法对目标位置数据进行最优路径规划处理,生成初步导航路径数据;
步骤S63:根据预设的非穿刺区域对初步导航路径数据进行路径调整处理,生成导航路径数据;
步骤S64:利用编码器对导航路径数据进行指令编码,生成机器人导航指令数据。
10.一种基于超声图像和电子皮肤的手术机器人,其特征在于,包括底座、驱动件、控制器与机械手臂,控制器及驱动件均安装于底座内,机械手臂转动地安装于底座上,控制器与驱动件电性连接,驱动件与机械手臂传动连接,控制器内安装有存储器,存储器内存储有:
数据采集模块:用于获取用户的皮肤采集布局图;根据传感器对皮肤采集布局图进行数据采集处理,生成原始定位图像数据;对原始定位图像数据进行定位点坐标提取及编码转换,生成标准定位坐标数据;
坐标频率转换模块:用于对标准定位坐标数据进行不同时间区间的坐标数据整合处理,生成分区定位坐标数据;对分区定位坐标数据进行坐标数据的频率特征提取处理,生成坐标频率特征数据;
定位点运动趋势预测模块:利用随机森林算法对坐标频率特征数据进行定位点运动趋势预测,生成定位运动趋势数据;
空间坐标点构建模块:利用电子皮肤技术对分区定位坐标数据进行穿刺区域皮肤标记,并利用定位运动趋势数据进行坐标点优化,生成精准空间坐标数据;
三维影像模型构建模块:利用超声影像采集设备对皮肤采集布局图进行超声图像数据采集,生成超声影像数据;对超声影像数据进行三维影像参数提取处理,生成三维影像参数数据;利用三维建模技术对三维影像参数数据进行三维影像构建,生成三维影像模型;
机器人导航指令模块:根据精准空间坐标数据对三维影像模型进行三维影像目标定位映射,生成目标位置数据;根据目标位置数据进行导航路径规划,生成导航路径数据;利用编码器对导航路径数据进行指令编码,生成机器人导航指令数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311075600.XA CN116869652B (zh) | 2023-08-25 | 2023-08-25 | 基于超声图像和电子皮肤的手术机器人及其定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311075600.XA CN116869652B (zh) | 2023-08-25 | 2023-08-25 | 基于超声图像和电子皮肤的手术机器人及其定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116869652A true CN116869652A (zh) | 2023-10-13 |
CN116869652B CN116869652B (zh) | 2024-02-02 |
Family
ID=88258982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311075600.XA Active CN116869652B (zh) | 2023-08-25 | 2023-08-25 | 基于超声图像和电子皮肤的手术机器人及其定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116869652B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117838309A (zh) * | 2023-12-29 | 2024-04-09 | 中国人民解放军总医院第六医学中心 | 一种超声引导针刀的行进偏移补偿方法及系统 |
CN117853570A (zh) * | 2024-03-08 | 2024-04-09 | 科普云医疗软件(深圳)有限公司 | 一种麻醉穿刺辅助定位方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090137907A1 (en) * | 2007-11-22 | 2009-05-28 | Kabushiki Kaisha Toshiba | Imaging diagnosis apparatus having needling navigation control system and a needling navigation controlling method |
US20090182224A1 (en) * | 1999-05-18 | 2009-07-16 | Mediguide Ltd. | Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors |
US8200313B1 (en) * | 2008-10-01 | 2012-06-12 | Bioquantetics, Inc. | Application of image-based dynamic ultrasound spectrography in assisting three dimensional intra-body navigation of diagnostic and therapeutic devices |
CN106691510A (zh) * | 2015-11-17 | 2017-05-24 | 深圳华声医疗技术股份有限公司 | 优化超声波图像的方法和装置 |
CN109758233A (zh) * | 2019-01-21 | 2019-05-17 | 上海益超医疗器械有限公司 | 一种诊疗一体化手术机器人系统及其导航定位方法 |
CN111789634A (zh) * | 2020-06-09 | 2020-10-20 | 浙江大学 | 一种人体脊柱自动化超声扫查的路径规划方法 |
CN114533122A (zh) * | 2022-03-11 | 2022-05-27 | 清华大学 | 一种超声微血流成像的信号处理方法和系统 |
CN115553883A (zh) * | 2022-09-29 | 2023-01-03 | 浙江大学 | 一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统 |
CN116580068A (zh) * | 2023-06-25 | 2023-08-11 | 山东卓业医疗科技有限公司 | 一种基于点云配准的多模态医学配准方法 |
CN116585036A (zh) * | 2023-04-27 | 2023-08-15 | 珠海横乐医学科技有限公司 | 持针器及其穿刺手术机器人、手术导航方法、存储介质 |
-
2023
- 2023-08-25 CN CN202311075600.XA patent/CN116869652B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090182224A1 (en) * | 1999-05-18 | 2009-07-16 | Mediguide Ltd. | Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors |
US20090137907A1 (en) * | 2007-11-22 | 2009-05-28 | Kabushiki Kaisha Toshiba | Imaging diagnosis apparatus having needling navigation control system and a needling navigation controlling method |
US8200313B1 (en) * | 2008-10-01 | 2012-06-12 | Bioquantetics, Inc. | Application of image-based dynamic ultrasound spectrography in assisting three dimensional intra-body navigation of diagnostic and therapeutic devices |
CN106691510A (zh) * | 2015-11-17 | 2017-05-24 | 深圳华声医疗技术股份有限公司 | 优化超声波图像的方法和装置 |
CN109758233A (zh) * | 2019-01-21 | 2019-05-17 | 上海益超医疗器械有限公司 | 一种诊疗一体化手术机器人系统及其导航定位方法 |
CN111789634A (zh) * | 2020-06-09 | 2020-10-20 | 浙江大学 | 一种人体脊柱自动化超声扫查的路径规划方法 |
CN114533122A (zh) * | 2022-03-11 | 2022-05-27 | 清华大学 | 一种超声微血流成像的信号处理方法和系统 |
CN115553883A (zh) * | 2022-09-29 | 2023-01-03 | 浙江大学 | 一种基于机器人超声扫查成像的经皮脊柱穿刺定位系统 |
CN116585036A (zh) * | 2023-04-27 | 2023-08-15 | 珠海横乐医学科技有限公司 | 持针器及其穿刺手术机器人、手术导航方法、存储介质 |
CN116580068A (zh) * | 2023-06-25 | 2023-08-11 | 山东卓业医疗科技有限公司 | 一种基于点云配准的多模态医学配准方法 |
Non-Patent Citations (3)
Title |
---|
ROBERT KRZYSZTOF MLOSEKCORRESPONDING AUTHOR, SYLWIA MALINOWSKA: "Ultrasound image of the skin, apparatus and imaging basics", JOURNAL OF ULTRASONOGRAPHY, vol. 13, no. 53, pages 212 - 221 * |
张燕,沈洲: "基于超声传感器网络的定位系统设计", 电脑知识与技术, vol. 14, no. 6, pages 29 - 32 * |
王田苗;陶永;陈阳;: "服务机器人技术研究现状与发展趋势", 中国科学:信息科学, no. 09, pages 5 - 22 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117838309A (zh) * | 2023-12-29 | 2024-04-09 | 中国人民解放军总医院第六医学中心 | 一种超声引导针刀的行进偏移补偿方法及系统 |
CN117838309B (zh) * | 2023-12-29 | 2024-06-25 | 中国人民解放军总医院第六医学中心 | 一种超声引导针刀的行进偏移补偿方法及系统 |
CN117853570A (zh) * | 2024-03-08 | 2024-04-09 | 科普云医疗软件(深圳)有限公司 | 一种麻醉穿刺辅助定位方法 |
CN117853570B (zh) * | 2024-03-08 | 2024-05-10 | 科普云医疗软件(深圳)有限公司 | 一种麻醉穿刺辅助定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116869652B (zh) | 2024-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116869652B (zh) | 基于超声图像和电子皮肤的手术机器人及其定位方法 | |
CN110786887B (zh) | 乳腺超声筛查方法、装置及系统 | |
US8724865B2 (en) | Method, computer software, and system for tracking, stabilizing, and reporting motion between vertebrae | |
KR20190028422A (ko) | 해부학적 대상들의 자동 검출, 국부화, 및 의미론적 세그먼트화를 위한 시스템 및 방법 | |
EP2433567A1 (en) | Medical image diagnosis device and region-of-interest setting method therefor | |
CN110675398A (zh) | 乳腺超声筛查方法、装置及计算机设备 | |
WO2011015952A1 (en) | Method and system for stabilizing a series of intravascular ultrasound images and extracting vessel lumen from the images | |
EP2637570A2 (en) | System and method of ultrasound image processing | |
CN111820948B (zh) | 胎儿生长参数测量方法、系统及超声设备 | |
US10548564B2 (en) | System and method for ultrasound imaging of regions containing bone structure | |
CN112206006A (zh) | 自主评估甲状腺结节良恶性的智能辅助识别设备及方法 | |
CN116883281A (zh) | 一种用于图像引导放疗的影像呈像画质增强系统和方法 | |
CN110163907B (zh) | 胎儿颈部透明层厚度测量方法、设备及存储介质 | |
CN117496173B (zh) | 图像处理的脑血管特征提取方法及系统 | |
CN113197558A (zh) | 心率与呼吸率检测方法、系统及计算机存储介质 | |
US20210100530A1 (en) | Methods and systems for diagnosing tendon damage via ultrasound imaging | |
CN111563880A (zh) | 一种基于目标检测与聚类的横突棘突检测定位方法 | |
CN112085711B (zh) | 采用卷积神经网络与卡尔曼滤波相结合自动追踪肌肉羽状角的方法 | |
CN110598675B (zh) | 一种超声胎儿姿态的识别方法、存储介质及电子设备 | |
CN117876712B (zh) | 一种基于Harris的脊椎特征点自动识别方法 | |
CN117838309B (zh) | 一种超声引导针刀的行进偏移补偿方法及系统 | |
CN117370878B (zh) | 一种基于脊柱关节振动信息的表皮提取定位方法及系统 | |
US20240273726A1 (en) | Device Agnostic Systems and Methods for Acquiring and Analyzing Images from an Ultrasound Probe | |
Olivier et al. | Utilizing sonographer visual attention for probe movement guidance in cardiac point of care ultrasound | |
CN117274272B (zh) | 一种基于深度学习的冠状动脉造影图分割的优化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |