CN117442190A - 一种基于目标检测的创面自动测量方法及系统 - Google Patents
一种基于目标检测的创面自动测量方法及系统 Download PDFInfo
- Publication number
- CN117442190A CN117442190A CN202311763145.2A CN202311763145A CN117442190A CN 117442190 A CN117442190 A CN 117442190A CN 202311763145 A CN202311763145 A CN 202311763145A CN 117442190 A CN117442190 A CN 117442190A
- Authority
- CN
- China
- Prior art keywords
- wound surface
- image
- wound
- scale
- target detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000004441 surface measurement Methods 0.000 title description 5
- 238000000605 extraction Methods 0.000 claims abstract description 27
- 238000005516 engineering process Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 19
- 238000000691 measurement method Methods 0.000 claims abstract description 16
- 238000007781 pre-processing Methods 0.000 claims abstract description 12
- 238000001914 filtration Methods 0.000 claims abstract description 10
- 206010052428 Wound Diseases 0.000 claims description 258
- 208000027418 Wounds and injury Diseases 0.000 claims description 258
- 238000005259 measurement Methods 0.000 claims description 14
- 238000013519 translation Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 4
- 238000010008 shearing Methods 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 6
- 238000004381 surface treatment Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 206010061218 Inflammation Diseases 0.000 description 1
- 208000034486 Multi-organ failure Diseases 0.000 description 1
- 208000010718 Multiple Organ Failure Diseases 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 208000035475 disorder Diseases 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 210000002615 epidermis Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000035876 healing Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 230000002458 infectious effect Effects 0.000 description 1
- 230000004054 inflammatory process Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000004400 mucous membrane Anatomy 0.000 description 1
- 208000029744 multiple organ dysfunction syndrome Diseases 0.000 description 1
- 230000008816 organ damage Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 210000003491 skin Anatomy 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 230000000472 traumatic effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1072—Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1075—Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions by non-invasive methods, e.g. for determining thickness of tissue layer
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1079—Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Heart & Thoracic Surgery (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Dentistry (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Radiology & Medical Imaging (AREA)
- Biodiversity & Conservation Biology (AREA)
- Geometry (AREA)
- Quality & Reliability (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Image Processing (AREA)
Abstract
本发明的一种基于目标检测的创面自动测量方法及系统,属于图像处理技术领域,方法包括如下步骤:拍摄标尺图像并通过距离判断与目标检测技术固定标尺比例;采集烧伤伤口的创面图像并对创面图像进行预处理;采用基于候选框置信度逐步衰减的改进Faster‑RCNN算法,对处理后的创面图像进行特征提取和定位;根据特征提取定位结果及标尺比例进行创面尺寸计算。本发明使用基于候选框置信度逐步衰减的改进Faster‑RCNN算法提取创面信息,并通过进行标尺固定化、像素计数法和边缘点过滤对创面进行自动计算,能够准确的提取创面特征,从而能够更准确的评估创面的大小,有助于提高创面治疗的效率和效果。
Description
技术领域
本发明涉及一种基于目标检测的创面自动测量方法及系统,属于图像处理技术领域。
背景技术
烧伤是一种常见的外伤性疾病,通常由热、冷、电、化学物质或辐射引起的对皮肤或其他组织的损伤。小的烧伤只会影响到表皮或者黏膜,而大的烧伤则会波及到身体的各大系统,产生严重的生理反应和器官损伤,可能会导致休克、感染性炎症甚至多个器官功能衰竭等并发症,死亡风险较高。此外,烧伤的治疗和康复过程相当复杂且耗时。
烧伤创面区域诊断是烧伤伤情判断的重要环节,可靠有效的烧伤创面严重程度评估是临床决策的基础。对于需要立即进行切割和移植治疗的病患,评估烧伤区域的状况,可以决定医生如何进行接下来的手术,从而大大减少患者的医疗支出、住院时间以及心理压力。对于患者创面管理的精确测量和追踪显得尤为重要,这对于确保患者能接受适当的治疗和护理有着关键作用。但是,当前的创面测量方法仍存在诸多问题,这不仅影响了医疗工作的进行,也对患者的健康状况构成了威胁。
当前,创面测量的手段主要有两种,一是手动测量,这种方式操作复杂,时间长,很大程度上依赖了医生的技术水平和经验,但由于医生水平参差不齐,所以测量结果常常存在明显的误差,导致了对患者病情的误判。二是利用机器学习的三维建模技术,这种方法的精确度更高,但同样也有一定的缺陷,比如制作模型就需要消耗大量的时间,而且当需要测量的创口过多时,效率也会大打折扣。因此,我们急需一种既能保证高精度,又能实现快速测量的创面自动测量方法。
发明内容
为了解决上述问题,本发明提出了一种基于目标检测的创面自动测量方法及系统,能够自动识别伤口区域、准确地提取创面特征,保证真实创面尺寸的计算精度。
本发明解决其技术问题采取的技术方案是:
第一方面,本发明实施例提供的一种基于目标检测的创面自动测量方法,包括如下步骤:
拍摄标尺图像并通过距离判断与目标检测技术固定标尺比例;
采集烧伤伤口的创面图像并对创面图像进行预处理;
采用基于候选框置信度逐步衰减的改进Faster-RCNN算法,对处理后的创面图像进行特征提取和定位;
根据特征提取定位结果及标尺比例进行创面尺寸计算。
作为本实施例一种可能的实现方式,所述拍摄标尺图像并通过距离判断与目标检测技术固定标尺比例,包括:
使用拍摄设备拍摄标尺图像,通过距离判断技术判断拍摄设备与标尺之间的垂直距离是否满足设定距离,满足则对标尺图像进行目标检测,不满足则重新拍摄;
对标尺图像进行目标检测,返回标尺的四个坐标值,获取标尺区域的长、宽像素值;
根据标尺的实际长度、实际宽度、长度像素值和宽度像素值计算标尺比例。
作为本实施例一种可能的实现方式,所述对创面图像进行预处理,包括:
对创面图像进行颜色空间转换和滤波处理,去除创面图像的噪声;
对创面图像进行对比度增强、图像去雾和数据增强处理。
作为本实施例一种可能的实现方式,所述对创面图像进行数据增强处理,包括:
从采集的烧伤伤口的创面图像中筛选出清晰的创面图像;
将创面图像中无效的背景区域剪切去除,保留伤口创面区域;
标记伤口创面区域,生成和原始创面图像具有相同尺寸的掩模图像;
对创面图像进行归一化和标准化处理,得到标准化创面图像;
对创面图像和对应的掩模图像同时进行相同角度的旋转操作;
对创面图像和对应的掩模图像同时进行水平翻转或镜像翻转;
对创面图像和对应的掩模图像同时进行水平平移或垂直平移,平移范围在0%至10%的图像宽度和图像高度之间;
对创面图像和对应的掩模图像同时进行放大图像或缩小图像缩放处理,缩放比例范围在0%至10%之间。
作为本实施例一种可能的实现方式,所述采用基于候选框置信度逐步衰减的改进Faster-RCNN算法,对处理后的创面图像进行特征提取和定位,包括:
使用ResNet-50网络模型对输入的创面图像进行特征提取;
使用RPN网络在提取的每个特征图上生成一组候选区域并进行特征拼接;
将拼接后的特征图采用ROI池化进行裁剪,输入全连接层进行边界框回归,对创面位置进行定位。
作为本实施例一种可能的实现方式,所述RPN网络采用3×3和1×1的两层卷积层替代原有的一层3×3的卷积层。
作为本实施例一种可能的实现方式,所述根据特征提取定位结果及标尺比例进行创面尺寸计算,包括:
根据创面图像定位结果获取创面区域的坐标值,计算创面对应的长、宽像素值;
对创面图像进行二值化处理,将创面图像分割为目标区域和背景区域;
设置自适应的边缘点阈值,过滤目标区域中的弱边缘像素点,对目标区域的像素点进行计数;
根据创面长、宽像素值、目标区域像素个数与固定比例尺,计算得出创面的真实尺寸。
作为本实施例一种可能的实现方式,所述根据创面长、宽像素值、目标区域像素个数与固定比例尺,计算得出创面的真实尺寸,包括:
将创面的长、宽像素值乘以比例尺比例得到创面的真实长度和真实宽度;
将目标区域的像素点数目乘以比例尺比例得到创面的真实面积。
作为本实施例一种可能的实现方式,采集烧伤伤口的创面图像时创面与图像拍摄设备之间的距离,和拍摄标尺图像时标尺与拍摄设备之间的垂直距离相同。
第二方面,本发明实施例提供的一种基于目标检测的创面自动测量系统,包括:
标尺固定模块,用于拍摄标尺图像并通过距离判断与目标检测技术固定标尺比例;
创面图像获取模块,用于采集烧伤伤口的创面图像并对创面图像进行预处理;
特征提取模块,用于采用基于候选框置信度逐步衰减的改进Faster-RCNN算法,对处理后的创面图像进行特征提取和定位;
创面计算模块,用于根据特征提取定位结果及标尺比例进行创面尺寸计算。
本发明实施例的技术方案可以具有的有益效果如下:
本发明通过使用基于候选框置信度逐步衰减的改进Faster-RCNN算法,所提出的创面自动测量方法能够准确的提取创面特征,从而能够更准确的评估创面的大小,以便提高诊疗的效率。
本发明通过使用基于距离判断与目标检测技术的标尺固定化算法,实现了标尺比例固定化的功能,通过像素计数法和边缘点过滤的技术方案,实现了真实创面尺寸的自动计算,可以提供创面的精确大小,有助于提高创面治疗的效率和效果。
使用本发明的创面自动测量方法,只需通过手机等手持拍摄设备对患者创面进行拍摄,无需任何其他操作,避免了手动测量的繁琐步骤,能够快速获取创面信息自动识别伤口创面区域、准确地提取创面特征,既能实现快速测量创面的目的,又能保证真实创面尺寸的计算精度,极大的提高了创面管理的效率,为提高诊疗效率提供了有力支撑。
附图说明
图1是根据一示例性实施例示出的一种基于目标检测的创面自动测量方法的流程图;
图2是根据一示例性实施例示出的一种基于目标检测的创面自动测量系统的示意图;
图3是根据一示例性实施例示出的固定标尺比例的流程图;
图4是根据一示例性实施例示出的创面图像处理与计算的流程图。
具体实施方式
下面结合附图与实施例对本发明做进一步说明:
为能清楚说明本方案的技术特点,下面通过具体实施方式,并结合其附图,对本发明进行详细阐述。下文的公开提供了许多不同的实施例或例子用来实现本发明的不同结构。为了简化本发明的公开,下文中对特定例子的部件和设置进行描述。此外,本发明可以在不同例子中重复参考数字和/或字母。这种重复是为了简化和清楚的目的,其本身不指示所讨论各种实施例和/或设置之间的关系。应当注意,在附图中所图示的部件不一定按比例绘制。本发明省略了对公知组件和处理技术及工艺的描述以避免不必要地限制本发明。
如图1所示,本发明实施例提供的一种基于目标检测的创面自动测量方法,包括如下步骤:
拍摄标尺图像并通过距离判断与目标检测技术固定标尺比例;
采集烧伤伤口的创面图像并对创面图像进行预处理;
采用基于候选框置信度逐步衰减的改进Faster-RCNN算法,对处理后的创面图像进行特征提取和定位;
根据特征提取定位结果及标尺比例进行创面尺寸计算。
在测量前,需要确定一个固定的标尺比例,以便后续的测量过程中保持一致。为此,可以使用深度学习的目标检测技术,如YOLO(You Only Look Once)等,结合距离判断算法,确定并固定标尺的比例。
作为本实施例一种可能的实现方式,所述拍摄标尺图像并通过距离判断与目标检测技术固定标尺比例,包括:
使用拍摄设备拍摄标尺图像,通过距离判断技术判断拍摄设备与标尺之间的垂直距离是否满足设定距离,满足则对标尺图像进行目标检测,不满足则重新拍摄;
对标尺图像进行目标检测,返回标尺的四个坐标值,获取标尺区域的长、宽像素值;
根据标尺的实际长度、实际宽度、长度像素值和宽度像素值计算标尺比例。
在确定了标尺比例之后,需要对创面图像进行捕获并进行预处理。如果采集的创面图像质量不佳,可以尝试使用图像增强技术,如对比度增强、去雾等,提高图像的质量。同时,还可以对图像进行颜色空间转换、滤波等操作,以减少噪声干扰,提高后续的特征提取效果。
作为本实施例一种可能的实现方式,所述对创面图像进行预处理,包括:
对创面图像进行颜色空间转换和滤波处理,去除创面图像的噪声,以减少噪声干扰,提高后续的特征提取效果;
对创面图像进行对比度增强、图像去雾和数据增强处理,提高图像的质量。
作为本实施例一种可能的实现方式,所述对创面图像进行数据增强处理,包括:
从采集的烧伤伤口的创面图像中筛选出清晰的创面图像;
将创面图像中无效的背景区域剪切去除,保留伤口创面区域;
标记伤口创面区域,生成和原始创面图像具有相同尺寸的掩模图像;
对创面图像进行归一化和标准化处理,得到标准化创面图像;
对创面图像和对应的掩模图像同时进行相同角度的旋转操作;
对创面图像和对应的掩模图像同时进行水平翻转或镜像翻转;
对创面图像和对应的掩模图像同时进行水平平移或垂直平移,平移范围在0%至10%的图像宽度和图像高度之间;
对创面图像和对应的掩模图像同时进行放大图像或缩小图像缩放处理,缩放比例范围在0%至10%之间。
在完成了图像预处理后,需要使用改进版的Faster-RCNN算法,该算法基于候选框置信度的逐渐减弱来进行深度特征提取和定位。Faster-RCNN是一种深度学习的目标检测算法,它能够同时对多个物体进行检测和分类,且具有较快的推理速度。在该算法的框架下,可以对其进行一些改进,如采用多尺度特征提取、增加辅助分支等,以提高其检测性能。
作为本实施例一种可能的实现方式,所述采用基于候选框置信度逐步衰减的改进Faster-RCNN算法,对处理后的创面图像进行特征提取和定位,包括:
使用ResNet-50网络模型对输入的创面图像进行特征提取;
使用RPN网络在提取的每个特征图上生成一组候选区域并进行特征拼接;
将拼接后的特征图采用ROI池化进行裁剪,输入全连接层进行边界框回归,对创面位置进行定位。其中,所述RPN网络采用3×3和1×1的两层卷积层替代原有的一层3×3的卷积层。
在实现了目标的准确检测和定位后,可以根据所获得的特征提取定位结果以及标尺比例,进行创面大小的计算。
作为本实施例一种可能的实现方式,所述根据特征提取定位结果及标尺比例进行创面尺寸计算,包括:
根据创面图像定位结果获取创面区域的坐标值,计算创面对应的长、宽像素值;
对创面图像进行二值化处理,将创面图像分割为目标区域和背景区域;
设置自适应的边缘点阈值,过滤目标区域中的弱边缘像素点,对目标区域的像素点进行计数;
根据创面长、宽像素值、目标区域像素个数与固定比例尺,计算得出创面的真实尺寸。
作为本实施例一种可能的实现方式,所述根据创面长、宽像素值、目标区域像素个数与固定比例尺,计算得出创面的真实尺寸,包括:
将创面的长、宽像素值乘以比例尺比例得到创面的真实长度和真实宽度;
将目标区域的像素点数目乘以比例尺比例得到创面的真实面积。
作为本实施例一种可能的实现方式,采集烧伤伤口的创面图像时创面与图像拍摄设备之间的距离,和拍摄标尺图像时标尺与拍摄设备之间的垂直距离相同。
本实施例的创面自动测量方法,不仅提高了创面测量的准确性和效率,还增强了算法的通用性和可扩展性,为临床和科研工作提供了有力的支持。本发明的算法不仅可以应用于创面大小的测量,还可以广泛地应用于其他需要测量物体尺寸的场景,如医学影像、工业质检等领域。
如图2所示,本发明实施例提供的一种基于目标检测的创面自动测量系统,包括:
标尺固定模块,用于拍摄标尺图像并通过距离判断与目标检测技术固定标尺比例;
创面图像获取模块,用于采集烧伤伤口的创面图像并对创面图像进行预处理;
特征提取模块,用于采用基于候选框置信度逐步衰减的改进Faster-RCNN算法,对处理后的创面图像进行特征提取和定位;
创面计算模块,用于根据特征提取定位结果及标尺比例进行创面尺寸计算。
采用本发明的一种基于目标检测的创面自动测量系统进行创面测量的过程如下:
步骤一:拍摄标尺图像并通过距离判断与目标检测技术固定标尺比例。
如图3所示,使用拍摄设备拍摄标尺图像,通过距离判断技术判断拍摄设备与标尺之间的垂直距离是否满足设定距离,在本实施例中,设定拍摄设备与标尺之间的垂直距离为四十厘米左右,不满足时重新拍摄,图片拍摄时在光线清晰、均匀的地点。
标尺图像满足要求时,对标尺所在区域进行目标检测,返回标尺的四个坐标值:(X1,X2,Y1,Y2),其中(X1,Y1)为区域左上角的坐标、(X2,Y2)为区域右下角的坐标,通过计算X2- X1获得标尺区域的宽度像素值,通过计算Y2- Y1获得标尺区域的长度像素值。
根据标尺的实际长度、实际宽度、长度像素值和宽度像素值计算比例尺,使用标尺的实际长度(或宽度)除以获取的标尺区域的长度(或宽度)像素值,从而得到一个固定的比例尺,其单位为厘米/像素。
步骤二:采集烧伤伤口的创面图像并对创面图像进行预处理。
采集烧伤伤口的创面图像时创面与拍摄设备之间的距离,与拍摄标尺图像时标尺与拍摄设备之间的垂直距离相同,在满足创面与拍摄设备之间的垂直距离在四十厘米左右时,对获取的创面图像进行预处理,包括对创面图像进行颜色空间转换和滤波处理,去除创面图像的噪声,以减少噪声干扰,提高后续的特征提取效果;对创面图像进行对比度增强、图像去雾和数据增强处理,提高创面图像的质量。
对创面图像进行数据增强处理的具体过程为:从采集的烧伤伤口的创面图像中筛选出清晰的创面图像;将创面图像中无效的背景区域剪切去除,保留伤口创面区域;标记伤口创面区域,生成和原始创面图像具有相同尺寸的掩模图像;对创面图像进行归一化和标准化处理,得到标准化创面图像;对创面图像和对应的掩模图像同时进行相同角度的旋转操作;对创面图像和对应的掩模图像同时进行水平翻转或镜像翻转;对创面图像和对应的掩模图像同时进行水平平移或垂直平移,平移范围在0%至10%的图像宽度和图像高度之间;对创面图像和对应的掩模图像同时进行放大图像或缩小图像缩放处理,缩放比例范围在0%至10%之间。
步骤三:采用基于候选框置信度逐步衰减的改进Faster-RCNN算法,对处理后的创面图像进行特征提取和定位。
如图4所示,采用基于候选框置信度逐步衰减的改进Faster-RCNN算法来进行特征提取与创面图像定位。该算法使用区域建议网络(Region Proposal Network,RPN)代替原始的选择性搜索方法,不仅使得所生成的图像候选区域更加准确,而且提升了训练速度。
使用ResNet-50网络模型对输入的创面图像进行特征提取,得到一系列特征图,在创面特征提取过程中,使用ResNet-50(50层的残差网络)代替Faster-RCNN算法中传统的VGG16(16层的VGG网络)进行特征提取和训练,以取得更高的精度。
使用RPN网络在提取的每个特征图上生成一组候选区域,并对原有模块中的卷积进行改进(即采用3×3和1×1的两层卷积层替代原有的一层3×3的卷积层),进行特征拼接,以取得更高的回归精度。
将拼接后的特征图采用ROI池化进行裁剪,采用感兴趣区域池化层(ROI Pooling)对特征图进行裁剪和规整,使得其与分类器的输入大小相同,输入全连接层进行边界框回归,以获取目标物体的准确位置,对创面位置进行定位。
在寻找创面位置时,对于大于阈值的候选框不直接进行删除,而是采用候选框置信度逐步衰减机制来逐步降低该候选框的置信度。候选框置信度逐步衰减机制是对传统的非极大值抑制(Non-Maximum Suppression,NMS)机制的有效改进,能够避免因阈值设置不合理而产生的错误,从而获得更准确的目标。
步骤四:根据特征提取定位结果及标尺比例进行创面尺寸计算。
根据创面图像定位结果获取创面区域的坐标值(X1,X2,Y1,Y2),通过计算X2- X1来得到创面的宽度像素值并通过计算Y2- Y1来得到创面的长度像素值。
对创面图像进行二值化处理,将创面图像分割为目标区域和背景区域,目标区域为所需要的创面区域,背景区域为除了创面区域以外的区域,两种区域以不同的像素值(通常为白色和黑色)表示。
设置自适应的边缘点阈值,过滤目标区域中的弱边缘像素点,弱边缘像素点不参与后续的创面计算,对目标区域的像素点进行计数,可以有效提高创面计算的准确度。
根据创面长、宽像素值、目标区域像素个数与固定比例尺,计算得出创面的真实尺寸;将创面的长、宽像素值乘以比例尺比例得到创面的真实长度和真实宽度;将目标区域的像素点数目乘以比例尺比例得到创面的真实面积。
为了保证在后续的处理过程中,本发明通过拍摄标尺图像并利用距离判断与目标检测技术来确定标尺的比例,可以准确地对比和匹配创面图像与标尺图像,从而确保测量的准确性。
本发明通过采集创面图像并对创面图像进行预处理,是为了去除创面图像中的杂乱信息,提高后续处理的准确性和稳定性。
本发明采用了基于候选框置信度逐步衰减的改进Faster-RCNN算法来对处理后的创面图像进行特征提取和定位。改进的Faster-RCNN算法可以在大量的候选框中,根据置信度逐步排除不合适的框,从而快速、准确地提取出创面的特征,提高了处理的效率和准确度。
本发明将提取出的创面特征与标尺比例相结合,进行创面尺寸的计算,可以提供创面的精确大小,有助于提高创面治疗的效率和效果。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。
Claims (10)
1.一种基于目标检测的创面自动测量方法,其特征在于,包括如下步骤:
拍摄标尺图像并通过距离判断与目标检测技术固定标尺比例;
采集烧伤伤口的创面图像并对创面图像进行预处理;
采用基于候选框置信度逐步衰减的改进Faster-RCNN算法,对处理后的创面图像进行特征提取和定位;
根据特征提取定位结果及标尺比例进行创面尺寸计算。
2.根据权利要求1所述的一种基于目标检测的创面自动测量方法,其特征在于,所述拍摄标尺图像并通过距离判断与目标检测技术固定标尺比例,包括:
使用拍摄设备拍摄标尺图像,通过距离判断技术判断拍摄设备与标尺之间的垂直距离是否满足设定距离,满足则对标尺图像进行目标检测,不满足则重新拍摄;
对标尺图像进行目标检测,返回标尺的四个坐标值,获取标尺区域的长、宽像素值;
根据标尺的实际长度、实际宽度、长度像素值和宽度像素值计算标尺比例。
3.根据权利要求1所述的一种基于目标检测的创面自动测量方法,其特征在于,所述对创面图像进行预处理,包括:
对创面图像进行颜色空间转换和滤波处理,去除创面图像的噪声;
对创面图像进行对比度增强、图像去雾和数据增强处理。
4.根据权利要求3所述的一种基于目标检测的创面自动测量方法,其特征在于,所述对创面图像进行数据增强处理,包括:
从采集的烧伤伤口的创面图像中筛选出清晰的创面图像;
将创面图像中无效的背景区域剪切去除,保留伤口创面区域;
标记伤口创面区域,生成和原始创面图像具有相同尺寸的掩模图像;
对创面图像进行归一化和标准化处理,得到标准化创面图像;
对创面图像和对应的掩模图像同时进行相同角度的旋转操作;
对创面图像和对应的掩模图像同时进行水平翻转或镜像翻转;
对创面图像和对应的掩模图像同时进行水平平移或垂直平移,平移范围在0%至10%的图像宽度和图像高度之间;
对创面图像和对应的掩模图像同时进行放大图像或缩小图像缩放处理,缩放比例范围在0%至10%之间。
5.根据权利要求1所述的一种基于目标检测的创面自动测量方法,其特征在于,所述采用基于候选框置信度逐步衰减的改进Faster-RCNN算法,对处理后的创面图像进行特征提取和定位,包括:
使用ResNet-50网络模型对输入的创面图像进行特征提取;
使用RPN网络在提取的每个特征图上生成一组候选区域并进行特征拼接;
将拼接后的特征图采用ROI池化进行裁剪,输入全连接层进行边界框回归,对创面位置进行定位。
6.根据权利要求5所述的一种基于目标检测的创面自动测量方法,其特征在于,所述RPN网络采用3×3和1×1的两层卷积层替代原有的一层3×3的卷积层。
7.根据权利要求1所述的一种基于目标检测的创面自动测量方法,其特征在于,所述根据特征提取定位结果及标尺比例进行创面尺寸计算,包括:
根据创面图像定位结果获取创面区域的坐标值,计算创面对应的长、宽像素值;
对创面图像进行二值化处理,将创面图像分割为目标区域和背景区域;
设置自适应的边缘点阈值,过滤目标区域中的弱边缘像素点,对目标区域的像素点进行计数;
根据创面长、宽像素值、目标区域像素个数与固定比例尺,计算得出创面的真实尺寸。
8.根据权利要求7所述的一种基于目标检测的创面自动测量方法,其特征在于,所述根据创面长、宽像素值、目标区域像素个数与固定比例尺,计算得出创面的真实尺寸,包括:
将创面的长、宽像素值乘以比例尺比例得到创面的真实长度和真实宽度;
将目标区域的像素点数目乘以比例尺比例得到创面的真实面积。
9.根据权利要求1-5任意一项所述的一种基于目标检测的创面自动测量方法,其特征在于,采集烧伤伤口的创面图像时创面与图像拍摄设备之间的距离,和拍摄标尺图像时标尺与拍摄设备之间的垂直距离相同。
10.一种基于目标检测的创面自动测量系统,其特征在于,包括:
标尺固定模块,用于拍摄标尺图像并通过距离判断与目标检测技术固定标尺比例;
创面图像获取模块,用于采集烧伤伤口的创面图像并对创面图像进行预处理;
特征提取模块,用于采用基于候选框置信度逐步衰减的改进Faster-RCNN算法,对处理后的创面图像进行特征提取和定位;
创面计算模块,用于根据特征提取定位结果及标尺比例进行创面尺寸计算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311763145.2A CN117442190B (zh) | 2023-12-21 | 2023-12-21 | 一种基于目标检测的创面自动测量方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311763145.2A CN117442190B (zh) | 2023-12-21 | 2023-12-21 | 一种基于目标检测的创面自动测量方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117442190A true CN117442190A (zh) | 2024-01-26 |
CN117442190B CN117442190B (zh) | 2024-04-02 |
Family
ID=89580172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311763145.2A Active CN117442190B (zh) | 2023-12-21 | 2023-12-21 | 一种基于目标检测的创面自动测量方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117442190B (zh) |
Citations (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060293847A1 (en) * | 2005-06-22 | 2006-12-28 | Marriott Graham H | Interactive scaling feature having scalability in three dimensional space |
WO2007133555A2 (en) * | 2006-05-12 | 2007-11-22 | Kci Licensing, Inc. | Systems and methods for wound area management |
US20080088704A1 (en) * | 2006-10-13 | 2008-04-17 | Martin Edmund Wendelken | Method of making digital planimetry measurements on digital photographs |
US20090213213A1 (en) * | 2005-10-14 | 2009-08-27 | Applied Research Associates New Zealand Limited | Method of Monitoring a Surface Feature and Apparatus Therefor |
US20110262014A1 (en) * | 2010-04-27 | 2011-10-27 | Solar System Beauty Corporation | Abnormal skin area calculating system and calculating method thereof |
US20130331708A1 (en) * | 2009-10-27 | 2013-12-12 | N.E. Solutionz, Llc | Diagnostic imaging system for skin and affliction assessment |
US20150150457A1 (en) * | 2013-12-03 | 2015-06-04 | Children's National Medical Center | Method and system for wound assessment and management |
WO2015188460A1 (zh) * | 2014-06-13 | 2015-12-17 | 中兴通讯股份有限公司 | 一种测量面积的装置和方法 |
US20160027172A1 (en) * | 2012-04-04 | 2016-01-28 | James G. Spahn | Method of Monitoring the Status of a Wound |
US20160100790A1 (en) * | 2014-10-08 | 2016-04-14 | Revealix, Inc. | Automated systems and methods for skin assessment and early detection of a latent pathogenic bio-signal anomaly |
WO2016069463A2 (en) * | 2014-10-29 | 2016-05-06 | Tissue Analystics, Inc. | A system and method for the analysis and transmission of data, images and video relating to mammalian skin damage conditions |
DE202016004586U1 (de) * | 2016-07-26 | 2016-08-29 | Norbert Neubauer | Wundmessschablone für die Wunddokumentation |
JP2018072115A (ja) * | 2016-10-27 | 2018-05-10 | 株式会社リコー | 線幅測定方法、線幅測定プログラム、記憶媒体及び情報処理装置 |
US20180132726A1 (en) * | 2016-11-17 | 2018-05-17 | Aranz Healthcare Limited | Anatomical surface assessment methods, devices and systems |
CN109544565A (zh) * | 2018-11-23 | 2019-03-29 | 哈尔滨商业大学 | 一种基于dc-gmrf水平集的创面图像分割方法 |
CN109685739A (zh) * | 2018-12-25 | 2019-04-26 | 中国科学院苏州生物医学工程技术研究所 | 伤口创面图像处理方法及采用该方法的伤口创面治疗系统 |
CN109758122A (zh) * | 2019-03-04 | 2019-05-17 | 上海长海医院 | 一种基于皮肤镜的烧伤创面检测和记录系统 |
EP3506297A1 (en) * | 2017-12-28 | 2019-07-03 | Ethicon LLC | Characterization of tissue irregularities through the use of mono-chromatic light refractivity |
US20190374155A1 (en) * | 2017-08-04 | 2019-12-12 | CapsoVision, Inc. | Method and Apparatus for Estimating Area or Volume of Object of Interest from Gastrointestinal Images |
WO2020020472A1 (en) * | 2018-07-24 | 2020-01-30 | Fundación Centro Tecnoloxico De Telecomunicacións De Galicia | A computer-implemented method and system for detecting small objects on an image using convolutional neural networks |
US10643085B1 (en) * | 2019-01-30 | 2020-05-05 | StradVision, Inc. | Method and device for estimating height and weight of passengers using body part length and face information based on human's status recognition |
CN112634291A (zh) * | 2020-12-31 | 2021-04-09 | 杭州电子科技大学 | 一种基于神经网络的烧伤创面区域自动分割方法 |
CN113192026A (zh) * | 2021-04-28 | 2021-07-30 | 北京林业大学 | 一种基于可见光图像的核桃成熟度检测与预测方法 |
CN113837254A (zh) * | 2021-09-15 | 2021-12-24 | 中国人民解放军空军工程大学 | 一种计算机视觉中图像目标的检测方法 |
WO2022155416A1 (en) * | 2021-01-14 | 2022-07-21 | The Regents Of The University Of California | Point of care ultrasound as a tool to assess wound size and tissue regeneration after skin grafting |
CN115393348A (zh) * | 2022-10-25 | 2022-11-25 | 绵阳富临医院有限公司 | 一种基于图像识别的烧伤检测方法、系统及存储介质 |
US20230058754A1 (en) * | 2021-08-18 | 2023-02-23 | Wistron Corp. | Portable electronic device and wound-size measuring method using the same |
CN117224113A (zh) * | 2023-08-21 | 2023-12-15 | 佛山市妇幼保健院 | 一种创面面积计算方法、装置、系统及存储介质 |
-
2023
- 2023-12-21 CN CN202311763145.2A patent/CN117442190B/zh active Active
Patent Citations (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060293847A1 (en) * | 2005-06-22 | 2006-12-28 | Marriott Graham H | Interactive scaling feature having scalability in three dimensional space |
US20090213213A1 (en) * | 2005-10-14 | 2009-08-27 | Applied Research Associates New Zealand Limited | Method of Monitoring a Surface Feature and Apparatus Therefor |
WO2007133555A2 (en) * | 2006-05-12 | 2007-11-22 | Kci Licensing, Inc. | Systems and methods for wound area management |
US20080088704A1 (en) * | 2006-10-13 | 2008-04-17 | Martin Edmund Wendelken | Method of making digital planimetry measurements on digital photographs |
US20130331708A1 (en) * | 2009-10-27 | 2013-12-12 | N.E. Solutionz, Llc | Diagnostic imaging system for skin and affliction assessment |
US20110262014A1 (en) * | 2010-04-27 | 2011-10-27 | Solar System Beauty Corporation | Abnormal skin area calculating system and calculating method thereof |
US20160027172A1 (en) * | 2012-04-04 | 2016-01-28 | James G. Spahn | Method of Monitoring the Status of a Wound |
US20150150457A1 (en) * | 2013-12-03 | 2015-06-04 | Children's National Medical Center | Method and system for wound assessment and management |
WO2015188460A1 (zh) * | 2014-06-13 | 2015-12-17 | 中兴通讯股份有限公司 | 一种测量面积的装置和方法 |
US20160100790A1 (en) * | 2014-10-08 | 2016-04-14 | Revealix, Inc. | Automated systems and methods for skin assessment and early detection of a latent pathogenic bio-signal anomaly |
WO2016069463A2 (en) * | 2014-10-29 | 2016-05-06 | Tissue Analystics, Inc. | A system and method for the analysis and transmission of data, images and video relating to mammalian skin damage conditions |
DE202016004586U1 (de) * | 2016-07-26 | 2016-08-29 | Norbert Neubauer | Wundmessschablone für die Wunddokumentation |
JP2018072115A (ja) * | 2016-10-27 | 2018-05-10 | 株式会社リコー | 線幅測定方法、線幅測定プログラム、記憶媒体及び情報処理装置 |
US20180132726A1 (en) * | 2016-11-17 | 2018-05-17 | Aranz Healthcare Limited | Anatomical surface assessment methods, devices and systems |
US20190374155A1 (en) * | 2017-08-04 | 2019-12-12 | CapsoVision, Inc. | Method and Apparatus for Estimating Area or Volume of Object of Interest from Gastrointestinal Images |
EP3506297A1 (en) * | 2017-12-28 | 2019-07-03 | Ethicon LLC | Characterization of tissue irregularities through the use of mono-chromatic light refractivity |
WO2020020472A1 (en) * | 2018-07-24 | 2020-01-30 | Fundación Centro Tecnoloxico De Telecomunicacións De Galicia | A computer-implemented method and system for detecting small objects on an image using convolutional neural networks |
CN109544565A (zh) * | 2018-11-23 | 2019-03-29 | 哈尔滨商业大学 | 一种基于dc-gmrf水平集的创面图像分割方法 |
CN109685739A (zh) * | 2018-12-25 | 2019-04-26 | 中国科学院苏州生物医学工程技术研究所 | 伤口创面图像处理方法及采用该方法的伤口创面治疗系统 |
US10643085B1 (en) * | 2019-01-30 | 2020-05-05 | StradVision, Inc. | Method and device for estimating height and weight of passengers using body part length and face information based on human's status recognition |
CN111507174A (zh) * | 2019-01-30 | 2020-08-07 | 斯特拉德视觉公司 | 预测乘客的身高及体重的方法及装置 |
CN109758122A (zh) * | 2019-03-04 | 2019-05-17 | 上海长海医院 | 一种基于皮肤镜的烧伤创面检测和记录系统 |
CN112634291A (zh) * | 2020-12-31 | 2021-04-09 | 杭州电子科技大学 | 一种基于神经网络的烧伤创面区域自动分割方法 |
WO2022155416A1 (en) * | 2021-01-14 | 2022-07-21 | The Regents Of The University Of California | Point of care ultrasound as a tool to assess wound size and tissue regeneration after skin grafting |
CN113192026A (zh) * | 2021-04-28 | 2021-07-30 | 北京林业大学 | 一种基于可见光图像的核桃成熟度检测与预测方法 |
US20230058754A1 (en) * | 2021-08-18 | 2023-02-23 | Wistron Corp. | Portable electronic device and wound-size measuring method using the same |
CN113837254A (zh) * | 2021-09-15 | 2021-12-24 | 中国人民解放军空军工程大学 | 一种计算机视觉中图像目标的检测方法 |
CN115393348A (zh) * | 2022-10-25 | 2022-11-25 | 绵阳富临医院有限公司 | 一种基于图像识别的烧伤检测方法、系统及存储介质 |
CN117224113A (zh) * | 2023-08-21 | 2023-12-15 | 佛山市妇幼保健院 | 一种创面面积计算方法、装置、系统及存储介质 |
Non-Patent Citations (1)
Title |
---|
刘敏;杨晔琴;翁成杰;何春雷;柯紫薇;管祥云;卢中秋;: "Image J软件在中心静脉通路装置相关皮肤损伤面积测量中的应用", 护士进修杂志, no. 10, 22 May 2020 (2020-05-22), pages 96 - 99 * |
Also Published As
Publication number | Publication date |
---|---|
CN117442190B (zh) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111161290B (zh) | 一种图像分割模型的构建方法、图像分割方法及系统 | |
CN109191457B (zh) | 一种病理图像质量有效性识别方法 | |
CN105513077B (zh) | 一种用于糖尿病性视网膜病变筛查的系统 | |
CN108765392B (zh) | 一种基于滑动窗口的消化道内镜病变检测和识别方法 | |
CN108257126B (zh) | 三维视网膜oct图像的血管检测和配准方法、设备及应用 | |
CN104299242B (zh) | 基于ngc‑acm的荧光造影眼底图像提取方法 | |
CN114627067A (zh) | 一种基于图像处理的伤口面积测量及辅助诊疗方法 | |
JP2022546344A (ja) | 脳卒中特徴取得のための画像処理 | |
CN114092450A (zh) | 一种基于胃镜检查视频的实时图像分割方法、系统、装置 | |
CN109816665B (zh) | 一种光学相干断层扫描图像的快速分割方法及装置 | |
CN114565608A (zh) | 一种内窥镜Ai图像识别方法及系统 | |
Chen et al. | Detection of various dental conditions on dental panoramic radiography using Faster R-CNN | |
TWI399194B (zh) | 基於細胞自動機之半自動膝蓋mri軟骨影像分割方法 | |
CN117442190B (zh) | 一种基于目标检测的创面自动测量方法及系统 | |
CN111862118B (zh) | 压疮分期的训练方法、分期方法及分期系统 | |
CN116309647B (zh) | 颅脑病灶图像分割模型构建方法、图像分割方法及设备 | |
CN112686897A (zh) | 一种基于弱监督的长短轴辅助肠胃淋巴结像素标注的方法 | |
CN115721878A (zh) | 一种图像识别引导的放射治疗摆位装置及方法 | |
CN114298986A (zh) | 一种基于多视点无序x光片的胸腔骨骼三维构建方法及系统 | |
CN114155234A (zh) | 病灶肺段位置的识别方法、装置、存储介质及电子设备 | |
CN111462067B (zh) | 图像分割方法及装置 | |
EP2535001A1 (en) | Method, a system and a computer program product for registration and identification of diagnostic images | |
WO2013150419A1 (en) | Quality-check during medical imaging procedure | |
CN114140399A (zh) | 用于脑肿瘤术中定性和边界定位的oct图像处理装置 | |
CN109712124B (zh) | 超声图像的标记去除方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |