CN114882098A - 生物体的特定区域的面积测量方法、系统和可读存储介质 - Google Patents
生物体的特定区域的面积测量方法、系统和可读存储介质 Download PDFInfo
- Publication number
- CN114882098A CN114882098A CN202111625020.4A CN202111625020A CN114882098A CN 114882098 A CN114882098 A CN 114882098A CN 202111625020 A CN202111625020 A CN 202111625020A CN 114882098 A CN114882098 A CN 114882098A
- Authority
- CN
- China
- Prior art keywords
- area
- image
- measured
- specific region
- marker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1072—Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1076—Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions inside body cavities, e.g. using catheters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/445—Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4538—Evaluating a particular part of the muscoloskeletal system or a particular medical condition
- A61B5/4542—Evaluating the mouth, e.g. the jaw
- A61B5/4552—Evaluating soft tissue within the mouth, e.g. gums or tongue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Evolutionary Computation (AREA)
- Dentistry (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Software Systems (AREA)
- Fuzzy Systems (AREA)
- Computational Linguistics (AREA)
- Physical Education & Sports Medicine (AREA)
- Computing Systems (AREA)
- Rheumatology (AREA)
- Dermatology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
Abstract
本申请涉及生物和医学研究技术领域,特别地涉及生物体的特定区域的面积测量方法、系统和可读存储介质,其中,方法包括如下步骤:在生物体的待测量部位上设置给定面积的标记物,待测量部位为生物体的黏膜或皮肤;获取待测量部位的图像;获取在图像上绘制的所需测量的特定区域的轮廓,以及标记物的轮廓;根据所获取的轮廓和标记物的面积,换算出特定区域的面积。本申请实现了针对生物体特定区域的面积测量。本申请技术方案简单,成本低廉,具有良好的可实现性。
Description
技术领域
本申请涉及生物和医学研究技术领域,特别地涉及生物体的特定区域的面积测量方法、系统和可读存储介质。
背景技术
生物体的皮肤、黏膜在一段时间内,特定区域的面积可能发生变化。例如,皮肤病的病损面积可能随着病情的进展而扩大亦或是随着病情的缓解而缩小。再如,口腔内黏膜疾病的病损面积可能随着病情的进展而扩大亦或是随着病情的缓解而缩小。
在现有技术中,对特定区域的面积的测量、分析往往是时基于医生或研究人员通过目视的方式,进行大致的估算。目前尚不存在精确定量分析的方法。
发明内容
为了解决或至少部分地解决上述技术问题,本申请提供了一种生物体的特定区域的面积测量方法,包括:
在所述生物体的待测量部位上设置给定面积的标记物,所述待测量部位为生物体的黏膜或皮肤;
获取所述待测量部位的图像;
获取在所述图像上绘制的所需测量的特定区域的轮廓,以及所述标记物的轮廓;
根据所获取的轮廓和所述标记物的面积,换算出所述特定区域的面积。
本申请提供的生物体的特定区域的面积测量方法,实现了对生物体特定区域的面积测量,可应用于对生物体的皮肤、黏膜的病变过程,以及对应的治疗效果的评估和研究。本申请技术方案简单,成本低廉,具有良好的可实现性。
可选地,所述特定区域为黏膜疾病的病损区域;所述标记物为灰色、黑色或白色的食品级薄膜。
可选地,所述标记物至少为两个;
在所述获取所述待测量部位的图像的步骤中,获取所述图像的深度信息,所述深度信息包括所述图像上各个测量点各自的深度值;
在所述获取在所述图像上绘制的所需测量的特定区域的轮廓的步骤中,根据所述深度信息,将所述轮廓划分为与所述标记物相对应的多个子轮廓;
在所述换算出所述特定区域的面积的步骤中,根据所获取的各个子轮廓和所对应的标记物的面积,换算各个子轮廓的面积并加总,得出所述特定区域的面积。
以标记物为标定来将多个子轮廓拆分后,根据不同的深度来对应标记物,可以更精确地测量出每个子轮廓所对应的实际面积的大小。通过本申请实施例,可以避免出现因为“深度”的不同,而导致特定区域的不同子区域在二维照片上的显示面积的大小不同的问题,从而进一步地保证了测量结果的准确性。
可选地,所述标记物与所述子轮廓的对应关系通过如下步骤建立:
在所述图像的深度信息中,提取各标记物的深度参数;所述深度参数为所述标记物上各个测量点的平均深度值、中位数深度值或是众数深度值中的任意一项;
在所述各个标记物中,取具有相近的深度参数的两个标记物,获取所述两个标记物的深度参数的平均值;
将所述轮廓中各个测量点的深度值以所述两个标记物的深度参数的平均值为界进行划分,形成与各标记物相对应的子轮廓。
在本领域中,由于皮肤或是黏膜上各个点的深度值可能存在极端值,而靠近中位数的附近容易出现重复数据,因此采用众数深度值,能够更好地实现子轮廓的划分。
可选地,所述获取在所述图像上绘制所需测量的特定区域的轮廓,包括:
将所述待测量部位的图像输入人工智能图像识别模型,以供其自动识别并绘制出所述特定区域的轮廓。
可选地,所述人工智能图像识别模型采用如下步骤获得:
获取多份同一类生物体在同一待测量部位的原始图像;
在各个所述原始图像上绘制所需测量的特定区域,从而形成多个训练图像,利用这些训练图像构建针对所述特定区域的训练集;
通过所述训练集对深度学习模型进行训练,得到所述人工智能图像识别模型。
可选地,所述获取在所述图像上绘制所需测量的特定区域的轮廓,还包括:
获取经人工核验或修正之后的所述特定区域的轮廓。
可选地,所述人工智能图像识别模型采用如下步骤获得:
获取多份同一类生物体在同一待测量部位的原始图像;
在各个所述原始图像上绘制所需测量的特定区域,从而形成多个训练图像,利用这些训练图像构建针对所述特定区域的训练集;
通过所述训练集对深度学习模型进行训练,得到所述人工智能图像识别模型;
所述获取经人工核验或修正之后的所述特定区域的轮廓的步骤之后,还包括:将经人工核验或修正之后的图像加入所述训练集。
本申请还提出了一种计算机可读存储介质,存储有计算机程序,计算机程序在被处理器执行时能够实现如上述任意一项的生物体的特定区域的面积测量方法的步骤。
本申请还提出了一种生物体的特定区域的面积测量系统,包括:
标记物,所述标记物具有给定的面积,所述标记物设置于生物体的待测量部位,所述待测量部位为生物体的黏膜或皮肤;
图像获取装置,用于获取所述待测量部位的图像;
图像处理装置,用于获取在所述图像上绘制所需测量的特定区域的轮廓,以及所述标记物的轮廓,并用于根据所获取的轮廓和所述标记物的面积,换算出所述特定区域的面积。
本申请的技术方案具有良好的运用前景,特别适用于医疗机构在临床上的大批量使用。由于医疗机构不断地存在反馈数据,因此能够迅速高效地建立高度智能化的人工智能图像识别模型,辅助医者以高效迅速的方式完成对生物体的特定区域的面积测量。
附图说明
为了更清楚地说明本申请的实施例,下面将对相关的附图做出简单介绍。可以理解,下面描述中的附图仅用于示意本申请的一些实施例,本领域普通技术人员还可以根据这些附图获得本文中未提及的许多其他的技术特征和连接关系等。
图1是本申请的一个实施例提供的生物体的特定区域的面积测量方法的流程示意图。
图2是本申请的一个实施例提供的口腔内的黏膜疾病患者的口部照片。
图3是本申请的一个实施例提供的口腔内的黏膜疾病患者的口部照片,其口内黏贴了一个标记物。
图4是本申请的一个实施例提供的口腔内的黏膜疾病患者的口部照片,其口内黏贴了一个标记物,并绘制了特定区域的轮廓。
图5是本申请的一个实施例提供的生物体的特定区域的面积测量系统的模块框图。
图6是本申请的一个实施例提供的口腔内的黏膜疾病患者的口部照片,其口内黏贴了两个标记物,并绘制了两个特定区域的轮廓。
图7是本申请中一个实施例提供的一种人工智能图像识别模型网络的结构示意图。
图8是本申请中一个实施例提供的一种人工智能图像识别模型网络中移窗变形器层的结构示意图。
附图标记说明:
1、特定区域;2、标记物。
具体实施方式
如前文所述,在现有技术中,对特定区域1的面积的测量、分析往往是时基于医生或研究人员通过目视的方式,定性地进行分析的。目前尚不存在定量分析的方法。
本申请发明人认为,出现这一现象的主要原因在于,人体的皮肤和黏膜表面是不平整的,通常很难对一个不平整的活体表面作出面积上的测量。
有鉴于此,在本申请的实施例中,提出了一种生物体的特定区域1的面积测量方法、系统以及存储介质。接下来结合附图,对本申请具体实施例进行详细说明。
本申请的一个实施例提供了一种生物体的特定区域的面积测量方法。参阅图1所示,这一面积测量方法包括以下步骤:
S1、参见图3所示,在生物体的待测量部位上设置给定面积的标记物2,待测量部位主要可以为生物体的黏膜或皮肤。
随着科技的进步,不断有新的药物被研发出来,并应用于临床之中。在现有技术中,对黏膜或皮肤病损区域治疗的效果,往往通过目测治疗前后该病损区面积大小,进行大致的比较,以此来评估该药物的效果。但是这种评估效果主观性太强,数据无法量化,难以应用在药物研究和临床试验之中。
参见图2所示,在本申请实施例中,以口腔内的黏膜病为为例进行说明。如图2所示,在人体口腔内黏膜出现病症时,其皮肤的对应区域,也就是病损区域会发白,具有与其他健康区域所不同的可视化的差异。但由于这一区域是不平整的,在拍摄成二维的平面照片之后,因摄像装置与患者头部的距离、张口角度等因素的限制,难以获得对应面积的大小。
而本申请借助于标记物2的参照效果,能够对对应的面积起到标定的作用。考虑到需要将标记物2置于黏膜或者皮肤的表面,此时通常情况下所选用的标记物2应尽可能对生物体无毒无害。因此优选地,标记物2可以为食品级薄膜。其中,采用薄膜可以尽可能保证标记物2能够良好地贴合于对应的部位表面,从而使得薄膜随着对应部位的表面的变形而发生形变,如此一来,标记物2在平面照片上显示出的面积将与特定区域1本身所显示出的面积产生一致性。
而采用“食品级”的标记物2则能够保证标记物2无毒无害,具有可靠性。可采用食品级薄膜的种类有很多,例如TPU聚醚、PE塑料膜等等,成本低廉且十分容易获得,鉴于篇幅,不再具体说明。可选地,为了与其他区域形成良好的区分度,标记物2可以是灰色、黑色或白色的食品级薄膜。在本申请的附图中以黑色薄膜进行了示例。
值得一提的是,显然,本申请的技术方案也可以应用在人类以外的其他动物之中。例如,可以借助本申请的技术方案来评估猫藓、丘疹性荨麻疹等皮肤病在猫、狗或是其他宠物身上的治疗效果等等。
S2、获取待测量部位的图像。
获取待测量部位的图像方式很多种,例如本申请实施例可以采用摄像头拍照的方式。当人张开嘴时,使用摄像头可以拍摄获得口腔内部的图像。对体表的图像来说,拍摄会更加简单。对于普通摄像头难以触及的部位,也可以借助于内窥镜来获取图像。可以理解的是,获取待测量部位的图像,应当尽可能同时包含特定区域1以及标记物2,这样可以保证测量面积的准确性。
S3、参见图4所示,获取在图像上绘制的所需测量的特定区域1的轮廓,以及标记物2的轮廓。具体地,这一轮廓可以借助于人工的方式在图像上进行边缘勾勒,也可以利用图像识别软件自动生成。
S4、根据所获取的轮廓和标记物2的面积,换算出特定区域1的面积。
其中,换算面积的方式有若干中。典型地,可以通过特定区域1与标记物2之间的比例关系,换算出特定区域1的实际面积。即,设特定区域1的实际面积为x,图上轮廓面积为a,标记物2的实际面积为y,图上轮廓面积为b,则有:
因为标记物2的实际面积是已知的,特定区域1和标记物2的图上轮廓面积的比例是可以通过对图像分析来得到,因此就能够根据上述公式换算出特定区域1的实际面积的大小。
为了更好地实现上述方法,本申请实施例还提供了一种生物体的特定区域的面积测量系统,参见图5所示,包括:
标记物2,标记物2具有给定的面积,标记物2设置于生物体的待测量部位,待测量部位为生物体的黏膜或皮肤。值得一提的是,本申请的系统中可以预留多个规格的标记物2,不同的标记物2适用于不同大小的特定区域1,从而可以取得更好的测量精确度。
图像获取装置,用于获取待测量部位的图像。本申请所选用的图像获取装置可以是各种摄像头。
图像处理装置,用于获取在图像上绘制所需测量的特定区域1的轮廓,以及标记物2的轮廓,并用于根据所获取的轮廓和标记物2的面积,换算出特定区域1的面积。本申请的图像处理装置可以是预装有软件的计算机。
为了方便进一步理解本申请的技术方案,下面结合应用场景进行详细说明:
1、为评估一药物对口腔内黏膜疾病的治疗效果,将一标记物2放置于患有口腔内的黏膜疾病的若干人的口腔内对应黏膜疾病的特定区域1,也就是其病损区域附近;
2、拍照获取测量部位的图片,并存储;
3、绘制特定区域1的轮廓以及标记物2轮廓,获得二者的图上轮廓面积的比例。根据标记物2的面积即可推算出特定区域1的实际面积,记为面积S1。
4、将这些人员分为药物组和安慰剂组,分别给药和给予安慰剂,持续一段时间。
5、在该时间周期内,或是经过一定的疗程之后,采用同样的方法获得特定区域1的实际面积,记为面积S2。通过对比两个组内人员的S1至S2的大小的变化,可以对药物的治疗效果得到客观的评估。
例如,相比于安慰剂组,当给药组的面积S1远大于面积S2时,说明该药物具有很好的疗效。而,如果相比于安慰剂组,其面积S1至S2的减小幅度没有明显的区别时,则说明该药物没有取得足够的疗效。
需要说明的是,上述方案只是示例,本申请实施例并不局限于评估药物的治疗效果,还可以用来研究皮肤在不同年龄段的老化机理、外伤的自我修复效率,运动对黏膜和皮肤的影响等等。本申请还能够用于治疗方式疗效的比较,在皮肤和黏膜领域具有广泛的应用场景。
例如,不仅限于口腔黏膜,对外阴黏膜的相关疾病的治疗评估也同样有效。对于皮肤,除了老化之外,对疤痕的治疗的阶段性的疗效判断也很有助益。
本申请提供的生物体的特定区域1的面积测量方法,实现了对生物体特定区域1的面积测量,可应用于对生物体的皮肤、黏膜的病变过程,以及对应的药物疗效的评估和研究。本申请技术方案简单,成本低廉,具有良好的可实现性。
本申请的发明人发现,在二维图像通常都符合透视原则,也就是近大远小原则。在获取图像时,距离图像获取装置近的部位相比于远的部位而言,会显得更大一些,表现在二维图像上来说就是轮廓面积的增大。为此,标记物2通常建议设置在待测量的特定区域1的旁边。此外,定义特定区域1和摄像头的距离为特定区域1在二维图像上的“深度”,标记物2还可以设置的区域是在与特定区域1处于相同或是相近深度的区域。
然而,当特定区域1本身在深度方向上的跨度较大,或是同一个生物体对象具有多个处于不同深度的特定区域1时,标记物2对特定区域1的标记将存在困难。
有鉴于此,本申请另一实施例提供了一种生物体的特定区域1的面积测量方法。参见图6所示,标记物1的数量至少为两个,分别放置于特定区域1附近的表面。
据此,在获取待测量部位的图像的步骤S2中,还包括获取图像的深度信息,深度信息包括图像上各个测量点各自的深度值。
也就是说,在生物体的特定区域1的面积测量系统中,图像获取装置除了普通的摄像头之外,还包括深度摄像头,从而在同一张图像中对各个区域的深度作出标定。
在获取在图像上绘制的所需测量的特定区域1的轮廓的步骤S3中,根据深度信息,将轮廓划分为与标记物2相对应的多个子轮廓。
在换算出特定区域1的面积的步骤中,根据所获取的各个子轮廓和所对应的标记物2的面积,换算各个子轮廓的面积并加总,得出特定区域1的面积。
显然,将多个子轮廓拆分后,根据不同的深度来对应标记物2,可以更精确地测量出每个子轮廓所对应的实际面积的大小。
为了方便理解本申请实施例,仍旧以口腔内的黏膜疾病的病损区域的测量为例进行说明:
1、参见图6所示,口腔内的特定区域1,也就是病损区域包括A区和B区。相对地,A区距离图像获取装置较远,B区距离图像获取装置较近。
2、将两个标记物2分别置于口腔病损区域的A区和B区所对应的同等深度的区域。采用前述的测量方法,可以针对A区和B区分别获得面积测量结果。
3、将所测量得到的面积加总,可以得到病损区域的总面积。当然,在科学分析和临床试验的过程中,也可以针对两个子区域的数据单独分析对比。
通过本申请实施例,可以避免出现因为“深度”的不同,而导致特定区域1的不同子区域在二维照片上的显示面积的大小不同的问题,从而进一步地保证了测量结果的准确性。
在上述步骤S3的针对深度信息的具体处理过程中,还可以包括如下子步骤:
S31、在图像的深度信息中,提取各标记物2的深度参数。
深度参数可以为标记物2上各个测量点的平均深度值、中位数深度值或是众数深度值中的任意一项。
S32、在各个标记物2中,取具有相近的深度参数的两个标记物2,获取两个标记物2的深度参数的平均值。
S33、将轮廓中各个测量点的深度值以两个标记物2的深度参数的平均值为界进行划分,形成与各标记物2相对应的子轮廓。
通过采用平均深度值、中位数深度值或是众数深度值中的一项作为深度参数,可以确保标记的深度参数具有更好的指向意义。
易于理解的是,平均数、众数和中位数都属于统计量。它们在统计学中有着广泛的应用。本申请的发明人发现,在本领域中,由于皮肤或是黏膜上各个点的深度值可能存在极端值,而靠近中位数的附近容易出现重复数据,因此采用众数深度值,能够更好地实现子轮廓的划分。
为方便理解本申请的技术方案,接下来将对子轮廓的划分作出详细的说明:
1、首先,根据对生物体的待测量部位的粗略观察,可以明确其大致上采用几个标记物2,划分几个子区域比较妥当。易于理解的是,当待测量部位有两个特定区域1,且这两个特定区域1并不在同一深度平面附近时,就可以采用两个标记物2进行标记,以此类推。一个典型的例子是,患者的口腔内门齿附近和智齿附近分别存在口腔的黏膜病损区域,而这两个区域在拍摄成照片时,显然无法处在同一深度平面附近。此时,可以将一个标记物2贴在门牙附近,另一个贴在支持附近。
2、对特定区域1采用图像获取装置获取图像,所获取的图像还包括借助于深度摄像机获取的二维图像的深度信息,特别是图像上所绘制的特定区域1的轮廓范围内各个点的深度信息,以及标记物2的深度信息。
3、根据深度信息,将轮廓划分与标记物2相对应的多个子轮廓。同样以前述的例子为例,由于位于门牙附近的轮廓,无论是平均深度值、中位数深度值或是众数深度值都与位于智齿附近的轮廓有显著的区别,因此容易在二维图像上将二者区分出来,并各自和所贴上的标记物2相对应。
4、接下来,可以采用前述的方法分别对两个子轮廓进行面积测量,然后可以对子轮廓的面积加总,或是各自做定量分析。
另外,值得一提的是,在上述的例子中,所取的门牙、智齿附近的病损区域是跨度较大的两个不连续的病损区域。但是,对于连续的病损区域而言,如果深度跨度也大到了影响测量精确度的范围,那么也同样适用于上述的方案。
对于黏膜或者皮肤的病损区域,需要测量的病损区域通常并非简单的平面,表现在二维照片上的轮廓往往毫无规律。在图像上以人工的方式绘制病损区域轮廓的过程耗费的工作量较大,较为费力。对于其他一些需要绘制的特定区域,例如青春痘、胎记、疤痕等的覆盖区域也是同理。
有鉴于此,本申请的另一实施例还提供了一种生物体的特定区域1的面积测量方法,其改进之处在于:
在步骤S3中,获取在所述图像上绘制所需测量的特定区域1的轮廓,包括:将所述待测量部位的图像输入人工智能图像识别模型,以供其自动识别并绘制出所述特定区域1的轮廓。
相比于人工勾勒轮廓而言,采用机器学习的方式智能化地对特定区域1的边缘轮廓进行勾勒,可以大幅度地减轻操作者的工作量。特别地,当与深度信息彼此结合时,可以智能化地直接计算出连续的特定区域1中的多个子区域,并实现各个相邻子区域的自动划界,以及各个子区域和各个标记物2的自动关联。这一点是仅凭人工操作难以实现的。
其中,人工智能图像识别模型可以采用如下步骤获取:
获取多份同一类生物体在同一待测量部位的原始图像;
在各个所述原始图像上绘制所需测量的特定区域1,从而形成多个训练图像,利用这些训练图像构建针对所述特定区域1的训练集;
通过所述训练集对深度学习模型进行训练,得到所述人工智能图像识别模型。
通过上述方案得到人工智能图像识别模型,通过该人工智能图像识别模型,可以快速绘制出特定区域1的轮廓。
具体地,本申请可以将具有同类特定区域1,并经过轮廓绘制的多个图像放在一起,构建训练集。可以对原始图像做二值化处理以实现降噪。基于训练集可以计算出先验框参数。然后,基于深度学习模型,对训练集进行训练和验证,来得到人工智能图像识别模型。也就是说,在本申请的模型得到实际应用之前,可以通过机器学习的方式训练和提高模型的检测精度和速度。
在本申请的实施方式中,还可以针对大量的图像,构建不同类型的数据集,并将其划分为训练集、验证集和数据集。训练集用于训练模型,验证集和测试集用于验证模型检测精度和速度。
可选地,训练集和测试、验证集的比例可以在6:4至8:2之间,特别可以是7:3的区间范围之内。
在本申请的实施方式中,对构建成的数据集,可以采用基于单张图像扩增方式和基于多张图像的数据扩增方式,从而有效缓解模型对数据集中数据的过拟合程度,增加人工智能图像识别模型自身的泛化能力、识别的鲁棒性、轮廓绘制的精确度。
其中,基于单张图像的数据扩增方式,包括但不限于:几何变换(例如:平移、翻转、旋转、缩放等),颜色空间变换(例如:对比度变化、亮度变化、饱和度变化、直方图增强、颜色扰动、颜色空间转换等)以及像素点操作等(例如:模糊、锐化、加入噪音、随机擦除等)。
基于多张图像的数据扩增方式,包括但不限于:随机样本对叠加(samplepairing)、随机样本对及其标签的线性插值(mixup)等。
而为了方便理解本申请的人工智能图像识别模型,下面对人工智能图像识别模型进行详细地说明:
参见图7所示,人工智能图像识别模型可以为一个包含编码器40、瓶颈层50、解码器60三个主要模块的U型对称网络。编码器40接收输入的原始图像,编码处理后传输至瓶颈层50中,瓶颈层50处理后,并将处理后的结果传输至解码器60中,由解码器60进行解码处理后并输出。
此外,需要说明的是,该人工智能图像识别模型的预训练网络模型和初始化模型权重参数,可以是在ImageNet公开图像数据上进行图形分割和分类任务预训练得到的。
更进一步的,编码器40可以包括信号依次传输的第一分块融合层6、第一移窗变形器层7、第二移窗变形器层8、第二分块融合层9、第三移窗变形器层10、第四移窗变形器层11、第三分块融合层12、第五移窗变形器层13、第六移窗变形器层14。
例如,人工(也可以是服务器)将尺寸为(384,384,1)的图像(即原始图像)输入至第一分块融合层6时,第一分块融合层6可以把该图像分块融合生成尺寸为(96,96,32)的特征图,并将尺寸为(96,96,32)的特征图传输至第一移窗变形器层7中;
第一移窗变形器层7进行提取特征处理后,可以将处理后的尺寸为(96,96,32)的特征图,传输至第二移窗变形器层8中;第二移窗变形器层8进行提取特征处理后,可以将处理后的尺寸为(96,96,32)的特征图传输至第二分块融合层9;
第二分块融合层9可以把尺寸为(96,96,32)的特征图分块融合生成尺寸为(48,48,64)的特征图,并将尺寸为(48,48,64)的特征图传输至第三移窗变形器层10中;
第三移窗变形器层10对尺寸为(48,48,64)的特征图进行提取特征处理后,并将处理后的尺寸为(48,48,64)的特征图传输至第四移窗变形器层11中,第四移窗变形器层11对尺寸为(48,48,64)的特征图进行提取特征处理后,并将处理后的尺寸为(48,48,64)的特征图,传输至第三分块融合层12中;
第三分块融合层12可以把尺寸为(48,48,64)的特征图,分块融合生成尺寸为(24,24,128)的特征图,并将尺寸为(24,24,128)的特征图传输至第五移窗变形器层13;
第五移窗变形器层13对尺寸为(24,24,128)的特征图进行提取特征处理后,并将尺寸为(24,24,128)的特征图传输至第六移窗变形器层14,第六移窗变形器层14对尺寸为(24,24,128)的特征图进行提取特征处理后,并将尺寸为(24,24,128)的特征图传输至瓶颈层50中。
瓶颈层50可以包括信号依次传输的第四分块融合层15、第七移窗变形器层16、第八移窗变形器层17、第一分块扩展层18。
其中,第四分块融合层15接收第六移窗变形器层14输出的尺寸为(24,24,128)的特征图,进行分块融合生成尺寸为(12,12,256)的特征图,并将尺寸为(12,12,256)的特征图传输至第七移窗变形器层16中;
第七移窗变形器层16对尺寸为(12,12,256)的特征图进行提取特征处理后,并将处理后的尺寸为(12,12,256)的特征图传输至第八移窗变形器层17,第八移窗变形器层17对尺寸为(12,12,256)的特征图进行提取特征处理后,并将处理后的尺寸为(12,12,256)的特征图,传输至第一分块扩展层18中;
第一分块扩展层18可以把尺寸为(12,12,256)的特征图分块扩展后生成尺寸为(24,24,128)的特征图,并将尺寸为(24,24,128)的特征图传输至解码器60中。
解码器60可以包括信号依次传输的第九移窗变形器层19、第十移窗变形器层20、第二分块扩展层21、第十一移窗变形器层22、第十二移窗变形器层23、第三分块扩展层24、第十三移窗变形器层25、第十四移窗变形器层26、第四分块扩展层27。
第九移窗变形器层19接收第一分块扩展层18输出的尺寸为(24,24,128)的特征图,进行提取特征处理,并将处理后的尺寸为(24,24,128)的特征图传输至第十移窗变形器层20中;第十移窗变形器层20进行提取特征处理,并将处理后的尺寸为(24,24,128)的特征图传输至第二分块扩展层21中;
第二分块扩展层21可以把尺寸为(24,24,128)的特征图分块拓展生成尺寸为(48,48,256)的特征图,并将尺寸为(48,48,256)的特征图传输至第十一移窗变形器层22中;
第十一移窗变形器层22对尺寸为(48,48,256)的特征图进行提取特征处理,并将处理后的尺寸为(48,48,256)的特征图传输至第十二移窗变形器层23;第十二移窗变形器层23对尺寸为(48,48,256)的特征图进行提取特征处理,并将处理后的尺寸为(48,48,256)的特征图传输至第三分块扩展层24中;
第三分块扩展层24可以把尺寸为(48,48,256)的特征图分块拓展生成尺寸为(96,96,32)的特征图,并将尺寸为(96,96,32)的特征图传输至第十三移窗变形器层25中;
第十三移窗变形器层25对尺寸为(96,96,32)的特征图进行提取特征处理,并将处理后的尺寸为(96,96,32)的特征图传输至第十四移窗变形器层26中,第十四移窗变形器层26对尺寸为(96,96,32)的特征图进行提取特征处理,并将处理后的尺寸为(96,96,32)的特征图传输至第四分块扩展层27中;
第四分块扩展层27可以把尺寸为(96,96,32)的特征图分块拓展生成尺寸为(384,384,分类数)的特征图,并将尺寸为(384,384,分类数)的特征图输出。
此外,在人工智能图像识别模型中,第二移窗变形器层8还可以通过1/4跳跃连接(即图7中的28)第十三移窗变形器层25,第四移窗变形器层11还可以通过1/8跳跃连接(即图7中的29)第十一移窗变形器层22;第六移窗变形器层14还可以通过1/16跳跃连接(即图7中的30)第九移窗变形器层19。
为方便理解本申请中的第一移窗变形器层7,参见图8所示,下面结合图8中的移窗变形器层进行详细说明:
移窗变形器层可以包括:第一层归一化模块、加窗多头自注意模块、第二层归一化模块、第一多层感知机模块、第三层归一化模块、移窗多头自注意模块、第四层归一化模块、第二多层感知机模块。
其中,原始图像传输至第一层归一化模块,第一层归一化模块对原始图像处理后,将提取的结果传输至加窗多头自注意模块;
加窗多头自注意模块处理后提取第一特征,并将第一特征传输至第二层归一化模块;
第二层归一化处理后提取第二特征,并将第二特征传输至第一多层感知机模块;
第一多层感知机模块提取第三特征,并将第三特征传输至第三层归一化模块;
第三层归一化模块提取第四特征,并将第四特征传输至移窗多头自注意模块;
移窗多头自注意模块提取第五特征,并将第五特征传输至第四层归一化模块;
第四层归一化模块提取第六特征,并将第六特征传输至第二多层感知机模块。
同时,在移窗变形器层中,第二层归一化模块还可以接收原始图像(初始特征),第三层归一化模块还可以接收第一特征,第四层归一化模块还可以接收第三特征,最终输出符合要求的输出物,由第二多层感知机模块输出的第七特征与第五特征共同构成。
需要强调的是,上文中,第一分块融合层6的分块融合操作、第一分块扩展层18的分块扩展操作、分类数等,均为现有技术,所以此处不对其如何分块融合、如何分块扩展、分类数等进行详细说明。
在自然语言处理领域,利用变形器进行编码特征提取的网络结构,拥有出色的性能,所以具有变形器的网络结构受到广泛应用。在图像处理领域,变形器甚至有替代卷积神经网络成为主流方法的趋势。
此外,变形器的独特设计在于多头自注意力机制模块,多头自注意力机制模块在挖掘图像的位置距离远但相关性高的信息中,或者是挖掘声音数据流的位置距离远但相关性高的信息中,具有明显的优势。图像中位置距离远但相关性高的信息,往往代表了高级语义和全局特征。这种高级语义和全局特征,在医学图像分析中,具有丰富的临床诊断信息。可以看出,本申请中具有移窗变形器层的人工智能识别模型,可以识别并绘制出包含大量临床诊断信息的特定区域1的轮廓。
也就是说,相比常规的深度学习网络模型绘制的轮廓,本申请的人工智能图像识别模型,其网络架构利用多个移窗变形器层进行编码特征提取,同时移窗变形器层中添加了加窗多头自注意模块和移窗多头自注意模块;所以,本申请的人工智能图像识别模型绘制的轮廓,可以包含更多的临床诊断信息。
具体的,加窗多头自注意模块,是将整幅输入的图像分割成大小一样的窗口,单个的窗口之中共享同一个多头自注意力模块,不同的窗口之间不共享多头自注意力。该种设计可以有效减轻单个移窗变形器输入的负担,从而使得采用移窗变形器层作为编码器成为可能。
而移窗多头自注意模块,是将整幅图像重新分割成不同的新窗口,新窗口和原来窗口的位置相互错位一定长度的的边长(例如一半的边长),即等同于原窗口整体沿对角线方向,移动一定长度的边长(例如一半的边长)。同样,单个窗口之中的图像特征共享同一个多头自注意力模块,即等同于经过加窗多头自注意模块加窗的新窗口,在原图上移动一定长度边长之后,进行再一次的特征学习。窗口移动后再次学习是移窗多头自注意模块的新特色,这种设计方式可以避免原始图像中本来具有关联的图像信息,分到不同的多头自注意力模块中,从而克服特征无法被人工智能图像识别模型学习的问题。
综上,本申请基于的人工智能图像识别模型的网络总体架构,主要在使用编码器、解码器的基础上,并采用了U-net的分层和对称架构。其中,编码器40、瓶颈层50、解码器60的分层架构,使得原图像的信息在不同尺寸、不同范围上被编码学习和解码复原,最终实现像素水平的语义分割。编码器40、解码器60相互对称的架构以及前面层与后面层之间的短路连接,其最大的特点是能够实现不同尺寸、不同范围的图像特征的被直接复用,从而能够有效减少训练数据量,以及提高训练过程中,梯度的反向传播的效率。
本申请实施例通过增加人工智能图像识别模型,自动地绘制轮廓,避免了人工绘制速度慢且绘制精度不高的问题,进而提高了面积的测量速度以及精度。这也为进一步准确评估药物治疗效果提供了更好的基础。
进一步地,上述方案还可以包括如下步骤:获取经人工核验或修正之后的所述特定区域1的轮廓。
易于理解,完全采用人工智能自主绘制特定区域1的轮廓,对通常的估算和测量来说已经足够,但对于需要更高精度的测量的情形下依然存在不足。因此本申请实施方式进一步地地,将经过人工智能图像识别模型自主勾勒的轮廓交由人工审阅和核验之后,再进行精细的微调和修改。如此一来,所得到的轮廓将具备更好的精度。
同时,人工智能图像识别模型还可以进一步采用如下步骤获得:
获取多份同一类生物体在同一待测量部位的原始图像;
在各个原始图像上绘制所需测量的特定区域1,从而形成多个训练图像,利用这些训练图像构建针对特定区域1的训练集;
通过训练集对深度学习模型进行训练,得到人工智能图像识别模型;
获取经人工核验或修正之后的特定区域1的轮廓的步骤之后,还包括:将经人工核验或修正之后的图像加入训练集。
易于理解的是,将人工核验或修正之后的图像加入训练集,相当于每次的核验过程都重新地对人工智能图像识别模型进行了投喂。如此一来,每一次的人工修正都能够进一步地完善人工智能图像识别模型的数据,提高其下一次的轮廓输出精度。如此一来,“人工”和“智能”之间彼此实现了相互的促进,使得用户的使用更加顺手,也使得模型的识别精度不断提高。
本申请的技术方案特别适用于医疗机构在临床上的大批量使用。由于医疗机构不断地存在反馈数据,因此能够迅速高效地建立高度智能化的人工智能图像识别模型,辅助医者以高效迅速的方式完成对生物体的特定区域1的面积测量。
本申请的另一实施例还提供了一种计算机可读存储介质,存储有计算程序,当计算机程序被处理器执行时,可以实现上述的测量方法。
本实施例所指的处理器可以是中央处理单元(Central Processing Unit,CPU),但在替换方案中,该处理器可以是任何常规的处理器、控制器、微控制器、状态机、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。处理器还可以被实现为计算设备的组合,例如DSP与微处理器的组合、多个微处理器、与DSP核心协作的一个或多个微处理器、或任何其他此类配置。
在一个或多个示例性实施例中,所描述的功能可在硬件、软件、固件或其任何组合中实现。如果在软件中实现为计算机程序产品,则各功能可以作为一条或更多条指令或代码存储在计算机可读介质上或藉其进行传送。计算机可读介质包括计算机存储介质和通信介质两者,其包括促成计算机程序从一地向另一地转移的任何介质。存储介质可以是能被计算机访问的任何可用介质。作为示例而非限定,这样的计算机可读介质可包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储、磁盘存储或其它磁存储设备、或能被用来携带或存储指令或数据结构形式的合意程序代码且能被计算机访问的任何其它介质。任何连接也被正当地称为计算机可读介质。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)、或诸如红外、无线电、以及微波之类的无线技术从web网站、服务器140、或其它远程源传送而来,则该同轴电缆、光纤电缆、双绞线、DSL、或诸如红外、无线电、以及微波之类的无线技术就被包括在介质的定义之中。如本文中所使用的盘(disk)和碟(disc)包括压缩碟(CD)、激光碟、光碟、数字多用碟(DVD)、软盘和蓝光碟,其中盘(disk)往往以磁的方式再现数据,而碟(disc)用激光以光学方式再现数据。上述的组合也应被包括在计算机可读介质的范围内。作为替换方案,存储介质可以被整合到处理器中。处理器和存储介质可驻留在ASIC中。ASIC可驻留在用户终端中。或者在替换方案中,处理器和存储介质也可作为分立组件驻留在用户终端中。
最后应说明的是,本领域的普通技术人员可以理解,为了使读者更好地理解本申请,本申请的实施例提出了许多技术细节。但是,即使没有这些技术细节和基于上述各实施例的种种变化和修改,也可以基本实现本申请各权利要求所要求保护的技术方案。因此,在实际应用中,可以在形式上和细节上对上述实施例作各种改变,而不偏离本申请的精神和范围。
Claims (10)
1.一种生物体的特定区域的面积测量方法,其特征在于,包括如下步骤:
在所述生物体的待测量部位上设置给定面积的标记物,所述待测量部位为生物体的黏膜或皮肤;
获取所述待测量部位的图像;
获取在所述图像上绘制的所需测量的特定区域的轮廓,以及所述标记物的轮廓;
根据所获取的轮廓和所述标记物的面积,换算出所述特定区域的面积。
2.根据权利要求1所述的生物体的特定区域的面积测量方法,其特征在于,所述特定区域为黏膜的疾病的病损区域;所述标记物为灰色、黑色或白色的食品级薄膜。
3.根据权利要求1所述的生物体的特定区域的面积测量方法,其特征在于,所述标记物至少为两个;
在所述获取所述待测量部位的图像的步骤中,获取所述图像的深度信息,所述深度信息包括所述图像上各个测量点各自的深度值;
在所述获取在所述图像上绘制的所需测量的特定区域的轮廓的步骤中,根据所述深度信息,将所述轮廓划分为与所述标记物相对应的多个子轮廓;
在所述换算出所述特定区域的面积的步骤中,根据所获取的各个子轮廓和所对应的标记物的面积,换算各个子轮廓的面积并加总,得出所述特定区域的面积。
4.根据权利要求3所述的生物体的特定区域的面积测量方法,其特征在于,所述标记物与所述子轮廓的对应关系通过如下步骤建立:
在所述图像的深度信息中,提取各标记物的深度参数;所述深度参数为所述标记物上各个测量点的平均深度值、中位数深度值或是众数深度值中的任意一项;
在各个标记物中,取具有相近的深度参数的两个标记物,获取所述两个标记物的深度参数的平均值;
将所述轮廓中各个测量点的深度值以所述两个标记物的深度参数的平均值为界进行划分,形成与各标记物相对应的子轮廓。
5.根据权利要求1至4中任意一项所述的生物体的特定区域的面积测量方法,其特征在于,所述获取在所述图像上绘制所需测量的特定区域的轮廓,包括:
将所述待测量部位的图像输入人工智能图像识别模型,以供其自动识别并绘制出所述特定区域的轮廓。
6.根据权利要求5所述的生物体的特定区域的面积测量方法,其特征在于,所述人工智能图像识别模型采用如下步骤获得:
获取多份同一类生物体在同一待测量部位的原始图像;
在各个所述原始图像上绘制所需测量的特定区域,从而形成多个训练图像,利用这些训练图像构建针对所述特定区域的训练集;
通过所述训练集对深度学习模型进行训练,得到所述人工智能图像识别模型。
7.根据权利要求5所述的生物体的特定区域的面积测量方法,其特征在于,所述获取在所述图像上绘制所需测量的特定区域的轮廓,还包括:
获取经人工核验或修正之后的所述特定区域的轮廓。
8.根据权利要求7所述的生物体的特定区域的面积测量方法,其特征在于,所述人工智能图像识别模型采用如下步骤获得:
获取多份同一类生物体在同一待测量部位的原始图像;
在各个所述原始图像上绘制所需测量的特定区域,从而形成多个训练图像,利用这些训练图像构建针对所述特定区域的训练集;
通过所述训练集对深度学习模型进行训练,得到所述人工智能图像识别模型;
所述获取经人工核验或修正之后的所述特定区域的轮廓的步骤之后,还包括:将经人工核验或修正之后的图像加入所述训练集。
9.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序在被处理器执行时,能够实现权利要求1至8中任意一项所述的步骤。
10.一种生物体的特定区域的面积测量系统,其特征在于,包括:
标记物,所述标记物具有给定的面积,所述标记物设置于生物体的待测量部位,所述待测量部位为生物体的黏膜或皮肤;
图像获取装置,用于获取所述待测量部位的图像;
图像处理装置,用于获取在所述图像上绘制所需测量的特定区域的轮廓,以及所述标记物的轮廓,并用于根据所获取的轮廓和所述标记物的面积,换算出所述特定区域的面积。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111130530 | 2021-09-26 | ||
CN2021111305304 | 2021-09-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114882098A true CN114882098A (zh) | 2022-08-09 |
CN114882098B CN114882098B (zh) | 2023-04-07 |
Family
ID=82667427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111625020.4A Active CN114882098B (zh) | 2021-09-26 | 2021-12-28 | 生物体的特定区域的面积测量方法、系统和可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114882098B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108154531A (zh) * | 2018-01-03 | 2018-06-12 | 深圳北航新兴产业技术研究院 | 一种计算体表损伤区域面积的方法和装置 |
CN109389610A (zh) * | 2018-11-21 | 2019-02-26 | 上海衡道医学病理诊断中心有限公司 | 一种基于人工智能识别的皮损面积计算方法 |
CN110443802A (zh) * | 2019-08-29 | 2019-11-12 | 景致三维(江苏)股份有限公司 | 图像检测方法和装置、设备及存储介质 |
CN110657760A (zh) * | 2019-06-11 | 2020-01-07 | 北京无限光场科技有限公司 | 基于人工智能的测量空间面积的方法、装置及存储介质 |
CN111311608A (zh) * | 2020-02-05 | 2020-06-19 | 方军 | 评估伤口的方法、设备和计算机可读存储介质 |
CN111402264A (zh) * | 2020-03-11 | 2020-07-10 | 南京三百云信息科技有限公司 | 图像区域分割方法、装置及其模型训练方法及计算机设备 |
CN111523507A (zh) * | 2020-05-07 | 2020-08-11 | 上海伽盒人工智能科技有限公司 | 人工智能伤口评估面积测算方法及装置 |
-
2021
- 2021-12-28 CN CN202111625020.4A patent/CN114882098B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108154531A (zh) * | 2018-01-03 | 2018-06-12 | 深圳北航新兴产业技术研究院 | 一种计算体表损伤区域面积的方法和装置 |
CN109389610A (zh) * | 2018-11-21 | 2019-02-26 | 上海衡道医学病理诊断中心有限公司 | 一种基于人工智能识别的皮损面积计算方法 |
CN110657760A (zh) * | 2019-06-11 | 2020-01-07 | 北京无限光场科技有限公司 | 基于人工智能的测量空间面积的方法、装置及存储介质 |
CN110443802A (zh) * | 2019-08-29 | 2019-11-12 | 景致三维(江苏)股份有限公司 | 图像检测方法和装置、设备及存储介质 |
CN111311608A (zh) * | 2020-02-05 | 2020-06-19 | 方军 | 评估伤口的方法、设备和计算机可读存储介质 |
CN111402264A (zh) * | 2020-03-11 | 2020-07-10 | 南京三百云信息科技有限公司 | 图像区域分割方法、装置及其模型训练方法及计算机设备 |
CN111523507A (zh) * | 2020-05-07 | 2020-08-11 | 上海伽盒人工智能科技有限公司 | 人工智能伤口评估面积测算方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114882098B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020238734A1 (zh) | 图像分割模型的训练方法、装置、计算机设备和存储介质 | |
Adegun et al. | Deep learning-based system for automatic melanoma detection | |
CN114820494B (zh) | 用于可视化流动的使用机器学习的散斑对比度分析 | |
US11257213B2 (en) | Tumor boundary reconstruction using hyperspectral imaging | |
WO2017027638A1 (en) | 3d reconstruction and registration of endoscopic data | |
CN109948671B (zh) | 图像分类方法、装置、存储介质以及内窥镜成像设备 | |
CN110600122A (zh) | 一种消化道影像的处理方法、装置、以及医疗系统 | |
CN113256641B (zh) | 一种基于深度学习的皮肤病灶图像分割方法 | |
US20220125280A1 (en) | Apparatuses and methods involving multi-modal imaging of a sample | |
CN109635871A (zh) | 一种基于多特征融合的胶囊内窥镜图像分类方法 | |
CN113744178A (zh) | 一种基于卷积注意力模型的皮肤病变分割方法 | |
CN115049666B (zh) | 基于彩色小波协方差深度图模型的内镜虚拟活检装置 | |
Lin et al. | An endoscopic structured light system using multispectral detection | |
Ay et al. | Automated classification of nasal polyps in endoscopy video-frames using handcrafted and CNN features | |
Ratheesh et al. | Advanced algorithm for polyp detection using depth segmentation in colon endoscopy | |
CN114882098B (zh) | 生物体的特定区域的面积测量方法、系统和可读存储介质 | |
Lurie et al. | Registration of free-hand OCT daughter endoscopy to 3D organ reconstruction | |
WO2023288255A1 (en) | Methods and systems for characterizing tissue of a subject | |
Dandan et al. | A multi-model organ segmentation method based on abdominal ultrasound image | |
Aksenov et al. | An ensemble of convolutional neural networks for the use in video endoscopy | |
Li et al. | Computer aided detection of bleeding in capsule endoscopy images | |
Sridhar et al. | Lung Segment Anything Model (LuSAM): A Prompt-integrated Framework for Automated Lung Segmentation on ICU Chest X-Ray Images | |
CN113298754A (zh) | 一种前列腺组织轮廓线控制点的检测方法 | |
CN117731244B (zh) | 一种基于红外热成像的脊柱侧弯风险预警系统 | |
ES2769962A1 (es) | Procedimiento de identificacion de imagenes oseas |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |