CN114663293A - 一种图像增强方法、装置、电子设备及内窥镜系统 - Google Patents
一种图像增强方法、装置、电子设备及内窥镜系统 Download PDFInfo
- Publication number
- CN114663293A CN114663293A CN202011545894.4A CN202011545894A CN114663293A CN 114663293 A CN114663293 A CN 114663293A CN 202011545894 A CN202011545894 A CN 202011545894A CN 114663293 A CN114663293 A CN 114663293A
- Authority
- CN
- China
- Prior art keywords
- image
- pixel position
- value
- enhanced
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000012545 processing Methods 0.000 claims abstract description 278
- 230000002708 enhancing effect Effects 0.000 claims abstract description 74
- 238000005192 partition Methods 0.000 claims description 201
- 230000015654 memory Effects 0.000 claims description 15
- 238000005286 illumination Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 13
- 230000000740 bleeding effect Effects 0.000 description 30
- 238000012805 post-processing Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 20
- 210000003195 fascia Anatomy 0.000 description 19
- 238000001514 detection method Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 13
- 210000000056 organ Anatomy 0.000 description 12
- 238000012549 training Methods 0.000 description 12
- 238000013135 deep learning Methods 0.000 description 11
- 239000013598 vector Substances 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 210000004204 blood vessel Anatomy 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 210000001331 nose Anatomy 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000013145 classification model Methods 0.000 description 3
- 230000002265 prevention Effects 0.000 description 3
- 210000000683 abdominal cavity Anatomy 0.000 description 2
- 210000000013 bile duct Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000007635 classification algorithm Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000001727 in vivo Methods 0.000 description 2
- 230000002262 irrigation Effects 0.000 description 2
- 238000003973 irrigation Methods 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 239000003595 mist Substances 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 241000255969 Pieris brassicae Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000002357 laparoscopic surgery Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000002620 method output Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003928 nasal cavity Anatomy 0.000 description 1
- 210000003800 pharynx Anatomy 0.000 description 1
- 230000002980 postoperative effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本申请提供一种图像增强方法、装置、电子设备及内窥镜系统,该方法包括:利用预先训练的网络模型,提取待增强图像的语义信息;依据所述语义信息确定对所述待增强图像进行增强处理的处理策略;依据所述处理策略对所述待增强图像进行增强处理。该方法可以优化图像增强效果。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及一种图像增强方法、装置、电子设备及内窥镜系统。
背景技术
在内窥镜视频成像系统中,通常会利用图像增强技术对图像进行后处理以改善图像质量。例如:对图像进行锐度、对比度增强,以提高腹腔内人体组织(血管、器官边缘等)的清晰度;对图像进行饱和度矫正,以获得更佳的主观质量;对非均匀光照图像进行增强处理等。
在对内窥镜视频图像进行后处理图像增强的过程中,容易发生过处理的问题,比如在正常手术过程中,对图像进行饱和度增强,可以获得较好的主观观感,若视野中发生大出血事件,红色部分的血液的饱和度会因为饱和度增强而溢出;比如在手术过程中因为切割操作会起水雾,影响医生观感,通常会对图像进行后处理去雾处理,由于筋膜和雾非常相似,都是大片白色的,使用全局去雾很容易将筋膜也一并“去除”了。
传统的图像增强技术中,主要是通过人工设计特征来调整对不同区域的增强强度,例如:利用当前像素的色度值,来对红色区域进行饱和度调整以避免红色溢出;利用局部区域的方差来自适应地调整对比度增强强度;通过颜色信息对血管进行检测从而对血管部位进行增强显示等。
实践发现,传统图像增强技术中,基于人工设计特征的自适应图像增方法依赖于研究人员对医疗影像深刻的理解以及丰富的图像处理经验,门槛较高,且抽取的特征通常为通用特征,方案的鲁棒性不好,在极端的一些场景下表现不如人意。
发明内容
有鉴于此,本申请提供一种图像增强方法、装置、电子设备及内窥镜系统。
具体地,本申请是通过如下技术方案实现的:
根据本申请实施例的第一方面,提供一种图像增强方法,包括:
利用预先训练的网络模型,提取所述待增强图像的语义信息;所述语义信息包括目标信息、场景分类信息以及事件信息中的一种或多种;
依据所述语义信息确定对所述待增强图像进行增强处理的处理策略;其中,当所述语义信息由第一语义信息切换为第二语义信息时,所述处理策略由第一增强处理策略调整为第二增强处理策略;
依据所述处理策略对所述待增强图像进行增强处理。
根据本申请实施例的第二方面,提供一种图像增强装置,包括:
提取单元,用于利用预先训练的网络模型,提取所述待增强图像的语义信息;所述语义信息包括目标信息、场景分类信息以及事件信息中的一种或多种;
确定单元,用于依据所述语义信息确定对所述待增强图像进行增强处理的处理策略;其中,当所述语义信息由第一语义信息切换为第二语义信息时,所述处理策略由第一增强处理策略调整为第二增强处理策略;
处理单元,用于依据所述处理策略对所述待增强图像进行增强处理。
根据本申请实施例的第三方面,提供一种电子设备,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的机器可执行指令,所述处理器用于执行机器可执行指令,以实现第一方面提供的方法。
根据本申请实施例的第四方面,提供一种计算机可读存储介质,计算机可读存储介质内存储有计算机程序,计算机程序被处理器执行时实现第一方面的方法。
根据本申请实施例的第五方面,提供一种内窥镜系统,包括:内窥镜装置、光源装置、摄像系统主机、显示装置和存储装置;其中:
所述内窥镜装置,用于拍摄被检体的观察部位并生成图像数据;
所述光源装置,用于提供从内窥镜装置前端射出的照明光;
所述摄像系统主机,用于按照第一方面提供的方法对所述内窥镜装置生成的图像数据进行处理,并控制内窥镜系统整体的动作;
所述显示装置,用于显示与所述摄像系统主机处理后的图像数据对应的图像;
所述存储装置,用于存储与所述摄像系统主机处理后的图像数据对应的图像。
本申请实施例的图像增强方法,利用预先训练的网络模型,提取待增强图像的语义信息,依据该语义信息确定对待增强图像进行增强处理的处理策略,并依据该处理策略对待增强图像进行增强处理,通过依据图像的语义信息确定对图像进行增强处理的处理策略,优化了图像增强效果。
附图说明
图1是本申请一示例性实施例示出的一种图像增强方法的流程示意图;
图2是本申请一示例性实施例示出的一种内窥镜视频图像增强处理的示意图;
图3是本申请一示例性实施例示出的一种FCN的算法流程示意图;
图4是本申请一示例性实施例示出的一种FasterRCNN的算法流程示意图;
图5是本申请一示例性实施例示出的一种基于深度学习的场景分类算法流程示意图;
图6是本申请一示例性实施例示出的一种基于深度学习的事件检测算法流程示意图;
图7是本申请一示例性实施例示出的一种神经网络参数集预训练流程示意图;
图8A和图8B是本申请一示例性实施例示出的对腹腔镜手术视野中的筋膜位置进行提取得到的掩膜的示意图;
图9是本申请一示例性实施例示出的一种HSV颜色空间的示意图;
图10是本申请一示例性实施例示出的一种图像增强装置的结构示意图;
图11是本申请一示例性实施例示出的一种电子设备的硬件结构示意图;
图12是本申请一示例性实施例示出的一种内窥镜系统的结构示意图;
图13A是本申请一示例性实施例示出的一种内窥镜系统的概略结构示意图;
图13B是本申请一示例性实施例示出的一种内窥镜系统的功能结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
为了使本领域技术人员更好地理解本申请实施例提供的技术方案,并使本申请实施例的上述目的、特征和优点能够更加明显易懂,下面结合附图对本申请实施例中技术方案作进一步详细的说明。
请参见图1,为本申请实施例提供的一种图像增强方法的流程示意图,如图1所示,该图像增强方法可以包括以下步骤:
步骤S100、利用预先训练的网络模型,提取待增强图像的语义信息。
步骤S110、依据语义信息确定对待增强图像进行增强处理的处理策略。
步骤S120、依据处理策略对待增强图像进行增强处理。
本申请实施例中,对于需要进行增强处理的图像(本文中称为待增强图像),如内窥镜视频图像,可以利用深度学习方法提取待增强图像的语义信息。
在一个示例中,可以利用预先训练的网络模型,提取待增强图像的语义信息,其具体实现可以在下文中结合实例进行说明。
示例性的,语义信息可以包括但不限于目标信息、场景分类信息以及事件信息中的一种或多种。
以内窥镜视频图像为例。
目标信息可以以器官组织(器官、器官边缘、血管、筋膜、胆管、病灶等)和非组织器官(手术器械、纱布、夹子、导管、缝合针、缝合线等)为描述对象,描述的信息包括属性、位置和面积等。
场景分类信息可以描述图像、视频的全局特征,如拍摄部位(如鼻腔、咽喉等)、成像效果(有无出血、有无起雾等)。
事件信息可以以人的行为(包括但不限于分离、切除、缝合、冲洗、放置导流管等)及被动触发事件(包括但不限于出血、起雾等)为描述对象,描述信息包括事件类别、事件位置等。
示例性的,不同种类的语义信息采用不同的网络模型进行提取,相同种类的语义信息采用一个或多个网络模型进行提取。
为了优化图像增强效果,可以依据提取到的语义信息确定对待增强图像进行增强处理的处理策略,以便在待增强图像的语义信息满足特定条件的情况下,可以对不同区域采用不同的策略进行增强处理。
示例性的,不同语义信息对应的用于对待增强图像进行增强处理的处理策略可以不同。
示例性的,当待增强处理的语义信息由一种语音信息(本文中称为第一语音信息)切换为另一种语义信息(本文中称为第二语义信息)时,处理策略也相应地由当前处理策略(本文中称为第一增强处理策略)切换为另一种处理策略(本文中称为第二增强处理策略)。
例如,以对内窥镜视频图像进行饱和度增强为例,当检测到存在出血时,对于出血区域和非出血区域,可以采用不同的方式进行饱和度增强,例如,对出血区域进行减弱饱和度增强操作或不进行饱和度增强操作,对非出血区域进行饱和度增强操作。
在图1所示方法流程中,通过利用深度学习方法提取待增强图像的语义信息,并依据语义信息确定对待增强图像进行增强处理的处理策略,进而,依据所确定的处理策略对待增强图像进行增强处理,可以优化图像增强效果。
作为一种可能的实施例,上述处理策略可以包括全局处理策略,即整帧待增强图像进行统一增强处理,或/和,分区处理策略,即对待增强图像的不同区域进行不同增强处理。
举例来说,假设待增强图像中存在摩尔纹,且存在出血,则对待增强图像进行增强处理时,可以先进行全局的去摩尔纹处理,然后,再依据出血区域,进行分区处理。
在一个示例中,当处理策略包括分区处理策略时,步骤S110中,依据语义信息确定对待增强图像进行增强处理的处理策略,可以包括:
依据语义信息对待增强处理图像进行区域划分,以得到至少两个分区;
分别确定对至少两个分区进行增强处理的处理策略,不同分区的处理策略不同。
示例性的,当提取到了待增强图像的语义信息时,可以依据提取到的语义信息对待增强图像进行区域划分,以得到至少两个分区。
例如,当语义信息包括事件位置时,可以将存在指定事件(如出血)的位置和不存在指定事件的位置划分为不同分区。
又例如,当语义信息包括目标位置时,可以将存在指定目标(如筋膜)的位置和不存在指定目标的位置划分为不同分区。
对于上述至少两个分区,可以分别确定对该至少两个分区进行增强处理的处理策略。
示例性的,不同分区的处理策略不同。
在一个示例中,上述至少两个分区可以包括第一分区和第二分区,第一分区为存在指定事件或指定目标的区域,第二分区为不存在指定事件或指定目标的区域。
示例性的,当语义信息中包括事件信息,可以依据事件信息中的事件位置信息,将存在指定事件,如出血的区域划分为一个分区(本文中称为第一分区),并将不存在指定事件的区域划分为另一个分区(本文中称为第二分区)。
或者,当语义信息中包括目标信息时,可以依据目标信息中的目标位置,将存在指定目标,如筋膜的区域划分为第一分区(即第一分区),并将不存在指定目标的区域划分为另一个分区(即第二分区)。
在另一个示例中,上述至少两个分区可以包括第一分区、第三分区和第四分区,第一分区为存在指定事件或指定目标的区域,第三分区为存在指定事件或指定目标的区域的边缘之外指定范围内的区域,第四分区为其余区域。
示例性的,为了优化图像显示效果,对于存在指定事件或指定目标和不存在指定事件或指定目标的区域的交接位置,可以采用与存在指定事件或指定目标的区域,以及不存在指定事件或指定目标的区域,分别采用不同的处理策略进行处理。
在依据语义信息对待增强图像进行区域划分时,可以将存在指定事件或指定目标的区域划分为一个分区(可以称为第一分区),并将存在指定事件或指定目标的区域的边缘之外指定范围内的区域划分为一个分区(本文中称为第三分区),以及将其余区域划分为一个分区(本文中称为第四分区)。
示例性的,可以通过生成待增强图像的掩膜的方式,为掩膜中对应不同分区的像素位置设置不同的像素值,并为掩膜中不同像素值设置不同的增强处理策略。
作为一种可能的实施例,上述依据语义信息对待增强图像进行区域划分,以得到至少两个分区,可以包括:
依据语义信息生成对应待增强图像的掩膜,该掩膜包括至少两个分区,不同分区的像素值不同。
在一个示例中,掩膜包括第一分区和第二分区,第一分区为存在指定事件或指定目标的区域,第二分区为不存在指定事件或指定目标的区域,第一分区的像素值为第一值,第二分区的像素值为第二值。
例如,可以将存在指定事件的像素位置对应的掩膜的像素值(可以称为第一分区的像素值)设置为0,不存在指定事件的像素位置对应的掩膜的像素值(可以称为第二分区的像素值)设置为1。
在另一个示例中,掩膜包括第一分区、第三分区和第四分区,第一分区为存在指定事件或指定目标的区域,第三分区为存在指定事件或指定目标的区域的边缘之外指定范围内的区域,第四分区为其余区域,第一分区的像素值为第一值,第三分区的像素值为第三值,第四分区的像素值为第四值。
例如,可以将存在指定事件的像素位置对应的掩膜的像素值(可以称为第一分区的像素值)设置为0,存在指定事件或指定目标的区域的边缘之外的指定范围内的区域对应的掩膜的像素值(可以称为第三分区的像素值)设置为0.5,其余位置对应的像素值(可以称为第四分区的像素值)设置为1。
在一个示例中,当上述至少两个分区包括第一分区和第二分区时,上述分别确定对至少两个分区进行增强处理的处理策略,可以包括:
对于待增强图像中的任一像素位置,当该像素位置对应的掩膜的像素值为第一值时,确定进行增强处理的处理策略为不进行增强处理,或进行弱增强处理;当该像素位置对应的掩膜的像素值为第二值时,确定进行增强处理的处理策略为进行增强处理。
示例性的,为了避免过处理,对于存在指定目标或指定事件的位置(即第一分区),可以不进行增强处理或进行弱增强处理;对于不存在指定目标或指定事件的位置(即第二分区),可以正常进行增强处理。
在另一个示例中,当上述至少两个分区包括第一分区、第三分区和第四分区时,上述分别确定对至少两个分区进行增强处理的处理策略,可以包括:
对于待增强图像中的任一像素位置,当该像素位置对应的掩膜的像素值为第一值时,确定进行增强处理的处理策略为不进行增强处理;当该像素位置对应的掩膜的像素值为第三值时,确定进行增强处理的处理策略为进行弱增强处理;当该像素位置对应的掩膜的像素值为第四值时,确定进行增强处理的处理策略为进行增强处理。
示例性的,为了避免过处理,并优化存在指定目标或指定事件的区域和不存在指定目标或指定事件的区域之间的衔接效果,对于存在指定目标或指定事件的位置(即第一分区),可以不进行增强处理;对于存在指定事件或指定目标的区域的边缘之外指定范围内的区域(即第三分区),可以进行弱增强处理;对于其余区域,可以正常进行增强处理。
下面分别以饱和度增强处理和对比度增强处理为例进行说明。
作为一种可能的实施例,当增强处理包括饱和度增强处理时,步骤S120中,依据处理策略对待增强图像进行增强处理,可以包括:
将待增强图像由RGB图像转换为HSV图像,以得到待增强HSV图像;
依据掩膜中各像素位置的像素值,对待增强HSV图像中各像素位置的S分量进行增强处理,以得到增强处理后的HSV图像;
将增强处理后的HSV图像转换为RGB图像,以得到增强处理后的RGB图像。
示例性的,将RGB图像转换为HSV图像的实现可以在下文中结合具体实例进行说明,本申请实施例在此不做赘述。
示例性的,可以将待增强图像由RGB(Red,Green,Blue,红绿蓝)图像转换为HSV(Hue,Saturation,Value,色调、饱和度、明度)图像,并依据掩膜中各像素位置的像素值,对待增强图像中各像素位置的S分量进行增强处理,以在优化图像显示效果的同时,避免过处理。
在一个示例中,当上述至少两个分区包括第一分区和第二分区时,
上述依据掩膜中各像素位置的像素值,对待增强HSV图像中各像素位置的S分量进行增强处理,可以包括:
对于待增强HSV图像中的任一像素位置,当该像素位置对应的掩膜的像素值为第一值时,保持该像素位置的S分量;
当该像素位置对应的掩膜的像素值为第二值时,使用第一增强系数,对该像素位置的S分量进行增强,第一增强系数大于1。
示例性的,对于存在指定目标或指定事件的区域,可以不对相应像素位置的S分量进行增强处理,对于不存在指定目标或指定事件的区域,可以对相应像素位置的S分量正常进行增强处理,以在优化图像显示效果的同时,避免过处理,其具体实现可以在下文中结合具体实例进行说明。
在另一个实例中,当上述至少两个分区包括第一分区、第三分区和第四分区时,
上述依据掩膜中各像素位置的像素值,对待增强HSV图像中各像素位置的S分量进行增强处理,可以包括:
对于待增强HSV图像中的任一像素位置,当该像素位置对应的掩膜的像素值为第一值时,保持该像素位置的S分量;
当该像素位置对应的掩膜的像素值为第三值时,使用第二增强系数,对该像素位置的S分量进行增强,第二增强系数大于1;
当该像素位置对应的掩膜的像素值为第四值时,使用第三增强系数,对该像素位置的S分量进行增强,第三增强系数大于第二增强系数。
示例性的,对于存在指定目标或指定事件的区域,可以不对相应像素位置的S分量进行增强处理,对于存在指定事件或指定目标的区域的边缘之外指定范围内的区域,可以对相应像素位置的S分量进行弱增强处理,对于其余区域,可以对相应像素位置的S分量正常进行增强处理。
示例性的,进行弱增强处理的增强系数(本文中称为第二增强系数)小于正常进行增强处理的增强系数(本文中称为第三增强系数)。
示例性的,考虑到当待增强图像的某像素位置虽然不存在指定目标或指定事件,但是该像素位置的色调满足特定条件时,对该像素位置进行增强处理,仍然可能会出现过处理的情况。
例如,以针对出血情况的防红溢处理为例,对于不存在出血情况,但为红色的区域,也可以不进行饱和度增强处理,以避免红色失真。
作为一种可能的实施例,上述依据掩膜中各像素位置的像素值,对待增强HSV图像中各像素位置的S分量进行增强处理,可以包括:
依据掩膜中各像素位置的像素值,以及待增强HSV图像中各像素位置的H分量的值,对待增强HSV图像中各像素位置的S分量进行增强处理。
示例性的,可以预先设定满足特定条件的H分量的值,在进行增强处理时,除了可以依据掩膜的像素值之外,还可以依据H分量的值,确定增强处理的处理策略。
在一个示例中,当至少两个分区包括第一分区和第二分区时,
上述依据掩膜中各像素位置的像素值,以及待增强HSV图像中各像素位置的H分量的值,对待增强HSV图像中各像素位置的S分量进行增强处理,可以包括:
对于待增强HSV图像中的任一像素位置,当该像素位置对应的掩膜的像素值为第一值,或,该像素位置的H分量的值处于预设范围时,保持该像素位置的S分量;否则,使用第四增强系数,对该像素位置的S分量进行增强,第四增强系数大于1。
在另一个示例中,当上述至少两个分区包括第一分区、第三分区和第四分区时,
上述依据掩膜中各像素位置的像素值,以及待增强HSV图像中各像素位置的H分量的值,对待增强HSV图像中各像素位置的S分量进行增强处理,可以包括:
对于待增强HSV图像中的任一像素位置,当该像素位置对应的掩膜的像素值为第一值,或,该像素位置的H分量的值处于预设范围时,保持该像素位置的S分量;
当该像素位置对应的掩膜的像素值为所述第三值,且该像素位置的H分量未处于预设范围时,使用第五增强系数,对该像素位置的S分量进行增强,第五增强系数大于1;
当该像素位置对应的掩膜的像素值为第四值,且该像素位置的H分量未处于预设范围时,使用第六增强系数,对该像素位置的S分量进行增强,第六增强系数大于第五增强系数。
示例性的,可以预先设定不需要进行增强处理的H分量的取值范围(本文中称为预设范围),对于H分量处于预设范围的像素位置,可以不进行增强处理,其具体实现可以在下文中结合具体实例进行说明。
作为一种可能的实施例,当增强处理包括对比度增强处理时,步骤S120中,依据处理策略对待增强图像进行增强处理,可以包括:
确定待增强图像的高频部分和低频部分;
依据掩膜中各像素位置的像素值,对待增强图像的高频部分进行增强处理。
示例性的,可以通过对待增强图像的高频部分进行增强处理的方式,增强对待增强图像的对比度。
为了避免过处理,可以依据掩膜中各像素位置的像素值,确定需要进行对比度增强处理的区域,并对该区域的高频部分进行对比度增强处理。
在一个示例中,上述确定待增强图像的高频部分和低频部分,可以包括:
对待增强图像进行低通滤波,以得到待增强图像的低频部分;
依据待增强图像,以及待增强图像的低频部分,确定待增强图像的高频部分。
示例性的,可以通过对待增强图像进行低通滤波的方式,得到待增强图像的低频部分,并将待增强图像的原图减去待增强图像的低频部分,得到待增强图像的高频部分。
在一个示例中,当上述至少两个分区包括第一分区和第二分区时,
上述依据掩膜中各像素位置的像素值,对待增强图像的高频部分进行增强处理,可以包括:
对于待增强HSV图像中的任一像素位置,当该像素位置对应的掩膜的像素值为第一值时,保持该像素位置的像素值;
当该像素位置对应的掩膜的像素值为第二值时,依据第一增益,对该像素位置的高频部分进行增强处理,第一增益大于1。
在另一个示例中,当上述至少两个分区包括第一分区、第三分区和第四分区时,
上述依据掩膜中各像素位置的像素值,对待增强图像的高频部分进行增强处理,可以包括:
对于待增强HSV图像中的任一像素位置,当该像素位置对应的掩膜的像素值为第一值时,保持该像素位置的像素值;
当该像素位置对应的掩膜的像素值为第三值时,依据第二增益,对该像素位置的高频部分进行增强处理,第二增益大于1;
当该像素位置对应的掩膜的像素值为第四值时,依据第三增益,对该像素位置的高频部分进行增强处理,第三增益大于第二增益。
示例性的,上述用于对像素位置的高频部分进行增强处理的增益(第一增益、第二增益或第三增益)为常数,或,依据局部均方差确定。
示例性的,对于任一像素位置,该像素位置对应的局部均方差依据以该像素位置为中心,预设宽高的窗口内的像素值确定,其具体实现可以在下文结合具体实例进行说明。
在一个示例中,当处理策略包括全局处理策略时,步骤S120中,依据处理策略对待增强图像进行增强处理,可以包括:
当语义信息为场景分类信息,且场景分类信息包括待增强图像为耳、鼻、喉场景时,对整帧图像进行去除红色失真的增强处理;
当语义信息为场景分类信息,且场景分类信息包括待增强图像存在摩尔纹时,对整帧图像进行去除摩尔纹的增强处理。
示例性的,当处理策略为全局处理策略时,对整帧图像(待增强图像)进行统一增强处理。
举例来说,当依据提取到的语义信息确定待增强图像为耳、鼻、喉场景,则开启帧级防红溢出功能,对整帧图像进行去除红色的失真处理,防止红色失真。
本申请提出利用深度学习技术提取内窥镜视频中的语义信息,比如血管位置、筋膜位置、是否出现大出血事件、出血位置等,在对采集到的内窥镜图像进行后处理时,利用上述语义信息,对图像进行分帧或分区处理,例如:①以帧为单位,根据出血信息的提示,仅对出血帧进行针对性增强处理;②对关键组织(例如血管)进行增强处理,避免对其他区域的影响。③在进行全局性处理时,减弱或避免对关键器官组织(例如筋膜)不恰当的后处理,以保持图像关键部位的真实性。
当依据提取到的语义信息确定待增强图像中存在摩尔纹时,可以对整帧图像进行去除摩尔纹的增强处理,优化图像显示效果。
为了使本领域技术人员更好地理解本申请实施例提供的技术方案,下面结合具体应用场景对本申请实施例提供的技术方案进行说明。
以内窥镜视频图像增强处理为例。
针对采集得到的内窥镜视频图像,信息提取模块可以提取内窥镜视频图像中的语义信息,信息提取过程中使用的目标检测模型、图像语义分割模型、场景分类模型、事件检测模型由预训练模块生成;后处理控制模块将语义信息转化为与图像等大的控制掩膜,后处理模块根据控制掩膜对每个像素进行不同程度、不同方式的图像处理,其示意图可以如图2所示。
示例性的,语义信息可以包括:
(1)目标信息:目标信息以器官组织(器官、器官边缘、血管、筋膜、胆管、病灶等)和非组织器官(手术器械、纱布、夹子、导管、缝合针、缝合线等)为描述对象,描述的信息可以包括但不限于属性、位置和面积等。
(2)场景分类信息:场景分类信息主要描述图像、视频的全局特征(拍摄部位、成像效果),包括有/无及类别信息。
(3)事件信息:事件信息以人的行为(包括但不限于分离、切除、缝合、冲洗、放置导流管等)及被动触发事件(包括但不限于出血、起雾等)为描述对象,描述信息可以包括但不限于事件类别、事件位置等。
下面分别对各模块的功能进行详细说明。
一、信息提取模块
信息提取模块可以包括但不限于语义分割、目标检测、场景分类、事件检测中的一个或多个模块。
1.1、语义分割
基于深度学习的语义分割技术可以包括但不限于FCN、SegNet、UNet、deeplab系列等。
以FCN为例,算法流程可以参见图3。
如图3所示,首先,对单帧图像进行一系列的卷积、池化操作,得到该图像的特征表达;其次,使用上采样/反卷积等操作,获得与输入图像一样大小的特征向量;最后,对特征向量进行逻辑回归,得到原图中每个像素对应的分类结果。
1.2、目标检测
基于深度学习的目标检测技术可以包括但不限于YOLO、SSD、FastRCNN、FasterRCNN等。
以FasterRCNN为例,其算法流程图可以参见图4。
如图4所示,首先,对单帧图像进行一系列的卷积、池化操作,得到该图像的特征信息;其次,将该图像的特征信息输入RPN(Region ProposalNetworks,候选区域生成网络),提取包含有待检测目标的候选区域;最后,对提取的候选区域进行池化操作Roi-pooling,利用池化操作后的特征进行进一步的目标分类和目标位置回归,得到待检测目标的类别和位置信息。
示例性的,利用该方案,可实现例如器官位置、类别,手术器械的位置、类别,可为每种目标训练一个单独的网络,也可训练一个网络同时对所有目标进行位置定位和目标分类。
1.3、场景分类
基于深度学习的场景分类算法流程可以参见图5。
如图5所示,首先,对单帧图像进行一系列的卷积、池化操作,得到该图像的特征信息;然后,将该图像的特征信息输入全连接层,得到每个类别的概率,概率最大的类别对应的即为当前图像的类别。
1.4、事件检测
首先,对多帧视频图像输入神经网络(neural network),通过神经网络对视频帧图片进行特征抽取,生成多维的行为特征向量,然后,将特征向量输入全连接层进行逻辑分类,得到每个类别的概率,概率最大的事件类别对应的即为当前视频段落的事件信息。
示例性的,神经网络可以包括但不限于深度神经网络(DNN)、卷积神经网络(CNN)、循环神经网络(RNN)、长短期记忆(LSTM)神经网络等。
举例来说,基于深度学习的事件检测算法流程可以参见图6。
如图6所示,首先,将一段视频的5帧作为1个输入,使用3D卷积进行特征编码,使用LSTM对特征编码后的帧特征进行处理,其中,h(x)是LSTM的隐含状态,S(t)是输出的结果向量,S(t-5)是过程向量,输出S(t)。
然后,对特征向量S(t)采用逻辑分类,输出大于预设阈值的类别,采用sigmoid函数对特征向量S(t)进行最终的类别输出。
举例来说,可以采用sigmoid函数对特征向量S(t)进行类别输出,sigmoid函数由以下公式定义:
示例性的,x为各个事件通过神经网络特征提取后产生的多维特征向量S(t)中的一维,每个所输出的类别f(x)也都对应着特征向量上的一维。将f(x)与预设阈值(出血/未出血、起雾/非起雾的区别判断标准)相比较,大于该预设阈值,则判断属于出血或起雾,得到最终事件检测的结果。
二、预训练模块
示例性的,上述任一个确定的任务(如目标检测、场景分类、事件检测),其对应的神经网络NN的参数集θ需要通过预训练获得,其流程图可以参见图7。
示例性的,以目标检测使用的检测网络为例,其主要的可学习部分为卷积神经网络CN,通过预训练得到的CN网络结构参数可以除了可以包括卷积滤波器的权重参数和偏移参数之外,还可以包括但不限于卷积滤波器数量、卷积核大小等。
举例来说,训练步骤可以包括:
步骤2.1、采集大量的内窥镜图像数据,对其中的目标物体的位置、类别进行标定,图像以及其标签(对应的位置、类别)形成一个训练样本,所有训练样本组成训练集Ω。
步骤2.2:初始化卷积神经网络CN的网络参数为θ0,对训练相关的高层参数如学习率、梯度下降算法等进行合理的设置。
步骤2.3:对训练集Ω进行参数为θi的卷积神经网络CN的前向计算,获取卷积神经网络的输出F(Y),设计损失函数,得到损失值L(θi),损失值由F(Y)及步骤2.1中所属标签信息计算得到。
步骤2.4:利用反向传播算法对θ进行调整,获得θi。
步骤2.5:重复步骤2.3至步骤2.4,直至网络收敛,输出参数θfinal。
三、后处理控制模块
后处理控制可以分为全局控制和分区控制。
3.1、全局控制
全局控制即整帧图像使用统一的控制信号,进行统一的后处理过程。
实施例一
信息提取模块中的场景分类模型判定当前图像为耳、鼻、喉场景,则开启帧级防红溢出功能,防止红色失真。
实施例二
信息提取模块中的场景分类模型判定当前图像存在摩尔纹,则输出全局去摩尔纹信号。
3.2、分区控制
分区控制即整帧图像的不同区域使用不同的后处理策略
实施例三
在腹腔镜手术中,信息提取模块中的语义分割模型检测到当前图像中存在大出血及出血位置,则开启分区防红溢出功能,防止出血位置在做饱和度矫正时红色失真。
后处理控制模块对掩膜上对应出血位置的像素置为0(即上述第一值,不进行或减弱饱和度增强操作),其余部分置为1(即上述第二值,进行饱和度增强),生成饱和度控制掩膜。
或者,后处理控制模块对筋膜位置的像素置为0(即上述第一值,不进行饱和度增强操作),出血区域边缘与背景(未出血区域)的交接处一定半径范围内置为0.5(即上述第三值,减弱饱和度增强操作),其余部分置为1(即上述第四值,进行饱和度增强),生成饱和度控制掩膜。
实施例四
信息提取模块中的语义分割模型对腹腔镜手术视野中的筋膜位置进行了提取,提取出的掩膜的示意图可以参见图8A和图8B。
后处理控制模块对掩膜上对应筋膜位置的像素置为0(即上述第一值,不进行去雾操作),其余部分置为1(即上述第二值,进行去雾),生成去雾控制掩膜。
或者,后处理控制模块对筋膜位置的像素置为0(即上述第一值,不进行去雾操作),筋膜边缘与背景的交接处一定半径范围内置为0.5(即上述第三值,进行微弱的去雾操作),其余部分置为1(即上述第四值,进行去雾),生成去雾控制掩膜。
四、后处理模块
后处理模块根据后处理控制模块输出的全局信号或控制掩膜,进行对应的图像后处理。
实施例五
针对3.2节中的防红溢出处理,一种实现方式可以如下:
4.1、将RGB图转换到HSV空间。HSV表达彩色图像的方式由三个部分组成:Hue(色调、色相)、Saturation(饱和度、色彩纯净度)、Value(明度)。
示例性的,可以用图9所示的圆柱体来表示HSV颜色空间,圆柱体的横截面可以看作是一个极坐标系,H用极坐标的极角表示,S用极坐标的极轴长度表示,V用圆柱中轴的高度表示。
RGB到HSV的具体转换公式如下所示:
Cmax=max(R,G,B)
Cmin=min(R,G,B)
Δ=Cmax-Cmin
V=Cmax
4.2、使用每个像素对应的饱和度控制掩膜CMask,筛选出出血部分,然后将对应像素位置的S分量进行加权降低,即可达到红色抑制的效果。
举例来说,根据CMask选择调整或不调整饱和度的值:
对于任一像素位置,若CMask的值为1,则S=S*(1+C),即使用(1+C)(即上述第一增强系数)对S分量进行增强处理;若CMask的值为0,则S=S,即保持S分量不变。
CMask表示饱和度控制掩膜(0表示不进行饱和度增强,1表示进行饱和度增强),S表示当前像素值的饱和度(0表示纯白色,取值范围为0~100%,值越大,颜色越饱和),C可以为一个常数,调整饱和度增强的程度,例如取1/2。
又举例来说,可以依据饱和度控制掩膜CMask和像素位置的H分量一起进行后处理:
H分量可以用角度度量,取值范围为0~360°,表示色彩信息,即所处的光谱颜色的位置。颜色圆环上所有的颜色都是光谱上的颜色,从红色开始按逆时针方向旋转,H分量的值为0表示红色,H分量的值为120表示绿色,H分量的值为240表示蓝色。
假设红色的H分量的取值范围(即上述预设范围)为0~20度、340~360度。
则对于任一像素位置,若CMask的值为0,或H分量的值处于上述预设范围,则保持当前像素位置的S分量不变。
否则,即CMask的值不为0,且H分量的值未处于上述预设范围,则S=S*(1+C),即使用(1+C)(即上述第四增强系数)对S分量进行增强处理。
示例性的,第四增强系数和第一增强系数可以相同,也可以不同。
4.3、将图像从HSV空间转换回RGB空间。
若0≤H≤360,0≤S≤1 and 0≤V≤1,则:
C=V×S
m=V-C
(R,G,B)=((R′+m)×255,(G′+m)×255,(B′+m)×255)
实施例六
针对3.2节中的去雾处理,可以使用自适应对比度增强(Adaptive ContrastEnhancement,简称ACE)结合后处理控制模块输出的去雾控制掩膜CMask的方法来实现。
ACE的原理为:将一幅图像分成两个部分:一是低频部分,可以通过图像的低通滤波(平滑模糊)获得;二是高频部分,可以由原图减去低频部分得到。而算法的目标是增强代表细节的高频部分,即对高频部分乘以某个增益值,然后重组得到增强的图像。因此,ACE算法的核心就是高频部分增益系数的计算。
在一个示例中,可以将增益设为一个固定值。
在另一个示例中,可以将增益值表示为与方差相关的量。
举例来说,假设一幅图像中像素点表示为x(i,j),那么以(i,j)为中心,窗口大小为(2n+1)*(2n+1)(即以预设宽、高均为2n+1为例)的区域内,其局部均值和方差可以表示为:
对于像素点x(i,j),均值mx(i,j)可以作为背景,x(i,j)-mx(i,j)即为该像素位置的高频部分,对高频作增益乘积,则:
f(i,j)=mx(i,j)+G(i,j)[x(i,j)-mx(i,j)
G(i,j)即为该像素位置的增益(即上述第一增益)。
在一个示例中,G(i,j)可以取大于1的常数。
在另一个示例中,G(i,j)可为局部均方差成反比的变化值:
结合控制掩膜,可以对需要开启去雾的像素位置进行对比度增强滤波:
对于任一像素位置,若CMask的值为1,则:
f(i,j)=mx(i,j)+G(i,j)[x(i,j)-mx(i,j)]
即采用G(i,j)对该像素位置的高频部分进行增强处理。
若CMask的值为0,则保持该像素位置的像素值。
以上对本申请提供的方法进行了描述。下面对本申请提供的装置进行描述:
请参见图10,为本申请实施例提供的一种图像增强装置的结构示意图,如图10所示,该图像增强装置可以包括:
提取单元1010,用于利用预先训练的网络模型,提取所述待增强图像的语义信息;所述语义信息包括目标信息、场景分类信息以及事件信息中的一种或多种;
确定单元1020,用于依据所述语义信息确定对所述待增强图像进行增强处理的处理策略;其中,当所述语义信息由第一语义信息切换为第二语义信息时,所述处理策略由第一增强处理策略调整为第二增强处理策略;
处理单元1030,用于依据所述处理策略对所述待增强图像进行增强处理。
在一些实施例中,不同种类的语义信息采用不同的网络模型进行提取,相同种类的语义信息采用一个或多个网络模型进行提取。
在一些实施例中,所述处理策略包括全局处理策略或/和分区处理策略。
在一些实施例中,当所述处理策略包括分区处理策略时,所述确定单元1020依据所述语义信息确定对所述待增强图像进行增强处理的处理策略,包括:
依据所述语义信息对所述待增强处理图像进行区域划分,以得到至少两个分区;
分别确定对所述至少两个分区进行增强处理的处理策略,不同分区的处理策略不同。
本申请中,可使用深度学习技术来提取高层语义信息,利用高层语义信息来生成全局控制信号或者分区控制掩膜,对不同帧或者同一帧的不同区域,自适应地进行后处理类型、力度的控制。自适应地对不同帧或者同一帧的不同区域进行后处理,可以在增强图像关键部位清晰度的同时,减弱或避免对关键器官组织(例如筋膜)不恰当的后处理。
在一些实施例中,所述确定单元1020依据所述语义信息对所述待增强图像进行区域划分,以得到至少两个分区,包括:
依据所述语义信息生成对应所述待增强图像的掩膜,所述掩膜包括至少两个分区,不同分区的像素值不同。
在一些实施例中,所述至少两个分区包括第一分区和第二分区,所述第一分区为存在指定事件或指定目标的区域,所述第二分区为不存在指定事件或指定目标的区域,所述第一分区的像素值为第一值,所述第二分区的像素值为第二值;
或,
所述至少两个分区包括第一分区、第三分区和第四分区,所述第一分区为存在指定事件或指定目标的区域,所述第三分区为存在指定事件或指定目标的区域的边缘之外指定范围内的区域,所述第四分区为其余区域,所述第一分区的像素值为第一值,所述第三分区的像素值为第三值,所述第四分区的像素值为第四值。
在一些实施例中,当所述至少两个分区包括第一分区和第二分区时,所述确定单元1020分别确定对所述至少两个分区进行增强处理的处理策略,包括:
对于所述待增强图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值时,确定进行增强处理的处理策略为不进行增强处理,或进行弱增强处理;当该像素位置对应的所述掩膜的像素值为所述第二值时,确定进行增强处理的处理策略为进行增强处理。
在一些实施例中,当所述至少两个分区包括第一分区、第三分区和第四分区时,所述确定单元1020分别确定对所述至少两个分区进行增强处理的处理策略,包括:
对于所述待增强图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值时,确定进行增强处理的处理策略为不进行增强处理;当该像素位置对应的所述掩膜的像素值为所述第三值时,确定进行增强处理的处理策略为进行弱增强处理;当该像素位置对应的所述掩膜的像素值为所述第四值时,确定进行增强处理的处理策略为进行增强处理。
在一些实施例中,所述增强处理包括饱和度增强处理;
所述处理单元1030依据所述处理策略对所述待增强图像进行增强处理,包括:
将所述待增强图像由RGB图像转换为HSV图像,以得到待增强HSV图像;
依据所述掩膜中各像素位置的像素值,对所述待增强HSV图像中各像素位置的S分量进行增强处理,以得到增强处理后的HSV图像;
将所述增强处理后的HSV图像转换为RGB图像,以得到增强处理后的RGB图像。
在一些实施例中,当所述至少两个分区包括第一分区和第二分区时,
所述处理单元1030依据所述掩膜中各像素位置的像素值,对所述待增强HSV图像中各像素位置的S分量进行增强处理,包括:
对于所述待增强HSV图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值时,保持该像素位置的S分量;
当该像素位置对应的所述掩膜的像素值为所述第二值时,使用第一增强系数,对该像素位置的S分量进行增强,所述第一增强系数大于1。
在一些实施例中,当所述至少两个分区包括第一分区、第三分区和第四分区时,
所述处理单元1030依据所述掩膜中各像素位置的像素值,对所述待增强HSV图像中各像素位置的S分量进行增强处理,包括:
对于所述待增强HSV图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值时,保持该像素位置的S分量;
当该像素位置对应的所述掩膜的像素值为所述第三值时,使用第二增强系数,对该像素位置的S分量进行增强,所述第二增强系数大于1;
当该像素位置对应的所述掩膜的像素值为所述第四值时,使用第三增强系数,对该像素位置的S分量进行增强,所述第三增强系数大于所述第二增强系数。
在一些实施例中,所述处理单元1030依据所述掩膜中各像素位置的像素值,对所述待增强HSV图像中各像素位置的S分量进行增强处理,包括:
依据所述掩膜中各像素位置的像素值,以及所述待增强HSV图像中各像素位置的H分量的值,对所述待增强HSV图像中各像素位置的S分量进行增强处理。
在一些实施例中,当所述至少两个分区包括第一分区和第二分区时,
所述处理单元1030依据所述掩膜中各像素位置的像素值,以及所述待增强HSV图像中各像素位置的H分量的值,对所述待增强HSV图像中各像素位置的S分量进行增强处理,包括:
对于所述待增强HSV图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值,或,该像素位置的H分量的值处于预设范围时,保持该像素位置的S分量;否则,使用第四增强系数,对该像素位置的S分量进行增强,所述第四增强系数大于1。
在一些实施例中,当所述至少两个分区包括第一分区、第三分区和第四分区时,
所述处理单元1030依据所述掩膜中各像素位置的像素值,以及所述待增强HSV图像中各像素位置的H分量的值,对所述待增强HSV图像中各像素位置的S分量进行增强处理,包括:
对于所述待增强HSV图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值,或,该像素位置的H分量的值处于预设范围时,保持该像素位置的S分量;
当该像素位置对应的所述掩膜的像素值为所述第三值,且该像素位置的H分量未处于所述预设范围时,使用第五增强系数,对该像素位置的S分量进行增强,所述第五增强系数大于1;
当该像素位置对应的所述掩膜的像素值为所述第四值,且该像素位置的H分量未处于所述预设范围时,使用第六增强系数,对该像素位置的S分量进行增强,所述第六增强系数大于所述第五增强系数。
在一些实施例中,所述增强处理包括对比度增强处理;
所述处理单元1030依据所述处理策略对所述待增强图像进行增强处理,包括:
确定所述待增强图像的高频部分和低频部分;
依据所述掩膜中各像素位置的像素值,对所述待增强图像的高频部分进行增强处理。
在一些实施例中,所述处理单元1030确定所述待增强图像的高频部分和低频部分,包括:
对所述待增强图像进行低通滤波,以得到所述待增强图像的低频部分;
依据所述待增强图像,以及所述待增强图像的低频部分,确定所述待增强图像的高频部分。
在一些实施例中,当所述至少两个分区包括第一分区和第二分区时,
所述处理单元1030依据所述掩膜中各像素位置的像素值,对所述待增强图像的高频部分进行增强处理,包括:
对于所述待增强HSV图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值时,保持该像素位置的像素值;
当该像素位置对应的所述掩膜的像素值为所述第二值时,依据第一增益,对该像素位置的高频部分进行增强处理,所述第一增益大于1。
在一些实施例中,当所述至少两个分区包括第一分区、第三分区和第四分区时,
所述处理单元1030依据所述掩膜中各像素位置的像素值,对所述待增强图像的高频部分进行增强处理,包括:
对于所述待增强HSV图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值时,保持该像素位置的像素值;
当该像素位置对应的所述掩膜的像素值为所述第三值时,依据第二增益,对该像素位置的高频部分进行增强处理,所述第二增益大于1;
当该像素位置对应的所述掩膜的像素值为所述第四值时,依据第三增益,对该像素位置的高频部分进行增强处理,所述第三增益大于所述第二增益。
在一些实施例中,用于对像素位置的高频部分进行增强处理的增益为常数,或,依据局部均方差确定,对于任一像素位置,该像素位置对应的局部均方差依据以该像素位置为中心,预设宽高的窗口内的像素值确定。
在一些实施例中,当所述处理策略包括全局处理策略时,所述处理单元1030依据所述处理策略对所述待增强图像进行增强处理,包括:
当所述语义信息为场景分类信息,且场景分类信息包括所述待增强图像为耳、鼻、喉场景时,对整帧图像进行去除红色失真的增强处理;
当语义信息为场景分类信息,且场景分类信息包括所述待增强图像存在摩尔纹时,对整帧图像进行去除摩尔纹的增强处理。
本申请实施例提供一种电子设备,包括处理器和存储器,其中,存储器存储有能够被所述处理器执行的机器可执行指令,处理器用于执行机器可执行指令,以实现上文描述的图像增强方法。
请参见图11,为本申请实施例提供的一种电子设备的硬件结构示意图。该电子设备可包括处理器1101、存储有机器可执行指令的存储器1102。处理器1101与存储器1102可经由系统总线1103通信。并且,通过读取并执行存储器1102中与图像增强逻辑对应的机器可执行指令,处理器1101可执行上文描述的图像增强方法。
本文中提到的存储器1102可以是任何电子、磁性、光学或其它物理存储装置,可以包含或存储信息,如可执行指令、数据,等等。例如,机器可读存储介质可以是:RAM(RadomAccess Memory,随机存取存储器)、易失存储器、非易失性存储器、闪存、存储驱动器(如硬盘驱动器)、固态硬盘、任何类型的存储盘(如光盘、dvd等),或者类似的存储介质,或者它们的组合。
在一些实施例中,还提供了一种机器可读存储介质,如图11中的存储器1102,该机器可读存储介质内存储有机器可执行指令,所述机器可执行指令被处理器执行时实现上文描述的图像增强方法。例如,所述机器可读存储介质可以是ROM、RAM、CD-ROM、磁带、软盘和光数据存储设备等。
本申请实施例还提供了一种计算机程序,存储于机器可读存储介质,例如图11中的存储器1102,并且当处理器执行该计算机程序时,促使处理器1101执行上文中描述的图像增强方法。
请参见图12,为本申请实施例提供的一种内窥镜系统的结构示意图,如图12所示,该内窥镜系统可以包括:内窥镜装置1210、光源装置1220、摄像系统主机1230、显示装置1240和存储装置1250;其中:
所述内窥镜装置1210,用于拍摄被检体的观察部位并生成图像数据;
所述光源装置1220,用于提供从内窥镜装置前端射出的照明光;
所述摄像系统主机1230,用于对所述内窥镜装置生成的图像数据进行处理;
示例性的,摄像机系统主机1230可以按照上述实施例中描述的方式对所述内窥镜装置生成的图像数据进行处理。
所述显示装置1240,用于显示与所述摄像系统主机处理后的图像数据对应的图像;
所述存储装置1250,用于存储与所述摄像系统主机处理后的图像数据对应的图像。
示例性的,以将上述图像增强方法应用于内窥镜系统为例。
示例性的,可以通过内窥镜装置1210获取被检体(如进行内窥镜检测的人员)的观察部位(可以包括但不限于耳、鼻、喉或腹腔等)并生成图像数据。所述内窥镜装置可以所述光源装置1220提供照明光,以便能够获取到清晰可见的图像细节。
对于内窥镜装置1210获取到的图像数据,摄像系统主机1230可以采用上述方法实施例中描述的方式对该图像数据进行增强处理,以优化图像显示效果。
在一个示例中,摄像系统主机1230还可以用于控制内窥镜系统整体的动作,如控制光源的照明方式、图像处理方式、智能处理方式和视频编码方式等。
对于摄像系统主机1230处理后的图像数据,一方面,可以通过显示装置1240进行显示,以便相关人员(如医护人员)进行查看;另一方面,还可以存储至存储装置1250,如经过指定的格式的视频编码后,存储至存储装置1250。
下面对内窥镜系统的结构和功能进行详细说明。
请参见图13A和图13B,图13A为内窥镜系统的概略结构示意图;图13B为内窥镜系统的功能结构示意图。
如图13A所示,内窥镜系统可以包括内窥镜(即上述内窥镜装置1210)、光源(即上述光源装置1220)、摄像系统主机、显示装置以及存储装置。
操作人员(如医护人员)可以将内窥镜插入被检测人员体内,将拍摄的体内图像输出到外部的显示装置和存储装置。操作人员可以通过观察由显示装置显示的体内图像,来检查作为检测对象部位的出血部位、肿瘤部位和异常部位的有无,并提供手术治疗的实时影像。其它使用内窥镜系统的相关人员(如医护人员)可以通过访问存储装置中的视频,进行术后回顾和手术培训。
光源提供从内窥镜装置前端射出的照明光。摄像系统主机对内窥镜生成的图像数据采用上述方法实施例中描述的方式进行相关处理,并且统一控制内窥镜系统整体的动作。显示装置显示与摄像系统主机的图像数据对应的图像。存储装置存储与摄像系统主机的图像数据对应的图像。
如图13B所示,内窥镜可以包括摄像光学系统、成像单元、处理单元和操作单元。
示例性的,摄像光学系统用于对来自观察部位的光进行聚光。摄像光学系统使用一个或多个透镜构成。
成像单元用于对各像素接收到的光进行光电转换来生成图像数据。
示例性的,成像单元可以由CMOS(Complementary Metal Oxide Semiconductor,互补金属氧化物半导体)或CCD(Charge-coupled Device,电荷耦合器件)等图像传感器组成。
处理单元将成像单元生成的图像数据转换成数字信号,并将转换后得到的数字信号发送到摄像系统主机。
操作单元接收用于切换内窥镜的动作的指示信号和用于使光源装置进行照明光的切换动作的指示信号的输入,并将指示信号输出到摄像系统主机。
示例性的,操作单元可以包括但不限于开关、按钮和触摸面板。
如图13B所示,光源装置可以包括照明控制单元和照明单元。
示例性的,照明控制单元用于接收摄像系统主机的指示信号,控制照明单元向内窥镜提供照明光。
示例性的,摄像系统主机用于对从内窥镜接收到的图像数据进行处理并传输给显示装置和存储装置。
示例性的,显示装置和存储装置可以为外置设备。
如图13B所示,摄像系统主机可以包括图像输入单元、图像处理单元、智能处理单元、视频编码单元、控制单元和操作单元。
示例性的,图像输入单元用于接收内窥镜发送过来的数字信号,并将接收到的数字信号传输给图像处理单元。
示例性的,图像处理单用于对图像输入单元的信号进行ISP(Image SignalProcessing,图像信号处理)操作,包括但不限于亮度变换、锐化、去摩尔纹、缩放。
图像处理单元处理后的图像传输给智能处理单元、视频编码单元和/或显示装置。
示例性的,智能处理单元用于对图像处理单元处理后的图像进行智能分析,包括但不限于基于深度学习的场景分类、器械器械头检测、纱布检测、摩尔纹分类和浓雾分类等。
智能处理单元处理后的图像传输给图像处理单元和/或视频编码单元。
图像处理单元对智能处理单元处理后的图像的处理方式包括但不限于亮度变换、去摩尔纹、叠框和缩放。
示例性的,视频编码单元用于将图像处理单元或智能处理单元处理后的图像进行编码压缩,并传输给存储装置,由存储装置对编码压缩后的图像进行存储。
示例性的,控制单元用于控制内窥镜系统的各个模块,包括但不限于光源的照明方式、图像处理方式、智能处理方式和视频编码方式。
示例性的,操作单元可以包括但不限于开关、按钮和触摸面板,用于接收外部指示信号,并将接收到的指示信号输出到控制单元。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。
Claims (15)
1.一种图像增强方法,其特征在于,包括:
利用预先训练的网络模型,提取待增强图像的语义信息;所述语义信息包括目标信息、场景分类信息以及事件信息中的一种或多种;
依据所述语义信息确定对所述待增强图像进行增强处理的处理策略;其中,当所述语义信息由第一语义信息切换为第二语义信息时,所述处理策略由第一增强处理策略调整为第二增强处理策略;
依据所述处理策略对所述待增强图像进行增强处理。
2.根据权利要求1所述的方法,其特征在于,不同种类的语义信息采用不同的网络模型进行提取,相同种类的语义信息采用一个或多个网络模型进行提取。
3.根据权利要求1所述的方法,其特征在于,所述处理策略包括全局处理策略或/和分区处理策略。
4.根据权利要求3所述的方法,其特征在于,当所述处理策略包括分区处理策略时,所述依据所述语义信息确定对所述待增强图像进行增强处理的处理策略,包括:
依据所述语义信息对所述待增强处理图像进行区域划分,以得到至少两个分区;
分别确定对所述至少两个分区进行增强处理的处理策略,不同分区的处理策略不同。
5.根据权利要求4所述的方法,其特征在于,所述依据所述语义信息对所述待增强图像进行区域划分,以得到至少两个分区,包括:
依据所述语义信息生成对应所述待增强图像的掩膜,所述掩膜包括两个分区,不同分区的像素值不同;
所述两个分区包括第一分区和第二分区,所述第一分区为存在指定事件或指定目标的区域,所述第二分区为不存在指定事件或指定目标的区域,所述第一分区的像素值为第一值,所述第二分区的像素值为第二值;
所述分别确定对所述至少两个分区进行增强处理的处理策略,包括:
对于所述待增强图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值时,确定进行增强处理的处理策略为不进行增强处理,或进行弱增强处理;当该像素位置对应的所述掩膜的像素值为所述第二值时,确定进行增强处理的处理策略为进行增强处理。
6.根据权利要求4所述的方法,其特征在于,所述依据所述语义信息对所述待增强图像进行区域划分,以得到至少两个分区,包括:
依据所述语义信息生成对应所述待增强图像的掩膜,所述掩膜包括三个分区,不同分区的像素值不同;
所述三个分区包括第一分区、第三分区和第四分区,所述第一分区为存在指定事件或指定目标的区域,所述第三分区为存在指定事件或指定目标的区域的边缘之外指定范围内的区域,所述第四分区为其余区域,所述第一分区的像素值为第一值,所述第三分区的像素值为第三值,所述第四分区的像素值为第四值;
所述分别确定对所述至少两个分区进行增强处理的处理策略,包括:
对于所述待增强图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值时,确定进行增强处理的处理策略为不进行增强处理;当该像素位置对应的所述掩膜的像素值为所述第三值时,确定进行增强处理的处理策略为进行弱增强处理;当该像素位置对应的所述掩膜的像素值为所述第四值时,确定进行增强处理的处理策略为进行增强处理。
7.根据权利要求4所述的方法,其特征在于,所述增强处理包括饱和度增强处理;
所述依据所述处理策略对所述待增强图像进行增强处理,包括:
将所述待增强图像由RGB图像转换为HSV图像,以得到待增强HSV图像;
依据所述掩膜中各像素位置的像素值,对所述待增强HSV图像中各像素位置的S分量进行增强处理,以得到增强处理后的HSV图像;
将所述增强处理后的HSV图像转换为RGB图像,以得到增强处理后的RGB图像。
8.根据权利要求7所述的方法,其特征在于,当所述至少两个分区包括第一分区和第二分区时,
所述依据所述掩膜中各像素位置的像素值,对所述待增强HSV图像中各像素位置的S分量进行增强处理,包括:
对于所述待增强HSV图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值时,保持该像素位置的S分量;
当该像素位置对应的所述掩膜的像素值为所述第二值时,使用第一增强系数,对该像素位置的S分量进行增强,所述第一增强系数大于1;
和/或,当所述至少两个分区包括第一分区、第三分区和第四分区时,
所述依据所述掩膜中各像素位置的像素值,对所述待增强HSV图像中各像素位置的S分量进行增强处理,包括:
对于所述待增强HSV图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值时,保持该像素位置的S分量;
当该像素位置对应的所述掩膜的像素值为所述第三值时,使用第二增强系数,对该像素位置的S分量进行增强,所述第二增强系数大于1;
当该像素位置对应的所述掩膜的像素值为所述第四值时,使用第三增强系数,对该像素位置的S分量进行增强,所述第三增强系数大于所述第二增强系数。
9.根据权利要求7所述的方法,其特征在于,所述依据所述掩膜中各像素位置的像素值,对所述待增强HSV图像中各像素位置的S分量进行增强处理,包括:
依据所述掩膜中各像素位置的像素值,以及所述待增强HSV图像中各像素位置的H分量的值,对所述待增强HSV图像中各像素位置的S分量进行增强处理;
其中,当所述至少两个分区包括第一分区和第二分区时,
所述依据所述掩膜中各像素位置的像素值,以及所述待增强HSV图像中各像素位置的H分量的值,对所述待增强HSV图像中各像素位置的S分量进行增强处理,包括:
对于所述待增强HSV图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值,或,该像素位置的H分量的值处于预设范围时,保持该像素位置的S分量;否则,使用第四增强系数,对该像素位置的S分量进行增强,所述第四增强系数大于1;
和/或,当所述至少两个分区包括第一分区、第三分区和第四分区时,
所述依据所述掩膜中各像素位置的像素值,以及所述待增强HSV图像中各像素位置的H分量的值,对所述待增强HSV图像中各像素位置的S分量进行增强处理,包括:
对于所述待增强HSV图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值,或,该像素位置的H分量的值处于预设范围时,保持该像素位置的S分量;
当该像素位置对应的所述掩膜的像素值为所述第三值,且该像素位置的H分量未处于所述预设范围时,使用第五增强系数,对该像素位置的S分量进行增强,所述第五增强系数大于1;
当该像素位置对应的所述掩膜的像素值为所述第四值,且该像素位置的H分量未处于所述预设范围时,使用第六增强系数,对该像素位置的S分量进行增强,所述第六增强系数大于所述第五增强系数。
10.根据权利要求5或6所述的方法,其特征在于,所述增强处理包括对比度增强处理;
所述依据所述处理策略对所述待增强图像进行增强处理,包括:
对所述待增强图像进行低通滤波,以得到所述待增强图像的低频部分;
依据所述待增强图像,以及所述待增强图像的低频部分,确定所述待增强图像的高频部分;
依据所述掩膜中各像素位置的像素值,对所述待增强图像的高频部分进行增强处理;
其中,当所述至少两个分区包括第一分区和第二分区时,
所述依据所述掩膜中各像素位置的像素值,对所述待增强图像的高频部分进行增强处理,包括:
对于所述待增强HSV图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值时,保持该像素位置的像素值;
当该像素位置对应的所述掩膜的像素值为所述第二值时,依据第一增益,对该像素位置的高频部分进行增强处理,所述第一增益大于1;
和/或,当所述至少两个分区包括第一分区、第三分区和第四分区时,
所述依据所述掩膜中各像素位置的像素值,对所述待增强图像的高频部分进行增强处理,包括:
对于所述待增强HSV图像中的任一像素位置,当该像素位置对应的所述掩膜的像素值为所述第一值时,保持该像素位置的像素值;
当该像素位置对应的所述掩膜的像素值为所述第三值时,依据第二增益,对该像素位置的高频部分进行增强处理,所述第二增益大于1;
当该像素位置对应的所述掩膜的像素值为所述第四值时,依据第三增益,对该像素位置的高频部分进行增强处理,所述第三增益大于所述第二增益。
11.根据权利要求10所述的方法,其特征在于,用于对像素位置的高频部分进行增强处理的增益为常数,或,依据局部均方差确定,对于任一像素位置,该像素位置对应的局部均方差依据以该像素位置为中心,预设宽高的窗口内的像素值确定。
12.根据权利要求3所述的方法,其特征在于,当所述处理策略包括全局处理策略时,所述依据所述处理策略对所述待增强图像进行增强处理,包括:
当所述语义信息为场景分类信息,且场景分类信息包括所述待增强图像为耳、鼻、喉场景时,对整帧图像进行去除红色失真的增强处理;
当语义信息为场景分类信息,且场景分类信息包括所述待增强图像存在摩尔纹时,对整帧图像进行去除摩尔纹的增强处理。
13.一种图像增强装置,其特征在于,包括:
提取单元,用于利用预先训练的网络模型,提取所述待增强图像的语义信息;所述语义信息包括目标信息、场景分类信息以及事件信息中的一种或多种;
确定单元,用于依据所述语义信息确定对所述待增强图像进行增强处理的处理策略;其中,当所述语义信息由第一语义信息切换为第二语义信息时,所述处理策略由第一增强处理策略调整为第二增强处理策略;
处理单元,用于依据所述处理策略对所述待增强图像进行增强处理。
14.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的机器可执行指令,所述处理器用于执行机器可执行指令,以实现如权利要求1-12任一项所述的方法。
15.一种内窥镜系统,其特征在于,包括:内窥镜装置、光源装置、摄像系统主机、显示装置和存储装置;其中:
所述内窥镜装置,用于拍摄被检体的观察部位并生成图像数据;
所述光源装置,用于提供从内窥镜装置前端射出的照明光;
所述摄像系统主机,用于按照权利要求1-12任一项所述的方法对所述内窥镜装置生成的图像数据进行处理;
所述显示装置,用于显示与所述摄像系统主机处理后的图像数据对应的图像;
所述存储装置,用于存储与所述摄像系统主机处理后的图像数据对应的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011545894.4A CN114663293A (zh) | 2020-12-23 | 2020-12-23 | 一种图像增强方法、装置、电子设备及内窥镜系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011545894.4A CN114663293A (zh) | 2020-12-23 | 2020-12-23 | 一种图像增强方法、装置、电子设备及内窥镜系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114663293A true CN114663293A (zh) | 2022-06-24 |
Family
ID=82024632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011545894.4A Pending CN114663293A (zh) | 2020-12-23 | 2020-12-23 | 一种图像增强方法、装置、电子设备及内窥镜系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114663293A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115330803A (zh) * | 2022-10-17 | 2022-11-11 | 菲特(天津)检测技术有限公司 | 一种表面缺陷数据增强方法、装置、电子设备及存储介质 |
CN117745620A (zh) * | 2024-02-19 | 2024-03-22 | 荣耀终端有限公司 | 一种图像处理方法及电子设备 |
-
2020
- 2020-12-23 CN CN202011545894.4A patent/CN114663293A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115330803A (zh) * | 2022-10-17 | 2022-11-11 | 菲特(天津)检测技术有限公司 | 一种表面缺陷数据增强方法、装置、电子设备及存储介质 |
CN117745620A (zh) * | 2024-02-19 | 2024-03-22 | 荣耀终端有限公司 | 一种图像处理方法及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020224470A1 (zh) | 医疗内窥镜图像的识别方法、系统和内窥镜影像系统 | |
CN112639865B (zh) | 图像处理系统、学习完毕模型和图像处理方法 | |
WO2023103467A1 (zh) | 图像处理方法、装置及设备 | |
CN109310306B (zh) | 图像处理装置、图像处理方法和医疗成像系统 | |
CN114663293A (zh) | 一种图像增强方法、装置、电子设备及内窥镜系统 | |
US12087014B2 (en) | Apparatuses, systems, and methods for managing auto-exposure of image frames depicting signal content against a darkened background | |
CN113498323A (zh) | 医用图像处理装置、处理器装置、内窥镜系统、医用图像处理方法、及程序 | |
CN114066780B (zh) | 4k内窥镜图像去雾方法、装置、电子设备及存储介质 | |
CN109241898A (zh) | 腔镜视像的目标定位方法和系统、存储介质 | |
JP2021045337A (ja) | 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理方法、及びプログラム | |
US20230255443A1 (en) | Apparatuses, systems, and methods for discounting an object while managing auto-exposure of image frames depicting the object | |
KR101385743B1 (ko) | 수술 영상의 실시간 시각적 노이즈 자동 제거 장치, 방법 및 시스템 | |
KR20200046775A (ko) | Ct 영상 내 간암 영역 기반으로 3차원 분석을 하는 수술 보조 장치 및 방법 | |
CN112488926A (zh) | 用于基于神经网络的色彩还原的系统和方法 | |
CN112584735B (zh) | 手术内窥镜视频流的图像校正 | |
US20190122344A1 (en) | Image processing apparatus, image processing method, and non-transitory computer readable recording medium | |
CN105282454A (zh) | 一种内窥镜成像系统及成像方法 | |
CN114387191B (zh) | 一种内窥镜图像增强方法及内窥镜装置 | |
CN116681788B (zh) | 图像电子染色方法、装置、介质和计算设备 | |
Sdiri et al. | Comparative study of endoscopic image enhancement techniques | |
Zhang et al. | Research on Tissue Structure Enhancement Method of Medical Endoscope Images | |
CN115908349B (zh) | 一种基于组织识别的内窥镜参数自动调整方法与设备 | |
US20240259696A1 (en) | Depth-based auto-exposure management | |
CN118452806B (zh) | 新型荧光集成4k鼻颅底镜的光路智能调节方法及系统 | |
CN116109533A (zh) | 内窥镜图像增强方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |