CN116563172A - 一种vr全球化在线教育互动优化增强方法及装置 - Google Patents
一种vr全球化在线教育互动优化增强方法及装置 Download PDFInfo
- Publication number
- CN116563172A CN116563172A CN202310844517.8A CN202310844517A CN116563172A CN 116563172 A CN116563172 A CN 116563172A CN 202310844517 A CN202310844517 A CN 202310844517A CN 116563172 A CN116563172 A CN 116563172A
- Authority
- CN
- China
- Prior art keywords
- image
- edge
- sub
- pixel point
- enhancement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000003993 interaction Effects 0.000 title claims abstract description 35
- 238000005457 optimization Methods 0.000 title claims abstract description 34
- 238000012545 processing Methods 0.000 claims abstract description 65
- 238000003708 edge detection Methods 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 31
- 238000001914 filtration Methods 0.000 claims description 29
- 238000004422 calculation algorithm Methods 0.000 claims description 27
- 230000011218 segmentation Effects 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 10
- 230000000903 blocking effect Effects 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000012952 Resampling Methods 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005315 distribution function Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/08—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
- G09B5/14—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations with provision for individual teacher-student communication
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Tourism & Hospitality (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Image Processing (AREA)
Abstract
本发明实施例提供了一种VR全球化在线教育互动优化增强方法及装置,包括:利用VR设备采集VR教育场景的每一帧图像,对每一帧图像进行预处理,而后对预处理后图像的进行边缘处理,获取图像边缘细节的分布情况,而后根据图像边缘细节的分布情况对图像进行自适应分块处理,确定图像的子块,最后对不同大小的子块进行局部图像增强处理,获取实时传输到用户端的增强后的图像。这样,在保证图像数据的质量时保证图像的细节,以便于实现更精确的图像增强,避免图像细节丢失影响用户体验。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种VR全球化在线教育互动优化增强方法及装置。
背景技术
随着全球化的发展,越来越多的人们需要接受跨国教育,而VR技术为在线教育提供了更好的交互和沉浸式学习体验。然而,由于网络带宽、设备性能等因素的限制,VR教育中的图像质量往往无法满足学生的需求,影响学习效果。
相关技术中,已有一些图像增强方法被应用于VR教育中,例如超分辨率重建、图像去噪、图像增强等。传统图像增强方法通常选择直方图均衡化,直方图均衡化在对图像进行增强时,往往会出现图像细节丢失的问题,由于直方图均衡化是基于全局进行增强处理的,故会导致部分灰度集被合并,从而导致图像细节丢失,影响用户体验。
发明内容
鉴于上述问题,本申请提供了一种VR全球化在线教育互动优化增强方法及装置,能够在保证图像增强处理的图像数据的质量时保证图像的细节,避免图像细节丢失影响用户体验。
第一方面,本申请实施例提供了一种VR全球化在线教育互动优化增强方法,包括:
获取VR教育场景图像;
对每一帧图像进行预处理;
对预处理后图像的进行边缘处理,获取图像边缘细节的分布情况;
根据图像边缘细节的分布情况对图像进行自适应分块处理,确定图像的子块;
对不同大小的子块进行局部图像增强处理,获取实时传输到用户端的增强后的图像。
在一种可能的实现方式中,包括:对图像采用滤波算法进行滤波平滑处理,对处理后的图像进行灰度化处理,得到图像对应的灰度图。
在一种可能的实现方式中,包括:通过边缘检测算法获取图像的边缘图像,对边缘图像进行瓦片分割。
在一种可能的实现方式中,进一步包括:根据瓦片中隶属于边缘像素点的比例和边缘像素点的分布,确定瓦片的目标程度,其中瓦片的目标程度的计算公式为:
;
式中b表示瓦片中边缘像素点的数量,n表示瓦片边长,表示第/>个边缘像素点与其他边缘像素点的距离,/>表示所有边缘像素点与其他边缘像素点的距离的均值;
将所有瓦片的目标程度与目标程度阈值比较,对所有大于目标程度阈值的瓦片进行标记;
根据瓦片的分布获取当前图像的局部增强必要性,其中当前图像的局部增强必要性的计算公式为:
;
其中c表示当前图像的局部增强必要性,d表示标记瓦片的数量,D表示瓦片总数量,L表示个和第/>+1个瓦片间的距离,/>表示所有瓦片间的平均距离。
在一种可能的实现方式中,进一步包括:将所有图像的局部增强必要性与局部增强必要性阈值比较,获得所有目标图像;
对所有目标图像进行边缘检测处理,其中目标图像为图像的局部增强必要性大于局部增强必要性阈值的图像。
在一种可能的实现方式中,进一步包括:通过改变边缘检测阈值,获取不同边缘检测阈值下目标图像的边缘图像;
根据边缘图像的边缘消散程度确定边缘像素点的细节程度,其中边缘像素点的细节程度的计算公式为:
;
其中表示边缘细节的细节程度,g表示不同边缘检测阈值下边缘图像边缘像素点的个数,/>表示对应位置第/>个边缘像素点的取值,若存在边缘点则为1,否则为0。
在一种可能的实现方式中,进一步包括:获取边缘像素点一定窗口内边缘像素点的分布情况,根据边缘像素点的分布情况,获取窗口中心像素点的关注程度,其中窗口中心像素点的关注程度的计算公式为:
;
其中p表示窗口中心像素点的关注程度,q表示窗口中边缘像素点的个数,其中边缘像素点是以最小边缘检测阈值得到的边缘图像中的边缘点为准,表示窗口中第/>个边缘点到中心点的欧式距离,f表示边缘细节的细节程度,/>表示边缘细节的细节程度与欧式距离乘积的均值,窗口为/>大小,/>=5。
在一种可能的实现方式中,进一步包括:根据边缘像素点的关注程度获取对应边缘像素点的关联范围,其中边缘像素点的关联范围的计算公式为:
;
其中表示边缘像素点的关联范围,p表示窗口中心像素点(即目标边缘像素点)的关注程度,f表示边缘细节的细节程度,s表示初始最大关联范围,/>。
在一种可能的实现方式中,进一步包括:
根据所有边缘像素点的关联范围,获取关联范围的交集情况;
根据关联范围的交集情况,统计获取每个位置像素点的覆盖次数;
根据每个位置像素点的覆盖次数,获取对应位置像素点的子块大小,对应位置像素点的子块大小的计算公式为:
;
其中表示对应位置像素点的子块大小,/>表示对应位置像素点的累加覆盖次数,/>表示经验子块的最大值和最小值,/>表示累加覆盖次数的最大值;
根据计算的对应位置像素点的子块大小,完成图像的子块分割;
其中,以位于覆盖次数最大的区域最中心的像素点为初始像素点进行子块分割,当子块中出现覆盖次数较小的像素点时,以子块中覆盖次数出现频率最大的对应的子块大小进行分割;
对完成分割后的子块进行局部直方图均衡化处理,将所有局部直方图均衡化处理后的子块重新组合,获得增强后的图像。
第二方面,本申请实施例提供了一种VR全球化在线教育互动优化增强装置,包括:
获取模块,用于获取VR教育场景图像;
预处理模块,用于对每一帧图像进行预处理;
边缘处理模块,用于对预处理后图像的进行边缘处理,获取图像边缘细节的分布情况;
子块确定模块,用于根据图像边缘细节的分布情况对图像进行自适应分块处理,确定图像的子块;
图像增强处理模块,用于对不同大小的子块进行局部图像增强处理,获取实时传输到用户端的增强后的图像。
第三方面,本申请实施例提供了一种电子设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现如第一方面各个可能实现的实施例。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行如第一方面各个可能实现的实施例。
附图说明
图1是本申请实施例提供的一种VR全球化在线教育互动优化增强方法实施环境的系统框架结构示意图;
图2是本申请实施例提供的一种VR全球化在线教育互动优化增强方法的步骤流程图;
图3是本申请实施例提供的一种图像子块分割示意图;
图4是本申请实施例提供的一种VR全球化在线教育互动优化增强装置的结构框图;
图5是本申请实施例提供的一种电子设备的结构框图;
图6是本申请实施例提供的一种计算机可读存储介质的结构框图。
具体实施方式
为使本申请的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员所获得的所有其它实施例,都属于本申请保护的范围。
本申请的实施方式部分使用的术语仅用于对本申请的具体实施例进行解释,而非旨在限定本申请。
需要注意,本申请中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
VR是Virtual Reality的缩写,中文的意思就是虚拟现实,虚拟现实技术是一种能够创建和体验虚拟世界的计算机仿真技术,它利用计算机生成一种交互式的三维动态视景,其实体行为的仿真系统能够使用户沉浸到该环境中,虚拟现实技术综合了计算机图形技术、计算机仿真技术、传感器技术、显示技术等多种科学技术,它在多维信息空间上创建一个虚拟信息环境,能使用户具有身临其境的沉浸感,具有与环境完善的交互作用能力,并有助于启发构思。
下面结合附图,对本申请的实施例进行描述。本领域普通技术人员可知,随着技术的发展和新场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
参见图1,图1为本申请的VR全球化在线教育互动优化增强方法实施环境的系统框架结构示意图。
如图1所示,VR全球化在线教育互动优化增强方法实施环境的系统框架结构具体包括:若干VR设备(第一VR设备、第二VR设备)以及服务器。在本实施例中,各VR设备与服务器之间建立相应的通讯连接,并且各VR设备需要在服务器上进行相应的共享权限的获取,也就是只有具有场景共享权限的VR设备才能进行场景共享。具体地,在此系统中服务器具体用于接收第一VR设备发送的第一连接请求;和/或接收第一VR设备发送的场景共享请求;和/或接收第二VR设备发送的第三反馈信息;和/或判断第二VR设备是否已建立通讯连接,并接收第二VR设备发送的第二反馈信息;和/或发送场景共享请求至第二VR设备;和/或接收第二VR设备发送的第一反馈信息,并发送至第一VR设备;和/或接收第一VR设备发送的当前场景信息,并发送至第二VR设备。
具体地,与服务器可以建立通讯连接的VR设备有多个,也就会在进行场景共享时,不仅仅只能是第一VR设备共享当前的场景信息给第二VR设备,还可以进行多设备共享,也就是,第一VR设备进行场景共享时,接受场景共享的VR设备可以是两个或者更多。在此系统中,服务器与各VR设备之间均可建立通讯连接,使得任意一个VR设备都可以作为主VR设备(进行场景共享的VR设备),通过发送场景共享请求至服务器,其中场景共享请求中包含有所有第二VR设备分别对应的标识信息,然后服务器进行相应的权限判断,进而实现各VR设备之间的场景共享。
在上述在线教育实施例中,教师使用的VR设备为主VR设备,进行教育教学场景的共享,将增强处理后的图像进行实时通信传输,共享到其他VR设备,如学生端、用户端VR设备等。
需要说明的是,在上述实施例中,出现的各种名词并不代表任何具体地意义。比如,所提及的“第一VR设备”与“第二VR设备”,仅仅是用来进行设备的区分,没有其他的标记意义,同样,对于第一VR设备以及第二VR设备,两者直接的具体应用可以进行互换,也就是可以是第二VR设备进行场景共享,而第一VR设备作为目标设备来接受第二VR设备的场景共享;还比如,所提及的“第一连接请求”与“第二连接请求”,“第一反馈信息”、“第二反馈信息”以及“第三反馈信息”均仅仅是用于区分,没有任何其他的限定作用。
参见图2所示,本申请实施例公开了一种VR全球化在线教育互动优化增强方法,包括:
步骤S11,获取VR教育场景图像;
步骤S12,对每一帧图像进行预处理;
步骤S13,对预处理后图像的进行边缘处理,获取图像边缘细节的分布情况;
步骤S14,根据图像边缘细节的分布情况对图像进行自适应分块处理,确定图像的子块;
步骤S15,对不同大小的子块进行局部图像增强处理,获取实时传输到用户端的增强后的图像。
其中,使用VR设备(第一VR设备或第二VR设备)创建VR场景,包括需要采集的教育内容,使用VR设备进入场景进行教育数据的采集,使用对应的VR软件将采集的数据保存为图像或视频,其中VR设备可以是VR眼镜、VR头盔等,在此不对其进行具体限定。
在上述实施例步骤中,利用VR设备采集VR教育场景的每一帧图像,对每一帧图像进行预处理,而后对预处理后图像的进行边缘处理,获取图像边缘细节的分布情况,而后根据图像边缘细节的分布情况对图像进行自适应分块处理,确定图像的子块,最后对不同大小的子块进行局部图像增强处理,获取实时传输到用户端的增强后的图像。本申请实施例是通过对采集的VR教育场景图像数据进行分析,根据图像中的细节分布对图像数据进行自适应分块处理,对分块后的图像进行局部自适应直方图均衡化处理,对图像进行增强,在保证图像数据的质量时保证图像的细节,避免图像细节丢失影响用户体验。
在本申请一个可选的实施例中,包括:对图像采用滤波算法进行滤波平滑处理,对处理后的图像进行灰度化处理,得到图像对应的灰度图。
其中,滤波算法采用线性滤波算法或非线性滤波算法,其中线性滤波算法采用高斯滤波算法、方框滤波或均值滤波;非线性滤波算法采用中值滤波或双边滤波,在此不做具体限定。
在本申请的实施例中,通过上述设计处理,可以滤去图像较多的高频噪声,避免高频噪声噪声在图像重采样期间被进一步放大,导致图像失真或出现伪影,进一步提高后续图像处理的准确度,最后对图像进行灰度化处理,得到图像对应的灰度图。
在本申请一个可选的实施例中,包括:
通过边缘检测算法获取图像的边缘图像,对边缘图像进行瓦片分割。
其中,本申请的实施例采用Canny边缘检测算法每张图像的边缘情况,其中边缘图像为二值图像,隶属于边缘的像素点的值为1,非边缘像素点的值为0,对边缘二值图像进行瓦片分割。具体的,边缘检测算法的过程为:对图像进行高斯滤波,减少噪声的影响;计算梯度幅值和方向:对经过高斯滤波的图像进行Sobel算子计算,得到每个像素点的梯度幅值和方向;对梯度幅值图像进行非极大值抑制,保留梯度幅值图像中的局部最大值,抑制非最大值;将梯度幅值图像进行双阈值处理,分为强边缘、弱边缘和非边缘三类,其中强边缘的梯度幅值大于高阈值,非边缘的梯度幅值小于低阈值。弱边缘的梯度幅值在高低阈值之间;对弱边缘进行边缘连接,将与强边缘相邻的弱边缘划分为强边缘;输出连接后的边缘完成边缘检测,在此不再详细赘述。
在本申请一个可选的实施例中,进一步包括:根据瓦片中隶属于边缘像素点的比例和边缘像素点的分布,确定瓦片的目标程度,其中瓦片的目标程度的计算公式为:
;
式中b表示瓦片中边缘像素点的数量,n表示瓦片边长,表示第/>个边缘像素点与其他边缘像素点的距离,/>表示所有边缘像素点与其他边缘像素点的距离的均值;
将所有瓦片的目标程度与目标程度阈值比较,对所有大于目标程度阈值的瓦片进行标记;
根据瓦片的分布获取当前图像的局部增强必要性,其中当前图像的局部增强必要性的计算公式为:
;
其中c表示当前图像的局部增强必要性,d表示标记瓦片的数量,D表示瓦片总数量,L表示个和第/>+1个瓦片间的距离,/>表示所有瓦片间的平均距离。
在上述实施例中,瓦片中边缘像素点的数量越多,边缘像素点的分布越离散,则瓦片的目标程度越大,由此获取所有瓦片的目标程度,设定目标程度阈值,经验值取,对所有大于目标程度阈值的瓦片进行标记,并获取瓦片中心点,根据瓦片的分布可以获取当前图像的局部增强必要性,由上述局部增强必要性的计算公式可知,图像中标记瓦片的数量越多,标记瓦片的分布越离散,则对应图像的局部增强必要性越大。
在本申请一个可选的实施例中,进一步包括:
将所有图像的局部增强必要性与局部增强必要性阈值比较,获得所有目标图像;
对所有目标图像进行边缘检测处理,其中目标图像为图像的局部增强必要性大于局部增强必要性阈值的图像。
具体的,采集的图像中的边缘细节越多,采用局部直方图均衡化的必要性越大,对于细节不丰富的图像,为了减小计算量,不予以处理。获取所有图像或视频帧的局部增强必要性,设定局部增强必要性阈值,经验值取/>,对所有大于局部增强必要性阈值的图像进行局部增强处理。将所有大于局部增强必要性阈值的图像记为目标图像,对目标图像利用边缘检测获取目标图像的边缘图像,通过改变边缘检测阈值,获取不同阈值下的边缘检测图像。
在本申请一个可选的实施例中,进一步包括:
通过改变边缘检测阈值,获取不同边缘检测阈值下目标图像的边缘图像;
根据边缘图像的边缘消散程度确定边缘像素点的细节程度,其中边缘像素点的细节程度的计算公式为:
;
其中表示边缘细节的细节程度,g表示不同边缘检测阈值下边缘图像边缘像素点的个数,/>表示对应位置第/>个边缘像素点的取值,若存在边缘点则为1,否则为0。
需要说明的是,若对应阈值下对应像素点位置值为1,则该位置为边缘像素点,否则不是边缘像素点;同时随着边缘检测阈值的增大,边缘细节逐步消失,其中弱边缘消失速度快,强边缘消失速度较慢,根据边缘消散程度获取边缘细节的细节程度。
在本申请一个可选的实施例中,进一步包括:
获取边缘像素点一定窗口内边缘像素点的分布情况,根据边缘像素点的分布情况,获取窗口中心像素点的关注程度,其中窗口中心像素点的关注程度的计算公式为:
;
其中p表示窗口中心像素点的关注程度,q表示窗口中边缘像素点的个数,其中边缘像素点是以最小边缘检测阈值得到的边缘图像中的边缘点为准,表示窗口中第/>个边缘点到中心点的欧式距离,f表示边缘细节的细节程度,/>表示边缘细节的细节程度与欧式距离乘积的均值,窗口为/>大小,k的取值为经验值,最小为3,且k为奇数,实施者可根据实际情况自行调整,本实施例中取5即可。
需要说明的是,由于采集的图像中会存在噪声的影响,而噪声通常为孤立存在的点,故根据像素点一定范围内像素点的分布情况获取像素点的关注程度,即以某一个边缘像素点为目标像素点,建立大小的窗户,获取窗口内边缘像素点的分布情况,由此计算得到窗口中心像素点的关注程度。其中由上述窗口中心像素点的关注程度的计算公式可知,中心点周围分布的边缘细节点越多且对应的边缘细节点的细节程度越大,则中心点的关注程度也越大,即中心点更可能为边缘细节点而非噪声点。
在本申请一个可选的实施例中,进一步包括:
根据边缘像素点的关注程度获取对应边缘像素点的关联范围,其中边缘像素点的关联范围的计算公式为:
;
其中表示边缘像素点的关联范围,p表示窗口中心像素点(即目标边缘像素点)的关注程度,f表示边缘细节的细节程度,s表示初始最大关联范围,/>。
需要说明的是,根据边缘像素点的关注程度获取对应边缘像素点的关联范围,实际情况中,强边缘附近往往分布着较多的弱边缘,故像素点的关注程度越大,则对应的关联范围也应该越大;由边缘像素点的关联范围的计算公式可知,对应边缘像素点的关注程度越大、细节程度越大,则该像素点更可能为强边缘像素点,故该像素点附近更有可能存在较多的弱边缘细节,故其对应的关联范围越大。
在本申请一个可选的实施例中,进一步包括:
根据所有边缘像素点的关联范围,获取关联范围的交集情况;
根据关联范围的交集情况,统计获取每个位置像素点的覆盖次数;
根据每个位置像素点的覆盖次数,获取对应位置像素点的子块大小,对应位置像素点的子块大小的计算公式为:
;
其中表示对应位置像素点的子块大小,/>表示对应位置像素点的累加覆盖次数,/>表示经验子块的最大值和最小值,/>表示累加覆盖次数的最大值;
根据计算的对应位置像素点的子块大小,完成图像的子块分割;
其中,以位于覆盖次数最大的区域最中心的像素点为初始像素点进行子块分割,当子块中出现覆盖次数较小的像素点时,以子块中覆盖次数出现频率最大的对应的子块大小进行分割;
对完成分割后的子块进行局部直方图均衡化处理,将所有局部直方图均衡化处理后的子块重新组合,获得增强后的图像。
需要说明的是,获取关联范围的交集情况,若某一部分位置的像素点被多个关联范围所覆盖,则该部分更有可能存在较多的弱边缘细节,故对应位置在进行局部增强时应当选择较小的子块。统计各个位置像素点被覆盖次数,若第i个位置的像素点被某一个边缘像素点的关联范围所覆盖,则该位置累加覆盖次数1,同理对所有关联范围、所有位置像素点进行统计,获取每个位置的覆盖次数。覆盖次数越多,则对应位置的子块大小越小。
进一步的,根据上述对应位置像素点的子块大小的计算公式获取的是每一个像素点的子块优选程度,在进行子块分割时,以覆盖次数最大其位于覆盖次数最大的区域最中心的像素点为初始像素点进行子块分割,当子块中出现覆盖次数较小的像素点时,以子块中覆盖次数出现频率最大的对应的子块大小进行分割,由此完成子块分割。参见图3所示,例如初始位置中有5,5对应的子块大小为,在/>的范围内有3个4次覆盖的,1个5次覆盖的,此时4的频率大,则对子块进行扩展,4对应的子块大小为/>,则该位置的子块大小变为/>。由此完成对所有子块的分割。
通过上述实施例,进一步需要说明的是,图像中局部边缘细节分布越多,即图像的细节信息越丰富,在进行局部直方图均衡化时子块应越小,从而更好的消除强度不足和过饱和的像素。但子块越小计算量越大,故根据局部细节分布自适应获取大小不等的子块,从而在保证图像质量的同时减小计算量。
通过上述实施例步骤将图像分为大小不同的子块,对于每个区块,计算其灰度值直方图并进行直方图均衡化。直方图均衡化的目标是通过构建一种累积分布函数来增加图像的对比度和亮度;通过将像素值映射到一个新的值范围内来实现直方图均衡化;映射原区块像素值到新的范围内,即将灰度级转换为更广泛的范围内的值;这样就可以在该区域内消除强度不足和过度饱和的像素,从而实现更好的对比度和亮度,将所有处理后的块重新组合成完整的图像,由此得到增强后的图像。
需要说明的是,在本申请的实施例中,全局直方图均衡化容易造成图像细节丢失,局部直方图均衡化可以有效缓解细节丢失问题,但局部区域的大小不同,最终的增强效果也不同。图像局部的细节越丰富,子块应越小,以便于实现更精确的图像增强。
参见图4所示,本申请实施例公开了一种VR全球化在线教育互动优化增强装置,该VR全球化在线教育互动优化增强装置可以应用于各种电子设备,例如:VR头盔、VR眼镜或服务器等,在此不作限定。包括:
获取模块11,用于获取VR教育场景图像;
预处理模块12,用于对每一帧图像进行预处理;
边缘处理模块13,用于对预处理后图像的进行边缘处理,获取图像边缘细节的分布情况;
子块确定模块14,用于根据图像边缘细节的分布情况对图像进行自适应分块处理,确定图像的子块;
图像增强处理模块15,用于对不同大小的子块进行局部图像增强处理,获取实时传输到用户端的增强后的图像。
实施上述的VR全球化在线教育互动优化增强装置,通过对采集的VR教育场景图像数据进行分析,根据图像中的细节分布对图像数据进行自适应分块处理,对分块后的图像进行局部自适应直方图均衡化处理,对图像进行增强,在保证图像数据的质量时保证图像的细节,避免图像细节丢失影响用户体验。
在本申请一个可选的实施例中,预处理模块,包括:用于对图像采用滤波算法进行滤波平滑处理,对处理后的图像进行灰度化处理,得到图像对应的灰度图。
其中,滤波算法采用线性滤波算法或非线性滤波算法,其中线性滤波算法采用高斯滤波算法、方框滤波或均值滤波;非线性滤波算法采用中值滤波或双边滤波,在此不做具体限定。
在本申请的实施例中,通过上述设计处理,可以滤去图像较多的高频噪声,避免高频噪声噪声在图像重采样期间被进一步放大,导致图像失真或出现伪影,进一步提高后续图像处理的准确度,最后对图像进行灰度化处理,得到图像对应的灰度图。
在本申请一个可选的实施例中,边缘处理模块,包括:
用于通过边缘检测算法获取图像的边缘图像,对边缘图像进行瓦片分割。
在本申请一个可选的实施例中,边缘处理模块,进一步包括:
目标程度确定模块,用于根据瓦片中隶属于边缘像素点的比例和边缘像素点的分布,确定瓦片的目标程度,其中瓦片的目标程度的计算公式为:
;
式中b表示瓦片中边缘像素点的数量,n表示瓦片边长,表示第/>个边缘像素点与其他边缘像素点的距离,/>表示所有边缘像素点与其他边缘像素点的距离的均值;
比较模块,用于将所有瓦片的目标程度与目标程度阈值比较,对所有大于目标程度阈值的瓦片进行标记;
局部增强必要性计算模块,用于根据瓦片的分布获取当前图像的局部增强必要性,其中当前图像的局部增强必要性的计算公式为:
;
其中c表示当前图像的局部增强必要性,d表示标记瓦片的数量,D表示瓦片总数量,L表示个和第/>+1个瓦片间的距离,/>表示所有瓦片间的平均距离。
在上述实施例中,瓦片中边缘像素点的数量越多,边缘像素点的分布越离散,则瓦片的目标程度越大,由此获取所有瓦片的目标程度,设定目标程度阈值,经验值取,对所有大于目标程度阈值的瓦片进行标记,并获取瓦片中心点,根据瓦片的分布可以获取当前图像的局部增强必要性,由上述局部增强必要性的计算公式可知,图像中标记瓦片的数量越多,标记瓦片的分布越离散,则对应图像的局部增强必要性越大。
在本申请一个可选的实施例中,边缘处理模块,进一步包括:
用于将所有图像的局部增强必要性与局部增强必要性阈值比较,获得所有目标图像;
用于对所有目标图像进行边缘检测处理,其中目标图像为图像的局部增强必要性大于局部增强必要性阈值的图像。
实施上述的VR全球化在线教育互动优化增强装置,采集的图像中的边缘细节越多,采用局部直方图均衡化的必要性越大,对于细节不丰富的图像,为了减小计算量,不予以处理。
在本申请一个可选的实施例中,边缘处理模块,进一步包括:
用于通过改变边缘检测阈值,获取不同边缘检测阈值下目标图像的边缘图像;
用于根据边缘图像的边缘消散程度确定边缘像素点的细节程度,其中边缘像素点的细节程度的计算公式为:
;
其中表示边缘细节的细节程度,g表示不同边缘检测阈值下边缘图像边缘像素点的个数,/>表示对应位置第/>个边缘像素点的取值,若存在边缘点则为1,否则为0。
需要说明的是,随着边缘检测阈值的增大,边缘细节逐步消失,其中弱边缘消失速度快,强边缘消失速度较慢,根据边缘消散程度获取边缘细节的细节程度。
在本申请一个可选的实施例中,子块确定模块,进一步包括:
用于获取边缘像素点一定窗口内边缘像素点的分布情况,根据边缘像素点的分布情况,获取窗口中心像素点的关注程度,其中窗口中心像素点的关注程度的计算公式为:
;
其中p表示窗口中心像素点的关注程度,q表示窗口中边缘像素点的个数,其中边缘像素点是以最小边缘检测阈值得到的边缘图像中的边缘点为准,表示窗口中第/>个边缘点到中心点的欧式距离,f表示边缘细节的细节程度,/>表示边缘细节的细节程度与欧式距离乘积的均值,窗口为/>大小,k的取值为经验值,最小为3,且k为奇数,实施者可根据实际情况自行调整,本实施例中取5即可。
需要说明的是,由于采集的图像中会存在噪声的影响,而噪声通常为孤立存在的点,故根据像素点一定范围内像素点的分布情况获取像素点的关注程度,即以某一个边缘像素点为目标像素点,建立大小的窗户,获取窗口内边缘像素点的分布情况,由此计算得到窗口中心像素点的关注程度。其中由上述窗口中心像素点的关注程度的计算公式可知,中心点周围分布的边缘细节点越多且对应的边缘细节点的细节程度越大,则中心点的关注程度也越大,即中心点更可能为边缘细节点而非噪声点。
在本申请一个可选的实施例中,子块确定模块,进一步包括:
用于根据边缘像素点的关注程度获取对应边缘像素点的关联范围,其中边缘像素点的关联范围的计算公式为:
;
其中表示边缘像素点的关联范围,p表示窗口中心像素点(即目标边缘像素点)的关注程度,f表示边缘细节的细节程度,s表示初始最大关联范围,/>。
需要说明的是,根据边缘像素点的关注程度获取对应边缘像素点的关联范围,实际情况中,强边缘附近往往分布着较多的弱边缘,故像素点的关注程度越大,则对应的关联范围也应该越大;由边缘像素点的关联范围的计算公式可知,对应边缘像素点的关注程度越大、细节程度越大,则该像素点更可能为强边缘像素点,故该像素点附近更有可能存在较多的弱边缘细节,故其对应的关联范围越大。
在本申请一个可选的实施例中,子块确定模块,进一步包括:
根据所有边缘像素点的关联范围,获取关联范围的交集情况;
根据关联范围的交集情况,统计获取每个位置像素点的覆盖次数;
根据每个位置像素点的覆盖次数,获取对应位置像素点的子块大小,对应位置像素点的子块大小的计算公式为:
;/>
其中表示对应位置像素点的子块大小,/>表示对应位置像素点的累加覆盖次数,/>表示经验子块的最大值和最小值,/>表示累加覆盖次数的最大值;
根据计算的对应位置像素点的子块大小,完成图像的子块分割;
其中,以位于覆盖次数最大的区域最中心的像素点为初始像素点进行子块分割,当子块中出现覆盖次数较小的像素点时,以子块中覆盖次数出现频率最大的对应的子块大小进行分割;
对完成分割后的子块进行局部直方图均衡化处理,将所有局部直方图均衡化处理后的子块重新组合,获得增强后的图像。
通过上述实施例,进一步需要说明的是,图像中局部边缘细节分布越多,即图像的细节信息越丰富,在进行局部直方图均衡化时子块应越小,从而更好的消除强度不足和过饱和的像素。但子块越小计算量越大,故根据局部细节分布自适应获取大小不等的子块,从而在保证图像质量的同时减小计算量。
通过VR全球化在线教育互动优化增强装置将图像分为大小不同的子块,对于每个区块,计算其灰度值直方图并进行直方图均衡化。直方图均衡化的目标是通过构建一种累积分布函数来增加图像的对比度和亮度;通过将像素值映射到一个新的值范围内来实现直方图均衡化;映射原区块像素值到新的范围内,即将灰度级转换为更广泛的范围内的值;这样就可以在该区域内消除强度不足和过度饱和的像素,从而实现更好的对比度和亮度,将所有处理后的块重新组合成完整的图像,由此得到增强后的图像。
需要说明的是,在本申请的实施例中,全局直方图均衡化容易造成图像细节丢失,局部直方图均衡化可以有效缓解细节丢失问题,但局部区域的大小不同,最终的增强效果也不同。图像局部的细节越丰富,子块应越小,以便于实现更精确的图像增强。
实施上述VR全球化在线教育互动优化增强装置通过对采集的VR教育场景图像数据进行分析,根据图像中的细节分布对图像数据进行自适应分块处理,对分块后的图像进行局部自适应直方图均衡化处理,对图像进行增强,在保证图像数据的质量时保证图像的细节,避免图像细节丢失影响用户体验。
参见图5所示,本申请实施例公开了一种电子设备20,包括处理器21和存储器22;其中,存储器22,用于保存计算机程序;处理器21,用于通过执行计算机程序来实现前述方法实施例提供的VR全球化在线教育互动优化增强方法。
关于上述VR全球化在线教育互动优化增强方法的具体过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
并且,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,存储方式可以是短暂存储或者永久存储。
另外,电子设备20还包括电源23、通信接口24、输入输出接口25和通信总线26;其中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口24能够为电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本申请技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
进一步的,本申请实施例还公开了一种计算机可读存储介质,如图6所示,用于保存计算机程序31,其中,计算机程序被处理器执行时实现前述方法实施例提供的VR全球化在线教育互动优化增强方法。
关于上述VR全球化在线教育互动优化增强方法的具体过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
本申请实施例还提供了一种包含指令的计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行本申请方法实施例所示的VR全球化在线教育互动优化增强方法。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本申请所提供的一种VR全球化在线教育互动优化增强方法、装置、设备及介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种VR全球化在线教育互动优化增强方法,其特征在于,包括:
获取VR教育场景图像;
对每一帧所述图像进行预处理;
对所述预处理后图像的进行边缘处理,获取所述图像边缘细节的分布情况;
根据所述图像边缘细节的分布情况对所述图像进行自适应分块处理,确定所述图像的子块;
对不同大小的所述子块进行局部图像增强处理,获取实时传输到用户端的增强后的图像。
2.根据权利要求1所述的VR全球化在线教育互动优化增强方法,其特征在于,包括:
对所述图像采用滤波算法进行滤波平滑处理,对处理后的所述图像进行灰度化处理,得到所述图像对应的灰度图。
3.根据权利要求1所述的VR全球化在线教育互动优化增强方法,其特征在于,包括:
通过边缘检测算法获取所述图像的边缘图像,对所述边缘图像进行瓦片分割。
4.根据权利要求3所述的VR全球化在线教育互动优化增强方法,其特征在于,进一步包括:
根据所述瓦片中隶属于边缘像素点的比例和边缘像素点的分布,确定瓦片的目标程度,其中所述瓦片的目标程度的计算公式为:
;
式中b表示瓦片中边缘像素点的数量,n表示瓦片边长,表示第/>个边缘像素点与其他边缘像素点的距离,/>表示所有边缘像素点与其他边缘像素点的距离的均值;
将所有所述瓦片的目标程度与目标程度阈值比较,对所有大于目标程度阈值的瓦片进行标记;
根据所述瓦片的分布获取当前图像的局部增强必要性,其中当前图像的局部增强必要性的计算公式为:
;
其中c表示当前图像的局部增强必要性,d表示标记瓦片的数量,D表示瓦片总数量,L表示个和第/>+1个瓦片间的距离,/>表示所有瓦片间的平均距离。
5.根据权利要求4所述的VR全球化在线教育互动优化增强方法,其特征在于,进一步包括:
将所有所述图像的局部增强必要性与局部增强必要性阈值比较,获得所有目标图像;
对所有所述目标图像进行边缘检测处理,其中所述目标图像为所述图像的局部增强必要性大于局部增强必要性阈值的图像。
6.根据权利要求5所述的VR全球化在线教育互动优化增强方法,其特征在于,进一步包括:
通过改变边缘检测阈值,获取不同边缘检测阈值下所述目标图像的边缘图像;
根据所述边缘图像的边缘消散程度确定边缘像素点的细节程度,其中所述边缘像素点的细节程度的计算公式为:
;
其中表示边缘细节的细节程度,g表示不同边缘检测阈值下边缘图像边缘像素点的个数,/>表示对应位置第/>个边缘像素点的取值,若存在边缘点则为1,否则为0。
7.根据权利要求6所述的VR全球化在线教育互动优化增强方法,其特征在于,进一步包括:
获取所述边缘像素点一定窗口内所述边缘像素点的分布情况,根据所述边缘像素点的分布情况,获取窗口中心像素点的关注程度,其中所述窗口中心像素点的关注程度的计算公式为:
;
其中p表示窗口中心像素点的关注程度,q表示窗口中边缘像素点的个数,其中边缘像素点是以最小边缘检测阈值得到的边缘图像中的边缘点为准,表示窗口中第/>个边缘点到中心点的欧式距离,f表示边缘细节的细节程度,/>表示边缘细节的细节程度与欧式距离乘积的均值,窗口为/>大小,/>=5。
8.根据权利要求7所述的VR全球化在线教育互动优化增强方法,其特征在于,进一步包括:
根据边缘像素点的关注程度获取对应边缘像素点的关联范围,其中所述边缘像素点的关联范围的计算公式为:
;
其中表示边缘像素点的关联范围,p表示窗口中心像素点的关注程度,f表示边缘细节的细节程度,s表示初始最大关联范围,/>。
9.根据权利要求8所述的VR全球化在线教育互动优化增强方法,其特征在于,进一步包括:
根据所有所述边缘像素点的关联范围,获取关联范围的交集情况;
根据所述关联范围的交集情况,统计获取每个位置像素点的覆盖次数;
根据每个位置像素点的覆盖次数,获取对应位置像素点的子块大小,所述对应位置像素点的子块大小的计算公式为:
;
其中表示对应位置像素点的子块大小,/>表示对应位置像素点的累加覆盖次数,表示经验子块的最大值和最小值,/>表示累加覆盖次数的最大值;
根据计算的对应位置像素点的子块大小,完成所述图像的子块分割;
其中,以位于覆盖次数最大的区域最中心的像素点为初始像素点进行子块分割,当子块中出现覆盖次数较小的像素点时,以子块中覆盖次数出现频率最大的对应的子块大小进行分割;
对完成分割后的子块进行局部直方图均衡化处理,将所有局部直方图均衡化处理后的子块重新组合,获得增强后的图像。
10.一种VR全球化在线教育互动优化增强装置,其特征在于,包括:
获取模块,用于获取VR教育场景图像;
预处理模块,用于对每一帧所述图像进行预处理;
边缘处理模块,用于对所述预处理后图像的进行边缘处理,获取所述图像边缘细节的分布情况;
子块确定模块,用于根据所述图像边缘细节的分布情况对所述图像进行自适应分块处理,确定所述图像的子块;
图像增强处理模块,用于对不同大小的所述子块进行局部图像增强处理,获取实时传输到用户端的增强后的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310844517.8A CN116563172B (zh) | 2023-07-11 | 2023-07-11 | 一种vr全球化在线教育互动优化增强方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310844517.8A CN116563172B (zh) | 2023-07-11 | 2023-07-11 | 一种vr全球化在线教育互动优化增强方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116563172A true CN116563172A (zh) | 2023-08-08 |
CN116563172B CN116563172B (zh) | 2023-09-08 |
Family
ID=87490201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310844517.8A Active CN116563172B (zh) | 2023-07-11 | 2023-07-11 | 一种vr全球化在线教育互动优化增强方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116563172B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117237342A (zh) * | 2023-11-13 | 2023-12-15 | 中国人民解放军总医院第八医学中心 | 一种呼吸康复ct影像智能分析方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654438A (zh) * | 2015-12-27 | 2016-06-08 | 西南技术物理研究所 | 基于局部直方图均衡的灰度图像拟合增强方法 |
CN108846319A (zh) * | 2018-05-25 | 2018-11-20 | 平安科技(深圳)有限公司 | 基于直方图的虹膜图像增强方法、装置、设备及存储介质 |
CN114648530A (zh) * | 2022-05-20 | 2022-06-21 | 潍坊医学院 | 一种ct图像处理方法 |
CN116132818A (zh) * | 2023-02-01 | 2023-05-16 | 辉羲智能科技(上海)有限公司 | 用于自动驾驶的图像处理方法及系统 |
CN116309584A (zh) * | 2023-05-22 | 2023-06-23 | 泰安光明爱尔眼科医院有限公司 | 一种用于白内障区域识别的图像处理系统 |
-
2023
- 2023-07-11 CN CN202310844517.8A patent/CN116563172B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654438A (zh) * | 2015-12-27 | 2016-06-08 | 西南技术物理研究所 | 基于局部直方图均衡的灰度图像拟合增强方法 |
CN108846319A (zh) * | 2018-05-25 | 2018-11-20 | 平安科技(深圳)有限公司 | 基于直方图的虹膜图像增强方法、装置、设备及存储介质 |
CN114648530A (zh) * | 2022-05-20 | 2022-06-21 | 潍坊医学院 | 一种ct图像处理方法 |
CN116132818A (zh) * | 2023-02-01 | 2023-05-16 | 辉羲智能科技(上海)有限公司 | 用于自动驾驶的图像处理方法及系统 |
CN116309584A (zh) * | 2023-05-22 | 2023-06-23 | 泰安光明爱尔眼科医院有限公司 | 一种用于白内障区域识别的图像处理系统 |
Non-Patent Citations (1)
Title |
---|
KAVEEN PERERA ET AL: "A novel image enhancement method for palm vein images", 《2022 8TH INTERNATIONAL CONFERENCE ON CONTROL, DECISION AND INFORMATION TECHNOLOGIES》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117237342A (zh) * | 2023-11-13 | 2023-12-15 | 中国人民解放军总医院第八医学中心 | 一种呼吸康复ct影像智能分析方法 |
CN117237342B (zh) * | 2023-11-13 | 2024-02-02 | 中国人民解放军总医院第八医学中心 | 一种呼吸康复ct影像智能分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116563172B (zh) | 2023-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8873835B2 (en) | Methods and apparatus for correcting disparity maps using statistical analysis on local neighborhoods | |
EP2956891B1 (en) | Segmenting objects in multimedia data | |
WO2018082185A1 (zh) | 图像处理方法和装置 | |
US20200258196A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US20110211749A1 (en) | System And Method For Processing Video Using Depth Sensor Information | |
US9241091B2 (en) | Image processing device, image processing method, and computer program | |
CN109767408B (zh) | 图像处理方法、装置、存储介质及计算机设备 | |
CN109214996B (zh) | 一种图像处理方法及装置 | |
CN116563172B (zh) | 一种vr全球化在线教育互动优化增强方法及装置 | |
CN112150371B (zh) | 图像降噪方法、装置、设备及存储介质 | |
US9286653B2 (en) | System and method for increasing the bit depth of images | |
CN112348763A (zh) | 图像增强方法、装置、电子设备及介质 | |
JP2017091298A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
CN112785492A (zh) | 图像处理方法、装置、电子设备和存储介质 | |
Gu et al. | A low‐light image enhancement method based on image degradation model and pure pixel ratio prior | |
CN108960012B (zh) | 特征点检测方法、装置及电子设备 | |
CN111563517A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113506305B (zh) | 三维点云数据的图像增强方法、语义分割方法及装置 | |
WO2021102704A1 (zh) | 图像处理方法和装置 | |
CN111833262A (zh) | 图像降噪方法、装置及电子设备 | |
Mahmoudpour et al. | Superpixel-based depth map estimation using defocus blur | |
CN110751603A (zh) | 一种图像对比度的增强方法、系统及终端设备 | |
CN110363723B (zh) | 改进图像边界效果的图像处理方法及装置 | |
CN105787890A (zh) | 自适应等距模板迭代均值滤波的图像去噪方法 | |
KR101711929B1 (ko) | 다중컬러와 다중방향성에 기반한 영상의 윤곽선 추출방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |