CN113963081B - 一种基于图卷积网络的图像图表智能合成方法 - Google Patents
一种基于图卷积网络的图像图表智能合成方法 Download PDFInfo
- Publication number
- CN113963081B CN113963081B CN202111182122.3A CN202111182122A CN113963081B CN 113963081 B CN113963081 B CN 113963081B CN 202111182122 A CN202111182122 A CN 202111182122A CN 113963081 B CN113963081 B CN 113963081B
- Authority
- CN
- China
- Prior art keywords
- graph
- chart
- image
- node
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001308 synthesis method Methods 0.000 title claims description 3
- 238000000034 method Methods 0.000 claims abstract description 17
- 239000003086 colorant Substances 0.000 claims abstract description 14
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 10
- 230000000007 visual effect Effects 0.000 claims abstract description 10
- 238000005070 sampling Methods 0.000 claims abstract description 9
- 238000013528 artificial neural network Methods 0.000 claims abstract description 8
- 239000013256 coordination polymer Substances 0.000 claims description 18
- 238000005096 rolling process Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 238000012800 visualization Methods 0.000 abstract description 3
- 238000013079 data visualisation Methods 0.000 abstract 2
- 230000003190 augmentative effect Effects 0.000 abstract 1
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/12—Geometric CAD characterised by design entry means specially adapted for CAD, e.g. graphical user interfaces [GUI] specially adapted for CAD
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Architecture (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于图卷积网络的图像图表智能合成方法,其特点是采用深度神经网络生成输入图像的显著性图,基于显著性图进行蓝噪声采样,基于采样点构造三角化网格,基于三角化网格构造图,并利用图卷积网络预测合理的图表位置及大小,再提取目标位置的显著颜色,从自定义的图表颜色库中选取与背景颜色对比度大的色彩方案作为调色板,最后根据用户输入的数据绘制可视化图表。本发明与现有技术相比具有能够在图像上自动合成和谐美观的可视化图表,从而可以广泛应用在场景数据可视化,增强现实可视化,地理数据可视化等场景中,可根据用户指定的图像、可视化图表以及对应的数据,在图像上渲染位置合理且颜色和谐的可视化图表。
Description
技术领域
本发明涉及自动化平面设计技术领域,尤其是一种基于图卷积网络的图像图表智能合成方法。
背景技术
在平面设计领域,通常会有一些具有重复性要求的设计工作,而自动化平面设计可以有效帮助专业设计者和普通用户从这些重复性工作中解脱出来,以专注于更富有创造性的设计。当前,已经有相关工作分别聚焦于不同元素的自动排版设计,包括文字内嵌于图片中的海报设计,文字段落与图片相互独立的杂志内容排版,楼层平面图的设计等,但还未发现有学者提出图像图表智能合成这一问题及其解决方案。前期的平面设计技术方案主要采用规则驱动的方式,包括预定义布局模板,预定义美学规则,允许用户指定相关约束等。但这些方法仍然需要人工参与,譬如布局模板和美学规则都依赖于领域专家的设计经验,需要由领域专家提供。
现有技术的平面设计方法主要基于数据驱动的方式,即构造大量的数据集,并使用深度学习模型进行特征学习以达到智能合成的效果,但大量的高质量数据集的搜集和标注是耗时耗力的,工作效率低下。
发明内容
本发明的目的是针对现有技术的不足而设计的一种基于图卷积网络的图像图表智能合成方法,采用深度神经网络生成输入图像的显著性图,基于显著性图进行蓝噪声采样,以及采样点构造三角化网格和构造图,利用图卷积网络预测合理的图表位置及大小,提取目标位置的显著颜色,从自定义的图表颜色库中选取与背景颜色对比度大的色彩方案作为调色板,最后根据用户输入的数据绘制可视化图表,该方法提供了一个端到端的框架,允许用户上传指定的图像,图表类型以及图表数据,经过计算后,直接生成绘制好的合成图像,结合显著性检测和图卷积网络生成图像图表布局,避免图表与图像中的显著性区域重叠,同时考虑了图表和图像颜色的融合度以及和背景颜色的对比度,有效保证了合成效果的可读性和美学效果,可广泛应用于场景数据可视化,增强现实可视化,地理数据可视化等场景中,方法简便,省时省力,工作效率高,可根据用户指定的图像、可视化图表以及对应的数据,在图像上渲染位置合理且颜色和谐的可视化图表。
本发明的目的是这样实现的:一种基于图卷积网络的图像图表智能合成方法,其特点是采用深度神经网络生成显著性图,依据显著性图构造图,采用图卷积网络计算图表的位置和大小,再依据色彩对比度计算调色板,最后根据计算结果在图像上绘制图表,图像图表的智能合成具体包括以下步骤:
步骤1:输入一张大小为H×W的图像Ic,可视化图表的类型Tv以及对应的数据Dv,所述图像Ic为H×W的像素值矩阵,即Ic的每列像素数为H,每行像素数为W;所述可视化图表的类型Tv包括:折线图、条形图、饼图等常见的可视化图表;所述数据Dv为JSON格式。
步骤2:在显著性检测的数据集上训练一个类U-Net的编解码网络对图像Ic进行显著性检测,得到图像的显著性图Sc,所述编解码网络采用编码模块和解码模块的深度神经网络结构,以有效捕获图像的高级特征和低级特征;所述编码模块基于卷积操作提取图像特征;所述解码模块基于上采样技术以还原语义特征。
所述编解码网络的编码模块使用多组大小为3×3的卷积核提取图像中的显著性特征,每一组都将上一组的输出进行2倍下采样之后的结果作为输入,每一组包含3个卷积核,接着是批处理归一化操作和ReLU激活函数。
所述编解码网络的解码模块使用转置卷积将不同尺度的特征图上采样到原始分辨率大小,然后按照学习到的权重对这些具有统一分辨率大小的特征图进行连接,最后经过一组包含3个大小为1×1的卷积核的卷积层,利用softmax函数得到所有像素点的显著性预测结果。
步骤3:对显著性图Sc进行蓝噪声采样以捕获显著性密度的分布,得到一组蓝噪声点PBN,再对PBN执行Delaunay三角剖分算法,从而将图像Ic依据显著特征划分多个三角形区域,得到一组三角形的集合T。
步骤4:构造图像图表的数据集,所述数据集是由具有丰富设计经验的设计者进行手工标注的,对于一张给定的图片,设计者圈定其中一个或多个适合绘制图表的区域,记录下区域位置及大小。
步骤5:在步骤4中构造图像图表的数据集上训练一个图卷积网络,所述图卷网络结构由三个卷积层构成,前两层用于学习图节点特征,最后一层用于预测图节点分数。对于每一个卷积层,输入一个节点特征的向量输出一个新的节点特征的向量/>其中:Nfv和N′fv分别指代输入的节点特征数和输出的节点特征数。
对于每一个节点vi,以下述a式定义了一个从到/>的线性变换:
其中:是一个权重矩阵,是由网络学习到的一个参数,该权重矩阵为节点特征从输入的低级特征变换到高级特征提供支撑;μij是一个注意力系数。
步骤6:使用步骤5训练出来的图卷积网络对图中的各个节点(即图像中的各个三角形区域)进行打分,得到一组分数值其中:/>表示节点vi的分数,且 分数越高表示该位置越适合放置图表。对于每一个拥有“最高分”的节点,以该节点为起始节点,依次访问其邻接节点,直到当前节点的分数为0,计算当前节点到起始节点的距离作为图表大小。选取其中图表大小最大的节点作为最终绘制图表的位置P,其对应的图表大小M作为最终绘制图表的大小。
步骤7:以RGB颜色空间表示的颜色C由下述b式定义为:
C={R,G,B},0≤R,G,B≤255 (b);
式中:R、G、B分别为颜色C的红色、绿色、蓝色分量;
根据国际通用标准,该颜色的亮度L则由下述c式计算:
L=0.2126*R+0.7152*G+0.0722*B (c)。
假设两个颜色的亮度分别为L1和L2,则两颜色的对比度由下述d式计算:
(L1+0.05)/(L2+0.05) (d)。
为了对图表进行着色,首先由下述e式自定义一个适合图表配色的调色板CPglobal:
CPglobNl={c1,c2,…,ck},ci={Ri,Gi,Bi},0≤Ri,Gi,Bi≤255 (e)。
其次,对于步骤6计算出的以P为中心,M为边长的矩形区域,使用聚类算法作用于图像中该区域的所有颜色值,根据颜色的相似性聚类得到下述f式定义该区域的颜色Clocal:
Clocal={Rl,Gl,Bl},0≤Rl,Gl,Bl≤255 (f)。
最后,根据下述g式分别计算ci和Clocal的对比度:
(0.2126*Ri+0.7152*Gi+0.0722*Bi+0.05)/(0.2126*Rl+0.7152*Gl+0.0722*Bl+0.05) (g);
式中:Ri、Gi、Bi为第i像素的红色、绿色、蓝色分量;Rl、Gl、Bl为图像区域M颜色的红色、绿色、蓝色分量。
并将调色板CPglobal中的颜色按照对比度从大到小的顺序重新排序得到新的调色板CPcharU。
步骤8:根据步骤6中计算出的图表位置P和大小M以及步骤7中计算出的调色板CPahart,在图像上绘制对应的图表。
本发明与现有技术相比具有避免图表与图像中的显著性区域重叠,较好的解决了平面设计领域提出的图像图表布局问题,提供了一个端到端的框架,允许用户上传指定的图像,图表类型以及图表数据,经过计算后,直接生成绘制好的合成图像,该方法结合了显著性检测和图卷积网络生成图像图表布局,考虑了图表和图像颜色的融合度以及和背景颜色的对比度,有效保证了合成效果的可读性和美学效果,可根据用户指定的图像、可视化图表以及对应的数据,在图像上渲染位置合理且颜色和谐的可视化图表,可广泛应用在场景数据可视化,增强现实可视化,地理数据可视化等场景中。
附图说明
图1为本发明流程示意图;
图2为实施例示意图。
具体实施方式
参阅附图1,本发明按下述步骤进行图像图表的智能合成:
步骤一:输入一张图像I,可视化图表类型T和需要渲染的数据D;
步骤二:通过深度神经网络提取图像I的显著性特征,输出显著性图Sa;
步骤三:对显著性图Sa进行蓝噪声采样,并对采样点执行Delaunay三角剖分,得到三角形集合T;
步骤四:基于三角形集合T构造图G;
步骤五:基于图卷积网络计算图表的位置P和大小M;
步骤六:计算图表颜色调色板CP;
步骤七:根据位置P和大小M以及调色板CP绘制图表。
下面以在某一自然图像上对相应的旅游数据进行可视化为例,对本发明作进一步的详细说明。
实施例1
参阅附图2,本发明按下述步骤进行图像图表的智能合成:
步骤1:输入一张大小为H×W的图像Ic,可视化图表的类型Tv以及对应的数据Dv。其中,图像Ic是H×W的像素值矩阵,即Ic的每列像素数为H,每行像素数为W;图表类型Tv包括折线图、条形图、饼图等常见的可视化图表;数据Dv为JSON格式。
步骤2:在显著性检测的数据集上训练一个类U-Net的编解码网络对图像Ic进行显著性检测,得到图像的显著性图Sc。所述深度神经网络的编码模块基于卷积操作提取图像特征;所述解码模块基于上采样技术以还原语义特征;所述编解码网络结构可以有效捕获图像的高级特征和低级特征。
步骤3:对显著性图Sc进行蓝噪声采样以捕获显著性密度的分布,得到一组蓝噪声点PBN,再对PBN执行Delaunay三角剖分算法,从而将图像Ic依据显著特征划分多个三角形区域,得到一组三角形的集合T。
步骤4:构造图像图表的数据集,所述数据集是由具有丰富设计经验的设计者进行手工标注的,对于一张给定的图片,设计者圈定其中一个或多个适合绘制图表的区域,记录下区域位置及大小。
步骤5:在步骤4中构造的数据集上训练一个图卷积网络,该网络结构由三个卷积层构成,前两层用于学习图节点特征,最后一层用于预测图节点分数。对于每一个卷积层,输入一个节点特征的向量输出一个新的节点特征的向量 其中:Nfv和N′fv分别指代输入的节点特征数和输出的节点特征数。对于每一个节点vi,以下述a式定义了一个从/>到/>的线性变换:
其中:是一个权重矩阵,是由网络学习到的一个参数,该权重矩阵为节点特征从输入的低级特征变换到高级特征提供支撑;μij是一个注意力系数。
步骤6:使用步骤5训练出来的图卷积网络对图中的各个节点(即图像中的各个三角形区域)进行打分,得到一组分数值其中/>表示节点vi的分数且 分数越高表示该位置越适合放置图表。对于每一个拥有“最高分”的节点,以该节点为起始节点,依次访问其邻接节点,直到当前节点的分数为0,计算当前节点到起始节点的距离作为图表大小。选取其中图表大小最大的节点作为最终绘制图表的位置P,其对应的图表大小M作为最终绘制图表的大小。
步骤7:以RGB颜色空间表示的颜色C由下述b式定义为:
C={R,G,B},0≤R,G,B≤255 (b);
式中:R、G、B分别为颜色C的红色、绿色、蓝色分量;
根据国际通用标准,该颜色的亮度L则由下述c式计算:
L=0.2126*R+0.7152*G+0.0722*B (c)。
假设两个颜色的亮度分别为L1和L2,则两颜色的对比度由下述d式计算:
(L1+0.05)/(L2+0.05) (d)。
为了对图表进行着色,首先由下述e式自定义一个适合图表配色的调色板CPglobal:
CPglobal={c1,c2,…,ck},ci={Ri,Gi,Bi},0≤Ri,Gi,Bi≤255 (e)。
其次,对于步骤6计算出的以P为中心,M为边长的矩形区域,使用聚类算法作用于图像中该区域的所有颜色值,根据颜色的相似性聚类得到下述f式定义该区域的颜色Clocal:
ClocNl={Rl,Gl,Bl},0≤Rl,Gl,Bl≤255 (f)。
最后,根据下述g式分别计算ci和Clocal的对比度:
(0.2126*Ri+0.7152*Gi+0.0722*Bi+0.05)/(0.2126*Rl+0.7152*Gl+0.0722*Bl+0.05) (g);
式中:Ri、Gi、Bi为第i像素的红色、绿色、蓝色分量;Rl、Gl、Bl为图像区域M颜色的红色、绿色、蓝色分量。
并将调色板CPglobal中的颜色按照对比度从大到小的顺序重新排序得到新的调色板CPcharU。
步骤8:根据步骤6中计算出的图表位置P和大小M以及步骤7中计算出的调色板CPahart,在图像上绘制对应的图表。
以上只是对本发明作进一步的说明,并非用以限制本专利,在不背离本发明构思的精神和范围下的等效实施,均应包含于本专利的权利要求范围之内。
Claims (5)
1.一种基于图卷积网络的图像图表智能合成方法,其特征在于采用深度神经网络生成输入图像的显著性图,基于三角化网格构造图,利用图卷积网络预测合理的图表位置及大小,提取目标位置的显著颜色,从自定义的图表颜色库中选取与背景颜色对比度大的色彩方案作为调色板,最后根据用户输入的数据绘制可视化图表,图像图表的智能合成具体包括以下步骤:
步骤1:输入一张大小为H×W的图像Ic、可视化的图表类型Tv以及对应的数据Dv;
步骤2:在显著性检测的数据集上训练一个类U-Net的编解码网络对图像Ic进行显著性检测,得到图像的显著性图Sc;
步骤3:对显著性图Sc进行蓝噪声采样以捕获显著性密度的分布,得到一组蓝噪声点PBN,并对PBN执行Delaunay三角剖分算法,从而将图像Ic依据显著特征划分多个三角形区域,得到一组三角形的集合T;
步骤4:构造图像图表的数据集,所述数据集是由设计者进行手工标注的图片组成,对于一张给定的图片,设计者圈定其中一个或多个适合绘制图表的区域,并记录该区域位置及大小;
步骤5:在步骤4中构造的数据集上训练一个图卷积网络,所述图卷积网络由三个卷积层构成,前两层用于学习图节点特征,后一层用于预测图节点分数,对于每一个卷积层,输入一个节点特征的向量输出一个新的节点特征的向量/>
其中:和/>分别指代输入的节点特征数和输出的节点特征数;对于每一个节点vi由下述a式定义/>到/>的线性变换:
其中:为权重矩阵是由网络学习到的一个参数,该权重矩阵为节点特征从输入的低级特征变换到高级特征提供支撑;μij为注意力系数;
步骤6:使用步骤5训练出来的图卷积网络对图中的各个节点进行打分,得到一组分数值其中:/>表示节点vi的分数且/>对于每一个拥有“最高分”的节点,以该节点为起始节点,依次访问其邻接节点,直到当前节点的分数为0,计算当前节点到起始节点的距离作为图表大小,选取图表中最大的节点作为最终绘制图表位置P,并以其对应的图表大小6作为最终绘制图表的大小;
步骤7:按下述步骤计算图表颜色调色板CP:
7-1:由下述b式定义以RGB颜色空间表示的颜色C:
C={R,G,B},0≤R,G,B≤255 (b);
式中:R、G、B分别为颜色C的红色、绿色、蓝色分量;
7-2:由下述c式计算亮度L:
L=0.2126*R+0.7152*G+0.0722*B (c);
则两颜色的对比度由下述d式计算:
(L1+0.05)/(L2+0.05) (d);
7-3:由下述e式定义适合图表配色的调色板CPglobal:
CPglobal={c1,c2,…,ck},ci={Ri,Gi,Bi},0≤Ri,Gi,Bi≤255 (e);
7-4:对步骤6计算的以P为中心,M为边长的矩形区域,使用聚类算法作用于图像中该区域的所有颜色值,并根据颜色的相似性聚类得到该区域的颜色Clocal则由下述f式定义为:
Clocal={Rl,Gl,Bl},0≤Rl,Gl,Bl≤255 (f);
7-5:根据下述g式分别计算第i个像素的颜色ci和图像区域M的颜色Clocal的对比度:
(0.2126*Ri+0.7152*Gi+0.0722*Bi+0.05)/(0.2126*Rl+0.7152*Gl+0.0722*Bl+0.05)(g);
式中:Ri、Gi、Bi为第i像素的红色、绿色、蓝色分量;Rl、Gl、Bl为图像区域M颜色的红色、绿色、蓝色分量;
7-6:将调色板CPglobal中的颜色按照对比度从大到小的顺序重新排序得到新的调色板CPchart;
步骤8:根据步骤6计算出的图表位置P和大小M以及步骤7计算出的调色板CPchart,在图像上绘制对应的图表。
2.根据权利要求1所述基于图卷积网络的图像图表智能合成方法,其特征在于所述图像Ic为H×W的像素值矩阵,即Ic的每列像素数为H,每行像素数为W;所述图表类型Tv包括:折线图、条形图和饼图的可视化图表;所述数据Dv为JSON格式。
3.根据权利要求1所述基于图卷积网络的图像图表智能合成方法,其特征在于所述编解码网络采用编码模块和解码模块的深度神经网络结构,以捕获图像的高级特征和低级特征,所述编码模块基于卷积操作提取图像特征;所述解码模块基于上采样技术以还原语义特征。
4.根据权利要求3所述基于图卷积网络的图像图表智能合成方法,其特征在于所述编码模块使用多组大小为3×3的卷积核提取图像中的显著性特征,每一组都将上一组的输出进行2倍下采样之后的结果作为输入,每一组包含3个卷积核,接着是批处理归一化操作和ReLU激活函数。
5.根据权利要求3所述基于图卷积网络的图像图表智能合成方法,其特征在于所述解码模块使用转置卷积将不同尺度的特征图上采样到原始分辨率大小,然后按照学习到的权重对具有统一分辨率大小的特征图进行连接,最后经过一组包含3个大小为1×1的卷积核的卷积层,利用softmax函数得到所有像素点的显著性预测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111182122.3A CN113963081B (zh) | 2021-10-11 | 2021-10-11 | 一种基于图卷积网络的图像图表智能合成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111182122.3A CN113963081B (zh) | 2021-10-11 | 2021-10-11 | 一种基于图卷积网络的图像图表智能合成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113963081A CN113963081A (zh) | 2022-01-21 |
CN113963081B true CN113963081B (zh) | 2024-05-17 |
Family
ID=79463824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111182122.3A Active CN113963081B (zh) | 2021-10-11 | 2021-10-11 | 一种基于图卷积网络的图像图表智能合成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113963081B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11601209B2 (en) * | 2020-11-25 | 2023-03-07 | At&T Intellectual Property I, L.P. | Modeling radio wave propagation in a fifth generation (5G) or other next generation network |
CN115457167B (zh) * | 2022-09-21 | 2023-06-09 | 山东大学 | 基于色彩排序的调色板设计系统 |
CN116400317B (zh) * | 2023-06-08 | 2023-08-18 | 中国人民解放军战略支援部队航天工程大学 | 基于图卷积的散射拓扑特征构建与空间目标识别方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110069977A (zh) * | 2019-02-22 | 2019-07-30 | 哈尔滨工程大学 | 一种提高胚芽米留胚率识别正确率的方法 |
CN110956185A (zh) * | 2019-11-21 | 2020-04-03 | 大连理工大学人工智能大连研究院 | 一种图像显著目标的检测方法 |
CN111191704A (zh) * | 2019-12-24 | 2020-05-22 | 天津师范大学 | 一种基于任务图卷积网络的地基云分类方法 |
CN111428447A (zh) * | 2020-02-28 | 2020-07-17 | 华东师范大学 | 一种基于显著性检测的智能图文排版方法 |
CN111814895A (zh) * | 2020-07-17 | 2020-10-23 | 大连理工大学人工智能大连研究院 | 基于绝对和相对深度诱导网络的显著性目标检测方法 |
CN112132158A (zh) * | 2020-09-04 | 2020-12-25 | 华东师范大学 | 一种基于自编码网络的可视化图片信息嵌入方法 |
KR102254768B1 (ko) * | 2020-08-28 | 2021-05-24 | 광주과학기술원 | 씬 그래프 생성장치 |
-
2021
- 2021-10-11 CN CN202111182122.3A patent/CN113963081B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110069977A (zh) * | 2019-02-22 | 2019-07-30 | 哈尔滨工程大学 | 一种提高胚芽米留胚率识别正确率的方法 |
CN110956185A (zh) * | 2019-11-21 | 2020-04-03 | 大连理工大学人工智能大连研究院 | 一种图像显著目标的检测方法 |
CN111191704A (zh) * | 2019-12-24 | 2020-05-22 | 天津师范大学 | 一种基于任务图卷积网络的地基云分类方法 |
CN111428447A (zh) * | 2020-02-28 | 2020-07-17 | 华东师范大学 | 一种基于显著性检测的智能图文排版方法 |
CN111814895A (zh) * | 2020-07-17 | 2020-10-23 | 大连理工大学人工智能大连研究院 | 基于绝对和相对深度诱导网络的显著性目标检测方法 |
KR102254768B1 (ko) * | 2020-08-28 | 2021-05-24 | 광주과학기술원 | 씬 그래프 생성장치 |
CN112132158A (zh) * | 2020-09-04 | 2020-12-25 | 华东师范大学 | 一种基于自编码网络的可视化图片信息嵌入方法 |
Non-Patent Citations (4)
Title |
---|
图神经网络回归的人脸超分辨率重建;呼延康;樊鑫;余乐天;罗钟铉;;软件学报;20171204(第04期);260-265 * |
基于图卷积网络的手指静脉识别方法研究;邱泓燕;张海刚;杨金锋;;信号处理;20200325(第03期);77-84 * |
基于场景显著性的智能图像图表布局技术研究;孙雨晶;《中国优秀硕士学位论文全文数据库信息科技辑》;20240115;I138-1794 * |
基于深度神经网络的复杂光照下的蓝藻图片语义分割;罗艾娜;郑骏;;计算机应用与软件;20180415(第04期);22-33 * |
Also Published As
Publication number | Publication date |
---|---|
CN113963081A (zh) | 2022-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113963081B (zh) | 一种基于图卷积网络的图像图表智能合成方法 | |
CN105359190B (zh) | 根据单个图像估计深度 | |
CN110222722A (zh) | 交互式图像风格化处理方法、系统、计算设备及存储介质 | |
CN108830913B (zh) | 基于用户颜色引导的语义级别线稿上色方法 | |
US11386589B2 (en) | Method and device for image generation and colorization | |
US9449253B2 (en) | Learning painting styles for painterly rendering | |
CN110728707B (zh) | 基于非对称深度卷积神经网络的多视角深度预测方法 | |
CN110347868B (zh) | 用于图像搜索的方法和系统 | |
CN110097616B (zh) | 一种联合绘画方法、装置、终端设备及可读存储介质 | |
CN111640116B (zh) | 基于深层卷积残差网络的航拍图建筑物分割方法及装置 | |
CN105913377A (zh) | 一种保留图片相关性信息的图片拼接方法 | |
CN109447897B (zh) | 一种真实场景图像合成方法及系统 | |
CN111739037B (zh) | 一种针对室内场景rgb-d图像的语义分割方法 | |
CN115937461B (zh) | 多源融合模型构建及纹理生成方法、装置、介质及设备 | |
Murray et al. | Toward automatic and flexible concept transfer | |
CN111723812A (zh) | 一种基于序列知识蒸馏的实时语义分割方法 | |
JP2006031688A (ja) | 画像加工装置、画像加工方法及び画像加工プログラム | |
CN114842240A (zh) | 融合ghost模块和注意力机制的MobileNetV2农作物叶片图像分类方法 | |
CN113869396A (zh) | 基于高效注意力机制的pc屏幕语义分割方法 | |
CN113066074A (zh) | 一种基于双目视差偏移融合的视觉显著性预测方法 | |
CN102999660A (zh) | 一种将设计数据转换为多变换拼花数据的方法 | |
CN110097615B (zh) | 一种联合风格化和去风格化的艺术字编辑方法和系统 | |
Ye et al. | Hybrid scheme of image’s regional colorization using mask r-cnn and Poisson editing | |
CN115018729A (zh) | 一种面向内容的白盒图像增强方法 | |
CN108537855A (zh) | 一种草图一致的陶瓷花纸图案生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |