CN115269925A - 一种基于层次结构的无偏置场景图生成方法 - Google Patents
一种基于层次结构的无偏置场景图生成方法 Download PDFInfo
- Publication number
- CN115269925A CN115269925A CN202210724045.8A CN202210724045A CN115269925A CN 115269925 A CN115269925 A CN 115269925A CN 202210724045 A CN202210724045 A CN 202210724045A CN 115269925 A CN115269925 A CN 115269925A
- Authority
- CN
- China
- Prior art keywords
- biased
- model
- concept
- scene graph
- hierarchical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
- G06F16/9024—Graphs; Linked lists
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
- G06F16/9027—Trees
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于层次结构的无偏置场景图生成方法。本方法为:1)利用有偏模型对图像样本进行处理,得到有偏模型预测结果;根据各图像样本对应的所述有偏模型预测结果构建一层次化关系树;其中,所述有偏模型为场景图生成模型;2)根据所述层次化关系树和设定的层次化关系损失函数,计算损失值;然后基于所述损失值利用梯度反向传播方法优化所述有偏模型,使所述有偏模型输出结果迭代优化,最终输出无偏置场景图;3)对于一待处理的图像,将其输入步骤2)优化后的所述有偏模型,得到对应的无偏置场景图。本发明能够让模型由粗到细地学习不同关系间的区别,从高度有偏的长尾场景图数据中生成无偏置场景图。
Description
技术领域
本发明属于计算机软件技术领域,具体涉及一种基于层次结构的无偏置场景图生成方法。
背景技术
场景图(Scene Graph)是一种用来描述场景信息的图结构,场景中的目标对应图中的节点,目标之间的关系对应图中的边,有时还会包含目标的各种属性,如颜色等。这种结构化的表示方法可以看作一种知识图谱,它相比用特征向量表示某一场景更加直观,可以广泛地用于推理、检索、问答、推荐等任务中。这种表示方法是与模态无关的,目前已经有非常成熟的工具可以将自然语言解析为场景图,同样图像、视频、语音等数据也可以表示成类似的图结构(即场景图),这一特性很直观地说明场景图在融合多模态信息上的巨大潜力。
场景图生成(Scene Graph Generation,SGG)任务,一般指从图像中检测抽取场景图。这是一个近三年来逐渐受到跨模态领域研究者们关注的方向,它和视觉关系检测(Visual Relationship Detection,VRD)任务一脉相承,旨在从图像中抽象出场景的语义信息,增强对于视觉信息的理解与推理。视觉场景图生成与目标检测类似,作为一个前置环节在许多跨模态问题中有着不容忽视的作用(如跨媒体检索,图像描述,视觉问答,视觉对话等)。早期的工作重点是通过独立的神经网络分别进行对象检测和关系检测,而忽略了图像中目标丰富的上下文信息(参考Cewu Lu,Ranjay Krishna,Michael Bernstein,and LiFei-Fei.Visual relationship detection with language priors.In ECCV,pages 852–869,2016)。为了整合全局的视觉上下文信息,Xu等人利用了消息传递机制(参考DanfeiXu,Y uke Zhu,Christopher B Choy,and Li Fei-Fei.Scene graph generation byiterative message passing.In CVPR,pages 5410–5419,2017.Shaoqing Ren,KaimingHe,Ross Girshick,and Jian Sun.Faster r-cnn:Towards real-time object detectionwith region proposal networks.39(6):1137–1149,2017),Zellars等利用循环序列结构(参考Rowan Zellers,Mark Yatskar,Sam Thomson,and Yejin Choi.Neural motifs:scene graph parsing with global context.In CVPR,pages 5831–5840,2018),Zhang等利用对比学习(参考Ji Zhang,Kevin J.Shih,Ahmed Elgammal,Andrew Tao,and BryanCatanzaro.Graphical contrastive losses for scene graph parsing.In CVPR,pages11535–11543,2019),均获得了具有更丰富上下文信息与更具有辨别力的关系和目标特征表示。虽然在许多论文中,场景图生成的效果看起来已经足够优秀,但是将其应用到下游任务中的效果却始终差强人意。这是因为过去场景图生成任务主要采用Recall指标评价模型能力。Recall是一个带有偏置的评价指标,它鼓励模型拟合头部数据,而场景图生成使用的数据由于自然存在以及数据标注的问题,表现出了明显的长尾分布(long-taildistribution),因此过去在Recall指标上表现优秀的模型实际上只是在拟合头部数据,与提取真正有意义的关系这一初衷相悖。
2019年的CVPR上,KERN和VCTree等提出了mean Recall指标(参考Tianshui Chen,Weihao Y u,Riquan Chen,and Liang Lin.Knowledge-embedded routing network forscene graph generation.In CVPR,pages 6163–6171,2019;Kaihua Tang,HanwangZhang,Baoyuan Wu,Wenhan Luo,and Wei Liu.Learning to compose dynamic treestructures for visual contexts.In CVPR,pages 6619–6628,2019),这两篇工作首次开始关注如何衡量和解决无偏置场景图生成问题,让这一方向的研究者将注意力从如何拟合数据集中的偏置转移到如何去除数据集中的偏置,提取更有意义的关系,开启了视觉场景图生成研究的新阶段。Liang等通过删除数据集中主要的关系,并保留了数据集中信息丰富的尾部关系来解决偏置问题(Yuanzhi Liang,Y along Bai,Wei Zhang,Xueming Qian,LiZhu,and Tao Mei.Vrr-vg:refocusing visually-relevant relationships.In ICCV,pages 10403–10412,2019)。Tang等通过对因果图的反事实操作,提出了无偏置场景图生成的第一个解决方案(参考Kaihua Tang,Y ulei Niu,Jianqiang Huang,Jiaxin Shi,andHanwang Zhang.Unbiased scene graph generation from biased training.In CVPR,pages3716–3725,2020)。本发明从认知的角度重新思考场景图生成任务,基于从粗到细的层次化结构,新颖地解决了去偏问题。
目前场景图生成模型主要存在以下问题:
1.由于自然存在和数据标注的问题导致的数据长尾分布,场景图数据集中的头部样本往往占据着相当大的比例,这些图像样本的标注虽然正确,但不够具体,同时含有更加丰富语义信息的标签在数据集中出现较少,大部分都被头部标签所替代。在这样的长尾数据上学习到的模型自然是存在偏见的,它更倾向于预测头部类别。
2.对于模型而言,不同关系是相互独立的,无法学习到关系间的语义关联信息,而现有方法对待这些关系都是一视同仁的,认为“on”和“walking on”是完全独立的,然而对于人类而言,人类首先会从见过的关系中组织关系间的层次结构,并在判断新的关系时依赖这一结构,逐级做出区分。
发明内容
针对现有技术中存在的问题,本发明的目的在于提供一种基于层次结构的无偏置场景图生成方法。本方法重点通过基于层次认知结构的学习方法,让模型由粗到细地学习不同关系间的区别。并提出了一种从有偏模型预测结果中自动构建该层次认知结构的方法,该结构可以反映关系类别间的语义关联。
1.受人类的认知规律启发,提出基于认知的层次化关系损失函数来从高度有偏的长尾场景图数据中生成无偏置场景图。
2.从有偏模型的预测结果中自动构建了表达关系类别间语义关联的层次化结构关系树,层次化关系结构树包含了由粗到细的多层关系。
3.该层次化关系损失函数与模型无关,可以有效提升多种场景图生成模型的性能,显著缓解了场景图生成任务中的偏置问题。
本发明的技术方案为:
一种基于层次结构的无偏置场景图生成方法,其步骤包括:
1)利用有偏模型对图像样本进行处理,得到有偏模型预测结果;根据各图像样本对应的所述有偏模型预测结果构建一层次化关系树;其中,所述有偏模型为场景图生成模型;
2)根据所述层次化关系树和设定的层次化关系损失函数,计算损失值;然后基于所述损失值利用梯度反向传播方法优化所述有偏模型,使所述有偏模型输出结果迭代优化,最终输出无偏置场景图;所述层次化关系损失函数为 其中,B(i)代表节点i的兄弟节点集合,wk为类别k对应的权重系数,wi为类别i对应的权重系数,zi为层次化关系树中节点i的层次化关系树预测概率,zj为层次化关系树中节点j的层次化关系树预测概率,pk为场景图生成模型输出的类别k对应的概率值,pj为场景图生成模型输出的类别j对应的概率值,Lpath为层次化关系树中从根节点到节点i的真实标签路径,Ppred为场景图生成模型对真实标签为k的样本预测的属于所有可能标签的概率集合;节点i为样本i的标签类别;
3)对于一待处理的图像,将其输入步骤2)优化后的所述有偏模型,得到对应的无偏置场景图。
进一步的,所述层次化关系树的结构为:第一层为根节点层r0,包括一虚拟节点;第二层为概念层r1,用于区分样本所属概念,包括各概念关系组中的头部概念;第三层为粗细分化层r2,用于区分样本所属头部概念中的一细粒度关系描述,包括头部概念的细粒度标记节点或不可细分的头部概念节点;第四层为细粒度层r3,用于区分细粒度关系描述中的差异,包含概念关系组中除头部概念关系外的所有关系。
进一步的,构建所述层次化关系树的方法为:
11)根据所述有偏模型预测结果,如果标签yi对应样本被有偏模型预测概率最高的标签为yj,则将yj作为标签yi的头部概念,将具有相同头部概念的标签划分到同一个概念关系组;从而将全部标签归纳为C个概念关系组,每一概念关系组的头部概念作为对应概念关系组的中心概念;
12)将步骤11)所得C个概念关系组重新组织为M个概念子树:初始化第i个概念子树的根节点为一概念关系组c的头部概念对应的标签ci,将该概念关系组c中剩余的标签作为第i个概念子树的叶子节点;如果一概念子树j中只包含根节点a时,则将该概念子树j作为一叶子节点归入根节点a对应样本被有偏模型预测概率第二高的标签所在的概念子树中。
13)将步骤12)所得M个概念子树聚合成所述层次化关系树。
一种服务器,其特征在于,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行上述方法中各步骤的指令。
一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现上述方法的步骤。
本发明的优点如下:
本发明从人类的认知角度出发,从有偏模型的预测结果中自动构建了表达关系类别间语义关联的层次化结构关系树,并基于层次化关系损失函数,让模型由粗到细地学习不同关系间的区别,从高度有偏的长尾场景图数据中生成无偏场景图。
附图说明
图1为传统方法(有偏模型)流程图。
图2为基于人类认知的无偏置场景图生成方法流程图(本发明简化版流程图)。
图3为本发明方法流程图。
具体实施方式
下面结合附图对本发明进行进一步详细描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
本发明提出了一个新的神经网络损失函数—基于认知的层次化损失函数。通过模仿人类的思维过程,首先从大量学习过的样本中归纳出蕴含了关系类别间语义关联的层次结构,随后利用该结构计算本发明的损失函数结果,它首先区分明显不同的关系,随后专注于一小部分容易混淆的关系,由粗到细地区分关系类别,使模型能够更加准确地检测出更有意义的关系。
本算法的解决思路是:从有偏模型预测结果自动构建出层次化的关系结构,随后通过基于认知的层次化损失函数来进行无偏置的场景图生成任务。由于该损失是模型无关的,可以适用于任何场景图生成模型。
本算法的解决思路是:利用传统有偏模型对样本进行处理,得到有偏模型预测结果,将该有偏模型预测结果输入到本发明的模型,构建基于人类认知的层次化关系结构树(后续步骤1),然后将该层次化的关系结构树输入本发明设计的基于认知的层次化关系损失函数计算损失值(后续步骤2),利用梯度反向传播持续优化传统有偏模型,使传统有偏模型输出结果在迭代优化中逐渐接近本发明提出的层次化关系,得到对应的无偏置场景图。即最终利用本算法提出的损失函数将传统有偏模型优化为无偏模型。
本发明的详细流程如图3所示。
1.层次化关系结构树构建
当有偏模型在长尾分布的有偏数据上训练后,它往往倾向于预测头部的类别,这样的模型虽然难以预测出足够细致的关系,但可以较为轻松地分辨出几种不同头部类别。当不同类别的样本都被有偏模型预测成同一关系类别时,他们之间往往在视觉外观上或高层语义上具有相似性。通过这一现象,可认为有偏模型的预测结果中已经蕴含了关系标签之间的语义关联,模型会倾向于将尾部类别都预测为共享同一概念的头部类别,因此,基于有偏模型的预测结果,并设计一定规则,即可自动构建出层次化关系结构树。如图3上半部分所示,这一过程分为了三个步骤,分别为中心概念归纳、概念子树构建、概念子树聚合。
(1)中心概念归纳
对于所有标签为yi的样本,统计有偏模型预测的其标签的分布,表示为Pi。我们将具有相似属性的标签归类为同一个概念关系组,例如“on”,“standing on”,“walking on”具有相同属性,因此属于同一个概念关系组,具体方法如下:标签yi对应样本被有偏模型预测概率最高的标签yj被认为是标签yi所属于的头部概念。如图3上半部中步骤1所示,因为概念“on”是有偏模型对标签为“on”,“standing on”,“walking on”的样本预测概率最高的概念,因此概念“on”是概念“on”,“standing on”,“walking on”的头部概念,具有相同头部概念的标签被认为具有相似属性,属于同一个概念关系组。通过这样的过程,可以将全部标签归纳为C个概念关系组,每一组都有一个头部概念关系标签作为这一组的中心概念{ci}C。
(2)概念子树构建
在这一步将上一步的C组关系标签重新组织为M个概念子树。对于第i组关系构建概念子树过程如下:它的根节点为头部概念关系标签ci(例如“on”),叶子节点是该组关系中剩余的全部细粒度关系(例如“standing on”,“walking on”)。当一个子树中只包含根节点时,本发明认为它的根节点对应的关系标签不够具有概括性,需要将该概念子树进行合并,因为第一高频关系即为该根节点,应该将其归入Pi中第二高频出现的关系所在的子树中。如果一概念子树j中只包含根节点a时,则将该概念子树j作为一叶子节点归入根节点a对应样本被有偏模型预测概率第二高的标签所在的概念子树中。
(3)概念子树聚合
本发明最后将M个概念子树聚合成一个分层的层次化关系树,层次化关系树包含四层如图3中步骤3所示,构建方法如下:第一层根节点层(r0)为虚拟节点;第二层概念层(r1)用于区分该样本属于哪个概念,对应每个概念关系组中的头部概念;第三层粗细分化层(r2)用于区分该样本是否可以用某一细粒度关系描述,包含头部概念节点(不可继续进行细分)和一个细粒度标记节点(可以用某一细粒度关系描述);细粒度层(r3)用于区分细粒度关系中容易混淆的微小差异,包含概念关系组中除头部关系外的所有关系。
2.基于认知的层次化关系损失函数
定义以下概念:真实标签路径,真实标签路径代表在层次化关系树中从根节点到该样本对应的真实标签的路径Lpath={l0,l1,…,lM},其中第k个值lm代表在ym层的真实标签节点。层次化关系树预测概率代表层次化关系树中每个节点在计算损失时对应的值。对于一个场景图生成模型,会给每一个类别k输出一个对应的概率值pk用来计算损失,pk为场景图生成模型预测得到的类别k(标签)为正确类别(标签)的概率值;本发明定义层次化关系树中每个节点的层次化关系树预测概率为:
其中C(i)代表节点i对应概念子树的所有叶子节点,class(i)代表节点i对应的关系类别。类别平衡权重,类别平衡权重代表层次化关系树中每个节点对应的平衡权重,层次化关系树中每个节点的类别平衡权重为:
其中α是一个取值为[0,1)的超参数,ni为叶子节点i对应类别的样本数量。
基于认知的层次化关系损失函数包含两个互补的部分:为由粗到细进行偏置消除的基于层次化关系树的类平衡损失和在常规交叉熵基础上增加权重的类平衡损失。具体来说,本发明在真实标签路径中的每一层上计算带权重的交叉熵,并取其均值作为基于层次化关系树的类平衡损失,这一过程可以被描述为:
其中B(i)代表节点i兄弟节点的集合。
增加权重的类平衡损失在一般的交叉熵中增加了权重系数,对一个真实标签为k的样本,增加权重的类平衡损失具体表示为:
其中wk为类别k对应的权重系数,Ppred为对一个真实标签为k的样本,场景图生成模型预测的属于所有可能标签的概率集合,所有概率加和为1。通过实验发现结合两个loss可以获得最好的效果,最终基于认知的层次化关系损失函数表示为:
最终基于本发明得到的对步骤1中的传统场景图生成模型(即有偏模型)进行优化得到一个无偏的场景图生成模型,最终优化得到的无偏场景图生成模型通过接受图片输入,对图片中区域进行关系预测得到无偏置场景图。本发明提出的损失函数计算模型适用于任何已提出的传统有偏场景图生成模型。
算法效果比较
本发明在场景图生成任务最大最常用的数据集VG150上进行了相关实验。VG150是Visual Genome的子集,选取了VG中最常见的150类物体和50类关系标签,VG150只提供了训练集和测试集,本发明从训练集中划分了5K大小的验证集评价指标:
表1数据集
序号 | 数据集 | 训练集样本数 | 测试集样本数 | 物体类数 | 关系类数 | 关系语言 |
1 | VG150 | 87,670 | 5,000 | 150 | 50 | 英 |
该算法采用三种基线模型证实效果,分别是MOTIFS、VCTree和SG-transformer。这些模型主要包含两个部分:用于检测物体位置和标签的物体分类模块以及用于预测物体间关系的关系分类模块。以下分别介绍基线模型:
(1)MOTIFS:首先采用一个训练好的Faster R-CNN模型从图片中抽取K个物体O={oi}K,其中oi具体被描述为视觉特征vi,初始物体标签li,以及物体的位置特征bi。将上述三个特征拼接送入物体编码器Encodero中获得进一步编码后的物体特征向量mi,mi随后被送进物体解码器Decodero解码出最终物体标签MOTIFS采用了Bi-LSTM做Encodero,LSTM做Decodero。关系编码器Encoderr采用了额外的Bi-LSTM以在物体级别上捕捉额外的上下文信息,随后将物体两两组对,与两物体并集区域的视觉特征进行融合,随后由关系解码器Decoderr解码。这里MOTIFS采用了全连接层作为Decoderr。
(2)VCTree:VCTree的框架与MOTIFS基本相同,不同在于VCTree采用了TreeLSTM作为物体与关系的编解码器,并且在关系解码前额外加入了成对的物体位置信息。
(3)SG-transformer:与MOTIFS和VCTree不同的是,SG-transformer采用了transformer作为Encodero、Encoderr:
根据给定条件多少,场景图生成任务可以由简单到复杂细分为以下几种子任务:
(1)关系分类(Predicate classification):给定图中物体位置及类别,预测关系类别
(2)场景图分类(Scene graph classification):给定图中目标位置,预测物体及关系
(3)场景图生成(Scene graph generation):只给定图片,生成完整的场景图。
无偏置场景图生成主要参考mean Recall指标,该算法效果展示同样报告了Recall指标的结果。表2展示了基线模型加入基于认知的层次化关系损失函数后对比的结果。可以看到,本发明提出的基于认知的层次化关系损失函数可以有效地提升采用的三种模型在mRecall上的效果,在VCTree上,可以获得3.6%~13.6%的提升。对比常见的去偏方法以及Tang等提出的原最佳方法TDE,该损失函数同样有效。对比mRecall@50/100,在较难的提升的mRecall@20上,该损失函数的提升更加明显。该损失函数与模型无关,可以有效提升多种场景图生成模型的性能,显著缓解了场景图生成任务中的偏置问题。同一模型的mRecall提升时,往往对应的Recall就会下降,Recall是一个偏向头部类别的指标,当本发明的模型更多地将头部类别预测为更细粒度的关系时(将on预测为parked on),势必会降低头部类别预测的结果。
表2算法结果
尽管为说明目的公开了本发明的具体实施例,其目的在于帮助理解本发明的内容并据以实施,本领域的技术人员可以理解:在不脱离本发明及所附的权利要求的精神和范围内,各种替换、变化和修改都是可能的。因此,本发明不应局限于最佳实施例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。
Claims (7)
1.一种基于层次结构的无偏置场景图生成方法,其步骤包括:
1)利用有偏模型对图像样本进行处理,得到有偏模型预测结果;根据各图像样本对应的所述有偏模型预测结果构建一层次化关系树;其中,所述有偏模型为场景图生成模型;
2)根据所述层次化关系树和设定的层次化关系损失函数,计算损失值;然后基于所述损失值利用梯度反向传播方法优化所述有偏模型,使所述有偏模型输出结果迭代优化,最终输出无偏置场景图;所述层次化关系损失函数为
其中,B(i)代表节点i的兄弟节点集合,wk为类别k对应的权重系数,wi为类别i对应的权重系数,zi为层次化关系树中节点i的层次化关系树预测概率,zj为层次化关系树中节点j的层次化关系树预测概率,pk为场景图生成模型输出的类别k对应的概率值,pj为场景图生成模型输出的类别j对应的概率值,Lpath为层次化关系树中从根节点到节点i的真实标签路径,Ppred为场景图生成模型对真实标签为k的样本预测的属于所有可能标签的概率集合;节点i为样本i的标签类别;
3)对于一待处理的图像,将其输入步骤2)优化后的所述有偏模型,得到对应的无偏置场景图。
2.根据权利要求1所述的方法,其特征在于,所述层次化关系树的结构为:第一层为根节点层r0,包括一虚拟节点;第二层为概念层r1,用于区分样本所属概念,包括各概念关系组中的头部概念;第三层为粗细分化层r2,用于区分样本所属头部概念中的一细粒度关系描述,包括头部概念的细粒度标记节点或不可细分的头部概念节点;第四层为细粒度层r3,用于区分细粒度关系描述中的差异,包含概念关系组中除头部概念关系外的所有关系。
3.根据权利要求2所述的方法,其特征在于,构建所述层次化关系树的方法为:
11)根据所述有偏模型预测结果,如果标签yi对应样本被有偏模型预测概率最高的标签为yj,则将yj作为标签yi的头部概念,将具有相同头部概念的标签划分到同一个概念关系组;从而将全部标签归纳为C个概念关系组,每一概念关系组的头部概念作为对应概念关系组的中心概念;
12)将步骤11)所得C个概念关系组重新组织为M个概念子树:初始化第i个概念子树的根节点为一概念关系组c的头部概念对应的标签ci,将该概念关系组c中剩余的标签作为第i个概念子树的叶子节点;如果一概念子树j中只包含根节点a时,则将该概念子树j作为一叶子节点归入根节点a对应样本被有偏模型预测概率第二高的标签所在的概念子树中;
13)将步骤12)所得M个概念子树聚合成所述层次化关系树。
6.一种服务器,其特征在于,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行权利要求1至5任一所述方法中各步骤的指令。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5任一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210724045.8A CN115269925A (zh) | 2022-06-23 | 2022-06-23 | 一种基于层次结构的无偏置场景图生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210724045.8A CN115269925A (zh) | 2022-06-23 | 2022-06-23 | 一种基于层次结构的无偏置场景图生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115269925A true CN115269925A (zh) | 2022-11-01 |
Family
ID=83762087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210724045.8A Pending CN115269925A (zh) | 2022-06-23 | 2022-06-23 | 一种基于层次结构的无偏置场景图生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115269925A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117333744A (zh) * | 2023-09-21 | 2024-01-02 | 南通大学 | 一种基于空间特征融合和原型嵌入的无偏场景图生成方法 |
-
2022
- 2022-06-23 CN CN202210724045.8A patent/CN115269925A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117333744A (zh) * | 2023-09-21 | 2024-01-02 | 南通大学 | 一种基于空间特征融合和原型嵌入的无偏场景图生成方法 |
CN117333744B (zh) * | 2023-09-21 | 2024-05-28 | 南通大学 | 一种基于空间特征融合和原型嵌入的无偏场景图生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110309331B (zh) | 一种基于自监督的跨模态深度哈希检索方法 | |
Dong et al. | Tablesense: Spreadsheet table detection with convolutional neural networks | |
Rukhovich et al. | Iterdet: iterative scheme for object detection in crowded environments | |
Karthikeyan et al. | Probability based document clustering and image clustering using content-based image retrieval | |
CN111444342A (zh) | 一种基于多重弱监督集成的短文本分类方法 | |
Davis et al. | Visual FUDGE: form understanding via dynamic graph editing | |
CN113064995A (zh) | 一种基于图深度学习的文本多标签分类方法和系统 | |
CN114461890A (zh) | 分层多模态的知识产权搜索引擎方法与系统 | |
KR20120047622A (ko) | 디지털 콘텐츠 관리 시스템 및 방법 | |
CN111680506A (zh) | 数据库表的外键映射方法、装置、电子设备和存储介质 | |
CN115269925A (zh) | 一种基于层次结构的无偏置场景图生成方法 | |
CN113076490B (zh) | 一种基于混合节点图的涉案微博对象级情感分类方法 | |
CN114817454A (zh) | 一种结合信息量和BERT-BiLSTM-CRF的NLP知识图谱构建方法 | |
CN105701227A (zh) | 一种基于局部关联图的跨媒体相似性度量方法和检索方法 | |
Vu et al. | Revising FUNSD dataset for key-value detection in document images | |
CN116843175A (zh) | 一种合同条款风险检查方法、系统、设备和存储介质 | |
Kumar et al. | Scene graph generation using depth, spatial, and visual cues in 2D images | |
CN112329669B (zh) | 一种电子档案管理方法 | |
CN111723301B (zh) | 基于层次化主题偏好语义矩阵的关注关系识别及标注方法 | |
CN114385845A (zh) | 基于图聚类的影像分类管理方法及系统 | |
CN114241380A (zh) | 一种基于类别标签和属性注释的多任务属性场景识别方法 | |
CN114297375A (zh) | 网络安全实体与关系的网络模型的训练方法及抽取方法 | |
CN114168780A (zh) | 多模态数据处理方法、电子设备及存储介质 | |
Luo et al. | Hybrid cascade point search network for high precision bar chart component detection | |
Yellinek et al. | 3VL: using Trees to teach Vision & Language models compositional concepts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |