CN114241051A - 一种室内复杂场景的物体姿态估计方法 - Google Patents
一种室内复杂场景的物体姿态估计方法 Download PDFInfo
- Publication number
- CN114241051A CN114241051A CN202111571623.0A CN202111571623A CN114241051A CN 114241051 A CN114241051 A CN 114241051A CN 202111571623 A CN202111571623 A CN 202111571623A CN 114241051 A CN114241051 A CN 114241051A
- Authority
- CN
- China
- Prior art keywords
- feature map
- resolution
- key points
- labels
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种室内复杂场景的物体姿态估计方法,包括先利用关键点的检测网络对物体关键点进行检测,然后使用联合嵌入的方式对候选对象进行提取,最后利用决策判断网络对目标物体进行推理输出;本发明提出的物体姿态估计方法在性能和精度上均优于现有方法,其只依赖于一个RGB图像,即能够对复杂场景下,被中度到重度遮挡的目标物体进行更加精确的推理与预估,且不受单个视觉算法的限制,相比传统物体姿态估计方法更具鲁棒性,能够对目标物体被遮挡的部分进行有效推理,对计算机视觉领域和图像处理领域均作出重要贡献,可以广泛应用于室内设计、内容重建、场景理解等方面。
Description
技术领域
本发明涉及姿态估计技术领域,尤其涉及一种室内复杂场景的物体姿态估计方法。
背景技术
室内场景图像的目标物体的检测与识别对于室内场景下物体的姿态估计是重要的,并且它在许多方面如室内设计、内容重建、场景理解等都有重要应用,虽然近年来对此进行了大量研究,但在目标物体被中度到重度遮挡的室内复杂场景中,现有的方法对此并不十分有效,典型的室内场景在物体的共现方面表现出显著的规律性,这可以作为显式的先验来预测物体的身份、位置和方向,即使在物体间或物体内的显著遮挡下也是如此。
近年来,在计算机视觉领域,物体的遮挡、重叠等问题对目标的成功识别构成了重大挑战,因为它减少了可供提取的具有判别力的特征,因此,对于物体的有效识别,不仅依赖物体的物理信息,还涉及遮挡、场景等上下文信息,目前一些基于分割的先进方法对于低遮挡的场景中取得了比较好的效果,但是在中度到重度遮挡的场景中,效果急剧恶化,因此,本发明提出一种室内复杂场景的物体姿态估计方法以解决现有技术中存在的问题。
发明内容
针对上述问题,本发明的目的在于提出一种室内复杂场景的物体姿态估计方法,该方法通过关键点的检测网络对物体关键点进行检测,然后使用联合嵌入的方式对候选对象进行提取,最后利用决策判断网络对目标物体进行推理输出,并精确的得到室内复杂场景的物体姿态。
为了实现本发明的目的,本发明通过以下技术方案实现:一种室内复杂场景的物体姿态估计方法,包括以下步骤:
步骤一:先采集室内复杂场景的高分辨率特征图作为输入特征图,接着采用卷积策略将高分辨率特征图下采样至低分辨率特征图,再从低分辨率特征图恢复至高分辨率特征图,作为输出特征图,并进行特征图多尺度特征提取,从输入特征图中生成单个物体姿态估计的关键点;
步骤二:先训练联合嵌入网络来检测单个物体姿态估计的关键点,再使用堆叠沙漏模型来预测每个关键点在每个像素位置的检测得分,其中网络对每个关键点的每个像素位置产生一个标签,接着使用非极大值抑制来取得每个关键点热力图峰值,然后检索关键点热力图峰值对应位置的标签,之后比较所有物体位置的标签,找到接近的标签分为一组,最后将关键点匹配在单个物体上,提取出候选对象;
步骤三:先用概率模型捕获从场景中获得候选对象的统计数据,再使用概率模型对候选对象进行学习与优化,然后考虑关键点的标签与当前物体的匹配,并确认关键点的标签与当前物体之间的最佳匹配,在此过程中,循环迭代遍历当前物体的每一个关键点,直到每次检测都能够被分配到一个物体实例,实现目标物体姿态的推理输出。
进一步改进在于:所述步骤一中,输出特征图与输入特征图具有相同的分辨率且并行连接高分辨率与低分辨率网络,还包括一个估计热力图的回归器,回归器生成的热力图用于关键点位置的选择并且转换至全分辨率。
进一步改进在于:在并行连接的网络中引入交换单元,使网络中每个子网重复接收从其他并行子网接收的信息,重复融合多分辨率的模块,跨分辨率交换信息。
进一步改进在于:自最后一个交换单元输出的高分辨率表征中回归热力图,将均方误差作为损失函数,用于比较预测热力图与真值热力图,其中真值热力图通过计算以每个关键点的组真实位置为中心的二维高斯标准差得到。
进一步改进在于:所述步骤二中,若一张特征图中待检测的关键点有m个,则网络理想状态下输出2m个通道,其中m个通道用于定位,m个通道用于分组。
进一步改进在于:所述步骤二中,形式上,将hk∈RW×H作为第k关键点的预测标记热力图,其中h(x)像素位置x处的标记值,若存在N个目标物体,使得真值关键点位置为T={xnk},n=1,...,N,k=1,...,K,其中xnk是第个n物体的第k个关键点的真值像素位置,假设所有的关键点k都有标注,则第n个物体的标准嵌入为:
因此分组损失函数hg定义为:
为了提取候选对象,先确定关键点迭代顺序,再逐个迭代每个关键点。
进一步改进在于:所述步骤三中,只有当两个标签位于特定阈值内,关键点的标签与当前物体才能匹配。
进一步改进在于:所述步骤三中,通过高置信度检测的优先匹配,在执行最大匹配时,其权重由标签距离和检测分数决定,若出现新的检测不匹配的情况,则产生一个新的物体实例。
本发明的有益效果为:本发明首先利用关键点的检测网络对物体关键点进行检测,然后使用联合嵌入的方式对候选对象进行提取,最后利用决策判断网络对目标物体进行推理输出,并得到物体姿态,本发明只依赖于一个RGB图像,即能够对复杂场景下,被中度到重度遮挡的目标物体进行更加精确的推理与预估,且不受单个视觉算法的限制,相比传统物体姿态估计方法更具鲁棒性,能够对目标物体被遮挡的部分进行有效推理。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一的方法流程示意图
图2是本发明实施例一的网络并行连接示意图;
图3是本发明实施例一的联合嵌入网络结构示意图;
图4是本发明实施例二的数据标注示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
参见图1、图2、图3,本实施例提供了一种室内复杂场景的物体姿态估计方法,包括以下步骤:
步骤一:先采集室内复杂场景的高分辨率特征图作为输入特征图,接着采用卷积策略将高分辨率特征图下采样至低分辨率特征图,再从低分辨率特征图恢复至高分辨率特征图,作为输出特征图,并进行特征图多尺度特征提取,从输入特征图中生成单个物体姿态估计的关键点,其中输出特征图与输入特征图具有相同的分辨率且并行连接高分辨率与低分辨率网络,还包括一个估计热力图的回归器,回归器生成的热力图用于关键点位置的选择并且转换至全分辨率;
在并行连接的网络中引入交换单元,使网络中每个子网重复接收从其他并行子网接收的信息,重复融合多分辨率的模块,跨分辨率交换信息;
自最后一个交换单元输出的高分辨率表征中回归热力图,将均方误差作为损失函数,用于比较预测热力图与真值热力图,其中真值热力图通过计算以每个关键点的组真实位置为中心的二维高斯标准差得到;
步骤二:为了将联合嵌入应用于多个目标物体姿态估计,先训练联合嵌入网络来检测单个物体姿态估计的关键点,再使用堆叠沙漏模型来预测每个关键点在每个像素位置的检测得分,为了实现多物体姿势检测,网络需要对每个关键点的每个像素位置产生一个标签,也就是说,每个关键点的热力图对应一个标签热力图,因此,若一张特征图中待检测的关键点有m个,则网络理想状态下输出2m个通道,其中m个通道用于定位,m个通道用于分组,为了能够将检测结果对应到个体,使用非极大值抑制来取得每个关键点热力图峰值,然后检索关键点热力图峰值对应位置的标签,之后比较所有物体位置的标签,找到接近的标签分为一组,最后将关键点匹配在单个物体上,提取出候选对象;
形式上,将hk∈RW×H作为第k关键点的预测标记热力图,其中h(x)像素位置x处的标记值,若存在N个目标物体,使得真值关键点位置为T={xnk},n=1,...,N,k=1,...,K,其中xnk是第个n物体的第k个关键点的真值像素位置,假设所有的关键点k都有标注,则第n个物体的标准嵌入为:
因此分组损失函数hg定义为:
为了提取候选对象,先确定关键点迭代顺序,再逐个迭代每个关键点,从第一个关键点开始,在非极大值抑制后,所有激活都超过某个阈值,这构成了被检测物体的基础。
步骤三:在进行候选物体检测后,提取出的候选对象可能存在重叠或者存在排列错误,因此需要对提取出的候选对象进行推理,筛选出符合要求的对象,先用概率模型捕获从场景中获得候选对象的统计数据,再使用概率模型对候选对象进行学习与优化,然后考虑关键点的标签与当前物体的匹配,并确认关键点的标签与当前物体之间的最佳匹配,只有当两个标签位于特定阈值内,才能匹配,此外,通过高置信度检测的优先匹配,在执行最大匹配时,其权重由标签距离和检测分数决定,若出现任何新的检测不匹配的情况,则产生一个新的物体实例,在此过程中,循环迭代遍历当前物体的每一个关键点,直到每次检测都能够被分配到一个物体实例,实现目标物体姿态的推理输出。
实施例二
在两个数据集上对实施例一提出的方法进行实验评估,使用的数据集如下:
(1)室内虚拟场景2D关键点标注图像
使用IGIBSON生成室内场景,对室内场的目标物体位置进行标注文件输出,将获得的文件进行COCO关键点数据集格式的转换,适应于网络模型的输入与训练,通过此方法,共生成3500张图片,每张图片的椅子均进行标注,场景中存在各种不同形状的椅子,并且所有的椅子均设置有8个关键点,如图4所示,在该场景中对于被遮挡的关键点也予以标注,因为多张图片是在同一场景中,不同之处在于拍摄视角或者位置不同,因此被遮挡的关键点可以根据拍摄的变化方式进行计算得到。
(2)室内真实场景2D关键点标注图像
自Seethrough获得3392张室内真实场景图片,为了使用该数据集,增强网络场景的学习能力,对于该数据集进行了重新标注,使用的工具为labelme,还是根据COCO关键点数据集的格式要求进行标注,由于属于人工标注,对于某些椅子的关键点标注存在误差,并且当一张场景图片中存在的椅子过多且遮挡严重或者重叠严重的目标进行了忽略。
为评价实验结果的效果与性能,共设置了两个评价指标,分别为平均精度(AP)与平均召回率(AR),计算公式如下:
首先需对关键点相似度(Object Keypoint Similarity,OKS)进行计算,
其中i表示关键点的id,di表示groundtruth(事实库)中物体与预测的目标的关键点的欧氏距离,s表示当前目标物的尺度因子,等于此目标在groundtruth中所占面积的平方根,即vi表示第i个关键点是否可见,δ用于将可见点选出来进行计算的函数。
OKS是计算两个目标物之间的关键点相似度的,那一张图片中有很多的目标物时,这时候就需要构造一个OKS矩阵了。假设一张图中,一共有M个目标物(groudtruth中),现在算法预测出了N个目标物,那么就构造一个M×N的矩阵,矩阵中的位置(i,j)代表groudtruth中的第i个目标物和算法预测出的第j个目标物的OKS相似度,找到矩阵中每一行的最大值,作为对应于第i个目标物的OKS相似度值。
AP就是给定一个t,如果当前的OKS大于t,那就说明当前这个目标物的关键点成功检测出来了,并且检测对了,如果小于t,则说明检测失败或者误检漏检等,因此对于所有的OKS,统计其中大于t的个数,并计算其占所有OKS的比值。
召回率是覆盖面的度量,度量有多少个正例被分为正例,计算如下:
其中TP指正确分类的正样本数,即预测为正样本,实际也是正样本,TP指被错误的标记为正样本的负样本数,即实际为负样本而被预测为正样本。
对两个数据集测试网络模型的骨架网络进行消融实验比较,为验证在整体网络架构中,使用的高分率网络的骨架网络的有效性及优越性,共在常用的两种骨架网络上进行了实验,其中为比较同种骨架网络间性能的差异,分别在两种骨架网络中选择不同的两种配置进行比较,实验结果表明,子网分辨率越高,识别精度越高;
对于基准方法来讲,当场景中没有遮挡时,基线方法表现良好,这是由于干净的场景中,检测目标清晰可见,直接提取的视觉信息足以对物体姿态进行准确推理,然而当椅子被部分遮挡甚至严重遮挡时,这些方法会出现严重缺陷,在实验结果中可以看出,本发明提出的方法在这方面具有优势,其检测精度提升显著。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种室内复杂场景的物体姿态估计方法,其特征在于,包括以下步骤:
步骤一:先采集室内复杂场景的高分辨率特征图作为输入特征图,接着采用卷积策略将高分辨率特征图下采样至低分辨率特征图,再从低分辨率特征图恢复至高分辨率特征图,作为输出特征图,并进行特征图多尺度特征提取,从输入特征图中生成单个物体姿态估计的关键点;
步骤二:先训练联合嵌入网络来检测单个物体姿态估计的关键点,再使用堆叠沙漏模型来预测每个关键点在每个像素位置的检测得分,其中网络对每个关键点的每个像素位置产生一个标签,接着使用非极大值抑制来取得每个关键点热力图峰值,然后检索关键点热力图峰值对应位置的标签,之后比较所有物体位置的标签,找到接近的标签分为一组,最后将关键点匹配在单个物体上,提取出候选对象;
步骤三:先用概率模型捕获从场景中获得候选对象的统计数据,再使用概率模型对候选对象进行学习与优化,然后考虑关键点的标签与当前物体的匹配,并确认关键点的标签与当前物体之间的最佳匹配,在此过程中,循环迭代遍历当前物体的每一个关键点,直到每次检测都能够被分配到一个物体实例,实现目标物体姿态的推理输出。
2.根据权利要求1所述的一种室内复杂场景的物体姿态估计方法,其特征在于:所述步骤一中,输出特征图与输入特征图具有相同的分辨率且并行连接高分辨率与低分辨率网络,还包括一个估计热力图的回归器,回归器生成的热力图用于关键点位置的选择并且转换至全分辨率。
3.根据权利要求2所述的一种室内复杂场景的物体姿态估计方法,其特征在于:在并行连接的网络中引入交换单元,使网络中每个子网重复接收从其他并行子网接收的信息,重复融合多分辨率的模块,跨分辨率交换信息。
4.根据权利要求3所述的一种室内复杂场景的物体姿态估计方法,其特征在于:自最后一个交换单元输出的高分辨率表征中回归热力图,将均方误差作为损失函数,用于比较预测热力图与真值热力图,其中真值热力图通过计算以每个关键点的组真实位置为中心的二维高斯标准差得到。
5.根据权利要求1所述的一种室内复杂场景的物体姿态估计方法,其特征在于:所述步骤二中,若一张特征图中待检测的关键点有m个,则网络理想状态下输出2m个通道,其中m个通道用于定位,m个通道用于分组。
7.根据权利要求1所述的一种室内复杂场景的物体姿态估计方法,其特征在于:所述步骤三中,只有当两个标签位于特定阈值内,关键点的标签与当前物体才能匹配。
8.根据权利要求1所述的一种室内复杂场景的物体姿态估计方法,其特征在于:所述步骤三中,通过高置信度检测的优先匹配,在执行最大匹配时,其权重由标签距离和检测分数决定,若出现新的检测不匹配的情况,则产生一个新的物体实例。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111571623.0A CN114241051A (zh) | 2021-12-21 | 2021-12-21 | 一种室内复杂场景的物体姿态估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111571623.0A CN114241051A (zh) | 2021-12-21 | 2021-12-21 | 一种室内复杂场景的物体姿态估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114241051A true CN114241051A (zh) | 2022-03-25 |
Family
ID=80760512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111571623.0A Pending CN114241051A (zh) | 2021-12-21 | 2021-12-21 | 一种室内复杂场景的物体姿态估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114241051A (zh) |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106355628A (zh) * | 2015-07-16 | 2017-01-25 | 中国石油化工股份有限公司 | 图文知识点标注方法和装置、图文标注的修正方法和系统 |
CN109063301A (zh) * | 2018-07-24 | 2018-12-21 | 杭州师范大学 | 一种基于热力图的单幅图像室内物体姿态估计方法 |
CN109271842A (zh) * | 2018-07-26 | 2019-01-25 | 北京纵目安驰智能科技有限公司 | 一种基于关键点回归的通用物体检测方法、系统、终端和存储介质 |
CN110135375A (zh) * | 2019-05-20 | 2019-08-16 | 中国科学院宁波材料技术与工程研究所 | 基于全局信息整合的多人姿态估计方法 |
CN110147743A (zh) * | 2019-05-08 | 2019-08-20 | 中国石油大学(华东) | 一种复杂场景下的实时在线行人分析与计数系统及方法 |
CN110163157A (zh) * | 2019-05-24 | 2019-08-23 | 南京邮电大学 | 一种利用新型损失函数进行多人姿态估计的方法 |
CN110175575A (zh) * | 2019-05-29 | 2019-08-27 | 南京邮电大学 | 一种基于新型高分辨率网络模型的单人姿态估计方法 |
CN110580302A (zh) * | 2019-08-13 | 2019-12-17 | 天津大学 | 一种基于半异构联合嵌入网络的草图图像检索方法 |
CN110705365A (zh) * | 2019-09-06 | 2020-01-17 | 北京达佳互联信息技术有限公司 | 一种人体关键点检测方法、装置、电子设备及存储介质 |
CN111583661A (zh) * | 2020-05-27 | 2020-08-25 | 魏保安 | 基于枪球联动与dnn的车辆闯红灯检测方法 |
CN112084987A (zh) * | 2020-09-16 | 2020-12-15 | 杨晓敏 | 一种基于人工智能的地铁逃票行为的检测方法与系统 |
CN112465903A (zh) * | 2020-12-21 | 2021-03-09 | 上海交通大学宁波人工智能研究院 | 一种基于深度学习点云匹配的6dof物体姿态估计方法 |
US20210133580A1 (en) * | 2019-10-30 | 2021-05-06 | Kaia Health Software GmbH | Upgrading a machine learning model's training state |
CN113673354A (zh) * | 2021-07-23 | 2021-11-19 | 湖南大学 | 一种基于上下文信息与联合嵌入的人体关键点检测方法 |
US11182924B1 (en) * | 2019-03-22 | 2021-11-23 | Bertec Corporation | System for estimating a three dimensional pose of one or more persons in a scene |
CN113780205A (zh) * | 2021-09-14 | 2021-12-10 | 北京理工大学 | 一种跨视角信息融合人体姿态估计与空间定位方法 |
-
2021
- 2021-12-21 CN CN202111571623.0A patent/CN114241051A/zh active Pending
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106355628A (zh) * | 2015-07-16 | 2017-01-25 | 中国石油化工股份有限公司 | 图文知识点标注方法和装置、图文标注的修正方法和系统 |
CN109063301A (zh) * | 2018-07-24 | 2018-12-21 | 杭州师范大学 | 一种基于热力图的单幅图像室内物体姿态估计方法 |
CN109271842A (zh) * | 2018-07-26 | 2019-01-25 | 北京纵目安驰智能科技有限公司 | 一种基于关键点回归的通用物体检测方法、系统、终端和存储介质 |
US11182924B1 (en) * | 2019-03-22 | 2021-11-23 | Bertec Corporation | System for estimating a three dimensional pose of one or more persons in a scene |
CN110147743A (zh) * | 2019-05-08 | 2019-08-20 | 中国石油大学(华东) | 一种复杂场景下的实时在线行人分析与计数系统及方法 |
CN110135375A (zh) * | 2019-05-20 | 2019-08-16 | 中国科学院宁波材料技术与工程研究所 | 基于全局信息整合的多人姿态估计方法 |
CN110163157A (zh) * | 2019-05-24 | 2019-08-23 | 南京邮电大学 | 一种利用新型损失函数进行多人姿态估计的方法 |
CN110175575A (zh) * | 2019-05-29 | 2019-08-27 | 南京邮电大学 | 一种基于新型高分辨率网络模型的单人姿态估计方法 |
CN110580302A (zh) * | 2019-08-13 | 2019-12-17 | 天津大学 | 一种基于半异构联合嵌入网络的草图图像检索方法 |
CN110705365A (zh) * | 2019-09-06 | 2020-01-17 | 北京达佳互联信息技术有限公司 | 一种人体关键点检测方法、装置、电子设备及存储介质 |
US20210133580A1 (en) * | 2019-10-30 | 2021-05-06 | Kaia Health Software GmbH | Upgrading a machine learning model's training state |
CN111583661A (zh) * | 2020-05-27 | 2020-08-25 | 魏保安 | 基于枪球联动与dnn的车辆闯红灯检测方法 |
CN112084987A (zh) * | 2020-09-16 | 2020-12-15 | 杨晓敏 | 一种基于人工智能的地铁逃票行为的检测方法与系统 |
CN112465903A (zh) * | 2020-12-21 | 2021-03-09 | 上海交通大学宁波人工智能研究院 | 一种基于深度学习点云匹配的6dof物体姿态估计方法 |
CN113673354A (zh) * | 2021-07-23 | 2021-11-19 | 湖南大学 | 一种基于上下文信息与联合嵌入的人体关键点检测方法 |
CN113780205A (zh) * | 2021-09-14 | 2021-12-10 | 北京理工大学 | 一种跨视角信息融合人体姿态估计与空间定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110598554B (zh) | 基于对抗学习的多人姿态估计方法 | |
Ni et al. | GroupSAC: Efficient consensus in the presence of groupings | |
CN109919977B (zh) | 一种基于时间特征的视频运动人物跟踪与身份识别方法 | |
CN108447080B (zh) | 基于分层数据关联和卷积神经网络的目标跟踪方法、系统和存储介质 | |
CN108960211A (zh) | 一种多目标人体姿态检测方法以及系统 | |
Bedagkar-Gala et al. | Multiple person re-identification using part based spatio-temporal color appearance model | |
JP2017156886A (ja) | 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法 | |
CN106846378B (zh) | 一种结合时空拓扑估计的跨摄像机目标匹配与跟踪方法 | |
CN110610166A (zh) | 文本区域检测模型训练方法、装置、电子设备和存储介质 | |
CN109409418B (zh) | 一种基于词袋模型的回环检测方法 | |
CN113361542B (zh) | 一种基于深度学习的局部特征提取方法 | |
TWI777731B (zh) | 從圖像中提取特徵的方法、裝置及計算機可讀介質 | |
CN110751018A (zh) | 一种基于混合注意力机制的群组行人重识别方法 | |
CN112395957A (zh) | 一种针对视频目标检测的在线学习方法 | |
CN110210335A (zh) | 一种行人重识别学习模型的训练方法、系统和装置 | |
CN111898566B (zh) | 姿态估计方法、装置、电子设备和存储介质 | |
CN111105443A (zh) | 一种基于特征关联的视频群体人物运动轨迹跟踪方法 | |
CN107291813B (zh) | 基于语义分割场景的示例搜索方法 | |
CN117670939A (zh) | 多相机的多目标跟踪方法、装置、存储介质及电子设备 | |
CN114241051A (zh) | 一种室内复杂场景的物体姿态估计方法 | |
CN109784244B (zh) | 一种指定目标的低分辨率人脸精确识别方法 | |
CN109508408B (zh) | 一种基于帧密度的视频检索方法及计算机可读存储介质 | |
CN116958742A (zh) | 一种基于定位预训练的弱监督小样本目标检测系统和方法 | |
CN107578069B (zh) | 图像多尺度自动标注方法 | |
JP2020086879A (ja) | 座標変換行列推定方法及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220325 |
|
RJ01 | Rejection of invention patent application after publication |