CN116524217A - 人体姿态图像匹配方法、装置、电子设备及存储介质 - Google Patents
人体姿态图像匹配方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116524217A CN116524217A CN202310800488.5A CN202310800488A CN116524217A CN 116524217 A CN116524217 A CN 116524217A CN 202310800488 A CN202310800488 A CN 202310800488A CN 116524217 A CN116524217 A CN 116524217A
- Authority
- CN
- China
- Prior art keywords
- position information
- node
- acquiring
- target object
- identification code
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 29
- 238000009877 rendering Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 16
- 238000012937 correction Methods 0.000 claims description 7
- 230000033001 locomotion Effects 0.000 description 17
- 230000015572 biosynthetic process Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000000725 suspension Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 235000017166 Bambusa arundinacea Nutrition 0.000 description 1
- 235000017491 Bambusa tulda Nutrition 0.000 description 1
- 241001330002 Bambuseae Species 0.000 description 1
- 235000015334 Phyllostachys viridis Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 239000011425 bamboo Substances 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种人体姿态图像匹配方法、装置、电子设备及存储介质,包括:获取第一图像数据,第一图像数据为目标对象的整体图像。通过开源人体姿态识别算法对第一图像数据进行节点识别,得到第一节点数据。获取识别码标记,并根据第一节点数据与识别码标记之间的相对位置获取第一位置信息,第一位置信息为第一节点数据相对识别码标记的相对位置信息。以目标对象最低识别点对应的节点为坐标原点建立虚拟空间三维坐标系,获取第二位置信息,第二位置信息为第一节点数据在虚拟空间三维坐标系中的位置信息。获取第一位置信息与第二位置信息之间的差值,并根据第一位置信息修正第二位置信息,以使第二位置信息与第一位置信息对应匹配。
Description
技术领域
本申请涉及图像处理技术领域,特别是涉及一种人体姿态图像匹配方法、装置、电子设备及存储介质。
背景技术
动作捕捉(Motion capture),简称动捕(Mocap),是指记录并处理人或其他物体动作的技术,多个摄像机捕捉目标对象的动作后,将这些动作还原并渲染至相应的虚拟形象身上,这个过程的技术应用即动作捕捉。动作捕捉系统种类较多,一般地,按照技术原理可分为机械式、声学式、电磁式、惯性传感器式和光学式五大类,其中光学式根据目标特征类型不同又可分为标记点式光学和无标记点式光学两类。光学式动作捕捉凭借着采集场地限制低、采集精度高、可实时反馈等优势成为现阶段应用最为广泛、发展最为成熟的动作捕捉技术。
光学式动作捕捉系统基于计算机视觉原理,多个高速相机从不同角度对目标特征点的监视和跟踪来完成动作捕捉任务。理论上对于空间中的任意一个点,只要它能同时为两部相机所见,就可以确定这一时刻该店在空间中的位置。当相机以足够高的速率连续拍摄时,从图像序列中就可以得到该点的运动轨迹。这类系统采集传感器通常都是光学相机,不同的是目标传感器类型不一,一种是在物体上不额外添加标记,基于二维图像特征或三维形状特征提取的关节信息作为探测目标,这类系统可统称为无标记点式光学动作捕捉系统,另一种式在物体上粘贴标记点作为目标传感器,这类系统统称为标记点式光学动作捕捉。
视觉人体姿态识别技术随着计算机视觉的发展和在生活时间中的广泛应用,基于各种算法的行为检测和动作识别项目在实践中得到了越来越多的应用,并在相关领域得到了广泛的研究。在行为监测方面,不仅仅有通过图像、温湿度、声音等信息进行蜂群行为的监测,同时更多的应用是集中在人类行为检测上。而人体姿态识别作为行为监测重要参考以及在视频捕捉、计算机图形学等领域得到了广泛应用。其中,传统的人体姿态识别方法有RMPE(Regional Multi-Person Pose Estimation,区域多人姿态估计)模型和Mask R-CNN(图像实例分割)模型,它们都是采用自顶向下的检测方法,而openpose(人体姿态识别算法)作为姿态识别的经典项目是采用自底向上的检测方法,主要应用于行为监测、姿态纠正、动作分类等领域,另外,在智能家居、自动驾驶、智能监控等领域同样具有重要的研究意义和应用价值。在多人目标姿态识别方面,历史上常见的方法有通过自顶而下的候选关键点查找并结合空间联系优化算法匹配人物以及通过建立部分亲和字段的方法实现关键点检测到人体骨架连接等。人体姿态识别技术的应用前景在步态识别、安防、体感游戏、异常行为检测、体育训练及分析、人机交互、短视频特效等方面。
目前,真实人物的姿态识别方案有红外动捕方式、惯性动捕方式以及图像识别方式,其中,红外动捕方式和惯性动捕方式都需要投入几十万或上百万的硬件成本,不便于人物姿态识别技术的普及与应用。传统的基于图像识别的二维骨骼人物在识别精度和空间匹配上较差,其直接使用识别到的数据直接绑定到虚拟模型进行使用,不确定真实人物的高度与空间位置,只是简单的做到人物驱动模型,另外,在空间坐标匹配的过程中是手动输入,导致坐标精度不高,人物数据与虚拟空间坐标关系不准确,使得真实人物跳动或前后走动时,人物驱动的虚拟人物模型会出现悬空、飘移、抖动等问题,最终导致图像合成效果较差。
综上所述,传统的人物姿态识别方法图像合成效果较差。
发明内容
基于此,有必要针对上述技术问题,提供一种图像合成效果较好的人体姿态图像匹配方法、装置、电子设备及存储介质。
第一方面,本申请提供一种人体姿态图像匹配方法,所述方法包括:
获取第一图像数据,所述第一图像数据为目标对象的整体图像;
通过开源人体姿态识别算法对所述第一图像数据进行节点识别,得到第一节点数据,所述第一节点数据为所述目标对象对应的节点信息;
获取识别码标记,并根据所述第一节点数据与所述识别码标记之间的相对位置获取第一位置信息,所述第一位置信息为所述第一节点数据相对所述识别码标记的相对位置信息;
以所述目标对象最低识别点对应的节点为坐标原点建立虚拟空间三维坐标系,获取第二位置信息,所述第二位置信息为所述第一节点数据在所述虚拟空间三维坐标系中的位置信息;
获取第一位置信息与第二位置信息之间的差值,并根据所述第一位置信息修正所述第二位置信息,以使所述第二位置信息与第一位置信息对应匹配。
在其中一个实施例中,所述通过开源人体姿态识别算法对所述第一图像数据进行节点识别,包括:
通过摄像机获取所述目标对象的整体图像;
通过所述开源人体姿态识别算法对所述目标对象进行人体节点识别,以获取所述目标对象的整体人物节点信息以及人物整体线框位置与大小参数。
在其中一个实施例中,所述获取识别码标记,并根据所述第一节点数据与所述识别码标记之间的相对位置获取第一位置信息,之前包括:
获取第一信息参数,所述第一信息参数为所述目标对象的高度、节点信息以及整体线框位置与大小;
获取第二信息参数,所述第二信息参数为所述识别码标记的数量和排列顺序;
其中,所述第一信息参数与所述第二信息参数用于获取所述第一位置信息。
在其中一个实施例中,所述获取识别码标记,并根据所述第一节点数据与所述识别码标记之间的相对位置获取第一位置信息,包括:
根据所述目标对象对识别码标记区域的遮挡获取所述目标对象与所述识别码标记的相对位置关系;
根据所述相对位置关系并通过右手坐标系法则构建虚拟空间三维坐标系。
在其中一个实施例中,所述识别码标记区域包括多个识别码标记,所述识别码标记具有第一空间位置参数,所述根据所述目标对象对识别码标记区域的遮挡获取所述目标对象与所述识别码标记的相对位置关系,包括:
获取多个第一空间位置参数,所述多个第一空间位置参数与所述多个识别码标记一一对应;
根据所述多个第一空间位置参数获取第二空间位置参数,所述第二空间位置参数为所述目标对象相对于所述识别码标记区域的空间位置参数。
在其中一个实施例中,所述获取第一位置信息与第二位置信息之间的差值,并根据所述第一位置信息修正所述第二位置信息,之后包括:
获取第二节点数据,所述第二节点数据为所述第二位置信息修正后所对应的目标对象的节点信息;
通过UDP协议向渲染服务器发送所述第二节点数据,并通过所述渲染服务器对所述第二节点数据进行渲染,渲染后的第二节点数据用于驱动虚拟对象模型活动。
在其中一个实施例中,所述方法还包括:
构建第一对象模型,所述第一对象模型为虚拟空间中与所述目标对象相匹配的虚拟对象模型;
将渲染后的第二数据节点与所述第一对象模型匹配绑定,以使所述目标对象通过所述渲染后的第二数据节点驱动所述第一对象模型活动。
第二方面,本申请提供一种人体姿态图像匹配装置,所述装置包括:
图像获取模块,用于获取第一图像数据,所述第一图像数据为目标对象的整体图像;
节点识别模块,用于通过开源人体姿态识别算法对所述第一图像数据进行节点识别,得到第一节点数据,所述第一节点数据为所述目标对象对应的节点信息;
第一信息获取模块,用于获取识别码标记,并根据所述第一节点数据与所述识别码标记之间的相对位置获取第一位置信息,所述第一位置信息为所述第一节点数据相对所述识别码标记的相对位置信息;
第二信息获取模块,用于以所述目标对象最低识别点对应的节点为坐标原点建立虚拟空间三维坐标系,获取第二位置信息,所述第二位置信息为所述第一节点数据在所述虚拟空间三维坐标系中的位置信息;
差值修正模块,用于获取第一位置信息与第二位置信息之间的差值,并根据所述第一位置信息修正所述第二位置信息,以使所述第二位置信息与第一位置信息对应匹配。
第三方面,本申请提供一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取第一图像数据,所述第一图像数据为目标对象的整体图像;
通过开源人体姿态识别算法对所述第一图像数据进行节点识别,得到第一节点数据,所述第一节点数据为所述目标对象对应的节点信息;
获取识别码标记,并根据所述第一节点数据与所述识别码标记之间的相对位置获取第一位置信息,所述第一位置信息为所述第一节点数据相对所述识别码标记的相对位置信息;
以所述目标对象最低识别点对应的节点为坐标原点建立虚拟空间三维坐标系,获取第二位置信息,所述第二位置信息为所述第一节点数据在所述虚拟空间三维坐标系中的位置信息;
获取第一位置信息与第二位置信息之间的差值,并根据所述第一位置信息修正所述第二位置信息,以使所述第二位置信息与第一位置信息对应匹配。
第四方面,本申请提供一种计算机存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取第一图像数据,所述第一图像数据为目标对象的整体图像;
通过开源人体姿态识别算法对所述第一图像数据进行节点识别,得到第一节点数据,所述第一节点数据为所述目标对象对应的节点信息;
获取识别码标记,并根据所述第一节点数据与所述识别码标记之间的相对位置获取第一位置信息,所述第一位置信息为所述第一节点数据相对所述识别码标记的相对位置信息;
以所述目标对象最低识别点对应的节点为坐标原点建立虚拟空间三维坐标系,获取第二位置信息,所述第二位置信息为所述第一节点数据在所述虚拟空间三维坐标系中的位置信息;
获取第一位置信息与第二位置信息之间的差值,并根据所述第一位置信息修正所述第二位置信息,以使所述第二位置信息与第一位置信息对应匹配。
上述人体姿态图像匹配方法、装置、电子设备及存储介质,通过开源人体姿态识别算法对目标对象的整体图像数据进行节点识别,得到目标对象对应的节点数据。随后,获取目标对象的节点数据与识别码标记之间的相对位置信息,以目标对象最低识别点对应的节点为坐标原点建立虚拟空间三维坐标系,根据该三维坐标系进一步获取目标对象的节点数据的位置信息,根据前后获得的目标对象相对于识别码标记的位置信息与三维坐标中目标对象的节点数据的位置信息,获取该两组位置信息之间的差值,并根据得到的差值修正虚拟空间三维坐标中目标对象的节点数据的位置信息,修正后的节点数据在与虚拟对象模型匹配时会更加精准,在人物驱动模型时实现更好的图像合成效果。
附图说明
图1为本申请提供的人体姿态图像匹配方法流程图之一;
图2为本申请提供的人体姿态图像匹配方法流程图之二;
图3为本申请提供的人体姿态图像匹配方法流程图之三;
图4为本申请提供的人体姿态图像匹配方法流程图之四;
图5为本申请提供的人体姿态图像匹配方法流程图之五;
图6为本申请提供的人体姿态图像匹配方法流程图之六;
图7为本申请提供的具体实施例中人体姿态图像匹配方法的系统总体结构示意图;
图8为本申请提供的具体实施例中人体姿态图像匹配方法的工作流程示意图;
图9为本申请中一个实施例的人体姿态图像匹配装置结构示意图;
图10为本申请中一个实施例的计算机设备的内部结构图。
实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地说明,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
首先,对本申请中所提到的缩略语、英文和关键术语进行解释说明:
SDI:SDI接口是一种“数字分量串行接口”,而HD-SDI接口是一种广播级的高清数字输入和输出端口,其中HD表示高清信号。由于SDI接口不能直接传送压缩数字信号,数字录像机、硬盘等设备记录的压缩信号重放后,必须经解压并经SDI接口输出才能进入SDI系统。如果反复解压和压缩,必将引起图像质量下降和延时增加,为此各种不同格式的数字录像机和非线性编辑系统,规定了自己的用于直接传输压缩数字信号的接口。
Aruco标记: ArUco是一个开源的微型的现实增强库,目前好像已经集成在OpenCV3.0以上的版本内了,它除了用于现实增强,还很用于实现一些机器视觉方面的应用,上图中的波士顿动力也曾用此方法用于Atlas的视觉定位,ArUco开源库的几个特点如下: 1.基于C++;2.仅依赖于OpenCV(≥2.4.9)和Eigen3(源码中已经包含);3.BDS开源。
OpenPose:OpenPose人体姿态识别项目是美国卡耐基梅隆大学(CMU)基于卷积神经网络和监督学习并以Caffe为框架开发的开源库。可以实现人体动作、面部表情、手指运动等姿态估计。适用于单人和多人,具有极好的鲁棒性。是世界上首个基于深度学习的实时多人二维姿态估计应用,基于它的实例如雨后春笋般涌现。
UDP 是User Datagram Protocol的简称, 中文名是用户数据报协议,是OSI(OpenSystem Interconnection,开放式系统互联) 参考模型中一种无连接的传输层协议,提供面向事务的简单不可靠信息传送服务,IETF RFC 768是UDP的正式规范。
如图1所示,在一个实施例中,一种人体姿态图像匹配方法,包括以下步骤:
步骤S110,获取第一图像数据,第一图像数据为目标对象的整体图像。
具体地,服务端获取目标对象的整体图像数据。
步骤S120,通过开源人体姿态识别算法对第一图像数据进行节点识别,得到第一节点数据,第一节点数据为目标对象对应的节点信息。
具体地,服务端通过开源人体姿态识别算法对步骤S110中获取的目标独象的整体图像数据进行节点识别,得到与目标对象对应的节点信息。
步骤S130,获取识别码标记,并根据第一节点数据与识别码标记之间的相对位置获取第一位置信息,第一位置信息为第一节点数据相对识别码标记的相对位置信息。
需要说明的是,识别码标记为Aruco标记,Aruco标记是由黑色边框和确定其标识符的内部二进制矩阵组成的正方形标记,Aruco标记是一种编码,与二维码类似,由于编码方式的不同,导致其存储信息的方式、容量等有所差异,所以单个Aruco标记就可以提供足够的对应关系。另外,Aruco标记被广泛用于增加从二维世界映射到三维世界的信息量,便于建立二维世界与三维世界之间的投影关系,从而实现姿态评估以及相机校正等应用。
具体地,服务端服务端获取识别码的标记信息,并根据目标对象对应的节点信息与识别码标记之间的相对位置获取节点信息与识别码之间的相对位置信息。
步骤S140,以目标对象最低识别点对应的节点为坐标原点建立虚拟空间三维坐标系,获取第二位置信息,第二位置信息为第一节点数据在虚拟空间三维坐标系中的位置信息。
具体地,服务端以目标对象最低识别点对应的节点为坐标原点建立虚拟空间三维坐标系,进而获取目标对象对应节点信息在虚拟空间坐标系中的位置信息。
步骤S150,获取第一位置信息与第二位置信息之间的差值,并根据第一位置信息修正第二位置信息,以使第二位置信息与第一位置信息对应匹配。
具体地,服务端将步骤S130和步骤S140中获取到的目标对象与识别码标记的相对位置信息以及虚拟空间三维坐标中对应节点信息的位置信息进行对比,以获取该两处位置信息之间的差值,并根据节点信息与识别码标记之间的相对位置信息修正虚拟空间三维坐标中节点信息的位置信息,来提高真实图像与虚拟空间图像的匹配精度,在目标对象驱动虚拟模型时实现更好的图像合成效果。
上述人体姿态图像匹配方法,通过开源人体姿态识别算法对目标对象的整体图像数据进行节点识别,得到目标对象对应的节点数据。随后,获取目标对象的节点数据与识别码标记之间的相对位置信息,以目标对象最低识别点对应的节点为坐标原点建立虚拟空间三维坐标系,根据该三维坐标系进一步获取目标对象的节点数据的位置信息,根据前后获得的目标对象相对于识别码标记的位置信息与三维坐标中目标对象的节点数据的位置信息,获取该两组位置信息之间的差值,并根据得到的差值修正虚拟空间三维坐标中目标对象的节点数据的位置信息,修正后的节点数据在与虚拟对象模型匹配时会更加精准,在人物驱动模型时实现更好的图像合成效果。
如图2所示,在一个实施例中,本申请的人体姿态图像匹配方法,其通过开源人体姿态识别算法对第一图像数据进行节点识别,得到第一节点数据,包括以下步骤:
步骤S122,通过摄像机获取目标对象的整体图像。
具体地,服务端通过摄像机获取目标人物的整体图像数据。
步骤S124,通过开源人体姿态识别算法对目标对象进行人体节点识别,以获取目标对象的整体人物节点信息以及人物整体线框位置与大小参数。
具体地,服务端通过开源人体姿态评估识别算法对步骤S122中获取的目标人物的整体图像数据进行人体节点识别,来获取目标人物的整体人物节点信息以及人物整体线框位置与大小参数。
需要说明的是,人物整体线框为矩形线框,用于框选目标人物,其位置和大小取决于目标人物的位置和大小。
如图3所示,在一个实施例中,本申请的人体姿态图像匹配方法,其获取识别码标记,并根据第一节点数据与识别码标记之间的相对位置获取第一位置信息,之前包括以下步骤:
步骤S310,获取第一信息参数,第一信息参数为目标对象的高度、节点信息以及整体线框位置与大小。
具体地,服务端获取目标对象的高度、节点信息以及目标对象的整体线框位置与大小参数。
步骤S320,获取第二信息参数,第二信息参数为识别码标记的数量和排列顺序。
具体地,服务端进一步获取识别码标记的数量和排列顺序,以便服务端根据目标对象的高度、节点信息、目标对象整体线框位置与大小参数以及识别码标记的数量和排列获取目标对象与识别码标记阵列之间的的相对位置信息。
如图4所示,在一个实施例中,本申请的人体姿态图像匹配方法,其获取识别码标记,并根据第一节点数据与识别码标记之间的相对位置获取第一位置信息,包括以下步骤:
步骤S132,根据目标对象对识别码标记区域的遮挡获取目标对象与识别码标记的相对位置关系。
具体地,服务端根据目标对象对识别码标记区域的遮挡获取目标对象与识别码标记之间的相对位置信息,其中,识别码标记区域包括多个识别码标记,且每个识别码标记都具有唯一的空间位置参数,服务端通过获取识别码标记的位置参数,并根据多个识别码标记对应的位置参数确定目标对象相对于识别码标记区域的空间位置参数。
步骤S134,根据相对位置关系并通过右手坐标系法则构建虚拟空间三维坐标系。
具体地,服务端根据步骤S132中获取的目标对象与识别码标记之间的相对位置关系通过右手坐标系法则构建虚拟空间三维坐标系。
如图5所示,在一个实施例中,本申请的人体姿态图像匹配方法,其获取第一位置信息与第二位置信息之间的差值,并根据第一位置信息修正第二位置信息,之后包括以下步骤:
步骤S510,获取第二节点数据,第二节点数据为第二位置信息修正后所对应的目标对象的节点信息。
具体地,服务端获取目标对象在虚拟空间三维坐标中修正后的位置信息所对应的目标对象的节点信息。
步骤S520,通过UDP协议向渲染服务器发送第二节点数据,并通过渲染服务器对第二节点数据进行渲染,渲染后的第二节点数据用于驱动虚拟对象模型活动。
具体地,服务端通过UDP协议想渲染服务器发送步骤S510中获取的修正后的节点信息,并通过渲染服务器对该修正后的节点信息进行渲染,渲染后用于驱动虚拟对象模型活动。
如图6所示,在一个实施例中,本申请的人体姿态图像匹配方法,还包括以下步骤:
步骤S610,构建第一对象模型,第一对象模型为虚拟空间中与目标对象相匹配的虚拟对象模型。
具体地,服务端在虚拟空间中构建与目标对象相对应匹配的虚拟对象模型。
步骤S620,将渲染后的第二数据节点与第一对象模型匹配绑定,以使目标对象通过渲染后的第二数据节点驱动第一对象模型活动。
具体地,服务端将渲染后的节点信息与虚拟对象模型进行匹配绑定,以使目标对象通过渲染后的节点信息驱动虚拟对象模型活动。
参见图7至图8所示,在具体的实施例中,一种人体姿态图像匹配方法,拍摄摄像机使用的是索尼FS9,快门调至50/1秒,图像计算服务器为HPZ4,渲染服务器为HPZ4,网络交换机为华为S5735S,图像计算服务器装有视频采集卡BMD4K12G。
在进行图像合成时,打开图像计算服务器,打开摄像机快门设置为50/1秒,图像信号通过SDI线从摄像机连到图像计算服务器,渲染服务器使用DP线连接电脑显示器,图像计算服务器与渲染服务器使用网线与交换机连接,开启全部测试设备,启动图像计算服务器的图像识别软件获取人物图像,摄像机使用4K(3840×2160)分辨率摄像机水平放置,快门设置为50帧每秒,真实人物站在距离摄像机5米远的地方,拍摄真实人物的全身图像,通过SDI线把摄像机图像信号通过SDI板卡端口输入到图像识别的计算机,计算机内置的图像识别软件使用开源人体姿态识别算法(openpose)进行人体的节点识别工作。
首先,在软件中填入真实人物的身高值,再通过摄像机信号获取图像中计算出整体人物节点信息、包括人物整体线框位置与人物像素大小参数,然后启用标记识别功能,把实际打印的一块1×1米、5×5排列的Aruco标记板,放置在正对摄像机的一条直线地面上,分别平放在真实地面的5米、6米、7米、8米、9米、10米六个位置,每一个位置摆放完后人物站在标定板中心位置,一直标定板真实大小和Aruco标记的排列与个数,每一个Aruco标记都有唯一的空间位置参数,通过人物站立位置遮挡的Aruco标记区域计算人物空间位置参数。
已知人物的真实身高和标定板真实大小,通过图像算法取得标定板与人物在拍摄图像的像素大小与比例参数,通过此方法可以实时计算出人物在真实空间的位置,并通过虚拟引擎使用右手坐标系法则定出三维空间的X,Y,Z轴向,真实空间坐标系确定完成后,人物再次站在摄像机正前方五米处。获取双脚的最低点定位虚拟空间的原点,坐标为(0,0,0),摄像机的正前方为Y轴,Y轴顺时针90度为X轴向,与X,Y轴垂直90度的方向为向上的Z轴,摄像机在拍摄使用期间不要移动,人物整体数据完成修正后,图像识别软件通过网线UDP协议向渲染服务器发送人物姿态数据来驱动虚拟人物活动,达到不使用第三跟踪系统就可以驱动虚拟人物模型的功能,由于人物整体数据时修正后的,在一定程度上保证了使用二维人物图像识别驱动的虚拟三维模型在三维虚拟空间显示的稳定性以及图像的合成效果。
上述人体姿态图像匹配方法,通过使用价格较低的摄像头和人物姿态识别软件,相对于红外动捕方式和惯性动捕方式几十万或上百万的硬件成本,通过标记图的方式修正图像识别的二维骨骼人物在三维空间中的参数与空间匹配关系,可以消除虚拟人物模型识别不准、悬空、飘移、抖动等问题,使得最终的合成画面更加真实稳定。另外,该方法通过调用轻量级的openpose(也可使用其他图像识别算法)模型进行人体姿态识别,再使用Aruco标记进行空间坐标匹配与人物精度修正,使得虚拟人物模型所匹配绑定的节点信息为修正后的节点信息,使得虚拟人物模型与目标对象实现较精准地匹配,进而优化了真实人物驱动的虚拟人物模型在虚拟三维空间中的合成效果。
如图9所示,在一个实施例中,一种人体姿态图像匹配装置,包括图像获取模块910、节点识别模块920、第一信息获取模块930、第二信息获取模块940和差值修正模块950。
图像获取模块910用于获取第一图像数据,第一图像数据为目标对象的整体图像。
节点识别模块920用于通过开源人体姿态识别算法对第一图像数据进行节点识别,得到第一节点数据,第一节点数据为目标对象对应的节点信息。
第一信息获取模块930用于获取识别码标记,并根据第一节点数据与识别码标记之间的相对位置获取第一位置信息,第一位置信息为第一节点数据相对识别码标记的相对位置信息。
第二信息获取模块940用于以目标对象最低识别点对应的节点为坐标原点建立虚拟空间三维坐标系,获取第二位置信息,第二位置信息为第一节点数据在虚拟空间三维坐标系中的位置信息。
差值修正模块950用于获取第一位置信息与第二位置信息之间的差值,并根据第一位置信息修正第二位置信息,以使第二位置信息与第一位置信息对应匹配。
在本实施例中,本申请提供的人体姿态图像匹配装置,其节点识别模块具体用于:
通过摄像机获取目标对象的整体图像。
通过开源人体姿态识别算法对目标对象进行人体节点识别,以获取目标对象的整体人物节点信息以及人物整体线框位置与大小参数。
在本实施例中,本申请提供的人体姿态图像匹配装置,其第一信息获取模块具体用于:
根据目标对象对识别码标记区域的遮挡获取目标对象与识别码标记的相对位置关系。
根据相对位置关系并通过右手坐标系法则构建虚拟空间三维坐标系。
在本实施例中,本申请提供的人体姿态图像匹配装置,还包括第一参数获取模块、第二参数获取模块、节点获取模块、渲染驱动模块、模型构建模块和渲染匹配模块。
第一参数获取模块用于获取第一信息参数,第一信息参数为目标对象的高度、节点信息以及整体线框位置与大小。
节点获取模块,用于获取第二节点数据,第二节点数据为第二位置信息修正后所对应的目标对象的节点信息。
渲染驱动模块,用于通过UDP协议向渲染服务器发送第二节点数据,并通过渲染服务器对第二节点数据进行渲染,渲染后的第二节点数据用于驱动虚拟对象模型活动。
第二参数获取模块用于获取第二信息参数,第二信息参数为识别码标记的数量和排列顺序。
模型构建模块用于构建第一对象模型,第一对象模型为虚拟空间中与目标对象相匹配的虚拟对象模型。
渲染匹配模块用于将渲染后的第二数据节点与第一对象模型匹配绑定,以使目标对象通过渲染后的第二数据节点驱动第一对象模型活动。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是智能终端,其内部结构图可以如图10所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种人体姿态图像匹配方法。
本领域技术人员可以理解,图10中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,一种电子设备,包括存储器和处理器,存储器存储有计算机程序,该处理器执行计算机程序时实现上述人体姿态图像匹配方法,该方法包括:
获取第一图像数据,所述第一图像数据为目标对象的整体图像;
通过开源人体姿态识别算法对所述第一图像数据进行节点识别,得到第一节点数据,所述第一节点数据为所述目标对象对应的节点信息;
获取识别码标记,并根据所述第一节点数据与所述识别码标记之间的相对位置获取第一位置信息,所述第一位置信息为所述第一节点数据相对所述识别码标记的相对位置信息;
以所述目标对象最低识别点对应的节点为坐标原点建立虚拟空间三维坐标系,获取第二位置信息,所述第二位置信息为所述第一节点数据在所述虚拟空间三维坐标系中的位置信息;
获取第一位置信息与第二位置信息之间的差值,并根据所述第一位置信息修正所述第二位置信息,以使所述第二位置信息与第一位置信息对应匹配。
在一个实施例中,一种计算机存储介质,存储有计算机程序,计算机程序被处理器执行时实现上述人体姿态图像匹配方法,该方法包括:
获取第一图像数据,所述第一图像数据为目标对象的整体图像;
通过开源人体姿态识别算法对所述第一图像数据进行节点识别,得到第一节点数据,所述第一节点数据为所述目标对象对应的节点信息;
获取识别码标记,并根据所述第一节点数据与所述识别码标记之间的相对位置获取第一位置信息,所述第一位置信息为所述第一节点数据相对所述识别码标记的相对位置信息;
以所述目标对象最低识别点对应的节点为坐标原点建立虚拟空间三维坐标系,获取第二位置信息,所述第二位置信息为所述第一节点数据在所述虚拟空间三维坐标系中的位置信息;
获取第一位置信息与第二位置信息之间的差值,并根据所述第一位置信息修正所述第二位置信息,以使所述第二位置信息与第一位置信息对应匹配。
在一个实施例中,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述人体姿态图像匹配方法,该方法包括:
获取第一图像数据,所述第一图像数据为目标对象的整体图像;
通过开源人体姿态识别算法对所述第一图像数据进行节点识别,得到第一节点数据,所述第一节点数据为所述目标对象对应的节点信息;
获取识别码标记,并根据所述第一节点数据与所述识别码标记之间的相对位置获取第一位置信息,所述第一位置信息为所述第一节点数据相对所述识别码标记的相对位置信息;
以所述目标对象最低识别点对应的节点为坐标原点建立虚拟空间三维坐标系,获取第二位置信息,所述第二位置信息为所述第一节点数据在所述虚拟空间三维坐标系中的位置信息;
获取第一位置信息与第二位置信息之间的差值,并根据所述第一位置信息修正所述第二位置信息,以使所述第二位置信息与第一位置信息对应匹配。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种人体姿态图像匹配方法,其特征在于,所述方法包括:
获取第一图像数据,所述第一图像数据为目标对象的整体图像;
通过开源人体姿态识别算法对所述第一图像数据进行节点识别,得到第一节点数据,所述第一节点数据为所述目标对象对应的节点信息;
获取识别码标记,并根据所述第一节点数据与所述识别码标记之间的相对位置获取第一位置信息,所述第一位置信息为所述第一节点数据相对所述识别码标记的相对位置信息;
以所述目标对象最低识别点对应的节点为坐标原点建立虚拟空间三维坐标系,获取第二位置信息,所述第二位置信息为所述第一节点数据在所述虚拟空间三维坐标系中的位置信息;
获取第一位置信息与第二位置信息之间的差值,并根据所述第一位置信息修正所述第二位置信息,以使所述第二位置信息与第一位置信息对应匹配。
2.根据权利要求1所述的人体姿态图像匹配方法,其特征在于,所述通过开源人体姿态识别算法对所述第一图像数据进行节点识别,包括:
通过摄像机获取所述目标对象的整体图像;
通过所述开源人体姿态识别算法对所述目标对象进行人体节点识别,以获取所述目标对象的整体人物节点信息以及人物整体线框位置与大小参数。
3.根据权利要求1所述的人体姿态图像匹配方法,其特征在于,所述获取识别码标记,并根据所述第一节点数据与所述识别码标记之间的相对位置获取第一位置信息,之前包括:
获取第一信息参数,所述第一信息参数为所述目标对象的高度、节点信息以及整体线框位置与大小;
获取第二信息参数,所述第二信息参数为所述识别码标记的数量和排列顺序;
其中,所述第一信息参数与所述第二信息参数用于获取所述第一位置信息。
4.根据权利要求1所述的人体姿态图像匹配方法,其特征在于,所述获取识别码标记,并根据所述第一节点数据与所述识别码标记之间的相对位置获取第一位置信息,包括:
根据所述目标对象对识别码标记区域的遮挡获取所述目标对象与所述识别码标记的相对位置关系;
根据所述相对位置关系并通过右手坐标系法则构建虚拟空间三维坐标系。
5.根据权利要求4所述的人体姿态图像匹配方法,其特征在于,所述识别码标记区域包括多个识别码标记,所述识别码标记具有第一空间位置参数,所述根据所述目标对象对识别码标记区域的遮挡获取所述目标对象与所述识别码标记的相对位置关系,包括:
获取多个第一空间位置参数,所述多个第一空间位置参数与所述多个识别码标记一一对应;
根据所述多个第一空间位置参数获取第二空间位置参数,所述第二空间位置参数为所述目标对象相对于所述识别码标记区域的空间位置参数。
6.根据权利要求1所述的人体姿态图像匹配方法,其特征在于,所述获取第一位置信息与第二位置信息之间的差值,并根据所述第一位置信息修正所述第二位置信息,之后包括:
获取第二节点数据,所述第二节点数据为所述第二位置信息修正后所对应的目标对象的节点信息;
通过UDP协议向渲染服务器发送所述第二节点数据,并通过所述渲染服务器对所述第二节点数据进行渲染,渲染后的第二节点数据用于驱动虚拟对象模型活动。
7.根据权利要求6所述的人体姿态图像匹配方法,其特征在于,所述方法还包括:
构建第一对象模型,所述第一对象模型为虚拟空间中与所述目标对象相匹配的虚拟对象模型;
将渲染后的第二数据节点与所述第一对象模型匹配绑定,以使所述目标对象通过所述渲染后的第二数据节点驱动所述第一对象模型活动。
8.一种人体姿态图像匹配装置,其特征在于,所述装置包括:
图像获取模块,用于获取第一图像数据,所述第一图像数据为目标对象的整体图像;
节点识别模块,用于通过开源人体姿态识别算法对所述第一图像数据进行节点识别,得到第一节点数据,所述第一节点数据为所述目标对象对应的节点信息;
第一信息获取模块,用于获取识别码标记,并根据所述第一节点数据与所述识别码标记之间的相对位置获取第一位置信息,所述第一位置信息为所述第一节点数据相对所述识别码标记的相对位置信息;
第二信息获取模块,用于以所述目标对象最低识别点对应的节点为坐标原点建立虚拟空间三维坐标系,获取第二位置信息,所述第二位置信息为所述第一节点数据在所述虚拟空间三维坐标系中的位置信息;
差值修正模块,用于获取第一位置信息与第二位置信息之间的差值,并根据所述第一位置信息修正所述第二位置信息,以使所述第二位置信息与第一位置信息对应匹配。
9.一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310800488.5A CN116524217B (zh) | 2023-07-03 | 2023-07-03 | 人体姿态图像匹配方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310800488.5A CN116524217B (zh) | 2023-07-03 | 2023-07-03 | 人体姿态图像匹配方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116524217A true CN116524217A (zh) | 2023-08-01 |
CN116524217B CN116524217B (zh) | 2023-08-25 |
Family
ID=87392549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310800488.5A Active CN116524217B (zh) | 2023-07-03 | 2023-07-03 | 人体姿态图像匹配方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116524217B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170318275A1 (en) * | 2016-04-28 | 2017-11-02 | Verizon Patent And Licensing Inc. | Methods and Systems for Creating and Providing a Real-Time Volumetric Representation of a Real-World Event |
CN114851201A (zh) * | 2022-05-18 | 2022-08-05 | 浙江工业大学 | 一种基于tsdf三维重建的机械臂六自由度视觉闭环抓取方法 |
CN114998443A (zh) * | 2022-05-10 | 2022-09-02 | 浙江大学 | 一种基于多目计算机视觉的高精度电子面弓方法 |
US20230016057A1 (en) * | 2021-07-06 | 2023-01-19 | Korea Advanced Institute Of Science And Technology | Method for generating and recognizing deformable of fiducial markers based on artificial intelligence in end-to-end manner and system thereof |
WO2023045144A1 (zh) * | 2021-09-27 | 2023-03-30 | 华中师范大学 | 一种立体综合教学场系统的工作方法 |
CN115880357A (zh) * | 2021-09-27 | 2023-03-31 | 福特全球技术公司 | 对象姿态估计 |
CN116310010A (zh) * | 2023-05-19 | 2023-06-23 | 北京七维视觉传媒科技有限公司 | 图像识别方法、装置、电子设备及存储介质 |
-
2023
- 2023-07-03 CN CN202310800488.5A patent/CN116524217B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170318275A1 (en) * | 2016-04-28 | 2017-11-02 | Verizon Patent And Licensing Inc. | Methods and Systems for Creating and Providing a Real-Time Volumetric Representation of a Real-World Event |
US20230016057A1 (en) * | 2021-07-06 | 2023-01-19 | Korea Advanced Institute Of Science And Technology | Method for generating and recognizing deformable of fiducial markers based on artificial intelligence in end-to-end manner and system thereof |
WO2023045144A1 (zh) * | 2021-09-27 | 2023-03-30 | 华中师范大学 | 一种立体综合教学场系统的工作方法 |
CN115880357A (zh) * | 2021-09-27 | 2023-03-31 | 福特全球技术公司 | 对象姿态估计 |
CN114998443A (zh) * | 2022-05-10 | 2022-09-02 | 浙江大学 | 一种基于多目计算机视觉的高精度电子面弓方法 |
CN114851201A (zh) * | 2022-05-18 | 2022-08-05 | 浙江工业大学 | 一种基于tsdf三维重建的机械臂六自由度视觉闭环抓取方法 |
CN116310010A (zh) * | 2023-05-19 | 2023-06-23 | 北京七维视觉传媒科技有限公司 | 图像识别方法、装置、电子设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
GARRIDO-JURADO, SERGIO等: "Automatic generation and detection of highly reliable fiducial markers under occlusion", PATTERN RECOGNITION, vol. 47, no. 6, pages 2280 - 2292, XP055601771, DOI: 10.1016/j.patcog.2014.01.005 * |
滕培培等: "基于ArUco码的轨道运输设备定位系统的研究及应用", 冶金自动化, vol. 46, no. 05, pages 36 - 42 * |
Also Published As
Publication number | Publication date |
---|---|
CN116524217B (zh) | 2023-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109727303B (zh) | 视频展示方法、系统、计算机设备、存储介质和终端 | |
US7554575B2 (en) | Fast imaging system calibration | |
CN111126304A (zh) | 一种基于室内自然场景图像深度学习的增强现实导航方法 | |
Barandiaran et al. | Real-time optical markerless tracking for augmented reality applications | |
CN110544301A (zh) | 一种三维人体动作重建系统、方法和动作训练系统 | |
CN116310010B (zh) | 图像识别方法、装置、电子设备及存储介质 | |
WO2019035155A1 (ja) | 画像処理システム、画像処理方法、及びプログラム | |
CN111144356B (zh) | 一种远程教学的教师视线跟随方法及装置 | |
CN104169965A (zh) | 用于多拍摄装置系统中图像变形参数的运行时调整的系统、方法和计算机程序产品 | |
CN112207821B (zh) | 视觉机器人的目标搜寻方法及机器人 | |
Ai et al. | Deep learning for omnidirectional vision: A survey and new perspectives | |
US20220329880A1 (en) | Video stream processing method and apparatus, device, and medium | |
CN111833457A (zh) | 图像处理方法、设备及存储介质 | |
CN112528902A (zh) | 一种基于3d人脸模型的视频监控动态人脸识别方法及装置 | |
CN114266823A (zh) | 一种结合SuperPoint网络特征提取的单目SLAM方法 | |
US11403768B2 (en) | Method and system for motion prediction | |
US20230306636A1 (en) | Object three-dimensional localizations in images or videos | |
CN116524217B (zh) | 人体姿态图像匹配方法、装置、电子设备及存储介质 | |
GB2430830A (en) | Image sequence movement analysis system using object model, likelihood sampling and scoring | |
CN112288876A (zh) | 远距离ar识别服务器及系统 | |
CN115131407B (zh) | 面向数字仿真环境的机器人目标跟踪方法、装置和设备 | |
CN114299269A (zh) | 显示方法、显示设备、显示系统、电子设备及存储介质 | |
CN117078762A (zh) | 一种虚拟现实设备、相机标定装置及方法 | |
CN115344113A (zh) | 多视角人体运动捕捉方法、装置、系统、介质及终端 | |
Chen et al. | DIOR: Dataset for Indoor-Outdoor Reidentification--Long Range 3D/2D Skeleton Gait Collection Pipeline, Semi-Automated Gait Keypoint Labeling and Baseline Evaluation Methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |