CN113795867A - 物体姿态的检测方法、装置、计算机设备和存储介质 - Google Patents
物体姿态的检测方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN113795867A CN113795867A CN202180002185.8A CN202180002185A CN113795867A CN 113795867 A CN113795867 A CN 113795867A CN 202180002185 A CN202180002185 A CN 202180002185A CN 113795867 A CN113795867 A CN 113795867A
- Authority
- CN
- China
- Prior art keywords
- network
- dimensional
- image data
- coordinate system
- residual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 75
- 238000003860 storage Methods 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 38
- 238000013507 mapping Methods 0.000 claims abstract description 17
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 53
- 239000011159 matrix material Substances 0.000 claims description 44
- 239000000463 material Substances 0.000 claims description 41
- 238000012545 processing Methods 0.000 claims description 37
- 238000004590 computer program Methods 0.000 claims description 7
- 238000000354 decomposition reaction Methods 0.000 claims description 5
- 230000036544 posture Effects 0.000 abstract description 74
- 230000000694 effects Effects 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 239000000126 substance Substances 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 241000196324 Embryophyta Species 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 241000238557 Decapoda Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 235000013361 beverage Nutrition 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000003746 feather Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 235000019580 granularity Nutrition 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供了一种物体姿态的检测方法、装置、计算机设备和存储介质,该方法包括:获取图像数据,图像数据中具有目标物体,将图像数据输入二维检测模型中,检测三维的边界框投影至图像数据时的二维的第一姿态信息,边界框用于检测目标物体,将第一姿态信息映射为三维的第二姿态信息,根据第二姿态信息检测目标物体的第三姿态信息。
Description
技术领域
本申请实施例涉及计算机视觉的技术领域,例如涉及一种物体姿态的检测方法、装置、计算机设备和存储介质。
背景技术
在短视频、直播、自动驾驶、AR(Augmented Reality,增强现实)、机器人等业务场景中,通常会进行3D(3-dimension,三维)目标检测,及对作为目标的物体检测物体在三维空间的信息,进行添加特效、路线规划、运动轨迹规划等业务处理。
发明内容
本申请实施例提出了一种物体姿态的检测方法、装置、计算机设备和存储介质。
第一方面,本申请实施例提供了一种物体姿态的检测方法,包括:
获取图像数据,所述图像数据中具有目标物体;
将所述图像数据输入二维检测模型中,检测三维的边界框投影至所述图像数据时的二维的第一姿态信息,所述边界框用于检测所述目标物体;
将所述第一姿态信息映射为三维的第二姿态信息;
根据所述第二姿态信息检测所述目标物体的第三姿态信息。
第二方面,本申请实施例还提供了一种物体姿态的检测装置,包括:
图像数据获取模块,设置为获取图像数据,所述图像数据中具有目标物体;
第一姿态信息检测模块,设置为将所述图像数据输入二维检测模型中,检测三维的边界框投影至所述图像数据时的二维的第一姿态信息,所述边界框用于检测所述目标物体;
第二姿态信息映射模块,设置为将所述第一姿态信息映射为三维的第二姿态信息;
第三姿态信息检测模块,设置为根据所述第二姿态信息检测所述目标物体的第三姿态信息。
第三方面,本申请实施例还提供了一种计算机设备,所述计算机设备包括:
至少一个处理器;
存储器,设置为存储至少一个程序,
所述至少一个处理器,设置为执行所述至少一个程序以实现如第一方面所述的物体姿态的检测方法。
第四方面,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的物体姿态的检测方法。
附图说明
图1为本申请一个实施例提供的一种物体姿态的检测方法的流程图;
图2为本申请一个实施例提供的一种检测目标物体姿态的示例图;
图3为本申请另一实施例提供的一种一阶段网络的示例图;
图4为本申请另一实施例提供的一种两阶段网络的示例图;
图5是本申请另一实施例提供的一种物体姿态的检测方法的流程图;
图6为本申请另一实施例提供的一种物体姿态的检测装置的结构示意图;
图7为本申请另一实施例提供的一种计算机设备的结构示意图;
图8为本申请示例性实施例中的检测三维的边框投影至图像数据时的二维的第一姿态信息的流程图;
图9为本申请另一示例性实施例中的检测三维的边框投影至图像数据时的二维的第一姿态信息的流程图;
图10为本申请另一示例性实施例中的将第一姿态信息映射为三维的第二姿态信息的流程图;
图11为本申请另一示例性实施例中的根据第二姿态信息检测目标物体的第三姿态信息的流程图。
具体实施方式
相关技术中,3D目标检测方法按输入形式的不同主要可以分为如下四个大类:
第一类,单目图像,即输入单摄像头拍摄的一帧图像数据。
第二类,双目图像,即输入双目摄像头从两个方向拍摄的两帧图像数据。
第三类,点云,即用激光雷达采集的空间的点的数据。
第四类,点云和单目图像结合,即同时输入单摄像头拍摄的一帧图像数据与激光雷达采集的空间的点的数据。
对于移动端,双目摄像头头、激光雷达的结构较为复杂、较难移植到移动端,且成本较高,通常会使用单目图像。
相关技术中,基于单目图像的3D目标检测大多是基于CenterNet(中心网络)进行改进,直接由网络端到端地估计物体的信息,但这类方法对旋转估计比较敏感,旋转稍微有0.01误差也对物体的信息产生比较大的偏差,导致稳定性和精确度都较差。
为应对上述工况,本申请实施例公开了一种物体姿态的检测方法、装置、计算机设备和存储介质,提高3D目标检测的稳定性和精确度。
下面结合附图和实施例对本申请进行说明。
一个实施例
图1为本申请一个实施例提供的一种物体姿态的检测方法的流程图,本实施例在目标检测时,将边界框的2D(2-dimension,二维)姿态映射为3D姿态,检测物体的3D姿态。本申请实施例描述的一种物体姿态的检测方法,可以由物体姿态的检测装置来执行,该物体姿态的检测装置可以由软件和/或硬件实现,可配置在作为移动端的计算机设备中,计算机设备包括,例如手机、平板电脑、智能穿戴设备,等等,智能穿戴设备包括,例如智能眼镜、智能手表等。
本申请实施例包括如下步骤:
步骤101、获取图像数据。
在计算机设备中,可以安装Android(安卓)、iOS、HarmonyOS(鸿蒙系统)等操作系统,用户可以在这些操作系统中安装用户所需的应用程序,例如,直播应用、短视频应用、美颜应用、会议应用,等等。
计算机设备可以配置有一个或多个摄像头(Camera),摄像头又称相机。这些摄像头可以安装在计算机设备的正面、又称前置摄像头,也可以安装在计算机设备的背部、又称后置摄像头。
这些应用可以将计算机设备本地的图库、网络的图库中的图像数据作为待使用的图像数据,也可以调用摄像头采集图像数据,等等。
图像数据中具有作为检测目标的物体,该物体记为目标物体,该目标物体可以根据业务场景的需求而设置,例如,如图2所示的杯子201、笔记本、笔、显示屏,等等。
示例性地,这些应用调用摄像头面向目标物体采集视频数据,视频数据中具有多帧图像数据,通过卡尔曼滤波、光流法等方法在多帧图像数据中追踪目标物体。
步骤102、将图像数据输入二维检测模型中,检测三维的边界框投影至图像数据时的二维的第一姿态信息。
目标物体处于真实的三维空间中,可以使用三维的边界框描述目标物体在三维的空间中的姿态,其中,如图2所示,三维的边界框的形状可以包括长方体202、圆柱体、球体,等等,三维的边界框是目标物体201外接的框体,三维的边界框可用于检测目标物体201。
在图像数据中,目标物体表示为二维的像素点,三维的边界框也跟随目标物体以投影方式记录在图像数据中,三维的边界框以二维的像素点进行表示,此时,可以计算该三维的边界框在二维的图像数据中呈现的姿态,记为第一姿态信息。
在一实施例中,可以预先训练用于检测目标物体的边界框的第一姿态信息的模型,记为二维检测模型,例如,mobilenetV2、shufflenetV2,等等。
对于视频数据而言,可以将所有帧图像数据均输入二维检测模型进行检测,也可以每隔一定时间间隔将图像数据分别输入二维检测模型进行检测,时间间隔的预测结果可以用跟踪替代。
时间间隔的预测结果可以用跟踪替代,例如,为了得到每帧的结果,可以把每帧都输入模型得到结果,如此设置,每帧过模型都需要有时耗,延时较严重;也可不必每帧均过模型,比如第0帧过模型,第5帧过模型,但是每帧结果均可得到,那么第1帧的结果就可以对第0帧的结果进行跟踪得到。
步骤103、将第一姿态信息映射为三维的第二姿态信息。
例如,已知相机坐标系中的第一姿态信息,可以将求解世界坐标系中的第二姿态信息看作是PnP(Perspective-n-Point)问题,将目标物体在相机坐标系中部分的第一姿态信息通过PnP(Perspective-n-Point)、DLT(Direct Linear Transform,直接线性变换)、EPnP(Efficient PnP)、UPnP等位姿估计算法映射为世界坐标系中的三维的第二姿态信息。
在本申请的一个实施例中,第一姿态信息包括中心点、顶点、深度,可以将目标物体在图像坐标系中的顶点通过位姿估计算法映射为世界坐标系中的顶点。
例如,深度可指相机拍摄图片时,物体离相机的距离。
例如,若物体检测框是长方体,顶点可指长方体的8个顶点。
以EPnP算法作为位姿估计算法的示例,EPnP算法可以较好地处理如何从3D点-2D点匹配对中求解摄像头的位姿的状况,在本实施例中,利用EPnP算法把相机坐标系下的2D点(例如顶点)映射到相机坐标系中的3D点(例如顶点),利用模型预测出的中心点的深度,与EPnP估出来的深度相除得到一个比例,对每一个顶点都乘以这个比例,得到真实深度的相机坐标系的3D点(例如顶点),用这个3D点(例如顶点)外乘相机的外参得到世界坐标系下的3D点(例如顶点)。
步骤104、根据第二姿态信息检测目标物体的第三姿态信息。
若确定边界框在世界坐标系下的第二姿态信息,则可以检测位于边界框内的目标物体在世界坐标系下的姿态,记为三维的第三姿态信息。
此外,边界框在世界坐标系下的第二姿态信息包括多个顶点,可以根据多个顶点计算目标物体在世界坐标系下的位置和方向,作为第三姿态信息。
第一姿态信息为二维的姿态信息,对应于边界框,处于图像坐标系下。
第二姿态信息为三维的姿态信息,对应于边界框,处于相机坐标系下。
第三姿态信息为三维的姿态信息,对应于目标物体,处于世界坐标系下。
本实施例中,通过将3D边界框映射到2D图像上,通过2D图像的边界框反映射回3D物体的边界框。
本实施例中,获取图像数据,图像数据中具有目标物体,将图像数据输入二维检测模型中,检测三维的边界框投影至所述图像数据时的二维的第一姿态信息,边界框用于检测目标物体,将第一姿态信息映射为三维的第二姿态信息,根据第二姿态信息检测目标物体的第三姿态信息,通过预测边界框在图像数据上的投影映射,从投影映射还原回3D的姿态信息,避免预测旋转角的细微误差带来的抖动,本实施例比直接预测3D的姿态信息精确度更高,效果更稳定。
在本申请的一个示例性实施例中,二维检测模型为一个独立、完整的网络,即一阶段网络,如图3所示,二维检测模型包括编码器310、解码器320、预测网络330,在本示例性实施例中,如图8,步骤102可以包括如下步骤1021、步骤1022和步骤1023。
步骤1021、在编码器中对图像数据进行编码,获得第一图像特征。
例如,编码器可以将整个源数据(即图像数据)读取为固定长度的编码(即第一图像特征)。
示例性地,如图3所示,编码器310包括卷积层(Conv Layer)311、第一残差网络312、第二残差网络313、第三残差网络314、第四残差网络315、第五残差网络316,其中,第一残差网络312、第二残差网络313、第三残差网络314、第四残差网络315与第五残差网络316均包括一个或多个瓶颈残差块(Bottleneck residual block),瓶颈残差块的输出通道数为输入通道数的n倍,n为正整数,如4。
在本示例中,在卷积层311中对图像数据进行卷积处理,获得第一层级特征;在第一残差网络312中对第一层级特征进行处理,获得第二层级特征;在第二残差网络313中对第二层级特征进行处理,获得第三层级特征;在第三残差网络314中对第三层级特征进行处理,获得第四层级特征;在第四残差网络315中对第四层级特征进行处理,获得第五层级特征;在第五残差网络316中对第五层级特征进行处理,获得第六层级特征。
其中,在第一残差网络312、第二残差网络313、第三残差网络314、第四残差网络315与第五残差网络316中,本层瓶颈残差块的输出为下一层瓶颈残差块的输入。
在本示例中,第一层级特征、第二层级特征、第三层级特征、第四层级特征、第五层级特征、第六层级特征均为第一图像特征。
在一实施例中,如图3所示,第一残差网络312中瓶颈残差块的数量小于第二残差网络313中瓶颈残差块的数量,例如,第一残差网络312中1层瓶颈残差块,第二残差网络313中2层瓶颈残差块;第二残差网络313中瓶颈残差块的数量小于第三残差网络314中瓶颈残差块的数量,第三残差网络314中瓶颈残差块的数量小于第四残差网络315中瓶颈残差块的数量,第四残差网络315中瓶颈残差块的数量等于第五残差网络316中瓶颈残差块的数量。例如,第二残差网络313中2层瓶颈残差块,第三残差网络314中3层瓶颈残差块,第四残差网络315中4层瓶颈残差块,第五残差网络316中4层瓶颈残差块。
此外,第二层级特征的维度高于第三层级特征的维度,第三层级特征的维度高于第四层级特征的维度,第四层级特征的维度高于第五层级特征的维度,第五层级特征的维度高于第六层级特征的维度。例如,第二层级特征的维度为320×240×16,第三层级特征的维度为160×120×24,第四层级特征的维度为80×60×32,第五层级特征的维度为40×30×64,第六层级特征的维度为20×15×128。
图像数据经过多次下采样后的低分辨率信息,能够提供目标物体在整个图像数据中上下文的语义信息,该语义信息可反应目标物体和目标物体的环境之间关系的特征,第一图像特征有助于目标物体的检测。
步骤1022、在解码器中对第一图像特征进行解码,获得第二图像特征。
例如,解码器可以将编码(即第一图像特征)进行解码,以输出目标数据(即第二图像特征)。
示例性地,如图3所示,解码器320包括转置卷积层(Transposed ConvolutionLayer)321、第六残差网络322,其中,第六残差网络322包括多个瓶颈残差块,例如,第六残差网络322包括2层瓶颈残差块。
如果第一图像特征包括多种特征,如第一层级特征、第二层级特征、第三层级特征、第四层级特征、第五层级特征、第六层级特征等,则可以选取至少一种特征进行上采样,将高层的语义信息与低层的语义信息相结合,提高语音信息的丰富度,增加二维检测模型的稳定性和精确度,减少了漏检误检的情况。
在本示例中,如图3所示,在转置卷积层321中对第六层级特征数据进行卷积处理,获得第七层级特征;将上采样得到的第五层级特征与第七层级特征拼接为第八层级特征,实现高层的语义信息与低层的语义信息相结合;在第六残差网络322中对第八层级特征进行处理,获得第二图像特征。
其中,在第六残差网络322中,本层瓶颈残差块的输出为下一层瓶颈残差块的输入。
在一实施例中,第二图像特征的维度高于第六层级特征的维度,例如,第二图像特征的维度为40×30×64,第六层级特征的维度为20×15×128。
步骤1023、在预测网络中将第二图像特征映射为边界框的二维的第一姿态信息。
第一姿态信息为与边界框对应的二维姿态信息。
一般情况下,二维检测模型具有多个预测网络,预测网络属于分支网络,专注于第一姿态信息中的某个数据,可以实现为较小的结构。
示例性地,如图3所示,预测网络330包括第一预测网络331、第二预测网络332、第三预测网络333、第四预测网络334,其中,第一预测网络331包括多个瓶颈残差块、如2层瓶颈残差块,第二预测网络332包括多个瓶颈残差块、如2层瓶颈残差块,第三预测网络333包括多个瓶颈残差块、如2层瓶颈残差块,第四预测网络334包括多个瓶颈残差块、如2层瓶颈残差块。
在本示例中,第一姿态信息包括中心点、深度、尺寸、顶点,分别将第二图像特征输入第一预测网络331、第二预测网络332、第三预测网络33、第四预测网络334中。
例如,尺寸可指真实物体的长宽高。
在第一预测网络331中对第二图像特征进行处理,获得边界框的高斯分布图(center heatmap),在高斯分布图中查找中心点,该中心点具有深度。
在第二预测网络332中对第二图像特征进行处理,获得边界框的深度(depth)。
在第三预测网络333中对第二图像特征进行处理,获得边界框的尺寸(scale)。
在第四预测网络334中对第二图像特征进行处理,获得边界框中的顶点相对于中心点偏移的距离(vertexes),在中心点的坐标的基础加上该偏移的距离,可以得到多个顶点的坐标。
其中,针对不同形状的边界框,顶点的数量及顶点在边界框的相对位置也有所不同,例如,若边界框为长方体,则边界框具有8个顶点,这些顶点为每一个面的角点,若边界框为圆柱体,则边界框具有8个顶点,这些顶点为底面和顶面的外接圆的交接点,等等。
在本实施例中,二维检测模型的层级数少、结构简单,使用的计算资源少,计算的耗时低,可以保证实时性。
在本申请的另一个示例性实施例中,二维检测模型包括两个相互独立的模型,即二阶段网络,如图4所示,二维检测模型包括目标检测模型410与编码模型420,目标检测模型410与编码模型420级联,即目标检测模型410的输出为编码模型420的输入,二阶段网络的结构更加复杂,可以避免在小模型上预测结果会聚到一堆的情况,使得二维检测模型更加稳定。
在本示例性实施例中,如图9所示,步骤102可以包括如下步骤1021'、步骤1022'和步骤1023'。
步骤1021'、在目标检测模型中,检测图像数据中边界框的部分的二维的第一姿态信息、目标物体在图像数据中所处的区域。
目标检测模型可以包括one-stage(一阶段)和two-stage(二阶段),one-stage可以包括SSD(Single Shot MultiBox Detector)、YOLO(you only look once)等等,two-stage包括R-CNN(Region with CNN features)系列,R-CNN系列例如R-CNN、fast-RCNN、faster-RCNN等等。
将图像数据输入目标检测模型中,目标检测模型可以检测图像数据中边界框的部分的二维的第一姿态信息、以及、目标物体在图像数据中所处的区域。
在一实施例中,在目标检测模型中,可以检测图像数据中边界框的深度、尺寸,作为第一姿态信息。
以YOLOv5作为目标检测模型的示例,YOLOv5分为三部分:骨干网络,特征金字塔网络,分支网络。骨干网络是指在不同细粒度上聚合并形成图像特征的卷积神经网络;特征金字塔网络是指一系列混合和组合图像特征的网络层,后续将图像特征传递到预测层,预测层一般是FPN(Feature Pyramid Networks,特征金字塔网络)或者PANet(PathAggregation Network,路径聚合网络);分支网络是指对图像特征进行预测,生成边界框和并预测目标物体的类别、目标物体的深度和尺寸。因此,YOLOv5的输出为nc+5+3+1。
其中,nc为物体的类别数。
其中,数字5表征存在5个变量,包括分类置信度(c)、边界框的中心点(x,y)、边界框的宽和高(w,h)一共5个变量。
其中,数字3表征存在3个变量,包括目标物体在3维空间中的尺寸(长宽高)。
其中,数字1表征存在1个变量,即目标物体在相机坐标系中的深度,即拍摄时物体离相机的距离。
步骤1022'、在图像数据中提取区域中的数据,作为区域数据。
如图4所示,目标物体在图像数据430中所处的区域属于二维的边界框,基于该区域对图像数据进行裁剪,取出该区域中的数据(像素点),实现图像数据的缩放,记为区域数据431。
步骤1023'、在编码模型中对区域数据进行编码,获得边界框的部分的二维的第一姿态信息。
如图4所示,将区域数据431输入编码模型420中进行编码,可以输出边界框剩余的二维的第一姿态信息。
在一实施例中,在编码模型中对区域数据进行编码,获得边界框的中心点和顶点,作为第一姿态信息。
可将,目标检测模块检测出的一部分的第一姿态信息、与编码模块生成的另一部分的第一姿态信息的合集,认定为二维检测模型检测出的第一姿态信息。
考虑到移动端的计算资源较少,编码模型通常选用结构简单、计算量少的模型,以efficientnet-lite0作为编码模型的示例,efficientnet-lite0包括多个1×1的卷积层,多个深度可分离卷积层,多个残差连接层以及多个全连接层,最后一层全连接层预估目标物体的中心点和顶点。
除了efficientnet-lite0之外,还可以采用参数更少或者表达能力更强的轻量级网络结构作为编码模型。
在本实施例中,可以根据业务场景的需求选择合适的二维检测模型,如果针对用户上传视频数据的情况,一阶段网络的速度更快,二阶段网络的精度更高,如果针对用户实时拍摄的情况,二阶段网络可以增加2D检测器的跟踪(跟踪例如为,根据第一帧的位置信息,捕捉接下来帧的可能位置信息),可以不用每帧图像数据都检测,使得速度精度都更快更高。
在本申请的另一个示例性实施例中,如图10所示,步骤103可以包括如下步骤1031-步骤1034。
步骤1031、分别在世界坐标系与相机坐标系下,查询控制点。
EPnP算法引入了控制点,任何一个参考点可以表示为四个控制点的线性组合,任何一个参考点例如顶点、中心点。
一般情况下,控制点可以随便选择,而本实施例可以预先通过实验选择效果较佳的点作为控制点,并记录控制点的坐标,在使用时将控制点作为超参数加载。
步骤1032、分别在世界坐标系与相机坐标系下,将中心点与顶点表示为控制点的加权和。
设上标w为世界坐标系、上标c为相机坐标系,为第i个参考点(顶点、中心点)在世界坐标系下的坐标,为第i个参考点(顶点、中心点)在投影至相机坐标系下的坐标, 为四个控制点在世界坐标系下的坐标,为四个控制点投影至相机坐标系下的坐标。
对于世界坐标系中的参考点可用四个控制点表示:
其中,aij为配置给控制点的齐次重心坐标(homogeneous barycentriccoordinates),又称权重,属于超参数。
对于相机坐标系中的参考点可用四个控制点表示:
其中,aij为配置给控制点的齐次重心坐标,又称权重。
对于同一参考点,在世界坐标系下的权重与在相机坐标系下的权重相同,属于超参数。
步骤1033、构建深度、中心点与顶点在世界坐标系与相机坐标系之间的约束关系。
其中,此处提及的约束关系可为,世界坐标系下的深度、中心点与顶点,与相机坐标系下的深度、中心点与顶点之间的约束关系。
例如,根据投影方程,得到世界坐标系中参考点坐标(例如顶点、中心点)和相机坐标系中参考点(例如顶点、中心点)的约束关系。
投影方程,如下:
其中,wi为参考点(顶点、中心点)的深度,ui、vi为参考点(顶点、中心点)在相机坐标系中的x坐标、y坐标,A为超参数,fu、fv、uc、uv为相机的内参,为参考点(顶点、中心点)在世界坐标系中的x坐标、y坐标、z坐标,共12个未知变量,带入求解。
将控制点的权重aij和为1带入约束关系,每个参考点(顶点、中心点)的约束关系可以转换为:
步骤1034、串联约束关系,获得线性方程。
例如,每个参考点存在两个约束关系,串联约束关系可表征为将9个参考点的约束关系组成一个矩阵,按行串联。
步骤1035、对线性方程进行求解,以将顶点映射至三维空间。
当有n个参考点(顶点、中心点)的时候,n为正整数,如9,串联n个参考点的约束关系,可以得到如下的齐次的线性方程:
Mx=0
因此,x属于M的右零空间,vi为矩阵M的右奇异向量,vi对应的奇异值为0,可以通过求解MTM的零空间特征值得到:
解算方法为,求解MTM的特征值和特征向量,特征值为0的特征向量即为vi。其中,不论有多少个参考点,MTM的大小均是12×12。而计算MTM的复杂度为O(n),因此,算法的整体复杂度为O(n)。
N与参考点的数量、控制点、相机焦距和噪声有关,βi是一个线性组合可通过在设定N的数量时直接优化求解或者采用近似的解法求解,得到确定的解。
在本申请的另一个示例性实施例中,可以对第二姿态信息进行奇异值求解得到第三姿态信息。在本示例性实施例中,如图11所示,步骤104可以包括如下步骤1041-1047。
步骤1041、分别在世界坐标系与相机坐标系下,基于顶点计算新的中心点。
对于长方体、圆柱体等形状的边界框,一般是以中心点建立坐标系的,那么,中心点就是边界框的原点。
示例性地,在相机坐标系下计算顶点的平均值,作为新的中心点,记为:
在世界坐标系下计算顶点的平均值,作为新的中心点,记为
步骤1042、分别在世界坐标系与相机坐标系下,对顶点去除新的中心点。
在相机坐标系下对多个顶点分别减去新的中心点,实现去中心,即去除新的中心点,可记为:
在世界坐标系下将多个顶点分别减去新的中心点,实现去中心,即去除新的中心点,记为:
步骤1043、对顶点去除新的中心点之后,计算自共轭矩阵。
在去中心完成后,可计算自共轭矩阵H,其中,自共轭矩阵H为相机坐标系下的顶点与世界坐标系下的顶点的转置矩阵之间的乘积,表示如下:
步骤1044、对自共轭矩阵进行奇异值分解,得到第一正交矩阵、对角阵、第二正交矩阵的转置矩阵之间的乘积。
在本实施例中,有两个坐标系下的坐标都是已知的,即世界坐标系下顶点的坐标和相机坐标系下顶点的坐标,利用SVD(Singular Value Decomposition,奇异值分解)的思路可以求得两个坐标系的位姿变换,即,对自共轭矩阵H进行SVD,可表示为:
H=UΛVT
其中,U为第一正交矩阵,Λ为对角阵,V为第二正交矩阵,T为转置矩阵。
步骤1045、计算第二正交矩阵与第一正交矩阵的转置矩阵之间的乘积,作为目标物体在世界坐标系下的方向。
计算X=VUT,其中,U为第一正交矩阵,V为第二正交矩阵,T为转置矩阵。
在部分情况下,R=X,R即为目标物体在世界坐标系下的方向。
步骤1046、将世界坐标系下新的中心点按照方向旋转,获得投影点。
步骤1047、将相机坐标系下新的中心点减去投影点,获得目标物体在世界坐标系下的位置。
将相机坐标系下新的中心点减去按照该方向旋转之后的世界坐标系下新的中心点,可以得到目标物体在世界坐标系下的位置,表达如下:
另一实施例
图5为本申请另一实施例提供的一种物体姿态的检测方法的流程图,本实施例以前述实施例为基础,增加特效处理的操作,该方法包括如下步骤:
步骤501、获取图像数据。
其中,图像数据中具有目标物体。
步骤502、将图像数据输入二维检测模型中,检测三维的边界框投影至图像数据时的二维的第一姿态信息。
其中,边界框用于检测目标物体。
步骤503、将第一姿态信息映射为三维的第二姿态信息。
步骤504、根据第二姿态信息检测目标物体的第三姿态信息。
步骤505、确定与目标物体适配的、三维的素材。
在本实施例中,服务端例如服务器可以根据业务场景的需求,预先收集与目标物体的类型适配的、三维的素材。移动端可以预先按照一定的规则(如选取基础素材、热度高的素材等)从服务端下载这些素材到本地,也可以在使用时,根据用户触发的操作,从服务端下载指定的素材到本地;或者,用户可以在移动端本地选择与目标物体适配的、三维的素材,或者,从目标物体对应的数据中提取部分数据、并对部分数据进行三维转换,作为素材,等等。
例如,该素材可以为文本数据、图像数据、动画数据,等等。
例如,如图2所示,如果目标物体201为某个品牌的饮料,则可以将该品牌的LOGO(标识)203作为素材。
又如,如果目标物体为球类(如足球、篮球、排球、羽毛球、乒乓球等),则可以为将与球类适配的特效动画(如羽毛、闪电、火焰等)作为素材。
再如,如果目标物体为盛放水的容器,则可以为将水生动植物(如水草、鱼、虾等)作为素材。
步骤506、为所述素材配置第四姿态信息。
其中,第四姿态信息适配于第一姿态信息和/或第三姿态信息。
步骤507、在图像数据中按照第四姿态信息显示素材。
在本实施例中,可以预设设置特效生成器,可以将第一姿态信息和/或第三姿态信息输入到特效生成器中,为该素材生成第四姿态信息,在图像数据中按照该第四姿态信息渲染素材,使得素材符合目标物体的情况,生成更加自然的特效。
示例性地,一部分的第一姿态信息包括边界框的尺寸,第三姿态信息包括目标物体的方向、位置。
在本示例中,可以将目标物体的位置往外偏移指定的距离,例如,以目标物体的正面为参考面偏移10厘米,将偏移后的位置作为素材的位置。
第四姿态信息可包括素材的位置。
将边界框的尺寸缩小至指定的比例(如10%),将缩小后的尺寸作为素材的尺寸。
第四姿态信息可包括素材的尺寸。
将目标物体的方向配置为素材的方向,使得素材与目标物体的朝向相同。
第四姿态信息可包括素材的方向。
上述第四姿态信息只是作为示例,在实施本申请实施例时,可以根据实际情况设置其它第四姿态信息,例如,将边界框的尺寸放大至指定的比例(如1.5倍),将放大后的尺寸作为素材的尺寸,将目标物体的方向旋转指定角度(如90°),将旋转后的方向作为素材的方向,等等。另外,除了上述第四姿态信息外,本领域技术人员还可以根据实际需要采用其它第四姿态信息。
对于视频数据而言,用户在适配数据中添加特效完毕后,则可以发布该适配数据,如短视频、直播数据,等等。
对于方法实施例,为了简单描述,故将实施例表述为一系列的动作组合,但是本领域技术人员应该知悉,动作顺序存在多种,因为依据本申请实施例,一部分步骤可以采用其他顺序或者同时进行。
另一实施例
图6为本申请另一实施例提供的一种物体姿态的检测装置的结构框图,物体姿态的检测装置可以包括如下模块:
图像数据获取模块601,设置为获取图像数据,所述图像数据中具有目标物体;
第一姿态信息检测模块602,设置为将所述图像数据输入二维检测模型中,检测三维的边界框投影至所述图像数据时的二维的第一姿态信息,所述边界框用于检测所述目标物体;
第二姿态信息映射模块603,设置为将所述第一姿态信息映射为三维的第二姿态信息;
第三姿态信息检测模块604,设置为根据所述第二姿态信息检测所述目标物体的第三姿态信息。
在本申请的一个实施例中,所述二维检测模型包括编码器、解码器、预测网络;
所述第一姿态信息检测模块602包括:
编码模块,设置为在所述编码器中对所述图像数据进行编码,获得第一图像特征;
解码模块,设置为在所述解码器中对所述第一图像特征进行解码,获得第二图像特征;
映射模块,设置为在所述预测网络中将所述第二图像特征映射为边界框的二维的第一姿态信息。
在本申请的一个实施例中,所述编码器包括卷积层、第一残差网络、第二残差网络、第三残差网络、第四残差网络、第五残差网络,所述第一残差网络、所述第二残差网络、所述第三残差网络、所述第四残差网络与所述第五残差网络分别包括至少一个瓶颈残差块;
所述编码模块还设置为:
在所述卷积层中对所述图像数据进行卷积处理,获得第一层级特征;
在所述第一残差网络中对所述第一层级特征进行处理,获得第二层级特征;
在所述第二残差网络中对所述第二层级特征进行处理,获得第三层级特征;
在所述第三残差网络中对所述第三层级特征进行处理,获得第四层级特征;
在所述第四残差网络中对所述第四层级特征进行处理,获得第五层级特征;
在所述第五残差网络中对所述第五层级特征进行处理,获得第六层级特征。
在本申请的一个实施例中,所述第一残差网络中所述瓶颈残差块的数量小于所述第二残差网络中所述瓶颈残差块的数量,所述第二残差网络中所述瓶颈残差块的数量小于所述第三残差网络中所述瓶颈残差块的数量,所述第三残差网络中所述瓶颈残差块的数量小于所述第四残差网络中所述瓶颈残差块的数量,所述第四残差网络中所述瓶颈残差块的数量等于所述第五残差网络中所述瓶颈残差块的数量;
所述第二层级特征的维度高于所述第三层级特征的维度,所述第三层级特征的维度高于所述第四层级特征的维度,所述第四层级特征的维度高于所述第五层级特征的维度,所述第五层级特征的维度高于所述第六层级特征的维度。
在本申请的一个实施例中,所述解码器包括转置卷积层、第六残差网络,所述第六残差网络包括多个瓶颈残差块;
所述解码模块还设置为:
在所述转置卷积层中对所述第六层级特征数据进行卷积处理,获得第七层级特征;
将所述第五层级特征与所述第七层级特征拼接为第八层级特征;
在所述第六残差网络中对所述第八层级特征进行处理,获得第二图像特征。
在本申请的一个实施例中,所述第二图像特征的维度高于所述第六层级特征的维度。
在本申请的一个实施例中,所述预测网络包括第一预测网络、第二预测网络、第三预测网络、第四预测网络,所述第一预测网络、所述第二预测网络、所述第三预测网络与所述第四预测网络分别包括多个瓶颈残差块;
所述映射模块还设置为:
在所述第一预测网络中对所述第二图像特征进行处理,获得边界框的中心点;
在所述第二预测网络中对所述第二图像特征进行处理,获得边界框的深度;
在所述第三预测网络中对所述第二图像特征进行处理,获得边界框的尺寸;
在所述第四预测网络中对所述第二图像特征进行处理,获得边界框中的顶点相对于所述中心点偏移的距离。
在本申请的另一个实施例中,所述二维检测模型包括目标检测模型与编码模型,目标检测模型与编码模型级联;
所述第一姿态信息检测模块602:
目标检测模块,设置为在所述目标检测模型中,检测所述图像数据中边界框的部分的二维的第一姿态信息、所述目标物体在所述图像数据中所处的区域;
区域数据提取模块,设置为在所述图像数据中提取所述区域中的数据,作为区域数据;
区域数据编码模块,设置为在所述编码模型中,对所述区域数据进行编码,获得所述边界框的部分的二维的第一姿态信息。
在本申请的一个实施例中,所述目标检测模块还设置为:
在所述目标检测模型中,检测所述图像数据中边界框的深度、尺寸;
所述区域数据编码模块还设置为:
在所述编码模型中,对所述区域数据进行编码,获得所述边界框的中心点和顶点。
在本申请的一个实施例中,所述第一姿态信息包括中心点、顶点、深度;
所述第二姿态信息映射模块603包括:
控制点查询模块,设置为分别在世界坐标系与相机坐标系下,查询控制点;
点表示模块,设置为分别在世界坐标系与相机坐标系下,将所述中心点与所述顶点表示为所述控制点的加权和;
约束关系构建模块,设置为构建所述深度、所述中心点与所述顶点在所述世界坐标系与所述相机坐标系之间的约束关系;
线性方程生成模块,设置为串联所述约束关系,获得线性方程;
线性方程求解模块,设置为对所述线性方程进行求解,以将所述顶点映射至三维空间。
在本申请的一个实施例中,所述第三姿态信息检测模块604,包括:
中心点计算模块,设置为分别在世界坐标系与相机坐标系下,基于顶点计算新的中心点;
中心点去除模块,设置为分别在世界坐标系与相机坐标系下,对所述顶点去除所述新的中心点;
自共轭矩阵计算模块,设置为计算自共轭矩阵,所述自共轭矩阵为所述相机坐标系下的顶点与所述世界坐标系下的顶点的转置矩阵之间的乘积;
奇异值分解模块,设置为对所述自共轭矩阵进行奇异值分解,得到第一正交矩阵、对角阵、第二正交矩阵的转置矩阵之间的乘积;
方向计算模块,设置为计算所述第二正交矩阵与所述第一正交矩阵的转置矩阵之间的乘积,作为所述目标物体在世界坐标系下的方向;
投影点计算模块,设置为将所述世界坐标系下的所述新的中心点按照所述方向旋转,获得投影点;
位置计算模块,设置为将所述相机坐标系下的所述新的中心点减去所述投影点,获得所述目标物体在世界坐标系下的位置。
在本申请的一个实施例中,还包括:
素材确定模块,设置为确定与所述目标物体适配的、三维的素材;
第四姿态信息配置模块,设置为为所述素材配置第四姿态信息,所述第四姿态信息为适配于所述第一姿态信息和所述第三姿态信息的姿态信息;
素材显示模块,设置为在所述图像数据中按照所述第四姿态信息显示所述素材。
在本申请的一个实施例中,所述第一姿态信息包括所述边界框的尺寸,所述第三姿态信息包括所述目标物体的方向、位置;
所述第四姿态信息配置模块:
位置偏移模块,设置为将所述目标物体的位置偏移指定的距离,将偏移后的位置作为所述素材的位置;
尺寸缩小模块,设置为将所述边界框的尺寸缩小至指定的比例,将缩小后的尺寸作为所述素材的尺寸;
方向配置模块,设置为将所述目标物体的方向配置为所述素材的方向。
本申请实施例所提供的物体姿态的检测装置可执行本申请任意实施例所提供的物体姿态的检测方法,具备执行方法相应的功能模块和有益效果。
另一实施例
图7为本申请另一实施例提供的一种计算机设备的结构示意图。图7示出了适于用来实现本申请实施方式的示例性计算机设备12的框图。图7显示的计算机设备12仅仅是一个示例。
如图7所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件的总线18,不同系统组件包括系统存储器28和处理单元16。
系统存储器28也可记为内存。
总线18表示多类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括工业标准体系结构(Industry Standard Architecture,ISA)总线,微通道体系结构(Micro Channel Architecture,MCA)总线,增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory,RAM)30和/或高速缓存32。计算机设备12可以包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以设置为读写不可移动的、非易失性磁介质(图7未显示)。尽管图7中未示出,可以提供用于对可移动非易失性磁盘(例如软盘)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。系统存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本申请多实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如系统存储器28中,这样的程序模块42包括操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本申请所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络通信,一个或者多个网络例如局域网(LocalArea Network,LAN),广域网(Wide Area Network,WAN)和/或公共网络,公共网络例如因特网。如图7所示,网络适配器20通过总线18与计算机设备12的其它模块通信。还可以结合计算机设备12使用其它硬件和/或软件模块,其它硬件和/或软件模块包括:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays of IndependentDisks,RAID)系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,执行多种功能应用以及数据处理,例如实现本申请实施例所提供的物体姿态的检测方法。
另一实施例
本申请另一实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述物体姿态的检测方法的多个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,计算机可读存储介质例如可以包括电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质例如为,具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(Read-OnlyMemory,ROM)、可擦式可编程只读存储器(Erasable Programmable Read-Only Memory,EPROM)、闪存、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者结合使用。
Claims (16)
1.一种物体姿态的检测方法,包括:
获取图像数据,所述图像数据中具有目标物体;
将所述图像数据输入二维检测模型中,检测三维的边界框投影至所述图像数据时的二维的第一姿态信息,所述边界框用于检测所述目标物体;
将所述第一姿态信息映射为三维的第二姿态信息;
根据所述第二姿态信息检测所述目标物体的第三姿态信息。
2.根据权利要求1所述的方法,其中,所述二维检测模型包括编码器、解码器、预测网络;
所述将所述图像数据输入二维检测模型中,检测边界框的二维的第一姿态信息,包括:
在所述编码器中对所述图像数据进行编码,获得第一图像特征;
在所述解码器中对所述第一图像特征进行解码,获得第二图像特征;
在所述预测网络中将所述第二图像特征映射为边界框的二维的第一姿态信息。
3.根据权利要求2所述的方法,其中,所述编码器包括卷积层、第一残差网络、第二残差网络、第三残差网络、第四残差网络、第五残差网络,所述第一残差网络、所述第二残差网络、所述第三残差网络、所述第四残差网络与所述第五残差网络分别包括至少一个瓶颈残差块;
所述在所述编码器中对所述图像数据进行编码,获得第一图像特征,包括:
在所述卷积层中对所述图像数据进行卷积处理,获得第一层级特征;
在所述第一残差网络中对所述第一层级特征进行处理,获得第二层级特征;
在所述第二残差网络中对所述第二层级特征进行处理,获得第三层级特征;
在所述第三残差网络中对所述第三层级特征进行处理,获得第四层级特征;
在所述第四残差网络中对所述第四层级特征进行处理,获得第五层级特征;
在所述第五残差网络中对所述第五层级特征进行处理,获得第六层级特征。
4.根据权利要求3所述的方法,其中,所述第一残差网络中所述瓶颈残差块的数量小于所述第二残差网络中所述瓶颈残差块的数量,所述第二残差网络中所述瓶颈残差块的数量小于所述第三残差网络中所述瓶颈残差块的数量,所述第三残差网络中所述瓶颈残差块的数量小于所述第四残差网络中所述瓶颈残差块的数量,所述第四残差网络中所述瓶颈残差块的数量等于所述第五残差网络中所述瓶颈残差块的数量;
所述第二层级特征的维度高于所述第三层级特征的维度,所述第三层级特征的维度高于所述第四层级特征的维度,所述第四层级特征的维度高于所述第五层级特征的维度,所述第五层级特征的维度高于所述第六层级特征的维度。
5.根据权利要求3所述的方法,其中,所述解码器包括转置卷积层、第六残差网络,所述第六残差网络包括多个瓶颈残差块;
所述在所述解码器中对所述第一图像特征进行解码,获得第二图像特征,包括:
在所述转置卷积层中对所述第六层级特征数据进行卷积处理,获得第七层级特征;
将所述第五层级特征与所述第七层级特征拼接为第八层级特征;
在所述第六残差网络中对所述第八层级特征进行处理,获得第二图像特征。
6.根据权利要求5所述的方法,其中,所述第二图像特征的维度高于所述第六层级特征的维度。
7.根据权利要求5所述的方法,其中,所述预测网络包括第一预测网络、第二预测网络、第三预测网络、第四预测网络,所述第一预测网络、所述第二预测网络、所述第三预测网络与所述第四预测网络分别包括多个瓶颈残差块;
所述在所述预测网络中将所述第二图像特征映射为边界框的二维的第一姿态信息,包括:
在所述第一预测网络中对所述第二图像特征进行处理,获得边界框的中心点;
在所述第二预测网络中对所述第二图像特征进行处理,获得边界框的深度;
在所述第三预测网络中对所述第二图像特征进行处理,获得边界框的尺寸;
在所述第四预测网络中对所述第二图像特征进行处理,获得边界框中的顶点相对于所述中心点偏移的距离。
8.根据权利要求1所述的方法,其中,所述二维检测模型包括目标检测模型与编码模型,目标检测模型与编码模型级联;
所述将所述图像数据输入二维检测模型中,检测边界框的二维的第一姿态信息,包括:
在所述目标检测模型中,检测所述图像数据中边界框的部分的二维的第一姿态信息、所述目标物体在所述图像数据中所处的区域;
在所述图像数据中提取所述区域中的数据,作为区域数据;
在所述编码模型中,对所述区域数据进行编码,获得所述边界框的部分的二维的第一姿态信息。
9.根据权利要求8所述的方法,其中,
所述在所述目标检测模型中,检测所述图像数据中边界框的部分的二维的第一姿态信息、所述目标物体在所述图像数据中所处的区域,包括:
在所述目标检测模型中,检测所述图像数据中边界框的深度、尺寸;
所述在所述编码模型中,对所述区域数据进行编码,获得所述边界框的部分的二维的第一姿态信息,包括:
在所述编码模型中,对所述区域数据进行编码,获得所述边界框的中心点和顶点。
10.根据权利要求1所述的方法,其中,所述第一姿态信息包括中心点、顶点、深度;
所述将所述第一姿态信息映射为三维的第二姿态信息,包括:
分别在世界坐标系与相机坐标系下,查询控制点;
分别在世界坐标系与相机坐标系下,将所述中心点与所述顶点表示为所述控制点的加权和;
构建所述深度、所述中心点与所述顶点在所述世界坐标系与所述相机坐标系之间的约束关系;
串联所述约束关系,获得线性方程;
对所述线性方程进行求解,以将所述顶点映射至三维空间。
11.根据权利要求1所述的方法,其中,所述根据所述第二姿态信息检测所述目标物体的第三姿态信息,包括:
分别在世界坐标系与相机坐标系下,基于顶点计算新的中心点;
分别在世界坐标系与相机坐标系下,对所述顶点去除所述新的中心点;
计算自共轭矩阵,所述自共轭矩阵为所述相机坐标系下的顶点与所述世界坐标系下的顶点的转置矩阵之间的乘积;
对所述自共轭矩阵进行奇异值分解,得到第一正交矩阵、对角阵、第二正交矩阵的转置矩阵之间的乘积;
计算所述第二正交矩阵与所述第一正交矩阵的转置矩阵之间的乘积,作为所述目标物体在世界坐标系下的方向;
将所述世界坐标系下的所述新的中心点按照所述方向旋转,获得投影点;
将所述相机坐标系下的所述新的中心点减去所述投影点,获得所述目标物体在世界坐标系下的位置。
12.根据权利要求1-11中任一项所述的方法,还包括:
确定与所述目标物体适配的、三维的素材;
为所述素材配置第四姿态信息,所述第四姿态信息为适配于所述第一姿态信息和所述第三姿态信息的姿态信息;
在所述图像数据中按照所述第四姿态信息显示所述素材。
13.根据权利要求12任一项所述的方法,其中,所述第一姿态信息包括所述边界框的尺寸,所述第三姿态信息包括所述目标物体的方向、位置;
所述为所述素材配置第四姿态信息,包括:
将所述目标物体的位置偏移指定的距离,将偏移后的位置作为所述素材的位置;
将所述边界框的尺寸缩小至指定的比例,将缩小后的尺寸作为所述素材的尺寸;
将所述目标物体的方向配置为所述素材的方向。
14.一种物体姿态的检测装置,包括:
图像数据获取模块,设置为获取图像数据,所述图像数据中具有目标物体;
第一姿态信息检测模块,设置为将所述图像数据输入二维检测模型中,检测三维的边界框投影至所述图像数据时的二维的第一姿态信息,所述边界框用于检测所述目标物体;
第二姿态信息映射模块,设置为将所述第一姿态信息映射为三维的第二姿态信息;
第三姿态信息检测模块,设置为根据所述第二姿态信息检测所述目标物体的第三姿态信息。
15.一种计算机设备,所述计算机设备包括:
至少一个处理器;
存储器,设置为存储至少一个程序,
所述至少一个处理器,设置为执行所述至少一个程序以实现如权利要求1-13中任一项所述的物体姿态的检测方法。
16.一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1-13中任一项所述的物体姿态的检测方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2021/111502 WO2023015409A1 (zh) | 2021-08-09 | 2021-08-09 | 物体姿态的检测方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113795867A true CN113795867A (zh) | 2021-12-14 |
Family
ID=78877394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180002185.8A Pending CN113795867A (zh) | 2021-08-09 | 2021-08-09 | 物体姿态的检测方法、装置、计算机设备和存储介质 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP4365841A1 (zh) |
CN (1) | CN113795867A (zh) |
WO (1) | WO2023015409A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115723152A (zh) * | 2022-11-17 | 2023-03-03 | 中国人民解放军总医院第五医学中心 | 一种智能护理机器人 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115965628B (zh) * | 2023-03-16 | 2023-06-02 | 湖南大学 | 一种工件涂装质量在线动态检测方法及检测系统 |
CN116773534B (zh) * | 2023-08-15 | 2024-03-05 | 宁德思客琦智能装备有限公司 | 一种检测方法及装置、电子设备、计算机可读介质 |
CN117476509B (zh) * | 2023-12-27 | 2024-03-19 | 联合富士半导体有限公司 | 一种用于半导体芯片产品的激光雕刻装置及控制方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6115052A (en) * | 1998-02-12 | 2000-09-05 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | System for reconstructing the 3-dimensional motions of a human figure from a monocularly-viewed image sequence |
US20180137644A1 (en) * | 2016-11-11 | 2018-05-17 | Qualcomm Incorporated | Methods and systems of performing object pose estimation |
CN111968235A (zh) * | 2020-07-08 | 2020-11-20 | 杭州易现先进科技有限公司 | 一种物体姿态估计方法、装置、系统和计算机设备 |
US20200410273A1 (en) * | 2018-08-24 | 2020-12-31 | Tencent Technology (Shenzhen) Company Limited | Target detection method and apparatus, computer-readable storage medium, and computer device |
CN112163541A (zh) * | 2020-10-09 | 2021-01-01 | 上海云绅智能科技有限公司 | 一种3d目标检测方法、装置、电子设备和存储介质 |
CN112270249A (zh) * | 2020-10-26 | 2021-01-26 | 湖南大学 | 一种融合rgb-d视觉特征的目标位姿估计方法 |
CN112767489A (zh) * | 2021-01-29 | 2021-05-07 | 北京达佳互联信息技术有限公司 | 一种三维位姿确定方法、装置、电子设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112116653B (zh) * | 2020-11-23 | 2021-03-30 | 华南理工大学 | 一种多张rgb图片的物体姿态估计方法 |
-
2021
- 2021-08-09 WO PCT/CN2021/111502 patent/WO2023015409A1/zh active Application Filing
- 2021-08-09 CN CN202180002185.8A patent/CN113795867A/zh active Pending
- 2021-08-09 EP EP21953048.2A patent/EP4365841A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6115052A (en) * | 1998-02-12 | 2000-09-05 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | System for reconstructing the 3-dimensional motions of a human figure from a monocularly-viewed image sequence |
US20180137644A1 (en) * | 2016-11-11 | 2018-05-17 | Qualcomm Incorporated | Methods and systems of performing object pose estimation |
US20200410273A1 (en) * | 2018-08-24 | 2020-12-31 | Tencent Technology (Shenzhen) Company Limited | Target detection method and apparatus, computer-readable storage medium, and computer device |
CN111968235A (zh) * | 2020-07-08 | 2020-11-20 | 杭州易现先进科技有限公司 | 一种物体姿态估计方法、装置、系统和计算机设备 |
CN112163541A (zh) * | 2020-10-09 | 2021-01-01 | 上海云绅智能科技有限公司 | 一种3d目标检测方法、装置、电子设备和存储介质 |
CN112270249A (zh) * | 2020-10-26 | 2021-01-26 | 湖南大学 | 一种融合rgb-d视觉特征的目标位姿估计方法 |
CN112767489A (zh) * | 2021-01-29 | 2021-05-07 | 北京达佳互联信息技术有限公司 | 一种三维位姿确定方法、装置、电子设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
张 展: ""基于双目视觉的三维重建关键技术研究"", 《中国优秀硕士学位论文全文数据库》, pages 93 - 99 * |
赵栓峰;许倩;丁志兵;黄涛;: "车辆信息识别下的测距模型建立方法研究", 现代电子技术, no. 19 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115723152A (zh) * | 2022-11-17 | 2023-03-03 | 中国人民解放军总医院第五医学中心 | 一种智能护理机器人 |
CN115723152B (zh) * | 2022-11-17 | 2023-06-06 | 中国人民解放军总医院第五医学中心 | 一种智能护理机器人 |
WO2024103733A1 (zh) * | 2022-11-17 | 2024-05-23 | 中国人民解放军总医院第五医学中心 | 一种智能护理机器人 |
Also Published As
Publication number | Publication date |
---|---|
WO2023015409A1 (zh) | 2023-02-16 |
EP4365841A1 (en) | 2024-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Brachmann et al. | Visual camera re-localization from RGB and RGB-D images using DSAC | |
Sahu et al. | Artificial intelligence (AI) in augmented reality (AR)-assisted manufacturing applications: a review | |
US20210166426A1 (en) | Mapping object instances using video data | |
CN111328396B (zh) | 用于图像中的对象的姿态估计和模型检索 | |
CN108509848B (zh) | 三维物体的实时检测方法及系统 | |
US11127189B2 (en) | 3D skeleton reconstruction from images using volumic probability data | |
CN109544677B (zh) | 基于深度图像关键帧的室内场景主结构重建方法及系统 | |
CN111243093B (zh) | 三维人脸网格的生成方法、装置、设备及存储介质 | |
CN113795867A (zh) | 物体姿态的检测方法、装置、计算机设备和存储介质 | |
Cohen et al. | Inference of human postures by classification of 3D human body shape | |
Zhuang et al. | Acdnet: Adaptively combined dilated convolution for monocular panorama depth estimation | |
Shen | A survey of object classification and detection based on 2d/3d data | |
GB2573170A (en) | 3D Skeleton reconstruction from images using matching 2D skeletons | |
CN109063549A (zh) | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 | |
CN112927353A (zh) | 基于二维目标检测和模型对齐的三维场景重建方法、存储介质及终端 | |
Shalaby et al. | Algorithms and applications of structure from motion (SFM): A survey | |
CN115457492A (zh) | 目标检测方法、装置、计算机设备及存储介质 | |
Baudron et al. | E3d: event-based 3d shape reconstruction | |
Li et al. | Polarmesh: A star-convex 3d shape approximation for object pose estimation | |
EP4292059A1 (en) | Multiview neural human prediction using implicit differentiable renderer for facial expression, body pose shape and clothes performance capture | |
Shi et al. | Garf: Geometry-aware generalized neural radiance field | |
CN113240656A (zh) | 视觉定位方法及相关装置、设备 | |
Han et al. | Ro-map: Real-time multi-object mapping with neural radiance fields | |
Landgraf et al. | Simstack: A generative shape and instance model for unordered object stacks | |
Schick et al. | Real-time GPU-based voxel carving with systematic occlusion handling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |