CN117315018B - 基于改进PnP的用户面部位姿检测方法、设备、介质 - Google Patents

基于改进PnP的用户面部位姿检测方法、设备、介质 Download PDF

Info

Publication number
CN117315018B
CN117315018B CN202311120265.0A CN202311120265A CN117315018B CN 117315018 B CN117315018 B CN 117315018B CN 202311120265 A CN202311120265 A CN 202311120265A CN 117315018 B CN117315018 B CN 117315018B
Authority
CN
China
Prior art keywords
dimensional
coordinate system
plane
pose
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311120265.0A
Other languages
English (en)
Other versions
CN117315018A (zh
Inventor
喻洪流
谭晨羽
许朋
李平
胡冰山
常超凡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN202311120265.0A priority Critical patent/CN117315018B/zh
Publication of CN117315018A publication Critical patent/CN117315018A/zh
Application granted granted Critical
Publication of CN117315018B publication Critical patent/CN117315018B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

本发明涉及一种基于改进PnP的用户面部位姿检测方法、设备、介质,方法包括如下步骤:获取用户头部的扫描数据并构建三维模型,得到相机坐标系下的多个三维关键点坐标,以及对应的相机拍摄平面下的二维关键点的坐标,形成多个三维‑二维点对;基于所述多个三维‑二维点对,得到点与点之间的投影成像约束信息,基于所述投影成像约束信息,得到世界坐标系与相机坐标系之间的转换矩阵;基于所述世界坐标系与相机坐标系之间的转换矩阵,得到世界坐标系下用户面部位姿。与现有技术相比,本发明具有提高面部位姿检测准确性、性能良好等优点。

Description

基于改进PnP的用户面部位姿检测方法、设备、介质
技术领域
本发明涉及位姿识别技术领域,尤其是涉及一种基于改进PnP(Perspective-n-Point)的用户面部位姿检测方法、设备、介质。
背景技术
位姿估计方法可以分为两种,一种是深度学习方法,另一种是基于关键点2D投影到3D的方法;
最近的FSA-NET算法就是基于深度学习来实现位姿估计的,通过使用给定的数据集以及与每张数据集图相对应的欧拉角,最小化平均绝对误差(Mean Absolute Error,MAE)。FSA-NET算法借鉴了SSR-Net思想把回归问题转为软分段回归。通过这样的方法解决了将姿势估计转化为回归问题所带来的样本的分布不均衡以及随机性造成的过拟合现象。FSA-NET算法性能很优,实验中通过侧脸可以估计出头部的姿态。然而即使FSA-NET虽然拥有较小的模型,可是在显存性能和运行的时间上相比于其他模型没有做出明显的改进。
另一种是基于关键点投影的方法,例如比较经典的PnP(Perspective-n-Point)方法。简单讲就是将二维点投射到一个三维人脸模型上,接着在进行角度计算,这种方法的优点是不会受到检测器中检测点数量的制约,比如5点、6点的投影都可以,当然点数越多拟合的效果也越好,不过也会降低检测的速度;
对于n点透视问题,传统直接线性变换法使用空间参考点与图像间映射关系求解线性方程组,这种方法效率很高但是它并未考虑成像过程中存在的非线性约束关系,因此直接线性变换法求解n点透视问题存在精度不高、抗噪能力弱的缺点。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于改进PnP的用户面部位姿检测方法、设备、介质,以提高面部位姿检测准确性。
本发明的目的可以通过以下技术方案来实现:
本发明的一个方面,提供了一种基于改进PnP的用户面部位姿检测方法,包括如下步骤:
获取用户头部的扫描数据并构建三维模型,得到相机坐标系下的多个三维关键点坐标,以及对应的相机拍摄平面下的二维关键点的坐标,形成多个三维-二维点对;
基于所述多个三维-二维点对,得到点与点之间的投影成像约束信息,基于所述投影成像约束信息,得到世界坐标系与相机坐标系之间的转换矩阵;
基于所述世界坐标系与相机坐标系之间的转换矩阵对用户面部位姿进行检测。
作为优选的技术方案,所述的点与点之间的投影成像约束信息的计算过程包括:
基于小孔成像,建立所述三维关键点与所述二维关键点的关系表达式;
基于所述关系表达式,以第一平面和第二平面共面为限制条件,得到点与点之间的投影成像约束信息,其中,所述第一平面为任意两个三维关键点与相机光心形成的平面,所述第二平面为第一平面中两个三维关键点对应的二维关键点与相机光心形成的平面;
基于所述投影成像约束信息以及所述多个三维-二维点对,计算得到所述世界坐标系与相机坐标系之间的转换矩阵。
作为优选的技术方案,所述的投影成像约束信息基于下式获取:
αijnij=Rmij-t×Rqij
其中,αij是针对三维关键点pi、pj的系数,nij是所述第一平面的法向量,R、t分别为旋转和平移矩阵,mij是所述第二平面的法向量,qij=pi-pj
作为优选的技术方案,所述的关系表达式为:
λipi=KC;i=1,2,…,n
其中,λi表示深度因子,Ci为点i在相机坐标系下的坐标,K表示相机内部参数,Pi为点i在世界坐标系下的坐标。
作为优选的技术方案,所述的用户面部位姿的获取包括如下步骤:
利用所述转换矩阵得到相机拍摄平面下的实际二维坐标,实现面部位姿检测。
作为优选的技术方案,所述的关键点包括鼻尖、下巴、左眼左侧、右眼右侧、左嘴角、右嘴角以及嘴部中心。
作为优选的技术方案,通过将Dlib库中的ID号与所述三维模型对应,得到与所述三维关键点对应的二维关键点的坐标。
作为优选的技术方案,通过平移和旋转对所述三维模型进行对齐,对齐后通过标定得到所述三维关键点,其中,所述的三维模型为Mesh模型。
本发明的另一个方面,提供了一种电子设备,包括:一个或多个处理器以及存储器,所述存储器内储存有一个或多个程序,所述一个或多个程序包括用于执行上述基于改进PnP的用户面部位姿检测方法的指令。
本发明的另一个方面,提供了一种计算机可读存储介质,包括供电子设备的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行上述基于改进PnP的用户面部位姿检测方法的指令。
与现有技术相比,本发明具有以下优点:
(1)提高面部位姿检测准确性:本发明针对用户头部构建三维模型并得到面部特征的三维-二维点对,以此求解世界坐标系与相机坐标系的转换矩阵,基于转换矩阵得到相机坐标下的坐标,完成相机坐标系的位姿检测。本发明通过在求解转换矩阵的过程中加入点与点之间的投影成像约束信息(即构建投影成像约束模型),相较于传统的求解的方法增加了额外的约束条件,提高了检测准确性。
(2)性能良好:本发明使用深度相机扫描建模头部产生三维坐标点,并结合Python中的Dlib库实现对应二维关键点识别,经过在ROS环境中位姿检测项目实际部署,可视化结果表明该位姿检测方法具有良好的性能。本方法也可以用于其他领域的位姿检测中。
附图说明
图1为实施例中基于改进PnP的用户面部位姿检测方法的流程图;
图2为n点透视视觉测量原理图;
图3为本申请采用的添加点与点约束的n点透视视觉测量原理图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
实施例1
如图1所示,本申请针对前述现有技术存在的缺点,提供了一种基于改进PnP的用户面部位姿检测方法、设备、介质,流程具体如下:
步骤S1,采用深度相机扫描生成三维人头部模型,使用三维几何处理系统来导入扫描后得到的Mesh模型,通过平移和旋转对扫描后模型进行对齐以及标定三维关键点;
步骤S2,在获得人脸三维关键点坐标后,位姿估计算法还需要与之对应相机平面的二维关键点坐标,使用Python中的Dlib库以获取对应二维关键点坐标,得到用于预测位姿的三维和二维点;
步骤S3,建立世界坐标系Ow-XwYwZw与相机坐标系Oc-XcYcZc;相机的光心为原点Oc,光轴为Zc轴,相机所拍摄图像平面的水平和垂直方向分别为Xc轴和Yc轴;假设Pi为空间中的一特征点在世界坐标系Ow-XwYwZw的坐标,Ci为在相机坐标系Oc-XcYcZc的坐标,那么Ci和Pi之间的关系满足以下关系:
Ci=RPi+t i=1,2,…,n (1)
步骤S4,已知相机内参数K的情况下,基于空间参考点{Pi,i=1,2,…,n}以及与之对应的图像平面上的投影点{pi,i=1,2,…,n}计算出世界坐标系与相机坐标系之间的平移t和旋转R关系,并将图像坐标归一化得到Pi
为了方便后续推导令Pi,R,t分别为/>Pi=[Xi,Yi,Zi]T
步骤S5,Pi,Pj代表空间中的两个不同特征点,Ci和Cj为它们在相机坐标系下的点,Oc为相机的光心,Oc,Ci和Cj组成平面CiOcCj,CiOcCj在相机坐标系下的法向量是Nij=Ci×Cj。同理可得,Ci与Cj在图像上的投影Pi,Pj和Oc组成平面piOcpj,piOcpj与CiOcCj在同一平面上,记平面piOcpj的法向量为nij=pi×pj,得到nij和Nij满足平行关系:
αijnij=Nij (4)
αijnij=Ci×Cj (5)
将式(1)代入式(5)得:
αijnij=(RPi+t)×(RPj+t) (6)
通过叉乘的运算规律,合并同类项最终化简为:
αijnij=Rmij-t×Rqij (7)
设qij=[qx,qy,qz]T,将t和R的表示形式代入t×Rqij得到:
其中hi,i=1,2,…,9为未知数,推算出点与点间的成像约束模型αijnij=Rmij-Hqij
步骤S6,添加n个约束信息与k个约束条件继续进行线性求解,令式中nij=[nx,ny,nz]T,mij=[mx,my,mz]T,代入式展开得到:
r1mxnz-r3mxnx+r4mynz-r6myns+r7mznz-r9mznx-
h1qxnz+h3qxnx-h4qynz+h6qynx-h7qznz+h9qznx=0
r2mxnz-r3mxny+r5mynz-r6myny+r8mznz-r9mzny-
h2qxnz+h3qxny-h5qynz+h6qyny-h8qznz+h9qzny=0
并令wi=hi/tz,i=1,2,…,9,然后扩充变量s为在添加点与点特征间存在的成像约束信息后,使用最小二乘法求出/>并得到最终真实的世界坐标系与相机坐标系之间的平移t和旋转R关系,对提取的三维-二维点对转换得到用户嘴部位姿。
为了更加详细地说明位姿检测过程,在具体的实施过程中,方法包括如下步骤:
采用Intel RealSense D415深度相机以及RecFusion Pro软件扫描生成三维人头部Mesh模型;
使用MeshLab三维几何处理系统来导入扫描后得到的Mesh模型,通过平移和旋转对扫描后模型进行对齐以及标定三维关键点;
使用Python的Dlib库中68个人脸关键点的ID号来对应三维模型标注的鼻尖、下巴、左眼左侧、右眼右侧、左嘴角、右嘴角以及嘴部中心,以获取人脸三维关键点坐标对应的二维关键点坐标;
传统PnP问题中n点透视视觉测量原理如图2所示,建立世界坐标系Ow-XwYwZw与相机坐标系Oc-XcYcZc;相机的光心为原点Oc,光轴为Zc轴,相机所拍摄图像平面的水平和垂直方向分别为Xc轴和Yc轴;
假设Pi为空间中的一特征点在世界坐标系Ow-XwYwZw的坐标,Ci为在相机坐标系Oc-XcYcZc的坐标,那么Ci和Pi之间的关系满足以下关系
Ci=RPi+t i=1,2,…,n (1)
式中R是一个3×3的矩阵,表示世界坐标系与相机坐标系之间的旋转关系;t是一个3×1的向量,表示世界坐标系与相机坐标系之间的平移关系。根据小孔成像原理,Pi是Ci在图像平面上的投影,Pi和Ci之间满足以下关系:
λipi=KCi i=1,2,…,n (2)
等式中K表示相机内部参数,λi表示深度因子。
将图像坐标归一化得到Pi,由(1)和(2)推得
Pi,R,t分别为/>Pi=[Xi,Yi,Zi]T,/>t=[tx,ty,tz]T
Pi,R,t带入公式(3)得到
在实际的应用场景中,相机拍摄的物体位于镜头前方,以此tz>0令
si=ri/tz,i=1,2,…,9,t1=tx/tz,t2=ty/tz
则得到关于s=[s1,s2,s3,s4,s5,s6,s7,s8,s9,t1,t2]T的线性方程组
Ais=Bi (5)
其中
对于空间中每个特征点都满足式(5),因此空间中n个特征点可以得到
当空间特征点数目大于等于6个时,可以通过最小二乘法求解得到:
s=(ATA)-1ATB (7)
因为旋转矩阵R符合单位正交,因此
将s1=r1/tz,s2=r2/tz,s3=r3/tz代入式(8),因为tz>0,所以
将tz代回si=ri/tz可以求出需要的R和t;
本发明基于改进的PnP求解方法实时获取用户嘴部位姿检测方法视觉测量原理如图3所示,Pj代表空间中的两个不同特征点,Ci和Cj为它们在相机坐标系下的点,Oc为相机的光心,Oc,Ci和Cj组成平面CiOcCj,CiOcCj在相机坐标系下的法向量是Nij=Ci×Cj。同理可得,Ci与Cj在图像上的投影Pi,Pj和Oc组成平面piOcPj,piOcpj与CiOcCj在同一平面上,记平面piOcpj的法向量为nij=pi×pj,得到nij和Nij满足平行关系:
αijnij=Nij (10)
αijnij=Ci×Cj (11)
将式(1)代入式(11)得:
αijnij=(RPi+t)×(RPj+t) (12)
通过叉乘的运算规律,合并同类项得到:
αijnij=R(Pi×Pj)-t×R(Pi-Pj)+t×t (13)
式中:pi×pj代表在世界坐标系下平面piOwpj的法向量,记为mij;pi-pj表示世界坐标系下的向量,记为qijt;t×t的值为0,则式(13)可写为:
αijnij=Rmij-t×Rqij (14)
设qij=[qx,qy,qz]T,将t和R的表示形式代入t×Rqij得到:
其中hi,i=1,2,…,9为未知数,将式(15)带回式(14),则式(14)变为:
αijnij=Rmij-Hqij (16)
式(16)为推算出的点与点间的成像约束模型;
将空间中的n个特征点两两组合可以得到k=n(n-1)/2种可能。因此,对于PnP问题的线性求解不仅可以使用式(1)中的n个约束信息,而且可以使用式(5)中的k个约束条件;
令式(16)中nij=[nx,ny,nz]T,mij=[mx,my,mz]T,代入式(16)展开得到:
并令wi=hi/tz,i=1,2,…,9,然后将式(5)中的变量s扩充为:
则式(5)变为:
根据式(20),式(6)可以改写为
通过新定义的将式(18)和式(19)用矩阵的形式表示为
因为式(22)满足空间中k个点间的组合,因此得到
由式(21)和(23)可以得出:
式(24)中加入了点与点特征间存在的成像约束信息。使用最小二乘法可以得出为:
得出结果后提取它前11个分量,可以得出具有比例因子的如下结果:与真实的R,t间相差一个系数tz。通过式(9)的方法先计算tz,可以得出真实的R和t;
在求出真实的R和t后可以对用户面部位姿进行检测。姿态估计任务涉及世界坐标系、相机坐标系和图像坐标系三个坐标系统。
Step1,首先获取相机坐标系下的人脸特征点的三维坐标
Step2,将相机坐标系下的三维点投射到图像平面中得到二维数据,
Step3,已知相机内在的参数K,可计算相机的内参矩阵,利用本申请提供的改进的直接线性变换法,以提取的三维-二维点对以及相机内参矩阵作为算法的输入,预先求得更加真实的R和t,由式(1)进行相机坐标系与世界坐标系的转换,最终得到世界坐标系中(机械臂基座为世界坐标系)用户嘴的位姿。
本发明具有如下优点:
(1)本发明创新地使用深度相机扫描建模头部产生三维坐标点,并结合Python中的Dlib库实现对应二维关键点识别;
(2)本发明在传统直接线性变换法求解的基础上增加了点与点之间的投影成像约束模型,传统直接线性变换法使用空间参考点与图像间映射关系求解线性方程组,这种方法效率高但并未考虑成像过程中存在的非线性约束关系,因此直接线性变换法求解PnP问题存在精度不高、抗噪能力弱的缺点,改进后的直接线性变换法显著提高了姿态估计精度;
(3)本发明经过在ROS环境中位姿检测项目实际部署,可视化结果表明该位姿检测方法具有良好的性能。
本实施例提供的一种基于改进的PnP(Perspective-n-Point)地用户面部位姿检测方法,基于传统PnP求解方法,包括如下步骤:采用深度相机生成三维人头部模型并使用软件对扫描得到的头部模型进行对齐以及标定三维关键点;使用Python中的Dlib库以获取对应二维关键点坐标,得到用于预测位姿的三维和二维点;使用改进的直接线性变换法对提取的三维-二维点对转换得到(机械臂基座为世界坐标系)用户嘴的位姿,最终在ROS环境中部署位姿检测项目。本发明算法步骤简单明了,检测精度高,稳定性也更强,可实时准确获取用户嘴部位姿。
实施例2
本实施例提供了一种电子设备,包括:一个或多个处理器以及存储器,所述存储器内储存有一个或多个程序,所述一个或多个程序包括用于执行如实施例1所述基于改进PnP的用户面部位姿检测方法的指令。
实施例3
本实施例提供了一种计算机可读存储介质,包括供电子设备的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行如实施例1所述基于改进PnP的用户面部位姿检测方法的指令。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (7)

1.一种基于改进PnP的用户面部位姿检测方法,其特征在于,包括如下步骤:
获取用户头部的扫描数据并构建三维模型,得到相机坐标系下的多个三维关键点坐标,以及对应的相机拍摄平面下的二维关键点的坐标,形成多个三维-二维点对;
基于所述多个三维-二维点对,得到点与点之间的投影成像约束信息,基于所述投影成像约束信息,得到世界坐标系与相机坐标系之间的转换矩阵;
基于所述世界坐标系与相机坐标系之间的转换矩阵对用户面部位姿进行检测,
其中,所述的点与点之间的投影成像约束信息的计算过程包括:
基于小孔成像,建立所述三维关键点与所述二维关键点的关系表达式;
基于所述关系表达式,以第一平面和第二平面共面为限制条件,得到点与点之间的投影成像约束信息,其中,所述第一平面为任意两个三维关键点与相机光心形成的平面,所述第二平面为第一平面中两个三维关键点对应的二维关键点与相机光心形成的平面;
基于所述投影成像约束信息以及所述多个三维-二维点对,计算得到所述世界坐标系与相机坐标系之间的转换矩阵,
所述的投影成像约束信息基于下式获取:
上式中,是针对三维关键点/>的系数,/>是所述第一平面的法向量,/>分别为旋转和平移矩阵,/>是所述第二平面的法向量,/>
所述的关系表达式为:
上式中,表示深度因子,/>为点/>在相机坐标系下的坐标,/>表示相机内部参数,/>为点在世界坐标系下的坐标。
2.根据权利要求1所述的一种基于改进PnP的用户面部位姿检测方法,其特征在于,所述的用户面部位姿的获取包括如下步骤:
利用所述转换矩阵得到相机拍摄平面下的实际二维坐标,实现面部位姿检测。
3.根据权利要求1所述的一种基于改进PnP的用户面部位姿检测方法,其特征在于,所述的关键点包括鼻尖、下巴、左眼左侧、右眼右侧、左嘴角、右嘴角以及嘴部中心。
4.根据权利要求1所述的一种基于改进PnP的用户面部位姿检测方法,其特征在于,通过将Dlib库中的ID号与所述三维模型对应,得到与所述三维关键点对应的二维关键点的坐标。
5.根据权利要求1所述的一种基于改进PnP的用户面部位姿检测方法,其特征在于,通过平移和旋转对所述三维模型进行对齐,对齐后通过标定得到所述三维关键点,其中,所述的三维模型为Mesh模型。
6.一种电子设备,其特征在于,包括:一个或多个处理器以及存储器,所述存储器内储存有一个或多个程序,所述一个或多个程序包括用于执行如权利要求1-5任一所述基于改进PnP的用户面部位姿检测方法的指令。
7.一种计算机可读存储介质,其特征在于,包括供电子设备的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行如权利要求1-5任一所述基于改进PnP的用户面部位姿检测方法的指令。
CN202311120265.0A 2023-08-31 2023-08-31 基于改进PnP的用户面部位姿检测方法、设备、介质 Active CN117315018B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311120265.0A CN117315018B (zh) 2023-08-31 2023-08-31 基于改进PnP的用户面部位姿检测方法、设备、介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311120265.0A CN117315018B (zh) 2023-08-31 2023-08-31 基于改进PnP的用户面部位姿检测方法、设备、介质

Publications (2)

Publication Number Publication Date
CN117315018A CN117315018A (zh) 2023-12-29
CN117315018B true CN117315018B (zh) 2024-04-26

Family

ID=89259323

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311120265.0A Active CN117315018B (zh) 2023-08-31 2023-08-31 基于改进PnP的用户面部位姿检测方法、设备、介质

Country Status (1)

Country Link
CN (1) CN117315018B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008148237A (ja) * 2006-12-13 2008-06-26 Sanyo Electric Co Ltd 姿勢検知装置
CN102261908A (zh) * 2011-04-25 2011-11-30 天津大学 基于几何约束的物体三维姿态测量方法
CN106204625A (zh) * 2016-07-27 2016-12-07 大连理工大学 一种可变焦距柔性化位姿视觉测量方法
CN106503671A (zh) * 2016-11-03 2017-03-15 厦门中控生物识别信息技术有限公司 确定人脸姿态的方法和装置
CN111505606A (zh) * 2020-04-14 2020-08-07 武汉大学 多相机与激光雷达系统相对位姿检校方法及装置
CN112066879A (zh) * 2020-09-11 2020-12-11 哈尔滨工业大学 基于计算机视觉的气浮运动模拟器位姿测量装置及方法
CN114970790A (zh) * 2022-05-18 2022-08-30 中国计量大学 交通标识及其制作方法、车辆位姿估计方法
CN115494938A (zh) * 2022-07-13 2022-12-20 北京石油化工学院 非接触式交互方法及装置
CN116051650A (zh) * 2022-12-20 2023-05-02 际络科技(上海)有限公司 激光雷达与相机联合的外部参数标定方法及装置
CN116363205A (zh) * 2023-03-30 2023-06-30 中国科学院西安光学精密机械研究所 基于深度学习的空间目标位姿解算方法及计算机程序产品
CN116645649A (zh) * 2023-07-27 2023-08-25 深圳魔视智能科技有限公司 车辆位姿及尺寸估计方法、设备及存储介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008148237A (ja) * 2006-12-13 2008-06-26 Sanyo Electric Co Ltd 姿勢検知装置
CN102261908A (zh) * 2011-04-25 2011-11-30 天津大学 基于几何约束的物体三维姿态测量方法
CN106204625A (zh) * 2016-07-27 2016-12-07 大连理工大学 一种可变焦距柔性化位姿视觉测量方法
CN106503671A (zh) * 2016-11-03 2017-03-15 厦门中控生物识别信息技术有限公司 确定人脸姿态的方法和装置
CN111505606A (zh) * 2020-04-14 2020-08-07 武汉大学 多相机与激光雷达系统相对位姿检校方法及装置
CN112066879A (zh) * 2020-09-11 2020-12-11 哈尔滨工业大学 基于计算机视觉的气浮运动模拟器位姿测量装置及方法
CN114970790A (zh) * 2022-05-18 2022-08-30 中国计量大学 交通标识及其制作方法、车辆位姿估计方法
CN115494938A (zh) * 2022-07-13 2022-12-20 北京石油化工学院 非接触式交互方法及装置
CN116051650A (zh) * 2022-12-20 2023-05-02 际络科技(上海)有限公司 激光雷达与相机联合的外部参数标定方法及装置
CN116363205A (zh) * 2023-03-30 2023-06-30 中国科学院西安光学精密机械研究所 基于深度学习的空间目标位姿解算方法及计算机程序产品
CN116645649A (zh) * 2023-07-27 2023-08-25 深圳魔视智能科技有限公司 车辆位姿及尺寸估计方法、设备及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Q. Fan等.3D Posture Estimation and Automatic Adjustment of Zebrafish Larvae.《IEEE sensors journal》.2021,第26921-26930页. *
单春艳 ; 杨维 ; 耿翠博 ; .面向井下无人机自主飞行的人工路标辅助位姿估计方法.煤炭学报.2019,(第S1期),第393-404页. *
袁媛 ; 刘柯 ; 孙增玉 ; 高越 ; 刘华 ; .单目视觉三维运动位姿测量方法研究.宇航计测技术.2019,(第06期),第5-10页. *

Also Published As

Publication number Publication date
CN117315018A (zh) 2023-12-29

Similar Documents

Publication Publication Date Title
US8953847B2 (en) Method and apparatus for solving position and orientation from correlated point features in images
EP2382599B1 (en) Method for determining the pose of a camera with respect to at least one real object
EP1677250B9 (en) Image collation system and image collation method
Gao et al. A stable and accurate marker-less augmented reality registration method
CN109523595A (zh) 一种建筑工程直线棱角间距视觉测量方法
JP6515039B2 (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
CN107358629A (zh) 一种基于目标识别的室内建图与定位方法
WO2021238171A1 (zh) 图像配准方法及其相关的模型训练方法、设备、装置
JP2007257324A (ja) 顔モデル作成システム
CN109613974B (zh) 一种大场景下的ar家居体验方法
da Silveira et al. Dense 3D scene reconstruction from multiple spherical images for 3-DoF+ VR applications
Eichhardt et al. Affine correspondences between central cameras for rapid relative pose estimation
CN112184811A (zh) 单目空间结构光系统结构校准方法及装置
Botterill et al. Fast RANSAC hypothesis generation for essential matrix estimation
Zhang et al. A flexible online camera calibration using line segments
Koo et al. Recovering the 3D shape and poses of face images based on the similarity transform
CN113642397A (zh) 一种基于手机视频的物体长度测量方法
CN117315018B (zh) 基于改进PnP的用户面部位姿检测方法、设备、介质
Guillemaut et al. Using points at infinity for parameter decoupling in camera calibration
CN112070844A (zh) 结构光系统的校准方法及装置、校准工具图、设备及介质
CN108694348B (zh) 一种基于自然特征的跟踪注册方法及装置
CN114648544A (zh) 一种亚像素椭圆提取方法
Figueroa et al. A combined approach toward consistent reconstructions of indoor spaces based on 6D RGB-D odometry and KinectFusion
Ornhag et al. Efficient real-time radial distortion correction for uavs
Cheng et al. A linear approach for depth and colour camera calibration using hybrid parameters

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant