CN112163502B - 一种室内动态场景下的视觉定位方法 - Google Patents

一种室内动态场景下的视觉定位方法 Download PDF

Info

Publication number
CN112163502B
CN112163502B CN202011015872.7A CN202011015872A CN112163502B CN 112163502 B CN112163502 B CN 112163502B CN 202011015872 A CN202011015872 A CN 202011015872A CN 112163502 B CN112163502 B CN 112163502B
Authority
CN
China
Prior art keywords
image
feature point
face
obtaining
static scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011015872.7A
Other languages
English (en)
Other versions
CN112163502A (zh
Inventor
陈建文
刘志励
张汝民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202011015872.7A priority Critical patent/CN112163502B/zh
Publication of CN112163502A publication Critical patent/CN112163502A/zh
Application granted granted Critical
Publication of CN112163502B publication Critical patent/CN112163502B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种室内动态场景下的视觉定位方法,据物体检测得到的场景中物体分布的信息,同时结合人脸识别技术将场景中的人脸所在的图像块进行区分,通过将场景中可能发生位移的人剔除,从而进行精确的视觉定位。

Description

一种室内动态场景下的视觉定位方法
技术领域
本发明涉及图像处理技术领域,具体涉及一种室内动态场景下的视觉定位方法。
背景技术
利用视觉在室内进行定位的过程中,往往会出现移动的物体,大部分场景下移动的物体是活动的人,同时,目前所有的视觉定位建图系统的理论建立在静态场景假设上,
现有技术中使用了结合光流与深度图平面假设的算法来进行前景物体的分割,此方法存在的问题是当物体与相机发生相对运动时,通常整个场景中的光流的一致性在不同的场景位置会不同,从而导致运动物体的光流难以判断,同时当场景复杂的情况下,静态场景的平面假设往往不成立导致前景判断的错误。另外一类方法是对运动物体的运动进行估计,并且将预测的运动物体的信息加入场景中进行定位建图。
发明内容
针对现有技术中的上述不足,本发明提供的一种室内动态场景下的视觉定位方法,据物体检测得到的场景中物体分布的信息,同时结合人脸识别技术将场景中的人脸所在的图像块进行区分,通过将场景中可能发生位移的人剔除,从而进行精确的视觉定位。
为了达到上述发明目的,本发明采用的技术方案为一种室内动态场景下的视觉定位方法,包括以下步骤:
S1、采集室内动态场景下的原始图像,并提取其ORB视觉特征点;
S2、对原始图像分别进行物体和人脸分类、二值化和匹配,得到物体人脸二值掩膜图像;
S3、采用物体人脸二值掩膜图像对ORB视觉特征点进行滤波处理,得到静态场景特征点图像;
S4、计算一幅静态场景特征点图像中的每一个特征点的描述子分别与另一幅静态场景特征点图像中所有特征点的描述子的汉明距离,得到多个特征点对;
S5、根据特征点对,构建运动结构恢复模型,得到入射光线汇聚点;
S6、将入射光线汇聚点投影至两幅静态场景特征点图像,构建误差模型,得到相机位姿,实现视觉定位。
进一步地,步骤S2包括分步骤:
S21、采用YOLO神经网络对原始图像进行物体分类,得到物体像素框;
S22、将物体像素框内的像素置1,物体像素框外的像素置0,得到物体二值掩膜图像;
S23、采用MTCNN神经网络检测原始图像中的人脸像素框;
S24、将人脸像素框内的像素值置1,人脸像素框外的像素值置0,得到人脸二值掩膜图像;
S25、遍历人脸二值掩膜图像上的所有人脸像素框,通过每个人脸像素框对应的连通域中的每个像素检测对应物体二值掩膜图像的位置,判断其对应位置的掩膜值是否为1,若是,则保留对应位置的物体二值掩膜图像上的二值连通域,若否,将对应物体二值掩膜图像位置上的二值连通域置0,得到物体人脸二值掩膜图像。
进一步地,步骤S3为:根据物体人脸二值掩膜图像,将ORB视觉特征点的每一个特征点对应的物体人脸二值掩膜图像的值为1的位置剔除,得到静态场景特征点图像。
进一步地,步骤S4包括以下分步骤:
S41、计算一幅静态场景特征点图像中的每一个特征点的描述子分别与另一幅静态场景特征点图像中所有特征点的描述子的汉明距离;
S42、寻找最小的汉明距离小于次小的汉明距离的60%以及最小的汉明距离小于汉明阈值的多对描述子;
S43、将多对描述子各自在两幅静态场景特征点图像上的特征点作为特征点对。
进一步地,步骤S5包括以下分步骤:
S51、根据每一个特征点对,通过相机内参,得到特征点对的入射光线;
S52、根据特征点对的入射光线,构建运动结构恢复模型,采用SVD算法对运动结构恢复模型进行求解,得到入射光线汇聚点。
进一步地,步骤S5中运动结构恢复模型为:
x=K-1p
x′=K-1p′
xT(t×R)x′=0
P=[R t]
x×PX=0
X=λx′
其中,x为一幅静态场景特征点图像的入射光线的向量,x′为另一幅静态场景特征点图像的入射光线的向量,K为相机内参,p为一幅静态场景特征点图像上的特征点,p′为另一幅静态场景特征点图像上的特征点,t为两个相机之间的位移,R为相机之间的旋转角度矩阵,λ为入射因子,P为构建的相机旋转位移矩阵,X为入射光线汇聚点的坐标。
进一步地,步骤S6中误差模型为:
Figure BDA0002699041000000041
其中,p1为入射光线汇聚点在一幅静态场景特征点图像的位置,p2为入射光线汇聚点在另一幅静态场景特征点图像的位置,X为入射光线汇聚点的坐标,K为相机内参,x为一幅静态场景特征点图像的入射光线的向量,x′为另一幅静态场景特征点图像的入射光线的向量,err为误差值。
综上,本发明的有益效果为:
(1)、本发明主要提出一种基于物体检测与人脸识别融合信息的动态场景定位方法。本方法对空间中的语义信息进行提取与分类,相比传统视觉算法能适用更多的场景,在更复杂的室内环境中区分动态场景与静态场景,利用静态场景信息进行精确定位。
(2)、本发明的语义信息更集中,基于室内环境中大多数的运动物体是人这一假设进行的深度学习算法设计,因此模型计算量更小,计算资源消耗更好,算法速度更快。
附图说明
图1为一种室内动态场景下的视觉定位方法的流程图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,一种室内动态场景下的视觉定位方法,包括以下步骤:
S1、采集室内动态场景下的原始图像,并提取其ORB视觉特征点;
S2、对原始图像分别进行物体和人脸分类、二值化和匹配,得到物体人脸二值掩膜图像;
步骤S2包括分步骤:
S21、采用YOLO神经网络对原始图像进行物体分类,得到物体像素框;
S22、将物体像素框内的像素置1,物体像素框外的像素置0,得到物体二值掩膜图像;
S23、采用MTCNN神经网络检测原始图像中的人脸像素框;
S24、将人脸像素框内的像素值置1,人脸像素框外的像素值置0,得到人脸二值掩膜图像;
S25、遍历人脸二值掩膜图像上的所有人脸像素框,通过每个人脸像素框对应的连通域中的每个像素检测对应物体二值掩膜图像的位置,判断其对应位置的掩膜值是否为1,若是,则保留对应位置的物体二值掩膜图像上的二值连通域,若否,将对应物体二值掩膜图像位置上的二值连通域置0,得到物体人脸二值掩膜图像。
S3、采用物体人脸二值掩膜图像对ORB视觉特征点进行滤波处理,得到静态场景特征点图像;
步骤S3为:根据物体人脸二值掩膜图像,将ORB视觉特征点的每一个特征点对应的物体人脸二值掩膜图像的值为1的位置剔除,得到静态场景特征点图像。
S4、计算一幅静态场景特征点图像中的每一个特征点的描述子分别与另一幅静态场景特征点图像中所有特征点的描述子的汉明距离,得到多个特征点对;
步骤S4包括以下分步骤:
S41、计算一幅静态场景特征点图像中的每一个特征点的描述子分别与另一幅静态场景特征点图像中所有特征点的描述子的汉明距离;
S42、寻找最小的汉明距离小于次小的汉明距离的60%以及最小的汉明距离小于汉明阈值的多对描述子;
在本实施例中,汉明阈值可设置是为45。
S43、将多对描述子各自在两幅静态场景特征点图像上的特征点作为特征点对。
S5、根据特征点对,构建运动结构恢复模型,得到入射光线汇聚点;
步骤S5包括以下分步骤:
S51、根据每一个特征点对,通过相机内参,得到特征点对的入射光线;
S52、根据特征点对的入射光线,构建运动结构恢复模型,采用SVD算法对运动结构恢复模型进行求解,得到入射光线汇聚点。
步骤S5中运动结构恢复模型为:
x=K-1p
x′=K-1p′
xT(t×R)x′=0
P=[R t]
x×PX=0
X=λx′
其中,x为一幅静态场景特征点图像的入射光线的向量,x′为另一幅静态场景特征点图像的入射光线的向量,K为相机内参,p为一幅静态场景特征点图像上的特征点,p′为另一幅静态场景特征点图像上的特征点,t为两个相机之间的位移,R为相机之间的旋转角度矩阵,λ为入射因子,P为构建的相机旋转位移矩阵,X为入射光线汇聚点的坐标。
S6、将入射光线汇聚点投影至两幅静态场景特征点图像,构建误差模型,得到相机位姿,实现视觉定位。
在本实施例中,可采用LM算法迭代求解误差模型。
步骤S6中误差模型为:
Figure BDA0002699041000000071
其中,p1为入射光线汇聚点在一幅静态场景特征点图像的位置,p2为入射光线汇聚点在另一幅静态场景特征点图像的位置,X为入射光线汇聚点的坐标,K为相机内参,x为一幅静态场景特征点图像的入射光线的向量,x′为另一幅静态场景特征点图像的入射光线的向量,err为误差值。
实验效果:
由于视觉定位需要实时的图像信息,同时保证物体识别与人脸识别的准确度,在具体方案实施过程中物体识别的主要技术参数为mAP和IoU,而人脸识别的主要技术参数为人脸的识别率以及识别速度。而视觉定位模块的主要参数为均方根误差RMSE,以及标准差STD。物体识别与人脸识别模块以及室内定位模块部分的实验测试数据如下表:
表1物体框的实验测试数据
技术指标 mAP IoU
研究数据 82.29% 70%
表2人脸像素框的实验测试数据
Figure BDA0002699041000000072
表3动态场景视觉定位的实验测试数据
Figure BDA0002699041000000081
根据表3可知,采用本方法对各图像集进行处理,其均方根误差RMSE和标准差STD均小于现有方法ORB SLAM2,证明本方法的定位效果好。

Claims (6)

1.一种室内动态场景下的视觉定位方法,其特征在于,包括以下步骤:
S1、采集室内动态场景下的原始图像,并提取其ORB视觉特征点;
S2、对原始图像分别进行物体和人脸分类、二值化和匹配,得到物体人脸二值掩膜图像;
所述步骤S2包括分步骤:
S21、采用YOLO神经网络对原始图像进行物体分类,得到物体像素框;
S22、将物体像素框内的像素置1,物体像素框外的像素置0,得到物体二值掩膜图像;
S23、采用MTCNN神经网络检测原始图像中的人脸像素框;
S24、将人脸像素框内的像素值置1,人脸像素框外的像素值置0,得到人脸二值掩膜图像;
S25、遍历人脸二值掩膜图像上的所有人脸像素框,通过每个人脸像素框对应的连通域中的每个像素检测对应物体二值掩膜图像的位置,判断其对应位置的掩膜值是否为1,若是,则保留对应位置的物体二值掩膜图像上的二值连通域,若否,将对应物体二值掩膜图像位置上的二值连通域置0,得到物体人脸二值掩膜图像;
S3、采用物体人脸二值掩膜图像对ORB视觉特征点进行滤波处理,得到静态场景特征点图像;
S4、计算一幅静态场景特征点图像中的每一个特征点的描述子分别与另一幅静态场景特征点图像中所有特征点的描述子的汉明距离,得到多个特征点对;
S5、根据特征点对,构建运动结构恢复模型,得到入射光线汇聚点;
S6、将入射光线汇聚点投影至两幅静态场景特征点图像,构建误差模型,得到相机位姿,实现视觉定位。
2.根据权利要求1所述的室内动态场景下的视觉定位方法,其特征在于,所述步骤S3为:根据物体人脸二值掩膜图像,将ORB视觉特征点的每一个特征点对应的物体人脸二值掩膜图像的值为1的位置剔除,得到静态场景特征点图像。
3.根据权利要求1所述的室内动态场景下的视觉定位方法,其特征在于,所述步骤S4包括以下分步骤:
S41、计算一幅静态场景特征点图像中的每一个特征点的描述子分别与另一幅静态场景特征点图像中所有特征点的描述子的汉明距离;
S42、寻找最小的汉明距离小于次小的汉明距离的60%以及最小的汉明距离小于汉明阈值的多对描述子;
S43、将多对描述子各自在两幅静态场景特征点图像上的特征点作为特征点对。
4.根据权利要求1所述的室内动态场景下的视觉定位方法,其特征在于,所述步骤S5包括以下分步骤:
S51、根据每一个特征点对,通过相机内参,得到特征点对的入射光线;
S52、根据特征点对的入射光线,构建运动结构恢复模型,采用SVD算法对运动结构恢复模型进行求解,得到入射光线汇聚点。
5.根据权利要求1所述的室内动态场景下的视觉定位方法,其特征在于,所述步骤S5中运动结构恢复模型为:
x=K-1p
x′=K-1p′
xT(t×R)x′=0
P=[R t]
x×PX=0
X=λx′
其中,x为一幅静态场景特征点图像的入射光线的向量,x′为另一幅静态场景特征点图像的入射光线的向量,K为相机内参,p为一幅静态场景特征点图像上的特征点,p′为另一幅静态场景特征点图像上的特征点,t为两个相机之间的位移,R为相机之间的旋转角度矩阵,λ为入射因子,P为构建的相机旋转位移矩阵,X为入射光线汇聚点的坐标。
6.根据权利要求1所述的室内动态场景下的视觉定位方法,其特征在于,所述步骤S6中误差模型为:
Figure FDA0003635029970000031
其中,p1为入射光线汇聚点在一幅静态场景特征点图像的位置,p2为入射光线汇聚点在另一幅静态场景特征点图像的位置,X为入射光线汇聚点的坐标,K为相机内参,x为一幅静态场景特征点图像的入射光线的向量,x′为另一幅静态场景特征点图像的入射光线的向量,err为误差值。
CN202011015872.7A 2020-09-24 2020-09-24 一种室内动态场景下的视觉定位方法 Active CN112163502B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011015872.7A CN112163502B (zh) 2020-09-24 2020-09-24 一种室内动态场景下的视觉定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011015872.7A CN112163502B (zh) 2020-09-24 2020-09-24 一种室内动态场景下的视觉定位方法

Publications (2)

Publication Number Publication Date
CN112163502A CN112163502A (zh) 2021-01-01
CN112163502B true CN112163502B (zh) 2022-07-12

Family

ID=73863648

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011015872.7A Active CN112163502B (zh) 2020-09-24 2020-09-24 一种室内动态场景下的视觉定位方法

Country Status (1)

Country Link
CN (1) CN112163502B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113763573B (zh) * 2021-09-17 2023-07-11 北京京航计算通讯研究所 一种三维物体数字化标注方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101446859A (zh) * 2008-12-23 2009-06-03 黄通兵 一种基于机器视觉的输入方法及其系统
CN103839223A (zh) * 2012-11-21 2014-06-04 华为技术有限公司 图像处理方法及装置
CN110084850A (zh) * 2019-04-04 2019-08-02 东南大学 一种基于图像语义分割的动态场景视觉定位方法
WO2019184542A1 (zh) * 2018-03-26 2019-10-03 京东方科技集团股份有限公司 室内定位方法、室内定位系统、室内定位设备和计算机可读介质
CN110599489A (zh) * 2019-08-26 2019-12-20 华中科技大学 一种目标空间定位方法
CN110838145A (zh) * 2019-10-09 2020-02-25 西安理工大学 一种室内动态场景的视觉定位与建图方法
CN111136669A (zh) * 2020-01-17 2020-05-12 沈阳航空航天大学 一种基于全局视觉的下棋机器人及其控制方法
CN111156984A (zh) * 2019-12-18 2020-05-15 东南大学 一种面向动态场景的单目视觉惯性slam方法
CN111340881A (zh) * 2020-02-18 2020-06-26 东南大学 一种动态场景下基于语义分割的直接法视觉定位方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101446859A (zh) * 2008-12-23 2009-06-03 黄通兵 一种基于机器视觉的输入方法及其系统
CN103839223A (zh) * 2012-11-21 2014-06-04 华为技术有限公司 图像处理方法及装置
WO2019184542A1 (zh) * 2018-03-26 2019-10-03 京东方科技集团股份有限公司 室内定位方法、室内定位系统、室内定位设备和计算机可读介质
CN110084850A (zh) * 2019-04-04 2019-08-02 东南大学 一种基于图像语义分割的动态场景视觉定位方法
CN110599489A (zh) * 2019-08-26 2019-12-20 华中科技大学 一种目标空间定位方法
CN110838145A (zh) * 2019-10-09 2020-02-25 西安理工大学 一种室内动态场景的视觉定位与建图方法
CN111156984A (zh) * 2019-12-18 2020-05-15 东南大学 一种面向动态场景的单目视觉惯性slam方法
CN111136669A (zh) * 2020-01-17 2020-05-12 沈阳航空航天大学 一种基于全局视觉的下棋机器人及其控制方法
CN111340881A (zh) * 2020-02-18 2020-06-26 东南大学 一种动态场景下基于语义分割的直接法视觉定位方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Hua Xu 等.OD-SLAM:Real-Time Localization and Mapping in Dynamic Environment through Multi-Sensor Fusion.《2020 5th Internationl Conference on Advanced Robotics and Mechatronics》.2020,172-177. *
公维蒙.动态场景下基于视觉的同时定位与建图.《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》.2019,(第01期),I138-3174. *
刘志励.基于双目视觉与激光雷达的局部路径规划算法研究.《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》.2019,(第12期),I140-259. *
卢燕斌.监控视频中的运动目标检测和追踪的研究及应用.《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》.2007,(第06期),I140-361. *
彭晖.基于机器视觉的目标分类与场景定位研究.《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》.2017,(第06期),I138-1075. *

Also Published As

Publication number Publication date
CN112163502A (zh) 2021-01-01

Similar Documents

Publication Publication Date Title
CN111462200B (zh) 一种跨视频行人定位追踪方法、系统及设备
CN110930411B (zh) 一种基于深度相机的人体分割方法及系统
WO2020233397A1 (zh) 在视频中对目标进行检测的方法、装置、计算设备和存储介质
CN109886159B (zh) 一种非限定条件下的人脸检测方法
CN109389621B (zh) 基于多模式深度特征融合的rgb-d目标跟踪方法
CN112200056B (zh) 人脸活体检测方法、装置、电子设备及存储介质
CN111178161A (zh) 一种基于fcos的车辆追踪方法及系统
Lu et al. Occlusion-shared and feature-separated network for occlusion relationship reasoning
CN111160291A (zh) 基于深度信息与cnn的人眼检测方法
CN114898353B (zh) 一种基于视频序列图像特征与信息的车牌识别方法
CN113850136A (zh) 基于yolov5与BCNN的车辆朝向识别方法及系统
Jung et al. Object detection and tracking-based camera calibration for normalized human height estimation
CN111160107B (zh) 一种基于特征匹配的动态区域检测方法
CN112163502B (zh) 一种室内动态场景下的视觉定位方法
Hao et al. Fast recognition method for multiple apple targets in complex occlusion environment based on improved YOLOv5
CN113989604A (zh) 基于端到端深度学习的轮胎dot信息识别方法
Ying et al. Anchor points based accurate fault locating in large-scale photovoltaic plants via aerial infrared videos
CN117315547A (zh) 一种解决动态物体大占比的视觉slam方法
CN117218195A (zh) 基于点、线特征约束的同时定位与建图方法
CN111738264A (zh) 一种机房设备显示面板数据的智能采集方法
Shao et al. Digital Image Aesthetic Composition Optimization Based on Perspective Tilt Correction
CN117315274B (zh) 一种基于自适应特征提取的视觉slam方法
CN112070048B (zh) 基于RDSNet的车辆属性识别方法
CN115063578B (zh) 芯片图像中目标对象检测与定位方法、装置及存储介质
CN111784576B (zh) 一种基于改进orb特征算法的图像拼接方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant