CN112633145A - 基于3D检测识别与运动目标追踪的WebAR处理方法 - Google Patents

基于3D检测识别与运动目标追踪的WebAR处理方法 Download PDF

Info

Publication number
CN112633145A
CN112633145A CN202011521009.9A CN202011521009A CN112633145A CN 112633145 A CN112633145 A CN 112633145A CN 202011521009 A CN202011521009 A CN 202011521009A CN 112633145 A CN112633145 A CN 112633145A
Authority
CN
China
Prior art keywords
webar
module
tracking
target
moving target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011521009.9A
Other languages
English (en)
Other versions
CN112633145B (zh
Inventor
王先兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Xushi Technology Co ltd
Wuhan University WHU
Original Assignee
Wuhan Xushi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Xushi Technology Co ltd filed Critical Wuhan Xushi Technology Co ltd
Priority to CN202011521009.9A priority Critical patent/CN112633145B/zh
Publication of CN112633145A publication Critical patent/CN112633145A/zh
Application granted granted Critical
Publication of CN112633145B publication Critical patent/CN112633145B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明属于WebAR信息处理技术领域,公开了一种基于3D检测识别与运动目标追踪的WebAR处理方法,通过图像检测与分类识别模块对视频帧中物体进行识别与分类;通过实例分割模块,将识别到的物体从图像中分离出来;通过背景填充模块与2D图像变形模块,可以让视频中分离出来的静态物体动起来;通过运动目标追踪模块,用户可以使用智能终端与分离出来的物体进行AR互动。本发明将人工智能与增强现实相结合,让静态物体动起来,让人与现实物体进行互动;本发明无需安装APP,在智能终端通过浏览器即可快速体验人与现实物体的WebAR互动;本发明无需购买昂贵的设备,使用智能手机即可体验到与众不同的WebAR。

Description

基于3D检测识别与运动目标追踪的WebAR处理方法
技术领域
本发明属于WebAR信息处理技术领域,尤其涉及一种基于3D检测识别与运动目标追踪的WebAR处理方法。
背景技术
目前,(1)苹果ARKit和谷歌ARKCore
技术表现:例用手机内集成的各项传感器来实现物体定位,通过摄像头让虚拟物体与实时视频流进行特效叠加,从而实现AR效果。
优点:例用摄像头配合各项传感器可以检测出平面,构置一个虚拟三维空间,虚拟的3D对象定位精准,让用户有沉浸感。
缺点:虽然构置了一个虚拟的三维空间,但是最终表现还是仅仅停留在虚拟的三维物体与现实视频流进行特效叠加,这只是一个虚假的AR世界,仅仅只能与虚拟3D对象交互。
(2)谷歌Google Glass、微软HoloLens、Magic Leap One
技术表现:微型投影仪+摄像头+传感器+存储传输+操控设备的结合,利用的是光学反射投影原理(HUD),即微型投影仪先是将光投到一块反射屏上,而后通过一块凸透镜折射到人体眼球,实现所谓的“一级放大”,在人眼前形成一个足够大的虚拟屏幕,可以显示简单的文本信息和各种数据。
优点:便于携带,AR显示效果一流。
缺点:价格昂贵,并不实用。
综上所述,现有技术存在的问题是:(1)现有技术中,构置的只是一个虚拟的三维空间,用户只能与虚拟3D对象交互。无法与真正的现实物体交互,缺少了虚实结合的感觉,违背了AR(增强现实)的初衷。(2)价格昂贵,并不实用。(3)硬件限制,对硬件设备有较高要求,需要装配各种辅助硬件传感器等。(4)软应用开发成本较高,软件开发人员需要同时进行苹果和安卓两个平台的开发,以满足大部分用户的要求。(5)仍然需要一个应用程序,ARKit和ARCore都集成到了设备的操作系统中,相比于应用商店中的大量第三方软件,AR应用具备了巨大的性能优势。然而,用户想要体验AR,仍然需要下载应用。所以,开发一款AR应用只是冰山一角,应用推广,使更多的用户去下载才是最艰巨的挑战。(6)打开AR应用,需要我们一直拿着手机进行操作,这通常会让人感到疲劳。多年的原型设计和用户测试已经告诉我们,不同的用户对疲劳有不同的阈值。举个例子,年幼的孩子拿起电话和敲屏幕都有困难,更不用说用两只手来固定iPad了。很显然,这会对用户使用AR造成极大的影响。就目前而言,AR也会让设备刚到“疲劳”,它需要摄像头持续工作,这会很快耗尽电池,并使设备变烫。
解决上述技术问题的难度:(1)DeepAR创造出一个能够摆脱特殊固件支持并有着高兼容性的技术解决方案,仅需一枚普通摄像头就能体验AR的乐趣。(2)深度结合WebAR,使AR开发变得更简单,也无需进行手机兼容测试,任何支持H5的设备,仅需附加一个普通摄像头就可以完美运行。也无需额外下载APP,这既节省了手机的存储空间,也大幅改善应用“推广难”的问题。与此同时也存在很大的难点,如何实现终端适配,使得该应用能够在苹果浏览器、安卓浏览器环境以及相应的微信、手机QQ环境下正常运行。(3)目标检测时物体有交叉的时候,边界处不好处理;分割的时候目标物体90度转角处如何处理以达到良好的效果。(4)细分类的时候有的类比图片比较少,细分类效果就会不太好。(5)实时运动目标追踪模块,用户可以使用智能终端与分离出来的物体进行AR互动。
解决上述技术问题的意义:(1)现今市面上百分之60以上设备因性能问题均无法支持ARKit和ARCore这一类AR应用,DeepAR的出现,降低了设备性能要求,让更多的设备可以体验AR应用。(2)为了让AR应用得到更多的推广运营渠道,降低开发商的推广运营,同时也让用户更简单的体验到AR应用。(3)为AR应用增添新的色彩,改变了人们对“AR只能与虚拟3D对象交互”的认知,创造了“与现实物体交互”的AR新模式。(4)让用户体验AR时无需长时间手持设备,可以将设备固定在某个位置或作为“投影”来使用。
发明内容
针对现有技术存在的问题,本发明提供了一种基于3D检测识别与运动目标追踪的AR处理方法。
本发明是这样实现的,一种基于物体检测识别与运动目标追踪的WebAR处理系统,包括:
深度神经网络系统,用于物体图像的检测识别、实例分割、细分类识别;
运动目标追踪系统,采用计算机视觉的相关滤波技术对视频中的物体进行追踪;
WebAR增强现实系统,结合深度神经网络系统有运动目标追踪系统,与视频中实例分割的物体进行增强现实互动。
进一步,深度神经网络系统包括:
物体检测模块,用于对视频流图像帧进行物体检测,检测出可以识别的物体;
实例分割模块,用于对视频流图像帧进行物体实例分割,检测出可以识别的物体,并将识别到的物体从图像中分离出来,获取分割物体对象的Mask;
分类识别模块,针对物体检测模块或实例分割模块获取的物体对象,进行精细分类识别,识别出物体的具体类别。
进一步,运动目标追踪系统包括:
移动端3D物体实时追踪模块,基于计算机视觉的相关滤波技术,针对深度神经网络模块检测出来的物体,在实时视频流中进行运动目标追踪;既可以通过移动现实世界中物体,也可以通过移动智能手机摄像头,或者两者同时移动,来实现深度神经网络模块检测物体的实时运动效果,进而实现检测物体的实时运动目标追踪。
进一步,WebAR增强现实系统包括:
实时视频流处理模块,用于在浏览器打开移动智能终端的摄像头,获取实时视频流,并对视频流进行处理;
深度神经网络系统,用于物体图像的检测识别、分割以及实时追踪;
视频帧背景填充模块,用于对深度神经网络模块实例分割出来的物体进行实时背景填充,用于实现消弱现实Diminished Reality(DR)的效果;
2D图像变形处理模块,用于对深度神经网络模块实例分割出来的物体进行变形处理,让实时视频流中的静态物体动起来;
增强现实互动模块,用于借助显示设备将虚拟对象与真实环境融为一体,并呈现给用户一个感官效果真实的新环境;
WebAR开发框架,用于轻松将应用场景展现到用户视野里,Web端天然的跨平台优势,能极大地节省企业开发的成本与时间;
移动目标追踪、多目标追踪,用于实时寻找获取各个目标物体的位置信息;
对截取的物体视频流图像进行:
先将物体经过深度神经网络算法从视频图像中剔除,获取该物体外观形象,赋予动画和其他功能,然后叠加现实到视频图像中与视频图像进行同步显示;
进一步,深度神经网络系统包括:
图像分类识别模块,通过tensorflow+vgg16进行用于对截取的视频流图像进行识别及分类处理;
物体实例分割模块,通过深度神经网络模型,可以采用Mask R-CNN、Poolnet或U^2-Net等模型,把目标物体从截取的视频流图像中分割出来,获取每个目标物体的像素,后面接一个分类网络,进行物体检测识别;
移动端3D物体实时追踪模块:通过相关滤波技术,提取目标的特征,寻找最大的响应点即为要追踪目标的新位置,对3D物体进行实时追踪。
进一步,WebAR开发框架包括:
2D物体智能动画模块:
对分割出来的图像进行变形与卡通图像舞蹈编排,让2d图像灵活动起来。
本发明的另一目的在于提供一种基于3D物体检测识别与运动目标追踪的WebAR处理方法包括:
步骤一,对3D物体进行检测识别与实例分割,采用深度神经网络模型对视频帧进行目标检测与实例分割,获取每个目标物体Mask像素;
深度神经网络模型后再接一个细分类模型对检测到的目标进行精细分类,获取物体的品牌、型号信息。
步骤二,对3D物体进行实时追踪,根据目标检测、实例分割与细分类的结果,确定追踪目标;
步骤三,基于图像帧、追踪目标Mask、以及目标追踪算法(采用但不限于Mosse或KCF算法)计算出追踪目标区域、目标在首帧的位置、以及匹配模板;
步骤四,对后续的视频帧,从目标区内提取图像进行图像识别匹配,计算出物体所在位置;目标区域内从左到右、从上到下进行计算,计算之后,每个位置得到一个值,该值最大的地方即为目标区域的位置中心;如果最大值小于设定的阈值,则认为目标追丢,不更新目标位置与匹配模板。
步骤五,根据中心重新调整目标位置,重新计算匹配模板。
进一步,步骤一中,对检测到的目标进行精细分类方法包括:
(1)利用目标检测与实例分割模型对物体进行粗分类,精细分类识别模块针对实例分割的结果进行细分类,识别出物体的具体品牌、型号、容积详细信息,为增强现实内容展示与交互提供支撑。
(2)采用大规模图像检索技术对实例分割的结果进行细分类,采用文本识别技术对细分类的结果进行确认,并进一步细分。
本发明的另一目的在于提供一种存储在计算机可读介质上的计算机程序产品,包括计算机可读程序,供于电子装置上执行时,提供用户输入接口以实施所述的基于3D物体检测识别与运动目标追踪的WebAR处理方法。
本发明中对3D物体进行检测识别的操作包括:
步骤一,利用相机截取一帧视频流图像;
步骤二,通过图像分割模块进行视频帧图像分类,先将识别到的物体从图像中分离出来,之后抓取目标物体的像素;
步骤三,再给出分类模型,通过物体检测识别模块从图像中精确识别到目标物体;
步骤四,背景填充,通过填充算法将被剥离物体的图像尽可能恢复至原貌;
步骤五,重新进行特效组合,并给剥离出来的物体赋予动画。
进一步,所述的基于3D物体检测识别与运动目标追踪的AR处理方法进一步包括对3D物体进行实时追踪,所述对3D物体进行实时追踪的方法包括:
第一步,创建目标追踪模板
第二步,读取视频流信息,并获取视频流第一帧图像输入到模板
第三步,可以采用类似kcf的追踪器算法计算出首帧图像中物体所在位置并框取目标区(ROI),标定目标区中心区域;
第四步,提取视频流后续的视频帧,导入追踪模板。第一帧目标区保留不变
第五步,从目标区内提取图像进行图像识别匹配,计算出物体边缘所在位置;目标区域内从左到右、从上到下进行计算,计算之后,每个位置得到一个值,该值最大的地方即为目标区域的中心位置;
第六步,根据中心重新调整目标区位置,重新计算匹配模板。
本发明的另一目地在于提供一种基于WebAR跨平台AR的技术解决方案,支持在各类设备、平台下流畅运行。
综上所述,本发明的优点及积极效果为:
本发明将增强现实(AR)与人工智能(AI)相结合,让静态物体动起来,让人与现实物体进行互动,而并非虚拟的对象。对比苹果ARKit和谷歌ARKCore,本发明无需安装APP,通过浏览器即可快速体验人与现实物体的互动;对比谷歌Google Glass、微软HoloLens、Magic Leap One,本发明无需购买昂贵的设备,使用普通的千元机即可体验到与众不同的AR;具体结果可参考附图7,附图8和附图9。
附图说明
图1是本发明实施例提供的基于3D物体检测识别与运动目标追踪的WebAR处理系统示意图。
图2是本发明实施例提供的基于3D物体检测识别与运动目标追踪的WebAR处理系统原理图。
图3是本发明实施例提供的基于3D物体检测识别与运动目标追踪的WebAR处理方法流程图。
图4是本发明实施例提供的基于3D物体检测识别与运动目标追踪的WebAR处理方法原理图。
图5是本发明实施例提供的移动端3D物体运动追踪技术细节示意图。
图6是本发明实施例提供的基于3D物体检测识别与运动目标追踪的WebAR处理方法的实现效果图。
图7是本发明实施例提供的实施例1的基于AR+AI的相机体验app界面。
图8是本发明实施例提供的实施例2的WebAPP应用之AR碰碰乐的界面。
图9是本发明实施例提供的实施例3的WebAPP应用之AR消消乐的界面。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
现有技术中,构置的只是一个虚拟的三维空间,用户只能与虚拟3D对象交互。价格昂贵,并不实用。
针对现有技术存在的问题,本发明提供了一种基于3D物体检测识别与运动目标追踪的AR处理方法,下面结合附图对本发明作详细的描述。
如图1所示,本发明实施例提供的基于3D物体检测识别与运动目标追踪的WebAR处理系统,包括:
神经网络系统(AI),用于物体图像的检测识别、分割以及实时追踪。
增强现实系统(WebAR),与神经网络系统结合,用于对截取的物体视频流图像进行:2D物体动画处理。
如图2所示,作为本发明优选实施例,神经网络系统包括:
图像分类识别模块,用于对截取的视频流图像进行识别及分类处理。
物体检测识别模块,用于对截取的视频流图像进行检测识别。
实例分割DR模块:利用削弱现实技术切割图像,将识别到的物体从图像中分离出来,实施分割DR。
移动端3D物体实时追踪模块:对3D物体进行实时追踪。
作为本发明优选实施例,增强现实系统包括:
2D物体智能动画模块:
第一移动端WebAR实时视频流模块,用于实现WebAR实时视频流。
第二移动端WebAR实时视频流模块,用于实现WebAR实时视频流。
在本发明实施例中,如图3所示,基于3D物体检测识别与运动目标追踪的WebAR处理方法包括:
S101:利用相机截取一帧视频流图像。
S102:通过图像分割模块进行视频帧图像分类,先将识别到的物体从图像中分离出来,之后抓取目标物体的像素。
S103:再给出分类模型,通过物体检测识别模块从图像中精确识别到目标物体;
S104:背景填充,通过填充算法将被剥离物体的图像尽可能恢复至原貌。
S105:重新进行特效组合,并给剥离出来的物体赋予动画。
图4是本发明实施例提供的基于3D物体检测识别与运动目标追踪的WebAR处理方法原理图。
作为优选实施例,本发明中对3D物体进行检测识别的操作包括:
步骤一,利用相机截取一帧视频流图像。
步骤二,通过图像分割模块进行视频帧图像分类,先将识别到的物体从图像中分离出来,之后抓取目标物体的像素。
步骤三,再给出分类模型,通过物体检测识别模块从图像中精确识别到目标物体。
步骤四,背景填充,通过填充算法将被剥离物体的图像尽可能恢复至原貌。
步骤五,重新进行特效组合,并给剥离出来的物体赋予动画。
如图5所示,本发明实施例提供的基于3D物体检测识别与运动目标追踪的AR处理方法进一步包括:
第一步,输入图像并通过图像识别及kcf算法计算出图像首帧位置,在首帧模板中框取目标区。
第二步,从目标区内提取图像进行图像识别匹配,计算出物体所在位置。目标区域内从左到右、从上到下进行计算,计算之后,每个位置得到一个值,该值最大的地方即为目标区域的位置中心。
第三步,根据该中心重新调整目标位置,重新计算匹配模板。
作为优选实施例,本发明对3D物体进行实时追踪的方法包括:
第1步,创建目标追踪模板。
第2步,读取视频流信息,并获取视频流第一帧图像输入到模板。
第3步,例用kcf追踪器算法计算出首帧图像中物体所在位置并框取目标区(ROI),标定目标区中心区域。
第4步,提取视频流后续的视频帧,导入追踪模板。第一帧目标区保留不变。
第5步,从目标区内提取图像进行图像识别匹配,计算出物体边缘所在位置;目标区域内从左到右、从上到下进行计算,计算之后,每个位置得到一个值,该值最大的地方即为目标区域的中心位置。
第6步,根据中心重新调整目标区位置,重新计算匹配模板。
下面结合具体实施例对本发明作进一步描述。
实施例1
如图6,本发明实施例提供的基于3D物体检测识别与运动目标追踪的WebAR处理方法的实现效果图。
本发明实施例提供的基于基于3D物体检测识别与运动目标追踪的WebAR处理系统具体应用包括:
AR魔瓶,一款基于AR+AI的相机体验app。
如图7所示,基于DeepAR技术开发的一款让静态瓶子跳舞的应用,通过实例分割技术将物品剥离从图像中剥离出来,制作成另一个视频流,然后将两个视频流融合在一起,从而让瓶子跳起舞来。
实施例2
本发明实施例提供的基于3D物体检测识别与运动目标追踪的AR处理系统具体应用包括:
WebAPP应用:AR碰碰乐。
如图8所示,基于DeepAR制作的一款小游戏,通过实例分割将瓶子剥离出来随机散播到屏幕任意位置,然后使用3D物体追踪技术来追踪玩家手中的瓶子,当玩家手中的瓶子撞击到屏幕上的其它瓶子即可得分。
实施例3
本发明实施例提供的基于3D物体检测识别与运动目标追踪的AR处理系统具体应用包括:
WebAPP应用:AR消消乐。
如图9所示,基于DeepAR制作的一款小游戏,通过物体追踪追踪瓶子的移动轨迹,手持瓶子,在屏幕随意横向或纵向移动,在移动过程中,移动轨迹里会自动生成相同的瓶子(通过实例分割技术创造出来的),向回移动碰撞到已生成的饮料瓶会得到积分,一次性碰撞到越多的饮料瓶,积分会根据饮料瓶的数量成倍增加。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用全部或部分地以计算机程序产品的形式实现,所述计算机程序产品包括一个或多个计算机指令。在计算机上加载或执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输)。所述计算机可读取存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘SolidState Disk(SSD))等。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于物体检测识别与运动目标追踪的WebAR处理系统,其特征在于,所述基于物体检测识别与运动目标追踪的WebAR处理系统包括:
深度神经网络系统,用于物体图像的检测识别、实例分割、细分类识别;
运动目标追踪系统,采用计算机视觉的相关滤波技术对视频中的物体进行追踪;
WebAR增强现实系统,结合深度神经网络系统有运动目标追踪系统,与视频中实例分割的物体进行增强现实互动。
2.如权利要求1所述的基于物体检测识别与运动目标追踪的WebAR处理系统,其特征在于,深度神经网络系统包括:
物体检测模块,用于对视频流图像帧进行物体检测,检测出可以识别的物体;
实例分割模块,用于对视频流图像帧进行物体实例分割,检测出可以识别的物体,并将识别到的物体从图像中分离出来,获取分割物体对象的Mask;
分类识别模块,针对物体检测模块或实例分割模块获取的物体对象,进行精细分类识别,识别出物体的具体类别。
3.如权利要求1所述的基于物体检测识别与运动目标追踪的WebAR处理系统,其特征在于,运动目标追踪系统包括:
移动端3D物体实时追踪模块,基于计算机视觉的相关滤波技术,针对深度神经网络模块检测出来的物体,在实时视频流中进行运动目标追踪;既可以通过移动现实世界中物体,也可以通过移动智能手机摄像头,或者两者同时移动,来实现深度神经网络模块检测物体的实时运动效果,进而实现检测物体的实时运动目标追踪。
4.如权利要求1所述的基于物体检测识别与运动目标追踪的WebAR处理系统,其特征在于,WebAR增强现实系统包括:
实时视频流处理模块,用于在浏览器打开移动智能终端的摄像头,获取实时视频流,并对视频流进行处理;
视频帧背景填充模块,用于对深度神经网络模块实例分割出来的物体进行实时背景填充,用于实现消弱现实Diminished Reality(DR)效果;
2D图像变形处理模块,用于对深度神经网络模块实例分割出来的物体进行变形处理,让实时视频流中的静态物体动起来;
增强现实互动模块,用于借助显示设备将虚拟对象与真实环境融为一体。
5.一种如权利要求1~4任意一项所述基于物体检测识别与运动目标追踪的WebAR处理系统的基于3D物体检测识别与运动目标追踪的WebAR处理方法,其特征在于,所述基于3D物体检测识别与运动目标追踪的WebAR处理方法包括:
步骤一,对3D物体进行检测识别与实例分割,采用深度神经网络对视频帧进行目标检测与实例分割,获取每个目标物体Mask像素;
深度神经网络模型后再接一个细分类模型对检测到的目标进行精细分类,获取物体的品牌、型号等信息。
步骤二,对3D物体进行实时追踪,根据目标检测、实例分割与细分类的结果,确定追踪目标;
步骤三,基于图像帧、追踪目标Mask、以及目标追踪算法计算出追踪目标区域、目标在首帧的位置、以及匹配模板;
步骤四,对后续的视频帧,从目标区内提取图像进行图像识别匹配,计算出物体所在位置;目标区域内从左到右、从上到下进行计算,计算之后,每个位置得到一个值,该值最大的地方即为目标区域的位置中心;如果最大值小于设定的阈值,则认为目标追丢,不更新目标位置与匹配模板。
步骤五,根据中心重新调整目标位置,重新计算匹配模板。
6.如权利要求5中所述的基于3D物体检测识别与运动目标追踪的WebAR处理方法,其特征在于,步骤一中,对检测到的目标进行精细分类方法包括:
(1)利用目标检测与实例分割模型对物体进行粗分类,精细分类识别模块针对实例分割的结果进行细分类,识别出物体的具体品牌、型号、容积详细信息;
(2)采用大规模图像检索技术对实例分割的结果进行细分类,采用文本识别技术对细分类的结果进行确认,并进一步细分。
7.一种存储在计算机可读介质上的计算机程序产品,包括计算机可读程序,供于电子装置上执行时,提供用户输入接口以实施如权利要求5-6任意一项所述的基于3D物体检测识别与运动目标追踪的WebAR处理方法。
8.一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如权利要求5-6任意一项所述的基于3D物体检测识别与运动目标追踪的WebAR处理方法。
9.一种实现权利要求5-6任意一项所述的基于3D物体检测识别与运动目标追踪的WebAR处理方法的智能AR设备。
CN202011521009.9A 2020-12-21 2020-12-21 基于3D检测识别与运动目标追踪的WebAR处理方法 Active CN112633145B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011521009.9A CN112633145B (zh) 2020-12-21 2020-12-21 基于3D检测识别与运动目标追踪的WebAR处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011521009.9A CN112633145B (zh) 2020-12-21 2020-12-21 基于3D检测识别与运动目标追踪的WebAR处理方法

Publications (2)

Publication Number Publication Date
CN112633145A true CN112633145A (zh) 2021-04-09
CN112633145B CN112633145B (zh) 2024-04-26

Family

ID=75320372

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011521009.9A Active CN112633145B (zh) 2020-12-21 2020-12-21 基于3D检测识别与运动目标追踪的WebAR处理方法

Country Status (1)

Country Link
CN (1) CN112633145B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831401A (zh) * 2012-08-03 2012-12-19 樊晓东 对无特定标记目标物体跟踪、三维叠加及交互的方法及系统
US20160180590A1 (en) * 2014-12-23 2016-06-23 Lntel Corporation Systems and methods for contextually augmented video creation and sharing
CN107103615A (zh) * 2017-04-05 2017-08-29 合肥酷睿网络科技有限公司 一种监控视频目标锁定追踪系统及锁定追踪方法
CN107450714A (zh) * 2016-05-31 2017-12-08 大唐电信科技股份有限公司 基于增强现实和图像识别的人机交互支撑测试系统
US20180082430A1 (en) * 2016-09-21 2018-03-22 Verizon Patent And Licensing Inc. Feature tracking and dynamic feature addition in an augmented reality environment
CN109446929A (zh) * 2018-10-11 2019-03-08 浙江清华长三角研究院 一种基于增强现实技术的简笔画识别系统
CN109977833A (zh) * 2019-03-19 2019-07-05 网易(杭州)网络有限公司 物体追踪方法、物体追踪装置、存储介质及电子设备
CN110443898A (zh) * 2019-08-12 2019-11-12 北京枭龙科技有限公司 一种基于深度学习的ar智能终端目标识别系统及方法
US20200012854A1 (en) * 2017-09-08 2020-01-09 Tencent Technology (Shenzhen) Company Ltd Processing method for augmented reality scene, terminal device, system, and computer storage medium
CN111161312A (zh) * 2019-12-16 2020-05-15 重庆邮电大学 一种基于计算机视觉的物体轨迹追踪识别装置及系统

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831401A (zh) * 2012-08-03 2012-12-19 樊晓东 对无特定标记目标物体跟踪、三维叠加及交互的方法及系统
US20160180590A1 (en) * 2014-12-23 2016-06-23 Lntel Corporation Systems and methods for contextually augmented video creation and sharing
CN107450714A (zh) * 2016-05-31 2017-12-08 大唐电信科技股份有限公司 基于增强现实和图像识别的人机交互支撑测试系统
US20180082430A1 (en) * 2016-09-21 2018-03-22 Verizon Patent And Licensing Inc. Feature tracking and dynamic feature addition in an augmented reality environment
CN107103615A (zh) * 2017-04-05 2017-08-29 合肥酷睿网络科技有限公司 一种监控视频目标锁定追踪系统及锁定追踪方法
US20200012854A1 (en) * 2017-09-08 2020-01-09 Tencent Technology (Shenzhen) Company Ltd Processing method for augmented reality scene, terminal device, system, and computer storage medium
CN109446929A (zh) * 2018-10-11 2019-03-08 浙江清华长三角研究院 一种基于增强现实技术的简笔画识别系统
CN109977833A (zh) * 2019-03-19 2019-07-05 网易(杭州)网络有限公司 物体追踪方法、物体追踪装置、存储介质及电子设备
CN110443898A (zh) * 2019-08-12 2019-11-12 北京枭龙科技有限公司 一种基于深度学习的ar智能终端目标识别系统及方法
CN111161312A (zh) * 2019-12-16 2020-05-15 重庆邮电大学 一种基于计算机视觉的物体轨迹追踪识别装置及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杨辞源;吴诗中;: "目标识别与追踪技术在AR设备上的应用及发展研究", 工业设计, no. 06, 20 June 2018 (2018-06-20), pages 13 - 15 *

Also Published As

Publication number Publication date
CN112633145B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
US11587297B2 (en) Virtual content generation
US10761612B2 (en) Gesture recognition techniques
Memo et al. Head-mounted gesture controlled interface for human-computer interaction
US20180088663A1 (en) Method and system for gesture-based interactions
US20190294860A1 (en) Methods and apparatuses for detecting face, and electronic devices
US9501140B2 (en) Method and apparatus for developing and playing natural user interface applications
CN110622219B (zh) 交互式增强现实
CN110610453A (zh) 一种图像处理方法、装置及计算机可读存储介质
JP2011159329A (ja) 自動3dモデリングシステム及び方法
CN111491187A (zh) 视频的推荐方法、装置、设备及存储介质
CN115796963A (zh) 基于时间-空间关系的mr内容定位
US10976829B1 (en) Systems and methods for displaying augmented-reality objects
US11169603B2 (en) Electronic apparatus and method for recognizing view angle of displayed screen thereof
CN113269781A (zh) 数据生成方法、装置及电子设备
CN112633145B (zh) 基于3D检测识别与运动目标追踪的WebAR处理方法
CN111651054A (zh) 音效控制方法、装置、电子设备及存储介质
CN113963355B (zh) Ocr文字识别方法、装置、电子设备及存储介质
US11224801B2 (en) Enhanced split-screen display via augmented reality
CN112416114B (zh) 电子装置及其画面视角识别方法
TWI762830B (zh) 透過擴增實境給予提示以播放接續影片之系統及方法
Piechaczek et al. Popular strategies and methods for using augmented reality
Cavazza et al. User interaction in mixed reality interactive storytelling
CN112580622A (zh) 基于反光设备的交互方法、装置、存储介质及反光设备
CN110794959A (zh) 一种基于图像识别的手势交互ar投影方法及装置
Malerczyk Gestural interaction using feature classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230313

Address after: Room 103, Floor 1, 1-4, Building C2, Phase 1-2, Guanggu Enterprise Mansion, No. 1, Guanshan Avenue, Donghu New Technology Development Zone, Wuhan City, Hubei Province, China 366, Kazuo District

Applicant after: WUHAN XUSHI TECHNOLOGY CO.,LTD.

Applicant after: WUHAN University

Address before: No. 366, kasuo District, room 103, floor 1-4, C2 building, Optical Valley Enterprise Mansion, phase 1.2, 1 Guanshan Avenue, Donghu New Technology Development Zone, Wuhan City, Hubei Province, 430062

Applicant before: WUHAN XUSHI TECHNOLOGY CO.,LTD.

GR01 Patent grant
GR01 Patent grant