CN106980371B - 一种基于临近异构分布式结构的移动增强现实交互方法 - Google Patents
一种基于临近异构分布式结构的移动增强现实交互方法 Download PDFInfo
- Publication number
- CN106980371B CN106980371B CN201710183647.6A CN201710183647A CN106980371B CN 106980371 B CN106980371 B CN 106980371B CN 201710183647 A CN201710183647 A CN 201710183647A CN 106980371 B CN106980371 B CN 106980371B
- Authority
- CN
- China
- Prior art keywords
- instruction
- frame
- mobile terminal
- carried out
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于临近异构分布式结构的移动增强现实交互方法,属于图像处理和增强现实领域。本发明对移动端采集的视频流进行分级处理,一部分通过近距离无线传输给指令识别服务器,由指令识别服务器依次确定每帧的指令类型并回传给移动端,其中确定每帧的指令类型具体为:对每帧的肤色区域进行轮廓检测,将轮廓检测结果作为指令特征值,通过预先构建的指令分类器查询匹配的指令类型值;另一部分通过移动端本地的计算资源进行图像的三维注册和标定指令显示区域,将对应每帧指令类型值的虚拟物体叠加融合到每帧图像的指令显示区域,从而能够在移动端实时准确的完成AR虚拟场景与真实物体之间的交互。
Description
技术领域
本发明属于图像处理和增强现实技术领域,具体涉及一种基于临近异构分布式结构的移动增强现实交互方法。
背景技术
增强现实技术的应用场景非常广泛,针对增强现实的技术引擎技术也在突飞猛进,比如AR(Augmented Realit)。
同时鉴于复杂的应用场景,良好的人机交互也是必不可少的一部分,AR的应用场景本身已经极为复杂,在复杂场景中对模型的标定已经有很繁重的计算量,同时要在复杂场景中提取指令像素并进行指令匹配已经是捉襟见肘。
在视觉方面,基于开源计算机视觉库OpenCV(Open Source Computer VisionLibrary)的手势识别技术也在突飞猛进,然而性能和效率往往不能兼得,每一种识别算法都存在比较强的环境依赖性,可靠性不能够得到保证,如何协调好各种算法的优点,也是当今的一大难题。
现在的增强现实技术都是在一个终端同时实现特征提取、模板匹配以及图像融合。即各种运算通过单个CPU和GPU进行,运算量极大,移动设备资源根本无法完全兼顾特征提取和模板匹配。这就给移动端的增强现实显示提供了阻力。
发明内容
本发明所要解决的技术问题是提供一种基于OpenCV指令识别,临近异构分布式结构的移动端增强现实交互方法,本发明通过肤色提取、指令集匹配,异端处理实现对摄入的视频流做出实时的交互响应,利用总线近场通信模型,提高处理的高速性、实时性,提供符合应用场景所需的交互方法。
本发明的基于临近异构分布式结构的移动增强现实交互方法包括下列步骤:
首先,移动终端将采集的视频流以切片的方式存储到本地,并将采集的视频流发送给一个临近异构识别处理装置(临近异构识别处理装置为预置的能与移动终端进行通信的指令识别服务器,当移动终端进入到临近异构识别处理装置的通信范围内,则能实现通信,当存在多个可通信的临近异构识别处理装置时,任意选择其中一个即可),移动终端和收到的视频流的临近异构识别处理装置分别进行下述处理:
移动终端执行下述步骤A1~A2:
步骤A1:计算屏幕坐标:
根据公式X′=[R|t]*X得到摄像机坐标X′,其中R为移动终端的摄像装置的外参旋转矩阵,t是平移向量,X是世界坐标,符号“丨”表示矩阵分块;
然后根据公式得到屏幕坐标其中C为移动终端的摄像装置的内参矩阵,从而完成坐标系的转换工作;
步骤A2:对视频流的帧图像进行二值化处理,再对各二值图像进行连通域分析,将连通域中的四边行区域作为候选区域,将每一个候选区域与本地预置的目标对象(目标对象设置为矩形图像块)进行图像匹配,将与目标对象匹配的候选区域作为每帧的标识区域;
若标识区域不是矩形,则基于屏幕坐标对其进行坐标变换,得到矩形的标识区域。
临近异构识别处理装置执行下述步骤B1~B2:
步骤B1:构建指令分类器:以不同的手势图像作为训练样本,对训练样本进行轮廓检测,将轮廓检测结果作为指令模型样本值,基于指令模型样本值构建关于手势与指令类型的分类器;
步骤B2:依次确定接收的视频流每帧的指令类型值并回传给移动终端;
其中每帧的指令类型值确定方式为:
对视频流的帧图像进行肤色提取处理,得到肤色区域;再对肤色区域进行轮廓检测,将轮廓检测结果作为指令特征值;
通过指令分类器对当前帧的指令特征值进行指令类型匹配,并将第一个匹配结果作为当前帧的指令类型值;
最后,移动终端基于本地预置的指令类型值与虚拟物体的映射关系,将对应每帧的指令类型值的虚拟物体叠加到当前帧的标识区域内,即将虚拟物体以图像融合的方式叠加到当前帧的各标识区域内,生成交互视频流。
本发明的有效效果为:本发明提供了一源输入,多端处理,同端输出,临近异构模型的增强现实交互方法,整合近场闲置资源,为高、精的识别过程提供充足的运算环境,对移动端本身来说,图像指令的提取是一个透明的过程;结合开源的AR处理的框架,能够快速在移动端搭建虚拟模型,从而能够实时准确的完成AR虚拟场景与真实物体之间的交互。
附图说明
图1:本发明具体实施过程示意图;
图2:临近异构识别处理装置的组成框架示意图。
具体实施方式
为了让发明的目的、方案以及其优势显现的更加清楚,下面结合实施方式和附图,对本发明进行进一步的阐述:
参见图1,基于OpenCV实现本发明的基于临近异构分布式结构的移动增强现实交互方法,其具体的包括下列步骤:S1:临近异构模式搭建:将移动端(如手机)和临近异构识别处理装置(指令识别服务器)放在同一个本地网络域下,以确保能被互相发现。移动端和指令识别服务器搭建自己的路由(Router),两个路由负责进行通信交互,即移动端和指令识别服务器通过近距离无线传输方式AllJoyn实现广播和发现服务。其中指令识别服务器的单元结构如图2所示,包括主处理进程、服务架构层、基础核心库、AllJoyn路由和操作系统,主处理进程用于实现服务主运算;服务架构层是基于基础核心库组成的基础服务,为上层提供基础组件;基础核心库提供最底层的基础核心运算;AllJoyn路由用于实现与移动端的近距离无线传输。
S2:移动端采集视频流并以切片的方式存储到本地(如利用开源AR框架ARToolKit,设定一个固定的图像分割阈值,通过此图像分割阈值对视频流的每一帧进行分割,得到帧图像。),同时将采集的视频流通过近距离无线传输给一个指令识别服务器,移动终端和收到的视频流的指令识别服务器分别进行下述处理:
S3:指令识别服务器依次提取接收视频流每帧的指令类型值:
S3-1:对视频流的帧图像进行肤色提取处理,得到肤色区域:
肤色提取即肤色检测,是利用肤色YCbCr颜色空间色彩模型进行提取,人的肤色在外观上的差异是由色度引起的,不同人的肤色分布集中在较小的区域内。肤色的YCbCr颜色空间CbCr平面分布在近似的椭圆区域内,通过判断当前像素点的CbCr值是否落在肤色分布的椭圆区域内,就可以确认当前像素点是否属于肤色。
因为移动端拍摄的图像基本都为RGB颜色空间,故首先将帧图像转换成YcbCr颜色空间,并且在CbCr平面进行投影,再进行非线性变换K-L变换。根据肤色模型对像素点进行筛选得到肤色区域,并将肤色区域均分为多个子区域,将各子区域的中心点的CbCr色度值作为当前子区域的特征值,对肤色区域像素值进行遍历,将各子区域的CbCr色度值替换为当前子区域的特征值。
S3-2:对得到的肤色区域的图像进行凸包检测,首先对图像进行去噪和灰度化处理,设置轮廓检测参数,进行阈值化操作,然后利用findContours进行轮廓检测,检测输出结果为vector<vector<Vec4i>>,其中vector是一种向量存储数据集合,Vec4i存储了起始点、结束点、距离以及最远点到凸包的距离。凸包检测会得到多个凸包缺陷,每一个凸包缺陷由N个Vec4i进行描述,据此形成一个指令特征值。
S3-3:基于预先构建的指令分类器对当前帧的指令特征值进行指令类型匹配,并将第一个匹配结果作为当前帧的指令类型值,即若当前帧存在多个指令特征值,则串行对各指令特征值进行分类匹配处理,每次从未匹配的指令特征值中任意选取一个,直到得到匹配结果则向移动端返回当前帧的指令类型值。
其中构建的指令分类器的具体过程为:
首先,以不同的手势图像作为训练样本,对训练样本进行轮廓检测,将轮廓检测结果作为指令模型样本值。
其中轮廓检测具体为:对训练样本图像进行凸包检测,首先对图像进行去噪和灰度化处理,设置轮廓检测参数,进行阈值化操作,然后利用findContours进行轮廓检测,检测输出结果为vector<vector<Vec4i>>,其中vector是一种向量存储数据集合,其中Vec4i存储了起始点、结束点、距离以及最远点到凸包的距离。凸包检测会得到多个凸包缺陷,每一个凸包缺陷由N个Vec4i进行描述,据此形成一个指令模型样本描述符,即指令模型样本值。
然后,基于得到的指令模型样本值构建关于手势与指令类型的分类器。
S4:移动端的AR成像。
S4-1:摄像头参数初始化,包括焦距、光圈、像素等;导入预设置的目标对象文件,即由多个目标对象图像(矩形图像块)构成的文件;
S4-2:计算屏幕坐标(即图像的三维坐标注册):
根据公式X′=[R|t]*X得到摄像机坐标X′,其中R为移动终端的摄像装置的外参旋转矩阵,t是平移向量,X是世界坐标,符号“丨”表示矩阵分块;
然后根据公式得到屏幕坐标其中C为移动终端的摄像装置的内参矩阵(基于摄像头参数获得),从而完成坐标系的转换工作;
S4-3:对本地存储的帧图像进行二值化处理,再对各二值图像进行连通域分析,将连通域中的四边行区域作为候选区域,将每一个候选区域与目标对象图像进行图像匹配,将与目标对象匹配的候选区域作为帧图像的标识区域,并对帧图像的标识区域中的非矩形基于屏幕坐标对其进行坐标变换,变换为矩形的标识区域,即最终得到的帧图像的标识区域均为矩形区域,以用于对应的指令类型。
其中匹配标识区域具体为:假设有n幅关于目标对象的图像,其中各目标对象包括m个标定点,产生评价函数:其中,A是增益向量,mij为第j个标定点在第i幅图像中的像素点;Ri为第i幅图像的旋转矩阵;ti为第i幅图像的平移向量;Mj为第j个标定点的空间坐标;m(A,k1,k2,k3,p1,p2,Ri,ti,Mj)是通过已知量求得的像素点坐标,k1,k2,k3,p1,p2为非线性畸变系数。利用Levenberg Marquara算法求解上述关于评价函数c的非线性最小二乘问题。
S4-4:移动端基于本地预设的指令类型值与虚拟物体(标识物体)的映射关系,根据收到的当前帧的指令类型值查找对应的标识物体,并根据S4-3得到的标识区域相对矩形的形变,确定相机针对标识物体的具体姿态,将标识物体叠加融合到当前帧的所有标识区域内,得到真实图像与虚拟物体融合的帧图像;
S5:移动端开启监听指令识别服务器的服务,当接收到的指令类型值出现变化时,查找与之匹配的虚拟物体,否则继续基于当前虚拟物体和标识区域坐标变化加载虚拟物体的坐标,实现操作虚拟模型的目的。
Claims (1)
1.一种基于临近异构分布式结构的移动增强现实交互方法,其特征在于,包括下列步骤:
移动终端将采集的视频流以切片的方式存储到本地,并将采集的视频流发送给一个临近异构识别处理装置;
移动终端执行步骤A1~A2:
步骤A1:根据公式得到屏幕坐标其中C、R分别表示移动终端的摄像装置的内参矩阵、外参旋转矩阵,t表示平移向量,X表示世界坐标;
步骤A2:对视频流的帧图像进行二值化处理,再对各二值图像进行连通域分析,将连通域中的四边行区域作为候选区域,将每一个候选区域与本地预置的目标对象进行图像匹配,将与目标对象匹配的候选区域作为每帧的标识区域;
若标识区域不是矩形,则基于屏幕坐标对其进行坐标变换,得到矩形的标识区域;
临近异构识别处理装置执行下述步骤B1~B2:
步骤B1:构建指令分类器:以不同的手势图像作为训练样本,对训练样本进行轮廓检测,将轮廓检测结果作为指令模型样本值,基于指令模型样本值构建关于手势与指令类型的分类器;
步骤B2:依次确定接收的视频流每帧的指令类型值并回传给移动终端;
其中每帧的指令类型值确定方式为:
对视频流的帧图像进行肤色提取处理,得到肤色区域;再对肤色区域进行轮廓检测,将轮廓检测结果作为指令特征值;
通过指令分类器对当前帧的指令特征值进行指令类型匹配,并将第一个匹配结果作为当前帧的指令类型值;
最后,移动终端基于本地预置的指令类型值与虚拟物体的映射关系,将对应每帧的指令类型值的虚拟物体叠加到当前帧的标识区域内。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710183647.6A CN106980371B (zh) | 2017-03-24 | 2017-03-24 | 一种基于临近异构分布式结构的移动增强现实交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710183647.6A CN106980371B (zh) | 2017-03-24 | 2017-03-24 | 一种基于临近异构分布式结构的移动增强现实交互方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106980371A CN106980371A (zh) | 2017-07-25 |
CN106980371B true CN106980371B (zh) | 2019-11-05 |
Family
ID=59338430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710183647.6A Expired - Fee Related CN106980371B (zh) | 2017-03-24 | 2017-03-24 | 一种基于临近异构分布式结构的移动增强现实交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106980371B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108595005A (zh) * | 2018-04-20 | 2018-09-28 | 深圳市天轨年华文化科技有限公司 | 基于增强现实的交互方法、装置及计算机可读存储介质 |
CN108830804B (zh) * | 2018-05-23 | 2023-03-10 | 长春理工大学 | 基于线扩展函数标准差的虚实融合模糊一致性处理方法 |
CN109191586A (zh) * | 2018-08-23 | 2019-01-11 | 昆明理工大学 | 一种基于感知的增强现实交互方法 |
CN112418024A (zh) * | 2020-11-10 | 2021-02-26 | 北京五八信息技术有限公司 | 一种目标识别方法、装置、移动终端及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103035003A (zh) * | 2012-12-11 | 2013-04-10 | 华为技术有限公司 | 一种实现增强现实的方法及装置 |
CN103561065A (zh) * | 2013-10-22 | 2014-02-05 | 深圳市优逸电子科技有限公司 | 一种利用移动终端实现3d虚拟广告的系统及其方法 |
CN104240277A (zh) * | 2013-06-24 | 2014-12-24 | 腾讯科技(深圳)有限公司 | 基于人脸检测的增强现实交互方法和系统 |
CN104680127A (zh) * | 2014-12-18 | 2015-06-03 | 闻泰通讯股份有限公司 | 手势识别方法及系统 |
CN106101689A (zh) * | 2016-06-13 | 2016-11-09 | 西安电子科技大学 | 利用手机单目摄像头对虚拟现实眼镜进行增强现实的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI395145B (zh) * | 2009-02-02 | 2013-05-01 | Ind Tech Res Inst | 手勢辨識系統及其方法 |
-
2017
- 2017-03-24 CN CN201710183647.6A patent/CN106980371B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103035003A (zh) * | 2012-12-11 | 2013-04-10 | 华为技术有限公司 | 一种实现增强现实的方法及装置 |
CN104240277A (zh) * | 2013-06-24 | 2014-12-24 | 腾讯科技(深圳)有限公司 | 基于人脸检测的增强现实交互方法和系统 |
CN103561065A (zh) * | 2013-10-22 | 2014-02-05 | 深圳市优逸电子科技有限公司 | 一种利用移动终端实现3d虚拟广告的系统及其方法 |
CN104680127A (zh) * | 2014-12-18 | 2015-06-03 | 闻泰通讯股份有限公司 | 手势识别方法及系统 |
CN106101689A (zh) * | 2016-06-13 | 2016-11-09 | 西安电子科技大学 | 利用手机单目摄像头对虚拟现实眼镜进行增强现实的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106980371A (zh) | 2017-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111179324B (zh) | 基于颜色和深度信息融合的物体六自由度位姿估计方法 | |
CN109886312B (zh) | 一种基于多层特征融合神经网络模型的桥梁车辆车轮检测方法 | |
CN106980371B (zh) | 一种基于临近异构分布式结构的移动增强现实交互方法 | |
CN113609896B (zh) | 基于对偶相关注意力的对象级遥感变化检测方法及系统 | |
CN105405154A (zh) | 基于颜色-结构特征的目标对象跟踪方法 | |
CN110110755B (zh) | 基于ptgan区域差距与多重分支的行人重识别检测方法及装置 | |
CN110443212B (zh) | 用于目标检测的正样本获取方法、装置、设备及存储介质 | |
CN109919002B (zh) | 黄色禁停线识别方法、装置、计算机设备及存储介质 | |
CN106446862A (zh) | 一种人脸检测方法及系统 | |
CN113657409A (zh) | 车辆损失检测方法、装置、电子设备及存储介质 | |
CN106845338B (zh) | 视频流中行人检测方法与系统 | |
CN113128308B (zh) | 一种港口场景下的行人检测方法、装置、设备及介质 | |
CN109448009A (zh) | 用于输电线路检测的红外图像处理方法及装置 | |
CN109389617A (zh) | 一种基于片上异构系统的运动目标识别与追踪方法及系统 | |
CN111626241A (zh) | 一种人脸检测方法及装置 | |
CN111738964A (zh) | 一种基于建模的图像数据增强的方法 | |
CN109919128B (zh) | 控制指令的获取方法、装置及电子设备 | |
Yang et al. | SiamMMF: multi-modal multi-level fusion object tracking based on Siamese networks | |
CN106960188B (zh) | 天气图像分类方法及装置 | |
Tan et al. | Gesture segmentation based on YCb'Cr'color space ellipse fitting skin color modeling | |
CN108805097A (zh) | 一种基于色彩空间转换的人脸识别与实时跟踪方法 | |
CN111325209B (zh) | 一种车牌识别方法和系统 | |
Jyothi et al. | Computational color naming for human-machine interaction | |
Ma et al. | Structured light detection algorithm based on deep learning | |
Wan et al. | Rapid face detection algorithm of color images under complex background |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20191105 |