CN106125932A - 一种增强现实中目标对象的识别方法、装置及移动终端 - Google Patents
一种增强现实中目标对象的识别方法、装置及移动终端 Download PDFInfo
- Publication number
- CN106125932A CN106125932A CN201610503237.0A CN201610503237A CN106125932A CN 106125932 A CN106125932 A CN 106125932A CN 201610503237 A CN201610503237 A CN 201610503237A CN 106125932 A CN106125932 A CN 106125932A
- Authority
- CN
- China
- Prior art keywords
- identified
- region
- destination object
- real scene
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种增强现实中目标对象的识别方法、装置及移动终端。该识别方法包括:获取实景图像中用户选定的待识别区域;在所述待识别区域中识别待增强的目标对象;基于增强现实对所述目标对象进行增强操作。利用该方法,与现有的识别方法相比,能够快速锁定目标对象所在区域,并仅在选中的区域中进行目标对象识别,由此解决现有的识别方法不容易对存在重叠或遮挡的多个拍摄对象进行单目标对象识别的问题,从而提高了目标对象识别的准确率,进而提高了增强现实拍摄的整体处理效率。
Description
技术领域
本发明实施例涉及增强现实技术领域,尤其涉及一种增强现实中目标对象的识别方法、装置及移动终端。
背景技术
增强现实技术(Augmented Reality,简称AR),是一种实时地计算摄影机影像的位置及角度并加上相应图像的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。
随着电子技术的发展创新,越来越多的电子产品出现在人们的生活中,移动终端成为人们受欢迎的电子产品之一,随着移动终端的广泛应用,增强现实技术也逐渐融合进移动终端的很多功能应用中,如,应用于移动终端的拍照功能中,在用户拍照的过程中实时的对目标对象进行场景及效果的增强,由此可以避免后期对拍摄照片的处理;又如,应用于移动终端的娱乐游戏中,在用户进行游戏操作时基于增强现实来增强游戏场景的真实性。
对于移动终端的拍照功能而言,在将增强现实技术应用于拍照功能后,对多个待拍摄对象拍照时,如果多个待拍摄对象存在部分重叠或相互遮挡的情况,则基于现有增强现实目标识别方法会把基于摄像头捕捉的实景图像中部分重叠或遮挡的多个拍摄对象识别成一个目标对象,并对该目标对象整体进行场景或效果增强。
然而,用户往往只想对所捕捉实景图像中的一个拍摄对象进行效果增强,如果该拍摄对象与其他拍摄对象存在部分重叠或遮挡,则并不能基于现有的增强现实目标识别方法准确的识别该待增强的拍摄对象,由此降低了增强现实中对目标对象识别的准确性,影响了目标对象的增强现实效果。
发明内容
本发明的目的是提出一种增强现实的目标对象识别方法、装置及移动终端,以实现对目标对象的快速锁定与识别,提高了增强现实中目标对象识别的准确率。
一方面,本发明实施例提供了一种增强现实的目标对象识别方法,包括:
获取实景图像中用户选定的待识别区域;
在所述待识别区域中识别待增强的目标对象;
基于增强现实对所述目标对象进行增强操作。
另一方面,本发明实施例提供了一种增强现实的目标对象识别装置,包括:
区域获取模块,用于获取实景图像中用户选定的待识别区域;
对象识别模块,用于在所述待识别区域中识别待增强的目标对象;
对象增强模块,用于基于增强现实对所述目标对象进行增强操作。
又一方面,本发明实施例还提供了一种移动终端,该移动终端集成了本发明实施例提供的增强现实中目标对象的识别装置。
本发明实施例提供了一种增强现实中目标对象的识别方法、装置及移动终端,本发明的识别方法可以概括为:首先获取用户在实景图像中选中的待识别区域;然后在待识别区域中识别待增强的目标对象;最终基于增强现实对目标对象进行增强操作。利用该识别方法,与现有的识别方法相比,能够快速锁定目标对象所在区域,并仅在选中的区域中进行目标对象识别,由此解决现有的识别方法不容易对存在重叠或遮挡的多个拍摄对象进行单目标对象识别的问题,从而提高了目标对象识别的准确率,进而提高了增强现实拍摄的整体处理效率。
附图说明
图1为本发明实施例一提供的一种增强现实中目标对象的识别方法的流程示意图;
图2a为本发明实施例二提供的一种增强现实中目标对象的识别方法的流程示意图;
图2b为基于本发明实施例二提供的目标对象的识别方法确定待识别区域的示例图;
图3a为本发明实施例三提供的一种增强现实中目标对象的识别方法的流程示意图;
图3b为基于本发明实施例三提供的目标对象的识别方法确定待识别区域的示例图;
图3c为基于本发明实施例三提供的目标对象的识别方法确定待识别区域的另一示例图;
图4为本发明实施例四提供的一种增强现实中目标对象的识别装置的结构框图。
具体实施方式
下面结合附图并通过具体实施方式来进一步说明本发明的技术方案。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种增强现实中目标对象的识别方法的流程示意图。该方法适用于在用户使用移动终端基于增强现实进行拍摄时,对增强现实中目标对象进行识别的情况,可以由增强现实中目标对象的识别装置执行,其中该装置可由软件和/或硬件实现,并一般集成于移动终端中。
如图1所示,本发明实施例一提供的一种增强现实中目标对象的识别方法,具体包括如下操作:
S101、获取实景图像中用户选定的待识别区域。
在本实施例中,所述移动终端具体可指手机、笔记本以及平板电脑等具有拍照功能的智能电子设备。
在本实施例中,所述移动终端处于增强现实拍摄模式,具体可理解为:在所述移动终端的拍照功能应用中融合了增强现实技术,使得用户在基于移动终端的摄像头拍摄时,能够实时的对所捕捉实景图像中的目标对象进行效果或场景增强。需要注意的是,对目标对象进行效果或场景增强的首要前提是能够识别出所述实景图像中的目标对象。
在本实施例中,所述实景图像具体可理解为移动终端启动拍照功能后在所述相机预览界面中实时显示的或者已拍摄形成的当前图像。在本实施例中,可以认为待增强的目标对象存在于用户选定的待识别区域中,因此,无需在整个实景图像中进行目标对象识别,只需在所获取的待识别区域中进行目标对象识别。
在本实施例中,所述待识别区域基于用户选定而获得,一般地,用户在所述实景图像中选定待识别区域的方式有多种,可以是直接对实景图像中存在的选定框进行拖拽,基于选定框选定待识别区域;也可以是基于物理按键控制显示于实景图像中的选定框进行上下左右的移动,最终选定待识别区域;还可以是通过手势感应形成的感应点或感应轨迹来圈定待识别的区域。
S102、在所述待识别区域中识别待增强的目标对象。
在本实施例中,当基于步骤S101获取用户选定的待识别区域之后,可以在所述待识别区域中识别待增强的目标对象。需要说明的是,一般在进行图像拍摄之前,会预先设定所需要增强的拍摄对象的类型或者特征,由此可以在所获得待识别区域中识别与预先设定的类型或特征相匹配的图像区域作为待增强的目标对象。
S103、基于增强现实对所述目标对象进行增强操作。
在本实施例中,如果确定了待增强的目标对象,就可以基于增强现实技术对所述目标对象进行效果增强。示例性的,可以从增强现实库中选取与所述目标对象匹配的虚拟内容,并将所述虚拟内容叠加至包含所述目标对象的实景图像上,实现对目标对象效果或场景的增强。
本发明实施例一提供的一种增强现实中目标对象的识别方法,首先获取用户在实景图像中选中的待识别区域;然后在待识别区域中识别待增强的目标对象;最终基于增强现实对已识别的目标对象进行增强操作。利用该识别方法,与现有的识别方法相比,能够快速锁定目标对象所在区域,并仅在选中的区域中进行目标对象识别,由此解决了现有的识别方法不容易对存在重叠或遮挡的多个拍摄对象进行单目标对象识别的问题,从而提高了目标对象识别的准确率,进而提高了增强现实拍摄的整体处理效率。
实施例二
图2a为本发明实施例二提供的一种增强现实中目标对象的识别方法的流程示意图。本发明实施例二以上述实施例为基础进行优化,在本实施例中,将步骤“获取实景图像中用户选定的待识别区域”具体优化为:获取用户对所捕捉的实景图像进行手势感应的感应位置信息,并基于所述感应位置信息确定所述实景图像中的待识别区域,其中,所述手势感应包括屏幕触摸感应或屏幕近距离非触摸感应。
进一步的,在本实施例中,将步骤“在所述待识别区域中识别待增强的目标对象”具体优化为:在所述待识别区域中提取与预设图像属性相匹配的图像特征点;基于所述图像特征点确定所述待识别区域中的图像轮廓,将基于所述图像轮廓确定的图像作为待增强的目标对象。
进一步的,在本实施例中,还将步骤“基于增强现实对所述目标对象进行增强操作”具体化为:如果增强现实库中存在与所述目标对象匹配的虚拟内容,则基于所述虚拟内容对所述目标对象进行增强操作。
如图2a所示,本发明实施例二提供的一种增强现实中目标对象的识别方法,具体包括如下操作:
S201、获取用户对所捕捉的实景图像进行手势感应的感应位置信息,并基于所述感应位置信息确定所述实景图像中的待识别区域。
在本实施例中,可以基于移动终端摄像头对当前的实景图像进行捕捉拍摄,本实施例中优选的基于用户对所述实景图像进行手势感应的感应位置信息获取待识别区域。一般地,用户对所述实景图像进行的手势感应可以是屏幕触摸感应,也可以是屏幕近距离非触摸感应。所述屏幕触摸感应具体可理解为基于移动终端触控屏幕的压力传感器所产生的感应;所述屏幕近距离非触摸感应具体可理解为基于移动终端的距离感应器在贴近但不触摸所述移动终端屏幕时产生的感应。
进一步的,所述获取用户对所捕捉的实景图像进行手势感应的感应位置信息,并基于所述感应位置信息确定所述实景图像中的待识别区域,包括:获取用户对所捕捉的实景图像进行单点手势感应的感应点位置,并基于所述感应点位置确定所述实景图像中的待识别区域。
在本实施例中,用户对实景图像进行的手势感应可以是单点手势感应,所述单点手势感应具体可理解为用户对实景图像进行单点触摸或者进行单点的近距离非触摸。具体的,当用户对实景图像进行单点手势感应之后,可以得到单点手势感应在移动终端屏幕上所对应的感应点位置,由此可以确定所述感应点位置在实景图像上对应的位置;之后,以所述感应点位置在实景图像上对应的位置为中心点,确定一个四方形区域;最后,可以将所形成的四方形区域直接作为待识别区域,也可以对所形成的四方形区域进行伸缩和/或拖拽得到所需的待识别区域。
此外,用户对实景图像进行的手势感应也可以是多点手势感应,所述多点手势感应具体可理解为用户对实景图像进行多点触摸或者进行多点的近距离非触摸。具体的,当用户对实景图像进行多点手势感应之后,可以得到多点手势感应在移动终端屏幕上所对应的多个感应点位置,由此可以确定上述多个感应点位置在实景图像上对应的位置;之后,可以确定一个有上述多个感应点组成的区域;最后,可以将所形成的区域直接作为待识别区域,也可以对所形成的区域进行伸缩和/或拖拽得到所述待识别区域。
S202、在所述待识别区域中提取与预设图像属性相匹配的图像特征点。
在本实施例中,基于步骤S201在实景图像中确定出待识别区域后,可在所述待识别区域中提取与预设图像属性相匹配的图像特征点。具体的,所述预设的图像属性具体可以在拍摄实景画面之前设置,可以认为所述预设的图像属性为待增强的目标对象的图像属性。示例性的,如预设的图像属性为玫瑰花所具有的属性,则可认为玫瑰花为需要增强的目标对象。
在本实施例中,以玫瑰花作为待增强的目标对象为例,首先可以在所述待识别区域中提取与所述玫瑰花属性相匹配的图像特征点,所述图像特征点可以有形状特征点以及颜色特征点等。
S203、基于所述图像特征点确定所述待识别区域中的图像轮廓,将基于所述图像轮廓确定的图像作为待增强的目标对象。
在本实施例中,基于步骤S202确定出与所述预设图像属性相匹配的图像特征点后,可以基于所述图像特征点在所述待识别区域中形成对应的图像轮廓,最后可以将基于所述图像轮廓确定的图像作为待增强的目标对象。
S204、如果增强现实库中存在与所述目标对象匹配的虚拟内容,则基于所述虚拟内容对所述目标对象进行增强操作。
在本实施例中,在确定所述待增强的目标对象之后,就可以对所述目标在对象进行效果增强。一般地,基于增强现实技术进行效果或场景增强时,主要依据存储于增强现实库中的虚拟内容实现,具体的,只要确定所述增强现实库中存在于所述目标对象相匹配的虚拟内容,就可以基于所述虚拟内容对所述目标对象进行效果或场景的增强。
需要说明的是,所述增强现实库一般本地存储于所述移动终端的相应位置,所述增强现实库中的虚拟内容可以在联网状态下实时更新。
在上述实施例的基础上,本发明实施例二给出了基于用户对实景图像进行单点手势感应获取待识别区域的示例图,其中,图2b为基于本发明实施例二提供的目标对象的识别方法确定待识别区域的示例图。
具体的,图2b中显示出了用户对实景图像进行单点手势感应后对应的感应点位置21,然后,显示出了基于感应点位置21所确定出的四边形211,最终,通过对四边形211进行伸缩和/或拖拽形成了待识别区域212,之后可以在待识别区域212中进行目标对象识别。
本发明实施例二提供了一种增强现实中目标对象的识别方法,具体化了待识别区域的获取过程,使得能够基于用户在实景图像进行手势感应的感应位置信息确定待识别区域;同时,还进一步具体化了目标对象的识别过程,使得目标对象能够基于待识别区域中的图像特征点来确定;此外,还增加了对目标对象进行增强操作的步骤。利用该识别方法,解决了现有的识别方法不容易对存在重叠或遮挡的多个拍摄对象进行单目标对象识别的问题,从而提高了目标对象识别的准确率,进而提高了增强现实拍摄的整体处理效率。
实施例三
图3a为本发明实施例三提供的一种增强现实中目标对象的识别方法的流程示意图,本发明实施例三以上述实施例为基础进行优化,在本实施例中,进一步将“获取用户对所捕捉的实景图像进行手势感应的感应位置信息,并基于所述感应位置信息确定所述实景图像中的待识别区域”优化为:获取用户对所捕捉的实景图像进行滑动手势感应的滑动感应轨迹;如果所述滑动感应轨迹为封闭区域,则将所述封闭区域作为所述实景图像中的待识别区域;否则,确定所述滑动感应轨迹中包含的感应点位置,基于所述感应点位置确定所述实景图像中的待识别区域。
如图3a所示,本发明实施例三提供的一种增强现实中目标对象的识别方法,具体包括如下操作:
S301、获取用户对所捕捉的实景图像进行滑动手势感应的滑动感应轨迹。
在本实施例中,将用户对实景图像进行的手势感应具体化为了滑动手势感应,即,用户在所述实景图像中进行滑动触摸感应或者进行滑动的近距离非触摸感应。具体的,当用户对实景图像进行滑动手势感应之后,可以得到滑动手势感应在移动终端屏幕上所对应的滑动感应轨迹,由此可以确定所述滑动感应轨迹在所述实景图像上对应的轨迹。一般地,所述滑动感应轨迹可能首位相接由此形成封闭的区域,也有可能不会形成封闭区域。
S302、判断所述滑动感应轨迹是否形成了封闭区域,若是,则执行步骤S303;若否,则执行步骤S304。
在本实施例中,可以基于步骤S302判定所述滑动感应轨迹是否形成了封闭区域,如果形成封闭区域,则可执行步骤S303;否则,可执行步骤S304。
S303、将所述封闭区域作为所述实景图像中的待识别区域。
在本实施例中,当所述滑动感应轨迹形成了封闭区域,则可以将所述封闭区域直接作为待识别区域,也可以对所述封闭区域进行拖拽和/或伸缩操作形成所需的待识别区域。
S304、确定所述滑动感应轨迹中包含的感应点位置,基于所述感应点位置确定所述实景图像中的待识别区域。
在本实施例中,如果所获取的滑动感应轨迹没有形成封闭区域,则可以确定所述滑动感应轨迹所包含的感应点位置信息,然后,形成一个包含所述滑动感应轨迹中所有感应点位置的封闭图形,最后可以将所述封闭图形所包含的区域直接作为待识别区域,也可以对所述封闭图形进行拖拽和/或伸缩操作形成所需的待识别区域。
S305、在所述待识别区域中提取与预设图像属性相匹配的图像特征点。
示例性的,在所述待识别区域中提取出了与预设的玫瑰花属性相匹配的图像特征点。
S306、基于所述图像特征点确定所述待识别区域中的图像轮廓,将基于所述图像轮廓确定的图像作为待增强的目标对象。
示例性的,接上述示例,可以基于所提取出的玫瑰花的图像特征点确定相应的玫瑰花图像轮廓,并基于玫瑰花图像轮廓确定玫瑰花图像,最终将所确定的玫瑰花图像作为待增强的目标图像。
S307、如果增强现实库中存在与所述目标对象匹配的虚拟内容,则基于所述虚拟内容对所述目标对象进行增强操作。
在上述实施例的基础上,本发明实施例三给出了基于用户对实景图像进行滑动手势感应获取待识别区域的示例图。其中,图3b为基于本发明实施例三提供的目标对象的识别方法确定待识别区域的示例图;图3c为基于本发明实施例三提供的目标对象的识别方法确定待识别区域的另一示例图。
具体的,图3b中显示出了用户对所捕捉的实景图像进行滑动手势感应后,滑动感应轨迹首尾相接形成封闭区域时的待识别区域,其中,图3b中给出了滑动手势感应对应的滑动感应轨迹31,然后,显示出了基于滑动感应轨迹31所确定的封闭区域311,最后,可将所述封闭区域311直接作为所需的待识别区域,也可对所述封闭区域311进行伸缩和/或拖拽操作,由此形成所需的待识别区域,之后可以在所确定的待识别区域中进行目标对象识别。
此外,图3c中显示出了用户对所捕捉的实景图像进行滑动手势感应后,滑动感应轨迹没有形成封闭区域时所确定出的待识别区域,其中,图3c中给出了滑动手势感应对应滑动感应轨迹中的感应点位置32,需要注意的是,感应点位置32的个数至少为1,由此还显示出包含了所有感应点位置32所形成的封闭图形321,最后,可将所述封闭图形321所形成的区域直接作为所需的待识别区域,也可对所述封闭图形321进行进行伸缩和/或拖拽操作,由此形成图3c中所显示的待识别区域322,之后可以在待识别区域322中进行目标对象识别。
本发明实施例三提供的一种增强现实中目标对象的识别方法,进一步将基于用户在实景图像进行手势感应的感应信息具体化为用户在实景图像中进行滑动手势感应并得到滑动感应轨迹,由此基于滑动感应轨迹确定待识别区域,使得能够快速锁定目标对象所在区域。利用该识别方法,解决了现有的识别方法不容易对存在重叠或遮挡的多个拍摄对象进行单目标对象识别的问题,从而提高了目标对象识别的准确率,进而提高了增强现实拍摄的整体处理效率。
实施例四
图4为本发明实施例四提供的一种增强现实中目标对象的识别装置的结构框图,该识别装置适用于在用户使用移动终端基于增强现实进行拍摄时,对增强现实中目标对象进行识别的情况。其中该装置可由软件和/或硬件实现,并一般集成于移动终端中。如图4所示,该识别装置包括:区域获取模块41、对象识别模块42以及对象增强模块43。
其中,区域获取模块41,用于获取实景图像中用户选定的待识别区域。
对象识别模块42,用于在所述待识别区域中识别待增强的目标对象。
对象增强模块43,用于基于增强现实对所述目标对象进行增强操作。
在本实施例中,该识别装置首先通过区域获取模块41获取实景图像中用户选定的待识别区域;然后通过对象识别模块42在所述待识别区域中识别待增强的目标对象;最终通过对象增强模块43基于增强现实对所述目标对象进行增强操作。
本发明实施例四提供的一种增强现实中目标对象的识别装置,与现有的识别装置相比,能够快速锁定目标对象所在区域,并仅在选中的区域中进行目标对象识别,由此解决了现有的识别装置不容易对存在重叠或遮挡的多个拍摄对象进行单目标对象识别的问题,从而提高了目标对象识别的准确率,进而提高了增强现实拍摄的整体处理效率。
进一步的,所述区域获取模块41,包括:
待识别确定单元,用于获取用户对所捕捉的实景图像进行手势感应的感应位置信息,基于所述感应位置信息确定所述实景图像中的待识别区域,其中,所述手势感应包括屏幕触摸感应或屏幕近距离非触摸感应。
进一步的,所述待识别确定单元,具体用于:
获取用户对所捕捉的实景图像进行单点手势感应的感应点位置,并基于所述感应点位置确定所述实景图像中的待识别区域。
进一步的,所述待识别确定单元,具体用于:
获取用户对所捕捉的实景图像进行滑动手势感应的滑动感应轨迹;
如果所述滑动感应轨迹为封闭区域,则将所述封闭区域作为所述实景图像中的待识别区域;否则,确定所述滑动感应轨迹中包含的感应点位置,基于所述感应点位置确定所述实景图像中的待识别区域。
在上述实施例的基础上,所述对象识别模块42,具体用于:
在所述待识别区域中提取与预设图像属性相匹配的图像特征点;
基于所述图像特征点确定所述待识别区域中的图像轮廓,将基于所述图像轮廓确定的图像作为待增强的目标对象。
进一步的,所述对象增强模块43,具体用于:
当增强现实库中存在与所述目标对象匹配的虚拟内容时,基于所述虚拟内容对所述目标对象进行增强操作。
实施例五
本发明实施例五提供了一种移动终端,该移动终端集成了上述实施例提供的一种增强现实中目标对象的识别装置。可以通过执行增强现实中目标对象的识别方法进行增强现实中待增强的目标对象的识别。
示例性的,本实施例中的移动终端具体可以为手机、笔记本以及平板电脑等智能电子设备。当用户使用本实施例中的移动终端时,移动终端基于集成在其中的识别装置获取实景图像中用户选定的待识别区域;并在确定所述待识别区域后,在所述待识别区域中识别待增强的目标对象;最终能够基于增强现实对所识别的目标对象进行增强操作。
本实施例中的移动终端利用本发明提供的目标对象的识别装置,能够快速锁定目标对象所在区域,并仅在选中的区域中进行目标对象识别,由此解决了移动终端中现有的识别装置不容易对存在重叠或遮挡的多个拍摄对象进行单目标对象识别的问题,从而提高了目标对象识别的准确率,进而提高了增强现实拍摄的整体处理效率,提升了用户体验。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (13)
1.一种增强现实中目标对象的识别方法,其特征在于,包括:
获取实景图像中用户选定的待识别区域;
在所述待识别区域中识别待增强的目标对象;
基于增强现实对所述目标对象进行增强操作。
2.根据权利要求1所述方法,其特征在于,所述获取实景图像中用户选定的待识别区域,具体包括:
获取用户对所捕捉的实景图像进行手势感应的感应位置信息,并基于所述感应位置信息确定所述实景图像中的待识别区域,其中,所述手势感应包括屏幕触摸感应或屏幕近距离非触摸感应。
3.根据权利要求2所述的方法,其特征在于,获取用户对所捕捉的实景图像进行手势感应的感应位置信息,并基于所述感应位置信息确定所述实景图像中的待识别区域,包括:
获取用户对所捕捉的实景图像进行单点手势感应的感应点位置,并基于所述感应点位置确定所述实景图像中的待识别区域。
4.根据权利要求2所述的方法,其特征在于,所述获取用户对所捕捉的实景图像进行手势感应的感应位置信息,并基于所述感应位置信息确定所述实景图像中的待识别区域,包括:
获取用户对所捕捉的实景图像进行滑动手势感应的滑动感应轨迹;
如果所述滑动感应轨迹为封闭区域,则将所述封闭区域作为所述实景图像中的待识别区域;否则,确定所述滑动感应轨迹中包含的感应点位置,基于所述感应点位置确定所述实景图像中的待识别区域。
5.根据权利要求1-4任一所述的方法,其特征在于,所述在所述待识别区域中识别待增强的目标对象,具体包括:
在所述待识别区域中提取与预设图像属性相匹配的图像特征点;
基于所述图像特征点确定所述待识别区域中的图像轮廓,将基于所述图像轮廓确定的图像作为待增强的目标对象。
6.根据权利要求1-4任一所述的方法,其特征在于,所述基于增强现实对所述目标对象进行增强操作,具体包括:
如果增强现实库中存在与所述目标对象匹配的虚拟内容,则基于所述虚拟内容对所述目标对象进行增强操作。
7.一种增强现实中目标对象的识别装置,其特征在于,包括:
区域获取模块,用于获取实景图像中用户选定的待识别区域;
对象识别模块,用于在所述待识别区域中识别待增强的目标对象;
对象增强模块,用于基于增强现实对所述目标对象进行增强操作。
8.根据权利要求7所述装置,其特征在于,所述区域获取模块,包括:
待识别确定单元,用于获取用户对所捕捉的实景图像进行手势感应的感应位置信息,基于所述感应位置信息确定所述实景图像中的待识别区域,其中,所述手势感应包括屏幕触摸感应或屏幕近距离非触摸感应。
9.根据权利要求8所述的装置,其特征在于,所述待识别确定单元,具体用于:
获取用户对所捕捉的实景图像进行单点手势感应的感应点位置,并基于所述感应点位置确定所述实景图像中的待识别区域。
10.根据权利要求8所述的装置,其特征在于,所述待识别确定单元,具体用于:
获取用户对所捕捉的实景图像进行滑动手势感应的滑动感应轨迹;
如果所述滑动感应轨迹为封闭区域,则将所述封闭区域作为所述实景图像中的待识别区域;否则,确定所述滑动感应轨迹中包含的感应点位置,基于所述感应点位置确定所述实景图像中的待识别区域。
11.根据权利要求7-10任一所述的装置,其特征在于,所述对象识别模块,具体用于:
在所述待识别区域中提取与预设图像属性相匹配的图像特征点;
基于所述图像特征点确定所述待识别区域中的图像轮廓,将基于所述图像轮廓确定的图像作为待增强的目标对象。
12.根据权利要求7-10任一所述的装置,其特征在于,所述对象增强模块,具体用于:
当增强现实库中存在与所述目标对象匹配的虚拟内容时,基于所述虚拟内容对所述目标对象进行增强操作。
13.一种移动终端,其特征在于,该移动终端集成了如权利要求7-12任一所述的增强现实中目标对象的识别装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610503237.0A CN106125932A (zh) | 2016-06-28 | 2016-06-28 | 一种增强现实中目标对象的识别方法、装置及移动终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610503237.0A CN106125932A (zh) | 2016-06-28 | 2016-06-28 | 一种增强现实中目标对象的识别方法、装置及移动终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106125932A true CN106125932A (zh) | 2016-11-16 |
Family
ID=57284789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610503237.0A Pending CN106125932A (zh) | 2016-06-28 | 2016-06-28 | 一种增强现实中目标对象的识别方法、装置及移动终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106125932A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106850941A (zh) * | 2016-12-01 | 2017-06-13 | 努比亚技术有限公司 | 照片拍摄方法及装置 |
CN109190520A (zh) * | 2018-08-16 | 2019-01-11 | 广州视源电子科技股份有限公司 | 一种超分辨率重建人脸图像方法及装置 |
CN109359204A (zh) * | 2018-08-27 | 2019-02-19 | 中国农业大学 | 一种基于增强现实的花卉识别方法及设备 |
CN109445569A (zh) * | 2018-09-04 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 基于ar的信息处理方法、装置、设备及可读存储介质 |
CN110276251A (zh) * | 2019-05-13 | 2019-09-24 | 联想(上海)信息技术有限公司 | 一种图像识别方法、装置、设备及存储介质 |
CN110348446A (zh) * | 2019-06-24 | 2019-10-18 | 西安艾润物联网技术服务有限责任公司 | 图片处理方法及装置 |
WO2020030156A1 (zh) * | 2018-08-10 | 2020-02-13 | 广东虚拟现实科技有限公司 | 图像处理方法、终端设备及计算机可读介质 |
CN112068704A (zh) * | 2020-09-10 | 2020-12-11 | 上海幻维数码创意科技有限公司 | 一种在目标对象上显示增强现实效果的方法 |
CN112985372A (zh) * | 2019-12-13 | 2021-06-18 | 南宁富桂精密工业有限公司 | 路径规划系统及其方法 |
CN117021117A (zh) * | 2023-10-08 | 2023-11-10 | 电子科技大学 | 一种基于混合现实的移动机器人人机交互与定位方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120302289A1 (en) * | 2011-05-27 | 2012-11-29 | Kang Heejoon | Mobile terminal and method of controlling operation thereof |
CN103020184A (zh) * | 2012-11-29 | 2013-04-03 | 北京百度网讯科技有限公司 | 使用拍摄图像获取搜索结果的方法和系统 |
CN103218854A (zh) * | 2013-04-01 | 2013-07-24 | 成都理想境界科技有限公司 | 在增强现实过程中实现部件标注的方法及增强现实系统 |
CN103858073A (zh) * | 2011-09-19 | 2014-06-11 | 视力移动技术有限公司 | 增强现实系统的免触摸界面 |
CN104796594A (zh) * | 2014-01-16 | 2015-07-22 | 中兴通讯股份有限公司 | 一种预览界面特殊效果即时呈现方法及终端设备 |
CN105183477A (zh) * | 2015-09-10 | 2015-12-23 | 上海踏风网络科技有限公司 | 应用程序虚拟道具信息获取系统及获取方法 |
CN105468142A (zh) * | 2015-11-16 | 2016-04-06 | 上海璟世数字科技有限公司 | 基于增强现实技术的互动方法、系统和终端 |
-
2016
- 2016-06-28 CN CN201610503237.0A patent/CN106125932A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120302289A1 (en) * | 2011-05-27 | 2012-11-29 | Kang Heejoon | Mobile terminal and method of controlling operation thereof |
CN103858073A (zh) * | 2011-09-19 | 2014-06-11 | 视力移动技术有限公司 | 增强现实系统的免触摸界面 |
CN103020184A (zh) * | 2012-11-29 | 2013-04-03 | 北京百度网讯科技有限公司 | 使用拍摄图像获取搜索结果的方法和系统 |
CN103218854A (zh) * | 2013-04-01 | 2013-07-24 | 成都理想境界科技有限公司 | 在增强现实过程中实现部件标注的方法及增强现实系统 |
CN104796594A (zh) * | 2014-01-16 | 2015-07-22 | 中兴通讯股份有限公司 | 一种预览界面特殊效果即时呈现方法及终端设备 |
CN105183477A (zh) * | 2015-09-10 | 2015-12-23 | 上海踏风网络科技有限公司 | 应用程序虚拟道具信息获取系统及获取方法 |
CN105468142A (zh) * | 2015-11-16 | 2016-04-06 | 上海璟世数字科技有限公司 | 基于增强现实技术的互动方法、系统和终端 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106850941A (zh) * | 2016-12-01 | 2017-06-13 | 努比亚技术有限公司 | 照片拍摄方法及装置 |
US11113849B2 (en) | 2018-08-10 | 2021-09-07 | Guangdong Virtual Reality Technology Co., Ltd. | Method of controlling virtual content, terminal device and computer readable medium |
WO2020030156A1 (zh) * | 2018-08-10 | 2020-02-13 | 广东虚拟现实科技有限公司 | 图像处理方法、终端设备及计算机可读介质 |
CN109190520A (zh) * | 2018-08-16 | 2019-01-11 | 广州视源电子科技股份有限公司 | 一种超分辨率重建人脸图像方法及装置 |
CN109359204A (zh) * | 2018-08-27 | 2019-02-19 | 中国农业大学 | 一种基于增强现实的花卉识别方法及设备 |
CN109445569A (zh) * | 2018-09-04 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 基于ar的信息处理方法、装置、设备及可读存储介质 |
CN110276251A (zh) * | 2019-05-13 | 2019-09-24 | 联想(上海)信息技术有限公司 | 一种图像识别方法、装置、设备及存储介质 |
CN110348446A (zh) * | 2019-06-24 | 2019-10-18 | 西安艾润物联网技术服务有限责任公司 | 图片处理方法及装置 |
CN112985372A (zh) * | 2019-12-13 | 2021-06-18 | 南宁富桂精密工业有限公司 | 路径规划系统及其方法 |
CN112985372B (zh) * | 2019-12-13 | 2024-06-14 | 南宁富联富桂精密工业有限公司 | 路径规划系统及其方法 |
CN112068704A (zh) * | 2020-09-10 | 2020-12-11 | 上海幻维数码创意科技有限公司 | 一种在目标对象上显示增强现实效果的方法 |
CN112068704B (zh) * | 2020-09-10 | 2023-12-08 | 上海幻维数码创意科技股份有限公司 | 一种在目标对象上显示增强现实效果的方法 |
CN117021117A (zh) * | 2023-10-08 | 2023-11-10 | 电子科技大学 | 一种基于混合现实的移动机器人人机交互与定位方法 |
CN117021117B (zh) * | 2023-10-08 | 2023-12-15 | 电子科技大学 | 一种基于混合现实的移动机器人人机交互与定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106125932A (zh) | 一种增强现实中目标对象的识别方法、装置及移动终端 | |
CN102822862B (zh) | 计算装置接口 | |
CN105487652B (zh) | 显示装置及其控制方法 | |
CN107643828B (zh) | 车辆、控制车辆的方法 | |
US8831356B2 (en) | Information processing apparatus, metadata setting method, and program | |
US8376854B2 (en) | Around device interaction for controlling an electronic device, for controlling a computer game and for user verification | |
EP2530675A2 (en) | Information processing apparatus, information processing method, and program | |
JP7212067B2 (ja) | 画像合成方法及び装置 | |
JP7468588B2 (ja) | 情報処理装置、情報処理システム、および情報処理方法 | |
US11983826B2 (en) | 3D upper garment tracking | |
TWI475474B (zh) | Gesture combined with the implementation of the icon control method | |
TW201108064A (en) | Information processing device, information processing method, and program | |
CN108460329A (zh) | 一种基于深度学习检测的人脸手势配合验证方法 | |
TW200949617A (en) | A video based apparatus and method for controlling the cursor | |
KR20070030398A (ko) | 사용자의 손 동작에 따라서 마우스 포인터를 제어하는 이동통신 단말기 및 그 구현 방법 | |
CN103257713A (zh) | 一种手势控制方法 | |
WO2013078989A1 (zh) | 人机交互操作指令的触发控制方法和系统 | |
CN109948450A (zh) | 一种基于图像的用户行为检测方法、装置和存储介质 | |
EP4399004A1 (en) | Controlling ar games on fashion items | |
CN109725724A (zh) | 有屏设备的手势控制方法和装置 | |
CN105813700A (zh) | 游戏程序、游戏系统、游戏方法及游戏程序 | |
CN107272881A (zh) | 一种信息输入方法及装置,输入法键盘和电子设备 | |
CN108932090A (zh) | 终端控制方法、装置和存储介质 | |
CN106055092A (zh) | 一种实现互动投影的方法及系统 | |
CN108594995A (zh) | 一种基于手势识别的电子设备操作方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20161116 |
|
RJ01 | Rejection of invention patent application after publication |