CN113535064B - 虚拟标签标记方法、装置、电子设备及存储介质 - Google Patents

虚拟标签标记方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113535064B
CN113535064B CN202111083785.XA CN202111083785A CN113535064B CN 113535064 B CN113535064 B CN 113535064B CN 202111083785 A CN202111083785 A CN 202111083785A CN 113535064 B CN113535064 B CN 113535064B
Authority
CN
China
Prior art keywords
target
virtual
gesture
information
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111083785.XA
Other languages
English (en)
Other versions
CN113535064A (zh
Inventor
刘天一
吴斐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing LLvision Technology Co ltd
Original Assignee
Beijing LLvision Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing LLvision Technology Co ltd filed Critical Beijing LLvision Technology Co ltd
Priority to CN202111083785.XA priority Critical patent/CN113535064B/zh
Publication of CN113535064A publication Critical patent/CN113535064A/zh
Application granted granted Critical
Publication of CN113535064B publication Critical patent/CN113535064B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种虚拟标签标记方法、装置、电子设备及存储介质,其中,虚拟标签标记方法包括:获取待标记的目标对象;响应于手势识别的触发操作,获取目标手势;根据所述目标手势,接收所述虚拟标签的生成启动操作;响应于所述生成启动操作,生成所述虚拟标签;基于所述目标手势的第一位置信息,确定目标位置;将所述虚拟标签标记于所述目标位置上;其中,所述目标位置为所述目标手势和所述目标对象的空间相对位置。采用本方法能够提高标签标记效率。

Description

虚拟标签标记方法、装置、电子设备及存储介质
技术领域
本发明涉及增强现实技术领域,尤其涉及一种虚拟标签标记方法、装置、电子设备及存储介质。
背景技术
随着增强现实技术的发展,增强现实技术被广泛应用到各个领域。增强现实技术是一项在现实物理世界或三维空间的基础上增加了一层计算机产生辅助信息,为人们提供了一个观察和认知世界的新视角,对于我国各个领域的发展具有重要意义。它具有真实世界和虚拟世界的信息集成、实时交互性和可以在三维尺度空间中增添虚拟物体的特点,例如,可以在巡检、制造、维修或者培训等现场作业的资产上添加标签。
现有技术中,一般需要打印或者采购,并且需要消耗大量的人力和物力在资产上添加标签,存在标签标记效率低的问题。
发明内容
本发明提供一种虚拟标签标记方法、装置、电子设备及存储介质,用以解决现有技术中标签标记效率低的缺陷,实现提高标记标签的效率的目的。
本发明提供一种虚拟标签标记方法,包括:获取待标记的目标对象;响应于手势识别的触发操作,获取目标手势;根据所述目标手势,接收所述虚拟标签的生成启动操作;响应于所述生成启动操作,生成所述虚拟标签;基于所述目标手势的第一位置信息,确定目标位置;将所述虚拟标签标记于所述目标位置上;其中,所述目标位置为所述目标手势和所述目标对象的空间相对位置。
根据本发明提供的一种虚拟标签标记方法,所述响应于所述生成启动操作,生成所述虚拟标签包括:响应于所述生成启动操作,接收语音信息;将所述语音信息进行信息类型转换,得到文本信息;利用所述文本信息生成所述虚拟标签。
根据本发明提供的一种虚拟标签标记方法,所述基于所述目标手势的第一位置信息,确定目标位置包括:获取所述目标手势中的目标关节点;将所述虚拟标签叠加显示在所述目标关节点上;获取所述目标关节点的第二位置信息;所述第二位置信息为所述第一位置信息的空间相对位置信息;若所述目标手势发生改变,所述虚拟标签与所述目标关节点分离,得到分离位置;所述分离位置为所述虚拟标签与所述目标关节点分离时,所述目标关节点的所述第二位置信息;将所述分离位置确定为所述目标位置。
根据本发明提供的一种虚拟标签标记方法,所述获取待标记的目标对象包括:获取虚拟场景,所述虚拟场景中包括所述目标对象;对所述虚拟场景中的各个虚拟对象进行图像特征分析,得到图像特征集合;在所述图像特征集合中获取候选图像特征;基于所述候选图像特征,得到目标图像特征;根据所述目标图像特征,得到对应的目标对象。
根据本发明提供的一种虚拟标签标记方法,所述基于所述候选图像特征,得到目标图像特征包括:当所述候选图像特征与预设图像特征的特征匹配度大于等于匹配度阈值时,将所述候选图像特征确定为所述目标图像特征。
根据本发明提供的一种虚拟标签标记方法,所述响应于所述生成启动操作之后还包括:若在生成标签阈值时间内,未接收到所述语音信息,则放弃生成所述虚拟标签。
本发明还提供一种虚拟标签标记装置,包括:目标对象获取模块,用于获取待标记的目标对象;目标手势获取模块,用于响应于手势识别的触发操作,获取目标手势;生成启动操作接收模块,用于根据所述目标手势,接收所述虚拟标签的生成启动操作;虚拟标签生成模块,用于响应于所述生成启动操作,生成所述虚拟标签;目标位置确定模块,用于基于所述目标手势的第一位置信息,确定目标位置;虚拟标签标记模块,将所述虚拟标签标记于所述目标位置上;其中,所述目标位置为所述目标手势和所述目标对象的空间相对位置。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述虚拟标签标记方法的步骤。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述虚拟标签标记方法的步骤。
本发明提供的虚拟标签标记方法、装置、电子设备及存储介质,通过获取待标记的目标对象;响应于手势识别的触发操作,获取目标手势;根据该目标手势,接收虚拟标签的生成启动操作;基于该生成启动操作,生成虚拟标签;基于目标手势的第一位置信息,确定目标位置;将虚拟标签标记于目标位置上;其中,该目标位置为目标手势和目标对象的空间相对位置。能够在目标对象的目标位置上标记上虚拟标签,避免了因需要打印标签以及耗费大量人力进行标签标记带来的标签标记效率低的问题,提高了标签标记的效率。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的虚拟标签标记方法的场景示意图之一;
图2是本发明提供的虚拟标签标记方法的流程示意图之一;
图3是本发明提供的虚拟标签标记方法的流程示意图之二;
图4是本发明提供的虚拟标签标记方法的流程示意图之三;
图5是本发明提供的虚拟标签标记方法的流程示意图之四;
图6是本发明提供的虚拟标签标记方法的场景示意图之二;
图7是本发明提供的虚拟标签标记装置的结构示意图;
图8是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请提供的虚拟标签标记方法,可以应用于如图1所示的应用环境中,具体应用到一种虚拟标签标记系统中。该虚拟标签标记系统包括终端102和服务器104,其中,终端102通过网络与服务器104进行通信。服务器104执行一种虚拟标签标记方法,具体的,服务器104从终端102获取到包括有目标对象的虚拟应用场景,从该虚拟应用场景中获取到待标记的目标对象;响应于手势识别的触发操作,获取目标手势;根据目标手势,接收虚拟标签的生成启动操作;响应于生成启动操作,生成虚拟标签;基于目标手势的第一位置信息,确定目标位置;将虚拟标签标记于目标位置上;其中,目标位置为目标手势和目标对象的空间相对位置。其中,终端102可以但不限于是各种AR(Augmented Reality)产品,个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。可以理解的,上述虚拟标签标记也可以在终端102上执行。
下面结合图2-图5描述本发明的虚拟标签标记方法。
在一个实施例中,如图2所示,提供了一种虚拟标签标记方法,以该方法应用于图1中的终端为例进行说明,包括以下步骤:
步骤202,获取待标记的目标对象。
具体地,终端获取到虚拟场景后,在该虚拟场景中获取到需要标记的目标对象。
在一个实施例中,终端利用定位与地图构建方法,将获取到的实际的场景转换为虚拟场景,并在该虚拟场景中获取到需要标记的目标对象。
步骤204,响应于手势识别的触发操作,获取目标手势。
其中,手势识别的触发操作是指能够开启手势识别的操作,该操作可以通过实体按钮进行触发,也可以通过插件或者应用脚本触发。
具体的,终端接收到目标对象之后,触发手势识别操作,响应于该手势识别的触发操作,获取到目标手势。
在一个实施例中,终端接收到目标对象之后,利用手势识别的开启插件开启手势识别,通过手势识别获取到目标手势。
步骤206,根据目标手势,接收虚拟标签的生成启动操作。
其中,虚拟标签是指与实体标签相对应的、借助于增强现实设备能够查看到的标签。例如,借助于AR眼镜能够查看到的标签。
具体的,终端获取到目标手势之后,根据该目标手势,接收虚拟标签的生成启动操作。
在一个实施例中,目标手势与虚拟标签的生成启动插件之间具有对应关系,当接收到目标手势后,开启语音识别功能,利用该语音识别功能接收语音信息。
步骤208,响应于生成启动操作,生成虚拟标签。
具体的,终端接收到生成启动操作时,响应于该生成启动操作,开启生成虚拟标签方法,生成虚拟标签。
在一个实施例中,终端响应于生成启动操作,开启语音识别功能,通过该语音识别功能接收语音信息,将该语音信息转换为文本信息,将该文本信息作为虚拟标签。
步骤210,基于目标手势的第一位置信息,确定目标位置。
其中,位置信息是指目标手势的空间相对位置信息。
具体的,终端选定一空间参照系,在虚拟场景中某个参照物体上设置参考坐标系,利用该参考坐标系,得到目标手势的位置信息,将该位置信息对应的位置确定为目标位置。
在一个实施例中,终端通过目标手势中关节点跟踪方法,得到目标关节点的位置,将该位置确定为目标位置。
步骤212,将虚拟标签标记于目标位置上;其中,该目标位置为目标手势和目标对象的空间相对位置。
具体的,终端在获取到生成的虚拟标签和目标位置之后,将该虚拟标签标记于该目标位置上。
在一个实施例中,虚拟标签叠加显示在目标手势中的目标关节点上,若目标手势发生变化,则虚拟标签与上述目标关节点分离,将虚拟标签标记于分离时的目标位置上。
上述虚拟标签标记方法中,通过获取待标记的目标对象;响应于手势识别的触发操作,获取目标手势;根据该目标手势,接收虚拟标签的生成启动操作;基于该生成启动操作,生成虚拟标签;基于目标手势的第一位置信息,确定目标位置;将虚拟标签标记于目标位置上;其中,该目标位置为目标手势和目标对象的空间相对位置。能够在目标对象的目标位置上标记上虚拟标签,避免了因需要打印标签以及耗费大量人力进行标签标记带来的标签标记效率低的问题,提高了标签标记的效率。
在一个实施例中,如图3所示,响应于生成启动操作,生成虚拟标签包括:
步骤302,响应于生成启动操作,接收语音信息。
具体的,终端接收到生成启动操作,响应于该生成启动操作,开启语音识别功能,接收语音信息。
在一个实施例中,终端在响应于该生成启动操作后,再次对目标手势进行识别,若识别到的目标手势与预存储的手势比对失败,则放弃接收语音信息。例如,目标手势为食指拇指未捏合,接收语音信息对应的预存储的手势为食指拇指捏合,当响应于生成启动操作后,放弃接收语音信息。
步骤304,将语音信息进行信息类型转换,得到文本信息。
具体的,终端接收到语音信息后,利用语音文本转换方法或者语音文本转换工具,例如,语音文本转换插件或者脚本,对语音信息进行类型转换,得到文本信息。
步骤306,利用文本信息生成虚拟标签。
具体的,终端在得到文本信息之后,以可视化的方式将该文本信息展示于目标位置上。
本实施例中,通过响应于生成启动操作,接收语音信息,将语音信息进行信息类型转换,得到文本信息,利用文本信息生成虚拟标签,能够达到准确生成虚拟标签的目的。
在一个实施例中,如图4所示,基于目标手势的第一位置信息,确定目标位置包括:
步骤402,获取目标手势中的目标关节点。
具体的,终端利用关节点跟踪技术,获取到目标手势中的目标关节点。
步骤404,将虚拟标签叠加显示在目标关节点上。
具体的,在终端获取到目标关节点之后,以可视化的形式在该目标关节点上显示虚拟标签。
步骤406,获取目标关节点的第二位置信息;该第二位置信息为第一位置信息的空间相对位置信息。
具体的,终端以目标手势的中心位置为参考坐标位置,在获取到目标关节点后,获取到该目标关节点相对于上述参考坐标位置的相对位置信息,将该相对位置信息对应的位置,确定为目标关节点的位置信息。
步骤408,若目标手势发生改变,虚拟标签与目标关节点分离,得到分离位置;该分离位置为虚拟标签与目标关节点分离时,上述目标关节点的第二位置信息;将分离位置确定为目标位置。
具体的,若目标手势发生改变,目标关节点也随着目标手势的变化而变化,此时,虚拟标签与目标关节点分离,得到分离位置。并将该分离位置确定为目标位置。
本实施例中,通过获取目标手势中的目标关节点,将虚拟标签叠加显示在目标关节点上,获取目标关节点的第二位置信息,若目标手势发生改变,虚拟标签与目标关节点分离,得到分离位置,将分离位置确定为目标位置,能够达到准确确定目标位置的目的。
在一个实施例中,如图5所示,获取待标记的目标对象包括:
步骤502,获取虚拟场景,该虚拟场景中包括目标对象。
其中,虚拟场景是指利用增强现实方法得到的场景。增强现实方法是指将虚拟信息与真实世界巧妙融合的方法。
在一个实施例中,根据目标对象所在的实际场景的空间位置信息,以及,预先建立的空间位置信息与虚拟场景的空间位置信息一一对应,获取到虚拟场景,在该虚拟场景中包括目标对象。
步骤504,对虚拟场景中的各个虚拟对象进行图像特征分析,得到图像特征集合。
其中,图像特征指是能够使某一图像区别于另一图像的特点。例如,包括一方形对象的图像和包括一圆形对象的图像,其中的方形和圆形的区别可以作为两个对象之间的区别,从而区别包括方形对象的图像和包括圆形对象的图像。
具体的,终端在获取虚拟场景之后,对该虚拟场景中的虚拟对象进行图像特征分析,提取每个虚拟对象的图像特征,得到图像特征集合。
步骤506,在图像特征集合中获取候选图像特征。
具体的,终端在获取到图像特征集合之后,在该图像特征集合中获取到候选图像特征,该候选图像特征可以为与预先存储的图像特征相似或者相同的图像特征。例如,预先存储的图像特征为虚拟对象打印机的图像特征,根据候选图像特征与虚拟对象打印机的图像特征的匹配度达到匹配度阈值后,将上述候选图像特征确定为需要获取的虚拟对象打印机的图像特征。
步骤508,基于候选图像特征,得到目标图像特征。
具体的,终端在获取到候选图像特征后,可以利用该候选图像特征,组合得到目标图像特征。
步骤510,根据目标图像特征,得到对应的目标对象。
具体的,在得到目标图像特征之后,通过目标图像特征合成目标对象。
本实施例中,通过获取虚拟场景,该虚拟场景中包括目标对象,对虚拟场景中的各个虚拟对象进行图像特征分析,得到图像特征集合,在图像特征集合中获取候选图像特征,基于候选图像特征,得到目标图像特征,根据目标图像特征,得到对应的目标对象,能够达到在虚拟场景中准确得到目标对象的目的。
在一个实施例中,基于候选图像特征,得到目标图像特征包括:当候选图像特征与预设图像特征的特征匹配度大于等于匹配度阈值时,将候选图像特征确定为目标图像特征。
其中,匹配度阈值是指匹配度的临界值,大于等于该临界值时,认为两个图像特征相同,小于该临界值时,认为两个图像特征不相同。
具体的,终端利用特征匹配方法,对候选图像特征与预设图像特征进行特征匹配,得到特征匹配度,当该特征匹配度大于等于匹配度阈值时,将候选图像特征确定为目标图像特征。例如,特征匹配度和匹配度阈值均表示为百分比,假设特征匹配度为60%,匹配度阈值为90%,该特征匹配度小于匹配度阈值,则该候选图像特征不是目标图像特征;又例如,假设特征匹配度为95%,匹配度阈值为90%,则该候选图像特征是目标图像特征。
本实施例中,通过利用特征之间的匹配度确定目标图像特征,能够达到准确得到目标图像特征的目的。
在一个实施例中,响应于生成启动操作之后还包括:若在生成标签阈值时间内,未接收到语音信息,则放弃生成虚拟标签。
其中,生成标签阈值时间是指生成标签的临界时间,在该时间内接收到语音信息,则生成虚拟标签;在该时间内未接收到语音,则放弃生成虚拟标签。
具体的,终端响应于生成启动操作之后,若持续2秒内,未接收到语音输入,则自动结束录音,放弃生成虚拟标签。
本实施例中,通过设置生成标签阈值时间,能够达到减少错误虚拟标签或者空虚拟标签的目的,提高了虚拟标签标记的效率。
在一个实施例中,以终端为AR眼镜为例。利用AR眼镜打开SLAM(SimultaneousLocalization And Mapping)功能,获得前方场景中的物体和场景中各点的深度信息,生成点云;同时,开启手势识别功能,通过AR眼镜摄像头识别手势。当该手势为目标手势时,开始进行录音,如果在2秒内没有语音输入,则自动结束录音,不生成虚拟标签;如果在开始语音的2秒内有语音录入,则将利用录入的语音,生成虚拟标签;追踪目标手势中目标关节点的位置,例如,跟踪目标手势中捏合的拇指和食指,将虚拟标签和目标关节点进行叠加显示在目标关节点上,当目标关节点出现变换时,例如,如图6所示,将捏合的拇指和食指松开时,虚拟标签停止跟踪目标关节点,将虚拟标签放置于空间相对位置上。利用上述方法可以在目标对象上防止至少一个虚拟标签。
下面对本发明提供的虚拟标签标记装置进行描述,下文描述的虚拟标签标记装置与上文描述的虚拟标签标记方法可相互对应参照。
在一个实施例中,如图7所示,提供了一种虚拟标签标记装置700,包括:目标对象获取模块702、目标手势获取模块704、生成启动操作接收模块706、虚拟标签生成模块708、目标位置确定模块710和虚拟标签标记模块712,其中:目标对象获取模块702,用于获取待标记的目标对象;目标手势获取模块704,用于响应于手势识别的触发操作,获取目标手势;生成启动操作接收模块706,用于根据目标手势,接收虚拟标签的生成启动操作;虚拟标签生成模块708,用于响应于生成启动操作,生成虚拟标签;目标位置确定模块710,用于基于目标手势的第一位置信息,确定目标位置;虚拟标签标记模块712,将虚拟标签标记于目标位置上;其中,目标位置为目标手势和目标对象的空间相对位置。
在一个实施例中,虚拟标签生成模块708包括:语音信息接收单元,响应于生成启动操作,接收语音信息;文本信息得到单元,将语音信息进行信息类型转换,得到文本信息;虚拟标签生成单元,用于利用文本信息生成虚拟标签。
在一个实施例中,目标位置确定模块710,用于获取目标手势中的目标关节点;将虚拟标签叠加显示在目标关节点上;获取目标关节点的第二位置信息;第二位置信息为第一位置信息的空间相对位置信息;若目标手势发生改变,虚拟标签与目标关节点分离,得到分离位置;分离位置为虚拟标签与目标关节点分离时,目标关节点的第二位置信息;将分离位置确定为目标位置。
在一个实施例中,目标对象获取模块702,用于获取虚拟场景,虚拟场景中包括目标对象;对虚拟场景中的各个虚拟对象进行图像特征分析,得到图像特征集合;在图像特征集合中获取候选图像特征;基于候选图像特征,得到目标图像特征;根据目标图像特征,得到对应的目标对象。
在一个实施例中,目标对象获取模块702,用于当候选图像特征与预设图像特征的特征匹配度大于等于匹配度阈值时,将候选图像特征确定为目标图像特征。
在一个实施例中,虚拟标签生成模块,用于若在生成标签阈值时间内,未接收到语音信息,则放弃生成虚拟标签。
图8示例了一种电子设备的实体结构示意图,如图8所示,该电子设备可以包括:处理器(processor)810、通信接口(Communications Interface)820、存储器(memory)830和通信总线840,其中,处理器810,通信接口820,存储器830通过通信总线840完成相互间的通信。处理器810可以调用存储器830中的逻辑指令,以执行虚拟标签标记方法,该方法包括:获取待标记的目标对象;响应于手势识别的触发操作,获取目标手势;根据目标手势,接收虚拟标签的生成启动操作;响应于生成启动操作,生成虚拟标签;基于目标手势的第一位置信息,确定目标位置;将虚拟标签标记于目标位置上;其中,目标位置为目标手势和目标对象的空间相对位置。
此外,上述的存储器830中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令被计算机执行时,计算机能够执行上述各方法所提供的虚拟标签标记方法,该方法包括:获取待标记的目标对象;响应于手势识别的触发操作,获取目标手势;根据目标手势,接收虚拟标签的生成启动操作;响应于生成启动操作,生成虚拟标签;基于目标手势的第一位置信息,确定目标位置;将虚拟标签标记于目标位置上;其中,目标位置为目标手势和目标对象的空间相对位置。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各提供的虚拟标签标记方法,该方法包括:获取待标记的目标对象;响应于手势识别的触发操作,获取目标手势;根据目标手势,接收虚拟标签的生成启动操作;响应于生成启动操作,生成虚拟标签;基于目标手势的第一位置信息,确定目标位置;将虚拟标签标记于目标位置上;其中,目标位置为目标手势和目标对象的空间相对位置。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (9)

1.一种虚拟标签标记方法,其特征在于,包括:
获取待标记的目标对象;所述目标对象为在虚拟场景中获取到的,所述虚拟场景为利用定位与地图构建方法获取到的实际场景转换得到的;
响应于手势识别的触发操作,获取目标手势;
根据所述目标手势,接收所述虚拟标签的生成启动操作;
响应于所述生成启动操作,生成所述虚拟标签;
所述响应于所述生成启动操作,生成所述虚拟标签包括:响应于所述生成启动操作,若识别到的所述目标手势与预存储的手势比对成功,则接收语音信息;
将所述语音信息进行信息类型转换,得到文本信息;
利用文本信息生成虚拟标签;
基于所述目标手势的第一位置信息,确定目标位置;
将所述虚拟标签标记于所述目标位置上;其中,所述目标位置为所述目标手势和所述目标对象的空间相对位置。
2.根据权利要求1所述的虚拟标签标记方法,其特征在于,所述基于所述目标手势的第一位置信息,确定目标位置包括:
获取所述目标手势中的目标关节点;
将所述虚拟标签叠加显示在所述目标关节点上;
获取所述目标关节点的第二位置信息;所述第二位置信息为所述第一位置信息的空间相对位置信息;
若所述目标手势发生改变,所述虚拟标签与所述目标关节点分离,得到分离位置;所述分离位置为所述虚拟标签与所述目标关节点分离时,所述目标关节点的所述第二位置信息;
将所述分离位置确定为所述目标位置。
3.根据权利要求1所述的虚拟标签标记方法,其特征在于,所述获取待标记的目标对象包括:
获取虚拟场景,所述虚拟场景中包括所述目标对象;
对所述虚拟场景中的各个虚拟对象进行图像特征分析,得到图像特征集合;
在所述图像特征集合中获取候选图像特征;
基于所述候选图像特征,得到目标图像特征;
根据所述目标图像特征,得到对应的目标对象。
4.根据权利要求3所述的虚拟标签标记方法,其特征在于,所述基于所述候选图像特征,得到目标图像特征包括:
当所述候选图像特征与预设图像特征的特征匹配度大于等于匹配度阈值时,将所述候选图像特征确定为所述目标图像特征。
5.根据权利要求1所述的虚拟标签标记方法,其特征在于,所述响应于所述生成启动操作之后还包括:
若在生成标签阈值时间内,未接收到所述语音信息,则放弃生成所述虚拟标签。
6.一种虚拟标签标记装置,其特征在于,包括:
目标对象获取模块,用于获取待标记的目标对象;所述目标对象为在虚拟场景中获取到的,所述虚拟场景为利用定位与地图构建方法获取到的实际场景转换得到的;
目标手势获取模块,用于响应于手势识别的触发操作,获取目标手势;
生成启动操作接收模块,用于根据所述目标手势,接收所述虚拟标签的生成启动操作;
虚拟标签生成模块,用于响应于所述生成启动操作,若识别到的所述目标手势与预存储的手势比对成功,则接收语音信息;将所述语音信息进行信息类型转换,得到文本信息;利用文本信息生成虚拟标签;
目标位置确定模块,用于基于所述目标手势的第一位置信息,确定目标位置;
虚拟标签标记模块,将所述虚拟标签标记于所述目标位置上;其中,所述目标位置为所述目标手势和所述目标对象的空间相对位置。
7.根据权利要求6所述的标记装置,其特征在于,所述虚拟标签生成模块包括:
语音信息接收单元,响应于所述生成启动操作,接收语音信息;
文本信息得到单元,将所述语音信息进行信息类型转换,得到文本信息;
虚拟标签生成单元,用于利用所述文本信息生成所述虚拟标签。
8.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至5任一项所述虚拟标签标记方法的步骤。
9.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述虚拟标签标记方法的步骤。
CN202111083785.XA 2021-09-16 2021-09-16 虚拟标签标记方法、装置、电子设备及存储介质 Active CN113535064B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111083785.XA CN113535064B (zh) 2021-09-16 2021-09-16 虚拟标签标记方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111083785.XA CN113535064B (zh) 2021-09-16 2021-09-16 虚拟标签标记方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN113535064A CN113535064A (zh) 2021-10-22
CN113535064B true CN113535064B (zh) 2022-02-01

Family

ID=78123232

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111083785.XA Active CN113535064B (zh) 2021-09-16 2021-09-16 虚拟标签标记方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN113535064B (zh)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102204919B1 (ko) * 2014-06-14 2021-01-18 매직 립, 인코포레이티드 가상 및 증강 현실을 생성하기 위한 방법들 및 시스템들
US20180082482A1 (en) * 2016-09-22 2018-03-22 Apple Inc. Display system having world and user sensors
US10304239B2 (en) * 2017-07-20 2019-05-28 Qualcomm Incorporated Extended reality virtual assistant
CN108334814B (zh) * 2018-01-11 2020-10-30 浙江工业大学 一种ar系统手势识别方法
WO2020154971A1 (en) * 2019-01-30 2020-08-06 Siemens Aktiengesellschaft Electronic device and control method therefor
US10885322B2 (en) * 2019-01-31 2021-01-05 Huawei Technologies Co., Ltd. Hand-over-face input sensing for interaction with a device having a built-in camera
CN112068752B (zh) * 2020-08-28 2022-01-11 北京五八信息技术有限公司 一种空间展示方法、装置、电子设备及存储介质
CN112037340A (zh) * 2020-09-09 2020-12-04 中电建冀交高速公路投资发展有限公司 基于增强现实技术的隧道衬砌病害查看方法及穿戴式设备

Also Published As

Publication number Publication date
CN113535064A (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
US11557075B2 (en) Body pose estimation
US11036989B1 (en) Skeletal tracking using previous frames
CN108304762B (zh) 一种人体姿态匹配方法及其设备、存储介质、终端
EP2508975B1 (en) Display control device, display control method, and program
CN113378835B (zh) 标注模型训练、样本标注方法及相关装置
CN110135245B (zh) 到店确认方法、装置、电子设备及可读存储介质
US11010947B2 (en) Information processing system and information processing apparatus
CN112598805A (zh) 一种提示信息展示方法、装置、设备及存储介质
CN112288882A (zh) 一种信息展示方法、装置、计算机设备及存储介质
CN116954367A (zh) 一种虚拟现实的交互方法、系统及设备
CN112288889A (zh) 指示信息展示方法、装置、计算机设备及存储介质
CN110084187B (zh) 基于计算机视觉的位置识别方法、装置、设备及存储介质
CN110766010A (zh) 一种信息识别方法、模型训练方法和相关装置
CN113535064B (zh) 虚拟标签标记方法、装置、电子设备及存储介质
CN112328088A (zh) 图像的呈现方法和装置
CN110111385B (zh) 一种在三维空间实现目标定位的方法、终端和服务器
CN113963355B (zh) Ocr文字识别方法、装置、电子设备及存储介质
KR101520889B1 (ko) 객체와 핸드 장치 사이의 거리 정보를 활용하는 디지로그 북 시스템 및 구현 방법
CN110864683A (zh) 基于增强现实的业务办理引导方法以及装置
CN115756256A (zh) 信息标注的方法、系统、电子设备以及存储介质
CN114241046A (zh) 数据标注方法、装置、计算机设备及存储介质
KR102099852B1 (ko) 증강현실 게임북을 이용한 멀티유저 증강현실 컨텐츠 제공 시스템 및 방법
CN112749777A (zh) 情景交互仿真方法、装置、设备及存储介质
JP2012063850A (ja) 拡張現実表示システム、拡張現実表示方法および拡張現実表示プログラム
EP3477434B1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant