CN111625091B - 基于ar眼镜的标签叠加方法及装置 - Google Patents
基于ar眼镜的标签叠加方法及装置 Download PDFInfo
- Publication number
- CN111625091B CN111625091B CN202010408968.3A CN202010408968A CN111625091B CN 111625091 B CN111625091 B CN 111625091B CN 202010408968 A CN202010408968 A CN 202010408968A CN 111625091 B CN111625091 B CN 111625091B
- Authority
- CN
- China
- Prior art keywords
- glasses
- information
- tag
- target
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例公开了一种基于AR眼镜的标签叠加方法及装置。本申请实施例提供的技术方案,通过摄像头获取目标图像,识别所述目标图像得到对应目标的标签信息,和/或获取对应当前AR眼镜位姿的地理标签,该地理标签预先对应位置信息存储,又通过获取目标在目标图像的第一像素坐标和/或地理标签的位置信息,将第一像素坐标和/或位置信息分别转换为AR眼镜局部球坐标系的球坐标信息,并根据AR眼镜的FOV参数和屏幕分辨率将球坐标信息转换为屏幕坐标。之后,基于屏幕坐标将目标的标签信息和/或地理标签渲染至AR眼镜屏幕的相应位置。采用上述技术手段,方便用户查看对应目标的标签信息及地理标签,优化用户的观看体验。
Description
技术领域
本申请实施例涉及增强现实技术领域,尤其涉及一种基于AR眼镜的标签叠加方法及装置。
背景技术
目前,AR眼镜在生活中的很多领域都得到广泛应用。其实现的是在使用者的真实视野中叠加虚拟元素的能力。例如,在安防行业中,借助摄像头进行人脸、车牌和地理标识的拍摄,然后把视频画面叠加在眼镜视野中,以此来优化安防监控效果。
但是,在将人脸、车牌和地理标识等视频画面叠加至眼镜视野中时,使用者一方面会透过眼镜看到真实世界中的目标,另一方面又会看到摄像头拍摄的视频画面中的目标,导致使用者视觉上产生重影,严重干扰观看视野。
发明内容
本申请实施例提供一种基于AR眼镜的标签叠加方法、装置、电子设备及存储介质,能够进行标签信息识别并叠加至AR眼镜上,避免视觉重影,优化观看体验。
在第一方面,本申请实施例提供了一种基于AR眼镜的标签叠加方法,包括:
通过摄像头获取目标图像,识别所述目标图像得到对应目标的标签信息,和/或获取对应当前AR眼镜位姿的地理标签,所述地理标签预先对应位置信息存储;
获取所述目标在所述目标图像的第一像素坐标和/或所述地理标签的位置信息,将所述第一像素坐标和/或所述位置信息分别转换为AR眼镜局部球坐标系的球坐标信息;
根据所述AR眼镜的FOV参数和屏幕分辨率将所述球坐标信息转换为屏幕坐标;
基于所述屏幕坐标将所述目标的标签信息和/或所述地理标签渲染至AR眼镜屏幕的相应位置。
进一步的,所述球坐标信息包括对应所述目标的第一方位角和第一俯仰角,和/或对应所述地理标签的第二方位角和第二俯仰角;
对应的,所述屏幕坐标包括对应所述第一方位角和所述第一俯仰角的第一坐标,和/或对应所述第二方位角和所述第二俯仰角的第二坐标。
进一步的,将所述第一像素坐标和/或所述位置信息分别转换为AR眼镜局部球坐标系的球坐标信息,包括:
获取所述摄像头的FOV参数和分辨率;
基于所述摄像头的FOV参数和分辨率将所述第一像素坐标转换为所述第一方位角和所述第一俯仰角。
进一步的,基于所述摄像头的FOV参数和分辨率将所述第一像素坐标转换为所述第一方位角和所述第一俯仰角,还包括:
获取所述摄像头的畸变参数,基于所述畸变参数计算所述第一方位角和所述第一俯仰角。
进一步的,将所述第一像素坐标和/或所述位置信息分别转换为AR眼镜局部球坐标系的球坐标信息,还包括:
获取所述AR眼镜的GPS位置和IMU姿态信息;
基于所述AR眼镜的GPS位置和IMU姿态信息将所述位置信息转换为所述第二方位角和所述第二俯仰角。
进一步的,基于所述AR眼镜的GPS位置和IMU姿态信息将所述位置信息转换为所述第二方位角和所述第二俯仰角,包括:
基于所述AR眼镜的GPS位置和IMU姿态信息并根据共线方程将所述位置信息转换为对应所述摄像头的画面的第二像素坐标;
基于所述摄像头的FOV参数和分辨率将所述第二像素坐标转换为所述第二方位角和所述第二俯仰角。
进一步的,在基于所述屏幕坐标将所述目标的标签信息以及所述地理标签渲染至AR眼镜屏幕的相应位置之后,还包括:
响应于用户的调出指令,调出显示所述目标的属性信息列表,所述调出指令通过用户语音控制或用户眼睛聚焦选择触发。
在第二方面,本申请实施例提供了一种基于AR眼镜的标签叠加装置,包括:
获取模块,用于通过摄像头获取目标图像,识别所述目标图像得到对应目标的标签信息,和/或获取对应当前AR眼镜位姿的地理标签,所述地理标签预先对应位置信息存储;
第一转换模块,用于获取所述目标在所述目标图像的第一像素坐标和/或所述地理标签的位置信息,将所述第一像素坐标和/或所述位置信息分别转换为AR眼镜局部球坐标系的球坐标信息;
第二转换模块,用于根据所述AR眼镜的FOV参数和屏幕分辨率将所述球坐标信息转换为屏幕坐标;
渲染模块,用于基于所述屏幕坐标将所述目标的标签信息和/或所述地理标签渲染至AR眼镜屏幕的相应位置。
在第三方面,本申请实施例提供了一种电子设备,包括:
存储器以及一个或多个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的基于AR眼镜的标签叠加方法。
在第四方面,本申请实施例提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如第一方面所述的基于AR眼镜的标签叠加方法。
本申请实施例通过摄像头获取目标图像,识别所述目标图像得到对应目标的标签信息,和/或获取对应当前AR眼镜位姿的地理标签,该地理标签预先对应位置信息存储,又通过获取目标在目标图像的第一像素坐标和/或地理标签的位置信息,将第一像素坐标和/或位置信息分别转换为AR眼镜局部球坐标系的球坐标信息,并根据AR眼镜的FOV参数和屏幕分辨率将球坐标信息转换为屏幕坐标。之后,基于屏幕坐标将目标的标签信息和/或地理标签渲染至AR眼镜屏幕的相应位置。采用上述技术手段,可以通过识别目标的标签信息,将标签信息叠加在AR眼镜的对应位置上,避免直接将目标的视频画面叠加至AR眼镜屏幕时出现视觉重影的情况,且方便用户查看对应目标的标签信息及地理标签,优化用户的观看体验。
附图说明
图1是本申请实施例一提供的一种基于AR眼镜的标签叠加方法的流程图;
图2是本申请实施例一中的第一像素坐标转换流程图;
图3是本申请实施例一中的俯仰角示意图;
图4是本申请实施例一中的位置信息转换流程图;
图5是本申请实施例一中的第二像素坐标转换流程图;
图6是本申请实施例一中的物点和摄像头方位关系示意图;
图7是本申请实施例二提供的另一种基于AR眼镜的标签叠加方法的流程图;
图8是本申请实施例三提供的一种基于AR眼镜的标签叠加装置的结构示意图;
图9是本申请实施例四提供的一种电子设备的结构示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面结合附图对本申请具体实施例作进一步的详细描述。可以理解的是,此处所描述的具体实施例仅仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部内容。在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
本申请提供的基于AR眼镜的标签叠加方法,旨在通过相应目标的识别生成标签信息,并基于目标及对应AR眼镜位姿的地理标签的相关坐标信息进行转换得到相应的屏幕坐标,在AR眼镜屏幕的屏幕坐标上显示标签信息和地理标签,以此来实现标签信息和/或地理标签的精准叠加,优化用户的观看体验,并方便用户对目标的标签信息查看。相对于传统的AR眼镜,以人脸和车辆信息识别为例,其信息叠加方案主要是在AR眼镜的视野中展示AR眼镜上的摄像头拍摄的画面,然后在画面上进行人脸、车牌、地理标签信息的叠加。由于是图像画面的直接叠加,会使用户一方面透过AR眼镜看到真实世界中的目标,另一方面又会看到摄像头的视频画面中的目标,导致视觉上产生重影,严重干扰使用者的视野。显然,这种信息叠加方式会干扰用户在佩戴AR眼镜后的正常行走和作业,使用体验相对较差。基于此,提供本申请实施例的一种基于AR眼镜的标签叠加方法,以解决现有AR眼镜信息叠加方案影响用户视野,干扰作业的技术问题。
实施例一:
图1给出了本申请实施例一提供的一种基于AR眼镜的标签叠加方法的流程图,本实施例中提供的基于AR眼镜的标签叠加方法可以由基于AR眼镜执行,该基于AR眼镜可以通过软件和/或硬件的方式实现,该AR眼镜配置有摄像头。
下述以AR眼镜为执行基于AR眼镜的标签叠加方法的主体为例,进行描述。参照图1,该基于AR眼镜的标签叠加方法具体包括:
S110、通过摄像头获取目标图像,识别所述目标图像得到对应目标的标签信息,和/或获取对应当前AR眼镜位姿的地理标签,所述地理标签预先对应位置信息存储。
示例性的,在安防监控领域,需要对人脸、车牌进行信息识别和查看。通过本申请实施例的基于AR眼镜的标签叠加方法,将识别到的信息叠加在AR眼镜的眼镜屏幕上,以此来便于用户进行人脸、车牌信息的甄别、查看。具体的,本申请实施例的AR眼镜配置有摄像头,摄像头用于拍摄目标(人或车牌)图像,基于获取到的目标图像,进一步进行图像识别。在进行图像识别时,将人脸图像与预先设置的人脸数据库进行比对,确定人脸数据库中人脸特征相似度达到设定阈值的人脸信息,提取该人脸信息的相关标签信息(如姓名、年龄等),进一步进行标签信息的叠加。同样的,对于车牌信息的识别,可以采用类似人脸识别的方式对车牌进行识别比对,从车牌信息数据库中提取对应的标签信息(如车牌号码、相关状态信息等)进行信息叠加。车牌信息可直接采用OCR(Optical Character Recognition,光学字符识别)识别并进一步将识别到的信息与车牌数据库进行比对。标签信息根据实际的应用场景可以是各种不同类型的信息。并且,标签信息一般以文本或符号的形式体现,而不是简单的目标图像画面,以此来避免信息叠加的时候出现视野干扰的情况。
此外,本申请实施例还进一步获取当前对应AR眼镜位姿的地理标签信息,地理标签信息可以是对应的建筑物名称等,其同样根据实际显示需要进行显示。地理标签信息预先对应其自身的位置信息存储于地理标签数据库中。在进行地理标签获取时,根据AR眼镜的位姿状态(即AR眼镜的GPS位置和IMU姿态信息)确定地理标签。可以理解的是,根据AR眼镜的GPS位置可以查询数据库确定与自身距离在设定范围内的若干个位置信息,并根据AR眼镜的IMU姿态信息,确定对应当前AR眼镜视野前方的位置信息,基于这些位置信息即可对应提取地理标签。之后,基于上述确定的目标的标签信息和/或地理标签,分别根据其相关的坐标信息转换为AR眼镜的屏幕坐标,以实现在AR眼镜屏幕上的对应位置上进行显示。
可以理解的是,在实际应用中,当前地理标签和目标的标签信息可根据实际应用场景需要选择一种信息进行渲染显示,也可以只显示一种标签信息。例如,在地图导航应用场景中,一般只将地理标签渲染于AR眼镜的屏幕上。
S120、获取所述目标在所述目标图像的第一像素坐标和/或所述地理标签的位置信息,将所述第一像素坐标和/或所述位置信息分别转换为AR眼镜局部球坐标系的球坐标信息。
进一步的,基于上述已确定的目标的标签信息和/或地理标签,需要确定其在AR眼镜上进行叠加的屏幕位置(即屏幕坐标)。在此之前,需要获取目标在目标图像的像素坐标(定义为第一像素坐标)和/或地理标签的位置信息,确定该第一像素坐标和/或该位置信息在AR眼镜局部球坐标系的球坐标信息,并基于球坐标信息做进一步转换确定屏幕坐标。其中,所述球坐标信息包括对应所述目标的第一方位角和第一俯仰角,和/或对应所述地理标签的第二方位角和第二俯仰角。
参照图2,第一像素坐标转换流程包括:
S1201、获取所述摄像头的FOV参数和分辨率;
S1202、基于所述摄像头的FOV参数和分辨率将所述第一像素坐标转换为所述第一方位角和所述第一俯仰角。
具体的,本申请实施例基于AR眼镜上摄像头的FOV参数(视场角)以及分辨率进行第一像素坐标的转换。示例性的,基于AR眼镜上摄像头拍摄的目标图像确定目标的第一像素坐标(u,v),进一步根据坐标“u”和“v”计算得到第一方位角φ1和第一俯仰角θ1。参照图3,提供俯仰角示意图,图中,分辨率为1080,θ为俯仰角,FOV为摄像头视场角,v表示第一像素坐标的“v”坐标,其值为200,FC为摄像头坐标,OFC为摄像头到目标的距离。则根据勾股定理,得到如下公式:
则在已知摄像头视场角的情况下,基于勾股定理通过上述公式(1)即可计算得到OFC的值,并进一步根据公式(2)计算得到tanθ的值,最终确定俯仰角θ的值。
参照上述俯仰角的计算方式,在已知摄像头的FOV参数(视场角)以及第一像素坐标的“u”坐标值时,即可同理计算得到方位角,以此来完成第一方位角φ1和第一俯仰角θ1的计算。
此外,在实际应用中,还获取所述摄像头的畸变参数,基于所述畸变参数计算所述第一方位角和所述第一俯仰角。可以理解的是,在进行像素坐标转换为AR眼镜局部球坐标系的球坐标信息时,由于目标图像畸变的影响,会导致计算得到的方位角和俯仰角存在一定的误差。基于此,本申请实施例考虑图像畸变的影响,在进行方位角和俯仰角的计算时,还进一步获取摄像头的畸变参数,进一步将畸变参数作为影响因子进行方位角和俯仰角的计算,以确保最终得到的方位角和俯仰角更为准确。
另一方面,参照图4,提供位置信息转换流程图,其中,位置信息的转换流程包括:
S1203、获取所述AR眼镜的GPS位置和IMU姿态信息;
S1204、基于所述AR眼镜的GPS位置和IMU姿态信息将所述位置信息转换为所述第二方位角和所述第二俯仰角。
具体的,在进行第二方位角和第二俯仰角的计算时,同样参照上述第一方位角和第一俯仰角的计算方式,根据地理标签对应位置信息在摄像头拍摄画面的像素坐标(定义为第二像素坐标)确定。但由于无法直接基于图像确定该第二像素坐标,因此,本申请实施例先基于AR眼镜的GPS位置和IMU姿态信息将位置信息转换为对应摄像头拍摄画面的第二像素坐标,进一步进行第二方位角和第二俯仰角的计算。其中,参照图5,第二像素坐标转换流程包括:
S12041、基于所述AR眼镜的GPS位置和IMU姿态信息并根据共线方程将所述位置信息转换为对应所述摄像头的画面的第二像素坐标;
S12042、基于所述摄像头的FOV参数和分辨率将所述第二像素坐标转换为所述第二方位角和所述第二俯仰角。
本申请实施例根据物点(即位置信息)与摄像头的范围关系转换得到该位置信息对应在摄像头画面上的第二像素坐标。示例性的,参照图6,提供物点和摄像头方位关系示意图。如图6所示,其中,S为摄像头的摄影中心,在某一规定的物方空间坐标中其坐标为(XS,YS,ZS),A为任一物方空间点,它的物方空间坐标(XA,YA,ZA)。a为A在影像上的构像,相应的像空间坐标和像空间辅助坐标分别为(x,y,-f)和(X,Y,Z)。摄影时S、A、a三点位于一条直线上。进一步提供共线方程:
其中,x,y为像点的像平面坐标,即地理标签的位置信息在摄像头画面的第二像素坐标;x0,y0,f为影像的内方位元素,其为摄像头焦距的长宽比,可通过获取摄像头相关参数确定;XS,YS,ZS为摄像点的物方空间坐标,即摄像头的空间坐标,由于摄像头设于AR眼镜上,所以其实际上为AR眼镜的GPS位置;XA,YA,ZA为物方点的物方空间坐标,即为地理标签的位置信息,表示为(经度,纬度,高程);ai,bi,ci(i=1,2,3)为影像的3个外方位角元素组成的9个方向余弦,可基于AR眼镜的IMU姿态信息确定。则在已知AR眼镜的GPS位置、IMU姿态信息、地理标签的位置信息、摄像头的参数信息的情况下,即可基于上述共线方程,计算得到该第二像素坐标。需要说明的是,在计算过程中,需要将AR眼镜的GPS位置、地理标签的位置信息转换为大地坐标,以保证坐标信息对应。
进一步的,基于上述确定的第二像素坐标,参照上述基于第一像素坐标计算第一方位角φ1和第一俯仰角θ1的方式,同理即可基于该第二像素坐标最终计算得到对应的第二方位角φ2和第二俯仰角θ2。
S130、根据所述AR眼镜的FOV参数和屏幕分辨率将所述球坐标信息转换为屏幕坐标。
更进一步的,基于上述已确定的第一方位角φ1、第一俯仰角θ1、第二方位角φ2和第二俯仰角θ2,即可对应将这一AR眼镜局部球坐标系的球坐标信息转换为AR眼镜屏幕的屏幕坐标。
需要说明的是,由于球坐标信息对应目标包括第一方位角和第一俯仰角,对应地理标签包括第二方位角和第二俯仰角。则所述屏幕坐标包括对应所述第一方位角和所述第一俯仰角的第一坐标,和/或对应所述第二方位角和所述第二俯仰角的第二坐标。
进一步的,在进行屏幕坐标转换时,参照上述方位角和俯仰角的计算方式,屏幕坐标的转换实际就是方位角和俯仰角计算的逆过程。举例而言,AR眼镜的视场角为FOVAR,屏幕分辩率为720,以方位角计算为例,则根据勾股定理得到公式:
则进一步根据公式(3)、(4)计算得到屏幕坐标(uAR,vAR)中“uAR”的值。其中:
可以理解的是,在已知AR眼镜的FOV参数(即FOVAR)、屏幕分辨率(即720)以及方位角(即φ)的情况下,即可对应求得屏幕坐标(uAR,vAR)中“uAR”的值。同理,参照上述计算方式,计算得到屏幕坐标(uAR,vAR)中“vAR”的值。最终,基于上述公式(3)、(4)和(5),最终得到对应目标及地理标签在AR眼镜屏幕上的屏幕坐标。
S140、基于所述屏幕坐标将所述目标的标签信息和/或所述地理标签渲染至AR眼镜屏幕的相应位置。
最终,基于上述确定的屏幕坐标,即可对应提取此前已经识别到的目标的标签信息,渲染至对应屏幕坐标的位置上。同样的,通过提取地理标签,将其渲染至对应屏幕坐标的位置上。需要说明的是,如若需要同时渲染上述两种信息,在进行目标的标签信息以及地理标签的渲染时,其分别根据自身的屏幕坐标进行渲染。并且,在一个实施例中,当出现地理标签与目标的标签信息重叠时,可调整标签信息或者地理标签的渲染位置,以避免两个标签之间出现信息重叠。以此,用户使用AR眼镜时,即可透过AR眼镜看到真实场景下的目标,并通过AR眼镜的屏幕看到叠加在对应屏幕位置上的目标的标签信息及对应地理标签,在避免出现视觉重影,保障用户观看体验的情况下进行标签信息查看,以此来便于用户基于标签信息查看进行安防巡查、监控。
上述,通过摄像头获取目标图像,识别所述目标图像得到对应目标的标签信息,和/或获取对应当前AR眼镜位姿的地理标签,该地理标签预先对应位置信息存储,又通过获取目标在目标图像的第一像素坐标和/或地理标签的位置信息,将第一像素坐标和/或位置信息分别转换为AR眼镜局部球坐标系的球坐标信息,并根据AR眼镜的FOV参数和屏幕分辨率将球坐标信息转换为屏幕坐标。之后,基于屏幕坐标将目标的标签信息和/或地理标签渲染至AR眼镜屏幕的相应位置。采用上述技术手段,可以通过识别目标的标签信息,将标签信息叠加在AR眼镜的对应位置上,避免直接将目标的视频画面叠加至AR眼镜屏幕时出现视觉重影的情况,且方便用户查看对应目标的标签信息及地理标签,优化用户的观看体验。
实施例二:
在上述实施例的基础上,图7为本申请实施例二提供的另一种基于AR眼镜的标签叠加方法的流程图,参照图7,该基于AR眼镜的标签叠加方法包括:
S210、通过摄像头获取目标图像,识别所述目标图像得到对应目标的标签信息,和/或获取对应当前AR眼镜位姿的地理标签,所述地理标签预先对应位置信息存储;
S220、获取所述目标在所述目标图像的第一像素坐标和/或所述地理标签的位置信息,将所述第一像素坐标和/或所述位置信息分别转换为AR眼镜局部球坐标系的球坐标信息;
S230、根据所述AR眼镜的FOV参数和屏幕分辨率将所述球坐标信息转换为屏幕坐标;
S240、基于所述屏幕坐标将所述目标的标签信息和/或所述地理标签渲染至AR眼镜屏幕的相应位置;
S250、响应于用户的调出指令,调出显示所述目标的属性信息列表,所述调出指令通过用户语音控制或用户眼睛聚焦选择触发。
本申请实施例在将目标的标签信息和/或地理标签渲染至AR眼镜屏幕的相应位置之后,还进一步提供一个选项供用户选择调出对应目标的属性信息列表。以人脸目标为例,人脸的标签信息可以是名字、年龄等信息,而属性信息列表则可以是对应该人脸的详细身份属性信息,例如性别、籍贯、身份乃至相关信息记录等。当用户需要查看当前视野下某一人脸的属性信息列表时,通过触发调出指令来控制AR眼镜调出该属性信息列表并显示在AR眼镜的屏幕上。
其中,调出指令通过用户语音控制或用户眼睛聚焦选择触发。当通过语音控制时,用户发出控制语音,语音中包含了对应目标的标签信息,以便于AR眼镜通过语音识别确定需要调出的属性信息列表对比的是哪个目标。进一步根据标签信息查询数据库,即可调取对应的属性信息列表。
而在通过用户眼睛聚焦选择触发调出指令时,AR眼镜根据用户的眼睛及虹膜信息实时追踪用户眼睛的聚焦点,通过眼球跟踪功能确定用户眼球当前聚焦点在AR眼镜屏幕上的屏幕坐标,当这一屏幕坐标与标签信息的屏幕坐标重合或者接近某一距离阈值时,则AR眼镜触发进行对应标签信息的属性信息列表调用。进一步的,为了避免属性信息列表错误调出,还可以在这一屏幕坐标与标签信息的屏幕坐标重合或者接近某一距离阈值时,弹出询问窗口,询问用户是否需要调出显示对应的属性信息列表。并进一步根据用户眼睛聚焦选择、语音控制选择或手动选择等方式确定用户当前是否需要调出显示对应的属性信息列表。
此外,在一个实施例中,还可以预先设置一个对应地理标签的信息列表,该信息列表用于记载对应地理标签的详细信息。并进一步参照上述调出属性信息列表的显示方式在用户需要的时候调出显示于AR眼镜的屏幕上,以进一步优化用户的标签信息查看体验。
实施例三:
在上述实施例的基础上,图8为本申请实施例三提供的一种基于AR眼镜的标签叠加装置的结构示意图。参考图8,本实施例提供的基于AR眼镜的标签叠加装置具体包括:获取模块31、第一转换模块32、第二转换模块33和渲染模块34。
其中,获取模块31用于通过摄像头获取目标图像,识别所述目标图像得到对应目标的标签信息,和/或获取对应当前AR眼镜位姿的地理标签,所述地理标签预先对应位置信息存储;第一转换模块32用于获取所述目标在所述目标图像的第一像素坐标和/或所述地理标签的位置信息,将所述第一像素坐标和/或所述位置信息分别转换为AR眼镜局部球坐标系的球坐标信息;第二转换模块33用于根据所述AR眼镜的FOV参数和屏幕分辨率将所述球坐标信息转换为屏幕坐标;渲染模块34用于基于所述屏幕坐标将所述目标的标签信息和/或所述地理标签渲染至AR眼镜屏幕的相应位置。
上述,通过摄像头获取目标图像,识别所述目标图像得到对应目标的标签信息,和/或获取对应当前AR眼镜位姿的地理标签,该地理标签预先对应位置信息存储,又通过获取目标在目标图像的第一像素坐标和/或地理标签的位置信息,将第一像素坐标和/或位置信息分别转换为AR眼镜局部球坐标系的球坐标信息,并根据AR眼镜的FOV参数和屏幕分辨率将球坐标信息转换为屏幕坐标。之后,基于屏幕坐标将目标的标签信息以及地理标签渲染至AR眼镜屏幕的相应位置。采用上述技术手段,可以通过识别目标的标签信息和/或地理标签,将标签信息和/或地理标签叠加在AR眼镜的对应位置上,避免直接将目标的视频画面叠加至AR眼镜屏幕时出现视觉重影的情况,且方便用户查看对应目标的标签信息及地理标签,优化用户的观看体验。具体的,第一转换模块32包括:
第一获取单元,用于获取所述摄像头的FOV参数和分辨率;
第一转换单元,用于基于所述摄像头的FOV参数和分辨率将所述第一像素坐标转换为所述第一方位角和所述第一俯仰角。
第二获取单元,用于获取所述AR眼镜的GPS位置和IMU姿态信息;
第二转换单元,用于基于所述AR眼镜的GPS位置和IMU姿态信息将所述位置信息转换为所述第二方位角和所述第二俯仰角。
具体的,还包括:
调出模块,用于响应于用户的调出指令,调出显示所述目标的属性信息列表和/或对应地理标签的信息列表,所述调出指令通过用户语音控制或用户眼睛聚焦选择触发。
本申请实施例三提供的基于AR眼镜的标签叠加装置可以用于执行上述实施例一、二提供的基于AR眼镜的标签叠加方法,具备相应的功能和有益效果。
实施例四:
本申请实施例四提供了一种电子设备,参照图9,该电子设备包括:处理器41、存储器42、通信模块43、输入装置44及输出装置45。该电子设备中处理器的数量可以是一个或者多个,该电子设备中的存储器的数量可以是一个或者多个。该电子设备的处理器、存储器、通信模块、输入装置及输出装置可以通过总线或者其他方式连接。
存储器42作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本申请任意实施例所述的基于AR眼镜的标签叠加方法对应的程序指令/模块(例如,基于AR眼镜的标签叠加装置中的获取模块、第一转换模块、第二转换模块和渲染模块)。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据设备的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
通信模块43用于进行数据传输。
处理器41通过运行存储在存储器中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述任意实施例所提供的基于AR眼镜的标签叠加方法。
输入装置44可用于接收输入的数字或字符信息,以及产生与设备的用户设置以及功能控制有关的键信号输入。输出装置45可包括显示屏等显示设备。
上述提供的电子设备可用于执行上述实施例一、二提供的基于AR眼镜的标签叠加方法,具备相应的功能和有益效果。
实施例五:
本申请实施例还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种基于AR眼镜的标签叠加方法,该基于AR眼镜的标签叠加方法包括:通过摄像头获取目标图像,识别所述目标图像得到对应目标的标签信息,和/或获取对应当前AR眼镜位姿的地理标签,所述地理标签预先对应位置信息存储;获取所述目标在所述目标图像的第一像素坐标和/或所述地理标签的位置信息,将所述第一像素坐标和/或所述位置信息分别转换为AR眼镜局部球坐标系的球坐标信息;根据所述AR眼镜的FOV参数和屏幕分辨率将所述球坐标信息转换为屏幕坐标;基于所述屏幕坐标将所述目标的标签信息和/或所述地理标签渲染至AR眼镜屏幕的相应位置。
存储介质——任何的各种类型的存储器设备或存储设备。术语“存储介质”旨在包括:安装介质,例如CD-ROM、软盘或磁带装置;计算机系统存储器或随机存取存储器,诸如DRAM、DDR RAM、SRAM、EDO RAM,兰巴斯(Rambus)RAM等;非易失性存储器,诸如闪存、磁介质(例如硬盘或光存储);寄存器或其它相似类型的存储器元件等。存储介质可以还包括其它类型的存储器或其组合。另外,存储介质可以位于程序在其中被执行的第一计算机系统中,或者可以位于不同的第二计算机系统中,第二计算机系统通过网络(诸如因特网)连接到第一计算机系统。第二计算机系统可以提供程序指令给第一计算机用于执行。术语“存储介质”可以包括驻留在不同位置中(例如在通过网络连接的不同计算机系统中)的两个或更多存储介质。存储介质可以存储可由一个或多个处理器执行的程序指令(例如具体实现为计算机程序)。
当然,本申请实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的基于AR眼镜的标签叠加方法,还可以执行本申请任意实施例所提供的基于AR眼镜的标签叠加方法中的相关操作。
上述实施例中提供的基于AR眼镜的标签叠加装置、存储介质及电子设备可执行本申请任意实施例所提供的基于AR眼镜的标签叠加方法,未在上述实施例中详尽描述的技术细节,可参见本申请任意实施例所提供的基于AR眼镜的标签叠加方法。
上述仅为本申请的较佳实施例及所运用的技术原理。本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行的各种明显变化、重新调整及替代均不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,而本申请的范围由权利要求的范围决定。
Claims (10)
1.一种基于AR眼镜的标签叠加方法,其特征在于,包括:
通过摄像头获取目标图像,识别所述目标图像得到对应目标的标签信息,和/或获取对应当前AR眼镜位姿的地理标签,所述地理标签预先对应位置信息存储;
获取所述目标在所述目标图像的第一像素坐标和/或所述地理标签的位置信息,将所述第一像素坐标和/或所述位置信息分别转换为AR眼镜局部球坐标系的球坐标信息;
根据所述AR眼镜的FOV参数和屏幕分辨率将所述球坐标信息转换为屏幕坐标;
基于所述屏幕坐标将所述目标的标签信息和/或所述地理标签渲染至AR眼镜屏幕的相应位置。
2.根据权利要求1所述的基于AR眼镜的标签叠加方法,其特征在于,所述球坐标信息包括对应所述目标的第一方位角和第一俯仰角,和/或对应所述地理标签的第二方位角和第二俯仰角;
对应的,所述屏幕坐标包括对应所述第一方位角和所述第一俯仰角的第一坐标,和/或对应所述第二方位角和所述第二俯仰角的第二坐标。
3.根据权利要求2所述的基于AR眼镜的标签叠加方法,其特征在于,将所述第一像素坐标和/或所述位置信息分别转换为AR眼镜局部球坐标系的球坐标信息,包括:
获取所述摄像头的FOV参数和分辨率;
基于所述摄像头的FOV参数和分辨率将所述第一像素坐标转换为所述第一方位角和所述第一俯仰角。
4.根据权利要求3所述的基于AR眼镜的标签叠加方法,其特征在于,基于所述摄像头的FOV参数和分辨率将所述第一像素坐标转换为所述第一方位角和所述第一俯仰角,还包括:
获取所述摄像头的畸变参数,基于所述畸变参数计算所述第一方位角和所述第一俯仰角。
5.根据权利要求2所述的基于AR眼镜的标签叠加方法,其特征在于,将所述第一像素坐标和/或所述位置信息分别转换为AR眼镜局部球坐标系的球坐标信息,还包括:
获取所述AR眼镜的GPS位置和IMU姿态信息;
基于所述AR眼镜的GPS位置和IMU姿态信息将所述位置信息转换为所述第二方位角和所述第二俯仰角。
6.根据权利要求5所述的基于AR眼镜的标签叠加方法,其特征在于,基于所述AR眼镜的GPS位置和IMU姿态信息将所述位置信息转换为所述第二方位角和所述第二俯仰角,包括:
基于所述AR眼镜的GPS位置和IMU姿态信息并根据共线方程将所述位置信息转换为对应所述摄像头的画面的第二像素坐标;
基于所述摄像头的FOV参数和分辨率将所述第二像素坐标转换为所述第二方位角和所述第二俯仰角。
7.根据权利要求1所述的基于AR眼镜的标签叠加方法,其特征在于,在基于所述屏幕坐标将所述目标的标签信息以及所述地理标签渲染至AR眼镜屏幕的相应位置之后,还包括:
响应于用户的调出指令,调出显示所述目标的属性信息列表,所述调出指令通过用户语音控制或用户眼睛聚焦选择触发。
8.一种基于AR眼镜的标签叠加装置,其特征在于,包括:
获取模块,用于通过摄像头获取目标图像,识别所述目标图像得到对应目标的标签信息,和/或获取对应当前AR眼镜位姿的地理标签,所述地理标签预先对应位置信息存储;
第一转换模块,用于获取所述目标在所述目标图像的第一像素坐标和/或所述地理标签的位置信息,将所述第一像素坐标和/或所述位置信息分别转换为AR眼镜局部球坐标系的球坐标信息;
第二转换模块,用于根据所述AR眼镜的FOV参数和屏幕分辨率将所述球坐标信息转换为屏幕坐标;
渲染模块,用于基于所述屏幕坐标将所述目标的标签信息和/或所述地理标签渲染至AR眼镜屏幕的相应位置。
9.一种电子设备,其特征在于,包括:
存储器以及一个或多个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7任一所述的基于AR眼镜的标签叠加方法。
10.一种包含计算机可执行指令的存储介质,其特征在于,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-7任一所述的基于AR眼镜的标签叠加方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010408968.3A CN111625091B (zh) | 2020-05-14 | 2020-05-14 | 基于ar眼镜的标签叠加方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010408968.3A CN111625091B (zh) | 2020-05-14 | 2020-05-14 | 基于ar眼镜的标签叠加方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111625091A CN111625091A (zh) | 2020-09-04 |
CN111625091B true CN111625091B (zh) | 2021-07-20 |
Family
ID=72271052
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010408968.3A Active CN111625091B (zh) | 2020-05-14 | 2020-05-14 | 基于ar眼镜的标签叠加方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111625091B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112019756B (zh) * | 2020-10-06 | 2021-05-18 | 盛夏 | 一种基于5g的智能可穿戴设备的控制方法及系统 |
CN112667856A (zh) * | 2020-10-21 | 2021-04-16 | 中测新图(北京)遥感技术有限责任公司 | 一种基于智能眼镜和三维模型的建筑信息查询方法及装置 |
CN115097903B (zh) * | 2022-05-19 | 2024-04-05 | 深圳智华科技发展有限公司 | Mr眼镜控制方法、装置、mr眼镜及存储介质 |
CN115100026B (zh) * | 2022-06-15 | 2023-07-14 | 佳都科技集团股份有限公司 | 基于目标对象的标签坐标转换方法、装置、设备及存储介质 |
CN115439635B (zh) * | 2022-06-30 | 2024-04-26 | 亮风台(上海)信息科技有限公司 | 一种呈现目标对象的标记信息的方法与设备 |
CN117558026B (zh) * | 2023-10-17 | 2024-07-05 | 东方联鸣(宁夏)科技发展有限公司 | 一种规模化牧场基于ai眼镜识别牛只的方法及系统 |
CN117459709A (zh) * | 2023-10-26 | 2024-01-26 | 天讯瑞达通信技术有限公司 | 云台摄像头可视化标签定位方法 |
CN117745988A (zh) * | 2023-12-20 | 2024-03-22 | 亮风台(上海)信息科技有限公司 | 一种用于呈现ar标签信息的方法与设备 |
CN118053088B (zh) * | 2024-04-16 | 2024-06-28 | 南京大量数控科技有限公司 | 基于ar眼镜工业生产中排线安装顺序及不稳定的分析方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102214000B (zh) * | 2011-06-15 | 2013-04-10 | 浙江大学 | 用于移动增强现实系统的目标物体混合注册方法及系统 |
CN104835117A (zh) * | 2015-05-11 | 2015-08-12 | 合肥工业大学 | 基于重叠方式的球面全景图生成方法 |
CN104883556A (zh) * | 2015-05-25 | 2015-09-02 | 深圳市虚拟现实科技有限公司 | 基于增强现实的三维显示方法和增强现实眼镜 |
CN107219920A (zh) * | 2017-05-15 | 2017-09-29 | 北京小米移动软件有限公司 | 基于场景的ar眼镜识别方法、装置和ar眼镜 |
CN108133181A (zh) * | 2017-12-12 | 2018-06-08 | 北京小米移动软件有限公司 | 获取指示信息的方法、ar设备及存储介质 |
CN109445112A (zh) * | 2019-01-05 | 2019-03-08 | 西安维度视界科技有限公司 | 一种ar眼镜及基于ar眼镜的增强现实方法 |
CN109917918A (zh) * | 2019-03-07 | 2019-06-21 | 联想(北京)有限公司 | 一种基于增强现实技术的信息处理方法及电子设备 |
CN110285818A (zh) * | 2019-06-28 | 2019-09-27 | 武汉大学 | 一种眼动交互增强现实的相对导航方法 |
EP3575925A1 (en) * | 2018-06-01 | 2019-12-04 | Hewlett-Packard Enterprise Development LP | Network device modifications via augmented reality user interfaces |
CN110716645A (zh) * | 2019-10-15 | 2020-01-21 | 北京市商汤科技开发有限公司 | 一种增强现实数据呈现方法、装置、电子设备及存储介质 |
CN111199159A (zh) * | 2018-10-31 | 2020-05-26 | 西安欧思奇软件有限公司 | 基于增强现实的文字翻译及显示方法、装置和电子设备 |
CN111862339A (zh) * | 2020-06-30 | 2020-10-30 | 北京市商汤科技开发有限公司 | 虚拟标签展示方法、装置、设备及计算机可读存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101260576B1 (ko) * | 2010-10-13 | 2013-05-06 | 주식회사 팬택 | Ar 서비스를 제공하기 위한 사용자 단말기 및 그 방법 |
JP5684178B2 (ja) * | 2012-03-23 | 2015-03-11 | ビッグローブ株式会社 | 情報処理システム |
CN108109208B (zh) * | 2017-12-01 | 2022-02-08 | 同济大学 | 一种海上风电场增强现实方法 |
CN109034104A (zh) * | 2018-08-15 | 2018-12-18 | 罗普特(厦门)科技集团有限公司 | 一种场景标签定位方法以及装置 |
CN110286773B (zh) * | 2019-07-01 | 2023-09-19 | 腾讯科技(深圳)有限公司 | 基于增强现实的信息提供方法、装置、设备及存储介质 |
-
2020
- 2020-05-14 CN CN202010408968.3A patent/CN111625091B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102214000B (zh) * | 2011-06-15 | 2013-04-10 | 浙江大学 | 用于移动增强现实系统的目标物体混合注册方法及系统 |
CN104835117A (zh) * | 2015-05-11 | 2015-08-12 | 合肥工业大学 | 基于重叠方式的球面全景图生成方法 |
CN104883556A (zh) * | 2015-05-25 | 2015-09-02 | 深圳市虚拟现实科技有限公司 | 基于增强现实的三维显示方法和增强现实眼镜 |
CN107219920A (zh) * | 2017-05-15 | 2017-09-29 | 北京小米移动软件有限公司 | 基于场景的ar眼镜识别方法、装置和ar眼镜 |
CN108133181A (zh) * | 2017-12-12 | 2018-06-08 | 北京小米移动软件有限公司 | 获取指示信息的方法、ar设备及存储介质 |
EP3575925A1 (en) * | 2018-06-01 | 2019-12-04 | Hewlett-Packard Enterprise Development LP | Network device modifications via augmented reality user interfaces |
CN111199159A (zh) * | 2018-10-31 | 2020-05-26 | 西安欧思奇软件有限公司 | 基于增强现实的文字翻译及显示方法、装置和电子设备 |
CN109445112A (zh) * | 2019-01-05 | 2019-03-08 | 西安维度视界科技有限公司 | 一种ar眼镜及基于ar眼镜的增强现实方法 |
CN109917918A (zh) * | 2019-03-07 | 2019-06-21 | 联想(北京)有限公司 | 一种基于增强现实技术的信息处理方法及电子设备 |
CN110285818A (zh) * | 2019-06-28 | 2019-09-27 | 武汉大学 | 一种眼动交互增强现实的相对导航方法 |
CN110716645A (zh) * | 2019-10-15 | 2020-01-21 | 北京市商汤科技开发有限公司 | 一种增强现实数据呈现方法、装置、电子设备及存储介质 |
CN111862339A (zh) * | 2020-06-30 | 2020-10-30 | 北京市商汤科技开发有限公司 | 虚拟标签展示方法、装置、设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111625091A (zh) | 2020-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111625091B (zh) | 基于ar眼镜的标签叠加方法及装置 | |
CN111586360B (zh) | 一种无人机投影方法、装置、设备及存储介质 | |
US11748906B2 (en) | Gaze point calculation method, apparatus and device | |
CN108932051B (zh) | 增强现实图像处理方法、装置及存储介质 | |
CN111915483B (zh) | 图像拼接方法、装置、计算机设备和存储介质 | |
CN111242987B (zh) | 一种目标跟踪方法、装置、电子设备及存储介质 | |
CN110858414A (zh) | 图像处理方法、装置、可读存储介质与增强现实系统 | |
US11836873B2 (en) | Augmented photo capture | |
CN108282650B (zh) | 一种裸眼立体显示方法、装置、系统及存储介质 | |
CN114549766B (zh) | 一种实时ar可视化方法、装置、设备及存储介质 | |
CN111968221A (zh) | 基于温度场与实景视频流的双模式三维建模方法及装置 | |
US20220345621A1 (en) | Scene lock mode for capturing camera images | |
CN108444452A (zh) | 目标经纬度和拍摄装置的三维空间姿态的检测方法及装置 | |
JP7220784B2 (ja) | 測量用サンプリング点の計画方法、装置、制御端末及び記憶媒体 | |
CN114584702A (zh) | 一种拍摄可见光和热成像重叠图的方法及系统 | |
CN116817929B (zh) | 一种无人机对地平面多目标同时定位方法及系统 | |
CN112839165B (zh) | 人脸跟踪摄像的实现方法、装置、计算机设备和存储介质 | |
CN112956182A (zh) | 相机控制方法、设备及计算机可读存储介质 | |
US20210183082A1 (en) | Image registration method, apparatus, computer system, and mobile device | |
CN111581322B (zh) | 视频中兴趣区域在地图窗口内显示的方法和装置及设备 | |
CN110196638B (zh) | 基于目标检测和空间投影的移动端增强现实方法和系统 | |
CN115514887A (zh) | 视频采集的控制方法、装置、计算机设备和存储介质 | |
CN113011212B (zh) | 图像识别方法、装置及车辆 | |
WO2021212499A1 (zh) | 目标标定方法、装置和系统及可移动平台的遥控终端 | |
JP6208977B2 (ja) | 情報処理装置、通信端末およびデータ取得方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: Room 306, zone 2, building 1, Fanshan entrepreneurship center, Panyu energy saving technology park, No. 832 Yingbin Road, Donghuan street, Panyu District, Guangzhou City, Guangdong Province Applicant after: Jiadu Technology Group Co.,Ltd. Address before: Room 306, zone 2, building 1, Fanshan entrepreneurship center, Panyu energy saving technology park, No. 832 Yingbin Road, Donghuan street, Panyu District, Guangzhou City, Guangdong Province Applicant before: PCI-SUNTEKTECH Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |