CN117615082A - 图像数据处理方法、装置、电子设备及可读存储介质 - Google Patents
图像数据处理方法、装置、电子设备及可读存储介质 Download PDFInfo
- Publication number
- CN117615082A CN117615082A CN202311571595.1A CN202311571595A CN117615082A CN 117615082 A CN117615082 A CN 117615082A CN 202311571595 A CN202311571595 A CN 202311571595A CN 117615082 A CN117615082 A CN 117615082A
- Authority
- CN
- China
- Prior art keywords
- interface
- area
- image
- glasses
- contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 23
- 239000011521 glass Substances 0.000 claims abstract description 181
- 238000000034 method Methods 0.000 claims abstract description 61
- 230000003190 augmentative effect Effects 0.000 claims abstract description 41
- 238000012545 processing Methods 0.000 claims abstract description 31
- 238000013507 mapping Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 21
- 239000004973 liquid crystal related substance Substances 0.000 description 19
- 238000007654 immersion Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种图像数据处理方法、装置、电子设备及可读存储介质,属于数据处理领域。应用于增强现实眼镜,增强现实眼镜具有显示镜片;方法包括:获取终端设备中第一界面的界面信息;根据界面信息确定显示镜片中的第一区域;将第一区域调整为透视状态,并在背景区域中显示第一背景画面;背景区域为显示镜片中除第一区域外的区域,处于透视状态的第一区域,用于供佩戴增强现实眼镜的用户观看第一界面。
Description
技术领域
本申请属于数据处理领域,具体涉及一种图像数据处理方法、装置、电子设备及可读存储介质。
背景技术
增强现实眼镜(Augmented Reality,AR)可以将虚拟场景的画面和真实场景的画面进行合成,并将合成结果呈现给用户,以供用户获取对真实的界面信息进行增强后的画面信息。
在相关技术中,通常通过在AR眼镜获取现实场景的画面,然后通过视频合成技术,将文字、图像、视频、3D模型等虚拟场景的信息,合成到现实场景的画面中,并将合成后的画面通过显示屏呈现给用户。
但是,在用户对获取画面的即时性要求比较高的情况下,通过相关技术中的方法获取合成的画面,会存在较大的延时,这会导致AR眼镜无法满足用户对获取画面信息的即时性要求。
发明内容
本申请实施例的目的是提供一种图像数据处理方法、装置、电子设备及可读存储介质,能够解决相关技术中,AR眼镜无法满足用户对获取终端设备界面信息的即时性要求的问题。
第一方面,本申请实施例提供了一种图像数据处理方法,应用于增强现实眼镜,所述增强现实眼镜具有显示镜片;所述方法包括:
获取终端设备中第一界面的界面信息;
根据所述界面信息确定所述显示镜片中的第一区域;
将所述第一区域调整为透视状态,并在背景区域中显示第一背景画面,所述背景区域为所述显示镜片中除所述第一区域外的区域;
其中,处于透视状态的所述第一区域,用于供佩戴所述增强现实眼镜的用户观看所述第一界面。
第二方面,本申请实施例提供了一种图像数据处理装置,所述装置位于增强现实眼镜中,所述眼镜具有显示屏;所述装置包括:
第一获取模块,用于获取终端设备中第一界面的界面信息;
第一确定模块,用于根据所述界面信息确定所述显示镜片中的第一区域;
第一调整模块,用于将所述第一区域调整为透视状态,并在背景区域中显示第一背景画面,所述背景区域为所述显示镜片中除所述第一区域外的区域;其中,处于透视状态的第一区域,用于供佩戴所述增强现实眼镜的用户观看所述第一界面。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括处理器和存储器,所述存储器存储可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面所述的方法的步骤。
第四方面,本申请实施例提供了一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面所述的方法的步骤。
第五方面,本申请实施例提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面所述的方法。
第六方面,本申请实施例提供一种计算机程序产品,该程序产品被存储在存储介质中,该程序产品被至少一个处理器执行以实现如第一方面所述的方法。
在本申请实施例中,获取终端设备中第一界面的界面信息,根据界面信息确定显示镜片中的第一区域,然后将第一区域调整为透视状态,并在背景区域中显示第一背景画面。由此,佩戴AR眼镜的用户通过处于透视状态的第一区域,可以观看到终端设备的界面信息,并通过背景区域观看第一背景画面。相对于相关技术中,通过在AR眼镜获取现实场景的画面,然后通过视频合成技术合成虚拟场景和现实场景的方法,本实施例通过处于透视状态的第一区域,可以直接观看到终端设备的第一界面,不需要将第一界面的界面图像呈现在显示镜片上,也不需要融合第一界面的界面图像和第一背景画面,节省了获取第一界面的界面图像的时间,以及融合第一界面的界面图像和第一背景画面的时间,避免了获取界面图像和融合图像所造成的时延,可以确保用户实时获取终端设备的界面信息和第一背景画面,满足用户对即使获取界面信息的需求。解决了相关技术中获取合成画面的时延较大,无法满足用户对获取画面信息的即时性要求的问题。
附图说明
图1是相关技术中使用AR眼镜结构示意图;
图2是本申请实施例提供的一种图像数据处理方法的应用场景示意图;
图3是本申请实施例提供的一种图像数据处理方法的步骤流程图;
图4是本申请实施例提供的一种AR眼镜中显示镜面的子区域分布示意图;
图5是本申请实施例提供的一种显示镜片不通电时的状态示意图;
图6是本申请实施例提供的一种显示镜片通电时的状态示意图;
图7是本申请实施例提供的一种通过AR眼镜显示第一界面的过程示意图;
图8是本申请实施例提供的一种通过AR眼镜显示第一界面的结果示意图;
图9是本申请实施例提供的另一种图像处理方法的步骤流程图;
图10是本申请实施例提供的一种确定第一区域的处理过程示意图;
图11是本申请实施提供的另一种通过AR眼镜显示第一界面的结果示意图;
图12是本申请实施例提供的又一种通过AR眼镜显示第一界面的结果示意图;
图13是本申请实施例提供的另一种通过AR眼镜显示第一界面的结果示意图;
图14是本申请实施例提供的又一种图像处理方法的步骤流程图;
图15是本申请实施例提供的一种图像数据处理系统的结构示意图;
图16是本申请实施例提供的一种图像数据处理装置的结构示意图;
图17是本申请实施例提供的一种电子设备的结构示意图;
图18是本申请实施例提供的一种电子设备的硬件结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
图1是相关技术中使用AR眼镜的结构示意图,参照图1,AR眼镜包括头盔式显示器10、图形处理系统11,以及终端设备13,其中,头盔式显示器10包括显示器101和显示镜片102。
具体的,图形处理系统获取终端设备无线传输的显示信息,并将显示信息和虚拟场景进行融合,然后将融合后的信息发送给AR眼镜的显示器,由显示器将融合后的信息呈现在显示镜片上。在用户佩戴AR眼镜的情况下,显示镜片102正对人眼12。由此,佩戴AR眼镜的用户可以获取融合后的画面信息。在显示信息包括的数据量比较大的情况下,AR眼镜无法即时获取要显示的画面信息,并且需要比较长的时间融合显示信息和虚拟场景,这会导致用户获取的显示信息存在时延,进而导致无法即时将融合后的信息呈现给用户,不能满足用户对获取界面信息的即时性要求。
为了解决相关技术中的上述问题,本申请提出了一种图像数据处理方法,方法的应用场景如图2所示,参照图2,应用场景包括AR眼镜20,以及终端设备21,眼镜20具有显示镜片201。
用户佩戴AR眼镜后,AR眼镜获取终端设备中第一界面的界面信息;根据界面信息确定显示镜片中的第一区域;将第一区域调整为透视状态,在背景区域中显示第一背景画面,背景区域为显示镜片中除第一区域外的区域;处于透视状态的第一区域,用于供佩戴增强现实眼镜的用户观看第一界面的界面信息。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的图像数据处理进行详细地说明。
图3是本申请实施例提供的一种图像数据处理方法的步骤流程图。图像数据处理方法应用于增强现实眼镜(AR眼镜),方法可以包括如下步骤:
步骤101,获取终端设备中第一界面的界面信息。
在本步骤中,终端设备可以为手机、平板电脑、笔记本电脑、具有显示屏的游戏机,或者其他具有显示屏的终端设备。
在本步骤中,第一界面为终端设备中显示屏的显示界面,第一界面的界面信息可以包括第一界面的空间坐标信息。示例地,增强现实眼镜中设置有位置传感器,位置传感器根据同时定位与地图创建算法(Simultaneous Localization and Mapping,SLAM)算法获取终端设备中第一界面的空间坐标信息。
在本步骤中,界面信息包括用于确定显示镜片中第一区域的信息。例如,第一界面具有界面轮廓,界面信息可以包括界面轮廓的轮廓位置信息,或者在组成界面轮廓的多个轮廓点中,预设个数的第一轮廓点的轮廓点坐标。
另外,界面信息还可以包括终端设备的第一界面所呈现图像的界面图像。在一个实施例中,增强现实眼镜上设置有摄像头,通过摄像头拍摄终端设备的第一界面,得到第一界面的界面信息中所包括的界面图像。
步骤102,根据界面信息确定显示镜片中的第一区域;
具体的,第一区域为显示镜片中的区域,第一区域用于供用户观看第一界面。
示例地,界面信息包括第一界面的界面轮廓中,多个第一轮廓点的轮廓点坐标,根据多个第一轮廓点的轮廓点坐标,确定出多个第一轮廓点映射在显示镜片所在平面后形成的区域,将该区域确定为显示镜片中的第一区域。
进一步的,确定出多个第一轮廓点映射在显示镜片所在平面的多个映射点,第一轮廓点和映射点一一对应,将多个映射点构成的区域确定为第一区域。
示例地,界面信息包括第一界面的界面轮廓中,多个第一轮廓点的轮廓点坐标。根据第一轮廓点的轮廓点坐标,获取第一轮廓点和佩戴AR眼镜的用户的人眼坐标之间的连线,与显示镜片所在平面的交点,将多个交点构成的区域确定为第一区域。
步骤103,将第一区域调整为透视状态,并在背景区域中显示第一背景画面。
具体的,背景区域为显示镜片中除第一区域外的区域,处于透视状态的第一区域,用于供佩戴增强现实眼镜的用户观看第一界面。
其中,透视状态表示佩戴增强显示眼镜的用户可通过第一区域直接观看第一界面。
具体的,将第一区域调整为透视状态后,佩戴增强现实眼镜的用户在看向终端设备中的第一界面时,视线经过第一区域时不被遮挡,用户通过第一区域,可以直接看到终端设备的第一界面。
进一步的,增强现实眼镜不用将第一界面的界面图像显示在显示镜片上供用户观看,佩戴增强现实眼镜的用户通过被调整为透视状态的第一区域,可以直接观看到第一界面。
示例地,显示镜片为调光玻璃材质,显示镜片包括多个子区域,每个子区域具有对应的电源模块。可以控制第一区域包括的各子区域的电源模块停止为对应的子区域供电,以将第一区域中的各子区域调整为透视状态。
具体的,参照图4,显示镜片401包括多个子区域402。进一步的,每个子区域包括两层透明玻璃,以及夹设在两层透明玻璃中间的液晶层,液晶层中填充有液晶,液晶层连接有电源模块。
在电源模块不通电时,对应子区域的状态如图5所示,参照图5,显示镜片包括第一玻璃层501、第二玻璃层502,第一玻璃层501和第二玻璃层502之间具有液晶层503,液晶层503中填充有液晶504,液晶层503连接有电源模块505。在子区域的电源模块不通电时,液晶层中的液晶呈现如图5所示的无序排列的状态,投向该子区域的光束无法穿过液晶层,该子区域处于不透明状态。
在电源模块通电时,对应子区域的状态如图6所示,参照图6,显示镜片包括第一玻璃层601、第二玻璃层602,第一玻璃层601和第二玻璃层602之间具有液晶层603,液晶层603中填充有液晶604,液晶层603连接有电源模块605。在子区域的电源模块通电时,液晶层中的液晶呈现如图6所示的有序排列的状态,投向该子区域的光束可以穿过液晶层,该子区域处于透视状态。
示例地,AR眼镜中预存储有多个背景画面,显示在背景区域中的第一背景画面,为预存储的多个背景画面中的一个。
在一个实施例中,参照图7,终端设备为手机,第一界面为手机的游戏界面。AR眼镜701根据手机702中的游戏界面706的界面信息,确定出显示镜片中的第一区域703,并将第一区域703调整为透视状态,第一区域703之外的背景区域704调整为不透视状态,AR眼镜在背景区域704中显示背景画面705,佩戴AR眼镜的用户通过处于透视状态的第一区域703,可以直接观看到手机中的游戏界面706。
由此,参照图8,用户在佩戴AR眼801时,看到的最终画面如803所示,参照图8,用户通过AR眼镜看到的最终画面803包括:呈现在第一区域802中的游戏界面,以及呈现在背景区域804中的背景画面。
综上,在本实施例中,获取终端设备中第一界面的界面信息,根据界面信息确定显示镜片中的第一区域,然后将第一区域调整为透视状态,并在背景区域中显示第一背景画面。由此,佩戴AR眼镜的用户通过处于透视状态的第一区域,可以观看到终端设备的界面信息,并通过背景区域观看第一背景画面。相对于相关技术中,通过在在AR眼镜获取现实场景的画面,然后通过视频合成技术合成虚拟场景和现实场景的方法,本实施例通过处于透视状态的第一区域,可以直接观看到终端设备的第一界面,不需要将第一界面的界面图像呈现在显示镜片上,节省了获取第一界面的界面图像的时间,以及融合第一界面的界面图像和第一背景画面的时间,避免了获取界面图像和融合图像所造成的时延,可以确保用户实时获取终端设备的界面信息和第一背景画面,满足用户即时获取界面信息的需求。解决了相关技术中获取合成画面的时延较大,无法满足用户对获取画面信息的即时性要求的问题。
图9是本申请实施例提供的另一种图像数据处理方法的步骤流程图,参照图9,方法可以包括如下步骤:
步骤201,获取终端设备中第一界面的界面信息。
具体的,界面信息包括:第一界面的多个第一轮廓点的轮廓点坐标,第一轮廓点为构成第一界面的界面轮廓的轮廓点。
进一步的,多个第一轮廓点,是构成界面轮廓的所有轮廓点中的至少一部分。其中,第一轮廓点的个数,可以根据用户需求设定。
比如,在一个实施例中,终端设备中的第一界面为矩形,第一界面的第一轮廓点可以为矩形的第一界面的角点。在另一个实施例中,终端设备中的第一界面为矩形,第一界面的第一轮廓点,可以为四条矩形边的中点。
步骤202,获取佩戴增强现实眼镜的用户的眼睛所在位置点的人眼坐标。
示例地,增强现实眼镜中设置有位置传感器,位置传感器可以通过SLAM算法,获取用户的人眼坐标。
步骤203,根据多个第一轮廓点的轮廓点坐标,以及人眼坐标,确定显示镜片中的第一区域。
其中,第一区域是界面信息映射在显示镜片所在平面后形成的区域。
具体的,用户佩戴AR眼镜后,AR眼镜的显示镜片位于终端设备和人眼之间的位置。根据第一轮廓点的轮廓点坐标,以及人眼坐标,可以确定出轮廓点坐标和人眼坐标之间的连线,确定连线与显示镜片所在平面之间的交点,根据交点确定显示镜片中的第一区域。
在一个实施例中,步骤203可以包括如下子步骤:
子步骤2031,针对每个第一轮廓点,根据第一轮廓点的轮廓点坐标,以及人眼坐标,确定第一轮廓点和眼睛所在位置点之间的连线。
在本步骤中,轮廓点坐标和人眼坐标,分别为第一轮廓点和人眼在同一个坐标系下的坐标。在获取第一轮廓点的轮廓点坐标,以及人眼坐标后,连接轮廓点坐标和人眼坐标,得到第一轮廓点和眼睛所在位置点之间的连线
子步骤2032,确定连线与显示镜片所在平面的交点;
需要说明的是,用户佩戴AR眼镜时,AR眼镜的显示镜片所在平面,位于人眼和终端设备的第一界面之间,因此,人眼所在位置点和第一轮廓点之间的连线,经过显示镜片所在平面,且与显示镜片相交。
参照图10,用户佩戴AR眼镜时,人眼所在位置点S和第一轮廓点A之间的连线SA,与显示镜片所在平面E之间的交点为A1;人眼所在位置点和第一轮廓点B之间的连线SB,与显示镜片所在平面E之间的交点为B1;人眼所在位置点和第一轮廓点C之间的连线SC,与显示镜片所在平面E之间的交点为C1;人眼所在位置点和第一轮廓点D之间的连线SD,与显示镜片所在平面之间的交点为D1。
子步骤2033,根据多个交点确定第一轮廓。
示例地,第一界面的界面轮廓为矩形,多个第一轮廓点为界面轮廓的角点,根据第一轮廓点和眼镜所在位置点之间的连线,确定出连线和显示镜片所在平面的交点后,依次连接各交点,得到第一轮廓。其中,第一轮廓为矩形,交点为矩形的第一轮廓的角点。
示例地,第一界面的界面轮廓为矩形,多个第一轮廓点为界面轮廓的四条边的中点,根据第一轮廓点和眼睛所在位置点之间的连线,确定出连线和显示镜片所在平面的交点后,将各交点作为四条矩形边的终点,确定出矩形轮廓,该矩形轮廓即为第一轮廓。
子步骤2034,将第一轮廓构成的区域确定为第一区域。
具体的,将第一轮廓所包围的区域作为显示镜片中的第一区域。
步骤204,将第一区域调整为透视状态,并在背景区域中显示第一背景画面。
具体的,背景区域为显示镜片中除第一区域外的区域,处于透视状态的所述第一区域,用于供佩戴所述增强现实眼镜的用户观看所述第一界面。
本步骤所示的方法,在前述步骤103中已作说明,此处不再赘述。
综上,在本实施例中,根据佩戴AR眼镜的用户的人眼坐标,以及终端设备第一界面的界面轮廓线中,多个第一轮廓点的轮廓点坐标,可以确定出界面区域映射在显示镜片所在平面中的第一区域,该第一区域和第一界面的界面轮廓相适配,通过被调整为透视状态的该第一区域,佩戴AR眼镜的用户看到的第一界面,正好是第一界面的界面图像,而不包括第一界面之外的环境画面,提高了用户观看第一界面的沉浸感。另外,通过处于透视状态的第一区域,可以直接观看到终端设备的第一界面,不需要将第一界面的界面图像呈现在显示镜片上,节省了获取第一界面的界面图像的时间,以及融合第一界面的界面图像和第一背景画面的时间,避免了获取界面图像和融合图像所造成的时延,可以确保用户实时获取终端设备的界面信息和第一背景画面,满足用户对即使获取界面信息的需求。解决了相关技术中获取合成画面的时延较大,无法满足用户对获取画面信息的即时性要求的问题。
在一个实施例中,增强现实眼镜上设有摄像头,第一界面的界面信息包括第一界面的界面图像。
步骤201可以包括如下子步骤:
子步骤2011,通过摄像头实时获取第一界面的界面图像。
在一个实施例中,通过摄像头实时拍摄第一界面所在区域,得到只包括界面图像的图像。在另一个实施例中,通过摄像头实时拍摄包括第一界面所在的区域,得到包括界面图像的第一图像,其中,第一图像还包括第一界面周围的背景图像。
对应的,在步骤201之后,还包括:
步骤205,将界面图像显示在显示镜片的第一区域中。
示例的,根据第一界面的界面图像,确定用于显示镜片中用于显示界面图像的第一区域,并在第一区域中显示界面图像。
进一步的,获取界面图像对应的界面区域,根据界面区域,确定在显示镜片中个,用于显示界面图像的第一区域。
示例地,将界面图像显示在显示镜片的第一区域中,并将第一背景画面,显示在显示镜片中除第一区域外的背景区域中。
在本实施例中,获取第一界面的界面图像后,将界面图像直接显示在显示镜片的第一区域中,佩戴AR眼镜的用户可以直接观看显示在第一区域中的界面图像,整个过程无需融合第一背景画面和界面图像,避免了图像融合所造成的时延,确保了用户对获取界面图像的即时性要求。另外,在本实施例中,通过直接将第一界面的界面图像显示在第一区域中,提高了界面图像的显示画质,提高了用户获取到的界面图像的图像质量。
在一个实施例中,子步骤2011可以包括如下子步骤:
子步骤2012,通过摄像头实时采集包括所述界面图像的第一图像。
示例地,通过设置在AR眼镜中的摄像头采集第一图像。其中,第一图像包括第一界面的界面图像,还包括第一界面周围场景的背景图像。
子步骤2013,从所述第一图像中提取与所述第一界面对应的界面图像。
示例地,可以通过训练好的图像识别模型,从第一图像中识别并提取界面图像。具体的,图像识别模型可以通过图像样本训练机器学习模型得到。示例地,机器学习模型可以为YOLO检测模型,或者其他可以进行图像检测的模型。进一步的,训练机器学习模型得到图像识别模型的图像样本,是通过AR眼镜中的摄像头拍摄得到的包括第一界面的界面图像的图像样本,其中,图像样本具有标注的界面图像标签。
示例地,根据第一界面的尺寸大小确定第一区域,并将界面图像显示在第一区域中。
参照图11,用户佩戴AR眼镜1101后,从拍摄图像中提取的界面图像如1102所示,将界面图像呈现在显示镜片1103的第一区域中,并将第一背景画面显示在显示镜片1103的背景区域1104中,用户看到的最终画面包括显示在背景区域1104中的第一背景画面,以及显示在第一区域1105中的第一界面的界面图像。
在本实施例中,实时采集包括第一界面的拍摄图片,然后提取其中的界面图像,并将界面图像显示在第一区域中,避免了融合界面图像和第一背景画面所造成的时延,确保了用户对获取界面图像的即时性要求。
在一个实施例中,所述界面信息还包括:所述界面图像在所述第一图像中的轮廓信息;对应的,在步骤201之后,还包括:
步骤206,获取界面图像对应的界面区域。
在本步骤中,界面区域可以为界面图像轮廓线所构成的区域。对应的,可以提取界面图像的轮廓线,根据轮廓线确定界面图像对应的界面区域。
步骤207,根据预设缩放比例值,对界面区域进行缩放处理,得到第一区域。
其中,根据预设缩放比例值对界面区域进行缩放处理所得到的第一区域的区域尺寸,小于显示镜片的尺寸。
示例地,预设缩放比例值是根据经验数据确定的,可以将界面区域缩放至预设尺寸范围的缩放比例值,其中,预设尺寸范围小于显示镜片的尺寸。
示例地,预设缩放比例可以有多种,用户可以根据需求选择预设缩放比例值。示例地,在期望呈现在AR眼镜显示镜片中的第一界面的界面图像大一些的情况下,可以将预设缩放比例值设置的大一些,在期望呈现在AR眼镜显示镜片中的第一界面的界面图像小一些的情况下,可以将预设缩放比例值设置的小一些。
在一个实施例中,在根据预设缩放比例值对界面区域进行缩放处理,得到的第一区域超出显示镜片的整体区域的情况下,可以减小预设缩放比例值,以确保第一区域不超出显示镜片的区域。
在本实施例中,根据预设缩放比例值,对界面图像对应的界面区域进行缩放处理,可以得到满足用户观看界面图像需求的第一区域。
在一个实施例中,在步骤204之前,还包括:
步骤208,获取第一界面的第一界面类型。
在本步骤中,第一界面的第一界面类型,是与终端设备第一界面显示的内容所对应的类型。
比如,第一界面为游戏的游戏界面,第一界面显示的内容为游戏内容,在游戏内容为室内场景的游戏的情况下,确定与第一界面对应的第一界面类型为室内场景类型,在游戏内容为室外场景的游戏的情况下,确定与第一界面对应的第一界面类型为室外场景类型。
示例地,在终端设备和AR眼镜建立通信连接,终端设备启动应用软件,并在第一界面中呈现应用软件的内容后,终端设备将第一界面的第一界面类型发送至AR眼镜。
步骤209,从预设的背景画面集合中,确定出与第一界面类型对应的第一背景画面,预设的背景画面集合包括多个第二背景画面,每个第二背景画面具有对应的界面类型。
在本步骤中,预设的背景画面集合中包括多个第二背景画面,各第二背景画面可以为虚拟画面。
示例地,从预设的背景画面集合中,确定出与第一界面类型相匹配的第二界面类型,并将与第一界面类型相匹配的第二界面类型所对应的第二背景画面,作为与第一界面类型对应的第一背景画面。
在本实施例中,根据第一界面的第一界面类型,以及预设的背景画面集合,确定出用于显示在背景区域的第一背景画面。第一背景画面是根据第一界面的第一界面类型确定的,由此确定出的第一背景画面和第一界面的适配性好,可以提高用户观看第一界面的沉浸感,提高了用户体验。
在一个实施例中,增强现实眼镜具有麦克风,在步骤201之后,还包括:
步骤210,通过麦克风采集音频数据。
具体的,音频数据是由终端设备产生的。
示例地,AR眼镜中设置有蓝牙模块,通过蓝牙模块和终端设备之间建立有无线通信连接,终端设备通过无线传输的方式,将与第一界面对应的音频数据发送至AR眼镜。
示例地,第一界面为用户操作游戏的游戏界面,用户操作的游戏呈现的是游戏界面,以及针对游戏界面配置的声音,在本实施例中,与游戏界面对应的音频数据,为终端设备产生的,与游戏界面对应的声音的音频数据。
示例地,音频数据时由终端设备中的音乐播放软件产生的。比如,第一界面为用户操作游戏的游戏界面,用户在打游戏时关闭游戏软件的游戏音,并打开音乐播放软件播放音乐,在这种情况下,音频数据是音乐播放软件播放的音乐的数据。
步骤211,对音频数据进行去噪处理,得到去噪处理后的第一音频。
示例地,可以通过AR眼镜中的音频转换器,对获取的音频数据进行去噪处理,得到去噪处理后的第一音频。
步骤212,播放与第一音频对应的声音。
在本步骤中,AR眼镜将第一音频转换为声音并播放。
在本实施例中,在基于AR眼镜显示技术,将现实中终端设备的第一界面,以及第一背景画面呈现给用户时,还通过麦克风采集终端设备产生的音频数据,并用降噪的方式对终端设备产生的音频数据进行去噪处理,由此,可以只保留终端设备产生的声音内容,消除环境音等噪声,进一步提升用户AR沉浸交互体验。
在一个实施例中,在步骤201之后,还包括:
步骤213,接收终端设备发送的第二音频。
具体的,终端设备和AR眼镜之间建立有无线通信,AR眼镜接收终端设备无线传输给AR眼镜的音频数据。
示例地,参照图12,AR眼镜1201中设置有蓝牙模块1202,通过蓝牙模块1202采集终端设备的语音模块1203产生的音频数据,AR眼镜对音频数据进行去噪处理得到第一音频数据,并通过耳机1204播放第一音频数据对应的声音。示例地,经过去噪处理的声音不包括终端设备所在场景的背景音。
示例地,播放第一音频对应的声音的AR眼镜应用场景如图13所示,参照图13,AR眼镜中的显示镜片1301呈现如1302所示的画面,并通过耳机1303播放第一音频对应的声音。
步骤214,播放与第二音频对应的声音。
在本实施例中,通过接收终端设备发送的第二音频,并播放与第二音频对应的声音,可以在将第一界面和第一背景画面呈现给用户的同时,使用户获取终端设备发送的第二音频,确保用户同时获取画面和声音信息,提高了用户获取终端设备信息的沉浸感。
下面以终端设备为手机,终端设备的第一界面为游戏界面为例,对本实施例的图像处理方法进行进一步的示例性说明。参照图14,方法可以包括如下步骤:
步骤301,手机识别到游戏APP被打开。
在本步骤中,手机中游戏应用软件(Application,APP)被打开后,在手机的显示屏幕上显示游戏的游戏界面。
步骤302,检测是否和AR眼镜建立了通信连接,是则进入步骤303,否则进入步骤304。
示例地,手机在识别到游戏的APP被打开时,向AR眼镜发送确定是否建立通信连接的信号,在接收到AR眼镜对该信号做出的反馈信号后,确定终端设备和AR眼镜之间建立了通信连接,否则确定终端设备和AR眼镜之间未建立通信连接。
步骤303,手机呈现是否进入AR沉浸模式的选择控件,以供用户选择。
示例地,手机呈现的选择控件包括“是”和“否”两个选择区域,以供用户选择进入AR沉浸模式的区域,或者不进入AR沉浸模式的区域。
步骤304,AR眼镜不做任何响应。
在本步骤中,AR眼镜不做任何响应,是指不采集第一界面的界面信息,也不采集终端设备产生的音频数据。
步骤305,识别用户是否选择进入AR沉浸模式,是则进入步骤306,否则返回步骤304。
用户选择不进入AR沉浸模式,表示用户不需要通过AR眼镜为用户提供实际的第一界面和虚拟的背景画面的融合画面,因此返回步骤303,AR眼镜不做任何响应。
步骤306,手机向AR眼镜发送指示AR眼镜进入沉浸模式的指令。
在本步骤中,手机向AR眼镜发送的指令中,可以包括第一界面的第一界面类型信息,以及指示AR眼镜进入沉浸模式的指令。
步骤307,AR眼镜获取手机四个角点的位置,根据四个角点的位置确定出第一区域,并将第一区域调整为透视状态,以供用户透过第一区域观看第一界面。
在本步骤中,将手机轮廓作为手机第一界面的轮廓,将手机四个角点的位置,作为第一界面四个第一轮廓点的轮廓点位置,并将根据四个角点的位置确定出的第一区域,作为用于观看第一界面的区域。
需要说明的是,在本实施例中,步骤307示出的是将第一区域调整为透视状态,以供用户通过透视状态的第一区域直接观看第一界面的方法。在本发明中,还可以获取第一界面的界面图像,根据界面图像的界面区域确定第一区域,并且无需将第一区域调整为透视状态,而是将第一界面的界面图像直接呈现在第一区域中,以供用户观看。
步骤308,在AR眼镜的显示镜片中除第一区域外的背景区域中,显示虚拟的第一背景画面。
示例地,可以根据接收的第一界面的第一界面类型,从多个预设的第二背景画面中确定出第一背景画面并显示。
其中,步骤307和步骤308无执行顺序上的限定,比如,步骤307和步骤308可以同时执行。
步骤309,AR眼镜采集手机播放的音频数据,并对音频数据进行降噪处理后播放。
示例地,AR眼镜采集手机通过无线传输方式传输至AR眼镜的音频数据,并对音频数据进行降噪处理后播放。
步骤310,手机退出游戏模式,并将退出游戏模式的信息发送至AR眼镜。
示例地,手机退出游戏模式后,生成退出沉浸模式的指令并发送给AR眼镜。其中,该指令包括手机退出游戏模式的信息。
步骤311,AR眼镜退出沉浸模式,并关闭声音。
具体的,AR眼镜识别手机发送的退出游戏模式的信息,停止获取手机第一界面的界面信息,停止在背景区域中显示背景画面,并停止播放声音。
本实施例还提供了一种用于实现上述图像处理方法的图像处理系统,参照图15,系统1500可以包括通信总线1501,以及与通信总线1501连接的处理器1502、无线传输电路1503、存储器1504、摄像头1505、加速度传感器1506,显示模块1507、位置传感器1508、音频模块1509,以及麦克风1510。
其中,处理器用于根据第一界面的界面信息确定第一区域,无线传输电路用于和终端设备进行无线通信,存储器用于存储预设的多个第二背景画面,摄像头用于拍摄包括第一界面的拍摄图像,加速度传感器和位置传感器用于确定AR眼镜是否发生了位置变化,显示模块用于在显示镜片中显示第一界面或者背景画面,音频模块用于对采集的音频数据进行去噪处理,并播放处理后的声音,麦克风用于采集终端设备产生的与第一界面对应的声音。
下面以终端设备为手机,第一界面为手机中正在操作游戏的游戏界面,界面信息为游戏界面的界面信息为例,对本申请中的图像数据处理方法进行进一步的示例性说明。
示例地,方法可以包括如下步骤:
步骤401,手机打开游戏后,通过无线通信方式,向AR眼镜发送手机将进入游戏模式的指令。
其中,AR眼镜中设置有蓝牙模块,AR眼镜通过蓝牙模块和手机建立无线通信,并接收手机发送的指令。
步骤402,AR眼镜接收指令。
示例地,AR眼镜通过设置的蓝牙模块接收手机发送的指令。
步骤403,AR眼镜通过SLAM算法识别手机轮廓中四个角点的坐标,以及佩戴AR眼镜的用户的人眼坐标。
在本步骤中,AR眼镜通过SLAM算法识别并得到手机的相对空间位置,具体的,识别到的空间位置为手机轮廓中四个角点的坐标。
具体的,本步骤中检测到的手机轮廓中四个角点的坐标,相当于前述实施例中第一轮廓点的轮廓点坐标。
需要说明的是,可以将AR眼镜中传输过来的虚拟的第一背景画面和所看到的真实的第一界面进行毫无违和感的结合,准确找到虚拟的第一背景画面和现实的第一界面的空间相对位置和比例。通过SLAM算法,还可以对当前视角叠加的虚拟的第一背景画面做相应渲染,以使得叠加的虚拟的第一背景画面看起来比较真实,没有违和感。
步骤404,AR眼镜根据四个角点的坐标,以及用户的人眼坐标,确定用于显示游戏界面的第一区域。
在本步骤中,获取四个角点和人眼所在位置点的连线,确定连线与AR眼镜显示镜片所在平面的交点,根据交点可以构建第一轮廓,第一轮廓包围的区域即为本步骤中的第一区域。
步骤405,AR眼镜根据界面区域确定显示镜片中的第一区域,并将第一区域调整为透视状态。
示例地,显示镜片为调光玻璃,显示镜片被划分为多个子区域,每个子区域具有对应的电源模块,控制第一区域包括的子区域所对应的电源模块,使其处于为对应的子区域供电的状态,由此将第一区域调整为透视状态。
步骤406,AR眼镜在检测到AR眼镜的位置发生变化时,返回至步骤403。
示例地,AR眼镜检测到佩戴者的头发生转动时,确定AR眼镜的位置发生变化。进一步的,AR眼镜可以通过设置在AR眼镜中的位移传感器,确定AR眼镜的位置是否发生变化。
在AR眼镜的位置发生变化时,根据手机的四个角点的坐标,以及人眼坐标确定出的第一区域也可能发生变化。在检测到AR眼镜的位置发生变化时返回步骤403,由此,可以实时获取手机的游戏界面与当前AR眼镜的相对空间位置,进而获取与AR眼镜当前状态对应的第一区域,以确保用户可以通过透视状态的第一区域,观看手机游戏界面中的界面信息,使用户始终处于能准确获取手机游戏界面中的界面信息,以及虚拟的背景画面的状态。
在本实施中,在第一区域调整为透视状态后,佩戴AR眼镜的用户通过处于透视状态的第一区域,可以直接看到手机游戏界面中的界面信息。同时,AR眼镜镜片中,除第一区域外的背景区域显示虚拟的背景画面,背景画面可以是与游戏相匹配的虚拟背景画面,由此,用户既能实时看到手机游戏界面中的界面图像,又能看到与游戏相匹配的虚拟背景画面,提高了用户对游戏操作的沉浸感。
在另一个实施例中,方法可以包括如下步骤:
步骤501,手机打开游戏后,通过无线通信方式,向AR眼镜发送手机将进入游戏模式的指令。
其中,AR眼镜中设置有蓝牙模块,AR眼镜通过蓝牙模块和手机建立无线通信,并接收手机发送的指令。
步骤502,AR眼镜接收指令。
示例地,AR眼镜通过设置的蓝牙模块接收手机发送的指令。
步骤503,AR眼镜通过摄像头,拍摄包括手机中游戏界面的第一图像。
具体的,拍摄图像包括游戏界面,以及手机所在环境的环境画面。
步骤504,从拍摄图像中提取游戏界面的界面图像,并将界面图像实时显示在AR眼镜显示镜片的第一区域中。
示例地,通过图像识别模型识别拍摄图像中的界面图像,进而提取得到界面图像。
步骤505,AR眼镜在显示镜片中除第一区域外的背景区域中,显示虚拟的第一背景画面。
示例地,获取手机发送的当前操作游戏的游戏类型,将游戏类型作为第一界面的第一界面类型,并从预设的多个背景画面中,确定出与第一界面类型对应的第一背景画面。
步骤506,AR眼镜在检测到AR眼镜的位置发生变化时,返回至步骤503。
在本实施例中,通过提取拍摄图像中的界面图像,将界面图像显示在AR眼镜的第一区域中,由此,用户看到的指示第一界面和虚拟的第一背景画面,不会受到手机所在环境的环境画面影响,提高了用户操作游戏的沉浸感。
在又一个实施例中,方法可以包括如下步骤:
步骤601,手机打开游戏后,通过无线通信方式,向AR眼镜发送手机将进入游戏模式的指令。
其中,AR眼镜中设置有蓝牙模块,AR眼镜通过蓝牙模块和手机建立无线通信,并接收手机发送的指令。
步骤602,AR眼镜接收指令,并向手机发送获取与游戏声音的请求。
其中,手机操作的游戏具有与当前的游戏界面所对应的声音。
步骤603,手机将游戏声音的音频数据实时发送至AR眼镜。
需要说明的是,音频数据的数据量通常较小,因此通过无线传输方式发送音频数据,不会产生可以被用户感知到的时延。
步骤604,AR眼镜在显示镜片的第一区域显示游戏界面,并播放游戏声音。
在一个实施例中,AR眼镜中设置有耳机,AR眼镜直接播放无线接收的游戏声音。在另一个实施例中,AR眼镜对周围的环境声进行去噪处理,并播放去噪处理后的游戏声音。
在另一个实施例中,手机打开游戏后,可以通过AR眼镜中的麦克风采集终端设备产生的游戏声音,并对游戏声音进行去噪后播放。
在本实施例中,环境噪声可以通过降噪处理消除,由此,用户可以在获取融合了虚拟的背景画面的界面信息时,还可以获取降噪处理后的游戏声音,提高了用户操作游戏的沉浸感。
图16是本申请实施例提供的一种图像数据处理装置的结构图,装置位于增强现实眼镜中,眼镜具有显示屏。
参照图16,装置1600可以包括:
第一获取模块1601,用于获取终端设备中第一界面的界面信息;
第一确定模块1602,用于根据界面信息确定显示镜片中的第一区域;
第一调整模块1603,用于将第一区域调整为透视状态,并在背景区域中显示第一背景画面,背景区域为显示镜片中除第一区域外的区域;其中,处于透视状态的第一区域,用于供佩戴增强现实眼镜的用户观看第一界面。
可选地,界面信息包括:第一界面的多个第一轮廓点的轮廓点坐标,第一轮廓点为构成第一界面的界面轮廓的轮廓点;第一确定模块1602包括:
第一获取子模块,用于获取佩戴增强现实眼镜的用户的眼睛所在位置点的人眼坐标;
第一确定子模块,用于根据多个第一轮廓点的轮廓点坐标,以及人眼坐标,确定显示镜片中的第一区域,第一区域是界面信息映射在显示镜片所在平面后形成的区域。
可选地,第一确定子模块包括:
第一确定单元,用于针对每个第一轮廓点,根据第一轮廓点的轮廓点坐标,以及人眼坐标,确定第一轮廓点和眼睛所在位置点之间的连线;
第二确定单元,用于确定连线与显示镜片所在平面的交点;
第三确定单元,用于根据多个交点确定第一轮廓;
第四确定单元,用于将第一轮廓构成的区域确定为第一区域。
可选地,增强现实眼镜上设有摄像头;第一界面的界面信息包括第一界面的界面信息;第一获取模块1601,包括:
第二获取子模块,用于通过摄像头实时获取第一界面的界面图像;
装置还包括:
显示模块,用于将界面图像显示在显示镜片的第一区域中。
可选地,第二获取子模块,包括:
采集单元,用于通过摄像头实时采集包括界面图像的第一图像;
提取单元,用于从第一图像中提取与第一界面对应的界面图像。
可选地,界面信息还包括:界面图像在第一图像中的轮廓信息;
第一确定模块1602,包括:
第三获取子模块,用于获取界面图像对应的界面区域;
第四获取子模块,用于根据预设缩放比例值,对界面区域进行缩放处理,得到第一区域。
可选地,装置1600还包括:
第二获取模块,用于获取第一界面的第一界面类型;
第二确定模块,用于从预设的背景画面集合中,确定出与第一界面类型对应的第一背景画面,预设的背景画面集合包括多个第二背景画面,每个背景画面具有对应的第二界面类型。
可选地,增强现实眼镜具有麦克风,装置1600还包括:
采集模块,用于通过麦克风采集音频数据,音频数据是由终端设备产生的;
第三获取模块,用于对音频数据进行去噪处理,得到去噪处理后的第一音频;
第一播放模块,用于播放与第一音频对应的声音。
可选地,装置1600还包括:
接收模块,用于接收终端设备发送的第二音频;
第二播放模块,用于播放与第二音频对应的声音。
在本申请实施例中,获取终端设备中第一界面的界面信息,根据界面信息确定显示镜片中的第一区域,然后将第一区域调整为透视状态,并在背景区域中显示第一背景画面。由此,佩戴AR眼镜的用户通过处于透视状态的第一区域,可以观看到终端设备的界面信息,并通过背景区域观看第一背景画面。相对于相关技术中,通过在AR眼镜获取现实场景的画面,然后通过视频合成技术合成虚拟场景和现实场景的方法,本实施例通过处于透视状态的第一区域,可以直接观看到终端设备的第一界面,不需要将第一界面的界面图像呈现在显示镜片上,节省了获取第一界面的界面图像的时间,以及融合第一界面的界面图像和第一背景画面的时间,避免了获取界面图像和融合图像所造成的时延,可以确保用户实时获取终端设备的界面信息和第一背景画面,满足用户对即使获取界面信息的需求。解决了相关技术中获取合成画面的时延较大,无法满足用户对获取画面信息的即时性要求的问题。
本申请实施例中的图像数据处理装置可以是电子设备,也可以是电子设备中的部件,例如集成电路或芯片。该电子设备可以是终端,也可以为除终端之外的其他设备。示例性的,电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、移动上网装置(Mobile Internet Device,MID)、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、机器人、可穿戴设备、超级移动个人计算机(ultra-mobilepersonal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,还可以为服务器、网络附属存储器(Network Attached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的图像数据处理装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的图像数据处理装置能够实现图2至图15的方法实施例实现的各个过程,为避免重复,这里不再赘述。
可选地,如图17所示,本申请实施例还提供一种电子设备1700,包括处理器1701和存储器1702,存储器1702上存储有可在处理器1701上运行的程序或指令,该程序或指令被处理器1701执行时实现上述图像数据处理方法实施例的各个步骤,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,本申请实施例中的电子设备包括上述的移动电子设备和非移动电子设备。
图18为实现本申请实施例的一种电子设备的硬件结构示意图。
该电子设备1800包括但不限于:射频单元1801、网络模块1802、音频输出单元1803、输入单元1804、传感器1805、显示单元1806、用户输入单元1807、接口单元1808、存储器1809、以及处理器1810等部件。
本领域技术人员可以理解,电子设备1800还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器1810逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图18中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
在本实施例中,获取终端设备中第一界面的界面信息,根据界面信息确定显示镜片中的第一区域,然后将第一区域调整为透视状态,并在背景区域中显示第一背景画面。由此,佩戴AR眼镜的用户通过处于透视状态的第一区域,可以观看到终端设备的界面信息,并通过背景区域观看第一背景画面。相对于相关技术中,终端设备通过无线传输方式将界面信息传输给AR眼镜,以供AR眼镜进行界面信息展示的方法,本实施例避免了无线传输所造成的延时,可以使用户即使获取终端设备中的界面信息,满足用户对即使获取界面信息的需求。
应理解的是,本申请实施例中,输入单元1804可以包括图形处理器(GraphicsProcessing Unit,GPU)18041和麦克风18042,图形处理器18041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。显示单元1806可包括显示面板18061,可以采用液晶显示器、有机发光二极管等形式来配置显示面板18061。用户输入单元1807包括触控面板18071以及其他输入设备18072中的至少一种。触控面板18071,也称为触摸屏。触控面板18071可包括触摸检测装置和触摸控制器两个部分。其他输入设备18072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
存储器1809可用于存储软件程序以及各种数据。存储器1809可主要包括存储程序或指令的第一存储区和存储数据的第二存储区,其中,第一存储区可存储操作系统、至少一个功能所需的应用程序或指令(比如声音播放功能、图像播放功能等)等。此外,存储器1809可以包括易失性存储器或非易失性存储器,或者,存储器1809可以包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double Data Rate SDRAM,DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synch link DRAM,SLDRAM)和直接内存总线随机存取存储器(Direct Rambus RAM,DRRAM)。本申请实施例中的存储器1809包括但不限于这些和任意其它适合类型的存储器。
处理器1810可包括一个或多个处理单元;可选的,处理器1810集成应用处理器和调制解调处理器,其中,应用处理器主要处理涉及操作系统、用户界面和应用程序等的操作,调制解调处理器主要处理无线通信信号,如基带处理器。可以理解的是,上述调制解调处理器也可以不集成到处理器1810中。
本申请实施例还提供一种可读存储介质,可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述图像数据处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,处理器为上述实施例中的电子设备中的处理器。可读存储介质,包括计算机可读存储介质,如计算机只读存储器ROM、随机存取存储器RAM、磁碟或者光盘等。
本申请实施例另提供了一种芯片,芯片包括处理器和通信接口,通信接口和处理器耦合,处理器用于运行程序或指令,实现上述图像数据处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
本申请实施例提供一种计算机程序产品,该程序产品被存储在存储介质中,该程序产品被至少一个处理器执行以实现如上述图像数据处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以计算机软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。
Claims (20)
1.一种图像数据处理方法,其特征在于,应用于增强现实眼镜,所述增强现实眼镜具有显示镜片;所述方法包括:
获取终端设备中第一界面的界面信息;
根据所述界面信息确定所述显示镜片中的第一区域;
将所述第一区域调整为透视状态,并在背景区域中显示第一背景画面,所述背景区域为所述显示镜片中除所述第一区域外的区域;
其中,处于透视状态的所述第一区域,用于供佩戴所述增强现实眼镜的用户观看所述第一界面。
2.根据权利要求1所述的方法,其特征在于,所述界面信息包括:所述第一界面的多个第一轮廓点的轮廓点坐标,所述第一轮廓点为构成第一界面的界面轮廓的轮廓点;
所述根据所述界面信息确定所述显示镜片中的第一区域,包括:
获取佩戴所述增强现实眼镜的用户的眼睛所在位置点的人眼坐标;
根据多个所述第一轮廓点的轮廓点坐标,以及所述人眼坐标,确定所述显示镜片中的第一区域,所述第一区域是所述界面信息映射在所述显示镜片所在平面后形成的区域。
3.根据权利要求2所述的方法,其特征在于,所述根据多个所述第一轮廓点的轮廓点坐标,以及所述人眼坐标,确定所述显示镜片中的第一区域,包括:
针对每个第一轮廓点,根据第一轮廓点的轮廓点坐标,以及所述人眼坐标,确定所述第一轮廓点和所述眼睛所在位置点之间的连线;
确定所述连线与所述显示镜片所在平面的交点;
根据多个所述交点确定第一轮廓;
将所述第一轮廓构成的区域确定为所述第一区域。
4.根据权利要求1所述的方法,其特征在于,所述增强现实眼镜上设有摄像头;所述第一界面的界面信息包括所述第一界面的界面图像;
所述获取终端设备中第一界面的界面信息,包括:
通过摄像头实时获取所述第一界面的界面图像;
在获取终端设备中第一界面的界面信息之后,还包括:
将所述界面图像显示在所述显示镜片的第一区域中。
5.根据权利要求4所述的方法,其特征在于,所述通过摄像头实时获取所述第一界面的界面图像,包括:
通过所述摄像头实时采集包括所述界面图像的第一图像;
从所述第一图像中提取与所述第一界面对应的界面图像。
6.根据权利要求5所述的方法,其特征在于,所述界面信息还包括:所述界面图像在所述第一图像中的轮廓信息;
所述根据所述界面信息确定所述显示镜片中的第一区域,包括:
获取所述界面图像对应的界面区域;
根据预设缩放比例值,对所述界面区域进行缩放处理,得到第一区域。
7.根据权利要求1至6中任一项所述的方法,其特征在于,在背景区域中显示第一背景画面之前,还包括:
获取所述第一界面的第一界面类型;
从预设的背景画面集合中,确定出与所述第一界面类型对应的第一背景画面,所述预设的背景画面集合包括多个第二背景画面,每个背景画面具有对应的第二界面类型。
8.根据权利要求1至6中任一项所述的方法,其特征在于,所述增强现实眼镜具有麦克风,所述方法还包括:
通过所述麦克风采集音频数据,所述音频数据是由所述终端设备产生的;
对所述音频数据进行去噪处理,得到去噪处理后的第一音频;
播放与所述第一音频对应的声音。
9.根据权利要求1至6中任一项所述的方法,其特征在于,还包括:
接收所述终端设备发送的第二音频;
播放与所述第二音频对应的声音。
10.一种图像数据处理装置,其特征在于,所述装置位于增强现实眼镜中,所述眼镜具有显示屏;所述装置包括:
第一获取模块,用于获取终端设备中第一界面的界面信息;
第一确定模块,用于根据所述界面信息确定所述显示镜片中的第一区域;
第一调整模块,用于将所述第一区域调整为透视状态,并在背景区域中显示第一背景画面,所述背景区域为所述显示镜片中除所述第一区域外的区域;其中,处于透视状态的所述第一区域,用于供佩戴所述增强现实眼镜的用户观看所述第一界面。
11.根据权利要求10所述的装置,其特征在于,所述界面信息包括:所述第一界面的多个第一轮廓点的轮廓点坐标,所述第一轮廓点为构成第一界面的界面轮廓的轮廓点;所述第一确定模块包括:
第一获取子模块,用于获取佩戴所述增强现实眼镜的用户的眼睛所在位置点的人眼坐标;
第一确定子模块,用于根据多个所述第一轮廓点的轮廓点坐标,以及所述人眼坐标,确定所述显示镜片中的第一区域,所述第一区域是所述界面信息映射在所述显示镜片所在平面后形成的区域。
12.根据权利要求11所述的装置,其特征在于,所述第一确定子模块包括:
第一确定单元,用于针对每个第一轮廓点,根据第一轮廓点的轮廓点坐标,以及所述人眼坐标,确定所述第一轮廓点和所述眼睛所在位置点之间的连线;
第二确定单元,用于确定所述连线与所述显示镜片所在平面的交点;
第三确定单元,用于根据多个所述交点确定第一轮廓;
第四确定单元,用于将所述第一轮廓构成的区域确定为所述第一区域。
13.根据权利要求10所述的装置,其特征在于,所述增强现实眼镜上设有摄像头;所述第一界面的界面信息包括所述第一界面的界面图像;所述第一获取模块,包括:
第二获取子模块,用于通过摄像头实时获取所述第一界面的界面图像;
所述装置还包括:
显示模块,用于将所述界面图像显示在所述显示镜片的第一区域中。
14.根据权利要求13所述的装置,其特征在于,所述第二获取子模块,包括:
采集单元,用于通过所述摄像头实时采集包括所述界面图像的第一图像;
提取单元,用于从所述第一图像中提取与所述第一界面对应的界面图像。
15.根据权利要求13所述的装置,其特征在于,所述界面信息还包括:所述界面图像在所述第一图像中的轮廓信息;
所述第一确定模块,包括:
第三获取子模块,用于获取所述界面图像对应的界面区域;
第四获取子模块,用于根据预设缩放比例值,对所述界面区域进行缩放处理,得到第一区域。
16.根据权利要求10至15中任一项所述的装置,其特征在于,所述装置还包括:
第二获取模块,用于获取所述第一界面的第一界面类型;
第二确定模块,用于从预设的背景画面集合中,确定出与所述第一界面类型对应的第一背景画面,所述预设的背景画面集合包括多个第二背景画面,每个背景画面具有对应的第二界面类型。
17.根据权利要求10至15中任一项所述的装置,其特征在于,所述增强现实眼镜具有麦克风,所述装置还包括:
采集模块,用于通过所述麦克风采集音频数据,所述音频数据是由所述终端设备产生的;
第三获取模块,用于对所述音频数据进行去噪处理,得到去噪处理后的第一音频;
第一播放模块,用于播放与所述第一音频对应的声音。
18.根据权利要求10至15中任一项所述的装置,其特征在于,还包括:
接收模块,用于接收所述终端设备发送的第二音频;
第二播放模块,用于播放与所述第二音频对应的声音。
19.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如权利要求1-9任一项所述的图像数据处理方法的步骤。
20.一种可读存储介质,其特征在于,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如权利要求1-9任一项所述的图像数据处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311571595.1A CN117615082A (zh) | 2023-11-22 | 2023-11-22 | 图像数据处理方法、装置、电子设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311571595.1A CN117615082A (zh) | 2023-11-22 | 2023-11-22 | 图像数据处理方法、装置、电子设备及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117615082A true CN117615082A (zh) | 2024-02-27 |
Family
ID=89943573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311571595.1A Pending CN117615082A (zh) | 2023-11-22 | 2023-11-22 | 图像数据处理方法、装置、电子设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117615082A (zh) |
-
2023
- 2023-11-22 CN CN202311571595.1A patent/CN117615082A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9842433B2 (en) | Method, apparatus, and smart wearable device for fusing augmented reality and virtual reality | |
US10182720B2 (en) | System and method for interacting with and analyzing media on a display using eye gaze tracking | |
CN109743892B (zh) | 虚拟现实内容的显示方法和装置 | |
US20170195664A1 (en) | Three-dimensional viewing angle selecting method and apparatus | |
US20120200667A1 (en) | Systems and methods to facilitate interactions with virtual content | |
US9392248B2 (en) | Dynamic POV composite 3D video system | |
CN113228625A (zh) | 支持复合视频流的视频会议 | |
CN112041788B (zh) | 使用眼睛注视来选择文本输入字段 | |
CN111654715B (zh) | 直播的视频处理方法、装置、电子设备及存储介质 | |
US20160371888A1 (en) | Interactive information display | |
JP2011257682A (ja) | 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム | |
CN111970456B (zh) | 拍摄控制方法、装置、设备及存储介质 | |
CN111308707B (zh) | 画面显示调节方法、装置、存储介质及增强现实显示设备 | |
US20190347864A1 (en) | Storage medium, content providing apparatus, and control method for providing stereoscopic content based on viewing progression | |
CN109799899B (zh) | 交互控制方法、装置、存储介质和计算机设备 | |
JP2023017920A (ja) | 画像処理装置 | |
CN113870213A (zh) | 图像显示方法、装置、存储介质以及电子设备 | |
CN114358112A (zh) | 视频融合方法、计算机程序产品、客户端及存储介质 | |
CN113170231A (zh) | 跟随用户运动控制播放视频内容的方法和装置 | |
CN114615556B (zh) | 虚拟直播增强互动方法及装置、电子设备、存储介质 | |
CN117615082A (zh) | 图像数据处理方法、装置、电子设备及可读存储介质 | |
CN113194329B (zh) | 直播互动方法、装置、终端及存储介质 | |
CN111736692B (zh) | 显示方法、显示装置、存储介质与头戴式设备 | |
CN113938752A (zh) | 一种处理方法及装置 | |
WO2024060959A1 (zh) | 虚拟环境中的观影画面调整方法、装置、存储介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |