CN111415422B - 虚拟对象调整方法、装置、存储介质与增强现实设备 - Google Patents
虚拟对象调整方法、装置、存储介质与增强现实设备 Download PDFInfo
- Publication number
- CN111415422B CN111415422B CN202010307907.8A CN202010307907A CN111415422B CN 111415422 B CN111415422 B CN 111415422B CN 202010307907 A CN202010307907 A CN 202010307907A CN 111415422 B CN111415422 B CN 111415422B
- Authority
- CN
- China
- Prior art keywords
- virtual object
- real scene
- coordinate system
- scene image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Architecture (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开提供一种虚拟对象调整方法、虚拟对象调整装置、存储介质与增强现实设备,涉及虚拟现实与增强现实技术领域。其中,所述虚拟对象调整方法应用于增强现实设备,所述增强现实设备包括显示单元和摄像单元,所述方法包括:获取由所述摄像单元采集的真实场景图像;确定所述显示单元与所述摄像单元之间的标定参数;根据所述真实场景图像的颜色信息和所述标定参数,对待显示的虚拟对象进行调整。本公开解决了增强现实的光学透视显示中,虚拟信息与真实信息之间易出现颜色干扰的问题,提高虚拟信息与真实信息的叠加融合效果,改善用户的视觉体验。
Description
技术领域
本公开涉及虚拟现实与增强现实技术领域,尤其涉及一种虚拟对象调整方法、虚拟对象调整装置、计算机可读存储介质与增强现实设备。
背景技术
AR(Augmented Reality,增强现实)技术是将真实世界信息和虚拟世界信息进行融合显示的技术,真实世界和虚拟世界之间重叠之后,能够在同一个画面以及空间中同时存在。由于人们对于真实世界和虚拟世界的感知有很大的不同,如何将虚拟有效地叠加到真实之中,实现对现实的“增强”显示,营造出和谐的观感与沉浸式体验,是AR技术面临的一大问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供了一种虚拟对象调整方法、虚拟对象调整装置、计算机可读存储介质与增强现实设备,进而至少在一定程度上实现增强现实中虚拟与真实的有效叠加。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一方面,提供一种虚拟对象调整方法,应用于增强现实设备,所述增强现实设备包括显示单元和摄像单元;所述方法包括:获取由所述摄像单元采集的真实场景图像;确定所述显示单元与所述摄像单元之间的标定参数;根据所述真实场景图像的颜色信息和所述标定参数,对待显示的虚拟对象进行调整。
根据本公开的第二方面,提供一种虚拟对象调整装置,应用于增强现实设备,所述增强现实设备包括显示单元和摄像单元;所述装置包括:图像获取模块,用于获取由所述摄像单元采集的真实场景图像;标定参数确定模块,用于确定所述显示单元与所述摄像单元之间的标定参数;虚拟对象调整模块,用于根据所述真实场景图像的颜色信息和所述标定参数,对待显示的虚拟对象进行调整。
根据本公开的第三方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面的虚拟对象调整方法及其可能的实现方式。
根据本公开的第四方面,提供一种增强现实设备,包括:处理器;存储器,用于存储所述处理器的可执行指令;显示单元;以及摄像单元;处理器;其中,所述处理器配置为经由执行所述可执行指令来执行上述第一方面的虚拟对象调整方法及其可能的实现方式。
本公开的技术方案具有以下有益效果:
根据上述虚拟对象调整方法、虚拟对象调整装置、计算机可读存储介质与增强现实设备,通过真实场景图像的颜色信息和显示单元与摄像单元之间的标定参数,对待显示的虚拟对象进行调整。一方面,本方案解决了增强现实的光学透视显示中,虚拟信息与真实信息之间易出现颜色干扰的问题,提高虚拟信息与真实信息的叠加融合效果,改善用户的视觉体验。另一方面,本方案实施过程简单,不涉及复杂的运算处理,实际应用中可以实现较快的响应,提高虚实结合的同步性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施方式,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A示出相关技术中视频透视显示方式的示意图;
图1B示出相关技术中光学透视显示方式的示意图;
图2示出本示例性实施方式中增强现实眼镜的结构框图;
图3示出本示例性实施方式中一种虚拟对象调整方法的流程图;
图4示出本示例性实施方式中采集真实场景图像的示意图;
图5示出本示例性实施方式中不同坐标系之间标定的示意图;
图6示出本示例性实施方式中一种虚拟对象调整方法的子流程图;
图7示出本示例性实施方式中虚拟对象透明化处理的示意图;
图8示出本示例性实施方式中调整虚拟对象显示位置的示意图;
图9示出本示例性实施方式中一种虚拟对象调整装置的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
相关技术中,AR设备上实现增强现实显示主要有以下两种方式:
视频透视显示方式。如图1A所示,真实世界的图像首先由安装在显示器前面的摄像头捕获,这些图像与计算机生成的虚拟世界的图像相结合,然后通过显示器呈现给用户。用户看到的显示内容实际上都是通过计算机产生的内容,只是输入源中有一部分是真实世界的图像。
光学透视显示方式。如图1B所示,使用光学透视显示器,用户可以通过单目或者双目并用光学元件(如全息光波导或者其他光学显示系统)观看到真实世界,计算机产生虚拟世界的图像,通过投影的方式叠加显示到真实世界中,形成增强现实的效果。
相较而言,光学透视显示方式中,用户可以直接看到未经计算机处理的真实世界,真实感更强,且可以采用透明显示的镜片,有利于用户在日常生活中佩戴。因此光学透视显示是目前AR发展的主流方向。然而,在实现光学透视显示时,由于虚拟图像是直接叠加显示到真实世界中,容易出现真实世界与虚拟图像之间的干扰,例如虚拟图像为红色的虚拟玩偶,当真实世界中存在红色的物体,如红色的墙面、桌面时,虚拟图像可能淹没在真实世界中,使肉眼无法区分,甚至于完全看不到虚拟图像。
鉴于上述一个或多个问题,本公开的示例性实施方式首先提供一种增强现实设备,下面以图2中的增强现实眼镜200为例,对增强现实设备内部的单元构造进行示例性说明。本领域技术人员应当理解,实际应用中,增强现实设备可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件、软件或软件和硬件的组合实现。各部件间的接口连接关系只是示意性示出,并不构成对增强现实设备的结构限定。在另一些实施方式中,增强现实设备也可以采用与图2不同的接口连接方式,或多种接口连接方式的组合。
如图2所示,增强现实眼镜200可以包括存储单元210、处理单元220、显示单元230和摄像单元240,可选的,增强现实眼镜200还可以包括音频单元250、通信单元260和传感器单元270。
存储单元210用于存储可执行指令,例如可以包括操作系统代码、程序代码,还可以存储程序运行期间所产生的数据,例如程序内的用户数据等。存储单元210可以设置于两镜片中间的镜体内,也可以设置于其他位置。存储单元210可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(Universal Flash Storage,UFS)等。
处理单元220可以包括中央处理器(Central Processing Unit,CPU)、图形处理器(Graphics Processing Unit,GPU)、应用处理器(Application Processor,AP)、调制解调处理器、图像信号处理器(Image Signal Processor,ISP)、控制器、视频编解码器、数字信号处理器(Digital Signal Processor,DSP)、基带处理器和/或神经网络处理器(Neural-Network Processing Unit,NPU)等。其中,不同的处理器可以作为独立的单元,也可以集成在一个处理单元中。处理单元220可以设置于两镜片中间的镜体内,也可以设置于其他位置。处理单元220可以执行存储单元210上的可执行指令,以执行相应的程序命令。
显示单元230用于显示图像,视频等,一般设置为镜片的形式。本示例性实施方式采用光学透视显示方式,用户透过镜片可以看到真实场景,而处理单元220将虚拟影像传输到显示单元230上显示,使用户看到真实和虚拟叠加的影像效果。因此显示单元230可以具备“透视”(See-Through)的功能,既要看到真实的外部世界,也要看到虚拟信息,以实现现实和虚拟的融合与“增强”。在一种可选的实施方式中,如图2所示,显示单元230可以包括微型显示屏(Display)2301与透镜(Lens)2302。微型显示屏2301用于提供显示内容,可以是自发光的有源器件,如发光二极管面板、或具有外部光源照明的液晶显示屏等;透镜2302用于使人眼看到真实场景,从而对真实场景影像和虚拟影像进行叠加。
摄像单元240由镜头、感光元件等部件组成,其可以位于两镜片中间的位置,或者镜片的左侧或右侧位置,镜头一般朝向镜片的正前方。当用户佩戴增强现实眼镜200时,摄像单元240可以捕获前方的静态图像或视频,例如用户前方的真实场景图像,或者用户在正前方做出手势操作,摄像单元240可以拍摄用户的手势图像。进一步的,如图2所示,摄像单元240可以包括深度摄像头2401,例如可以是TOF(Time Of Flight,飞行时间)摄像头、双目摄像头等,可以检测场景图像中每个部分或每个物体的深度信息(即与增强现实眼镜200的轴向距离),从而得到更加丰富的图像信息,例如在拍摄手势图像后,可以根据手势的深度信息,实现准确的手势识别。
音频单元250用于将数字音频信号转换成模拟音频信号输出,也可以将模拟音频输入转换为数字音频信号,还可以用于对音频信号编码和解码。在一些实施方式中,音频单元250可以设置于处理单元220中,或将音频单元250的部分功能模块设置于处理单元220中。如图2所示,音频单元250一般可以包括麦克风2501和耳机2502。麦克风2501可以设置于增强现实眼镜200一侧或双侧镜腿的底部,靠近用户嘴部的位置,耳机2502可以设置于增强现实眼镜200一侧或双侧镜腿的中后端,靠近用户耳朵的位置。此外,音频单元250也可以包括扬声器、功率放大器等组件,以实现音频的外放。
通信单元260可以提供包括无线局域网(Wireless Local Area Networks,WLAN)(如无线保真(Wireless Fidelity,Wi-Fi)网络)、蓝牙(Bluetooth,BT)、全球导航卫星系统(Global Navigation Satellite System,GNSS)、调频(Frequency Modulation,FM)、近距离无线通信技术(Near Field Communication,NFC)、红外技术(Infrared,IR)等无线通信的解决方案,使增强现实眼镜200连接到互联网,或与其他设备形成连接。
传感器单元270由不同类型的传感器组成,用于实现不同的功能。例如,传感器单元270可以包括至少一个触摸传感器2701,设置在一侧的镜腿外侧,便于用户触摸到的位置,形成一定的触摸感应区域,实现类似于手机触控屏的功能,使用户通过在触摸感应区域进行触摸操作而进行交互控制。
此外,传感器单元270还可以包括其他传感器,例如压力传感器2702,用于检测用户按压操作的力度,指纹传感器2703,用于检测用户的指纹数据,等等。
在一种可选的实施方式中,增强现实眼镜200还可以包括USB(Universal SerialBus,通用串行总线)接口280,其符合USB标准规范,具体可以是MiniUSB接口,MicroUSB接口,USBTypeC接口等。USB接口280可以用于连接充电器为增强现实眼镜200充电,也可以连接耳机,通过耳机播放音频,还可以用于连接其他电子设备,例如连接电脑、外围设备等。USB接口280可以设置于增强现实眼镜200一侧或双侧镜腿的底部,或其他合适的位置。
在一种可选的实施方式中,增强现实眼镜200还可以包括充电管理单元290,用于从充电器接收充电输入,为电池2901充电。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施方式中,充电管理单元290可以通过USB接口280接收有线充电器的充电输入。在一些无线充电的实施方式中,充电管理单元290可以通过增强现实眼镜200的无线充电线圈接收无线充电输入。充电管理单元290为电池2901充电的同时,还可以为设备供电。
本公开的示例性实施方式提供一种虚拟对象调整方法,可以应用于上述增强现实设备,如图2中的增强现实眼镜200。
下面结合图3对该虚拟对象调整方法做具体说明。如图3所示,该方法可以包括以下步骤S310至S330:
步骤S310,获取由摄像单元采集的真实场景图像。
其中,真实场景是指增强现实设备当前所在的真实世界环境,如现实的房间、咖啡店、商场或者街道等。图4示出了拍摄真实场景图像的示意图,当用户佩戴增强现实设备时,摄像单元可以实时采集用户前方的真实场景图像,形成视频流,并传输到处理单元进行处理。
在一种可选的实施方式中,摄像单元可以包括深度摄像头,则拍摄的真实场景图像中可以携带深度信息。
步骤S320,确定显示单元与摄像单元之间的标定参数。
其中,显示单元和摄像单元均具有各自的坐标系。显示单元的坐标系一般是二维的显示平面坐标系,摄像单元的坐标系一般是三维的相机坐标系。显示单元与摄像单元的标定,即两坐标系之间的映射。如图5所示,假设真实场景空间中的任意一点P,在世界坐标系W中的坐标为PW,在相机坐标系C中的坐标为PC,用户通过显示平面S观看点P,P在显示平面S上的坐标为PS,则得到以下两个公式:
PC=[RWC|TWC;0 0 0 1]PW (1)
PS=K[RCV|TCV]PC=GPC (2)
其中,上述公式(1)中的PW、PC是将世界坐标系中的PW和相机坐标系中的PC转换为四维的齐次坐标。公式(2)中的PS是将显示平面坐标系中的PS转换为三维的齐次坐标。R表示旋转矩阵,不同的下标表示不同坐标系之间的旋转矩阵,例如RWC是指世界坐标系W和相机坐标系C之间的旋转矩阵,每个R都是3*3的矩阵。T表示平移向量,不同的下标表示不同坐标系之间的平移向量,每个T都是3*1的向量,是包含3个元素的列向量。K表示包含人眼的虚拟摄像机的内参数矩阵,是3*3矩阵。
令PS=[u v 1]T,PC=[xc yc zc 1]T,可以得到以下公式:
其中,G矩阵表示从相机坐标系到显示平面坐标系的映射关系,即显示单元与摄像单元之间的标定参数。当然,G可以分解为内参数矩阵、旋转矩阵和平移向量(平移向量也可以看成是n*1的矩阵)。通过显示单元与摄像单元的标定可以得到标定参数,标定一般在设备出厂、设备硬件参数变化、软件升级等情况下进行。本示例性实施方式中,在进行虚拟对象调整时,标定的过程一般已经完成,因此可以直接获取上述标定参数。
步骤S330,根据真实场景图像的颜色信息和标定参数,对待显示的虚拟对象进行调整。
其中,待显示的虚拟对象是指增强现实设备在后台生成用于显示的虚拟对象,其可以是虚拟的人物、卡通形象、物体,也可以是虚拟的图标、文字、动画效果等。在生成虚拟对象时,即确定了虚拟对象的位置信息。在一种可选的实施方式中,在采集真实场景图像后,可以识别真实场景图像中的目标,例如平面、台面、特定的物体等,根据AR程序的设置,在目标的相应位置上生成虚拟对象,如在平面上生成虚拟投影,生成站立在台面上的虚拟人物,为特定的真实物体生成虚拟边框等。生成虚拟对象的过程也可以通过机器学习模型实现,例如增强现实设备可以运行机器学习模型,通过收集真实世界图像以及虚拟对象的大数据,进行模型训练,以学习真实世界特征与虚拟对象的关系,进而在应用时,采集真实场景图像并输入到模型中,模型通过识别真实场景图像中的目标与特征,生成相适应的虚拟对象。
真实场景图像一般包含较为丰富的颜色信息,且各个区域的颜色不相同。本示例性实施方式中,根据标定参数可以确定真实场景图像与虚拟对象之间的位置关系,进一步确定两者之间是否存在颜色冲突,从而对虚拟对象进行调整。例如,根据标定参数,计算虚拟对象恰好位于真实场景图像中的墙面位置,并且虚拟对象与墙面均为红色,这样显示虚拟对象后可能无法看清,因此可以对虚拟对象的颜色进行调整,使其有别于墙面的红色,或者对虚拟对象的位置进行调整,使其移出墙面区域。
在一种可选的实施方式中,参考图6所示,步骤S330可以具体包括以下步骤S601和S602:
步骤S601,根据标定参数,在真实场景图像中确定虚拟对象所在的局部区域。
一般的,在生成虚拟对象时,所确定的虚拟对象的显示位置为其在显示平面上的位置,基于显示单元的坐标系而确定;真实场景图像是由摄像单元采集的,其位置信息是基于摄像单元的坐标系而确定。因此,需要将虚拟对象和真实场景图像映射到同一个坐标系中,从而能够确定虚拟对象在真实场景图像中的哪个区域,即确定上述局部区域。下面提供两种示例性的坐标映射方式:
坐标映射方式一,以真实场景图像为基准,对虚拟对象进行坐标映射。具体来说,可以利用标定参数,将虚拟对象从第一坐标系映射到第二坐标系,然后根据虚拟对象在第二坐标系中的覆盖范围,确定上述局部区域。其中,第一坐标系为显示单元的坐标系,例如可以是图5中的显示平面坐标系S;第二坐标系为摄像单元的坐标系或真实场景图像的坐标系,摄像单元的坐标系即相机坐标系,例如可以是图5中的相机坐标系C,真实场景图像的坐标系为二维的图像坐标系,其与相机坐标系C之间可以通过相机的焦距f进行转换,如下所示:
如果采用相机坐标系作为第二坐标系,则通过上述公式(2)、(3)可以将虚拟对象从第一坐标系映射到第二坐标系;如果采用图像坐标系作为第二坐标系,则通过上述公式(2)、(3)、(5)可以将虚拟对象从第一坐标系映射到第二坐标系。
完成映射后,在第二坐标系中,确定虚拟对象的覆盖范围,即上述局部区域。需要说明的是,在确定局部区域时,可以采用精确分割,即按照虚拟对象的边界,从真实场景图像中精确分割出一块局部区域,局部区域的大小、形状与虚拟对象相同;也可以采用模糊分割,即按照虚拟对象所在的位置,将真实场景图像中位于该位置的物体确定为局部区域,例如虚拟对象的位置对应于真实场景图像中的一张桌子,则该桌子的区域为局部区域,由此得到的局部区域,其大小、形状与虚拟对象可能存在一定偏差。具体采用哪种方式,视实际情况与场景需求而定,本公开不限定于此。
坐标映射方式二,以虚拟对象为基准,对真实场景图像进行坐标映射。具体来说,可以利用标定参数,将真实场景图像从第二坐标系映射到第一坐标系,在第一坐标系中,根据虚拟对象在真实场景图像中的覆盖范围,确定上述局部区域。其计算过程与上述坐标映射方式一基本相似,区别在于基准由第二坐标系改为了第一坐标系,映射的对象由虚拟对象改为了真实场景图像。在进行坐标映射时,根据所采用的第二坐标系是相机坐标系还是图像坐标系,选择上述公式(2)、(3)或公式(2)、(3)、(5)计算。
步骤S602,根据上述局部区域的颜色信息,对虚拟对象进行调整。
调整的目的主要是消除颜色干扰。在一种可选的实施方式中,步骤S602可以包括:
当根据局部区域的颜色信息和虚拟对象的颜色信息判断虚拟对象中存在受干扰像素点时,对受干扰像素点进行透明化处理,或者调整虚拟对象的显示位置,使虚拟对象显示于所述局部区域以外;
其中,受干扰像素点为与局部区域的颜色差值小于预设阈值的像素点。在对比局部区域与虚拟对象的颜色信息时,对于虚拟对象中的每个像素点,局部区域具有对应的一个像素点,实际显示时,这两个像素点重合,将这两个像素点作为一组像素点对,对比每组像素点对的颜色差值。颜色差值可以通过颜色距离进行度量,并根据经验或实际需求确定预设阈值,如果两像素点的颜色差值小于该预设阈值,则为相同或相似的颜色,虚拟对象中的该像素点容易受到局部区域的干扰,因此为受干扰像素点。由此对每组像素点对进行计算,可以判断虚拟对象中是否存在受干扰像素点。如果不存在受干扰像素点,说明不存在颜色干扰的情况,可以对虚拟对象不做调整。如果存在受干扰像素点,说明存在颜色干扰的情况,下面提供两种示例性的调整方式:
调整方式一、对像素点进行透明化处理。如图7所示,可以在显示单元上关闭像素点的显示,或者对像素点增加一定的透明度(如颜色越相似,透明度越高),以真实场景的颜色进行填充,这样能够实现较好的虚实融合效果。
调整方式二、调整虚拟对象的显示位置,使虚拟对象显示于局部区域以外。如图8所示,将虚拟对象移动到局部区域之外,与虚拟对象不存在颜色干扰的位置,从而使虚拟对象和真实场景区分开来。
在一种可选的实施方式中,摄像单元可以包括深度摄像头,则拍摄的真实场景图像中可以携带深度信息,具体包括真实场景图像中每个物体距离摄像头的轴向距离(即深度值)。基于此,可以根据真实场景图像的深度信息,对虚拟对象的三维渲染参数进行调整。例如确定虚拟对象在真实场景图像中对应的局部区域后,提取局部区域的深度信息,由于虚拟对象在显示时需要和局部区域进行融合,可以将虚拟对象的深度值调整到与该局部区域的深度值相同。具体来说,可以在世界坐标系中生成三维的虚拟对象,调整其轴向距离与局部区域的深度值一致,然后根据该位置的真实场景信息、光影信息、纹理信息等渲染虚拟对象,最后获取虚拟对象在显示平面的投影,并进行显示。通过调整三维渲染参数,最终显示出的虚拟对象可以呈现出不同的大小、立体感以及光影效果,实现更好的嵌入感。
在一种可选的实施方式中,还可以对虚拟对象的显示亮度进行调整。具体来说,步骤S330可以包括:
从真实场景图像的颜色信息中提取亮度信息,根据真实场景图像的亮度信息确定亮度值范围;
将虚拟对象的显示亮度调整到亮度值范围以内。
其中,真实场景图像的颜色信息可以包括每个像素点的HSL或HSV(Hue,Saturation,Lightness或Value,即色调、饱和度、亮度或明度)通道值,将L通道值或V通道值提取出来,即真实场景图像的亮度信息。通常可以将虚拟对象的显示亮度调整到与真实场景图像的亮度一致,考虑到允许存在一定的偏差,因此以真实场景图像的亮度信息为基准,增加一定的余量(根据经验与实际需求而定),得到亮度值范围,然后将虚拟对象的显示亮度调整到亮度值范围以内。进一步的,由于真实场景图像存在一定的亮度分布,可以基于该分布为虚拟对象的不同部分设置不同的亮度值范围,以更好地适应于真实场景。通过调整虚拟对象显示亮度,可以提高虚拟对象光影效果的真实感,进一步改善虚拟对象与真实场景融合的一致性与真实感。
此外,增强现实设备上还可以设置环境光传感器或亮度检测传感器等,用于直接检测真实场景的光照信息,如光照强度、光照角度等。基于此,可以估计投射到虚拟对象各个部分的光照情况,从而对虚拟对象的显示亮度进行调整,使其与真实场景的光照相适应,一般光照越强的部分显示亮度越高。这样也能改善虚拟对象的光影效果。
综上所述,本示例性实施方式中,根据真实场景图像的颜色信息和显示单元与摄像单元之间的标定参数,对待显示的虚拟对象进行调整。一方面,本方案解决了增强现实的光学透视显示中,虚拟信息与真实信息之间易出现颜色干扰的问题,提高虚拟信息与真实信息的叠加融合效果,改善用户的视觉体验。另一方面,本方案实施过程简单,不涉及复杂的运算处理,实际应用中可以实现较快的响应,提高虚实结合的同步性。
需要说明的是,实际应用中,由于真实场景的状态处于变化中,可以实时采集真实场景图像,根据其颜色信息的变化,动态实时地调整虚拟对象的颜色、位置和显示亮度等,以始终适应于真实场景的状态,实现高质量的增强现实显示效果。
本公开的示例性实施方式还提供一种虚拟对象调整装置,可以应用于增强现实设备,如图2中的增强现实眼镜200,该增强现实设备包括显示单元和摄像单元。图9示出了该虚拟对象调整装置的结构框图,如图9所示,该虚拟对象调整装置900可以包括:
图像获取模块910,用于获取由摄像单元采集的真实场景图像;
标定参数确定模块920,用于确定显示单元与摄像单元之间的标定参数;
虚拟对象调整模块930,用于根据真实场景图像的颜色信息和标定参数,对待显示的虚拟对象进行调整。
在一种可选的实施方式中,虚拟对象调整模块930,可以包括:
局部区域确定单元,用于根据标定参数,在真实场景图像中确定虚拟对象所在的局部区域;
虚拟对象调整单元,用于根据局部区域的颜色信息,对虚拟对象进行调整。
在一种可选的实施方式中,局部区域确定单元,被配置为:
利用标定参数,将虚拟对象从第一坐标系映射到第二坐标系,第一坐标系为显示单元的坐标系,第二坐标系为摄像单元的坐标系或真实场景图像的坐标系;
根据虚拟对象在第二坐标系中的覆盖范围,确定局部区域。
在一种可选的实施方式中,局部区域确定单元,被配置为:
利用标定参数,将真实场景图像从第二坐标系映射到第一坐标系,第一坐标系为显示单元的坐标系,第二坐标系为摄像单元的坐标系或真实场景图像的坐标系;
在第一坐标系中,根据虚拟对象在真实场景图像中的覆盖范围,确定局部区域。
在一种可选的实施方式中,虚拟对象调整单元,被配置为:
当根据局部区域的颜色信息和虚拟对象的颜色信息判断虚拟对象中存在受干扰像素点时,对受干扰像素点进行透明化处理,或者调整虚拟对象的显示位置,使虚拟对象显示于局部区域以外。
其中,受干扰像素点为与局部区域的颜色差值小于预设阈值的像素点。
在一种可选的实施方式中,摄像单元可以包括深度摄像头。虚拟对象调整模块930,还用于根据真实场景图像的深度信息,对虚拟对象的三维渲染参数进行调整。
在一种可选的实施方式中,虚拟对象调整模块930,还用于:
从真实场景图像的颜色信息中提取亮度信息,根据真实场景图像的亮度信息确定亮度值范围;
将虚拟对象的显示亮度调整到亮度值范围以内。
此外,上述装置中各部分的具体细节在方法部分实施方式中已经详细说明,未披露的细节内容可以参见方法部分的实施方式内容,因而不再赘述。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
本公开的示例性实施方式还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。该程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开示例性实施方式的方法。
此外,上述附图仅是根据本公开示例性实施方式的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的示例性实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施方式。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施方式仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。
Claims (10)
1.一种虚拟对象调整方法,应用于增强现实设备,所述增强现实设备包括显示单元和摄像单元;其特征在于,所述方法包括:
获取由所述摄像单元采集的真实场景图像;
确定所述显示单元与所述摄像单元之间的标定参数;
根据所述真实场景图像的颜色信息和所述标定参数,对待显示的虚拟对象进行调整;
其中,所述根据所述真实场景图像的颜色信息和所述标定参数,对待显示的虚拟对象进行调整,包括:
根据所述标定参数,在所述真实场景图像中确定所述虚拟对象所在的局部区域;
当根据所述局部区域的颜色信息和所述虚拟对象的颜色信息判断所述虚拟对象中存在受干扰像素点时,在所述显示单元中关闭所述受干扰像素点的显示,或者对所述受干扰像素点进行透明化处理,或者调整所述虚拟对象的显示位置,使所述虚拟对象显示于所述局部区域以外;所述受干扰像素点为与所述局部区域的颜色差值小于预设阈值的像素点。
2.根据权利要求1所述的方法,其特征在于,所述根据所述标定参数,在所述真实场景图像中确定所述虚拟对象所在的局部区域,包括:
根据所述标定参数将所述虚拟对象与所述真实场景图像映射至同一坐标系中;
在所述真实场景图像中,将处于所述虚拟对象所在位置的物体的区域确定为所述局部区域。
3.根据权利要求1所述的方法,其特征在于,所述根据所述标定参数,在所述真实场景图像中确定所述虚拟对象所在的局部区域,包括:
利用所述标定参数,将所述虚拟对象从第一坐标系映射到第二坐标系,所述第一坐标系为所述显示单元的坐标系,所述第二坐标系为所述摄像单元的坐标系或所述真实场景图像的坐标系;
根据所述虚拟对象在所述第二坐标系中的覆盖范围,确定所述局部区域。
4.根据权利要求1所述的方法,其特征在于,所述根据所述标定参数,在所述真实场景图像中确定所述虚拟对象所在的局部区域,包括:
利用所述标定参数,将所述真实场景图像从第二坐标系映射到第一坐标系,所述第一坐标系为所述显示单元的坐标系,所述第二坐标系为所述摄像单元的坐标系或所述真实场景图像的坐标系;
在所述第一坐标系中,根据所述虚拟对象在所述真实场景图像中的覆盖范围,确定所述局部区域。
5.根据权利要求1所述的方法,其特征在于,在对所述受干扰像素点进行透明化处理时,对所述受干扰像素点增加的透明度正相关于所述受干扰像素点与所述局部区域的颜色相似程度。
6.根据权利要求1所述的方法,其特征在于,所述摄像单元包括深度摄像头;所述方法还包括:
根据所述真实场景图像的深度信息,对所述虚拟对象的三维渲染参数进行调整。
7.根据权利要求1所述的方法,其特征在于,所述根据所述真实场景图像的颜色信息和所述标定参数,对待显示的虚拟对象进行调整,还包括:
从所述真实场景图像的颜色信息中提取亮度信息,根据所述真实场景图像的亮度信息确定亮度值范围;
将所述虚拟对象的显示亮度调整到所述亮度值范围以内。
8.一种虚拟对象调整装置,应用于增强现实设备,所述增强现实设备包括显示单元和摄像单元;其特征在于,所述装置包括:
图像获取模块,用于获取由所述摄像单元采集的真实场景图像;
标定参数确定模块,用于确定所述显示单元与所述摄像单元之间的标定参数;
虚拟对象调整模块,用于根据所述真实场景图像的颜色信息和所述标定参数,对待显示的虚拟对象进行调整;
其中,所述虚拟对象调整模块,包括:
局部区域确定单元,用于根据所述标定参数,在所述真实场景图像中确定所述虚拟对象所在的局部区域;
虚拟对象调整单元,用于当根据所述局部区域的颜色信息和所述虚拟对象的颜色信息判断所述虚拟对象中存在受干扰像素点时,在所述显示单元中关闭所述受干扰像素点的显示,或者对所述受干扰像素点进行透明化处理,或者调整所述虚拟对象的显示位置,使所述虚拟对象显示于所述局部区域以外;所述受干扰像素点为与所述局部区域的颜色差值小于预设阈值的像素点。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7任一项所述的方法。
10.一种增强现实设备,其特征在于,包括:
处理器;
存储器,用于存储所述处理器的可执行指令;
显示单元;以及
摄像单元;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至7任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010307907.8A CN111415422B (zh) | 2020-04-17 | 2020-04-17 | 虚拟对象调整方法、装置、存储介质与增强现实设备 |
PCT/CN2021/080299 WO2021208648A1 (zh) | 2020-04-17 | 2021-03-11 | 虚拟对象调整方法、装置、存储介质与增强现实设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010307907.8A CN111415422B (zh) | 2020-04-17 | 2020-04-17 | 虚拟对象调整方法、装置、存储介质与增强现实设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111415422A CN111415422A (zh) | 2020-07-14 |
CN111415422B true CN111415422B (zh) | 2022-03-18 |
Family
ID=71494921
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010307907.8A Active CN111415422B (zh) | 2020-04-17 | 2020-04-17 | 虚拟对象调整方法、装置、存储介质与增强现实设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111415422B (zh) |
WO (1) | WO2021208648A1 (zh) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111415422B (zh) * | 2020-04-17 | 2022-03-18 | Oppo广东移动通信有限公司 | 虚拟对象调整方法、装置、存储介质与增强现实设备 |
CN111818265B (zh) * | 2020-07-16 | 2022-03-04 | 北京字节跳动网络技术有限公司 | 基于增强现实模型的交互方法、装置、电子设备及介质 |
CN111736137B (zh) * | 2020-08-06 | 2020-11-27 | 广州汽车集团股份有限公司 | LiDAR外部参数标定方法、系统、计算机设备及可读存储介质 |
CN112037314A (zh) * | 2020-08-31 | 2020-12-04 | 北京市商汤科技开发有限公司 | 图像显示方法、装置、显示设备及计算机可读存储介质 |
CN112053370A (zh) | 2020-09-09 | 2020-12-08 | 脸萌有限公司 | 基于增强现实的显示方法、设备及存储介质 |
CN112053450B (zh) * | 2020-09-10 | 2024-07-16 | 脸萌有限公司 | 文字的显示方法、装置、电子设备及存储介质 |
CN114449251B (zh) * | 2020-10-31 | 2024-01-16 | 华为技术有限公司 | 视频透视方法、装置、系统、电子设备及存储介质 |
CN112445341B (zh) * | 2020-11-23 | 2022-11-08 | 青岛小鸟看看科技有限公司 | 虚拟现实设备的键盘透视方法、装置及虚拟现实设备 |
CN112419509A (zh) * | 2020-11-27 | 2021-02-26 | 上海影创信息科技有限公司 | 虚拟对象生成处理的方法和系统及其vr眼镜 |
CN112316424B (zh) * | 2021-01-06 | 2021-03-26 | 腾讯科技(深圳)有限公司 | 一种游戏数据处理方法、装置及存储介质 |
CN113538704A (zh) * | 2021-07-13 | 2021-10-22 | 海信视像科技股份有限公司 | 一种基于光源位置绘制虚拟对象光影的方法及设备 |
CN113552942B (zh) * | 2021-07-14 | 2024-08-30 | 海信视像科技股份有限公司 | 一种基于光照强度显示虚拟对象的方法及设备 |
CN113923423A (zh) * | 2021-10-22 | 2022-01-11 | 北京乐驾科技有限公司 | 调整ar眼镜视图色彩的方法和电子设备、存储介质 |
CN114119935B (zh) * | 2021-11-29 | 2023-10-03 | 北京百度网讯科技有限公司 | 图像处理方法和装置 |
CN116527863A (zh) * | 2022-04-28 | 2023-08-01 | 腾讯科技(深圳)有限公司 | 基于虚拟现实的视频生成方法、装置、设备及介质 |
CN115065816B (zh) * | 2022-05-09 | 2023-04-07 | 北京大学 | 一种真实地理空间场景实时构建方法和实时构建装置 |
CN115147520A (zh) * | 2022-06-07 | 2022-10-04 | 聚好看科技股份有限公司 | 基于视觉语义驱动虚拟人物的方法及设备 |
CN115082639B (zh) * | 2022-06-15 | 2023-06-27 | 北京百度网讯科技有限公司 | 图像生成方法、装置、电子设备和存储介质 |
CN115760964B (zh) * | 2022-11-10 | 2024-03-15 | 亮风台(上海)信息科技有限公司 | 一种获取目标对象的屏幕位置信息的方法与设备 |
CN115631291B (zh) * | 2022-11-18 | 2023-03-10 | 如你所视(北京)科技有限公司 | 用于增强现实的实时重光照方法和装置、设备和介质 |
CN117560577A (zh) * | 2023-10-26 | 2024-02-13 | 神力视界(深圳)文化科技有限公司 | 虚实材质颜色对齐方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107393017A (zh) * | 2017-08-11 | 2017-11-24 | 北京铂石空间科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN109903129A (zh) * | 2019-02-18 | 2019-06-18 | 北京三快在线科技有限公司 | 增强现实显示方法与装置、电子设备、存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4834116B2 (ja) * | 2009-01-22 | 2011-12-14 | 株式会社コナミデジタルエンタテインメント | 拡張現実表示装置、拡張現実表示方法、ならびに、プログラム |
US9398844B2 (en) * | 2012-06-18 | 2016-07-26 | Microsoft Technology Licensing, Llc | Color vision deficit correction |
KR20170067856A (ko) * | 2014-10-15 | 2017-06-16 | 세이코 엡슨 가부시키가이샤 | 두부 장착형 표시 장치, 두부 장착형 표시 장치의 제어 방법 및 컴퓨터 프로그램을 갖는 컴퓨터 판독 가능 기록 매체 |
CN109688343A (zh) * | 2017-10-18 | 2019-04-26 | 深圳市掌网科技股份有限公司 | 增强现实演播室的实现方法和装置 |
CN111415422B (zh) * | 2020-04-17 | 2022-03-18 | Oppo广东移动通信有限公司 | 虚拟对象调整方法、装置、存储介质与增强现实设备 |
-
2020
- 2020-04-17 CN CN202010307907.8A patent/CN111415422B/zh active Active
-
2021
- 2021-03-11 WO PCT/CN2021/080299 patent/WO2021208648A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107393017A (zh) * | 2017-08-11 | 2017-11-24 | 北京铂石空间科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN109903129A (zh) * | 2019-02-18 | 2019-06-18 | 北京三快在线科技有限公司 | 增强现实显示方法与装置、电子设备、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111415422A (zh) | 2020-07-14 |
WO2021208648A1 (zh) | 2021-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111415422B (zh) | 虚拟对象调整方法、装置、存储介质与增强现实设备 | |
US11989350B2 (en) | Hand key point recognition model training method, hand key point recognition method and device | |
US9710973B2 (en) | Low-latency fusing of virtual and real content | |
US9165381B2 (en) | Augmented books in a mixed reality environment | |
US20140176591A1 (en) | Low-latency fusing of color image data | |
US10681287B2 (en) | Apparatus and method for displaying AR object | |
US20130335405A1 (en) | Virtual object generation within a virtual environment | |
US20130326364A1 (en) | Position relative hologram interactions | |
US20130328925A1 (en) | Object focus in a mixed reality environment | |
US11699259B2 (en) | Stylized image painting | |
US11741679B2 (en) | Augmented reality environment enhancement | |
CN111541907A (zh) | 物品显示方法、装置、设备及存储介质 | |
US11589024B2 (en) | Multi-dimensional rendering | |
KR20210052570A (ko) | 분리가능한 왜곡 불일치 결정 | |
US20230412779A1 (en) | Artistic effects for images and videos | |
CN110675413B (zh) | 三维人脸模型构建方法、装置、计算机设备及存储介质 | |
CN112528760A (zh) | 图像处理方法、装置、计算机设备及介质 | |
CN111736692B (zh) | 显示方法、显示装置、存储介质与头戴式设备 | |
JP7214926B1 (ja) | 画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体 | |
CN109472855B (zh) | 一种体绘制方法、装置及智能设备 | |
KR20220096115A (ko) | 전자 장치 및 그의 제어 방법 | |
US20240169568A1 (en) | Method, device, and computer program product for room layout | |
RU2802724C1 (ru) | Способ и устройство обработки изображений, электронное устройство и машиночитаемый носитель информации | |
US20240303934A1 (en) | Adaptive image processing for augmented reality device | |
CN116567371A (zh) | 头戴设备、图像处理方法、装置、存储介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |