CN107589837A - 一种ar终端画面调整方法、设备和计算机可读存储介质 - Google Patents
一种ar终端画面调整方法、设备和计算机可读存储介质 Download PDFInfo
- Publication number
- CN107589837A CN107589837A CN201710725178.6A CN201710725178A CN107589837A CN 107589837 A CN107589837 A CN 107589837A CN 201710725178 A CN201710725178 A CN 201710725178A CN 107589837 A CN107589837 A CN 107589837A
- Authority
- CN
- China
- Prior art keywords
- eyeball
- angle
- ken
- line
- eyes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明实施例公开了一种AR终端画面调整方法,该方法包括:通过预设的眼球追踪技术追踪并锁定眼球的运动角度;根据锁定的眼球的运动角度确定眼睛的视野;对确定出的眼睛的视野进行视域划分;在划分出的不同的视域内分别按照不同精细度标准调整画面绘制时的精细度。本发明实施例还公开了一种AR终端画面调整设备和计算机可读存储介质。通过本发明实施例技术方案,减小了设备处理器的工作量、提高了设备响应速度和用户体验。
Description
技术领域
本发明实施例涉及智能终端技术,尤指一种AR终端画面调整方法、设备和计算机可读存储介质。
背景技术
增强现实技术(AR),它是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,是把原本在现实世界的一定时间空间范围内很难体验到的实体信息(视觉信息、声音、味道、触觉等)通过电脑等科学技术,模拟仿真后再叠加,将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感官体验。真实的环境和虚拟的物体实时地叠加到了同一个画面或空间同时存在。因此,增强现实给用户带来的最大好处在于基于现实世界互动的完全沉浸式的体验。目前,用户可以通过增强现实技术进行自由行动,比如:玩设计类游戏、冒险迷宫类游戏、舞蹈类游戏等。
用户在使用AR进行游戏或活动时,由于设备拟合的虚拟信息需要和现实世界中的信息进行融合,必须进行大量的计算。这种繁杂的计算不仅需要占用设备处理器的很大工作量,而且有可能由于过多计算而导致设备响应速度存在延迟,从而降低用户使用体验。
发明内容
针对上述技术问题,本发明实施例提供了一种AR终端画面调整方法、设备和计算机可读存储介质,能够减小设备处理器的工作量、提高设备响应速度和用户体验。
为了达到本发明实施例目的,本发明实施例提供了一种增强现实AR终端画面调整方法,该方法包括:
通过预设的眼球追踪技术追踪并锁定眼球的运动角度;
根据锁定的眼球的运动角度确定眼睛的视野;
对确定出的眼睛的视野进行视域划分;
在划分出的不同的视域内分别按照不同精细度标准调整画面绘制时的精细度。
可选地,预设的眼球追踪技术包括:虹膜角度变化追踪技术、眼球和眼球周边特征变化追踪技术和/或红外线追踪技术。
可选地,根据锁定的眼球的运动角度确定眼睛的视野包括:
根据锁定的眼球的运动角度确定当前第一眼球的第一位置和第二眼球的第二位置;
在预设的模拟系统中,根据第一眼球的第一位置确定第一模拟瞳孔中心点与第一视网膜模拟点的第一连线,并且根据第二眼球的第二位置确定第二模拟瞳孔中心点与第二视网膜模拟点的第二连线;
将以第一连线为中心线的第一角度范围内所包含的空间和以第二连线为中心线的第一角度范围内所包含的空间的总和确定为所述眼睛的视野。
可选地,根据锁定的眼球的运动角度确定当前第一眼球的第一位置和第二眼球的第二位置包括:
获取第一眼球的第一模拟瞳孔中心点与第一视网膜模拟点的第一初始相对位置,并获取第二眼球的第二模拟瞳孔中心点与第二视网膜模拟点的第二初始相对位置;
根据第一眼球的运动角度和第一初始相对位置确定出第一眼球运动后第一模拟瞳孔中心点与第一视网膜模拟点的当前相对位置,作为第一眼球的第一位置;
根据第二眼球的运动角度和第二初始相对位置确定出第二眼球运动后第二模拟瞳孔中心点与第二视网膜模拟点的当前相对位置,作为第二眼球的第二位置。
可选地,该视域包括:分辨视域、有效视域和诱导视域。
可选地,对确定出的眼睛的视野进行视域划分包括:
确定第一连线和第二连线的交点,并确定第一视网膜模拟点和第二视网膜模拟点之间的第三连线,连接该交点和第三连线的中点作为第四连线;
在眼睛的视野范围内,将以第四连线为中心线的第二角度范围内所包含的空间作为分辨视域;将以第四连线为中心线的第三角度范围内所包含的空间内除分辨视域以外的空间作为有效视域;将以第四连线为中心线的第四角度范围内所包含的空间内除分辨视域和有效视域以外的空间作为诱导视域;
其中,第二角度小于第三角度,第三角度小于第四角度。
可选地,第二角度为15°;第三角度为30°;第四角度为120°。
可选地,在划分出的不同的视域内分别按照不同精细度标准调整画面绘制时的精细度包括:
按照分辨视域、有效视域以及诱导视域的顺序,调整三个视域范围内的画面精细度为依次递减。
可选地,在分辨视域内画面精细度包括:100%;
在有效视域内画面精细度包括:75%;
在诱导视域内画面精细度包括:50%。
为了达到本发明实施例目的,本发明实施例提供了一种AR终端画面调整设备,包括:
摄像头或者红外传感器,配置为配合预设的眼球追踪技术实现眼球的运动角度的追踪与锁定;
计算机可读存储介质,配置为存储有指令;
处理器,配置为当指令被处理器执行时,实现上述的AR终端画面调整方法。
为了达到本发明实施例目的,本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述的AR终端画面调整方法。
本发明实施例技术方案包括:通过预设的眼球追踪技术追踪并锁定眼球的运动角度;根据锁定的眼球的运动角度确定眼睛的视野;对确定出的眼睛的视野进行视域划分;在划分出的不同的视域内分别按照不同精细度标准调整画面绘制时的精细度。通过本发明实施例技术方案,减小了设备处理器的工作量、提高了设备响应速度和用户体验。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明实施例的示意性实施例及其说明用于解释本发明实施例,并不构成对本发明实施例的不当限定。在附图中:
图1为实现本发明各个实施例的移动终端的硬件结构示意;
图2为支持本发明实施例移动终端之间进行通信的通信系统的示意图;
图3为本发明实施例的AR终端画面调整方法流程图;
图4为本发明实施例的根据锁定的眼球的运动角度确定眼睛视野的方法流程图;
图5为本发明实施例的根据眼球的初始位置确定眼球运动后的当前位置方法示意图;
图6为本发明实施例的眼球视野确定方法示意图;
图7为本发明实施例的对确定出的眼睛的视野进行视域划分的方法示意图;
图8为本发明实施例的对确定出的眼睛的视野进行视域划分的方法流程图;
图9为本发明实施例的AR终端画面调整设备组成框图。
具体实施方式
下面将结合附图及实施例对本发明的技术方案进行更详细的说明。
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
终端可以以各种形式来实施。例如,本发明中描述的终端可以包括诸如手机、平板电脑、笔记本电脑、掌上电脑、个人数字助理(Personal Digital Assistant,PDA)、便捷式媒体播放器(Portable Media Player,PMP)、导航装置、可穿戴设备、智能手环、计步器等移动终端,以及诸如数字TV、台式计算机等固定终端。
后续描述中将以移动终端为例进行说明,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本发明的实施方式的构造也能够应用于固定类型的终端。
请参阅图1,其为实现本发明各个实施例的一种移动终端的硬件结构示意图,该移动终端100可以包括:RF(Radio Frequency,射频)单元101、WiFi模块102、音频输出单元103、A/V(音频/视频)输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图1中示出的移动终端结构并不构成对移动终端的限定,移动终端可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图1对移动终端的各个部件进行具体的介绍:
射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将基站的下行信息接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于GSM(Global System of Mobile communication,全球移动通讯系统)、GPRS(General Packet Radio Service,通用分组无线服务)、CDMA2000(CodeDivision Multiple Access 2000,码分多址2000)、WCDMA(Wideband Code DivisionMultiple Access,宽带码分多址)、TD-SCDMA(Time Division-Synchronous CodeDivision Multiple Access,时分同步码分多址)、FDD-LTE(Frequency DivisionDuplexing-Long Term Evolution,频分双工长期演进)和TDD-LTE(Time DivisionDuplexing-Long Term Evolution,分时双工长期演进)等。
WiFi属于短距离无线传输技术,移动终端通过WiFi模块102可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图1示出了WiFi模块102,但是可以理解的是,其并不属于移动终端的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
音频输出单元103可以在移动终端100处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将射频单元101或WiFi模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103可以包括扬声器、蜂鸣器等等。
A/V输入单元104用于接收音频或视频信号。A/V输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或WiFi模块102进行发送。麦克风1042可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风1042接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。麦克风1042可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
移动终端100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在移动终端100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与移动终端的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107可包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作),并根据预先设定的程式驱动相应的连接装置。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,并能接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种,具体此处不做限定。
进一步的,触控面板1071可覆盖显示面板1061,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图1中,触控面板1071与显示面板1061是作为两个独立的部件来实现移动终端的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现移动终端的输入和输出功能,具体此处不做限定。
接口单元108用作至少一个外部装置与移动终端100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端100内的一个或多个元件或者可以用于在移动终端100和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是移动终端的控制中心,利用各种接口和线路连接整个移动终端的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行移动终端的各种功能和处理数据,从而对移动终端进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
移动终端100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管图1未示出,移动终端100还可以包括蓝牙模块等,在此不再赘述。
为了便于理解本发明实施例,下面对本发明的移动终端所基于的通信网络系统进行描述。
请参阅图2,图2为本发明实施例提供的一种通信网络系统架构图,该通信网络系统为通用移动通信技术的LTE系统,该LTE系统包括依次通讯连接的UE(User Equipment,用户设备)201,E-UTRAN(Evolved UMTS Terrestrial Radio Access Network,演进式UMTS陆地无线接入网)202,EPC(Evolved Packet Core,演进式分组核心网)203和运营商的IP业务204。
具体地,UE201可以是上述终端100,此处不再赘述。
E-UTRAN202包括eNodeB2021和其它eNodeB2022等。其中,eNodeB2021可以通过回程(backhaul)(例如X2接口)与其它eNodeB2022连接,eNodeB2021连接到EPC203,eNodeB2021可以提供UE201到EPC203的接入。
EPC203可以包括MME(Mobility Management Entity,移动性管理实体)2031,HSS(Home Subscriber Server,归属用户服务器)2032,其它MME2033,SGW(Serving Gate Way,服务网关)2034,PGW(PDN Gate Way,分组数据网络网关)2035和PCRF(Policy andCharging Rules Function,政策和资费功能实体)2036等。其中,MME2031是处理UE201和EPC203之间信令的控制节点,提供承载和连接管理。HSS2032用于提供一些寄存器来管理诸如归属位置寄存器(图中未示)之类的功能,并且保存有一些有关服务特征、数据速率等用户专用的信息。所有用户数据都可以通过SGW2034进行发送,PGW2035可以提供UE 201的IP地址分配以及其它功能,PCRF2036是业务数据流和IP承载资源的策略与计费控制策略决策点,它为策略与计费执行功能单元(图中未示)选择及提供可用的策略和计费控制决策。
IP业务204可以包括因特网、内联网、IMS(IP Multimedia Subsystem,IP多媒体子系统)或其它IP业务等。
虽然上述以LTE系统为例进行了介绍,但本领域技术人员应当知晓,本发明不仅仅适用于LTE系统,也可以适用于其他无线通信系统,例如GSM、CDMA2000、WCDMA、TD-SCDMA以及未来新的网络系统等,此处不做限定。
基于上述移动终端硬件结构以及通信网络系统,提出本发明方法各个实施例。
根据本发明的一个实施例,提供了一种增强现实AR终端画面调整方法,如图3所示,该方法包括S101-S104:
S101、通过预设的眼球追踪技术追踪并锁定眼球的运动角度。
在本发明实施例中,在用户观看场景的过程中,通常伴随头部的扭动,以配合眼睛获取更多的场景,因此,在计算眼球变化角度时,可以将用户的头部旋转角度一并计算进去,以便获得准确的眼球运动角度。该实施例方案需要先检测拍摄者的头部变化角度。在本发明实施例中,可以通过预设的头部位置检测技术检测拍摄者的头部变化角度,例如,计算机视觉技术。
计算机视觉技术是一门研究如何使用机器"看"的技术,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。通过该技术可以准确获取头部转动前后的位置信息,并根据该前后的位置信息确定头部变化角度。
在本发明实施例中,在获得了用户头部变化角度的基础上,需要进一步获取眼球的运动角度,将两者相结合以准确确定用户的视野。
在本发明实施例中,可以通过AR设备的摄像头或者红外传感器等多种传感器对用户眼球进行追踪。
可选地,预设的眼球追踪技术可以包括:虹膜角度变化追踪技术、眼球和眼球周边特征变化追踪技术和/或红外线追踪技术。
眼球追踪技术是一项科学应用技术,从原理上看,眼球追踪技术主要是研究眼球运动信息的获取、建模和模拟。当人的眼睛看向不同方向时,眼部会有细微的变化,这些变化会产生可以提取的特征,计算机可以通过图像捕捉或扫描提取这些特征,从而实时追踪眼睛的变化,预测用户的状态和需求,并进行响应,达到用眼睛控制设备的目的。获取眼球运动信息的方法包括:一是根据眼球和眼球周边的特征变化进行跟踪;二是根据虹膜角度变化进行跟踪;三是主动投射红外线等光束到虹膜来提取特征。因此获取眼球运动信息的设备除了红外设备之外,还可以是图像采集设备,甚至一般电脑或手机上的摄像头,其在软件的支持下也可以实现眼球跟踪。
在本发明实施例中,通过上述的眼球追踪技术获取眼球的运动信息以后,便可以根据该运动信息以及眼球的初始位置信息获取眼球运动后的位置信息,从而通过该眼球位置信息计算出眼球的运动角度。
在本发明实施例中,可以根据上述的任意一种或多种方法实现眼球追踪技术,在此对于其具体实现方法不做限制。
S102、根据锁定的眼球的运动角度确定眼睛的视野。
在本发明实施例中,通过以上方案确定用户的头部和/或眼球变化角度以后,便可以根据眼球的运动角度确定眼睛的当前视野了,具体可以通过以下方案实现。
可选地,如图4所示,根据锁定的眼球的运动角度确定眼睛的视野可以包括S201-S203:
S201、根据锁定的眼球的运动角度确定当前第一眼球的第一位置和第二眼球的第二位置。
在本发明实施例中,根据眼球运动角度确定眼睛的视野的过程中,首先可以根据眼球(包括第一眼球和第二眼球)的初始位置确定眼睛运动后的当前位置。具体可以参考图5所示,通过以下方案实现。
可选地,根据锁定的眼球的运动角度确定当前第一眼球的第一位置和第二眼球的第二位置包括:
获取第一眼球的第一模拟瞳孔中心点与第一视网膜模拟点的第一初始相对位置,并获取第二眼球的第二模拟瞳孔中心点与第二视网膜模拟点的第二初始相对位置;
根据第一眼球的运动角度和第一初始相对位置确定出第一眼球运动后第一模拟瞳孔中心点与第一视网膜模拟点的当前相对位置,作为第一眼球的第一位置;
根据第二眼球的运动角度和第二初始相对位置确定出第二眼球运动后第二模拟瞳孔中心点与第二视网膜模拟点的当前相对位置,作为第二眼球的第二位置。
在本发明实施例中,由于人眼看到物体是由瞳孔与视网膜配合完成的,因此,为了准确地获取眼球位置变换后眼睛的视野变化,可以通过预先设置眼睛的模拟系统来模拟眼睛的视界。在该模拟系统中包含模拟的第一眼球和第二眼球,以及与第一眼球对应的第一模拟瞳孔中心和第一视网膜模拟点,与第二眼球对应的第二模拟瞳孔中心和第二视网膜模拟点。其中,第一视网膜模拟点和第二视网膜模拟点是固定的,第一模拟瞳孔中心和第二模拟瞳孔中心随着检测到的眼球的变化位置也在相应地变化。
需要说明的是,在其它实施例中,也可以不用预先建立上述的模拟系统,仅通过相应的算法完成上述模拟过程。
在本发明实施例中,在该模拟系统或模拟过程的基础上,可以将开始进行眼球追踪技术时检测到的模拟瞳孔中心点与视网膜模拟点的相对位置作为第一眼球与第二眼球的初始位置。在眼球运动过程中,由于眼睛的瞳孔是运动的,视网膜时固定的,因此在通过该眼球追踪技术分别检测出眼球运动角度(具体地可以说是通孔的运动角度)后,可以将眼球的运动角度与该初始位置进行叠加计算,获取当前模拟瞳孔中心点与视网膜模拟点的相对位置,从而确定出当前第一眼球的第一位置和第二眼球的第二位置。
S202、在预设的模拟系统中,根据第一眼球的第一位置确定第一模拟瞳孔中心点与第一视网膜模拟点的第一连线,并且根据第二眼球的第二位置确定第二模拟瞳孔中心点与第二视网膜模拟点的第二连线。
在本发明实施例中,在设置的模拟系统或模拟过程的基础上,可以连接第一模拟瞳孔中心点与第一视网膜模拟点作为第一条模拟光线,即上述的第一连线;同理,连接第二模拟瞳孔中心点与第二视网膜模拟点作为第二条模拟光线,即上述的第二连线。
在本发明实施例中,该第一连线和第二连线可以分别看作是第一眼球和第二眼球的焦点所在物体反射到人眼中的光线,人眼的视野便是以该焦点返回的光线为中心的空间区域,该区域可以通过下述步骤方案确定。
S203、将以第一连线为中心线的第一角度范围内所包含的空间和以第二连线为中心线的第一角度范围内所包含的空间的总和确定为所述眼睛的视野。
在本发明实施例中,如图6所示,由于每个人的眼睛都具有一定的视野范围,通常情况下,对于人眼来说,在水平面内,双眼视区大约在左右60度以内的区域。因此,在用户沿水平变换眼睛观看角度时,可以将第一角度确定为120°。在垂直面内,如果假设标准视线是水平的,并且将该视平线定为0度,则最大视野范围为视平线以上50度和视平线以下70度。因此,在用户沿垂直变换眼睛观看角度时,可以将第一角度确定为100°。
在本发明实施例中,通过上述方案确定用户的视野范围后,便可以进一步对该视野范围进行视域划分了。
S103、对确定出的眼睛的视野进行视域划分。
可选地,该视域包括:分辨视域、有效视域和诱导视域。
在本发明实施例中,人眼的视角是有限的。如图7所示,一般而言,映在人眼视网膜上的图像,只有中心部分能分辨清楚,这叫分辨视域,约15度。从十几度到30度之间则称为有效视域,观众能立刻看清物体的存在和有什么动作,还不到需要转动头部才能辨别清楚的程度,但分辨能力已经下降了。超过水平方向视野角30度的周边部分称为诱导视域,俗称眼睛的余光,该诱导视域只能感觉到物体的存在或有动作出现,并不能看清楚是什么物体或什么动作。当人们感觉到有动体或变化的时候,就会把眼珠或头颈转过去,让动体落入视角正中以便分清何物。这一角度为30度到120度。视域的分界线会因人而异,但基本大同小异。
基于上述理论,可以根据人眼视野中的不同的角度范围将人眼视野划分为分辨视域、有效视域和诱导视域等不同视域。具体可以通过下述方案实现。
可选地,如图8所示,对确定出的眼睛的视野进行视域划分可以包括S301-S302:
S301、确定第一连线和第二连线的交点,并确定第一视网膜模拟点和第二视网膜模拟点之间的第三连线,连接该交点和第三连线的中点作为第四连线。
在本发明实施例中,仍基于前述的模拟系统或模拟方法进行视域划分。首先可以获取上述的眼球视野的中分线,即上述的第四连线,以便后续以该中分线为中心分别对中心线周围的不同角度空间进行定义,从而划分出不同的视域。
S302、在眼睛的视野范围内,将以第四连线为中心线的第二角度范围内所包含的空间作为分辨视域;将以第四连线为中心线的第三角度范围内所包含的空间内除分辨视域以外的空间作为有效视域;将以第四连线为中心线的第四角度范围内所包含的空间内除分辨视域和有效视域以外的空间作为诱导视域;
其中,第二角度小于第三角度,第三角度小于第四角度。可选地,第二角度可以为15°;第三角度可以为30°;第四角度可以为120°。
在本发明实施例中,该第二角度可以包括:10°~18°的范围,具体地第二角度可以选择为15°;该第三角度可以包括:18°~40°的范围,具体地第三角度可以选择为30°;该第四角度可以包括:40°~180°的范围,具体地第四角度可以选择为120°。
在本发明实施例中,确定出第四连线以后,便可以在前面确定出的第一眼球和第二眼球的视野的基础上,以该第四连线为中心逐步划分出不同的视域。
根据前述理论可知,在第四连线周围约15°的范围内可以作为分辨视域,在第四连线周围约15°~30°的范围内可以作为有效视域,在第四连线周围约30°~120°的范围内可以作为诱导视域,另外,该诱导视域的具体空间范围还受到第一眼球和第二眼球的视野最外边界线的限制。
需要说明的是,上述的视域划分仅是本发明的一个具体实施例,在不同的应用场景中或者根据不同的用户可以对不同的视域所包含的角度范围进行调节,以满足不同用户的需要,提要用户体验感。
S104、在划分出的不同的视域内分别按照不同精细度标准调整画面绘制时的精细度。
在本发明实施例中,随着用户可是程度的减弱,从分辨视域到诱导视域,画面精细度可以逐步降低,具体的降低方案可以根据当前用户使用的不同场景进行定义。例如:分辨视域可以绘制全部细节,以便用户能够精细分辨;有效视域可以绘制全部动态信息,以便用户可以准确判断;诱导视域可以仅绘制基础信息,以便可以让用户余光扫描;在诱导视域以外的区域可不绘制或只绘制粗略的信息。具体地可以通过下述实施例方案实现。
可选地,在划分出的不同的视域内分别按照不同精细度标准调整画面绘制时的精细度包括:
按照分辨视域、有效视域以及诱导视域的顺序,调整三个视域范围内的画面精细度为依次递减。
在本发明实施例中,为了大大减少AR设备使用过程中的信息处理量,从而减少设备的计算延迟,提高用户使用AR设备的体验,可以分别按照不同的视域范围对其内的画面精细度进行调整。具体地,在分辨视域内,可以绘制画面的全部细节,以便用户能够精细分辨;在有效视域内,不需要绘制画面的全部细节,可以仅绘制全部动态信息,以便用户可以准确判断;在诱导视域内,可以仅绘制画面的基础信息,可以让用户用余光扫描到;在诱导视域以外的区域,可不绘制或只绘制粗略的信息,因为用户看不到该区域的画面。
可选地,在分辨视域内画面精细度可以包括:100%;
在有效视域内画面精细度可以包括:75%;
在诱导视域内画面精细度可以包括:50%;
在诱导视域以外区域的画面精细度可以包括:25%。
在本发明实施例中,在进行具体精度设计时,可以参考上述标准进行调整,以确保用户能够看到必要的画面信息,又不至于过度消耗AR设备的资源。需要说明的是,上述的精细度取值仅是本发明的一个实施例,在其它实施例中可以根据具体场景自行调节,对于其具体数值不做限制。另外,调整画面的精细度属于成熟技术,在此不最详细介绍。
根据本发明的另一实施例,提供了一种AR终端画面调整设备1,如图9所示,该设备包括:
摄像头或者红外传感器11,配置为配合预设的眼球追踪技术实现眼球的运动角度的追踪与锁定;
计算机可读存储介质12,配置为存储有指令;
处理器13,配置为当指令被处理器执行时,实现上述的AR终端画面调整方法。
根据本发明的又一实施例,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述的AR终端画面调整方法。
本发明实施例技术方案包括:通过预设的眼球追踪技术追踪并锁定眼球的运动角度;根据锁定的眼球的运动角度确定眼睛的视野;对确定出的眼睛的视野进行视域划分;在划分出的不同的视域内分别按照不同精细度标准调整画面绘制时的精细度。通过本发明实施例技术方案,减小了设备处理器的工作量、提高了设备响应速度和用户体验。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种增强现实AR终端画面调整方法,其特征在于,所述方法包括:
通过预设的眼球追踪技术追踪并锁定眼球的运动角度;
根据锁定的所述眼球的运动角度确定眼睛的视野;
对确定出的所述眼睛的视野进行视域划分;
在划分出的不同的视域内分别按照不同精细度标准调整画面绘制时的精细度。
2.如权利要求1所述的AR终端画面调整方法,其特征在于,所述预设的眼球追踪技术包括:虹膜角度变化追踪技术、眼球和眼球周边特征变化追踪技术和/或红外线追踪技术。
3.如权利要求1所述的AR终端画面调整方法,其特征在于,所述根据锁定的所述眼球的运动角度确定眼睛的视野包括:
根据锁定的所述眼球的运动角度确定当前所述第一眼球的第一位置和所述第二眼球的第二位置;
在预设的模拟系统中,根据所述第一眼球的第一位置确定第一模拟瞳孔中心点与第一视网膜模拟点的第一连线,并且根据所述第二眼球的第二位置确定第二模拟瞳孔中心点与第二视网膜模拟点的第二连线;
将以所述第一连线为中心线的第一角度范围内所包含的空间和以所述第二连线为中心线的第一角度范围内所包含的空间的总和确定为所述眼睛的视野。
4.如权利要求3所述的AR终端画面调整方法,其特征在于,所述根据锁定的所述眼球的运动角度确定当前所述第一眼球的第一位置和所述第二眼球的第二位置包括:
获取所述第一眼球的所述第一模拟瞳孔中心点与所述第一视网膜模拟点的第一初始相对位置,并获取所述第二眼球的所述第二模拟瞳孔中心点与所述第二视网膜模拟点的第二初始相对位置;
根据所述第一眼球的运动角度和所述第一初始相对位置确定出所述第一眼球运动后所述第一模拟瞳孔中心点与所述第一视网膜模拟点的当前相对位置,作为所述第一眼球的第一位置;
根据所述第二眼球的运动角度和所述第二初始相对位置确定出所述第二眼球运动后所述第二模拟瞳孔中心点与所述第二视网膜模拟点的当前相对位置,作为所述第二眼球的第二位置。
5.如权利要求3或4所述的AR终端画面调整方法,其特征在于,所述视域包括:分辨视域、有效视域和诱导视域。
6.如权利要求5所述的AR终端画面调整方法,其特征在于,所述对确定出的所述眼睛的视野进行视域划分包括:
确定所述第一连线和所述第二连线的交点,并确定第一视网膜模拟点和所述第二视网膜模拟点之间的第三连线,连接所述交点和所述第三连线的中点作为第四连线;
在所述眼睛的视野范围内,将以所述第四连线为中心线的第二角度范围内所包含的空间作为所述分辨视域;将以所述第四连线为中心线的第三角度范围内所包含的空间内除所述分辨视域以外的空间作为所述有效视域;将以所述第四连线为中心线的第四角度范围内所包含的空间内除所述分辨视域和所述有效视域以外的空间作为所述诱导视域;
其中,所述第二角度小于所述第三角度,所述第三角度小于所述第四角度。
7.如权利要求6所述的AR终端画面调整方法,其特征在于,所述第二角度为15°;所述第三角度为30°;所述第四角度为120°。
8.如权利要求5所述的AR终端画面调整方法,其特征在于,所述在划分出的不同的视域内分别按照不同精细度标准调整画面绘制时的精细度包括:
按照所述分辨视域、所述有效视域以及所述诱导视域的顺序,调整三个视域范围内的画面精细度为依次递减。
9.一种增强现实AR终端画面调整设备,包括:
摄像头或者红外传感器,配置为配合预设的眼球追踪技术实现眼球的运动角度的追踪与锁定;
计算机可读存储介质,配置为存储有指令;
处理器,配置为当所述指令被所述处理器执行时,实现如权利要求1所述的AR终端画面调整方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1所述的AR终端画面调整方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710725178.6A CN107589837A (zh) | 2017-08-22 | 2017-08-22 | 一种ar终端画面调整方法、设备和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710725178.6A CN107589837A (zh) | 2017-08-22 | 2017-08-22 | 一种ar终端画面调整方法、设备和计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107589837A true CN107589837A (zh) | 2018-01-16 |
Family
ID=61043193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710725178.6A Pending CN107589837A (zh) | 2017-08-22 | 2017-08-22 | 一种ar终端画面调整方法、设备和计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107589837A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108646776A (zh) * | 2018-06-20 | 2018-10-12 | 珠海金山网络游戏科技有限公司 | 一种基于无人机的成像系统和方法 |
CN109271022A (zh) * | 2018-08-28 | 2019-01-25 | 北京七鑫易维信息技术有限公司 | 一种vr设备的显示方法、装置、vr设备及存储介质 |
CN112633273A (zh) * | 2020-12-18 | 2021-04-09 | 上海影创信息科技有限公司 | 基于余光区域的用户偏好处理方法和系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104253989A (zh) * | 2014-06-09 | 2014-12-31 | 黄石 | 全视角图像显示装置 |
CN105892061A (zh) * | 2016-06-24 | 2016-08-24 | 北京国承万通信息科技有限公司 | 显示装置及方法 |
CN106168853A (zh) * | 2016-06-23 | 2016-11-30 | 中国科学技术大学 | 一种自由空间头戴式视线跟踪系统 |
CN106210692A (zh) * | 2016-06-30 | 2016-12-07 | 深圳市虚拟现实科技有限公司 | 基于瞳孔检测的远程全景图像实时传输和显示方法 |
CN106454087A (zh) * | 2016-10-09 | 2017-02-22 | 努比亚技术有限公司 | 一种拍摄装置和方法 |
CN106843468A (zh) * | 2016-12-27 | 2017-06-13 | 努比亚技术有限公司 | 一种终端以及vr场景中的人机交互方法 |
-
2017
- 2017-08-22 CN CN201710725178.6A patent/CN107589837A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104253989A (zh) * | 2014-06-09 | 2014-12-31 | 黄石 | 全视角图像显示装置 |
CN106168853A (zh) * | 2016-06-23 | 2016-11-30 | 中国科学技术大学 | 一种自由空间头戴式视线跟踪系统 |
CN105892061A (zh) * | 2016-06-24 | 2016-08-24 | 北京国承万通信息科技有限公司 | 显示装置及方法 |
CN106210692A (zh) * | 2016-06-30 | 2016-12-07 | 深圳市虚拟现实科技有限公司 | 基于瞳孔检测的远程全景图像实时传输和显示方法 |
CN106454087A (zh) * | 2016-10-09 | 2017-02-22 | 努比亚技术有限公司 | 一种拍摄装置和方法 |
CN106843468A (zh) * | 2016-12-27 | 2017-06-13 | 努比亚技术有限公司 | 一种终端以及vr场景中的人机交互方法 |
Non-Patent Citations (1)
Title |
---|
李景镇: "《光学手册下》", 31 July 2010 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108646776A (zh) * | 2018-06-20 | 2018-10-12 | 珠海金山网络游戏科技有限公司 | 一种基于无人机的成像系统和方法 |
CN108646776B (zh) * | 2018-06-20 | 2021-07-13 | 珠海金山网络游戏科技有限公司 | 一种基于无人机的成像系统和方法 |
CN109271022A (zh) * | 2018-08-28 | 2019-01-25 | 北京七鑫易维信息技术有限公司 | 一种vr设备的显示方法、装置、vr设备及存储介质 |
CN109271022B (zh) * | 2018-08-28 | 2021-06-11 | 北京七鑫易维信息技术有限公司 | 一种vr设备的显示方法、装置、vr设备及存储介质 |
CN112633273A (zh) * | 2020-12-18 | 2021-04-09 | 上海影创信息科技有限公司 | 基于余光区域的用户偏好处理方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107728770A (zh) | 终端屏幕亮度调整方法、移动终端和计算机可读存储介质 | |
CN107277216A (zh) | 一种音量调节方法、终端以及计算机可读存储介质 | |
CN107844763A (zh) | 一种人脸识别方法、移动终端及计算机可读存储介质 | |
CN107731199A (zh) | 一种屏幕色温调节方法、终端及计算机可读存储介质 | |
CN107479781A (zh) | 一种应用图标颜色的更新方法及终端 | |
CN108037845A (zh) | 显示控制方法、移动终端及计算机可读存储介质 | |
CN108319338A (zh) | 显示屏幕确定方法、移动终端及计算机可读存储介质 | |
CN109711226A (zh) | 二维码识别方法、装置、移动终端及可读存储介质 | |
CN110381201A (zh) | 屏幕管理方法、移动终端及计算机可读存储介质 | |
CN109743504A (zh) | 一种辅助拍照方法、移动终端和存储介质 | |
CN113365085B (zh) | 一种直播视频生成方法及装置 | |
CN106953684A (zh) | 一种搜星的方法、移动终端以及计算机可读存储介质 | |
CN107315515A (zh) | 状态栏图标的颜色更改方法、终端及计算机可读存储介质 | |
CN107291334A (zh) | 一种图标字体颜色确定方法及设备 | |
CN107948430A (zh) | 一种显示控制方法、移动终端及计算机可读存储介质 | |
CN109358831A (zh) | 一种显示控制方法、移动终端及计算机可读存储介质 | |
CN108881635A (zh) | 屏幕亮度调节方法、移动终端及计算机可读存储介质 | |
CN107295270A (zh) | 一种图像亮度值的确定方法、装置、终端和计算机可读存储介质 | |
CN109218527A (zh) | 屏幕亮度控制方法、移动终端及计算机可读存储介质 | |
CN108257097A (zh) | 美颜效果调整方法、终端及计算机可读存储介质 | |
CN107239205A (zh) | 一种拍照方法、移动终端及存储介质 | |
CN110086993A (zh) | 图像处理方法、装置、移动终端及计算机可读存储介质 | |
CN109660654A (zh) | 一种护眼提醒方法、柔性屏终端及计算机可读存储介质 | |
CN107589837A (zh) | 一种ar终端画面调整方法、设备和计算机可读存储介质 | |
CN110058767A (zh) | 界面操作方法、可穿戴终端及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180116 |
|
RJ01 | Rejection of invention patent application after publication |