CN110597387B - 基于人工智能的画面显示方法和装置、计算设备、存储介质 - Google Patents

基于人工智能的画面显示方法和装置、计算设备、存储介质 Download PDF

Info

Publication number
CN110597387B
CN110597387B CN201910837598.2A CN201910837598A CN110597387B CN 110597387 B CN110597387 B CN 110597387B CN 201910837598 A CN201910837598 A CN 201910837598A CN 110597387 B CN110597387 B CN 110597387B
Authority
CN
China
Prior art keywords
screen
physical
extended
coordinate system
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910837598.2A
Other languages
English (en)
Other versions
CN110597387A (zh
Inventor
陈宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910837598.2A priority Critical patent/CN110597387B/zh
Publication of CN110597387A publication Critical patent/CN110597387A/zh
Application granted granted Critical
Publication of CN110597387B publication Critical patent/CN110597387B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Abstract

本发明实施例公开了一种基于人工智能的画面显示方法和装置、计算设备、存储介质。所述基于人工智能的画面显示方法包括:获取用户的眼睛在物理屏幕上的视点在物理屏幕坐标系中的第一坐标数据,其中,所述物理屏幕坐标系为与所述物理屏幕对应的坐标系;根据所述第一坐标数据以及预设的放大系数计算所述扩展屏幕画面的位置调整数据;显示根据所述位置调整数据调整后的所述扩展屏幕画面。本发明实施例能提供更大尺寸的屏幕画面。

Description

基于人工智能的画面显示方法和装置、计算设备、存储介质
技术领域
本发明涉及计算机技术领域,具体涉及一种基于人工智能的画面显示方法和装置、计算设备、存储介质。
背景技术
目前,人们在多个领域展开了人工智能技术的研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等。随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
人们常用的电子设备一般都具有屏幕,该屏幕充当人与该电子设备交互的接口。
受限于电子设备的物理特性,电子设备的屏幕的尺寸是固定的,因此,该电子设备所显示出来的画面的尺寸也是固定的。
因此,上述传统的电子设备无法为用户提供更大尺寸的屏幕画面。
故,有必要提出一种新的技术方案,以解决上述技术问题。
发明内容
本发明的目的在于提供一种基于人工智能的画面显示方法和装置、计算设备、存储介质,其能提供更大尺寸的屏幕画面。
为解决上述问题,本发明实施例的技术方案如下:
第一方面,提供一种基于人工智能的画面显示方法,包括:获取用户的眼睛在物理屏幕上的视点在物理屏幕坐标系中的第一坐标数据,其中,所述物理屏幕坐标系为与所述物理屏幕对应的坐标系;根据所述第一坐标数据以及预设的放大系数计算所述扩展屏幕画面的位置调整数据;显示根据所述位置调整数据调整后的所述扩展屏幕画面。
根据上述第一方面,在所述获取用户的眼睛在物理屏幕上的视点在物理屏幕坐标系中的第一坐标数据之前,还包括:获取用户的眼睛与物理屏幕的距离值;根据所述距离值计算所述放大系数;根据所述放大系数生成扩展屏幕画面。
根据上述第一方面,所述距离值越大,则所述放大系数越小。
根据上述第一方面,所述根据所述放大系数生成扩展屏幕画面,包括:根据所述放大系数计算待生成的所述扩展屏幕画面的尺寸值和屏幕分辨率值;根据尺寸值和屏幕分辨率值生成与所述物理屏幕所显示的物理屏幕画面对应的扩展屏幕画面。
根据上述第一方面,所述根据所述第一坐标数据以及预设的放大系数计算所述扩展屏幕画面的位置调整数据,包括:根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面中与所述视点对应的点在所述物理屏幕坐标系中的第二坐标数据;根据所述第二坐标数据计算所述扩展屏幕画面在所述物理屏幕坐标系的偏移量数据。
根据上述第一方面,所述显示根据所述位置调整数据调整后的所述扩展屏幕画面,包括:显示在所述物理屏幕坐标系中根据所述偏移量数据进行位置调整后的所述扩展屏幕画面。
根据上述第一方面,在所述获取用户的眼睛在物理屏幕上的视点在物理屏幕坐标系中的第一坐标数据之后,以及在所述根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据之前,还包括:判断所述视点的位置是否发生变动;所述根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据,包括:当所述视点的位置发生变动时,根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据。
根据上述第一方面,在所述根据所述放大系数生成扩展屏幕画面之后,还包括:判断用户的眼睛与所述物理屏幕的距离是否发生变动;所述获取用户的眼睛与物理屏幕的距离值,包括:当用户的眼睛与所述物理屏幕的距离发生变动时,获取用户的眼睛与物理屏幕的距离值。
根据上述第一方面,对用户的视点的位置进行预测,得出预测结果数据,其中,所述预测结果数据包括预测位置点坐标数据;
根据所述预测结果数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据。
第二方面,提供一种基于人工智能的画面显示装置,包括:坐标数据获取模块,用于获取用户的眼睛在物理屏幕上的视点在物理屏幕坐标系中的第一坐标数据,其中,所述物理屏幕坐标系为与所述物理屏幕对应的坐标系;位置调整数据计算模块,用于根据所述第一坐标数据以及预设的放大系数计算所述扩展屏幕画面的位置调整数据;扩展屏幕画面显示模块,用于显示根据所述位置调整数据调整后的所述扩展屏幕画面。
根据上述第二方面,所述装置还包括:距离值获取模块,用于获取用户的眼睛与物理屏幕的距离值;放大系数计算模块,用于根据所述距离值计算所述放大系数;所述扩展屏幕画面显示模块还用于根据所述放大系数生成扩展屏幕画面。
根据上述第二方面,所述距离值越大,则所述放大系数越小。
根据上述第二方面,所述扩展屏幕画面显示模块用于根据所述放大系数计算待生成的所述扩展屏幕画面的尺寸值和屏幕分辨率值,并用于根据尺寸值和屏幕分辨率值生成与所述物理屏幕所显示的物理屏幕画面对应的扩展屏幕画面。
根据上述第二方面,所述位置调整数据计算模块用于根据所述第一坐标数据以及所述放大系数计算所述视点在扩展屏幕坐标系中的第二坐标数据,并用于根据所述第二坐标数据计算所述扩展屏幕画面在所述物理屏幕坐标系的偏移量数据;其中,所述扩展屏幕坐标系为与所述扩展屏幕画面对应的坐标系。
根据上述第二方面,所述扩展屏幕画面显示模块用于显示在所述物理屏幕坐标系中根据所述偏移量数据进行位置调整后的所述扩展屏幕画面。
根据上述第二方面,所述装置还包括:第一判断模块,用于判断所述视点的位置是否发生变动;所述位置调整数据计算模块用于当所述视点的位置发生变动时,根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据。
根据上述第二方面,所述装置还包括:第二判断模块,用于判断用户的眼睛与所述物理屏幕的距离是否发生变动;所述距离值获取模块用于当用户的眼睛与所述物理屏幕的距离发生变动时,获取用户的眼睛与物理屏幕的距离值。
根据上述第二方面,所述装置还包括:预测模块,用于对用户的视点的位置进行预测,得出预测结果数据,其中,所述预测结果数据包括预测位置点坐标数据;所述位置调整数据计算模块用于根据所述预测结果数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据。
第三方面,提供一种计算设备,所述计算设备包括处理器和存储器,所述存储器用于存储程序代码,所述计算设备运行时,所述处理器用于执行所述程序代码,以执行上述第一方面的基于人工智能的画面显示方法。
第四方面,提供一种存储有程序代码的计算机可读存储介质,所述程序代码用于使得计算机执行上述第一方面的基于人工智能的画面显示方法。
在本发明实施例中,由于将物理屏幕当前正在显示的画面进行扩大,得到扩展屏幕画面,并根据计算用户的视点移动,来对显示的画面(扩展屏幕画面)进行移动,因此,可以在用户的视点位于物理屏幕的边缘部分时,将扩展屏幕画面的边缘部分移动到物理屏幕的显示区域中,以供用户在物理屏幕上观看扩展屏幕画面的边缘部分的内容,即,可以供用户观看到更大尺寸的扩展屏幕画面上的内容。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的基于人工智能的画面显示方法的运行模式的示意图。
图2是本发明实施例提供的基于人工智能的画面显示方法的示意图。
图3是本发明实施例提供的基于人工智能的画面显示方法中用户的眼睛的视点位于物理屏幕的中点时物理屏幕画面与扩展屏幕画面的位置关系的示意图。
图4和图5分别是本发明实施例提供的基于人工智能的画面显示方法中用户的眼睛的视点位于物理屏幕的中点以外的一个位置时扩展屏幕画面的位置在调整前和调整后的示意图。
图6和图7分别是本发明实施例提供的基于人工智能的画面显示方法中用户的眼睛的视点位于物理屏幕的中点以外的另一个位置时扩展屏幕画面的位置在调整前和调整后的示意图。
图8和图9分别是本发明实施例提供的基于人工智能的画面显示方法中用户的眼睛的视点位于物理屏幕的中点以外的另一个位置时扩展屏幕画面的位置在调整前和调整后的示意图。
图10是本发明实施例提供的基于人工智能的画面显示方法的流程图。
图11是图10所示的基于人工智能的画面显示方法中根据所述放大系数生成扩展屏幕画面的步骤的流程图。
图12是图10所示的基于人工智能的画面显示方法中根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据的步骤的流程图。
图13是本发明实施例提供的基于人工智能的画面显示装置的框图。
图14是本发明实施例提供的计算设备的运行环境的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明实施例中,术语“模块”一般指:硬件、硬件和软件的组合、软件等。例如,模块可以是运行在处理器上的进程、处理器、对象、可执行应用、执行的线程、程序等。运行在处理器上的应用和该处理器二者都可以是模块。一个或多个模块可以位于一个计算机中和/或分布在两个或更多计算机之间。
在本发明实施例中,“第一”、“第二”等仅为用于区分不同的对象,而不应对本发明实施例构成任何限定。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。其中,人工智能软件层面的技术包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。人工智能硬件层面的技术包括传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。
本发明实施例提供的基于人工智能的画面显示方法和装置涉及人工智能软件层面的计算机视觉技术中的图像处理、视频处理、机器学习/深度学习等技术,和/或涉及人工智能硬件层面的操作/交互系统等技术。具体通过以下实施例进行说明。
本发明实施例提供了一种基于人工智能的画面显示方法和装置、计算设备、计算机可读存储介质。具体地,本发明实施例提供的基于人工智能的画面显示方法和装置适用于(集成于)计算机设备101,所述计算机设备101可以为个人计算机(如图1所示)、服务器、移动设备(例如:移动电话、个人数字助理(PDA,Personal Digital Assistant)、平板电脑)、分布式计算机系统等设备。
如图2所示,该计算机设备101(例如,个人计算机)在检测到用户的脸部位于物理屏幕前时,根据用户的眼睛与物理屏幕的距离确定放大系数,此时,计算机设备101的显示系统(控制图像显示的硬件系统或软件系统)生成对应的虚拟屏幕(扩展屏幕画面),根据用户的视点计算虚拟屏幕(扩展屏幕画面)的偏移向量,并根据该偏移向量调整(移动)虚拟屏幕(扩展屏幕画面)与该计算机设备的物理屏幕的相对位置,在用户的眼睛的视点移动时,重新根据用户的眼睛与物理屏幕的距离确定放大系数。
下文将以本发明实施例提供的基于人工智能的画面显示方法和装置适用于计算机设备101来说明。该计算机设备101例如为个人计算机。
参考图10,本发明实施例提供的基于人工智能的画面显示方法包括以下步骤:
步骤1001,获取用户的眼睛与物理屏幕的距离值。具体地,通过眼动仪等视线追踪设备追踪用户的眼睛的视线,并计算出用户的眼睛的视线与物理屏幕所对应的平面的夹角、用户的眼睛与物理屏幕的距离、用户的眼睛的视线与物理屏幕的交点(视点)等数据。
或者,通过红外线传感器测量用户的眼睛与物理屏幕的距离值。
或者,通过超声波收发器测量用户的眼睛与物理屏幕的距离值。
或者,通过摄像头拍摄用户的面部图像,并通过图像识别技术识别出面部特征,计算所述面部图像中面部特征之间的距离等相关数值,并据此计算出面部图像与物理屏幕的距离值。
步骤1002,根据所述距离值计算放大系数。其中,所述距离值越大,则所述放大系数越小,优选地,所述放大系数大于或等于1。
例如,根据以下公式计算放大系数:
ext=1+(1/D2);
或者,ext=1+(1/D);
诸如此类,其中,ext为放大系数,D为所述距离值。
所述放大系数是将物理屏幕画面的尺寸进行放大(扩展)的比例,即,扩展屏幕画面的尺寸与物理屏幕画面的尺寸的比值,例如,物理屏幕画面的尺寸为100寸,扩展屏幕画面的尺寸为110寸,则放大系数为1.1,放大系数越大,扩展屏幕画面的尺寸越大。
步骤1003,根据所述放大系数生成扩展屏幕画面。
进一步地,如图11所示,所述步骤1003包括:
步骤10031,根据所述放大系数计算待生成的所述扩展屏幕画面的尺寸值和屏幕分辨率值。
步骤10032,根据尺寸值和屏幕分辨率值生成与所述物理屏幕所显示的物理屏幕画面对应的扩展屏幕画面。
具体地,基于物理屏幕画面,根据所述放大系数,生成尺寸与所述放大系数对应,分辨率与所述放大系数对应的所述扩展屏幕画面。即,将物理屏幕画面放大所述放大系数倍。
将物理屏幕画面的尺寸乘以所述放大系数,以得到所述扩展屏幕画面的尺寸,例如,在所述放大系数为1.1的情况下,将100寸的物理屏幕画面放大为110寸的扩展屏幕画面。
将物理屏幕画面的分辨率乘以所述放大系数,以得到所述扩展屏幕画面的分辨率,例如,在所述放大系数为1.1的情况下,将分辨率为1920*1080的物理屏幕画面生成分辨率为2112*1188的扩展屏幕画面。
步骤1004,获取用户的眼睛在物理屏幕上的视点在物理屏幕坐标系中的第一坐标数据,其中,所述物理屏幕坐标系为与所述物理屏幕对应的坐标系。具体地,通过眼动仪等视线追踪设备获取用户的眼睛在物理屏幕上的视点在物理屏幕坐标系中的第一坐标数据。当用户移动视线时,用户的眼睛的视点也随之移动,此时,所述第一坐标数据随之变化。
步骤1005,根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据。
进一步地,如图12所示,所述步骤1005包括:
步骤10051,根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面中与所述视点对应的点在所述物理屏幕坐标系中的第二坐标数据。
所述物理屏幕坐标系可例如为以物理屏幕的中心点为原点,物理屏幕水平方向向右为X轴正方向,物理屏幕垂直方向向上为Y轴正方向,以像素为单位的坐标系。
如图3所示,当用户的视点在物理屏幕的中心时,物理屏幕的中心点与扩展屏幕画面的中心点重合,即,物理屏幕坐标系与扩展屏幕坐标系重合。所述扩展屏幕坐标系为与所述扩展屏幕画面对应的坐标系。此时,所述扩展屏幕画面的位置不需要调整。
当用户的视点不在物理屏幕的中心点时,物理屏幕的中心点与所述扩展屏幕画面的中心点不重合。此时,通过计算所述扩展屏幕画面中与所述视点对应的点在物理屏幕坐标系中的坐标数据来获得所述扩展屏幕画面的中心点在所述物理屏幕坐标系中的位置。
具体地,定义一个函数f(X,Y,ext)=(x,y),以计算所述扩展屏幕画面的点在所述物理屏幕坐标系中的坐标数据(x,y),该函数f可以视为是一个二维坐标系转换(平移)的函数,例如,该函数f为:x=X*ext,y=Y*ext。
通过向该函数输入物理屏幕坐标(X,Y)以及放大系数ext来获得该视点所对应的所述扩展屏幕画面上的点在所述物理屏幕坐标系中的坐标(x,y)。
所述位置调整数据包括偏移量数据,所述步骤1005还包括:
步骤10052,根据所述第二坐标数据计算所述扩展屏幕画面在所述物理屏幕坐标系的偏移量数据,所述偏移量数据可例如为向量数据。
在所述放大系数ext=1.1的情况下,所述扩展屏幕坐标系中的在x轴方向上的单位长度为所述物理屏幕坐标系中在X轴方向上的单位长度的1.1倍,所述扩展屏幕坐标系中的在y轴方向上的单位长度为所述物理屏幕坐标系中在Y轴方向上的单位长度的1.1倍。
如图4和图5所示,用户的视点在所述物理屏幕坐标系中的坐标为(1,0),在所述扩展屏幕坐标系中的坐标为(1/1.1,0)。在将所述扩展屏幕画面的位置进行调整前,所述扩展屏幕坐标系中坐标为(1,0)的点对应于所述物理屏幕坐标系中坐标为(1.1,0)的点。为了让用户看到所述扩展屏幕画面在所述扩展屏幕坐标系中坐标为(1,0)的点,将所述扩展屏幕画面沿X轴的负方向偏移,即,将所述扩展屏幕画面的位置进行调整。调整后,所述扩展屏幕坐标系中坐标为(1,0)的点与所述物理屏幕坐标系中坐标为(1,0)的点重合,所述扩展屏幕坐标系中的原点对应于所述物理屏幕坐标系中坐标为(-0.1,0)的点。此时,所述扩展屏幕画面的偏移量(位置调整数据)为(-0.1,0)。
如图6和图7所示,用户的视点在所述物理屏幕坐标系中的坐标为(0,0.5),在所述扩展屏幕坐标系中的坐标为(0,0.5/1.1)。在将所述扩展屏幕画面的位置进行调整前,所述扩展屏幕坐标系中坐标为(0,0.5)的点对应于所述物理屏幕坐标系中坐标为(0,0.55)的点。为了让用户看到所述扩展屏幕画面在所述扩展屏幕坐标系中坐标为(0,0.5)的点,将所述扩展屏幕画面沿Y轴的负方向偏移,即,将所述扩展屏幕画面的位置进行调整。调整后,所述扩展屏幕坐标系中坐标为(0,0.5)的点与所述物理屏幕坐标系中坐标为(0,0.5)的点重合,所述扩展屏幕坐标系中的原点对应于所述物理屏幕坐标系中坐标为(0,-0.05)的点。此时,所述扩展屏幕画面的偏移量(位置调整数据)为(0,-0.05)。
如图8和图9所示,在将所述扩展屏幕画面的位置进行调整前,当前视点在所述物理屏幕坐标系中的坐标数据(X1,Y1),通过函数f算得该视点在所述扩展屏幕坐标系中的坐标数据(X1/ext,Y1/ext),该视点所对应的所述扩展屏幕画面上的点在所述物理屏幕坐标系中的坐标为(x1,y1),其中,x1=X1*ext,y1=Y1*ext。为了让用户看到所述扩展屏幕画面在所述扩展屏幕坐标系中坐标为(X1,Y1)的点,将所述扩展屏幕画面沿X轴的负方向和Y轴的负方向偏移,即,将所述扩展屏幕画面的位置进行调整。调整后,所述扩展屏幕坐标系中坐标为(X1,Y1)的点与所述物理屏幕坐标系中坐标为(X1,Y1)的点重合,所述扩展屏幕坐标系中的原点对应于所述物理屏幕坐标系中坐标为(X1-x1,Y1-y1)的点。此时,所述扩展屏幕画面在所述物理屏幕坐标系的X轴的偏移量和Y轴的偏移量分别为(X1-x1)和(Y1-y1),所述扩展屏幕画面的中心点(预定参考点)在所述物理屏幕坐标系上的坐标为((X1-x1),(Y1-y1))。
步骤1006,显示根据所述位置调整数据调整后的所述扩展屏幕画面。具体地,显示在所述物理屏幕坐标系中根据所述偏移量数据进行位置调整后的所述扩展屏幕画面。
作为一种改进,根据用户的视点的位置动态地调整所述扩展屏幕画面的位置。具体地,在所述获取用户的眼睛在物理屏幕上的视点在物理屏幕坐标系中的第一坐标数据之后,以及在所述根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据之前,还包括:
判断所述视点的位置是否发生变动。具体地,每隔预定时间,将所述第一坐标数据与预定时间前所述视点的另一坐标数据进行比较,以判断所述视点的位置是否发生变动。或者,当检测到新的所述第一坐标数据输入时,判断得出所述视点的位置发生变动。
所述根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据,包括:
当所述视点的位置发生变动时,根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据。
作为一种改进,根据用户的眼睛与所述物理屏幕的距离动态地调整所述扩展屏幕画面的尺寸和分辨率。具体地,在所述根据所述放大系数生成扩展屏幕画面之后,还包括:
判断用户的眼睛与所述物理屏幕的距离是否发生变动。具体地,每当检测到新的所述距离值输入时,判断得出用户的眼睛与所述物理屏幕的距离发生变动。
所述获取用户的眼睛与物理屏幕的距离值,包括:
当用户的眼睛与所述物理屏幕的距离发生变动时,获取用户的眼睛与物理屏幕的距离值。
作为一种改进,所述方法还包括:
对用户的视点的位置(或移动路径)进行预测,得出预测结果数据,其中,所述预测结果数据包括预测位置点坐标数据。具体地,利用神经网络模型,对用户的视点的位置进行预测,以得到所述预测结果数据。所述神经网络模型是对用户的视点的历史位置数据进行学习而建立的模型,所述神经网络模型集成于所述计算机设备101或与所述计算机设备101通信的其它设备(例如,服务器)中。
根据所述预测结果数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据。
在本发明实施例提供的基于人工智能的画面显示方法中,由于将物理屏幕当前正在显示的画面进行扩大,得到扩展屏幕画面,并根据计算用户的视点移动,来对显示的画面(扩展屏幕画面)进行移动,因此,可以在用户的视点位于物理屏幕的边缘部分时,将扩展屏幕画面的边缘部分移动到物理屏幕的显示区域中,以供用户在物理屏幕上观看扩展屏幕画面的边缘部分的内容,即,可以供用户观看到更大尺寸的扩展屏幕画面上的内容。
为了更好地实施以上方法,相应的,本发明实施例还提供一种基于人工智能的画面显示装置,所述基于人工智能的画面显示装置可以集成于所述计算机设备101中。所述计算机设备101例如为个人计算机。
本发明实施例提供的基于人工智能的画面显示装置包括:距离值获取模块1301、放大系数计算模块1302、坐标数据获取模块1304、位置调整数据计算模块1305、扩展屏幕画面显示模块1303。如图13所示。
所述距离值获取模块1301用于获取用户的眼睛与物理屏幕的距离值。
具体地,所述距离值获取模块1301用于通过眼动仪等视线追踪设备追踪用户的眼睛的视线,并计算出用户的眼睛的视线与物理屏幕所对应的平面的夹角、用户的眼睛与物理屏幕的距离、用户的眼睛的视线与物理屏幕的交点(视点)等数据。
或者,所述距离值获取模块1301用于通过红外线传感器测量用户的眼睛与物理屏幕的距离值。
或者,所述距离值获取模块1301用于通过超声波收发器测量用户的眼睛与物理屏幕的距离值。
或者,所述距离值获取模块1301用于通过摄像头拍摄用户的面部图像,并通过图像识别技术识别出面部特征,计算所述面部图像中面部特征之间的距离等相关数值,并据此计算出面部图像与物理屏幕的距离值。
所述放大系数计算模块1302用于根据所述距离值计算放大系数。其中,所述距离值越大,则所述放大系数越小,优选地,所述放大系数大于或等于1。
例如,所述放大系数计算模块1302用于根据以下公式计算放大系数:
ext=1+(1/D2);
或者,ext=1+(1/D);
诸如此类,其中,ext为放大系数,D为所述距离值。
所述放大系数是将物理屏幕画面的尺寸进行放大(扩展)的比例,即,扩展屏幕画面的尺寸与物理屏幕画面的尺寸的比值,例如,物理屏幕画面的尺寸为100寸,扩展屏幕画面的尺寸为110寸,则放大系数为1.1,放大系数越大,扩展屏幕画面的尺寸越大。
所述扩展屏幕画面显示模块1303用于根据所述放大系数生成扩展屏幕画面。所述扩展屏幕画面显示模块1303可以是所述计算机设备101中控制图像显示的硬件系统或软件系统。
进一步地,所述扩展屏幕画面显示模块1303用于根据所述放大系数计算待生成的所述扩展屏幕画面的尺寸值和屏幕分辨率值,并用于根据尺寸值和屏幕分辨率值生成与所述物理屏幕所显示的物理屏幕画面对应的扩展屏幕画面。
具体地,所述扩展屏幕画面显示模块1303用于基于物理屏幕画面,根据所述放大系数,生成尺寸与所述放大系数对应,分辨率与所述放大系数对应的所述扩展屏幕画面。即,将物理屏幕画面放大所述放大系数倍。
所述扩展屏幕画面显示模块1303用于将物理屏幕画面的尺寸乘以所述放大系数,以得到所述扩展屏幕画面的尺寸,例如,在所述放大系数为1.1的情况下,所述扩展屏幕画面显示模块1303用于将100寸的物理屏幕画面放大为110寸的扩展屏幕画面。
所述扩展屏幕画面显示模块1303用于将物理屏幕画面的分辨率乘以所述放大系数,以得到所述扩展屏幕画面的分辨率,例如,在所述放大系数为1.1的情况下,所述扩展屏幕画面显示模块1303用于将分辨率为1920*1080的物理屏幕画面生成分辨率为2112*1188的扩展屏幕画面。
所述坐标数据获取模块1304用于获取用户的眼睛在物理屏幕上的视点在物理屏幕坐标系中的第一坐标数据,其中,所述物理屏幕坐标系为与所述物理屏幕对应的坐标系。具体地,通过眼动仪等视线追踪设备获取用户的眼睛在物理屏幕上的视点在物理屏幕坐标系中的第一坐标数据。当用户移动视线时,用户的眼睛的视点也随之移动,此时,所述第一坐标数据随之变化。
所述位置调整数据计算模块1305用于根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据。
进一步地,所述位置调整数据计算模块1305用于根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面中与所述视点对应的点在所述物理屏幕坐标系中的第二坐标数据。
所述物理屏幕坐标系可例如为以物理屏幕的中心点为原点,物理屏幕水平方向向右为X轴正方向,物理屏幕垂直方向向上为Y轴正方向,以像素为单位的坐标系。
如图3所示,当用户的视点在物理屏幕的中心时,物理屏幕的中心点与扩展屏幕画面的中心点重合,即,物理屏幕坐标系与扩展屏幕坐标系重合。所述扩展屏幕坐标系为与所述扩展屏幕画面对应的坐标系。此时,所述扩展屏幕画面的位置不需要调整。
当用户的视点不在物理屏幕的中心点时,物理屏幕的中心点与所述扩展屏幕画面的中心点不重合。此时,通过计算所述扩展屏幕画面中与所述视点对应的点在物理屏幕坐标系中的坐标数据来获得所述扩展屏幕画面的中心点在所述物理屏幕坐标系中的位置。
具体地,定义一个函数f(X,Y,ext)=(x,y),以计算所述扩展屏幕画面的点在所述物理屏幕坐标系中的坐标数据(x,y),该函数f可以视为是一个二维坐标系转换(平移)的函数,例如,该函数f为:x=X*ext,y=Y*ext。
通过向该函数输入物理屏幕坐标(X,Y)以及放大系数ext来获得该视点所对应的所述扩展屏幕画面上的点在所述物理屏幕坐标系中的坐标(x,y)。
所述位置调整数据包括偏移量数据,所述位置调整数据计算模块1305还用于根据所述第二坐标数据计算所述扩展屏幕画面在所述物理屏幕坐标系的偏移量数据。
在所述放大系数ext=1.1的情况下,所述扩展屏幕坐标系中的在x轴方向上的单位长度为所述物理屏幕坐标系中在X轴方向上的单位长度的1.1倍,所述扩展屏幕坐标系中的在y轴方向上的单位长度为所述物理屏幕坐标系中在Y轴方向上的单位长度的1.1倍。
如图4和图5所示,用户的视点在所述物理屏幕坐标系中的坐标为(1,0),在所述扩展屏幕坐标系中的坐标为(1/1.1,0)。在将所述扩展屏幕画面的位置进行调整前,所述扩展屏幕坐标系中坐标为(1,0)的点对应于所述物理屏幕坐标系中坐标为(1.1,0)的点。为了让用户看到所述扩展屏幕画面在所述扩展屏幕坐标系中坐标为(1,0)的点,将所述扩展屏幕画面沿X轴的负方向偏移,即,将所述扩展屏幕画面的位置进行调整。调整后,所述扩展屏幕坐标系中坐标为(1,0)的点与所述物理屏幕坐标系中坐标为(1,0)的点重合,所述扩展屏幕坐标系中的原点对应于所述物理屏幕坐标系中坐标为(-0.1,0)的点。此时,所述扩展屏幕画面的偏移量(位置调整数据)为(-0.1,0)。
如图6和图7所示,用户的视点在所述物理屏幕坐标系中的坐标为(0,0.5),在所述扩展屏幕坐标系中的坐标为(0,0.5/1.1)。在将所述扩展屏幕画面的位置进行调整前,所述扩展屏幕坐标系中坐标为(0,0.5)的点对应于所述物理屏幕坐标系中坐标为(0,0.55)的点。为了让用户看到所述扩展屏幕画面在所述扩展屏幕坐标系中坐标为(0,0.5)的点,将所述扩展屏幕画面沿Y轴的负方向偏移,即,将所述扩展屏幕画面的位置进行调整。调整后,所述扩展屏幕坐标系中坐标为(0,0.5)的点与所述物理屏幕坐标系中坐标为(0,0.5)的点重合,所述扩展屏幕坐标系中的原点对应于所述物理屏幕坐标系中坐标为(0,-0.05)的点。此时,所述扩展屏幕画面的偏移量(位置调整数据)为(0,-0.05)。
如图8和图9所示,在将所述扩展屏幕画面的位置进行调整前,当前视点在所述物理屏幕坐标系中的坐标数据(X1,Y1),通过函数f算得该视点在所述扩展屏幕坐标系中的坐标数据(X1/ext,Y1/ext),该视点所对应的所述扩展屏幕画面上的点在所述物理屏幕坐标系中的坐标为(x1,y1),其中,x1=X1*ext,y1=Y1*ext。为了让用户看到所述扩展屏幕画面在所述扩展屏幕坐标系中坐标为(X1,Y1)的点,将所述扩展屏幕画面沿X轴的负方向和Y轴的负方向偏移,即,将所述扩展屏幕画面的位置进行调整。调整后,所述扩展屏幕坐标系中坐标为(X1,Y1)的点与所述物理屏幕坐标系中坐标为(X1,Y1)的点重合,所述扩展屏幕坐标系中的原点对应于所述物理屏幕坐标系中坐标为(X1-x1,Y1-y1)的点。此时,所述扩展屏幕画面在所述物理屏幕坐标系的X轴的偏移量和Y轴的偏移量分别为(X1-x1)和(Y1-y1),所述扩展屏幕画面的中心点(预定参考点)在所述物理屏幕坐标系上的坐标为((X1-x1),(Y1-y1))。
所述扩展屏幕画面显示模块1303用于显示根据所述位置调整数据调整后的所述扩展屏幕画面。
所述扩展屏幕画面显示模块1303用于显示根据所述位置调整数据调整后的所述扩展屏幕画面。具体地,所述扩展屏幕画面显示模块1303用于显示在所述物理屏幕坐标系中根据所述偏移量数据进行位置调整后的所述扩展屏幕画面。
作为一种改进,所述扩展屏幕画面显示模块1303用于根据用户的视点的位置动态地调整所述扩展屏幕画面的位置。具体地,所述装置还包括第一判断模块,所述第一判断模块用于判断所述视点的位置是否发生变动。具体地,每隔预定时间,将所述第一坐标数据与预定时间前所述视点的另一坐标数据进行比较,以判断所述视点的位置是否发生变动。或者,当检测到新的所述第一坐标数据输入时,所述第一判断模块判断得出所述视点的位置发生变动。
所述位置调整数据计算模块1305用于当所述视点的位置发生变动时,根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据。
作为一种改进,所述扩展屏幕画面显示模块1303用于根据用户的眼睛与所述物理屏幕的距离动态地调整所述扩展屏幕画面的尺寸和分辨率。具体地,所述装置还包括第二判断模块,所述第二判断模块用于判断用户的眼睛与所述物理屏幕的距离是否发生变动。具体地,每当检测到新的所述距离值输入时,所述第二判断模块判断得出用户的眼睛与所述物理屏幕的距离发生变动。
所述距离值获取模块1301用于当用户的眼睛与所述物理屏幕的距离发生变动时,获取用户的眼睛与物理屏幕的距离值。
作为一种改进,所述装置还包括预测模块,所述预测模块用于对用户的视点的位置(或移动路径)进行预测,得出预测结果数据,其中,所述预测结果数据包括预测位置点坐标数据。具体地,所述预测模块用于利用神经网络模型,对用户的视点的位置进行预测,以得到所述预测结果数据。所述神经网络模型是对用户的视点的历史位置数据进行学习而建立的模型,所述神经网络模型集成于所述计算机设备101或与所述计算机设备101通信的其它设备(例如,服务器)中。
所述位置调整数据计算模块1305用于根据所述预测结果数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据。
在本发明实施例提供的基于人工智能的画面显示装置中,由于将物理屏幕当前正在显示的画面进行扩大,得到扩展屏幕画面,并根据计算用户的视点移动,来对显示的画面(扩展屏幕画面)进行移动,因此,可以在用户的视点位于物理屏幕的边缘部分时,将扩展屏幕画面的边缘部分移动到物理屏幕的显示区域中,以供用户在物理屏幕上观看扩展屏幕画面的边缘部分的内容,即,可以供用户观看到更大尺寸的扩展屏幕画面上的内容。
本发明实施例提供的基于人工智能的画面显示装置可以通过硬件实现,如图14所示,该硬件可以包括处理器1403、存储器1402、输入/输出接口1405、显示器1404、通信电路1401等的任意组合,其中,存储器1402、输入/输出接口1405、显示器1404、通信电路1401均与处理器1403电性连接。上述处理器1403、存储器1402、输入/输出接口1405、显示器1404、通信电路1401等的任意组合用于实现本发明实施例提供的基于人工智能的画面显示装置功能、步骤。
其中,该处理器1401可例如为:CPU(Central Processing Unit,中央处理器)、GPU、NPU(Neural Processing Unit,神经网络处理单元)、其他通用处理器、数字信号处理器(DSP,Digital Signal Processor)、专用集成电路(ASIC,Application SpecificIntegrated Circuit)、现场可编程门阵列(FPGA,Field-Programmable Gate Array)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,通用处理器可以是微处理器或者是任何常规的处理器等。
该存储器1402可以包括只读存储器和随机存取存储器,用于向处理器提供程序代码和数据。存储器还可以包括非易失性随机存取存储器。该存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(ElectricallyEPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。
本发明实施例提供的基于人工智能的画面显示装置也可以通过软件实现,此时,本发明实施例提供的基于人工智能的画面显示装置及其各个模块也可以为软件模块。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品(其载体可例如为本发明实施例的计算机可读存储介质)的形式实现。
本发明实施例提供的基于人工智能的画面显示装置还可以通过软件、硬件的组合来实现。
本发明实施例提供的基于人工智能的画面显示装置可对应于执行本发明实施例中描述的方法,并且所述基于人工智能的画面显示装置中的各个模块的上述和其它操作和/或功能用于实现本发明实施例提供的基于人工智能的画面显示方法的相应流程。
本发明实施例的计算设备包括处理器、存储器。其中,处理器、存储器通过总线进行通信。所述存储器用于存储程序代码,所述计算设备运行时,所述处理器执行所述程序代码,以执行本发明实施例提供的基于人工智能的画面显示方法。例如,该程序代码可以执行如下步骤:
获取用户的眼睛在物理屏幕上的视点在物理屏幕坐标系中的第一坐标数据;根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据;显示根据所述位置调整数据调整后的所述扩展屏幕画面。
本发明实施例提供的计算设备可例如为:个人计算机、服务器、移动设备(包括:移动电话、个人数字助理、媒体播放器等)、分布式计算机系统等。
本发明实施例的计算机可读存储介质存储有程序代码,所述程序代码用于使得计算机执行本发明实施例提供的基于人工智能的画面显示方法。例如,该程序代码可以执行如下步骤:
获取用户的眼睛在物理屏幕上的视点在物理屏幕坐标系中的第一坐标数据;根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面的位置调整数据;显示根据所述位置调整数据调整后的所述扩展屏幕画面。
所述计算机可以为通用计算机、专用计算机、计算机网络、或者其他可编程装置。
所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集合的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质。半导体介质可以是固态硬盘(Solid State Drive,SSD)。
所述程序代码的指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述程序代码的指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL,DigitalSubscriber Line))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能。
综上所述,虽然本发明已以优选实施例揭露如上,但上述优选实施例并非用以限制本发明,本领域的普通技术人员,在不脱离本发明的精神和范围内,均可作各种更动与润饰,因此本发明的保护范围以权利要求界定的范围为准。

Claims (9)

1.一种基于人工智能的画面显示方法,其特征在于,包括:
获取用户的眼睛在物理屏幕上的视点在物理屏幕坐标系中的第一坐标数据,其中,所述物理屏幕坐标系为与所述物理屏幕对应的坐标系;
根据所述第一坐标数据以及预设的放大系数计算扩展屏幕画面的位置调整数据;
显示根据所述位置调整数据调整后的所述扩展屏幕画面;
其中,所述根据所述第一坐标数据以及预设的放大系数计算扩展屏幕画面的位置调整数据,包括:
根据所述第一坐标数据以及所述放大系数计算扩展屏幕画面中与所述视点对应的点在所述物理屏幕坐标系中的第二坐标数据;
根据所述第二坐标数据计算所述扩展屏幕画面在所述物理屏幕坐标系的偏移量数据。
2.根据权利要求1所述的基于人工智能的画面显示方法,其特征在于,在所述获取用户的眼睛在物理屏幕上的视点在物理屏幕坐标系中的第一坐标数据之前,还包括:
获取用户的眼睛与物理屏幕的距离值;
根据所述距离值计算所述放大系数;
根据所述放大系数生成扩展屏幕画面。
3.根据权利要求2所述的基于人工智能的画面显示方法,其特征在于,所述距离值越大,则所述放大系数越小。
4.根据权利要求1所述的基于人工智能的画面显示方法,其特征在于,所述根据所述放大系数生成扩展屏幕画面,包括:
根据所述放大系数计算待生成的所述扩展屏幕画面的尺寸值和屏幕分辨率值;
根据尺寸值和屏幕分辨率值生成与所述物理屏幕所显示的物理屏幕画面对应的扩展屏幕画面。
5.根据权利要求1所述的基于人工智能的画面显示方法,其特征在于,所述显示根据所述位置调整数据调整后的所述扩展屏幕画面,包括:
显示在所述物理屏幕坐标系中根据所述偏移量数据进行位置调整后的所述扩展屏幕画面。
6.一种基于人工智能的画面显示装置,其特征在于,包括:
坐标数据获取模块,用于获取用户的眼睛在物理屏幕上的视点在物理屏幕坐标系中的第一坐标数据,其中,所述物理屏幕坐标系为与所述物理屏幕对应的坐标系;
位置调整数据计算模块,用于根据所述第一坐标数据以及预设的放大系数计算扩展屏幕画面的位置调整数据;
扩展屏幕画面显示模块,用于显示根据所述位置调整数据调整后的所述扩展屏幕画面;
所述位置调整数据计算模块还用于根据所述第一坐标数据以及所述放大系数计算所述扩展屏幕画面中与所述视点对应的点在所述物理屏幕坐标系中的第二坐标数据;
所述位置调整数据计算模块还用于根据所述第二坐标数据计算所述扩展屏幕画面在所述物理屏幕坐标系的偏移量数据。
7.根据权利要求6所述的基于人工智能的画面显示装置,其特征在于,所述装置还包括:
距离值获取模块,用于获取用户的眼睛与物理屏幕的距离值;
放大系数计算模块,用于根据所述距离值计算所述放大系数;
所述扩展屏幕画面显示模块还用于根据所述放大系数生成扩展屏幕画面。
8.一种计算设备,其特征在于,所述计算设备包括处理器和存储器,所述存储器用于存储程序代码,所述计算设备运行时,所述处理器用于执行所述程序代码,以执行权利要求1至5中任意一项所述的基于人工智能的画面显示方法。
9.一种存储有程序代码的计算机可读存储介质,其特征在于,所述程序代码用于使得计算机执行权利要求1至5中任意一项所述的基于人工智能的画面显示方法。
CN201910837598.2A 2019-09-05 2019-09-05 基于人工智能的画面显示方法和装置、计算设备、存储介质 Active CN110597387B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910837598.2A CN110597387B (zh) 2019-09-05 2019-09-05 基于人工智能的画面显示方法和装置、计算设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910837598.2A CN110597387B (zh) 2019-09-05 2019-09-05 基于人工智能的画面显示方法和装置、计算设备、存储介质

Publications (2)

Publication Number Publication Date
CN110597387A CN110597387A (zh) 2019-12-20
CN110597387B true CN110597387B (zh) 2021-11-30

Family

ID=68857670

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910837598.2A Active CN110597387B (zh) 2019-09-05 2019-09-05 基于人工智能的画面显示方法和装置、计算设备、存储介质

Country Status (1)

Country Link
CN (1) CN110597387B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111240541B (zh) * 2019-12-31 2023-06-13 歌尔科技有限公司 界面切换方法、电子设备及计算机可读存储介质
CN113495767B (zh) * 2020-03-20 2023-08-22 北京轻舟智航智能技术有限公司 一种交互场景生成的方法、装置及电子设备
TWI806258B (zh) * 2021-11-25 2023-06-21 宏碁股份有限公司 電子裝置及其操作方法
CN115225926B (zh) * 2022-06-27 2023-12-12 广州博冠信息科技有限公司 游戏直播的画面处理方法、装置、计算机设备和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1294722A (zh) * 1999-02-16 2001-05-09 世雅企业股份有限公司 图象显示装置、图象处理装置、图象显示系统
CN104699249A (zh) * 2015-03-27 2015-06-10 联想(北京)有限公司 一种信息处理方法及电子设备
CN105204618A (zh) * 2015-07-22 2015-12-30 深圳多新哆技术有限责任公司 虚拟空间中虚拟物件的投影显示方法及装置
CN105989577A (zh) * 2015-02-17 2016-10-05 中兴通讯股份有限公司 一种图像校正的方法和装置
CN106648055A (zh) * 2016-09-30 2017-05-10 珠海市魅族科技有限公司 一种在虚拟现实环境中管理菜单的方法及虚拟现实设备
CN107533360A (zh) * 2015-12-07 2018-01-02 华为技术有限公司 一种显示、处理的方法及相关装置
CN109799899A (zh) * 2017-11-17 2019-05-24 腾讯科技(深圳)有限公司 交互控制方法、装置、存储介质和计算机设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130063477A1 (en) * 2004-12-06 2013-03-14 James Richardson Systems and methods for using a movable object to control a computer

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1294722A (zh) * 1999-02-16 2001-05-09 世雅企业股份有限公司 图象显示装置、图象处理装置、图象显示系统
CN105989577A (zh) * 2015-02-17 2016-10-05 中兴通讯股份有限公司 一种图像校正的方法和装置
CN104699249A (zh) * 2015-03-27 2015-06-10 联想(北京)有限公司 一种信息处理方法及电子设备
CN105204618A (zh) * 2015-07-22 2015-12-30 深圳多新哆技术有限责任公司 虚拟空间中虚拟物件的投影显示方法及装置
CN107533360A (zh) * 2015-12-07 2018-01-02 华为技术有限公司 一种显示、处理的方法及相关装置
CN106648055A (zh) * 2016-09-30 2017-05-10 珠海市魅族科技有限公司 一种在虚拟现实环境中管理菜单的方法及虚拟现实设备
CN109799899A (zh) * 2017-11-17 2019-05-24 腾讯科技(深圳)有限公司 交互控制方法、装置、存储介质和计算机设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
虚拟显示屏技术应用前景广阔;马得利;《技术与市场》;20080403;第9页 *

Also Published As

Publication number Publication date
CN110597387A (zh) 2019-12-20

Similar Documents

Publication Publication Date Title
CN110597387B (zh) 基于人工智能的画面显示方法和装置、计算设备、存储介质
US11170210B2 (en) Gesture identification, control, and neural network training methods and apparatuses, and electronic devices
US11436739B2 (en) Method, apparatus, and storage medium for processing video image
US10198823B1 (en) Segmentation of object image data from background image data
US20220383535A1 (en) Object Tracking Method and Device, Electronic Device, and Computer-Readable Storage Medium
JP6871416B2 (ja) 顔画像品質を決定する方法および装置、電子機器ならびにコンピュータ記憶媒体
CN108875526B (zh) 视线检测的方法、装置、系统及计算机存储介质
US10254831B2 (en) System and method for detecting a gaze of a viewer
CN110660102B (zh) 基于人工智能的说话人识别方法及装置、系统
WO2016165614A1 (zh) 一种即时视频中的表情识别方法和电子设备
US20220172376A1 (en) Target Tracking Method and Device, and Electronic Apparatus
CN112989987A (zh) 用于识别人群行为的方法、装置、设备以及存储介质
CN114690900A (zh) 一种虚拟场景中的输入识别方法、设备及存储介质
EP4290459A1 (en) Augmented reality method and related device thereof
US20230106278A1 (en) Image processing method, apparatus, device and medium
CN112562068A (zh) 人体姿态生成方法、装置、电子设备及存储介质
CN111192312B (zh) 基于深度学习的深度图像获取方法、装置、设备及介质
KR20210000671A (ko) 헤드 포즈 추정
CN114663980B (zh) 行为识别方法、深度学习模型的训练方法及装置
CN113642493B (zh) 一种手势识别方法、装置、设备及介质
CN114461078A (zh) 一种基于人工智能的人机交互方法
CN114119990A (zh) 用于图像特征点匹配的方法、装置及计算机程序产品
CN114360044A (zh) 手势识别方法、装置、终端设备及计算机可读存储介质
WO2021233357A1 (en) Object detection method, system and computer-readable medium
CN112578909A (zh) 设备交互的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant