CN111880654A - 一种图像显示方法、装置、穿戴设备及存储介质 - Google Patents
一种图像显示方法、装置、穿戴设备及存储介质 Download PDFInfo
- Publication number
- CN111880654A CN111880654A CN202010731424.0A CN202010731424A CN111880654A CN 111880654 A CN111880654 A CN 111880654A CN 202010731424 A CN202010731424 A CN 202010731424A CN 111880654 A CN111880654 A CN 111880654A
- Authority
- CN
- China
- Prior art keywords
- virtual
- virtual camera
- coordinate
- coordinate system
- image display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 210000001508 eye Anatomy 0.000 claims abstract description 115
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 59
- 230000000007 visual effect Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000004418 eye rotation Effects 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 241000282414 Homo sapiens Species 0.000 description 13
- 230000008859 change Effects 0.000 description 9
- 239000011521 glass Substances 0.000 description 9
- 208000003464 asthenopia Diseases 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 210000003205 muscle Anatomy 0.000 description 4
- 206010049816 Muscle tightness Diseases 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 239000000306 component Substances 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
Abstract
本申请公开了一种图像显示方法,所述图像显示方法包括:获取眼球转动信息,并根据所述眼球转动信息确定眼部注视点在世界坐标系中的现实坐标;根据所述现实坐标确定所述眼部注视点在虚拟相机坐标系中的虚拟坐标;其中,所述虚拟相机坐标系为虚拟相机所在的虚拟空间的坐标系;根据所述虚拟坐标调整虚拟相机的拍摄角度,并将调整拍摄角度后的所述虚拟相机拍摄的画面作为目标图像进行显示。本申请能够生成与辐辏相适应的图像,避免频繁变焦。本申请还公开了一种图像显示装置、一种穿戴设备及一种存储介质,具有以上有益效果。
Description
技术领域
本申请涉及智能穿戴设备技术领域,特别涉及一种图像显示方法、装置、一种穿戴设备及一种存储介质。
背景技术
智能穿戴设备能够在计算机和网络的辅助下高效率的处理信息,智能穿戴设备可以包括智能手表、智能眼镜、智能手环等。智能眼镜通常与虚拟现实技术或增强现实技术相结合,通过镜片显示特定的图像以便人眼观察。相关技术中,使用智能眼镜观看三维画面时需要人眼实现变焦,例如人眼看近处和远处时眼睛通过周围肌肉紧张程度的变化实现变焦,故长时间观看会有疲劳感。
因此,如何生成与辐辏相适应的图像,避免频繁变焦是本领域技术人员目前需要解决的技术问题。
发明内容
本申请的目的是提供一种图像显示方法、装置、一种穿戴设备及一种存储介质,能够生成与辐辏相适应的图像,避免频繁变焦。
为解决上述技术问题,本申请提供一种图像显示方法,该图像显示方法包括:
获取眼球转动信息,并根据所述眼球转动信息确定眼部注视点在世界坐标系中的现实坐标;
根据所述现实坐标确定所述眼部注视点在虚拟相机坐标系中的虚拟坐标;其中,所述虚拟相机坐标系为虚拟相机所在的虚拟空间的坐标系;
根据所述虚拟坐标调整虚拟相机的拍摄角度,并将调整拍摄角度后的所述虚拟相机拍摄的画面作为目标图像进行显示。
可选的,根据所述眼球转动信息确定眼部注视点在世界坐标系中的现实坐标,包括:
根据眼球转动信息确定左眼视角和右眼视角;
根据所述左眼视角、所述右眼视角和瞳距确定眼部注视点在世界坐标系中的现实坐标。
可选的,所述虚拟相机包括第一虚拟相机和第二虚拟相机,所述第一虚拟相机用于拍摄左眼观察的目标图像;所述第二虚拟相机用于拍摄右眼观察的目标图像。
可选的,根据所述虚拟坐标调整虚拟相机的拍摄角度,包括:
确定所述虚拟相机在所述虚拟空间中的相机坐标,并根据所述相机坐标和所述虚拟坐标的位置关系调整所述虚拟相机的拍摄角度;
其中,调整拍摄方向后的所述虚拟相机的拍摄方向与预设方向相同,所述预设方向为所述相机坐标指向所述虚拟坐标的方向。
可选的,根据所述虚拟坐标调整虚拟相机的拍摄角度,包括:
确定所述虚拟相机的原拍摄角度;
根据所述虚拟坐标确定所述虚拟相机的目标拍摄角度;
控制所述虚拟相机由所述原拍摄角度转动至所述目标拍摄角度。
可选的,获取眼球转动信息包括:
利用眼球追踪设备获取所述眼球转动信息;其中,所述眼球转动信息包括眼球在预设周期内转过的角度和眼球转动的方向。
可选的,根据所述现实坐标确定所述眼部注视点在虚拟相机坐标系中的虚拟坐标,包括:
根据所述世界坐标系和所述虚拟相机坐标系的转换关系对所述坐标进行坐标系转换,得到所述眼部注视点在虚拟相机坐标系中的虚拟坐标。
本申请还提供了一种图像显示装置,该装置包括:
现实坐标确定模块,用于获取眼球转动信息,并根据所述眼球转动信息确定眼部注视点在世界坐标系中的现实坐标;
虚拟坐标确定模块,用于根据所述现实坐标确定所述眼部注视点在虚拟相机坐标系中的虚拟坐标;其中,所述虚拟相机坐标系为虚拟相机所在的虚拟空间的坐标系;
图像显示模块,用于根据所述虚拟坐标调整虚拟相机的拍摄角度,并将调整拍摄角度后的所述虚拟相机拍摄的画面作为目标图像进行显示。
本申请还提供了一种存储介质,其上存储有计算机程序,所述计算机程序执行时实现上述图像显示方法执行的步骤。
本申请还提供了一种穿戴设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器调用所述存储器中的计算机程序时实现上述图像显示方法执行的步骤。
本申请提供了一种图像显示方法,包括:获取眼球转动信息,并根据所述眼球转动信息确定眼部注视点在世界坐标系中的现实坐标;根据所述现实坐标确定所述眼部注视点在虚拟相机坐标系中的虚拟坐标;其中,所述虚拟相机坐标系为虚拟相机所在的虚拟空间的坐标系;根据所述虚拟坐标调整虚拟相机的拍摄角度,并将调整拍摄角度后的所述虚拟相机拍摄的画面作为目标图像进行显示。
本申请根据眼球转动信息确定眼部注视点在世界坐标系中的现实坐标,并确定眼部注视点在虚拟相机坐标系中的虚拟坐标,眼部观察的图像为虚拟相机在虚拟空间中拍摄的图像,因此通过根据虚拟坐标调整虚拟相机的拍摄角度能够使虚拟相机拍摄的画面成像在眼睛的成焦平面上,眼镜无需调整焦距,避免了眼部周围肌肉紧张程度变化导致的视觉疲劳。本申请中的虚拟相机拍摄角度调节方式可以真实模拟眼部运动状况,可以生成与辐辏相适应的图像,避免眼部频繁变焦导致的视觉疲劳。本申请同时还提供了一种图像显示装置、一种穿戴设备和一种存储介质,具有上述有益效果,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例,下面将对实施例中所需要使用的附图做简单的介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例所提供的一种图像显示方法的流程图;
图2为本申请实施例所提供的一种眼部注视点的确定原理示意图;
图3为本申请实施例所提供的一种虚拟相机的拍摄角度特征方法的示意图;
图4为本申请实施例所提供的一种图像显示装置的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
下面请参见图1,图1为本申请实施例所提供的一种图像显示方法的流程图。
具体步骤可以包括:
S101:获取眼球转动信息,并根据眼球转动信息确定眼部注视点在世界坐标系中的现实坐标;
其中,本实施例可以应用于AR(Augmented Reality,增强现实)眼镜、VR(VirtualReality,虚拟现实技术)眼镜、VR头盔等通过显示装置提供图像显示功能的穿戴设备,上述显示装置可以为眼镜镜片,也可以为显示屏。
本步骤中所提到的眼球转动信息为描述眼球转动方向和转动角度的信息,眼球转动信息可以包括一个眼球或两个眼球的转动信息,根据眼球转动信息可以确定眼球的注视点。作为一种可行的实施方式,本实施例可以利用眼球追踪设备获取所述眼球转动信息;其中,所述眼球转动信息包括眼球在预设周期内转过的角度和眼球转动的方向。
请参见图2,图2为本申请实施例所提供的一种眼部注视点的确定原理示意图,本实施例可以根据双眼的视线方向和双眼距离结合三角几何特征计算眼部注视点。本实施确定眼部注视点的过程可以转化为已知三角形的一条边和两个角,求第三个顶点的位置。本实施例可以根据眼球转动信息计算双眼的视线方向。世界坐标系是用户所在的现实空间中的坐标系,可以为以用户的身体的某个部位(如鼻尖或头顶)作为原点建立的笛卡尔坐标系。
S102:根据现实坐标确定眼部注视点在虚拟相机坐标系中的虚拟坐标;
其中,本实施例所应用的穿戴设备中可以运行有三维引擎,三维引擎指可以实现交互式实时图像应用程序的核心组件,通过三维引擎可以在虚拟空间中创建三维模型,并通过虚拟相机拍摄虚拟空间中的三维模型得到用户需要观察的图像,从而使用户通过虚拟空间中的虚拟相机拍摄画面体验到身临其境的真实观感。常见的三维引擎可以包括Unity3D、虚幻引擎、寒霜引擎等。Unity3D为可以创建诸如三维视频游戏、建筑可视化、实时三维动画等类型互动内容的多平台的综合型游戏引擎。Unity类似于Director,Blendergame engine,Virtools或Torque Game Builder等利用交互的图型化开发环境为首要方式的软件。在Unity3D创建的虚拟空间中的图像显示是基于计算机图形学原理的,根据裁剪窗口来限制显示画面的大小,通过确定近裁剪平面和远裁剪平面来决定用户可以看到的景物的最近和最远距离。在不改变虚拟相机的拍摄角度的前提下,用户想要看的东西和关注的焦点都是由用户通过调节眼睛改变成焦平面和焦点来获得的。
本步骤中虚拟相机坐标系为虚拟相机所在的虚拟空间的坐标系,本实施例可以根据虚拟相机坐标系与世界坐标系的转换关系确定眼部关注点在虚拟空间中的位置,即虚拟坐标。具体的,本实施例可以根据所述世界坐标系和所述虚拟相机坐标系的转换关系对所述坐标进行坐标系转换,得到所述眼部注视点在虚拟相机坐标系中的虚拟坐标。具体的,如果虚拟空间与现实世界的比例相等,则可以直接将现实坐标作为虚拟坐标如果虚拟空间与现实世界存在缩放比例,则可以将现实坐标进行等比例变化得到虚拟坐标。
S103:根据虚拟坐标调整虚拟相机的拍摄角度,并将调整拍摄角度后的虚拟相机拍摄的画面作为目标图像进行显示。
其中,本步骤建立在已经确定虚拟坐标的基础上,可以根据虚拟坐标调整虚拟相机的拍摄角度,以使虚拟相机的焦点落在虚拟坐标上。在对虚拟相机的拍摄角度调整后,可以将虚拟相机拍摄的画面作为目标图像进行显示,由于目标图像为虚拟相机调整拍摄角度后的拍摄画面,因此目标图像成像在用户眼睛的成焦平面上,用户无需通过眼部肌肉的紧张程度调整焦距。
可以理解的是,当人的眼睛看向不同方向时眼部会有细微的变化,本实施例根据眼球转动信息获取眼部注视位置,从而实时追踪眼睛的变化,预测用户的状态和需求并通过控制虚拟摄像机的拍摄角度进行响应,达到用眼睛控制设备的目的。作为一种可行的实施方式,本实施例还可以使用眼球追踪技术来确定眼部注视点,并计算出人眼在AR图像或VR图像中所观看的位置,调整虚拟相机的拍摄角度来模拟人眼的辐辏,这部分调整拍摄角度后的拍摄画面作为目标图像进行显示可以实现来实现在三维引擎中模拟人眼辐辏。辐辏是指双眼视轴的辐辏,当用户在看物体时双眼辐辏使物体落在视网膜相对应的位置。当物体的位置发生远近变化时,辐辏角的大小也随之改变,这种改变由眼部肌肉完成。这种改变的信号传到大脑,便构成一种对深度信息的感知。
本实施例根据眼球转动信息确定眼部注视点在世界坐标系中的现实坐标,并确定眼部注视点在虚拟相机坐标系中的虚拟坐标,眼部观察的图像为虚拟相机在虚拟空间中拍摄的图像,因此通过根据虚拟坐标调整虚拟相机的拍摄角度能够使虚拟相机拍摄的画面成像在眼睛的成焦平面上,眼镜无需调整焦距,避免了眼部周围肌肉紧张程度变化导致的视觉疲劳。本实施例中的虚拟相机拍摄角度调节方式可以真实模拟眼部运动状况,可以生成与辐辏相适应的图像,避免眼部频繁变焦导致的视觉疲劳。
作为对于图1对应实施例的进一步介绍,用户通常使用双眼观察穿戴设备显示的图像,如图2所示上述眼球转动信息可以包括左眼转动信息和右眼转动信息,进而根据左眼转动信息确定左眼视角,根据右眼转动信息确定右眼视角,根据所述左眼视角、所述右眼视角和瞳距确定眼部注视点在世界坐标系中的现实坐标。相应的,为了更符合人类的观察习惯,图1对应的实施例中提到的虚拟相机可以包括第一虚拟相机和第二虚拟相机,所述第一虚拟相机用于拍摄左眼观察的目标图像;所述第二虚拟相机用于拍摄右眼观察的目标图像。
请参见图3,图3为本申请实施例所提供的一种虚拟相机的拍摄角度特征方法的示意图,图3中的虚线为调整拍摄角度之前的虚拟相机的拍摄方向,实线为调整拍摄角度之后虚拟相机的拍摄方向。在根据虚拟坐标调整虚拟相机的拍摄角度的过程中,可以先确定所述虚拟相机在所述虚拟空间中的相机坐标,并根据所述相机坐标和所述虚拟坐标的位置关系调整所述虚拟相机的拍摄角度。其中,调整拍摄方向后的所述虚拟相机的拍摄方向与预设方向相同,所述预设方向为所述相机坐标指向所述虚拟坐标的方向。可以理解的是,当虚拟空间中存在分别与双眼对应的第一虚拟相机和第二虚拟相机时,可以根据第一虚拟相机的相机坐标和虚拟坐标的位置关系调整第一虚拟相机的拍摄角度,可以根据第二虚拟相机的相机坐标和虚拟坐标的位置关系调整第二虚拟相机的拍摄角度。
作为一种可行的实施方式,调整虚拟相机的拍摄角度的具体过程可以为:确定虚拟相机未调整拍摄角度之前的原拍摄角度,根据所述虚拟坐标确定所述虚拟相机的目标拍摄角度,控制所述虚拟相机由所述原拍摄角度转动至所述目标拍摄角度。其中,上述目标拍摄角度根据虚拟坐标和虚拟相机的坐标确定。
下面通过在实际应用中的实施例说明上述实施例描述的流程,本实施例描述了一种在Unity3D创建的虚拟空间中模拟人眼辐辏的VR眼镜显示方案,具体可以包括以下步骤:
步骤1:使用eye-tracking(眼球追踪)设备追踪眼球的运动,并获得双眼眼球的旋转角度φ1;
其中,上述旋转角度可以为眼球的当前视线方向与预设方向的夹角变化程度确定,预设方向为人眼垂直看这VR屏幕时的视线方向
步骤2:通过三角形几何特征和旋转角度φ1计算双眼的注视点,并计算出注视点在世界坐标系的现实坐标D(x1,y1,z1),并将现实坐标D(x1,y1,z1)上传给unity3D程序;
步骤3:Unity3D程序根据注视点的现实坐标D(x1,y1,z1),转换成Unity3D虚拟空间的虚拟坐标d(x2,y2,z2),然后根据三角形几何特征调整Unity3D虚拟空间中的两颗虚拟相机的旋转角度为φ2,这两颗虚拟相机的旋转角度模拟人类眼睛的旋转φ2,来实现人眼辐辏现象。
其中,虚拟坐标为虚拟空间坐标系上的坐标,虚拟空间坐标系可以是以Unity3D中虚拟相机作为坐标原点o(0,0,0)的笛卡尔坐标系。
步骤4:VR眼镜将Unity3D虚拟空间中虚拟相机所拍摄的画面显示出来,画面恰好落在使用者眼睛注视的成焦平面上,使用者无需重新调整眼睛肌肉变换焦点就可以看清楚这个Unity3D虚拟空间中的图像。
本实施例中通过眼球转动信息调整虚拟相机的转动角度,虚拟相机模拟人眼注视的方向,然后通过虚拟相机的方向控制显示的画面。在本实施例中,通过双眼的旋转角度计算眼睛的注视点,然后将该注视点转换成虚拟相机的旋转角度并显示旋转虚拟相机后的拍摄画面。本实施例根据人眼的旋转调整虚拟相机的角度,使得显示的画面始终显示在成焦平面,可以避免眼部频繁变焦导致的视觉疲劳。
请参见图4,图4为本申请实施例所提供的一种图像显示装置的结构示意图;
该装置可以包括:
现实坐标确定模块100,用于获取眼球转动信息,并根据所述眼球转动信息确定眼部注视点在世界坐标系中的现实坐标;
虚拟坐标确定模块200,用于根据所述现实坐标确定所述眼部注视点在虚拟相机坐标系中的虚拟坐标;其中,所述虚拟相机坐标系为虚拟相机所在的虚拟空间的坐标系;
图像显示模块300,用于根据所述虚拟坐标调整虚拟相机的拍摄角度,并将调整拍摄角度后的所述虚拟相机拍摄的画面作为目标图像进行显示。
本实施例根据眼球转动信息确定眼部注视点在世界坐标系中的现实坐标,并确定眼部注视点在虚拟相机坐标系中的虚拟坐标,眼部观察的图像为虚拟相机在虚拟空间中拍摄的图像,因此通过根据虚拟坐标调整虚拟相机的拍摄角度能够使虚拟相机拍摄的画面成像在眼睛的成焦平面上,眼镜无需调整焦距,避免了眼部周围肌肉紧张程度变化导致的视觉疲劳。本实施例中的虚拟相机拍摄角度调节方式可以真实模拟眼部运动状况,可以生成与辐辏相适应的图像,避免眼部频繁变焦导致的视觉疲劳。
进一步的,现实坐标确定模块100,包括:
视角确定单元,用于根据眼球转动信息确定左眼视角和右眼视角;
坐标确定单元,用于根据所述左眼视角、所述右眼视角和瞳距确定眼部注视点在世界坐标系中的现实坐标。
进一步的,所述虚拟相机包括第一虚拟相机和第二虚拟相机,所述第一虚拟相机用于拍摄左眼观察的目标图像;所述第二虚拟相机用于拍摄右眼观察的目标图像。
进一步的,图像显示模块300包括:
第一角度调整模块,用于确定所述虚拟相机在所述虚拟空间中的相机坐标,并根据所述相机坐标和所述虚拟坐标的位置关系调整所述虚拟相机的拍摄角度;
其中,调整拍摄方向后的所述虚拟相机的拍摄方向与预设方向相同,所述预设方向为所述相机坐标指向所述虚拟坐标的方向。
进一步的,图像显示模块300包括:
第二角度调整模块,用于确定所述虚拟相机的原拍摄角度;还用于根据所述虚拟坐标确定所述虚拟相机的目标拍摄角度;还用于控制所述虚拟相机由所述原拍摄角度转动至所述目标拍摄角度。
进一步的,现实坐标确定模块100包括:
眼球追踪单元,用于利用眼球追踪设备获取所述眼球转动信息;其中,所述眼球转动信息包括眼球在预设周期内转过的角度和眼球转动的方向。
进一步的,虚拟坐标确定模块200具体为用于根据所述世界坐标系和所述虚拟相机坐标系的转换关系对所述坐标进行坐标系转换,得到所述眼部注视点在虚拟相机坐标系中的虚拟坐标的模块。
由于装置部分的实施例与方法部分的实施例相互对应,因此装置部分的实施例请参见方法部分的实施例的描述,这里暂不赘述。
本申请还提供了一种存储介质,其上存有计算机程序,该计算机程序被执行时可以实现上述实施例所提供的步骤。该存储介质可以包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请还提供了一种穿戴设备,可以包括存储器和处理器,所述存储器中存有计算机程序,所述处理器调用所述存储器中的计算机程序时,可以实现上述实施例所提供的步骤。当然所述穿戴设备还可以包括各种网络接口,电源等组件。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的状况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
Claims (10)
1.一种图像显示方法,其特征在于,包括:
获取眼球转动信息,并根据所述眼球转动信息确定眼部注视点在世界坐标系中的现实坐标;
根据所述现实坐标确定所述眼部注视点在虚拟相机坐标系中的虚拟坐标;其中,所述虚拟相机坐标系为虚拟相机所在的虚拟空间的坐标系;
根据所述虚拟坐标调整虚拟相机的拍摄角度,并将调整拍摄角度后的所述虚拟相机拍摄的画面作为目标图像进行显示。
2.根据权利要求1所述图像显示方法,其特征在于,根据所述眼球转动信息确定眼部注视点在世界坐标系中的现实坐标,包括:
根据眼球转动信息确定左眼视角和右眼视角;
根据所述左眼视角、所述右眼视角和瞳距确定眼部注视点在世界坐标系中的现实坐标。
3.根据权利要求2所述图像显示方法,其特征在于,所述虚拟相机包括第一虚拟相机和第二虚拟相机,所述第一虚拟相机用于拍摄左眼观察的目标图像;所述第二虚拟相机用于拍摄右眼观察的目标图像。
4.根据权利要求1所述图像显示方法,其特征在于,根据所述虚拟坐标调整虚拟相机的拍摄角度,包括:
确定所述虚拟相机在所述虚拟空间中的相机坐标,并根据所述相机坐标和所述虚拟坐标的位置关系调整所述虚拟相机的拍摄角度;
其中,调整拍摄方向后的所述虚拟相机的拍摄方向与预设方向相同,所述预设方向为所述相机坐标指向所述虚拟坐标的方向。
5.根据权利要求1所述图像显示方法,其特征在于,根据所述虚拟坐标调整虚拟相机的拍摄角度,包括:
确定所述虚拟相机的原拍摄角度;
根据所述虚拟坐标确定所述虚拟相机的目标拍摄角度;
控制所述虚拟相机由所述原拍摄角度转动至所述目标拍摄角度。
6.根据权利要求1所述图像显示方法,其特征在于,所述获取眼球转动信息包括:
利用眼球追踪设备获取所述眼球转动信息;其中,所述眼球转动信息包括眼球在预设周期内转过的角度和眼球转动的方向。
7.根据权利要求1至6任一项所述图像显示方法,其特征在于,根据所述现实坐标确定所述眼部注视点在虚拟相机坐标系中的虚拟坐标,包括:
根据所述世界坐标系和所述虚拟相机坐标系的转换关系对所述坐标进行坐标系转换,得到所述眼部注视点在虚拟相机坐标系中的虚拟坐标。
8.一种图像显示装置,其特征在于,包括:
现实坐标确定模块,用于获取眼球转动信息,并根据所述眼球转动信息确定眼部注视点在世界坐标系中的现实坐标;
虚拟坐标确定模块,用于根据所述现实坐标确定所述眼部注视点在虚拟相机坐标系中的虚拟坐标;其中,所述虚拟相机坐标系为虚拟相机所在的虚拟空间的坐标系;
图像显示模块,用于根据所述虚拟坐标调整虚拟相机的拍摄角度,并将调整拍摄角度后的所述虚拟相机拍摄的画面作为目标图像进行显示。
9.一种穿戴设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器调用所述存储器中的计算机程序时实现如权利要求1至7任一项所述图像显示方法的步骤。
10.一种存储介质,其特征在于,所述存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现如上权利要求1至7任一项所述图像显示方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010731424.0A CN111880654A (zh) | 2020-07-27 | 2020-07-27 | 一种图像显示方法、装置、穿戴设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010731424.0A CN111880654A (zh) | 2020-07-27 | 2020-07-27 | 一种图像显示方法、装置、穿戴设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111880654A true CN111880654A (zh) | 2020-11-03 |
Family
ID=73201733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010731424.0A Pending CN111880654A (zh) | 2020-07-27 | 2020-07-27 | 一种图像显示方法、装置、穿戴设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111880654A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112558302A (zh) * | 2020-12-08 | 2021-03-26 | 恒玄科技(上海)股份有限公司 | 一种用于确定眼镜姿态的智能眼镜及其信号处理方法 |
CN112698725A (zh) * | 2020-12-30 | 2021-04-23 | 山东大学 | 一种基于眼动仪跟踪的穿透式屏幕系统的实现方法 |
CN114047822A (zh) * | 2021-11-24 | 2022-02-15 | 京东方科技集团股份有限公司 | 近眼显示方法及系统 |
CN114302054A (zh) * | 2021-11-30 | 2022-04-08 | 歌尔光学科技有限公司 | 一种ar设备的拍照方法及其ar设备 |
CN116012508A (zh) * | 2023-03-28 | 2023-04-25 | 高德软件有限公司 | 车道线的渲染方法、装置、存储介质及程序产品 |
WO2023071381A1 (zh) * | 2021-10-29 | 2023-05-04 | 深圳市慧鲤科技有限公司 | 虚实融合方法、装置、设备、存储介质及程序产品 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180205888A1 (en) * | 2015-09-24 | 2018-07-19 | Sony Corporation | Information processing device, information processing method, and program |
CN109979016A (zh) * | 2019-03-26 | 2019-07-05 | 徐治国 | 一种ar设备显示光场影像的方法、ar设备和存储介质 |
CN110321005A (zh) * | 2019-06-14 | 2019-10-11 | 深圳传音控股股份有限公司 | 一种提高ar设备虚拟物件显示效果的方法、装置、ar设备和存储介质 |
US20200174560A1 (en) * | 2018-12-04 | 2020-06-04 | Samsung Electronics Co., Ltd. | Calibration method for three-dimensional (3d) augmented reality and apparatus thereof |
-
2020
- 2020-07-27 CN CN202010731424.0A patent/CN111880654A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180205888A1 (en) * | 2015-09-24 | 2018-07-19 | Sony Corporation | Information processing device, information processing method, and program |
US20200174560A1 (en) * | 2018-12-04 | 2020-06-04 | Samsung Electronics Co., Ltd. | Calibration method for three-dimensional (3d) augmented reality and apparatus thereof |
CN109979016A (zh) * | 2019-03-26 | 2019-07-05 | 徐治国 | 一种ar设备显示光场影像的方法、ar设备和存储介质 |
CN110321005A (zh) * | 2019-06-14 | 2019-10-11 | 深圳传音控股股份有限公司 | 一种提高ar设备虚拟物件显示效果的方法、装置、ar设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
杜宝江: "《先进制造技术与应用前沿 虚拟制造》", 31 January 2012, 上海科学技术出版社, pages: 314 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112558302A (zh) * | 2020-12-08 | 2021-03-26 | 恒玄科技(上海)股份有限公司 | 一种用于确定眼镜姿态的智能眼镜及其信号处理方法 |
CN112698725A (zh) * | 2020-12-30 | 2021-04-23 | 山东大学 | 一种基于眼动仪跟踪的穿透式屏幕系统的实现方法 |
CN112698725B (zh) * | 2020-12-30 | 2022-02-11 | 山东大学 | 一种基于眼动仪跟踪的穿透式屏幕系统的实现方法 |
WO2023071381A1 (zh) * | 2021-10-29 | 2023-05-04 | 深圳市慧鲤科技有限公司 | 虚实融合方法、装置、设备、存储介质及程序产品 |
CN114047822A (zh) * | 2021-11-24 | 2022-02-15 | 京东方科技集团股份有限公司 | 近眼显示方法及系统 |
CN114047822B (zh) * | 2021-11-24 | 2023-12-19 | 京东方科技集团股份有限公司 | 近眼显示方法及系统 |
CN114302054A (zh) * | 2021-11-30 | 2022-04-08 | 歌尔光学科技有限公司 | 一种ar设备的拍照方法及其ar设备 |
CN116012508A (zh) * | 2023-03-28 | 2023-04-25 | 高德软件有限公司 | 车道线的渲染方法、装置、存储介质及程序产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111880654A (zh) | 一种图像显示方法、装置、穿戴设备及存储介质 | |
US10241329B2 (en) | Varifocal aberration compensation for near-eye displays | |
EP3035681B1 (en) | Image processing method and apparatus | |
CN106162203B (zh) | 全景视频播放方法、播放器与头戴式虚拟现实设备 | |
JP2019079552A (ja) | イメージ形成における及びイメージ形成に関する改良 | |
CN109901710B (zh) | 媒体文件的处理方法和装置、存储介质及终端 | |
TWI669635B (zh) | 用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質 | |
JPH10334275A (ja) | 仮想現実方法及び装置並びに記憶媒体 | |
KR101788452B1 (ko) | 시선 인식을 이용하는 콘텐츠 재생 장치 및 방법 | |
CN205195880U (zh) | 观看设备及观看系统 | |
EP2230988A1 (en) | Method of simulating blur in digitally processed images | |
JP2023515517A (ja) | ライブフィッティングを含む眼鏡フレームのフィッティング | |
WO2018010677A1 (zh) | 一种信息处理方法、穿戴式电子设备、处理装置及系统 | |
JP2023515205A (ja) | 表示方法、装置、端末機器及びコンピュータプログラム | |
CN109799899B (zh) | 交互控制方法、装置、存储介质和计算机设备 | |
EP3945401A1 (en) | Gaze tracking system and method | |
CN111164542A (zh) | 修改计算设备上的图像的方法 | |
CN110840721B (zh) | 一种基于近眼显示的视力防控、训练方法及近眼显示设备 | |
KR20090078085A (ko) | 입체 영상 디스플레이 장치 및 그 입체 영상 디스플레이장치에서의 표시부 위치 조절 방법 | |
EP4120238A1 (en) | Video processing and playback systems and methods | |
Hussain et al. | Improving depth perception in immersive media devices by addressing vergence-accommodation conflict | |
CN115914603A (zh) | 图像渲染方法、头戴显示设备和可读存储介质 | |
CN115202475A (zh) | 显示方法、装置、电子设备及计算机可读存储介质 | |
GB2609064A (en) | Video processing and playback systems and methods | |
JPH10334274A (ja) | 仮想現実方法及び装置並びに記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20221124 Address after: No. 500 Songling Road, Laoshan District, Qingdao City, Shandong Province, 266100 Applicant after: GOERTEK TECHNOLOGY Co.,Ltd. Address before: 261031 north of Yuqing street, east of Dongming Road, high tech Zone, Weifang City, Shandong Province (Room 502, Geer electronics office building) Applicant before: GoerTek Optical Technology Co.,Ltd. |
|
TA01 | Transfer of patent application right |