CN109710061A - 影像的动感反馈系统和动感反馈方法 - Google Patents

影像的动感反馈系统和动感反馈方法 Download PDF

Info

Publication number
CN109710061A
CN109710061A CN201811478057.7A CN201811478057A CN109710061A CN 109710061 A CN109710061 A CN 109710061A CN 201811478057 A CN201811478057 A CN 201811478057A CN 109710061 A CN109710061 A CN 109710061A
Authority
CN
China
Prior art keywords
image
screen
pupil
sensing
scenario objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811478057.7A
Other languages
English (en)
Other versions
CN109710061B (zh
Inventor
刘奎勇
张伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanxian Wenlu (beijing) Technology Co Ltd
Original Assignee
Sanxian Wenlu (beijing) Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanxian Wenlu (beijing) Technology Co Ltd filed Critical Sanxian Wenlu (beijing) Technology Co Ltd
Priority to CN201811478057.7A priority Critical patent/CN109710061B/zh
Publication of CN109710061A publication Critical patent/CN109710061A/zh
Application granted granted Critical
Publication of CN109710061B publication Critical patent/CN109710061B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明提供一种影像的动感反馈系统和动感反馈方法,以解决现有技术中无法针对观众关注的具体影像内容形成差异化动感体验的技术问题。方法包括:将观众视线焦点转换为瞳孔所关注屏幕影像的屏幕坐标范围;根据所述屏幕坐标范围确定的场景对象获取体感驱动数据,形成所述观众动感座椅的实时驱动信号。通过建立视线焦点与屏幕坐标的映射关系,使得所关注屏幕影像中单一或强相关的场景对象可以识别,利用场景对象的体感驱动数据进行信号驱动获得区别于整体场景反馈的个体体感反馈,使得所关注屏幕影像中的场景对象作为独立的体感对象,使每个观众的体感感受在保持整体场景剧情演进的同时获得与所关注影像匹配的个体体感经验。

Description

影像的动感反馈系统和动感反馈方法
技术领域
本发明涉及运动仿真技术领域,具体涉及影像的动感反馈系统和动感反馈方法。
背景技术
现有电影院为了提升观众的观影体验,采用了球幕、动感座椅等技术手段,动感座椅包括利用受控驱动信号使座椅产生多自由度运动的执行机构。应用过程中利用影像资源中携带的时间戳信息(timestamp)顺序形成与影像整体情节配合的系列体感数据,随着影像播放体感数据根据时间戳同步向执行机构传输体感数据,形成动感座椅的实时驱动信号,使所有观众感受到相同的体感体验。
现有技术中的体感数据基于影像场景的主体变化形成,面向所有观众的动感座椅广播传输,导致观众的体感体验被强制趋同。而同一影像场景中往往存在若干不同表现的角色对象时,人体观众的关注焦点会具有离散特性,会根据个体的心理认同在不同时间点关注不同的角色对象。由于每个角色对象在动作、形态和碰撞等行为特性的差异导致观众们的心理感受存在较大的差异,缺失针对角色对象的体感感受会降低观影体验,甚至破坏观影效果。
发明内容
有鉴于此,本发明实施例提供一种影像的动感反馈系统和动感反馈方法,以解决现有技术中无法针对观众关注的具体影像内容形成差异化动感体验的技术问题。
本发明实施例的影像的动感反馈方法,包括:
将观众视线焦点转换为瞳孔所关注屏幕影像的屏幕坐标范围;
根据所述屏幕坐标范围确定的场景对象获取体感驱动数据,形成所述观众动感座椅的实时驱动信号。
在一个实施例中,所述将观众视线焦点转换为瞳孔所关注屏幕影像的屏幕坐标范围包括:
预置眼部定位的图案与影像定位的图案;
形成定位眼部的透射基准表面;
通过所述透射基准表面向至少一个眼球投射眼部定位图案;
捕捉瞳孔在所述眼部定位图案上的瞳孔位置坐标;
通过所述透射基准表面获取屏幕中部分影像定位图案和对应范围的部分影像;
根据所述透射基准表面与所述屏幕表面的坐标映射参数和所述部分影像定位图案获取瞳孔在所述屏幕中的屏幕坐标范围;
通过屏幕投影适配参数将瞳孔的所述屏幕坐标范围转换为瞳孔关注的实际像素范围。
在一个实施例中,所述根据所述屏幕坐标范围确定的场景对象获取体感驱动数据,形成所述观众动感座椅的实时驱动信号包括:
建立瞳孔的屏幕坐标范围变化的时间索引;
存储与所述屏幕坐标范围对应的影像中实际像素范围,利用所述时间索引形成瞳孔动作的时间轴;
获取影像数据中的时间戳,通过所述时间轴与所述时间戳适配,形成场景对象与所述瞳孔动作的时间同步;
根据所述实际像素范围从所述影像数据的场景中获取被关注场景对象;
根据所述时间轴实时获取所述被关注场景对象的体感反馈数据并输出。
在一个实施例中,所述根据所述屏幕坐标范围确定的场景对象获取体感驱动数据,形成所述观众动感座椅的实时驱动信号还包括:
根据所述时间轴实时获取所述被关注场景对象所处场景的体感反馈数据并附加强度衰减数据后输出。
在一个实施例中,还包括:
根据时间戳同步影像中个体场景对象的体感驱动数据,形成影像数据。
在一个实施例中,所述形成影像数据包括:
划定影像中的场景数量和对应的场景时长;
在所述场景的帧影像画面中通过像素范围定义场景对象;
根据所述场景时长设置连续的场景体感驱动数据;
根据在所述场景中的存续时长设置所述场景对象连续的个体体感驱动数据;
将所述场景时长和所述存续时长与影像中的时间戳信息同步,结合所述场景对象和体感驱动数据形成影像数据。
本发明实施例的影像的动感反馈系统,包括:
存储器,用于存储上述影像的动感反馈方法对应的程序片段;
处理器,用于执行所述程序片段。
本发明实施例的影像的动感反馈系统,包括:
视线坐标映射装置,用于将观众视线焦点转换为瞳孔所关注屏幕影像的屏幕坐标范围;
视线焦点驱动装置,用于根据所述屏幕坐标范围确定的场景对象获取体感驱动数据,形成所述观众动感座椅的实时驱动信号。
本发明实施例的影像的动感反馈系统,包括:
透明液晶点阵镜片,用于形成眼部定位图案的暗点阵图案;
后向摄像头,用于捕捉瞳孔在眼部定位图案中的瞳孔位置坐标;
前向摄像头,用于捕捉视野范围内相应的部分影像定位图案和部分影像;
投射光源,用于照射所述暗点阵图案形成投射向眼球的所述眼部定位图案;
镜片支架,用于形成相对眼球的基准框架,固定所述透明液晶点阵镜片、所述投射光源、所述后向摄像头和所述前向摄像头;
屏幕点阵光源,用于形成屏幕完整的影像定位图案。
在一个实施例中,所述透明液晶点阵镜片采用单方向弧形镜面,弧形方向与双眼球的瞳孔连线方向一致,所述投射光源和所述屏幕点阵光源采用非可见光,所述前向摄像头的视野与眼球视野一致。
本发明实施例的影像的动感反馈系统和动感反馈方法通过建立视线焦点与屏幕坐标的映射关系,使得所关注屏幕影像中单一或强相关的场景对象可以识别,利用场景对象的体感驱动数据进行信号驱动获得区别于整体场景反馈的个体体感反馈,使得所关注屏幕影像中的场景对象作为独立的体感对象,将播放过程中单一对象的角色互动情节、角色情绪、角色动作和环境效果等主观感受量化为对应的体感驱动数据,使每个观众的体感感受在保持整体场景剧情演进的同时获得与所关注影像匹配的个体体感经验。
附图说明
图1所示为本发明实施例影像的动感反馈方法的流程示意图。
图2所示为本发明实施例影像的动感反馈方法中一种视线焦点转换为屏幕坐标范围的流程示意图。
图3所示为本发明实施例影像的动感反馈方法中一种形成单一动感座椅的实时驱动信号的流程示意图。
图4所示为本发明实施例影像的动感反馈方法中一种形成场景对象体感驱动数据的流程示意图。
图5所示为本发明实施例影像的动感反馈系统的一种视线坐标映射装置的主视示意图。
图6所示为本发明实施例影像的动感反馈系统的一种视线坐标映射装置的俯视剖视示意图。
图7为本发明实施例影像的动感反馈系统的一种视线坐标映射装置中实现的眼部定位图案。
图8为本发明实施例影像的动感反馈系统的一种视线坐标映射装置中配套实现的影像定位图案。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本领域技术人员可以理解,观众的视线焦点通常集中在视野范围内的屏幕影像内容上,视线焦点通常以摄取影像的瞳孔中心作为替代物,瞳孔随眼球在有限范围内的转动等同于视线焦点在视野内的屏幕影像上移动。观影过程中瞳孔与屏幕间存在基本可靠的量化距离,该量化距离可测量、可修正。瞳孔作为发出视线的客观替代物,瞳孔随眼球转动,在眼球形成的瞳孔转动曲面上移动。观影屏幕形成平面或弧面的内表面形状。在确定表面基本形状参数和表面间距离参数的基础上,表面间可以形成透视或投影关系。一个表面上的确定位置坐标可以通过确定的坐标映射参数在另一表面上获得对应的位置坐标。
如图1所示,本发明实施例影像的动感反馈方法包括:
步骤100:将观众视线焦点转换为瞳孔所关注屏幕影像的屏幕坐标范围。
本领域技术人员可以理解,瞳孔转动曲面和观影屏幕可以形成透视或投影关系,建立可量化的坐标映射参数,使得瞳孔在瞳孔转动曲面上的位置可以确定地投影或透视到观影屏幕的对应位置。即通过获得瞳孔在瞳孔转动曲面上的位置坐标可以确定视线焦点(即瞳孔)在屏幕上的投影位置(即坐标范围)。瞳孔转动曲面和屏幕表面的坐标可以形成点对点映射或者点对确定范围的映射。
具体举例,当单一眼球的视野(即瞳孔转动范围)与屏幕保持基本稳定的透视或投影关系时,当瞳孔转移至靠近外眼角偏上位置时,视线焦点对应关注的是屏幕同侧边缘的确定偏上位置。在眼球视野、量化距离等初始条件基本不变的基础上,该对应映射关系可以保证获得视线焦点在屏幕上的实际坐标或坐标范围。
步骤200:根据屏幕坐标范围确定的场景对象获取体感驱动数据,形成观众动感座椅的实时驱动信号。
本领域技术人员可以理解,屏幕坐标范围与影像的像素范围存在确定的对应关系。可以由屏幕投影适配参数转换获得影像中相应的像素或像素范围。同时对应影像中出现的客观对象可以由像素范围限定。
本领域技术人员可以理解,所关注影像中的场景可以对象化,场景中每个场景对象在场景中某一时刻的位置具有确定性,场景对象的位置坐标可记录、可量化。根据影像的时间戳信息可以形成场景对象在一个场景的持续时间中的连续坐标数据。根据时间戳信息可以形成一个场景的持续时间中所有场景对象基于时间的同步坐标数据,同步坐标数据体现影像播放过程中任一时间点的场景内任一场景对象的位置坐标。
所关注屏幕影像的体感驱动数据包括所关注影像所处的整体场景持续时间对应的体感驱动数据,还包括所关注影像对应的场景对象持续时间对应的体感驱动数据。
本发明实施例的影像的动感反馈方法通过建立视线焦点与屏幕坐标的映射关系,使得所关注屏幕影像中单一或强相关的场景对象可以识别,利用场景对象的体感驱动数据进行信号驱动获得区别于整体场景反馈的个体体感反馈,使得所关注屏幕影像中的场景对象作为独立的体感对象,将播放过程中单一对象的角色互动情节、角色情绪、角色动作和环境效果等主观感受量化为对应的体感驱动数据,使每个观众的体感感受在保持整体场景剧情演进的同时获得与所关注影像匹配的个体体感经验。本发明实施例的影像的动感反馈系统可以不局限于球幕电影,也可以应用于立体电影的播放。
如图2所示,本发明一实施例影像的动感反馈方法中步骤100包括:
步骤105:预置眼部定位的图案与影像定位的图案。
眼部定位的图案,用于形成向眼球投射的点阵图案,在眼球的瞳孔转动曲面上建立坐标量化参照点。
在本发明一实施例中,眼部定位图案的点阵图案的边界具有明显的点阵分布特异性,以标识出点阵图案的范围,确定点阵图案的坐标范围。
影像定位的图案,用于形成屏幕的固定点阵图案,在屏幕上建立播放影像的屏幕坐标量化参照点。
在本发明一实施例中,影像定位的图案的固定点阵图案中,每个固定点的形态(例如每个固定点的组成元素间的分布密度、分布方向、组成元素数量等)存在唯一编码属性,以标识出每个固定点在与完整屏幕匹配的完整固定点阵图案中的位置,确定固定点阵图案在完整屏幕中的坐标范围。
以球幕举例说明,形成眼部定位图案与影像定位图案采用相似的点阵图案,眼部定位图案由具有共同两端端点的若干条弧线轨迹组成,每条弧线轨迹由若干间隔的点图案(可以是频闪的暗点)组成,根据边缘点图案建立眼部定位图案的投影坐标范围。完整的影像定位图案由屏幕上的参考发光点图案(可以采用非可见光光谱)形成,完整的影像定位图案由具有共同两端端点的若干条弧线轨迹组成,每条弧线轨迹由若干间隔的发光点图案组成,完整的影像定位图案形成球幕的完整坐标范围和参考坐标点位。
步骤110:形成定位眼部的透射基准表面。
透射基准表面采用不具有放大倍率的平光透镜形成,利用透射基准表面建立与眼球的稳定位置关联关系,建立透射基准表面与屏幕的坐标映射参数。
本领域技术人员可以理解同一原始图案在不同曲率表面的投影或透视可以形成与该曲率表面对应的变形图案,通过原始图案的尺寸、各曲率表面与原始图案的距离、表面曲率等客观物理参数可以形成变形图案与原始图案间确定的图形位置转换关系,可以形成相似坐标系或投影表面间的坐标映射参数。通过相应的坐标映射参数可以量化一个图案在不同曲率表面透视或投影时的具体物理坐标。通过坐标映射参数可以双向地确定两个表面上对应的坐标位置。
通过透射基准表面的稳定性使得眼球形成的瞳孔转动曲面与影像定位图案所在屏幕表面形成稳定的投影或透视关系,可以对应建立可靠的位置坐标映射参数。
步骤120:通过透射基准表面向至少一个眼球投射眼部定位图案。
透射基准表面的眼部定位图案具有确定的坐标范围。投射的眼部定位图案覆盖至少一个眼球的瞳孔转动曲面,在瞳孔转动曲面上出现的点阵图案形成可量化的坐标范围,可以获得眼部定位图案向眼部投影范围内的瞳孔运动状态,包括瞳孔的相对位置、瞳孔移动的相对轨迹、瞳孔的孔径和瞳孔的中心等视觉焦点参数。
在本发明一实施例中,可以向两个眼球分别投射眼部定位图案,利用眼球的生理特性,当视线焦点偏向一侧时优先选用同侧的眼部定位图案确定瞳孔运动状态,当视线焦点在正前方时,同时参考两幅眼部定位图案中瞳孔的相关运动确定瞳孔运动状态,有利于提高定位准确度。
步骤140:捕捉瞳孔在眼部定位图案上的瞳孔位置坐标。
首先获得瞳孔转动曲面上的瞳孔位置坐标,进而通过透射基准表面和瞳孔转动曲面两个表面的坐标映射参数获得瞳孔在透射基准表面的位置坐标,将瞳孔的运动状态映射至稳定的透射基准表面的坐标范围内,避免后续处理中误差积累。瞳孔的运动状态包括在透射基准表面的瞳孔坐标、瞳孔孔径、瞳孔中心坐标等视觉焦点参数。
在本发明另一实施例中,还包括获得两个瞳孔在透射基准表面的瞳孔坐标、瞳孔孔径、瞳孔中心坐标,以提高视觉焦点在生理特征上的判断准确性。
步骤130:通过透射基准表面获取屏幕中部分影像定位图案和对应范围的部分影像。
部分影像定位图案是指眼球视野内观看到的所有影像定位图案,对应范围的部分影像是指眼球视野内观看到的所有影像,影像定位图案的坐标范围与影像范围基本一致。本领域技术人员可以理解部分影像定位图案可以在整体的影像定位图案中通过常规标识技术手段确定。
步骤150:根据透射基准表面与屏幕表面的坐标映射参数和部分影像定位图案获取瞳孔在屏幕中的屏幕坐标范围。
部分影像定位图案包括了对应屏幕的局部屏幕坐标范围信息,通过坐标映射参数将透射基准表面上的瞳孔位置映射到屏幕上该局部屏幕坐标范围内的对应位置。
本领域技术人员可以理解,当采用球幕时,可以建立视野内与眼部定位图案对应的局部影像坐标范围,完整影像坐标范围包括局部影像坐标范围。当采用普通幕时可以建立视野内与眼部定位图案对应的完整影像坐标范围。
本领域技术人员可以理解,完整的影像定位图案各部分的要素组成具有体现要素唯一性的排列规则,或称要素作编码规则,使得部分影像定位图案可以用来确定通过透射基准表面的局部屏幕影像在完整屏幕影像中的具体位置。使得眼部定位图案与影像定位图案间的坐标映射参数可以适用于眼部定位图案与局部影像定位图案的坐标映射。
步骤160:通过屏幕投影适配参数将瞳孔的屏幕坐标范围转换为瞳孔关注的实际像素范围。
本领域技术人员可以理解,影像播放时必然经过(原始)影像尺寸与屏幕形状的适配,使得影像可以适应各种宽高比的平面屏幕或不同曲率、弧面面积和形状的球幕。通过屏幕投影适配参数可以推导影像中各像素点在适配屏幕中具体的显示位置坐标,也可以根据屏幕投影适配参数获得适配屏幕中具体显示的坐标范围在(原始)影像中的对应像素范围。
本领域技术人员可以理解,利用屏幕投影适配参数换算出屏幕的屏幕坐标范围内形成屏幕影像的原始影像中的实际像素或实际像素范围,确定的像素或像素范围可以作为预定义的场景对象的基础。
本发明实施例的影像的动感反馈方法通过建立映射或透视基准的透射基准表面将瞳孔转动曲面和屏幕间的位置映射或透视的复杂度降低。透射基准表面与瞳孔转动曲面间更易形成小间距高精度的坐标映射参数保证对通孔动作的准确捕获,透射基准表面与屏幕表面更易形成大间距高映射适应性的坐标映射参数保证屏幕各位置可以形成通孔坐标的分区定位。
如图3所示,本发明一实施例影像的动感反馈方法中步骤200包括:
步骤210:建立瞳孔的屏幕坐标范围变化的时间索引。
瞳孔移动时投影在屏幕上的相应屏幕坐标范围也会同步变化,将屏幕坐标范围和屏幕坐标范围的变化与时间要素关联,利用屏幕坐标范围变化的时间点作为索引数据形成屏幕坐标范围的顺序存储。举例说明,时间索引格式为:
偏移时间(秒)[屏幕坐标范围]
0000:1000[坐标范围1]
0002:1000[坐标范围2]
0004:5000[坐标范围3]
0010:2500[坐标范围1]
…。
步骤220:存储与屏幕坐标范围对应的影像中实际像素范围,利用时间索引形成瞳孔动作的时间轴。
本领域技术人员可以理解,根据屏幕投影适配参数将屏幕坐标范围转换获得影像中相应的像素范围的数据换算效率很高,基本可以实时完成。举例说明时间轴的数据格式为:
偏移时间(秒)[影像像素范围]
0000:1000[像素范围1]
0002:1000[像素范围2]
0004:5000[像素范围3]
0010:2500[像素范围1]
…。
步骤230:获取影像数据中的时间戳,通过时间轴与时间戳适配,形成场景对象与瞳孔动作的时间同步。
本领域技术人员可以理解,时间戳作为客观的时间要素是影像场景中场景对象各形态变化、行为变化、位置变化等特征有序存储的基础,同时也是场景对象的体感反馈数据顺序反馈输出的基础。通过时间戳可以确定某一时间点激活的影像场景、场景对象,以及该场景和场景对象对应的体感反馈数据。
根据时间轴与时间戳同步可以获得在瞳孔关注屏幕影像的时间轴上激活的场景、场景中所有场景对象,以及对应场景和场景对象的全部体感数据。
步骤240:根据实际像素范围从影像数据的场景中获取被关注场景对象。
本领域技术人员可以理解,在不同时间点,影像场景中的场景对象的形态和位置可以利用影像中的实际像素范围描述。这表明即使在瞳孔保持在同一位置静止时,实际像素范围内的场景对象也会发生变化。
实际像素范围可以等于或小于被关注场景对象的像素范围,即实际像素范围应基本包含在被关注场景对象的像素范围。
步骤250:根据时间轴实时获取被关注场景对象的体感反馈数据并输出。
通过实际像素范围确定关注的主要场景对象并获取关注时间片段内的体感驱动数据作为体感反馈数据输出。这表明在瞳孔保持在同一位置较长时间静止时,可能顺序输出几个顺序确定的场景对象的体感反馈数据。
在本发明一实施例中,还包括:
步骤260:根据时间轴实时获取被关注场景对象所处场景的体感反馈数据并附加强度衰减数据后输出。
场景的体感反馈数据,是为了形成场景对象所处场景的整体体感感受,相当于现有技术中针对所有动感座椅的通用体感反馈数据。但与强度衰减数据相结合后,作为另一路并行输出的体感反馈数据,可以合成复杂的体感感受。
本发明实施例的影像的动感反馈方法通过时间基准的同步将瞳孔间接对对影像实际像素范围的选择作为在影像场景中对场景对象的选择,并根据关注时长输出被关注场景对象对应的体感反馈数据以驱动动感座椅的执行机构,使得每一位观众的体感体验受自身视线焦点的影响,在获得通常的简单共同体感体验的同时体验到符合关注对象情节预期的强烈体感效果。
在本发明一实施例中,影像的动感反馈方法中还包括:
步骤300:根据时间戳同步影像中个体场景对象的体感驱动数据,形成影像数据。
本发明实施例的影像的动感反馈方法通过将影像中元素对象化,并为具体场景中的每个场景对象设置符合角色情节的体感数据使得场景中的体感数据对角色情节的反馈更加真实。形成的影像数据利用时间要素将同一时间点上的相关个体对象的体感数据关联,保证了场景内的体感同步,进而保证了与影像完整场景演进一致的体感同步。实现了同一影像相同观影不同体感体验。
如图4所示,本发明一实施例影像的动感反馈方法中还包括:
步骤310:划定影像中的场景数量和对应的场景时长。
场景通常是影像中顺序间隔的经过后期处理的影像片段,也可以是组成影像的分镜头影像。
步骤320:在场景的帧影像画面中通过像素范围定义场景对象。
通过像素范围定义场景对象的帧影像画面之间可以间隔一定数量的帧影像画面,间隔的帧数根据场景的情节剧烈程度判断。
步骤330:根据场景时长设置连续的场景体感驱动数据。
场景体感数据根据场景时长。
步骤340:根据在场景中的存续时长设置场景对象连续的个体体感驱动数据。
个体体感数据根据存续时长和个体场景对象的情节需要设置。
步骤350:将场景时长和存续时长与影像中的时间戳信息同步,结合场景对象和体感驱动数据形成影像数据。
具有实时特点的体感数据、场景时长、存续时长和个体场景对象位置等数据都包含与时间戳信息的同步。
本发明实施例的影像的动感反馈方法将影像中元素对象化,将影像中场景对象的情节表达实现体感化反馈,利用时间戳建立的影像数据可以满足观众共同观影时并发产生的差异化体感数据需求。
本发明实施例影像的动感反馈系统,包括:
存储器,用于存储上述影像的动感反馈方法的各处理过程对应的程序片段;
处理器,用于执行上述影像的动感反馈方法的各处理过程对应的程序片段。
本发明实施例影像的动感反馈系统包括:
视线坐标映射装置,用于将观众视线焦点转换为瞳孔所关注屏幕影像的屏幕坐标范围。
视线焦点驱动装置,用于根据屏幕坐标范围确定的场景对象获取体感驱动数据,形成观众动感座椅的实时驱动信号。
在本发明一实施例中,影像的动感反馈系统还包括:
影像数据生成装置,用于根据时间戳同步影像中个体场景对象的体感驱动数据,形成影像数据。
在本发明一实施例中,视线坐标映射装置包括:
图案预置模块,用于预置眼部定位的图案与影像定位的图案。
投影基准形成模块,用于形成定位眼部的透射基准表面。
图案投射模块,用于通过透射基准表面向至少一个眼球投射眼部定位图案。
瞳孔捕捉模块,用于捕捉瞳孔在眼部定位图案上的瞳孔位置坐标。
透射获取模块,用于通过透射基准表面获取屏幕中部分影像定位图案和对应范围的部分影像。
屏幕坐标确定模块,用于根据透射基准表面与屏幕表面的映射参数和部分影像定位图案获取瞳孔在屏幕中的屏幕坐标范围。
像素范围确定模块,用于通过屏幕投影适配参数将瞳孔的屏幕坐标范围转换为瞳孔关注的实际像素范围。
在本发明一实施例中,视线焦点驱动装置包括:
索引建立模块,用于建立瞳孔的屏幕坐标范围变化的时间索引。
时间轴建立模块,用于存储与屏幕坐标范围对应的实际像素范围,利用时间索引形成瞳孔动作的时间轴。
时间同步模块,用于获取影像数据中的时间戳,通过时间轴与时间戳适配,形成场景对象与瞳孔动作的时间同步。
对象获取模块,用于根据实际像素范围从影像数据的场景中获取被关注场景对象。
对象反馈输出模块,用于根据时间轴实时获取被关注场景对象的体感反馈数据并输出。
场景反馈输出模块,用于根据时间轴实时获取被关注场景对象所处场景的体感反馈数据并附加强度衰减数据后输出。
在本发明一实施例中,影像数据生成装置包括:
场景生成模块,用于划定影像中的场景数量和对应的场景时长。
对象生成模块,用于在场景的帧影像画面中通过像素范围定义场景对象。
场景数据设置模块,用于根据场景时长设置连续的场景体感驱动数据。
对象数据设置模块,用于根据在场景中的存续时长设置场景对象连续的个体体感驱动数据。
数据合成模块,用于将场景时长和存续时长与影像中的时间戳信息同步,结合场景对象和体感驱动数据形成影像数据。
结合图5和图6所示,本发明实施例影像的动感反馈系统包括一种视线坐标映射装置,视线坐标映射装置包括:
镜片支架01,用于形成相对眼球的基准框架,固定透明液晶点阵镜片、投射光源、后向摄像头和前向摄像头;
透明液晶点阵镜片02,用于形成眼部定位图案的暗点阵图案;
后向摄像头03,用于捕捉瞳孔在眼部定位图案中的瞳孔位置坐标;
前向摄像头04,用于捕捉视野范围内相应的部分影像定位图案和部分影像;
投射光源05,用于照射暗点阵图案形成投射向眼球的眼部定位图案;
以及配套的屏幕点阵光源,用于形成屏幕完整的影像定位图案;
以及配套的数据处理器,用于将观众视线焦点转换为瞳孔所关注屏幕影像的屏幕坐标范围。
在本发明一实施例中,透明液晶点阵镜片02采用单方向弧形镜面,弧形方向与双眼球的瞳孔连线方向一致。投射光源05和屏幕点阵光源采用非可见光光源。前向摄像头04的视野与眼球视野一致。
在本发明一实施例中,在透明液晶点阵镜片02的后表面(佩戴时朝向脸部的表面)的对称两端设置一对后向摄像头03,在透明液晶点阵镜片02的前表面(佩戴时朝向屏幕的表面)围绕透明液晶点阵镜片02的边缘均匀设置若干个朝向眼球的投射光源05。在透明液晶点阵镜片02的前表面的顶部设置朝向屏幕的前向摄像头04。
实际应用中,透明液晶点阵镜片02中的液晶点阵初始为透明状态,佩戴时可以直接观看视野内相应的部分影像,同时前向摄像头04可以捕捉视野范围内相应的部分影像定位图案。根据受控频率和受控液晶像素使能信号,相应的液晶像素周期性浑浊,对光线形成阻挡,浑浊的像素位置是可以量化的坐标参考点。周期性出现的暗点阵图案由于周期性频率较高,浑浊的像素尺寸较小,不会对观影效果造成影响。根据瞳孔与暗点阵图案中暗点的位置关系可以实现瞳孔的位置捕捉。
改变浑浊像素在液晶点阵中的位置就可以按需形成有利于在不同表面投影的暗点阵图案。使得暗点阵图案适应各表面投影或透视的坐标映射参数,以获得更精确的转换位置坐标。
如图7所示,上部示意图是根据瞳孔转动曲面形成的暗点阵图案,下部示意图显示了暗点阵图案中的浑浊像素按弧线排布,每个弧线上间隔排布若干个浑浊像素11,若干个弧线具有共同的两端端点12,若干个弧线的弧度和圆心位置存在规律性。
如图8所示,屏幕点阵光源布设在屏幕上,针对球幕,点光源位于两组弧线的交叉点位上,该交叉点位具有可量化的位置坐标。两组弧线中的弧线数量、弧线弧度和弧线圆心一一对应,第一组弧线具有共同的两端端点13,第二组弧线具有共同的两端端点14,两组弧线的两端端点的连线垂直。
数据处理器执行与本发明实施例的影像的动感反馈方法相应的数据处理过程,将观众视线焦点转换为瞳孔所关注屏幕影像的屏幕坐标范围。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种影像的动感反馈方法,包括:
将观众视线焦点转换为瞳孔所关注屏幕影像的屏幕坐标范围;
根据所述屏幕坐标范围确定的场景对象获取体感驱动数据,形成所述观众动感座椅的实时驱动信号。
2.根据权利要求1所述影像的动感反馈方法,其特征在于,所述将观众视线焦点转换为瞳孔所关注屏幕影像的屏幕坐标范围包括:
预置眼部定位的图案与影像定位的图案;
形成定位眼部的透射基准表面;
通过所述透射基准表面向至少一个眼球投射眼部定位图案;
捕捉瞳孔在所述眼部定位图案上的瞳孔位置坐标;
通过所述透射基准表面获取屏幕中部分影像定位图案和对应范围的部分影像;
根据所述透射基准表面与所述屏幕表面的坐标映射参数和所述部分影像定位图案获取瞳孔在所述屏幕中的屏幕坐标范围;
通过屏幕投影适配参数将瞳孔的所述屏幕坐标范围转换为瞳孔关注的实际像素范围。
3.根据权利要求1所述影像的动感反馈方法,其特征在于,所述根据所述屏幕坐标范围确定的场景对象获取体感驱动数据,形成所述观众动感座椅的实时驱动信号包括:
建立瞳孔的屏幕坐标范围变化的时间索引;
存储与所述屏幕坐标范围对应的影像中实际像素范围,利用所述时间索引形成瞳孔动作的时间轴;
获取影像数据中的时间戳,通过所述时间轴与所述时间戳适配,形成场景对象与所述瞳孔动作的时间同步;
根据所述实际像素范围从所述影像数据的场景中获取被关注场景对象;
根据所述时间轴实时获取所述被关注场景对象的体感反馈数据并输出。
4.根据权利要求3所述影像的动感反馈方法,其特征在于,所述根据所述屏幕坐标范围确定的场景对象获取体感驱动数据,形成所述观众动感座椅的实时驱动信号还包括:
根据所述时间轴实时获取所述被关注场景对象所处场景的体感反馈数据并附加强度衰减数据后输出。
5.根据权利要求1至4任一所述影像的动感反馈方法,其特征在于,还包括:
根据时间戳同步影像中个体场景对象的体感驱动数据,形成影像数据。
6.根据权利要求5所述影像的动感反馈方法,其特征在于,所述形成影像数据包括:
划定影像中的场景数量和对应的场景时长;
在所述场景的帧影像画面中通过像素范围定义场景对象;
根据所述场景时长设置连续的场景体感驱动数据;
根据在所述场景中的存续时长设置所述场景对象连续的个体体感驱动数据;
将所述场景时长和所述存续时长与影像中的时间戳信息同步,结合所述场景对象和体感驱动数据形成影像数据。
7.一种影像的动感反馈系统,其特征在于,包括:
存储器,用于存储如权利要求1至6任一所述影像的动感反馈方法对应的程序片段;
处理器,用于执行所述程序片段。
8.一种影像的动感反馈系统,包括:
视线坐标映射装置,用于将观众视线焦点转换为瞳孔所关注屏幕影像的屏幕坐标范围;
视线焦点驱动装置,用于根据所述屏幕坐标范围确定的场景对象获取体感驱动数据,形成所述观众动感座椅的实时驱动信号。
9.一种影像的动感反馈系统,其特征在于,包括:
透明液晶点阵镜片,用于形成眼部定位图案的暗点阵图案;
后向摄像头,用于捕捉瞳孔在眼部定位图案中的瞳孔位置坐标;
前向摄像头,用于捕捉视野范围内相应的部分影像定位图案和部分影像;
投射光源,用于照射所述暗点阵图案形成投射向眼球的所述眼部定位图案;
镜片支架,用于形成相对眼球的基准框架,固定所述透明液晶点阵镜片、所述投射光源、所述后向摄像头和所述前向摄像头;
屏幕点阵光源,用于形成屏幕完整的影像定位图案。
10.如权利要求9所述的影像的动感反馈系统,其特征在于,所述透明液晶点阵镜片采用单方向弧形镜面,弧形方向与双眼球的瞳孔连线方向一致,所述投射光源和所述屏幕点阵光源采用非可见光,所述前向摄像头的视野与眼球视野一致。
CN201811478057.7A 2018-12-04 2018-12-04 影像的动感反馈系统和动感反馈方法 Active CN109710061B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811478057.7A CN109710061B (zh) 2018-12-04 2018-12-04 影像的动感反馈系统和动感反馈方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811478057.7A CN109710061B (zh) 2018-12-04 2018-12-04 影像的动感反馈系统和动感反馈方法

Publications (2)

Publication Number Publication Date
CN109710061A true CN109710061A (zh) 2019-05-03
CN109710061B CN109710061B (zh) 2019-12-13

Family

ID=66255293

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811478057.7A Active CN109710061B (zh) 2018-12-04 2018-12-04 影像的动感反馈系统和动感反馈方法

Country Status (1)

Country Link
CN (1) CN109710061B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111427452A (zh) * 2020-03-27 2020-07-17 海信视像科技股份有限公司 控制器的追踪方法及vr系统
CN115356951A (zh) * 2022-10-19 2022-11-18 北京易控智驾科技有限公司 一种仿真方法、系统及其存储介质和电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090102915A1 (en) * 2005-04-25 2009-04-23 Svyatoslav Ivanovich Arsenich Stereoprojection system
CN105812778A (zh) * 2015-01-21 2016-07-27 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
CN106340035A (zh) * 2015-07-06 2017-01-18 无锡天脉聚源传媒科技有限公司 一种对场景中人物追踪的方法及装置
CN106530926A (zh) * 2016-11-29 2017-03-22 东南大学 基于Myo臂带及视线追踪的虚拟假手训练平台及其训练方法
CN107957774A (zh) * 2016-10-18 2018-04-24 阿里巴巴集团控股有限公司 虚拟现实空间环境中的交互方法及装置
US20180330648A1 (en) * 2017-05-12 2018-11-15 Hangzhou Yiyuqianxiang Technology Co., Ltd. Multi-window smart content rendering and optimizing method and projection method based on cave system
US20180330698A1 (en) * 2017-05-15 2018-11-15 Hangzhou Yiyuqianxiang Technology Co., Ltd. Projection method with multiple rectangular planes at arbitrary positions to a variable projection center

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090102915A1 (en) * 2005-04-25 2009-04-23 Svyatoslav Ivanovich Arsenich Stereoprojection system
CN105812778A (zh) * 2015-01-21 2016-07-27 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
CN106340035A (zh) * 2015-07-06 2017-01-18 无锡天脉聚源传媒科技有限公司 一种对场景中人物追踪的方法及装置
CN107957774A (zh) * 2016-10-18 2018-04-24 阿里巴巴集团控股有限公司 虚拟现实空间环境中的交互方法及装置
CN106530926A (zh) * 2016-11-29 2017-03-22 东南大学 基于Myo臂带及视线追踪的虚拟假手训练平台及其训练方法
US20180330648A1 (en) * 2017-05-12 2018-11-15 Hangzhou Yiyuqianxiang Technology Co., Ltd. Multi-window smart content rendering and optimizing method and projection method based on cave system
US20180330698A1 (en) * 2017-05-15 2018-11-15 Hangzhou Yiyuqianxiang Technology Co., Ltd. Projection method with multiple rectangular planes at arbitrary positions to a variable projection center

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111427452A (zh) * 2020-03-27 2020-07-17 海信视像科技股份有限公司 控制器的追踪方法及vr系统
CN111427452B (zh) * 2020-03-27 2023-10-20 海信视像科技股份有限公司 控制器的追踪方法及vr系统
CN115356951A (zh) * 2022-10-19 2022-11-18 北京易控智驾科技有限公司 一种仿真方法、系统及其存储介质和电子设备

Also Published As

Publication number Publication date
CN109710061B (zh) 2019-12-13

Similar Documents

Publication Publication Date Title
CN106464854B (zh) 图像编码和显示
CN106170083B (zh) 用于头戴式显示器设备的图像处理
US10210660B2 (en) Removing occlusion in camera views
CN106484116B (zh) 媒体文件的处理方法和装置
CN108136258A (zh) 基于跟踪眼部运动来调整图像帧
KR20180131594A (ko) 인간 시각 메커니즘에 적응화된 머리 장착형 디스플레이를 위한 시스템 및 방법
CN108292489A (zh) 信息处理装置和图像生成方法
CN105809654B (zh) 目标对象跟踪方法、装置和立体显示设备及方法
KR102161734B1 (ko) 계층화된 증강 엔터테인먼트 경험
CN105939481A (zh) 一种交互式三维虚拟现实视频节目录播和直播方法
CN105959664B (zh) 基于场景内容的预定三维视频设置的动态调整
CN111202663A (zh) 一种基于vr技术的视觉训练学习系统
US20190129174A1 (en) Multi-perspective eye-tracking for vr/ar systems
CN110855972B (zh) 图像处理方法以及电子设备和存储介质
CN103119946A (zh) 双堆叠式投影
CN205610834U (zh) 立体显示系统
CN113156649B (zh) 具有动态区域分辨率的虚拟/增强现实系统
CN106060513A (zh) 一种用于柱面立体全景视频网络播放的码流缓存机制
US9805612B2 (en) Interest-attention feedback method for separating cognitive awareness into different left and right sensor displays
CN108616752A (zh) 支持增强现实交互的头戴设备及控制方法
CN109710061A (zh) 影像的动感反馈系统和动感反馈方法
CN114746903B (zh) 虚拟、增强和混合现实系统和方法
US11107276B2 (en) Scaling voxels in a virtual space
CN110244837A (zh) 增强现实且具有虚拟影像叠加的体验眼镜及其成像方法
CN109815939A (zh) 基于人眼追踪的投影显示系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant