CN118259699A - 一种智能座舱的多屏联动控制方法 - Google Patents
一种智能座舱的多屏联动控制方法 Download PDFInfo
- Publication number
- CN118259699A CN118259699A CN202410662466.1A CN202410662466A CN118259699A CN 118259699 A CN118259699 A CN 118259699A CN 202410662466 A CN202410662466 A CN 202410662466A CN 118259699 A CN118259699 A CN 118259699A
- Authority
- CN
- China
- Prior art keywords
- monitoring
- screen
- active
- range
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000012544 monitoring process Methods 0.000 claims abstract description 379
- 238000006073 displacement reaction Methods 0.000 claims abstract description 36
- 235000002673 Dioscorea communis Nutrition 0.000 claims description 17
- 241000544230 Dioscorea communis Species 0.000 claims description 17
- 208000035753 Periorbital contusion Diseases 0.000 claims description 17
- 210000005252 bulbus oculi Anatomy 0.000 claims description 16
- 230000000007 visual effect Effects 0.000 claims description 14
- 239000013598 vector Substances 0.000 claims description 8
- 210000001508 eye Anatomy 0.000 claims description 5
- 239000002775 capsule Substances 0.000 claims 1
- 239000011324 bead Substances 0.000 description 14
- 210000003128 head Anatomy 0.000 description 13
- 238000010586 diagram Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D3/00—Control of position or direction
- G05D3/12—Control of position or direction using feedback
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明涉及多屏联动控制技术领域,尤其涉及一种智能座舱的多屏联动控制方法,包括:获取使用对象在智能座舱的位置数据确定基础参考角度;获取使用对象的第一追踪位置和第一参考角度;基于所述第一追踪位置和第一参考角度的范围确定第一视角范围;配置各监测屏的位置数据;获取实际视角范围;确定多屏联动中的主动监测屏和被动监测屏;根据变化后的第一参考角度和第一追踪位置重新确定各监测屏的监测方式;根据第一追踪位置在设定时间内的位移距离和移动频率调整主动监测区域;与现有技术相比,本发明通过多屏联动控制,能够及时切换各个监测屏的监测方式,兼顾主动监测的灵活性和被动监测的全面性,提高了多屏联动的监测效率。
Description
技术领域
本发明涉及多屏联动控制技术领域,尤其涉及一种智能座舱的多屏联动控制方法。
背景技术
在信息安全领域中,现有的信息安全监测方法是通过一个大客户嵌套子客户端,即在一个总体的框架下,用不同的插页调出不同用途的客户端,如实时监测,录像回放,GIS地图等。但这样做的缺陷是,同一时间只能观察和操作一种客户端,客户端之间的数据传输和联动无法完成,或者为了实现联动的效果,必须在不同的客户端之间频繁切换,严重影响用户体验和工作效率。
中国专利公开号:CN106101613A公开了一种多个监测屏幕的联动显示方法及系统,所述方法步骤为:获取当前地理位置信息,并在第一显示模块中显示所述当前地理位置信息;根据所述当前地理位置信息,获取视频监测信息,并在第二显示模块中显示所述视频监测信息;根据所述当前地理位置信息,获取录像回放信息,并在第三显示模块中显示所述录像回放信息;本发明还公开了多个监测屏幕的联动显示系统;由此可见,所述监测仅能够展示图像信息,但是无法实际对多个显示屏的信息同时进行监测导致监测效率低下的问题。
发明内容
为此,本发明提供一种智能座舱的多屏联动控制方法,用以克服现有技术无法实际对多个显示屏的信息同时进行监测导致监测效率低下的问题。
为实现上述目的,本发明提供一种智能座舱的多屏联动控制方法,包括:
获取使用对象在智能座舱的位置数据确定基础参考角度,其中,智能座舱的位置数据包括座舱高度和座舱靠背角度,所述基础参考角度为所述座舱靠背角度;
获取使用对象的第一追踪位置和第一参考角度;
基于所述第一追踪位置和第一参考角度的范围确定第一视角范围;
基于第一视角范围及所述基础参考角度配置各监测屏的位置数据;
获取配置各监测屏的位置数据后的实际视角范围;
基于所述第一参考角度和所述第一追踪位置确定多屏联动中的主动监测屏和被动监测屏,以及对应的各被动监测区域,其中,根据实际视角范围确定各监测屏的被动监测区域;
若所述第一参考角度或第一追踪位置发生变化,根据变化后的第一参考角度和第一追踪位置重新确定各监测屏的监测方式和对应的主动监测区域;
根据第一追踪位置在设定时间内的位移距离和移动频率,确定单个监测屏的实际观察范围,以调整主动监测屏的主动监测区域;
其中,各监测屏包括主动监测区域和被动监测区域;所述监测方式包括主动监测和被动监测。
进一步地,所述第一追踪位置根据使用对象的双眼眼球位置确定。
进一步地,所述获取配置各监测屏的位置数据后的实际视角范围包括:
配置各监测屏的位置数据后,在单个监测屏图像显示范围的各极限位置显示预设标记;
获取使用对象注视各极限位置对应的预设标记的眼球暴露数据;
根据所述眼球暴露数据确定使用对象的实际视角范围;
所述眼球暴露数据至少包括黑眼珠暴露百分比。
进一步地,所述基于第一参考角度和所述第一追踪位置确定多屏联动中的主动监测屏和被动监测屏,包括:
基于所述第一参考角度的角度值与预设角度范围的对应关系,确定多屏联动中的主动监测屏和被动监测屏,
若所述第一参考角度的角度值处于对应单个监测屏的预设角度范围内,并且所述第一追踪位置的高度数据处于对应单个监测屏的预设高度范围内,判定单个监测屏为所述主动监测屏,并判定其他监测屏为被动监测屏。
进一步地,所述根据实际视角范围确定各监测屏的被动监测区域包括:
若单个监测屏判定为被动监测屏,对应的监测屏的全部图像显示区域均为被动监测区域;
若单个监测屏判定为主动监测屏,将单个监测屏的图像显示范围与对应的实际视角范围的非重合区域设定为被动监测区域,并将单个监测屏的图像显示范围与对应的实际视角范围的重合区域设定为主动监测区域。
进一步地,获取所述第一参考角度的方法包括:
确定使用对象面部的第一基点和第二基点;
根据智能座舱确定使用对象的初始转轴;
根据所述第一基点和第二基点与所述初始转轴的相对位置变化,确定第一基点和第二基点相对于初始转轴的转动向量;
根据所述转动向量确定所述第一参考角度。
进一步地,所述重新确定各监测屏的监测方式和对应的主动监测区域包括:
若所述第一参考角度的角度值超出当前主动监测屏对应的预设角度范围,或所述第一追踪位置的高度超出当前主动监测屏对应的预设高度范围时,判定主动监测屏发生变化,并根据当前第一参考角度的角度值及当前第一追踪位置重新确定主动监测屏及被动监测屏,以及确定主动监测屏的主动监测区域和被动监测区域。
进一步地,在主动监测屏未发生变化条件下,根据第一追踪位置在设定时间内的平均位移距离和移动频率,确定单个监测屏的实际观察范围,以调整主动监测屏的主动监测区域,包括:
根据所述第一追踪位置在设定时间内的平均位移距离和移动频率,确定单个监测屏的实际观察范围与当前主动监测区域的关系,其中,
在实际观察范围小于当前主动监测区域时,根据实际观察范围重新确定主动监测屏的主动监测区域和被动监测区域。
进一步地,若所述移动频率大于等于预设频率,并且所述平均位移距离大于等于预设位移距离时,判定单个监测区域的实际观察范围大于当前主动监测区域,并判定无需调整主动监测屏的主动监测区域和被动监测区域;
若所述移动频率大于等于预设频率,并且所述平均位移距离小于预设位移距离时,判定单个监测区域的实际观察范围小于当前主动监测区域;
若移动频率小于预设频率,判定单个监测区域的实际观察范围小于当前主动监测区域;
所述平均位移距离为第一追踪位置在设定时间内各次变化的位移量的平均值,所述移动频率为第一追踪位置在设定时间内的单位时间移动次数。
进一步地,判定当前监测区域为所述被动监测区域时,设定当前监测区域的监测方式为所述被动监测;判定当前监测区域为所述主动监测区域时,设定当前监测区域的监测方式为所述主动监测。
与现有技术相比,本发明的有益效果在于,本发明通过多屏联动控制,通过智能判断主动监测屏和被动监测屏,及时切换各个监测屏对应的图像显示内容的监测方式,避免单个监测屏重复监测或未受到监测造成的监测效率低,兼顾主动监测的灵活性和被动监测的全面性,提高了多屏联动控制的监测效率。
进一步地,本发明通过眼球数据的监测能够精确获取主动监测区域,识别监测不到的位置,通过被动监测的弥补,进一步保证了监测的效率和精度。
进一步地,本发明中通过获取的第一参考角度基于使用对象在智能座舱中的左右转动角度确定,采用单个使用对象的个体数据准确确定第一视角范围,保证了本发明的联动控制准确度。
进一步地,本发明通过获取使用对象的实际视角能够确定单个监测屏是否能够充分注视覆盖,通过眼球数据的监测能够精确获取主动监测区域,识别监测不到的位置,通过被动监测的弥补,进一步保证了监测的效率和精度。
进一步地,本发明通过判断使用对象的第一追踪位置在设定时间内的位移距离和移动频率与预设值的关系,能够确定使用对象监测积极性,以针对性调整当前主动监测区域,提高了本发明的多屏联动系统的控制准确度和监测准确性。
附图说明
图1为本发明实施例智能座舱的多屏联动控制方法的流程图;
图2为本发明实施例主动监测屏的主动监测区域及被动监测区域示意图;
图3为本发明实施例获取第一参考角度的步骤图;
图4为本发明实施例获取配置各监测屏的位置数据后的实际视角范围的步骤图;
图中:1,主动监测屏;11,主动监测区域;12,被动监测区域;2,使用对象。
具体实施方式
为了使本发明的目的和优点更加清楚明白,下面结合实施例对本发明作进一步描述;应当理解,此处所描述的具体实施例仅仅用于解释本发明,并不用于限定本发明。
下面参照附图来描述本发明的优选实施方式。本领域技术人员应当理解的是,这些实施方式仅仅用于解释本发明的技术原理,并非在限制本发明的保护范围。
需要说明的是,在本发明的描述中,术语“上”、“下”、“左”、“右”、“内”、“外”等指示的方向或位置关系的术语是基于附图所示的方向或位置关系,这仅仅是为了便于描述,而不是指示或暗示所述装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,还需要说明的是,在本发明的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域技术人员而言,可根据具体情况理解上述术语在本发明中的具体含义。
本发明所述的智能座舱能够承载一个使用对象,通常采用坐姿,多屏联动控制的监测屏至少包括两个独立的监测屏,各监测屏显示的图像可以分别为独立图像,也可以为具有逻辑关系能够组成整体图像的一部分图像,监测屏的数量和智能座舱的数量不做具体限制。
还需说明的是,本发明所述的智能座舱至少包括座椅、可调节靠背角度的靠背和与靠背一体调节角度的头枕。并且,本实施例虽示出了一种具体的执行步骤,可以理解的是,本发明不局限于实施例中各步骤的执行顺序,在此不再赘述。
请参阅图1和图2所示,图1为本发明实施例智能座舱的多屏联动控制方法的流程图,图2为本发明实施例主动监测屏的主动监测区域及被动监测区域示意图,本发明实施例提供一种智能座舱的多屏联动控制方法,包括:
步骤S1,获取使用对象在智能座舱的位置数据确定基础参考角度,其中,智能座舱的位置数据包括座舱高度和座舱靠背角度,所述基础参考角度为所述座舱靠背角度;
步骤S2,获取使用对象的第一追踪位置和第一参考角度;
步骤S3,基于所述第一追踪位置和第一参考角度的范围确定第一视角范围;
步骤S4,基于第一视角范围及所述基础参考角度配置各监测屏的位置数据;
步骤S5,获取配置各监测屏的位置数据后的实际视角范围;
步骤S6,基于所述第一参考角度和所述第一追踪位置确定多屏联动中的主动监测屏和被动监测屏,以及对应的各被动监测区域,其中,根据实际视角范围确定各监测屏的被动监测区域;
步骤S7,若所述第一参考角度或第一追踪位置发生变化,根据变化后的第一参考角度和第一追踪位置重新确定各监测屏的监测方式和对应的主动监测区域;
步骤S8,根据第一追踪位置在设定时间内的位移距离和移动频率,确定单个监测屏的实际观察范围,以调整主动监测屏的主动监测区域;
其中,各监测屏包括主动监测区域和被动监测区域;所述监测方式包括主动监测和被动监测。图2中示出了使用对象2对应的主动监测屏1的主动监测区域11和被动监测区域12。
本发明通过多屏联动控制,能够及时切换各个监测屏的监测方式,兼顾主动监测的灵活性和被动监测的全面性,提高了多屏联动控制的监测效率。
具体而言,在步骤S2中,所述第一追踪位置根据使用对象的双眼眼球位置确定。
在一个具体的实施例中,第一追踪位置设置为使用对象的双眼眼球位置确定的两点的中心。
请参阅图3所示,具体而言,在步骤S2中,获取所述第一参考角度的方法包括:
步骤S21,确定使用对象面部的第一基点和第二基点,在实施中,可以选择使用对象的双眼眼球位置分别为第一基点和第二基点,并确定第一基点与第二基点的连线;
步骤S22,根据智能座舱确定使用对象的初始转轴,可以理解的是,由于使用对象头部紧贴座舱靠背的头枕,则,能够根据头枕受压的中心确定转轴使用对象头部转动的初始转轴经过的点,并设定经过该头枕受压的中心并与所述靠背角度平行的线为初始转轴;
步骤S23,根据所述第一基点和第二基点与所述初始转轴的相对位置变化,确定第一基点和第二基点相对于初始转轴的转动向量,可以理解的是,第一基点和第二基点的连线在使用对象头部转动前后相对于初始转轴的相对位置变化,即为所述转动向量,优选的,由于人体面部双眼在观察中一般状态下呈现平视为主,因此,优选的,在实施中仅考虑第一基点和第二基点的连线相对于初始转轴的转动和位移,而不考虑第一基点和第二基点的连线相对于初始转轴的夹角变化;
步骤S24,根据所述转动向量确定所述第一参考角度。
在实施中,获取使用者在座舱中乘坐后的使用对象头部双眼的第一基点和第二基点的初始位置,确定第一追踪位置,并根据第一追踪位置及初始转轴确定初始转动参考平面;获取使用者在座舱中乘坐后的使用对象头部向左右两侧正常转动分别的转动向量,确定在使用对象头部向左右两侧转动分别对应的夹角值,两个夹角值能够确定使用对象左右转动极限位置相对初始转轴及初始转动参考平面的转动夹角,即为第一参考角度的范围。第一参考角度为使用对象在一个确定的头部转动位置下相对于初始转轴转动对应的夹角,其取值在第一参考角度的范围内。
例如,获取使用对象头部向左侧转动相对于初始转轴转动对应的夹角值为-θ1,获取使用对象头部向右侧转动相对于初始转轴转动对应的夹角值为θ2(夹角的取值以顺时针为正值,逆时针为负值),则第一参考角度的范围为[-θ1,θ2]。
本发明中通过获取的第一参考角度基于使用对象在智能座舱中的左右转动角度确定,采用单个使用对象的个体数据准确确定第一视角范围,保证了本发明的联动控制准确度。
在步骤S3中,基于所述第一追踪位置和所述第一参考角度确定第一视角范围。
在实施中,第一视角范围为使用对象的最大视觉观察范围,其能够根据第一参考角度的范围确定第一视角范围的左右水平极值,并且,通过第一追踪位置的高度数据能够确定使用对象视觉观察的高度,第一视角范围包括第一视角平视范围和第一视角高度范围,因此,在一个具体的实施例中,在第一参考角度的范围为[-θ1,θ2],第一追踪位置的高度为ha时,若监测屏设定与使用对象的第一追踪位置间距为S0,其中,第一视角平视范围为[-S0×tanθ1,S0×tanθ2],第一视角平视范围的原点设定初始转动参考平面与监测屏相交线的水平坐标;第一视角高度范围为[ha-h0,ha+h0]。
具体而言,在步骤S4中,基于第一视角范围及所述基础参考角度配置各监测屏的位置数据。
在实施中,各监测屏作为一个整体具有长度及高度方向的极限尺寸,根据长度及高度方向的极限尺寸能够确定一个矩形监视区域并确定该矩形监视区域的几何中心,将该几何中心配置为第一视角平视范围的原点以及第一追踪位置的高度ha,测屏设定与使用对象的第一追踪位置间距为S0,各监测屏的显示屏角度调整至与所述座舱靠背角度平行,即完成对各监测屏的位置数据的配置。
请参阅图4所示,具体而言,在步骤S5中,所述获取配置各监测屏的位置数据后的实际视角范围包括:
步骤S51,配置各监测屏的位置数据后,在单个监测屏图像显示范围的各极限位置显示预设标记;
步骤S52,获取使用对象注视各极限位置对应的预设标记的眼球暴露数据;
步骤S53,根据所述眼球暴露数据确定使用对象的实际视角范围;
所述眼球暴露数据至少包括黑眼珠暴露百分比。
可以理解的是,在注视单个监测屏上的图像显示范围时,使用对象的第一追踪位置不移动,即使用对象在注视单个监测屏时无需转动屏幕。
在一个具体的实施例中,黑眼珠暴露百分比根据在对应位置的黑眼珠暴露面积与使用对象的黑眼珠总面积的比值计算。
具体而言,在步骤S53中,根据使用对象注视单个监测屏的各极限位置的眼球暴露数据确定使用对象的实际视角范围包括:
步骤S531,设定预设百分比,根据人眼的视觉获取特性,预设百分比设定为35%~40%之间的数值,优选的,预设百分比设定为35%;
步骤S532,计算使用对象注视单个极限位置对应的预设标记的黑眼珠暴露百分比,若黑眼珠暴露百分比小于等于预设百分比,判定实际视角范围大于单个监测屏的图像显示范围,将使用对象的实际视角范围设定为对应的单个监测屏的显示范围;
若黑眼珠暴露百分比大于预设百分比,判定实际视角范围小于单个监测屏的图像显示范围,并根据对应极限位置的黑眼珠暴露百分比确定使用对象注视该单个监测屏实际视角范围,其中:
设定单个监测屏的显示范围确定的矩形范围中的水平范围为[x1,x2],高度范围为[h1,h2],预设百分比B0设定为35%,黑眼珠暴露百分比设定为左右眼黑眼珠暴露百分比的平均值;其中,x1、x2、h1、h2均为以单个监测屏的显示范围确定的矩形范围的几何中心为原点以水平方向为X轴以竖直方向为Y轴确定的值,x1≤0,x2>0,h1≤0,h2>0。
设定水平范围的x1对应使用对象的左侧以及监测屏的左侧极限位置,水平范围的x2对应使用对象的右侧以及监测屏的右侧极限位置,高度范围的h1对应使用对象的下侧以及监测屏的下侧极限位置,高度范围的h2对应使用对象的上侧以及监测屏的上侧极限位置。
若单个监测屏的单侧极限位置对应的黑眼珠暴露百分比Bi大于预设百分比B0,则需相应缩小对应的范围取值,具体的,若是左侧极限位置对应的黑眼珠暴露百分比B1大于预设百分比B0,实际视角范围的水平范围[X1,X2]中X1=x1×B0/B1;若是右侧极限位置对应的黑眼珠暴露百分比B2大于预设百分比B0,实际视角范围的水平范围[X1,X2]中X2=x2×B0/B2;
若是下侧极限位置对应的黑眼珠暴露百分比B3大于预设百分比B0,实际视角范围的高度范围[H1,H2]中H1=h1×B0/B3;若是上侧极限位置对应的黑眼珠暴露百分比B4大于预设百分比B0,实际视角范围的高度范围[H1,H2]中H2=h2×B0/B4。
本发明通过获取使用对象的实际视角能够确定单个监测屏是否能够充分注视覆盖,通过眼球数据的监测能够精确获取主动监测区域,识别监测不到的位置,通过被动监测的弥补,进一步保证了监测的效率和精度。
具体而言,在步骤S6中,包括步骤S61,基于第一参考角度和所述第一追踪位置确定多屏联动中的主动监测屏和被动监测屏,其中:
基于所述第一参考角度的角度值与预设角度范围的对应关系,确定多屏联动中的主动监测屏和被动监测屏,若所述第一参考角度的角度值处于对应单个监测屏的预设角度范围内,并且所述第一追踪位置的高度数据处于对应单个监测屏的预设高度范围内,判定单个监测屏为所述主动监测屏,并判定其他监测屏为被动监测屏。
在实施中,各个监测屏对应的预设角度范围以及预设高度范围能够根据历史经验数据值获得,也能够根据步骤S5中对各个监测屏进行实际视角范围获取时对应的使用对象的第一参考角度和第一追踪位置的高度获得。
示例地,若相邻的三个大小相同水平布置的监测屏的在步骤S5时获得的第一参考角度分别是30°、25°和20°,取30°和25°的中值27.5°,以及25°和20°的中值22.5°作为判定该三个监测屏是否为主动监测屏的预设角度特征,例如,角度范围在22.5°~27.5°范围内,其为中间监测屏的预设角度范围,大于27.5°判定为主动监测屏为30°对应的监测屏的预设角度范围,小于22.5°判定为主动监测屏为20°对应的监测屏的预设角度范围。
示例地,若相邻的三个大小相同竖向布置的监测屏的在步骤S5时获得的第一追踪位置的高度分别是80cm、80.5cm和81cm,取80cm和80.5cm的中值80.25cm,以及80.5cm和81cm的中值80.75cm作为判定该三个监测屏是否为主动监测屏的预设高度特征,例如,高度范围在80.25cm~80.75cm范围内,其为中间监测屏的预设高度范围,大于80.75cm判定为主动监测屏为81cm对应的监测屏的预设高度范围,小于80.25cm判定为主动监测屏为80cm对应的监测屏的预设高度范围。
在步骤S6中,还包括步骤S62,根据实际视角范围确定各监测屏的被动监测区域,其中包括:
若单个监测屏判定为被动监测屏,对应的监测屏的全部图像显示区域均为被动监测区域;
若单个监测屏判定为主动监测屏,将单个监测屏的图像显示范围与对应的实际视角范围的非重合区域设定为被动监测区域,并将单个监测屏的图像显示范围与对应的实际视角范围的重合区域设定为主动监测区域。
本发明中,通过智能判断主动监测屏和被动监测屏,能够快速切换各监测屏对应的图像显示内容的监测方式,避免单个监测屏重复监测或未受到监测造成的监测效率低。
具体而言,在步骤S7中,若所述第一参考角度或第一追踪位置发生变化,根据变化后的第一参考角度和第一追踪位置重新确定各监测屏的监测方式和对应的主动监测区域;
在实施中,若第一参考角度的角度值超出当前主动监测屏对应的预设角度范围,或第一追踪位置的高度超出当前主动监测屏对应的预设高度范围时,判定主动监测屏发生变化,并根据当前第一参考角度的角度值及当前第一追踪位置重新确定主动监测屏及被动监测屏,以及确定主动监测屏的主动监测区域和被动监测区域。
若第一参考角度的角度值在当前主动监测屏对应的预设角度范围内,并且第一追踪位置的高度在当前主动监测屏对应的预设高度范围内时,判定主动监测屏未发生变化,无需重新确定主动监测屏及被动监测屏,无需重新确定主动监测屏的主动监测区域和被动监测区域。
具体而言,在步骤S8中,在主动监测屏未发生变化条件下,根据第一追踪位置在设定时间内的平均位移距离和移动频率,确定单个监测屏的实际观察范围,以调整主动监测屏的主动监测区域,包括:
步骤S81,根据第一追踪位置在设定时间内的平均位移距离和移动频率,确定单个监测屏的实际观察范围与当前主动监测区域的关系;
步骤S82,在实际观察范围小于当前主动监测区域时,根据实际观察范围重新确定主动监测屏的主动监测区域和被动监测区域。
可以理解的是,所述的设定时间为在主动监测屏未发生变化条件下的一段时间,优选的设定时间的时长在1min~3min之间,能够较好地获得使用对象的主动监测积极性对应的行为特征。
具体而言,在步骤S81中,若移动频率大于等于预设频率,并且平均位移距离大于等于预设位移距离时,判定单个监测区域的实际观察范围大于当前主动监测区域,此时,无需调整主动监测屏的主动监测区域和被动监测区域;
若移动频率大于等于预设频率,并且平均位移距离小于预设位移距离时,判定单个监测区域的实际观察范围小于当前主动监测区域;
若移动频率小于预设频率,判定单个监测区域的实际观察范围小于当前主动监测区域;
所述平均位移距离为第一追踪位置在设定时间内各次变化的位移量的平均值,移动频率为第一追踪位置在设定时间内的单位时间移动次数。预设位移距离通常设置为对应的主动监测屏确定的矩形监视区域的长边长度的0.3~0.5倍,优选地,设置为对应的主动监测屏确定的矩形监视区域的长边长度的0.35倍;预设频率设置为10~30次/min,优选地,设置为20次/min。
本发明通过判断使用对象的第一追踪位置在设定时间内的位移距离和移动频率与预设值的关系,能够确定使用对象监测积极性,以针对性调整当前主动监测区域,提高了本发明的多屏联动系统的控制准确度和监测准确性。
具体而言,在步骤S82中,在实际观察范围小于当前主动监测区域时,实际观察范围的确定方式包括:
情形1,若移动频率大于等于预设频率,并且位移距离小于预设位移距离时,判定观察范围不适合,采用定点收缩方式计算实际观察范围,并将实际观察范围设定为当前主动监测区域,将除当前主动监测区域外的主动监测屏的图像显示区域设定为被动监测区域,其中,调整后的实际观察范围的面积见下式(1):
(1);
情形1中,调整后的实际观察范围根据观察中心点和实际观察范围的面积确定,其中,观察中心点为设定时间内第一追踪位置的平均值对应的位置,并且调整后的实际观察范围与调整前的主动监测区域的几何形状相似。
情形2,若移动频率小于预设频率,判定观察范围过大,采用中心收缩方式计算实际观察范围,并将实际观察范围设定为当前主动监测区域,将除当前主动监测区域外的主动监测屏的图像显示区域设定为被动监测区域,其中,调整后的实际观察范围的面积见下式(2):
(2);
式(1)和(2)中,H为移动频率,H0为预设频率,S0为调整前的主动监测区域面积,S为调整后的实际观察范围的面积,L为平均位移距离,L0为预设位移距离。
情形2中,调整后的实际观察范围根据观察中心点和实际观察范围的面积确定,其中,观察中心点为调整前的主动监测区域的几何对应的几何中心位置,并且调整后的实际观察范围与调整前的主动监测区域的几何形状相似。
本发明通过根据智能识别使用对象的监测积极性,调整实际观察范围以匹配用户的监测特征,能够保证主动监测和被动监测的全面性,避免主动监测区域识别不准确造成监测区域遗漏,从而提高了多屏联动的监测准确性。
具体而言,判定当前监测区域为被动监测区域时,设定当前监测区域的监测方式为被动监测;判定当前监测区域为主动监测区域时,设定当前监测区域的监测方式为主动监测;
所述主动监测中,根据使用对象的指令确定监测报警是否触发。
所述被动监测中,根据监测屏画面与预设画面的变化百分比确定监测报警是否触发。
本发明通过将多屏监测的监测类型进行主动和被动的区分,以匹配对应的监测主体,提高了多屏监测的全面性,以及,通过多屏联动控制能够及时切换主动监测和被动监测,确保了多屏监测的机动性,并且通过设置智能座舱识别获取使用对象的姿态、体征数据,能够保证主动监测的数据获取的准确性,保证了本发明多屏联动控制的准确性和高效性。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征做出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
Claims (10)
1.一种智能座舱的多屏联动控制方法,其特征在于,包括:
获取使用对象在智能座舱的位置数据确定基础参考角度,其中,智能座舱的位置数据包括座舱高度和座舱靠背角度,所述基础参考角度为所述座舱靠背角度;
获取使用对象的第一追踪位置和第一参考角度;
基于所述第一追踪位置和第一参考角度的范围确定第一视角范围;
基于第一视角范围及所述基础参考角度配置各监测屏的位置数据;
获取配置各监测屏的位置数据后的实际视角范围;
基于所述第一参考角度和所述第一追踪位置确定多屏联动中的主动监测屏和被动监测屏,以及对应的各被动监测区域,其中,根据实际视角范围确定各监测屏的被动监测区域;
若所述第一参考角度或第一追踪位置发生变化,根据变化后的第一参考角度和第一追踪位置重新确定各监测屏的监测方式和对应的主动监测区域;
根据第一追踪位置在设定时间内的位移距离和移动频率,确定单个监测屏的实际观察范围,以调整主动监测屏的主动监测区域;
其中,各监测屏包括主动监测区域和被动监测区域;所述监测方式包括主动监测和被动监测。
2.根据权利要求1所述的智能座舱的多屏联动控制方法,其特征在于,所述第一追踪位置根据使用对象的双眼眼球位置确定。
3.根据权利要求2所述的智能座舱的多屏联动控制方法,其特征在于,所述获取配置各监测屏的位置数据后的实际视角范围包括:
配置各监测屏的位置数据后,在单个监测屏图像显示范围的各极限位置显示预设标记;
获取使用对象注视各极限位置对应的预设标记的眼球暴露数据;
根据所述眼球暴露数据确定使用对象的实际视角范围;
所述眼球暴露数据至少包括黑眼珠暴露百分比。
4.根据权利要求3所述的智能座舱的多屏联动控制方法,其特征在于,所述基于第一参考角度和所述第一追踪位置确定多屏联动中的主动监测屏和被动监测屏,包括:
基于所述第一参考角度的角度值与预设角度范围的对应关系,确定多屏联动中的主动监测屏和被动监测屏,
若所述第一参考角度的角度值处于对应单个监测屏的预设角度范围内,并且所述第一追踪位置的高度数据处于对应单个监测屏的预设高度范围内,判定单个监测屏为所述主动监测屏,并判定其他监测屏为被动监测屏。
5.根据权利要求4所述的智能座舱的多屏联动控制方法,其特征在于,所述根据实际视角范围确定各监测屏的被动监测区域包括:
若单个监测屏判定为被动监测屏,对应的监测屏的全部图像显示区域均为被动监测区域;
若单个监测屏判定为主动监测屏,将单个监测屏的图像显示范围与对应的实际视角范围的非重合区域设定为被动监测区域,并将单个监测屏的图像显示范围与对应的实际视角范围的重合区域设定为主动监测区域。
6.根据权利要求1所述的智能座舱的多屏联动控制方法,其特征在于,获取所述第一参考角度的方法包括:
确定使用对象面部的第一基点和第二基点;
根据智能座舱确定使用对象的初始转轴;
根据所述第一基点和第二基点与所述初始转轴的相对位置变化,确定第一基点和第二基点相对于初始转轴的转动向量;
根据所述转动向量确定所述第一参考角度。
7.根据权利要求5所述的智能座舱的多屏联动控制方法,其特征在于,所述重新确定各监测屏的监测方式和对应的主动监测区域包括:
若所述第一参考角度的角度值超出当前主动监测屏对应的预设角度范围,或所述第一追踪位置的高度超出当前主动监测屏对应的预设高度范围时,判定主动监测屏发生变化,并根据当前第一参考角度的角度值及当前第一追踪位置重新确定主动监测屏及被动监测屏,以及确定主动监测屏的主动监测区域和被动监测区域。
8.根据权利要求7所述的智能座舱的多屏联动控制方法,其特征在于,在主动监测屏未发生变化条件下,根据第一追踪位置在设定时间内的平均位移距离和移动频率,确定单个监测屏的实际观察范围,以调整主动监测屏的主动监测区域,包括:
根据所述第一追踪位置在设定时间内的平均位移距离和移动频率,确定单个监测屏的实际观察范围与当前主动监测区域的关系,其中,
在实际观察范围小于当前主动监测区域时,根据实际观察范围重新确定主动监测屏的主动监测区域和被动监测区域。
9.根据权利要求8所述的智能座舱的多屏联动控制方法,其特征在于,若所述移动频率大于等于预设频率,并且所述平均位移距离大于等于预设位移距离时,判定单个监测区域的实际观察范围大于当前主动监测区域,并判定无需调整主动监测屏的主动监测区域和被动监测区域;
若所述移动频率大于等于预设频率,并且所述平均位移距离小于预设位移距离时,判定单个监测区域的实际观察范围小于当前主动监测区域;
若移动频率小于预设频率,判定单个监测区域的实际观察范围小于当前主动监测区域;
所述平均位移距离为第一追踪位置在设定时间内各次变化的位移量的平均值,所述移动频率为第一追踪位置在设定时间内的单位时间移动次数。
10.根据权利要求1所述的智能座舱的多屏联动控制方法,其特征在于,判定当前监测区域为所述被动监测区域时,设定当前监测区域的监测方式为所述被动监测;判定当前监测区域为所述主动监测区域时,设定当前监测区域的监测方式为所述主动监测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410662466.1A CN118259699B (zh) | 2024-05-27 | 2024-05-27 | 一种智能座舱的多屏联动控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410662466.1A CN118259699B (zh) | 2024-05-27 | 2024-05-27 | 一种智能座舱的多屏联动控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118259699A true CN118259699A (zh) | 2024-06-28 |
CN118259699B CN118259699B (zh) | 2024-07-23 |
Family
ID=91605746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410662466.1A Active CN118259699B (zh) | 2024-05-27 | 2024-05-27 | 一种智能座舱的多屏联动控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118259699B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090050908A (ko) * | 2007-11-15 | 2009-05-20 | 현대자동차주식회사 | 가동식 표시 장치 |
KR20210083483A (ko) * | 2019-12-26 | 2021-07-07 | 현대모비스 주식회사 | 차량용 디스플레이 장치 |
WO2021197189A1 (zh) * | 2020-03-31 | 2021-10-07 | 深圳光峰科技股份有限公司 | 基于增强现实的信息显示方法、系统、装置及投影设备 |
CN114817021A (zh) * | 2022-04-19 | 2022-07-29 | 中山大学南昌研究院 | 一种基于眼动控制的智能座舱hmi评测方法 |
CN117549846A (zh) * | 2023-11-27 | 2024-02-13 | 奇瑞智能汽车科技(合肥)有限公司 | 车载屏幕自适应调节方法、装置、车辆及存储介质 |
CN117555503A (zh) * | 2023-05-18 | 2024-02-13 | 友达光电股份有限公司 | 多屏幕座舱显示系统 |
CN117962780A (zh) * | 2024-02-05 | 2024-05-03 | 上海工程技术大学 | 一种基于辅助驾驶的卡车视角监测装置及其监测系统 |
-
2024
- 2024-05-27 CN CN202410662466.1A patent/CN118259699B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090050908A (ko) * | 2007-11-15 | 2009-05-20 | 현대자동차주식회사 | 가동식 표시 장치 |
KR20210083483A (ko) * | 2019-12-26 | 2021-07-07 | 현대모비스 주식회사 | 차량용 디스플레이 장치 |
WO2021197189A1 (zh) * | 2020-03-31 | 2021-10-07 | 深圳光峰科技股份有限公司 | 基于增强现实的信息显示方法、系统、装置及投影设备 |
CN114817021A (zh) * | 2022-04-19 | 2022-07-29 | 中山大学南昌研究院 | 一种基于眼动控制的智能座舱hmi评测方法 |
CN117555503A (zh) * | 2023-05-18 | 2024-02-13 | 友达光电股份有限公司 | 多屏幕座舱显示系统 |
CN117549846A (zh) * | 2023-11-27 | 2024-02-13 | 奇瑞智能汽车科技(合肥)有限公司 | 车载屏幕自适应调节方法、装置、车辆及存储介质 |
CN117962780A (zh) * | 2024-02-05 | 2024-05-03 | 上海工程技术大学 | 一种基于辅助驾驶的卡车视角监测装置及其监测系统 |
Also Published As
Publication number | Publication date |
---|---|
CN118259699B (zh) | 2024-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5268271B2 (ja) | 画像表示装置および画像表示方法 | |
US10133073B2 (en) | Image generation apparatus and image generation method | |
CN108828779B (zh) | 一种头戴式显示设备 | |
JP4952995B2 (ja) | 画像表示システム、画像表示方法および画像表示プログラム | |
CN103380625A (zh) | 头戴式显示器及其位置偏差调整方法 | |
JP2015210297A (ja) | 立体画像表示装置,立体画像表示方法,及び立体画像表示プログラム | |
US20140240664A1 (en) | Method for measuring morpho-geometric parameters of a spectacle wearing individual | |
JP7311511B2 (ja) | ウェアラブルデバイスのテスト方法およびシステム | |
JP5102521B2 (ja) | 映像表示装置および両眼視機能検査装置 | |
CN118259699B (zh) | 一种智能座舱的多屏联动控制方法 | |
CN108351736A (zh) | 可穿戴显示器、图像显示装置和图像显示系统 | |
JP6500570B2 (ja) | 画像表示装置および画像表示方法 | |
CN103713867A (zh) | 一种显示方法及电子设备 | |
EP4050879A1 (en) | Display control device, display control method and recording medium | |
JP5250071B2 (ja) | 視機能検査装置 | |
JP3144172U (ja) | ディスプレイ角度調整装置 | |
US20240305768A1 (en) | Light field display for rendering perception-adjusted content, and dynamic light field shaping system and layer therefor | |
JP4752970B2 (ja) | 視機能検査装置 | |
JPH089423A (ja) | 遠隔モニタ装置 | |
US6573888B2 (en) | Image control system controlling traffic of a mobile body, such as an aircraft | |
US20020163574A1 (en) | Aperture controlled flicker reduction for active stereoscopic glasses | |
CN107422843A (zh) | 一种信息处理方法及电子设备 | |
CN110290410A (zh) | 影像位置调节方法、装置、系统及调节信息生成设备 | |
JP2018129826A (ja) | 立体画像表示装置及び立体画像表示方法 | |
EP4343701A1 (en) | Image generation method, apparatus and system, and computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A multi screen linkage control method for intelligent cockpit Granted publication date: 20240723 Pledgee: Industrial Bank Co.,Ltd. Beijing Sijiqing Branch Pledgor: BEIJING E-CREDENCE INFORMATION TECHNOLOGY Co.,Ltd. Registration number: Y2024110000281 |
|
PE01 | Entry into force of the registration of the contract for pledge of patent right |