CN116636808B - 一种智能座舱驾驶员视觉健康度分析方法与装置 - Google Patents
一种智能座舱驾驶员视觉健康度分析方法与装置 Download PDFInfo
- Publication number
- CN116636808B CN116636808B CN202310775569.4A CN202310775569A CN116636808B CN 116636808 B CN116636808 B CN 116636808B CN 202310775569 A CN202310775569 A CN 202310775569A CN 116636808 B CN116636808 B CN 116636808B
- Authority
- CN
- China
- Prior art keywords
- driver
- real
- time
- intelligent
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 109
- 238000004458 analytical method Methods 0.000 title claims abstract description 76
- 230000036541 health Effects 0.000 title claims abstract description 61
- 238000005286 illumination Methods 0.000 claims abstract description 62
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 59
- 230000000694 effects Effects 0.000 claims abstract description 49
- 230000004438 eyesight Effects 0.000 claims abstract description 39
- 238000000034 method Methods 0.000 claims abstract description 31
- 238000004364 calculation method Methods 0.000 claims description 109
- 230000001815 facial effect Effects 0.000 claims description 74
- 230000008859 change Effects 0.000 claims description 57
- 210000001747 pupil Anatomy 0.000 claims description 41
- 210000003128 head Anatomy 0.000 claims description 21
- 238000012216 screening Methods 0.000 claims description 18
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 210000000697 sensory organ Anatomy 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 9
- 239000000523 sample Substances 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 4
- 230000004308 accommodation Effects 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 abstract description 6
- 208000003464 asthenopia Diseases 0.000 abstract description 3
- 238000013461 design Methods 0.000 abstract 1
- 238000012827 research and development Methods 0.000 abstract 1
- 230000000875 corresponding effect Effects 0.000 description 25
- 210000000056 organ Anatomy 0.000 description 12
- 238000012545 processing Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/11—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/20—Workers
- A61B2503/22—Motor vehicles operators, e.g. drivers, pilots, captains
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Ophthalmology & Optometry (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Data Mining & Analysis (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明提供了一种智能座舱驾驶员视觉健康度分析方法与装置,其方法包括:搭建出智能座舱内驾驶员的实时虹膜姿态模型;基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及智能座舱内的屏幕活跃数据,搭建出驾驶员眼球受到的视觉活跃光干扰模型;对视觉活跃光干扰模型进行计量分析,获得驾驶员的视觉调节力;基于驾驶员的视觉调节力获得驾驶员视觉健康度分析结果;用以通过对驾驶员在智能座舱中受到的光干扰情况和自身视觉活跃状态的分析,实现对智能座舱内驾驶员的视觉调节力的计量分析,进而实现对智能座舱驾驶员的视觉健康度的准确分析评估,通过本发明在智能座舱研发阶段的合理设计可避免座舱内光环境导致的驾驶员视疲劳,提高安全性。
Description
技术领域
本发明涉及车辆驾驶控制技术领域,特别涉及一种智能座舱驾驶员视觉健康度分析方法与装置。
背景技术
目前,车辆智能座舱内设置的电子后视镜、流媒体后视镜、抬头显示器、车载显示屏、氛围灯等座舱光学设备越来越多,另外传统的光学内外后视镜逐渐被电子后视镜、流媒体后视镜替代,座舱内光环境对驾驶员视觉干扰明显。
但是,驾驶员在开车时目光焦距在无限远处,但在智能屏幕时需要将焦距调整到屏幕上,频繁远焦/近焦调整和智能屏幕发出的蓝光干扰会导致视觉调节力负荷过大,进而导致视疲劳,而视觉疲劳会影响驾驶安全,因此非常有必要对驾驶过程中的驾驶员视觉健康程度进行分析。
因此,本发明提出了一种智能座舱驾驶员视觉健康度分析方法与装置。
发明内容
本发明提供一种智能座舱驾驶员视觉健康度分析方法与装置,用以通过对驾驶员在智能座舱中受到的光干扰情况和自身视觉活跃状态的分析,实现对智能座舱内驾驶员的视觉调节力的计量分析,进而实现对智能座舱驾驶员的视觉健康度的准确分析评估。
本发明提供一种智能座舱驾驶员视觉健康度分析方法,包括:
S1:搭建出智能座舱内驾驶员的实时虹膜姿态模型;
S2:基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及智能座舱内的屏幕活跃数据,搭建出驾驶员眼球受到的视觉活跃光干扰模型;
S3:对视觉活跃光干扰模型进行计量分析,获得驾驶员的视觉调节力;
S4:基于驾驶员的视觉调节力获得驾驶员视觉健康度分析结果。
优选的,所述的智能座舱驾驶员视觉健康度分析方法,S1:搭建出智能座舱内驾驶员的实时虹膜姿态模型,包括:
S101:获取智能座舱内驾驶员的实时头部姿态数据和实时面部头像;
S102:基于实时头部姿态数据和实时面部图像,确定出驾驶员的实时虹膜姿态数据;
S103:基于实时虹膜姿态数据搭建出实时虹膜姿态模型。
优选的,所述的智能座舱驾驶员视觉健康度分析方法,S102:基于实时头部姿态数据和实时面部图像,确定出驾驶员的实时虹膜姿态数据,包括:
基于实时面部图像的总对称度,在驾驶员的多张不同角度的实时面部图像中筛选出标准面部图像;
确定出标准面部图像中的虹膜轮廓和瞳孔轮廓,并确定出虹膜轮廓和瞳孔轮廓与预设标识点在标准面部图像中的第一相对位置数据;
基于实时头部姿态数据确定出预设标识点的实时三维坐标表示,基于虹膜轮廓和瞳孔轮廓与预设标识点在标准面部图像中的第一相对位置数据以及预设标识点的实时三维坐标表示,确定出驾驶员的实时虹膜姿态数据。
优选的,所述的智能座舱驾驶员视觉健康度分析方法,基于实时面部图像的总对称度,在驾驶员的多张不同角度的实时面部图像中筛选出标准面部图像,包括:
实时获取驾驶员的多张不同角度的实时面部图像;
基于轮廓识别算法对实时面部图像进行轮廓识别,获得每个实时面部图像的初识轮廓,基于参考面部图像中的参考五官轮廓与参考面部轮廓的第二相对位置数据,对实时面部图像中的所有初识轮廓进行筛选,获得多个初筛轮廓,对初筛轮廓进行去噪,获得实时面部图像中的五官轮廓;
基于五官轮廓和实时面部图像的面部轮廓,对实时面部图像中的面部区域进行左右划分,获得实时面部图像的左面部区域和右面部区域,并对五官轮廓进行左右划分,获得左五官轮廓和右五官轮廓;
基于实时面部图像的左面部区域和右面部区域的第一对称度以及左五官轮廓和右五官轮廓的第二对称度,确定出实时面部图像的总对称度;
将驾驶员的多张不同角度的实时面部图像中最大总对称度对应的实时面部图像当作标准面部图像。
优选的,所述的智能座舱驾驶员视觉健康度分析方法,S2:基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及智能座舱内的屏幕活跃数据,搭建出驾驶员眼球受到的视觉活跃光干扰模型,包括:
S201:基于设置在智能座舱内的光电传感器探头,获取驾驶员眼球受到的实时光照数据;
S202:基于智能座舱在最新计算周期内的实时智能控制信息,确定出智能座舱内每个智能屏幕的活跃时段作为最新计算周期的屏幕活跃数据;
S203:基于最新计算周期的屏幕活跃数据中每个智能屏幕的活跃时段和实时虹膜姿态模型确定出驾驶员在最新计算周期内的动态聚焦推测范围;
S204:基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及动态聚焦推测范围,搭建出驾驶员眼球在最新计算周期内的视觉活跃光干扰模型。
优选的,所述的智能座舱驾驶员视觉健康度分析方法,S202:基于智能座舱在最新计算周期内的实时智能控制信息,确定出智能座舱内每个智能屏幕的活跃时段作为最新计算周期的屏幕活跃数据,包括:
基于智能座舱在最新计算周期内的实时智能控制信息确定出当前行驶状态数据;
以智能座舱内每个智能屏幕的信息变换时刻为划分界限,对最新计算周期进行周期划分,获得多个计算子周期;
基于实时智能控制信息确定出每次信息变换时刻的变换信息和当前行驶状态数据,确定出每个计算子周期的关注权重;
基于关注权重和关注权重阈值,在所有智能屏幕中筛选出每个计算子周期的推测关注屏幕;
将智能屏幕被判定为推测关注屏幕的计算子周期汇总,获得智能屏幕的活跃时段,并将智能座舱内每个智能屏幕的活跃时段当作最新计算周期的屏幕活跃数据。
优选的,所述的智能座舱驾驶员视觉健康度分析方法,S203:基于最新计算周期的屏幕活跃数据中每个智能屏幕的活跃时段和实时虹膜姿态模型确定出驾驶员在最新计算周期内的动态聚焦推测范围,包括:
基于最新计算周期的屏幕活跃数据中每个智能屏幕的活跃时段,在智能座舱的三维预设模型中标记出驾驶者在最新计算周期内每个时刻的第一估计聚焦空间范围区域;
基于最新计算周期内的实时虹膜姿态模型,确定出最新计算周期内的瞳孔坐标表示变化数据和虹膜坐标表示变化数据;
基于瞳孔坐标表示变化数据确定出最新计算周期内的瞳孔尺寸变化数据,基于瞳孔尺寸变化数据,确定出驾驶者在最新计算周期内的聚焦深度范围变化数据,基于虹膜坐标表示变化数据确定出最新计算周期内的聚焦方位范围变化数据;
将聚焦深度范围变化数据和聚焦方位范围变化数据进行对齐,获得驾驶员在最新计算周期内的聚焦空间范围变化数据,基于聚焦空间范围变化数据,在智能座舱的三维预设模型中标记出驾驶者在最新计算周期内每个时刻的第二估计聚焦空间范围区域;
基于最新计算周期内每个时刻的第一估计聚焦空间范围区域和第二估计聚焦空间范围区域的重合空间范围,获得最新计算周期内每个时刻的聚焦推测空间范围获得动态聚焦推测范围。
优选的,所述的智能座舱驾驶员视觉健康度分析方法,S204:基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及动态聚焦推测范围,搭建出驾驶员眼球在最新计算周期内的视觉活跃光干扰模型,包括:
将实时虹膜姿态模型与智能座舱的三维预设模型进行合并,获得合并模型;
将驾驶员眼球受到的实时光照数据标记在合并模型中,获得光照标记模型;
将动态聚焦推测范围标记在合并模型中,获得驾驶员眼球在最新计算周期内视觉活跃光干扰模型。
优选的,所述的智能座舱驾驶员视觉健康度分析方法,S3:对视觉活跃光干扰模型进行计量分析,获得驾驶员的视觉调节力,包括:
基于视觉活跃光干扰模型确定出每个时刻的动态聚焦推测范围、驾驶员的眼球在每个时刻受到的光照范围和光照强度以及动态像距;
基于每个时刻的动态聚焦推测范围和光照范围确定出对应时刻的光干扰权重;
基于每个时刻的光照强度和光干扰权重,计算出每个时刻的光干扰系数;
基于动态像距和光干扰系数计算出驾驶员的视觉调节力。
本发明提供一种智能座舱驾驶员视觉健康度分析装置,包括:
第一模型搭建模块,用于搭建出智能座舱内驾驶员的实时虹膜姿态模型;
第二模型搭建模块,用于基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及智能座舱内的屏幕活跃数据,搭建出驾驶员眼球受到的视觉活跃光干扰模型;
数据计量分析模块,用于对视觉活跃光干扰模型进行计量分析,获得驾驶员的视觉调节力;
视觉健康度分析模块,用于基于驾驶员的视觉调节力获得驾驶员视觉健康度分析结果。
以上技术区别于现有技术的有益效果为:通过对驾驶员在智能座舱中受到的光干扰情况和自身视觉活跃状态的分析,实现对智能座舱内驾驶员的视觉调节力的计量分析,进而实现对智能座舱驾驶员的视觉健康度的准确分析评估。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中的智能座舱驾驶员视觉健康度分析方法流程图;
图2为本发明实施例中的成像式亮度计支架示意图;
图3为本发明实施例中的智能座舱驾驶员视觉健康度分析装置的内含模块示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例1:
本发明提供了一种智能座舱驾驶员视觉健康度分析方法,参考图1,包括:
S1:搭建出智能座舱(智能座舱即为设置有多个智能显示屏幕的车辆座舱)内驾驶员的实时虹膜姿态模型(实时虹膜姿态模型即为表征驾驶员的虹膜外轮廓和瞳孔外轮廓在三维空间中的坐标数据的模型);
S2:基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据(实时光照数据包含驾驶员眼球受到的实时光照范围和实时光照强度)以及智能座舱内的屏幕活跃数据(屏幕活跃数据包含智能座舱内每个智能屏幕显示需要被驾驶员不同程度地聚焦关注的信息的时段),搭建出驾驶员眼球受到的视觉活跃光干扰模型(视觉活跃光干扰模型即为表征驾驶员在最新计算周期内的视觉虹膜和瞳孔的姿态数据及眼球在智能座舱内的聚焦空间范围以及眼球受到的实时光照数据的模型,总言之,是表征驾驶员的视觉活跃状态和受到的光干扰情况的动态数据模型,其中,最新计算周期即为预设的对驾驶员视觉健康度分析时的间隔周期,即采用该最新计算周期内获得的所有的实时光照数据和屏幕活跃数据以及实时虹魔姿态模型可以确定出驾驶员在该计算周期内的视觉活跃光干扰模型,进而基于后续S3和S4步骤确定出驾驶员的视觉调节力和驾驶员视觉健康度分析结果);
经过上述步骤S1至S2可以将驾驶员在最新计算周期内的的自身视觉活跃状态和外界光干扰状态进行数据化后用模型表示,更加准确直观,也便于后续视觉健康度的分析;
S3:对视觉活跃光干扰模型进行计量分析,获得驾驶员的视觉调节力(视觉调节力即为表征驾驶者当前对聚焦位置的调节能力,视觉调节力越大表征对聚焦位置的调节能力越好,视疲劳现象越不严重,反之亦然),基于视觉活跃光干扰模型可以利用驾驶员在最新计算周期内的的自身视觉活跃状态和外界光干扰状态数据化的结果,计算出驾驶员的视觉调节力,使得计算出的视觉调节力充分考虑到自身活跃状态和外界光干扰情况两者,实现对最新计算周期内的视觉调节力的准确评估;
S4:基于驾驶员的视觉调节力获得驾驶员视觉健康度分析结果;
基于视觉调节力可以直接分析获得驾驶员的视觉健康分析结果,视觉健康分析结果可以用视觉健康度表示,该步骤可以基于视觉调节力检索预设的视觉调节力-视觉健康度列表,进而确定出驾驶员视觉健康度分析结果;
上述实施例通过S1至S4的过程,基于驾驶员在智能座舱内的实时虹膜姿态模型和屏幕活跃数据,实现对驾驶员在智能座舱中受到的光干扰情况和自身视觉活跃状态的分析,并进一步实现对智能座舱内驾驶员的视觉调节力的计量分析,最终实现对智能座舱驾驶员的视觉健康度的准确分析评估。
实施例2:
在实施例1的基础上,所述的智能座舱驾驶员视觉健康度分析方法,S1:搭建出智能座舱内驾驶员的实时虹膜姿态模型,包括:
S101:获取智能座舱内驾驶员的实时头部姿态数据(实时头部姿态数据即为表征智能座舱内驾驶员的头部的实时三维坐标表示数据,即包含驾驶员外表面所有点的三维坐标的数据,可以基于贴于头部的定位传感器进行感知测量获得,也可以通过多角度多方位红外扫描等方式进行感知测量获得)和实时面部头像(实时面部图像即为实时获取的包含驾驶员全部或部分面部结构的图像);
S102:基于实时头部姿态数据和实时面部图像,确定出驾驶员的实时虹膜姿态数据(实时虹膜姿态数据即为包含驾驶员的虹膜外轮廓和瞳孔外轮廓的三维坐标表示的数据);
S103:基于实时虹膜姿态数据搭建出实时虹膜姿态模型(该步骤即为将实时虹膜姿态数据中包含的所有三维坐标表示数据在预设坐标系中表示,即将实时虹膜姿态数据进行三维化后获得实时虹膜姿态模型);
本发明的所有实施例中的三维坐标数据都是用同一预设坐标系表示的;
基于该实施例中上述步骤S101至S103,实现了基于获取的智能座舱内驾驶员的实时头部姿态数据和实时面部图像,实现对虹膜姿态数据的准确确定,并进一步实现实时虹膜姿态模型的准确搭建。
实施例3:
在实施例2的基础上,所述的智能座舱驾驶员视觉健康度分析方法,S102:基于实时头部姿态数据和实时面部图像,确定出驾驶员的实时虹膜姿态数据,包括:
基于实时面部图像的总对称度(总对称度即为表征实时面部图像中包含的驾驶员面部区域的左右面部区域的对称程度的数值),在驾驶员的多张不同角度的实时面部图像(该多张不同角度的实时面部图像是从在最新计算周期内获取的驾驶员的所有实时面部图像中筛选出的,不同角度即为获取实时面部图像的角度不同或者实时面部图像中包含的用户的面部转向角度不同)中筛选出标准面部图像(标准面部图像即为驾驶员的多张不同角度的实时面部图像中筛选出的总对称度最大的实时面部图像,因此,当总对称度越大大时,表征该实时面部图像包含的驾驶员的实际面部结构越多,标准面部图像可为后续虹膜姿态的定位提供参考);
确定出标准面部图像中的虹膜轮廓(虹膜轮廓即为标准面部图像中的虹膜的外轮廓,近似于圆轮廓)和瞳孔轮廓(瞳孔轮廓即为标准面部图像中的瞳孔的外轮廓,也近似于圆轮廓),并确定出虹膜轮廓和瞳孔轮廓与预设标识点(即为预先设定的标识点,该标识点为驾驶员的实际面部结构中的位置点,例如可以是下巴最低点,又或者是左/右眼角点、鼻尖点等不会随着用户聚焦范围的移动而移动的位置点)在标准面部图像中的第一相对位置数据(第一相对位置数据即为表征虹膜轮廓与预设标识点在标准面部图像中的相对位置的数据以及瞳孔轮廓与预设标识点在标准面部图像中的相对位置的数据);
基于实时头部姿态数据确定出预设标识点的实时三维坐标表示(即为在实时头部姿态数据中确定出预设标识点在实际三维空间中的坐标表示当作实时三维坐标表示),基于虹膜轮廓和瞳孔轮廓与预设标识点在标准面部图像中的第一相对位置数据以及预设标识点的实时三维坐标表示,确定出驾驶员的实时虹膜姿态数据(即为基于第一相对位置数据中虹膜轮廓和预设标识点的相对位置数据以及预设标识点的实时三维坐标表示,确定出驾驶员的虹膜轮廓在实际空间中的坐标表示,基于第一相对位置数据中的瞳孔轮廓和预设标识点的相对位置数据以及预设标识点的实时三维坐标表示,确定出驾驶员的瞳孔轮廓在实际空间中的坐标表示,将虹膜轮廓和瞳孔轮廓在实际空间中的坐标表示当作驾驶员在对应时刻的虹膜姿态数据);
基于该实施例的上述所有步骤,在实时获取的驾驶员的面部图像中筛选出包含面部结构最多的标准面部图像,并基于虹膜轮廓和瞳孔轮廓与预设标识点在标准面部图像中的相对位置数据,以及在实时头部姿数据中确定出的预设标识点在实际空间中的实际三维坐标表示,确定出虹膜轮廓和瞳孔轮廓在实际空间中的三维坐标数据,进而准确确定出了驾驶员的实时虹膜姿态数据。
实施例4:
在实施例3的基础上,所述的智能座舱驾驶员视觉健康度分析方法,基于实时面部图像的总对称度,在驾驶员的多张不同角度的实时面部图像中筛选出标准面部图像,包括:
实时获取驾驶员的多张不同角度的实时面部图像(即为在最新计算周期内获取的所有实时面部图像中筛选出角度不同或者实时面部图像中包含的用户的面部转向角度不同的实时面部图像);
基于轮廓识别算法(例如Canny算法)对实时面部图像进行轮廓识别,获得每个实时面部图像的初识轮廓(初识轮廓即为基于轮廓识别算法识别出的实时面部图像中包含的轮廓),基于参考面部图像(参考面部图像即为预先准备的从正面获取的包含人体完整面部结构的面部图像)中的参考五官轮廓(参考五官轮廓即为参考面部图像中的五官轮廓,包含双眼轮廓、嘴轮廓、鼻轮廓、耳轮廓等)与参考面部轮廓的第二相对位置数据(第二相对位置数据即为表征五官轮廓与参考面部轮廓的相对位置的数据),对实时面部图像中的所有初识轮廓进行筛选,获得多个初筛轮廓(即为基于第二相对位置数据对初识轮廓进行筛选后剩余的轮廓),对初筛轮廓进行去噪,获得实时面部图像中的五官轮廓;基于参考面部图像中的参考无关论剑与参考面部图像的相对位置数据,实现对识别出的轮廓的精准筛选,再基于去噪过程,更加提高了确定出的五官轮廓的准确度;
基于五官轮廓和实时面部图像的面部轮廓,对实时面部图像中的面部区域进行左右划分,获得实时面部图像的左面部区域和右面部区域,并对五官轮廓进行左右划分,获得左五官轮廓和右五官轮廓的实现步骤如下:
以五官轮廓中鼻轮廓的最低点和面部轮廓的最低点之间的连线当作划分界限,对实时面部图像和五官轮廓进行左右划分,获得实时面部图像的左面部区域(左右划分后的实时面部图像中位于左半边的部分面部图像区域)和右面部区域(左右划分后的实时面部图像中位于右半边的部分面部图像区域)以及左五官轮廓(左右划分后的五官轮廓中位于左面部区域的部分五官轮廓)和右五官轮廓(左右划分后的五官轮廓中位于右面部区域的部分五官轮廓);
基于实时面部图像的左面部区域和右面部区域的第一对称度以及左五官轮廓和右五官轮廓的第二对称度,确定出实时面部图像的总对称度(即为将第一对称度和第二对称度的平均值当作总对称度);
通过对实时面部图像的区域和轮廓的左右划分并计算出左右区域和左右轮廓的对称度,进一步准确地计算出了实时面部图像的总对称度;
将驾驶员的多张不同角度的实时面部图像中最大总对称度对应的实时面部图像当作标准面部图像;
其中,基于参考面部图像中的参考五官轮廓与参考面部轮廓的第二相对位置数据,对实时面部图像中的所有初识轮廓进行筛选,获得多个初筛轮廓的实现步骤如下:
将初识轮廓中与实时面部图像的相对位置不满足第二相对位置数据的轮廓剔除,并将剔除后剩余的初识轮廓当做初筛轮廓。
其中,对初筛轮廓进行去噪可通过滤波器实现;
其中,实时面部图像的左面部区域和右面部区域的第一对称度以及左五官轮廓和右五官轮廓的第二对称度的计算过程如下:
将右面部区域进行镜像处理后与左面部区域进行轮廓对齐;
基于对齐后的结果,确定出相同位置点在左面部区域和镜像处理并对齐后的右面部区域中对应的不同像素值的差值与该相同位置点在左面部区域中的像素值的比值,当作该相同位置点的第一像素偏差度;
将1与所有相同位置点的第一像素偏差度的均值的差值,当作实时面部图像的左面部区域和右面部区域的第一对称度;
将右五官轮廓进行镜像处理后与左五官轮廓进行轮廓对齐;
基于对齐后的结果,确定出相同位置点在左五官轮廓和镜像处理并对齐后的右五官轮廓中对应的不同像素值的差值与该相同位置点在左五官轮廓中的像素值的比值,当作该相同位置点的第二像素偏差度;
将1与所有相同位置点的第二像素偏差度的均值的差值,当作左五官轮廓和右五官轮廓的第二对称度。
实施例5:
在实施例1的基础上,所述的智能座舱驾驶员视觉健康度分析方法,S2:基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及智能座舱内的屏幕活跃数据,搭建出驾驶员眼球受到的视觉活跃光干扰模型,参考图2,包括:
S201:基于设置在智能座舱内的光电传感器探头(该光电传感器探头安装在图2所示的成像式亮度计支架上,并可检测出驾驶员眼球受到的光照强度和范围),获取驾驶员眼球受到的实时光照数据;
S202:基于智能座舱在最新计算周期内的实时智能控制信息(实时智能控制信息即为与智能座舱内所有智能屏幕的实时显示信息和实时接收的控制信息相关的信息,例如:导航仪显示路线更新,电子后视镜变换显示角度等),确定出智能座舱内每个智能屏幕的活跃时段(活跃时段即为从智能屏幕的显示信息更新时刻和接收到控制信息的时刻开始后的预设时长的时间段)作为最新计算周期的屏幕活跃数据;通过对实时智能控制信息进行分析确定出智能座舱内每个智能屏幕的活跃时段进而确定出屏幕活跃数据;
S203:基于最新计算周期的屏幕活跃数据中每个智能屏幕的活跃时段和实时虹膜姿态模型确定出驾驶员在最新计算周期内的动态聚焦推测范围(动态聚焦推测范围即为表征驾驶员的聚焦点在最新计算周期内可能所在的空间范围);基于屏幕活跃数据和实时虹膜姿态模型,可以从驾驶员的自身虹膜状态和外界情况两个角度考虑并推测出驾驶员的聚焦范围
S204:基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及动态聚焦推测范围,搭建出驾驶员眼球在最新计算周期内的视觉活跃光干扰模型;
基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及动态聚焦推测范围,搭建出视觉活跃光干扰模型为后续视觉调节力的计量分析提供了多方面数据。
实施例6:
在实施例5的基础上,所述的智能座舱驾驶员视觉健康度分析方法,S202:基于智能座舱在最新计算周期内的实时智能控制信息,确定出智能座舱内每个智能屏幕的活跃时段作为最新计算周期的屏幕活跃数据,包括:
基于智能座舱在最新计算周期内的实时智能控制信息确定出当前行驶状态数据(当前行驶状态数据即为基于实时智能控制信息确定出的关于车辆当前形式状态的数据,例如:行驶速度或行驶路况);
以智能座舱内每个智能屏幕的信息变换时刻(信息变换时刻即为智能屏幕上的显示信息的类别进行关键性变换的时刻)为划分界限,对最新计算周期进行周期划分,获得多个计算子周期(即为由最新计算周期划分获得的子周期);
基于智能屏幕的信息变换时刻对最新计算周期进行周期划分,使得后续对子周期的关注权重分析的结果便于确定推测关注屏幕;
基于实时智能控制信息确定出每次信息变换时刻的变换信息(变换信息即为智能屏幕在信息变换时刻开始显示的变换信息)和当前行驶状态数据,确定出每个计算子周期的关注权重(该过程的实现步骤如下:基于变换信息的种类检索预设的变换信息种类-关注权重表,确定出第一关注权重,基于当前行驶状态数据检索预设的行驶状态数据-关注权重表,确定出第二关注权重,将计算子周期的第一关注权重和第二关注权重的均值当作对应计算子周期的关注权重,其中,关注权重即为表征在对应计算子周期的开始时刻产生信息变换的智能屏幕可能被驾驶员聚焦关注的可能性(或程度)的数值);
该步骤中基于计算子周期的变换信息种类和行驶状态数据,检索对应的预设权重表,确定出关注权重,使得结合车辆行驶状态和智能屏幕的显示信息两个方面准确推测出计算子周期的关注权重;
基于关注权重和关注权重阈值,在所有智能屏幕中筛选出每个计算子周期的推测关注屏幕(将在关注权重不小于关注权重阈值的计算子周期的的开始时刻产生信息变换的智能屏幕当作对应计算子周期的推测关注屏幕);
通过将关注权重和关注阈值的比较,将关注权重较大的智能屏幕当作推测关注屏幕;
将智能屏幕被判定为推测关注屏幕的计算子周期汇总,获得智能屏幕的活跃时段,并将智能座舱内每个智能屏幕的活跃时段当作最新计算周期的屏幕活跃数据;
基于上述关注权重的分析实现了从智能屏幕在不同计算子周期的关注权重的分析,确定出每个计算子周期中可能被驾驶者聚焦关注的智能屏幕,比直接对驾驶者眼球追踪确定聚焦对象更加准确。
实施例7:
在实施例6的基础上,所述的智能座舱驾驶员视觉健康度分析方法,S203:基于最新计算周期的屏幕活跃数据中每个智能屏幕的活跃时段和实时虹膜姿态模型确定出驾驶员在最新计算周期内的动态聚焦推测范围,包括:
基于最新计算周期的屏幕活跃数据中每个智能屏幕的活跃时段,在智能座舱的三维预设模型中标记出驾驶者在最新计算周期内每个时刻的第一估计聚焦空间范围区域(即为将智能屏幕的所在空间范围标记在对应活跃时段的三维预设模型中获得一动态标记模型,将动态标记模型中智能屏幕所在的空间范围当作驾驶者在对应活跃时段的每个时刻的聚焦空间范围对应的块区域);实现了将基于智能屏幕的活跃时段确定出的驾驶者的聚焦空间范围区域的模型化;
基于最新计算周期内的实时虹膜姿态模型,确定出最新计算周期内的瞳孔坐标表示变化数据(瞳孔坐标表示数据即为基于实时虹膜姿态模型确定出瞳孔的外轮廓的坐标表示在最新计算周期内的变化数据)和虹膜坐标表示变化数据(虹膜表示变化数据即为基于实时虹膜姿态模型确定出虹膜的外轮廓的坐标表示在最新计算周期内的变化数据);
基于瞳孔坐标表示变化数据确定出最新计算周期内的瞳孔尺寸变化数据(瞳孔尺寸变化数据中的瞳孔尺寸用瞳孔半径或直径表示),基于瞳孔尺寸变化数据,确定出驾驶者在最新计算周期内的聚焦深度范围变化数据(即为表征驾驶者在最新计算周期内的聚焦点与眼球视网膜之间的距离范围的变化情况的数据),基于虹膜坐标表示变化数据确定出最新计算周期内的聚焦方位范围变化数据(即为表征驾驶者在最新计算周期内的聚焦方向范围与眼球正视前方时的视线方向之间的偏移角度范围的变化情况的数据);实现了基于自身虹膜坐标和瞳孔坐标的变化情况推测出聚焦空间范围;
将聚焦深度范围变化数据和聚焦方位范围变化数据进行对齐(即时序对齐),获得驾驶员在最新计算周期内的聚焦空间范围变化数据(聚焦空间范围变化数据包含对齐后的聚焦深度范围变化数据和聚焦方位范围变化数据),基于聚焦空间范围变化数据,在智能座舱的三维预设模型中标记出驾驶者在最新计算周期内每个时刻的第二估计聚焦空间范围区域(第二估计聚焦空间范围区域即为基于聚焦空间范围变化数据确定出驾驶者在最新计算周期内每个时刻的聚焦空间范围形成的块区域);实现了将基于自身虹膜坐标和瞳孔坐标的变化情况确定出的驾驶者的聚焦空间范围区域的模型化;
基于最新计算周期内每个时刻的第一估计聚焦空间范围区域和第二估计聚焦空间范围区域的重合空间范围(也是一个空间范围对应的块区域),获得最新计算周期内每个时刻的聚焦推测空间范围获得动态聚焦推测范围;
将基于两种方式确定出的聚焦空间范围的交集当作动态聚焦推测范围,更加提高乐最终确定出的动态聚焦推测范围的准确度;
其中,基于瞳孔尺寸变化数据,确定出驾驶者在最新计算周期内的聚焦深度范围变化数据的实现步骤即为:
基于瞳孔尺寸变化数据中的每个变化值,检索瞳孔尺寸值-聚焦深度范围值列表,确定出每个变化值对应的聚焦深度范围值;
基于变化值的时序将所有聚焦深度范围值排序获得聚焦深度范围变化数据;
其中,基于虹膜坐标表示变化数据确定出最新计算周期内的聚焦方位范围变化数据的实现步骤包括:
将虹膜坐标表示变化数据中每个时刻的虹膜坐标数据中所有坐标值的均值当作对应时刻的中心坐标值,将中心坐标值对应的位置点和预设坐标系的原点的连线相对于预设坐标系的横坐标轴方向的偏移角度,当作对应时刻的聚焦范围;
按照时序将所有时刻的聚焦方位进行排序拟合获得最新计算周期内的聚焦方位范围变化数据;
基于聚焦空间范围变化数据,在智能座舱的三维预设模型中标记出驾驶者在最新计算周期内每个时刻的第二估计聚焦空间范围区域的实现过程如下:
基于聚焦空间范围变化数据中的聚焦方位范围变化数据确定出每个时刻的聚焦方向范围,基于聚焦空间范围变化数据中的聚焦深度范围变化数据确定出每个时刻的聚焦深度范围,将满足对应时刻的聚焦方向范围和聚焦深度范围的点汇总后形成的空间当作对应时刻的第二估计聚焦空间范围区域。
实施例8:
在实施例5的基础上,所述的智能座舱驾驶员视觉健康度分析方法,S204:基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及动态聚焦推测范围,搭建出驾驶员眼球在最新计算周期内的视觉活跃光干扰模型,包括:
将实时虹膜姿态模型与智能座舱的三维预设模型进行合并,获得合并模型(即为实时虹膜姿态模型与智能座舱的三维预设模型合并后的模型);
将驾驶员眼球受到的实时光照数据标记在合并模型中,获得光照标记模型(即为将实时光照数据标记到合并模型后获得的新的模型);
将动态聚焦推测范围标记在合并模型中,获得驾驶员眼球在最新计算周期内视觉活跃光干扰模型;
实现将实时虹膜姿态数据、驾驶员眼球受到的实时光照数据以及驾驶者的动态聚焦推测范围的动态变化数据进行合并模型化、具象化。
实施例9:
在实施例1的基础上,所述的智能座舱驾驶员视觉健康度分析方法,S3:对视觉活跃光干扰模型进行计量分析,获得驾驶员的视觉调节力,包括:
基于视觉活跃光干扰模型确定出每个时刻的动态聚焦推测范围、驾驶员的眼球在每个时刻受到的光照范围(用光照来源的角度范围表示)和光照强度(即一个光照范围对应一个光照强度值,是直接通过设置在智能座舱内的光电传感器探头获得的)以及动态像距(即为将动态聚焦推测范围中每个时刻的聚焦推测范围对应的块区域中所有坐标点的坐标值的均值与当前虹膜外轮廓的所有坐标点的坐标值的均值之间的距离);
基于每个时刻的动态聚焦推测范围和光照范围确定出对应时刻的光干扰权重(利用每个时刻的动态聚焦推测范围和光照范围,检索预设的光干扰权重列表,确定出对应时刻的光干扰权重,其中,光干扰权重列表为包含不同动态聚焦推测范围和不同的光照范围对应的光干扰权重值的列表);基于光照范围和动态聚焦推测范围精准确定出光干扰权重;
基于每个时刻的光照强度和光干扰权重,计算出每个时刻的光干扰系数(即为基于每个时刻的光照强度和光干扰权重,检索预设的光干扰系数列表,确定出每个时刻的光干扰系数,其中,光干扰系数列表即为包含不同光照强度和不同光干扰权重对应的光干扰系数的列表);进一步基于光干扰权重和光照强度精准确定出光干扰系数;
基于动态像距和光干扰系数计算出驾驶员的视觉调节力的计算过程如下:
确定出动态像距中像距不超过三米的持续时间,将持续时间与最新计算周期的总持续时间的比值与光干扰系数的乘积当作驾驶员的视觉调节力的即时损害值;
将标准视觉调节力与即时损害值的差值当作驾驶员的视觉调节力;
基于上述方法可以准确计算出驾驶员的视觉调节力的即时损害值,并进一步计算出表征驾驶员当前的视觉调节能力的视觉调节力。
实施例10:
在实施例1的基础上,一种智能座舱驾驶员视觉健康度分析装置,参考图3,包括:
第一模型搭建模块,用于搭建出智能座舱内驾驶员的实时虹膜姿态模型;
第二模型搭建模块,用于基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及智能座舱内的屏幕活跃数据,搭建出驾驶员眼球受到的视觉活跃光干扰模型;
数据计量分析模块,用于对视觉活跃光干扰模型进行计量分析,获得驾驶员的视觉调节力;
视觉健康度分析模块,用于基于驾驶员的视觉调节力获得驾驶员视觉健康度分析结果。
上述实施例通过第一模型搭建模块、第二模型搭建模块、数据计量分析模块、视觉健康度分析模块实现了以下的有益效果:基于驾驶员在智能座舱内的实时虹膜姿态模型和屏幕活跃数据,实现对驾驶员在智能座舱中受到的光干扰情况和自身视觉活跃状态的分析,并进一步实现对智能座舱内驾驶员的视觉调节力的计量分析,最终实现对智能座舱驾驶员的视觉健康度的准确分析评估。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (8)
1.一种智能座舱驾驶员视觉健康度分析方法,其特征在于,包括:
S1:搭建出智能座舱内驾驶员的实时虹膜姿态模型;
S2:基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及智能座舱内的屏幕活跃数据,搭建出驾驶员眼球受到的视觉活跃光干扰模型;
S3:对视觉活跃光干扰模型进行计量分析,获得驾驶员的视觉调节力;
S4:基于驾驶员的视觉调节力获得驾驶员视觉健康度分析结果;
其中,S2:基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及智能座舱内的屏幕活跃数据,搭建出驾驶员眼球受到的视觉活跃光干扰模型,包括:
S201:基于设置在智能座舱内的光电传感器探头,获取驾驶员眼球受到的实时光照数据;
S202:基于智能座舱在最新计算周期内的实时智能控制信息,确定出智能座舱内每个智能屏幕的活跃时段作为最新计算周期的屏幕活跃数据;
S203:基于最新计算周期的屏幕活跃数据中每个智能屏幕的活跃时段和实时虹膜姿态模型确定出驾驶员在最新计算周期内的动态聚焦推测范围;
S204:基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及动态聚焦推测范围,搭建出驾驶员眼球在最新计算周期内的视觉活跃光干扰模型;
其中,S3:对视觉活跃光干扰模型进行计量分析,获得驾驶员的视觉调节力,包括:
基于视觉活跃光干扰模型确定出每个时刻的动态聚焦推测范围、驾驶员的眼球在每个时刻受到的光照范围和光照强度以及动态像距;
基于每个时刻的动态聚焦推测范围和光照范围确定出对应时刻的光干扰权重;
基于每个时刻的光照强度和光干扰权重,计算出每个时刻的光干扰系数;
基于动态像距和光干扰系数计算出驾驶员的视觉调节力。
2.根据权利要求1所述的智能座舱驾驶员视觉健康度分析方法,其特征在于,S1:搭建出智能座舱内驾驶员的实时虹膜姿态模型,包括:
S101:获取智能座舱内驾驶员的实时头部姿态数据和实时面部头像;
S102:基于实时头部姿态数据和实时面部图像,确定出驾驶员的实时虹膜姿态数据;
S103:基于实时虹膜姿态数据搭建出实时虹膜姿态模型。
3.根据权利要求2所述的智能座舱驾驶员视觉健康度分析方法,其特征在于,S102:基于实时头部姿态数据和实时面部图像,确定出驾驶员的实时虹膜姿态数据,包括:
基于实时面部图像的总对称度,在驾驶员的多张不同角度的实时面部图像中筛选出标准面部图像;
确定出标准面部图像中的虹膜轮廓和瞳孔轮廓,并确定出虹膜轮廓和瞳孔轮廓与预设标识点在标准面部图像中的第一相对位置数据;
基于实时头部姿态数据确定出预设标识点的实时三维坐标表示,基于虹膜轮廓和瞳孔轮廓与预设标识点在标准面部图像中的第一相对位置数据以及预设标识点的实时三维坐标表示,确定出驾驶员的实时虹膜姿态数据。
4.根据权利要求3所述的智能座舱驾驶员视觉健康度分析方法,其特征在于,基于实时面部图像的总对称度,在驾驶员的多张不同角度的实时面部图像中筛选出标准面部图像,包括:
实时获取驾驶员的多张不同角度的实时面部图像;
基于轮廓识别算法对实时面部图像进行轮廓识别,获得每个实时面部图像的初识轮廓,基于参考面部图像中的参考五官轮廓与参考面部轮廓的第二相对位置数据,对实时面部图像中的所有初识轮廓进行筛选,获得多个初筛轮廓,对初筛轮廓进行去噪,获得实时面部图像中的五官轮廓;
基于五官轮廓和实时面部图像的面部轮廓,对实时面部图像中的面部区域进行左右划分,获得实时面部图像的左面部区域和右面部区域,并对五官轮廓进行左右划分,获得左五官轮廓和右五官轮廓;
基于实时面部图像的左面部区域和右面部区域的第一对称度以及左五官轮廓和右五官轮廓的第二对称度,确定出实时面部图像的总对称度;
将驾驶员的多张不同角度的实时面部图像中最大总对称度对应的实时面部图像当作标准面部图像。
5.根据权利要求1所述的智能座舱驾驶员视觉健康度分析方法,其特征在于,S202:基于智能座舱在最新计算周期内的实时智能控制信息,确定出智能座舱内每个智能屏幕的活跃时段作为最新计算周期的屏幕活跃数据,包括:
基于智能座舱在最新计算周期内的实时智能控制信息确定出当前行驶状态数据;
以智能座舱内每个智能屏幕的信息变换时刻为划分界限,对最新计算周期进行周期划分,获得多个计算子周期;
基于实时智能控制信息确定出每次信息变换时刻的变换信息和当前行驶状态数据,确定出每个计算子周期的关注权重;
基于关注权重和关注权重阈值,在所有智能屏幕中筛选出每个计算子周期的推测关注屏幕;
将智能屏幕被判定为推测关注屏幕的计算子周期汇总,获得智能屏幕的活跃时段,并将智能座舱内每个智能屏幕的活跃时段当作最新计算周期的屏幕活跃数据。
6.根据权利要求5所述的智能座舱驾驶员视觉健康度分析方法,其特征在于,S203:基于最新计算周期的屏幕活跃数据中每个智能屏幕的活跃时段和实时虹膜姿态模型确定出驾驶员在最新计算周期内的动态聚焦推测范围,包括:
基于最新计算周期的屏幕活跃数据中每个智能屏幕的活跃时段,在智能座舱的三维预设模型中标记出驾驶者在最新计算周期内每个时刻的第一估计聚焦空间范围区域;
基于最新计算周期内的实时虹膜姿态模型,确定出最新计算周期内的瞳孔坐标表示变化数据和虹膜坐标表示变化数据;
基于瞳孔坐标表示变化数据确定出最新计算周期内的瞳孔尺寸变化数据,基于瞳孔尺寸变化数据,确定出驾驶者在最新计算周期内的聚焦深度范围变化数据,基于虹膜坐标表示变化数据确定出最新计算周期内的聚焦方位范围变化数据;
将聚焦深度范围变化数据和聚焦方位范围变化数据进行对齐,获得驾驶员在最新计算周期内的聚焦空间范围变化数据,基于聚焦空间范围变化数据,在智能座舱的三维预设模型中标记出驾驶者在最新计算周期内每个时刻的第二估计聚焦空间范围区域;
基于最新计算周期内每个时刻的第一估计聚焦空间范围区域和第二估计聚焦空间范围区域的重合空间范围,获得最新计算周期内每个时刻的聚焦推测空间范围获得动态聚焦推测范围。
7.根据权利要求1所述的智能座舱驾驶员视觉健康度分析方法,其特征在于,S204:基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及动态聚焦推测范围,搭建出驾驶员眼球在最新计算周期内的视觉活跃光干扰模型,包括:
将实时虹膜姿态模型与智能座舱的三维预设模型进行合并,获得合并模型;
将驾驶员眼球受到的实时光照数据标记在合并模型中,获得光照标记模型;
将动态聚焦推测范围标记在合并模型中,获得驾驶员眼球在最新计算周期内视觉活跃光干扰模型。
8.一种智能座舱驾驶员视觉健康度分析装置,其特征在于,包括:
第一模型搭建模块,用于搭建出智能座舱内驾驶员的实时虹膜姿态模型;
第二模型搭建模块,用于基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及智能座舱内的屏幕活跃数据,搭建出驾驶员眼球受到的视觉活跃光干扰模型;
数据计量分析模块,用于对视觉活跃光干扰模型进行计量分析,获得驾驶员的视觉调节力;
视觉健康度分析模块,用于基于驾驶员的视觉调节力获得驾驶员视觉健康度分析结果;
其中,第二模型搭建模块基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及智能座舱内的屏幕活跃数据,搭建出驾驶员眼球受到的视觉活跃光干扰模型的过程,包括:
基于设置在智能座舱内的光电传感器探头,获取驾驶员眼球受到的实时光照数据;
基于智能座舱在最新计算周期内的实时智能控制信息,确定出智能座舱内每个智能屏幕的活跃时段作为最新计算周期的屏幕活跃数据;
基于最新计算周期的屏幕活跃数据中每个智能屏幕的活跃时段和实时虹膜姿态模型确定出驾驶员在最新计算周期内的动态聚焦推测范围;
基于实时虹膜姿态模型和驾驶员眼球受到的实时光照数据以及动态聚焦推测范围,搭建出驾驶员眼球在最新计算周期内的视觉活跃光干扰模型;
其中,数据计量分析模块对视觉活跃光干扰模型进行计量分析,获得驾驶员的视觉调节力的过程,包括:
基于视觉活跃光干扰模型确定出每个时刻的动态聚焦推测范围、驾驶员的眼球在每个时刻受到的光照范围和光照强度以及动态像距;
基于每个时刻的动态聚焦推测范围和光照范围确定出对应时刻的光干扰权重;
基于每个时刻的光照强度和光干扰权重,计算出每个时刻的光干扰系数;
基于动态像距和光干扰系数计算出驾驶员的视觉调节力。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310775569.4A CN116636808B (zh) | 2023-06-28 | 2023-06-28 | 一种智能座舱驾驶员视觉健康度分析方法与装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310775569.4A CN116636808B (zh) | 2023-06-28 | 2023-06-28 | 一种智能座舱驾驶员视觉健康度分析方法与装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116636808A CN116636808A (zh) | 2023-08-25 |
CN116636808B true CN116636808B (zh) | 2023-10-31 |
Family
ID=87624841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310775569.4A Active CN116636808B (zh) | 2023-06-28 | 2023-06-28 | 一种智能座舱驾驶员视觉健康度分析方法与装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116636808B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2905586A1 (fr) * | 2006-09-28 | 2008-03-14 | Siemens Vdo Automotive Sas | "procede de localisation des pupilles" |
CN101540090A (zh) * | 2009-04-14 | 2009-09-23 | 华南理工大学 | 基于多元信息融合的驾驶员疲劳监测装置及其监测方法 |
CN104574817A (zh) * | 2014-12-25 | 2015-04-29 | 清华大学苏州汽车研究院(吴江) | 一种适用于智能手机的基于机器视觉疲劳驾驶预警系统 |
CN107085988A (zh) * | 2017-05-10 | 2017-08-22 | 交通运输部公路科学研究所 | 一种基于人机工程学的汽车驾驶模拟器后视镜布置方法 |
CN108711452A (zh) * | 2018-01-25 | 2018-10-26 | 鲁东大学 | 基于视觉的人体健康状态分析方法和系统 |
CN111128382A (zh) * | 2019-12-30 | 2020-05-08 | 清华大学 | 一种人工智能多模成像分析装置 |
CN212484555U (zh) * | 2020-07-22 | 2021-02-05 | 交通运输部公路科学研究所 | 一种疲劳驾驶多源信息检测系统 |
CN113130076A (zh) * | 2021-04-25 | 2021-07-16 | 广东小天才科技有限公司 | 一种视觉疲劳判断方法、系统、设备和存储介质 |
WO2022123237A1 (en) * | 2020-12-08 | 2022-06-16 | Vision Technologies Ltd | Vision aid device |
WO2023045717A1 (en) * | 2021-09-26 | 2023-03-30 | Mercedes-Benz Group AG | Method and device for intelligent health management of a cabin of a vehicle |
CN116112768A (zh) * | 2023-01-04 | 2023-05-12 | 歌尔股份有限公司 | 一种抗光干扰摄像装置及电子设备 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8348429B2 (en) * | 2008-03-27 | 2013-01-08 | Doheny Eye Institute | Optical coherence tomography device, method, and system |
EP2278909B1 (en) * | 2008-04-22 | 2016-02-17 | Annidis Health Systems Corp. | Retinal fundus surveillance method and apparatus |
EP2413699B1 (en) * | 2009-04-01 | 2019-11-20 | Tearscience, Inc. | Ocular surface interferometry (osi) apparatus for imaging an ocular tear film |
US8992019B2 (en) * | 2012-01-06 | 2015-03-31 | Baylor College Of Medicine | System and method for evaluating ocular health |
US10231614B2 (en) * | 2014-07-08 | 2019-03-19 | Wesley W. O. Krueger | Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance |
US9463132B2 (en) * | 2013-03-15 | 2016-10-11 | John Castle Simmons | Vision-based diagnosis and treatment |
JP6542582B2 (ja) * | 2015-05-20 | 2019-07-10 | 株式会社トプコン | 眼科検査支援システム |
US10716502B2 (en) * | 2015-07-22 | 2020-07-21 | Panasonic Intellectual Property Corporation Of America | Method for predicting arousal level and arousal level prediction apparatus |
US10643741B2 (en) * | 2016-11-03 | 2020-05-05 | RightEye, LLC | Systems and methods for a web platform hosting multiple assessments of human visual performance |
CN109613706B (zh) * | 2019-01-28 | 2021-05-07 | 京东方科技集团股份有限公司 | 针对智能头戴设备的调整方法、设备及存储介质 |
CN114207736A (zh) * | 2019-08-30 | 2022-03-18 | 佳能株式会社 | 信息处理装置、信息处理方法、信息处理系统和程序 |
-
2023
- 2023-06-28 CN CN202310775569.4A patent/CN116636808B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2905586A1 (fr) * | 2006-09-28 | 2008-03-14 | Siemens Vdo Automotive Sas | "procede de localisation des pupilles" |
CN101540090A (zh) * | 2009-04-14 | 2009-09-23 | 华南理工大学 | 基于多元信息融合的驾驶员疲劳监测装置及其监测方法 |
CN104574817A (zh) * | 2014-12-25 | 2015-04-29 | 清华大学苏州汽车研究院(吴江) | 一种适用于智能手机的基于机器视觉疲劳驾驶预警系统 |
CN107085988A (zh) * | 2017-05-10 | 2017-08-22 | 交通运输部公路科学研究所 | 一种基于人机工程学的汽车驾驶模拟器后视镜布置方法 |
CN108711452A (zh) * | 2018-01-25 | 2018-10-26 | 鲁东大学 | 基于视觉的人体健康状态分析方法和系统 |
CN111128382A (zh) * | 2019-12-30 | 2020-05-08 | 清华大学 | 一种人工智能多模成像分析装置 |
CN212484555U (zh) * | 2020-07-22 | 2021-02-05 | 交通运输部公路科学研究所 | 一种疲劳驾驶多源信息检测系统 |
WO2022123237A1 (en) * | 2020-12-08 | 2022-06-16 | Vision Technologies Ltd | Vision aid device |
CN113130076A (zh) * | 2021-04-25 | 2021-07-16 | 广东小天才科技有限公司 | 一种视觉疲劳判断方法、系统、设备和存储介质 |
WO2023045717A1 (en) * | 2021-09-26 | 2023-03-30 | Mercedes-Benz Group AG | Method and device for intelligent health management of a cabin of a vehicle |
CN116112768A (zh) * | 2023-01-04 | 2023-05-12 | 歌尔股份有限公司 | 一种抗光干扰摄像装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN116636808A (zh) | 2023-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101962302B1 (ko) | 구조화 광을 사용한 안구 추적 | |
CN110703904B (zh) | 一种基于视线跟踪的增强虚拟现实投影方法及系统 | |
JP5137833B2 (ja) | 視線方向検出装置および視線方向検出方法 | |
CN104200192B (zh) | 驾驶员注视检测系统 | |
US20180081434A1 (en) | Eye and Head Tracking | |
US10902635B2 (en) | Line-of-sight detection device | |
EP3252566B1 (en) | Face and eye tracking and facial animation using facial sensors within a head-mounted display | |
WO2019137065A1 (zh) | 图像处理方法、装置、车载抬头显示系统及车辆 | |
WO2020029444A1 (zh) | 一种驾驶员驾驶时注意力检测方法和系统 | |
JP6560463B1 (ja) | ヘッドマウントディスプレイ内の顔センサを使用する顔および目のトラッキングおよび顔アニメーション | |
US10430988B2 (en) | Facial animation using facial sensors within a head-mounted display | |
CN113421346B (zh) | 一种增强驾驶感的ar-hud抬头显示界面的设计方法 | |
KR20190088524A (ko) | 안경 렌즈 에지의 표시를 설정하기 위한 방법 및 장치 및 컴퓨터 프로그램 | |
CN106214118A (zh) | 一种基于虚拟现实的眼球运动监测系统 | |
EP3893090B1 (en) | Method for eye gaze tracking | |
CN109634431B (zh) | 无介质浮空投影视觉追踪互动系统 | |
JP2018099174A (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
JP2018090170A (ja) | ヘッドアップディスプレイシステム | |
WO2021042504A1 (zh) | 一种基于虚拟现实技术的视网膜检测系统 | |
CN114360043B (zh) | 模型参数标定方法、视线追踪方法、装置、介质及设备 | |
CN116051631A (zh) | 光斑标注方法及系统 | |
CN113160260B (zh) | 一种头眼双通道智能人机交互系统及运行方法 | |
CN111417885B (zh) | 用于确定增强现实眼镜的姿态的系统和方法 | |
CN116636808B (zh) | 一种智能座舱驾驶员视觉健康度分析方法与装置 | |
JP6906943B2 (ja) | 車載器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |