CN110276334A - 一种针对用户车辆使用情况的分析方法及系统 - Google Patents
一种针对用户车辆使用情况的分析方法及系统 Download PDFInfo
- Publication number
- CN110276334A CN110276334A CN201910583751.3A CN201910583751A CN110276334A CN 110276334 A CN110276334 A CN 110276334A CN 201910583751 A CN201910583751 A CN 201910583751A CN 110276334 A CN110276334 A CN 110276334A
- Authority
- CN
- China
- Prior art keywords
- subject
- visual
- visual interest
- information
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Abstract
本发明实施例所提供的针对用户车辆使用情况的分析方法,包括:获取被试的待检测视频;待检测视频包含被试根据任务卡片上的试验任务使用车辆过程中眼部运动的图像信息和被试的视觉兴趣区;根据眼部运动的图像信息和被试的视觉兴趣区,生成被试的视觉兴趣信息;视觉兴趣信息包含被试的注视点路径信息和被试的每个视觉兴趣区的被注视次数;统计每个被试的视觉兴趣信息,生成视觉兴趣统计结果。通过眼动仪获取到用户在使用车辆过程中的眼部运动的图像信息和视觉兴趣区,以得到用户的视觉兴趣信息,根据用户的视觉兴趣信息更加精准、高效的得到用户在使用车辆过程中的真实想法,降低了人力成本,同时避免了各种突发情况。
Description
技术领域
本发明涉及汽车人机交互用户调研领域,具体而言,涉及一种针对用户车辆使用情况的分析方法及系统。
背景技术
目前汽车人机交互(Human Machine Interface,HMI)的用户调研方法主要还是使用访谈法,其中又细分为个人访谈和焦点小组,个人访谈又叫个人深访、深度访谈等,是指用提问交流的方式了解用户体验的过程。访谈的内容包括产品的使用过程、使用感受、品牌印象、个人经历等。
焦点小组同时访谈多人,焦点小组是以座谈会的形式进行,访谈集中在一个或一类主题,用结构化的方式揭示目标用户的经验、感受、态度、愿望,并且努力地呈现其背后的理由。焦点小组是经过长期实践而稳定下来的一种用户体验研究的方法,它能巩固在一两个小时之内直接面对多名用户,获得第一手的信息。焦点小组一般控制在6-8人之间。
个人访谈依赖于用户的主观报告,用户为了讨好主持人,有时会故意说出主持人想要的答案,甚至无意识的说出讨好他人的答案,也常常会出现用户拒绝配合的情况,即用户出现抗拒心理。为了尽量避免这种情况,就需要主持人有丰富的访谈经验,对各类突发情况都能及时应对。但即使最高明的主持人也无法确认获取的就是用户的真实想法。而且有时用户也不知道自己真正想要的是什么,访谈结果并不能作为用户真实想法的唯一依据。
并且访谈法获取的结果都是定性结果,很难量化,即使较为成熟的打分技术也有一定的缺陷。因为每个人的衡量标准不同,不同人给出的分数并不能直接进行比较,想要进一步统计分析,需要做大量的工作才可。
发明内容
本发明实施例的目的在于提供一种针对用户车辆使用情况的分析方法及系统,以达到高效精准的获取用户车辆使用情况的目的。
为了实现上述目的,本发明实施例采用的技术方案如下:
第一方面,本发明实施例提出一种针对用户车辆使用情况的分析方法,包括:获取被试的待检测视频;所述待检测视频包含所述被试根据任务卡片上的试验任务使用车辆过程中眼部运动的图像信息和所述被试的视觉兴趣区;所述视觉兴趣区为车辆内部不同的视觉区域;根据所述眼部运动的图像信息和所述被试的视觉兴趣区,生成所述被试的视觉兴趣信息;所述视觉兴趣信息包含所述被试的注视点路径信息和所述被试的每个所述视觉兴趣区的被注视次数;统计每个所述被试的视觉兴趣信息,生成视觉兴趣统计结果;所述视觉兴趣统计结果包含多个被试的注视点路径统计信息和主要视觉兴趣区的统计信息,所述主要视觉兴趣区为多个所述视觉兴趣区中,对应的被注视次数大于或等于阈值的视觉兴趣区。
第二方面,本发明实施例还提出一种针对用户车辆使用情况的分析系统,包括:眼动仪及处理器,所述眼动仪与处理器电连接;其中,所述眼动仪,用于获取被试的待检测视频;所述待检测视频包含所述被试根据任务卡片上的试验任务使用车辆过程中眼部运动的图像信息和所述被试的视觉兴趣区;所述视觉兴趣区为车辆内部不同的视觉区域;所述处理器,用于根据所述眼部运动的图像信息和所述被试的视觉兴趣区,生成所述被试的视觉兴趣信息;所述视觉兴趣信息包含所述被试的注视点路径信息和所述被试的每个所述视觉兴趣区的被注视次数;以及还用于统计每个所述被试的视觉兴趣信息,生成视觉兴趣统计结果;所述视觉兴趣统计结果包含多个被试的注视点路径统计信息和主要视觉兴趣区的统计信息,所述主要视觉兴趣区为多个所述视觉兴趣区中,对应的被注视次数大于或等于阈值的视觉兴趣区。
本发明实施例所提供的针对用户车辆使用情况的分析方法,应用于汽车人机交互用户调研领域,包括:获取被试的待检测视频;待检测视频包含被试根据任务卡片上的试验任务使用车辆过程中眼部运动的图像信息和被试的视觉兴趣区;视觉兴趣区为车辆内部不同的视觉区域;根据眼部运动的图像信息和被试的视觉兴趣区,生成被试的视觉兴趣信息;视觉兴趣信息包含被试的注视点路径信息和被试的每个视觉兴趣区的被注视次数;统计每个被试的视觉兴趣信息,生成视觉兴趣统计结果;视觉兴趣统计结果包含多个被试的注视点路径统计信息和主要视觉兴趣区的统计信息,主要视觉兴趣区为多个视觉兴趣区中,对应的被注视次数大于或等于阈值的视觉兴趣区。通过眼动仪获取到用户在使用车辆过程中的眼部运动的图像信息和视觉兴趣区,以得到用户的视觉兴趣信息,根据用户的视觉兴趣信息更加精准、高效的得到用户在使用车辆过程中的真实想法,降低了人力成本,同时避免了各种突发情况。
本发明的其他特征和优点将在随后的说明书阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明实施例了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例所提供的针对用户车辆使用情况的分析系统的方框示意图。
图2示出了本发明实施例所提供的针对用户车辆使用情况的分析方法的流程图。
图标:100-针对用户车辆使用情况的分析系统;110-眼动仪; 120-处理器。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
请参照图1,为本发明实施例所提供的针对用户车辆使用情况的分析系统的方框示意图。
针对用户车辆使用情况的分析系统100包括眼动仪110以及处理器120,眼动仪110与处理器120电连接。
眼动仪110为可穿戴式眼动仪,在试验之前给被试穿戴好。眼动仪110包括场景摄像头和眼动摄像头,眼动仪110用于获取待检测视频。
场景摄像头用于获取被试试验过程中眼睛所看见的所有场景,由被试看到的所有场景组成待检测视频。眼动摄像头用于获取被试试验过程中眼部运动的图像信息。
处理器120用于对眼动仪110获取的待检测视频进行处理,以获取分析用户车辆使用情况所需要的参数。
请参照图2,为本发明实施例所提供的针对用户车辆使用情况的分析方法的流程图。
步骤301,获取被试的待检测视频。
待检测视频包含被试试验过程中眼睛所看见的所有场景,以及被试根据任务卡片上的试验任务使用车辆过程中眼部运动的图像信息和被试的视觉兴趣区;其中,眼部运动的图像信息为眼睛注视点的路径信息,由眼动摄像头获取得到;视觉兴趣区为车辆内部不同的视觉区域,例如导航区域、空调区域或者音乐区域等。
步骤302,根据眼部运动的图像信息和被试的视觉兴趣区,生成被试的视觉兴趣信息。
视觉兴趣信息包含被试的注视点路径信息和被试的每个视觉兴趣区的被注视次数;其中,被试的眼睛注视点的路径信息,具体表现为待检测视频中的一个小红点,该小红点表征被试的眼睛注视的区域,小红点即为注视点,随着被试的眼睛注视的地方的改变,小红点也随着移动,由此生成眼睛注视点路径信息;被试的每个视觉兴趣区的被注视次数包括被试观察到的视觉兴趣区以及被试观察的这些视觉兴趣区的次数。
步骤303,根据眼部运动的图像信息和被试的视觉兴趣区,获取被试的任务搜索时间。
任务搜索时间为被试的注视点停留在任务卡片的时间段,例如,在实验开始时,给定记载有实验任务的任务卡片,被试在看任务卡片上的实验任务时,被试的眼睛注视点会停留在任务卡片上,当被试眼睛注视点离开任务卡片上时,意味着被试已经看完了看完了任务卡片上的实验任务。
需要说明的是,实验任务可以是但不限于使用导航至某个地方、打开空调或者打开音乐播放器。
步骤304,根据眼部运动的图像信息和被试的视觉兴趣区,获取被试任务执行时间。
任务执行时间为被试的注视点离开任务卡片至被试完成任务的时间段。
步骤305,基于每个被试的待检测视频获取车辆内部每个视觉区域的关注度。
视觉兴趣信息包含多个被试的注视点路径统计信息和主要视觉兴趣区的统计信息,还包含任务搜索时间以及任务执行时间;其中,注视点路径统计信息为每个被试的注视点路径信息;当给定相同的试验任务时,可以根据每个被试的注视点路径信息得到与该试验任务相关的车辆的设计是否合理。如当给定的任务是打开空调,根据每个被试的注视点路径信息得到大部分的被试都是习惯性往右边看,在右边找打开空调的按钮,而实际上空调的按钮设计在左边,这个时候就说明把空调的按钮设计在左边是不合理的。
主要视觉兴趣区为多个视觉兴趣区中,对应的被注视次数大于或等于阈值的视觉兴趣区,例如对应的被注视次数大于或等于三次的视觉兴趣区为主要视觉兴趣区,此处的三次仅为举例说明,还可以为其他数值,视具体情况而定。
主要视觉兴趣区揭示了被试最感兴趣的视觉区域,因此在设计汽车时,要更加注重主要视觉兴趣区的舒适度。
视觉区域的关注度为视觉区域的关注人数在所有被试中的占比。例如在100个被试中,有97个的被试关注到了导航区域,那么导航区域的关注度就为97%。
关注度较高的视觉区域揭示了大部分被试都关注到的视觉区域,因此在设计汽车时,要更加注重关注度较高的视觉区域的舒适度。
请继续参照图1,为本发明实施例所提供的一种针对用户车辆使用情况的分析系统的方框示意图。
眼动仪110用于获取被试的待检测视频。待检测视频包含被试试验过程中眼睛所看见的所有场景,以及被试根据任务卡片上的试验任务使用车辆过程中眼部运动的图像信息和被试的视觉兴趣区;其中,眼部运动的图像信息为眼睛注视点的路径信息,由眼动摄像头获取得到;视觉兴趣区为车辆内部不同的视觉区域,例如导航区域、空调区域或者音乐区域等。
可以理解的是,在一种可能的实施例中,眼动仪110用于执行步骤301。
处理器120用于根据眼部运动的图像信息和被试的视觉兴趣区,生成被试的视觉兴趣信息;以及还用于根据眼部运动的图像信息和被试的视觉兴趣区,获取被试的任务搜索时间;以及还用于根据眼部运动的图像信息和被试的视觉兴趣区,获取被试任务执行时间;以及还用于统计每个被试的视觉兴趣信息,生成视觉兴趣统计结果。
可以理解的是,在一种可能的实施例中,处理器120用于执行步骤302、步骤303、步骤304以及步骤305。
综上所述,本发明实施例所提供的针对用户车辆使用情况的分析方法,应用于汽车人机交互用户调研领域,包括:获取被试的待检测视频;待检测视频包含被试根据任务卡片上的试验任务使用车辆过程中眼部运动的图像信息和被试的视觉兴趣区;视觉兴趣区为车辆内部不同的视觉区域;根据眼部运动的图像信息和被试的视觉兴趣区,生成被试的视觉兴趣信息;视觉兴趣信息包含被试的注视点路径信息和被试的每个视觉兴趣区的被注视次数;统计每个被试的视觉兴趣信息,生成视觉兴趣统计结果;视觉兴趣统计结果包含多个被试的注视点路径统计信息和主要视觉兴趣区的统计信息,主要视觉兴趣区为多个视觉兴趣区中,对应的被注视次数大于或等于阈值的视觉兴趣区。通过眼动仪获取到用户在使用车辆过程中的眼部运动的图像信息和视觉兴趣区,以得到用户的视觉兴趣信息,根据用户的视觉兴趣信息更加精准、高效的得到用户在使用车辆过程中的真实想法,降低了人力成本,同时避免了各种突发情况。
Claims (8)
1.一种针对用户车辆使用情况的分析方法,其特征在于,包括:
获取被试的待检测视频;所述待检测视频包含所述被试根据任务卡片上的试验任务使用车辆过程中眼部运动的图像信息和所述被试的视觉兴趣区;所述视觉兴趣区为车辆内部不同的视觉区域;
根据所述眼部运动的图像信息和所述被试的视觉兴趣区,生成所述被试的视觉兴趣信息;所述视觉兴趣信息包含所述被试的注视点路径信息和所述被试的每个所述视觉兴趣区的被注视次数;
统计每个所述被试的视觉兴趣信息,生成视觉兴趣统计结果;所述视觉兴趣统计结果包含多个被试的注视点路径统计信息和主要视觉兴趣区的统计信息,所述主要视觉兴趣区为多个所述视觉兴趣区中,对应的被注视次数大于或等于阈值的视觉兴趣区。
2.如权利要求1所述的针对用户车辆使用情况的分析方法,其特征在于,所述获取被试的待检测视频之后的步骤,还包括:
根据所述眼部运动的图像信息和所述被试的视觉兴趣区,获取所述被试的任务搜索时间;所述任务搜索时间为所述被试的注视点停留在所述任务卡片的时间段。
3.如权利要求1所述的针对用户车辆使用情况的分析方法,其特征在于,所述获取被试的待检测视频之后的步骤,还包括:
根据所述眼部运动的图像信息和所述被试的视觉兴趣区,获取被试任务执行时间;所述任务执行时间为所述被试的注视点离开任务卡片至被试完成任务的时间段。
4.如权利要求1所述的针对用户车辆使用情况的分析方法,其特征在于,所述统计每个所述被试的视觉兴趣信息,生成视觉兴趣统计结果,包括:
基于每个被试的所述待检测视频获取车辆内部每个视觉区域的关注度;所述关注度为所述视觉区域的关注人数在所有被试中的占比。
5.一种针对用户车辆使用情况的分析系统,包括:眼动仪及处理器,所述眼动仪与处理器电连接,其特征在于,
所述眼动仪,用于获取被试的待检测视频;所述待检测视频包含所述被试根据任务卡片上的试验任务使用车辆过程中眼部运动的图像信息和所述被试的视觉兴趣区;所述视觉兴趣区为车辆内部不同的视觉区域;
所述处理器,用于根据所述眼部运动的图像信息和所述被试的视觉兴趣区,生成所述被试的视觉兴趣信息;所述视觉兴趣信息包含所述被试的注视点路径信息和所述被试的每个所述视觉兴趣区的被注视次数;
所述处理器,还用于统计每个所述被试的视觉兴趣信息,生成视觉兴趣统计结果;所述视觉兴趣统计结果包含多个被试的注视点路径统计信息和主要视觉兴趣区的统计信息,所述主要视觉兴趣区为多个所述视觉兴趣区中,对应的被注视次数大于或等于阈值的视觉兴趣区。
6.如权利要求5所述的针对用户车辆使用情况的分析系统,其特征在于,
所述处理器,还用于根据所述眼部运动的图像信息和所述被试的视觉兴趣区,获取所述被试的任务搜索时间;所述任务搜索时间为所述被试的注视点停留在所述任务卡片的时间段。
7.如权利要求5所述的针对用户车辆使用情况的分析系统,其特征在于,
所述处理器,还用于根据所述眼部运动的图像信息和所述被试的视觉兴趣区,获取被试任务执行时间;所述任务执行时间为所述被试的注视点离开任务卡片至所述被试完成任务的时间段。
8.如权利要求5所述的针对用户车辆使用情况的分析系统,其特征在于,
所述处理器,还用于基于每个被试的所述待检测视频获取车辆内部每个视觉区域的关注度;所述关注度为所述视觉区域的关注人数在所有所述被试中的占比。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910583751.3A CN110276334A (zh) | 2019-06-28 | 2019-06-28 | 一种针对用户车辆使用情况的分析方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910583751.3A CN110276334A (zh) | 2019-06-28 | 2019-06-28 | 一种针对用户车辆使用情况的分析方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110276334A true CN110276334A (zh) | 2019-09-24 |
Family
ID=67962730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910583751.3A Pending CN110276334A (zh) | 2019-06-28 | 2019-06-28 | 一种针对用户车辆使用情况的分析方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110276334A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113655882A (zh) * | 2021-08-17 | 2021-11-16 | 中国人民解放军军事科学院战争研究院 | 一种基于眼动数据测量的人机界面信息筛选方法 |
CN115661913A (zh) * | 2022-08-19 | 2023-01-31 | 北京津发科技股份有限公司 | 一种眼动分析方法及系统 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101466305A (zh) * | 2006-06-11 | 2009-06-24 | 沃尔沃技术公司 | 用于确定和分析视觉兴趣位置的方法与装置 |
CN102521595A (zh) * | 2011-12-07 | 2012-06-27 | 中南大学 | 一种基于眼动数据和底层特征的图像感兴趣区域提取方法 |
CN102708358A (zh) * | 2012-04-18 | 2012-10-03 | 北京十分科技有限公司 | 一种阅读轨迹识别的方法 |
CN103680246A (zh) * | 2013-12-17 | 2014-03-26 | 西南交通大学 | 基于视觉注意分配的驾驶安全性考核测评系统 |
CN105078480A (zh) * | 2015-05-18 | 2015-11-25 | 中国民航大学 | 一种空中交通管制员注意力动态分配的测量方法 |
CN105425967A (zh) * | 2015-12-16 | 2016-03-23 | 中国科学院西安光学精密机械研究所 | 视线追踪及人眼感兴趣区域定位系统 |
CN107928685A (zh) * | 2017-12-13 | 2018-04-20 | 吉林大学 | 一种基于驾驶人眼动特性的应激响应分析装置及方法 |
CN109101908A (zh) * | 2018-07-27 | 2018-12-28 | 北京工业大学 | 驾驶过程感兴趣区域检测方法及装置 |
CN109255342A (zh) * | 2018-11-20 | 2019-01-22 | 武汉大学 | 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和系统 |
CN109582140A (zh) * | 2018-11-23 | 2019-04-05 | 哈尔滨工业大学 | 一种基于虚拟现实与眼动追踪的建筑室内寻路要素视觉显著性评估系统与方法 |
CN109725714A (zh) * | 2018-11-14 | 2019-05-07 | 北京七鑫易维信息技术有限公司 | 视线确定方法、装置、系统、以及头戴式眼动设备 |
-
2019
- 2019-06-28 CN CN201910583751.3A patent/CN110276334A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101466305A (zh) * | 2006-06-11 | 2009-06-24 | 沃尔沃技术公司 | 用于确定和分析视觉兴趣位置的方法与装置 |
CN102521595A (zh) * | 2011-12-07 | 2012-06-27 | 中南大学 | 一种基于眼动数据和底层特征的图像感兴趣区域提取方法 |
CN102708358A (zh) * | 2012-04-18 | 2012-10-03 | 北京十分科技有限公司 | 一种阅读轨迹识别的方法 |
CN103680246A (zh) * | 2013-12-17 | 2014-03-26 | 西南交通大学 | 基于视觉注意分配的驾驶安全性考核测评系统 |
CN105078480A (zh) * | 2015-05-18 | 2015-11-25 | 中国民航大学 | 一种空中交通管制员注意力动态分配的测量方法 |
CN105425967A (zh) * | 2015-12-16 | 2016-03-23 | 中国科学院西安光学精密机械研究所 | 视线追踪及人眼感兴趣区域定位系统 |
CN107928685A (zh) * | 2017-12-13 | 2018-04-20 | 吉林大学 | 一种基于驾驶人眼动特性的应激响应分析装置及方法 |
CN109101908A (zh) * | 2018-07-27 | 2018-12-28 | 北京工业大学 | 驾驶过程感兴趣区域检测方法及装置 |
CN109725714A (zh) * | 2018-11-14 | 2019-05-07 | 北京七鑫易维信息技术有限公司 | 视线确定方法、装置、系统、以及头戴式眼动设备 |
CN109255342A (zh) * | 2018-11-20 | 2019-01-22 | 武汉大学 | 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和系统 |
CN109582140A (zh) * | 2018-11-23 | 2019-04-05 | 哈尔滨工业大学 | 一种基于虚拟现实与眼动追踪的建筑室内寻路要素视觉显著性评估系统与方法 |
Non-Patent Citations (1)
Title |
---|
周昱廷: "《基于驾驶员在环试验台的注意力分散研究》", 《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113655882A (zh) * | 2021-08-17 | 2021-11-16 | 中国人民解放军军事科学院战争研究院 | 一种基于眼动数据测量的人机界面信息筛选方法 |
CN115661913A (zh) * | 2022-08-19 | 2023-01-31 | 北京津发科技股份有限公司 | 一种眼动分析方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mestre et al. | Immersion et présence | |
Schneegass et al. | A data set of real world driving to assess driver workload | |
Ventura-Bort et al. | Binding neutral information to emotional contexts: Brain dynamics of long-term recognition memory | |
US8790280B2 (en) | Human state estimating device and method | |
US20210015416A1 (en) | Method for evaluating multi-modal emotion cognition capability of patient with autism spectrum disorder | |
Schloerscheidt et al. | The impact of change in stimulus format on the electrophysiological indices of recognition | |
Park et al. | Prestimulus hippocampal activity predicts later recollection | |
Li et al. | Analysis of facial features of drivers under cognitive and visual distractions | |
Lefcourt et al. | Causal attributions as a function of locus of control, initial confidence, and performance outcomes. | |
Thurlings et al. | Control-display mapping in brain–computer interfaces | |
Filko et al. | Emotion recognition system by a neural network based facial expression analysis | |
Kaufmann et al. | Distortions in the brain? ERP effects of caricaturing familiar and unfamiliar faces | |
CN110276334A (zh) | 一种针对用户车辆使用情况的分析方法及系统 | |
CN109923529A (zh) | 信息处理装置、信息处理方法和程序 | |
EP3897388A1 (en) | System and method for reading and analysing behaviour including verbal, body language and facial expressions in order to determine a person's congruence | |
Gordon et al. | Real world BCI: cross-domain learning and practical applications | |
US11317849B2 (en) | Virtual reality device for diagnosis of nerve disorder, system and method for thereof | |
EP3739573B1 (en) | Information processing device, information processing method, and program | |
Masui et al. | Measurement of advertisement effect based on multimodal emotional responses considering personality | |
Valeriani et al. | A collaborative Brain-Computer Interface to improve human performance in a visual search task | |
DE102021125827A1 (de) | Konferenzen basierend auf fahrerzustand und kontext | |
CN111341444B (zh) | 智能绘画评分方法及系统 | |
Van Den Broek et al. | Computing emotion awareness through facial electromyography | |
Rosenthal et al. | Evoked neural responses to events in video | |
KR101795723B1 (ko) | 얼굴 미동의 내적 동기화를 이용한 감성 인식 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190924 |
|
RJ01 | Rejection of invention patent application after publication |