CN103169485A - 一种基于视频的认知曲线生成系统和生成方法 - Google Patents
一种基于视频的认知曲线生成系统和生成方法 Download PDFInfo
- Publication number
- CN103169485A CN103169485A CN2013100586193A CN201310058619A CN103169485A CN 103169485 A CN103169485 A CN 103169485A CN 2013100586193 A CN2013100586193 A CN 2013100586193A CN 201310058619 A CN201310058619 A CN 201310058619A CN 103169485 A CN103169485 A CN 103169485A
- Authority
- CN
- China
- Prior art keywords
- video
- data
- cognitive
- module
- curve generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
本发明涉及一种基于视频的认知曲线生成系统,包括:数据获取模块,用于获取人的生理属性数据和视频数据;数据处理模块,用于处理所述数据获取模块内所获取的数据;认知曲线生成模块,用于依据所述数据处理模块所处理的结果生成认知曲线。进一步的,本发明还设置有:生理属性数据获取子模块,用于获取人的生理属性数据;视频数据获取子模块,用于获取视频数据;生理属性数据处理子模块,用于对所述生理属性数据获取子模块所获取的人的生理属性数据进行处理;视频数据处理子模块,用于对所述视频数据进行处理。通过上述模块的协同作用,可以得知该视频是否能吸引人的注意力,还可以更进一步地得知该视频中的哪些内容更能让人产生兴趣。
Description
技术领域
本发明涉及视频分析领域,具体涉及一种基于视频的认知曲线生成系统和生成方法。
背景技术
瞳孔反应包括瞳孔收缩和扩张。瞳孔扩张和收缩是受自主神经系统控制的。目前的研究发现,瞳孔大小变化与个体的认知及情感信息加工也有很大的关系,例如瞳孔会随着认知负荷加重而扩张,也会因对某事物(或性刺激)的兴趣注意而扩张。瞳孔实际上负责掌控眼睛的进光量,当看到令人愉悦的刺激源时,自主神经系统会引发瞳孔扩张,让更多的好东西视觉信息进入大脑,形成积极刺激,从而引发愉悦感受。关注“微表情”的专家也常常利用瞳孔扩张不受个体主观控制这一特性来识别他人的谎言。
瞳孔反应也被成功地运用在各种心理活动强度和心理状态变化的估计上,特别是注意力分配和整合知觉方面。明显地,瞳孔反应能够提供一种连续性的测量,不管受试者是否能够感觉到这种变化。最近,在神经科学上的研究揭示了心理活动与蓝斑核(具有增加机体唤醒程度的机能)和瞳孔扩张的紧密联系。这些神经生理发现为瞳孔反应对于心理活动意义的理解提供了新的启示。由于瞳孔反应具有与生俱来、能在不干扰受试者的前提下测量、无需自主控制和意识加工过程等等的优点,因此非常适合用于研究缺乏语言技能的个体。
瞳孔反应自发发生,很难受个体自主意志控制。特别地,如果想间接诱发瞳孔扩张,只有一种途径,就是让在正常情况下能够诱发瞳孔扩张的事物在个体心理成像。然而,想要主观抑制瞳孔扩张是不可能的,不管这种扩张是由于外部刺激还是内心活动。心理相关刺激诱发的瞳孔扩张的发生是副交感动眼复合神经或去甲肾上腺系统的蓝斑核中神经抑制的结果。
随着商业的发展,商家之间的竞争尤其激烈,如何在商家竞争之中崛起显得尤为重要,广告或宣传片即成为商家宣传自身的一个良好手段,但是,种类繁多的广告,是否都能抓住消费者的眼球,各类商家也不得而知。如何分析某个广告或宣传片是否抓住了消费者的眼球,或者说某个广告或宣传片是否达到了最大的用处,一直是各类商家关注的问题。
不难看出,瞳孔的变化所带来的信息量巨大,为人们地判断及对事物地分析有很好的促进作用,但现实生活中,并没有一种很好的系统来分析瞳孔的变化是如何反映人的感官或心理的变化,进而也无法分析某项事物或者某个视频画面对人的吸引力度的强弱等等。
综上所述,有必要提供一种很好的工具或系统来分析视频(包括但不限于广告和宣传片)是否引起人们的注意,进一步的讲,视频内的哪些内容更能使人们产生兴趣等。
发明内容
有鉴于此,有必要提供一种工具或系统使人得知某个视频内容是否引起人们的注意,进一步的,得知视频中的哪些内容更能使人们产生兴趣。
为此本发明提供如下技术方案:
一种基于视频的认知曲线生成系统,包括:
数据获取模块,用于获取人的生理属性数据和视频数据;
数据处理模块,用于处理所述数据获取模块内所获取的数据;
认知曲线生成模块,用于依据所述数据处理模块所处理的结果生成认知曲线。
进一步的,所述数据获取模块包括:
生理属性数据获取子模块,用于获取人的生理属性数据;
视频数据获取子模块,用于获取视频数据。
进一步的,所述数据处理模块包括:
生理属性数据处理子模块,用于对所述生理属性数据获取子模块所获取的人的生理属性数据进行处理;
视频数据处理子模块,用于对所述视频数据进行处理。
进一步的,所述视频数据处理子模块包括:
帧处理单元,用于处理视频的每一帧画面的信息;
时间轴节点处理单元,用于依据时间轴节点处理视频每个时间轴节点所对应的信息。
进一步的,所述人的生理属性数据为人的双眼瞳孔直径数据。
本发明还提供有一种采用基于视频的认知曲线生成系统生成认知曲线的方法,包括以下步骤:
S1、采集人的双眼瞳孔直径数据;
S2、采集待分析视频的视频数据;
S3、对采集的瞳孔直径数据进行处理;
S4、对采集的视频数据进行处理;
S5、依据S3和S4的处理结果生成认知曲线。
进一步的,所述S3的处理结果为生成瞳孔直径序列。
进一步的,所述S4包括:
对采集的视频的每一帧画面进行处理,生成修正亮度值序列;
对采集的视频的每个时间轴节点所对应的信息进行处理,生成时间轴节点对应信息。
进一步的,所述S5为依据所述瞳孔直径序列和所述修正亮度值序列生成认知值序列,进而依据所述认知值序列和所述时间轴节点对应信息生成认知曲线。
本发明通过获取人的双眼瞳孔直径的变化,并对获取的瞳孔直径数据进行进一步的处理,排除一些其他因素的影响,最后获得经过整理修改的瞳孔直径序列;同时,获取待分析视频数据,并对视频数据进行进一步的处理,以帧为单位来分析视频的每个画面,最后获得修正亮度值序列,与此同时还以时间轴节点为单位,对视频进行处理,获得每个时间轴节点所对应的信息。本发明通过对瞳孔直径序列、修正亮度值序列和时间轴节点对应信息进行分析,最终生成认知曲线,从而使人们可以根据认知曲线很简洁明了地判断人心理活动的变化,即人对所述待分析视频的感官的变化,从而可以得知该视频是否能吸引人的注意力,还可以更进一步地得知该视频中的哪些内容更能让人产生兴趣。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种基于视频的认知曲线生成系统的结构框图。
图2是本发明实施例提供的一种基于视频的认知曲线生成方法的工作流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例和附图,对本发明实施例中的技术方案进行清楚、完整地描述。需要说明的是,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图说明本发明的具体实施方式。
如图1所示,本发明提供的一种基于视频的认知曲线生成系统的其中一个实施例包括:
数据获取模块,用于获取人的生理属性数据(在本实施例中,所述人的生理属性数据为测试者的生理属性数据)和视频数据;作为优选,所述数据获取模块包括:生理属性数据获取子模块,用于获取测试者的生理属性数据;需要说明的是,本实施例优选瞳孔的直径数据作为测试者的生理属性数据,本实施例优选通过眼动仪导出测试者的双眼瞳孔直径数据;依据眼动仪的不同,所取得的双眼瞳孔直径数据的多少也不同。视频数据获取子模块,用于获取视频数据。
数据处理模块,用于处理所述数据获取模块内所获取的数据;作为优选,所述数据处理模块包括:生理属性数据处理子模块,用于对所述生理属性数据获取子模块所获取的测试者的生理属性数据进行处理;所述的生理属性数据即为测试者的双眼瞳孔直径数据,首先会对测试者的双眼瞳孔直径数据取一个平均值,得到每个测试者的瞳孔直径数据,再对所有测试者的瞳孔直径数据进行平均,得出瞳孔直径序列。
视频数据处理子模块,用于对所述视频数据进行处理。作为优选,所述视频数据处理子模块包括:帧处理单元,用于处理视频的每一帧画面的信息;比如测试视频每一帧画面亮度值,得出画面亮度值序列,然后对画面亮度值序列进行调整,得出调整后的亮度值序列,进一步的,将调整后的亮度值序列进行扩充,得出修正亮度值序列;经由所述瞳孔直径序列和修正亮度值序列得出认知值序列。
作为优选,所述视频数据处理子模块还包括:时间轴节点处理单元,用于依据时间轴节点处理视频每个时间轴节点所对应的信息,即将视频以时间轴节点来划分,在整个视频的时间轴上,对应不同的时间轴节点,获取时间轴节点对应信息(即每个时间轴节点所对应的视频的画面、语言信息和文字信息等)。
作为优选,本实施例还包括:认知曲线生成模块,用于依据所述数据处理模块所处理的结果生成认知曲线。即依据所述认知值序列和所述时间轴节点对应信息共同生成认知曲线。以认知值序列内的认知值作为纵轴,以时间轴节点对应信息作为横轴,相对应的描述出认知曲线。需要说明的是,所述认知曲线的表现形式包括但不限于:曲线图、折线图、柱状图、面积图和散点图。
如图2所示,作为优选,本实施例还提供有一种采用基于视频的认知曲线的生成方法,包括以下步骤:
S1、采集测试者的双眼瞳孔直径数据;为使最终结果更为准确,本实施例优选30测试者以上,同时根据眼动仪的不同,本实施例优选一秒取60次测试者的双眼瞳孔直径大小,即最终一秒可以获取1800组以上的双眼瞳孔直径数据。具体获取多少组数据,可依据用户的实际需求来设定。每个测试者有两列数据,分别对应左眼和右眼的瞳孔直径值,数据序列长度=眼动仪采集频率×视频长度(即视频的时间),数据量=序列长度×测试者数×2。
S2、采集待分析视频的视频数据;可以根据用户的实际需求,选取相应的视频数据。
S3、对采集的瞳孔直径数据进行处理;分为两个步骤进行,第一步:对每个测试者左右眼瞳孔直径取平均值:计算每个测试者每个序列时间点上的左右眼瞳孔直径均值,得到每个测试者一组瞳孔直径均值序列(数据量=序列长度×测试者数);第二步:测试者间取平均值:计算出每个序列时间点下的所有测试者的瞳孔直径均值,得到一组瞳孔直径均值序列,即最终的瞳孔直径序列(数据量=序列长度)。
S4、对采集的视频数据进行处理;作为优选。所述S4包括:对采集的视频的每一帧画面进行处理,生成修正亮度值序列;本实施例用视频处理软件、图像处理软件或编程软件获得视频每一帧画面中所有像素点的亮度平均值,得到视频画面的亮度值序列;然后对所得到的视频画面的亮度值序列进行基值调整:将所得序列中的所有亮度值都减去一个基值(本实施例优选基值为125),获得调整后的亮度值序列;最后对调整后的亮度值序列进行序列扩充:由于视频的帧速率往往低于眼动仪的采集频率,因此每个亮度值可能需要分配给两个或多个瞳孔直径值。经过对修正亮度值序列的扩充(比如眼动仪采集频率是60次/秒,视频帧速率是30帧/秒,如此每个调整后的亮度值需分配2个序列时间点的瞳孔直径值,即原修正亮度值序列为x1,x2,x3,…,xn,经由序列扩充后的亮度值序列将变成x1,x1,x2,x2,x3,x3,…,xn,xn),使经过序列扩充后的亮度值序列(即修正亮度值序列)的长度与所述瞳孔直径序列相等。
对采集的视频的每个时间轴节点所对应的信息进行处理,生成时间轴节点对应信息;即将视频以时间轴节点来划分,在整个视频的时间轴上,对应不同的时间轴节点,获取时间轴节点对应信息(即每个时间轴节点所对应的视频的画面、语言信息和文字信息等)。
S5、依据S3和S4的处理结果生成认知曲线。作为优选,所述S5为依据所述瞳孔直径序列和所述修正亮度值序列生成认知值序列,即将所述瞳孔直径序列和修正亮度值序列依照时间轴对应起来,对每个序列时间轴节点上的数据以公式“认知值=瞳孔直径值+0.005*修正亮度值”作计算,得到所述认知值序列,进而依据所述认知值序列和所述时间轴节点对应信息生成认知曲线。以认知值序列内的认知值作为纵轴,以时间轴节点对应信息作为横轴,相对应地描述出认知曲线。需要说明的是,所述认知曲线的表现形式包括但不限于:曲线图、折线图、柱状图、面积图和散点图。
本发明通过获取测试者的双眼瞳孔直径的变化,并对获取的瞳孔直径数据进行进一步地处理,排除一些其他因素的影响,最后获得经过整理修改的瞳孔直径序列;同时,获取待分析视频数据,并对视频数据进行进一步地处理,以帧为单位来分析视频的每个画面,最后获得修正亮度值序列,与此同时还以时间轴节点为单位,对视频进行处理,获得每个时间轴节点所对应的信息。本发明通过对瞳孔直径序列、修正亮度值序列和时间轴节点对应信息进行分析,最终生成认知曲线,从而使测试者们可以根据认知曲线很简洁明了地判断测试者心理活动的变化,即测试者对所述待分析视频的感官的变化,从而可以得知该视频是否能吸引测试者的注意,还可以更进一步地得知该视频中的哪些内容更能让测试者产生兴趣。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (9)
1.一种基于视频的认知曲线生成系统,其特征在于,包括:
数据获取模块,用于获取人的生理属性数据和视频数据;
数据处理模块,用于处理所述数据获取模块内所获取的数据;
认知曲线生成模块,用于依据所述数据处理模块所处理的结果生成认知曲线。
2.根据权利要求1所述的基于视频的认知曲线生成系统,其特征在于,所述数据获取模块包括:
生理属性数据获取子模块,用于获取人的生理属性数据;
视频数据获取子模块,用于获取视频数据。
3.根据权利要求2所述的基于视频的认知曲线生成系统,其特征在于,所述数据处理模块包括:
生理属性数据处理子模块,用于对所述生理属性数据获取子模块所获取的人的生理属性数据进行处理;
视频数据处理子模块,用于对所述视频数据进行处理。
4.根据权利要求3所述的基于视频的认知曲线生成系统,其特征在于,所述视频数据处理子模块包括:
帧处理单元,用于处理视频的每一帧画面的信息;
时间轴节点处理单元,用于依据时间轴节点处理视频每个时间轴节点所对应的信息。
5.根据权利要求3所述的基于视频的认知曲线生成系统,其特征在于,所述人的生理属性数据为人的双眼瞳孔直径数据。
6.一种采用权利要求1所述的基于视频的认知曲线生成系统生成认知曲线的方法,其特征在于,包括以下步骤:
S1、采集人的双眼瞳孔直径数据;
S2、采集待分析视频的视频数据;
S3、对采集的瞳孔直径数据进行处理;
S4、对采集的视频数据进行处理;
S5、依据S3和S4的处理结果生成认知曲线。
7.根据权利要求6所述的认知曲线生成方法,其特征在于,所述S3的处理结果为生成瞳孔直径序列。
8.根据权利要求7所述的认知曲线生成方法,其特征在于,所述S4包括:
对采集的视频的每一帧画面进行处理,生成修正亮度值序列;
对采集的视频的每个时间轴节点所对应的信息进行处理,生成时间轴节点对应信息。
9.根据权利要求8所述的认知曲线生成方法,其特征在于,所述S5为依据所述瞳孔直径序列和所述修正亮度值序列生成认知值序列,进而依据所述认知值序列和所述时间轴节点对应信息生成认知曲线。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310058619.3A CN103169485B (zh) | 2013-02-01 | 2013-02-01 | 一种基于视频的认知曲线生成系统和生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310058619.3A CN103169485B (zh) | 2013-02-01 | 2013-02-01 | 一种基于视频的认知曲线生成系统和生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103169485A true CN103169485A (zh) | 2013-06-26 |
CN103169485B CN103169485B (zh) | 2015-05-27 |
Family
ID=48629999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310058619.3A Active CN103169485B (zh) | 2013-02-01 | 2013-02-01 | 一种基于视频的认知曲线生成系统和生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103169485B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104173063A (zh) * | 2014-09-01 | 2014-12-03 | 北京工业大学 | 一种视觉注意的检测方法及系统 |
CN105138960A (zh) * | 2015-07-27 | 2015-12-09 | 华南师范大学 | 基于眼球追踪器的心动异性自动识别方法和系统 |
CN105310703A (zh) * | 2014-07-02 | 2016-02-10 | 北京邮电大学 | 一种基于用户瞳孔直径数据获取主观满意度的方法 |
CN108078573A (zh) * | 2015-08-07 | 2018-05-29 | 北京环度智慧智能技术研究所有限公司 | 一种基于生理反应信息与刺激信息的兴趣取向值测验方法 |
CN108966013A (zh) * | 2018-07-26 | 2018-12-07 | 北京理工大学 | 一种基于全景视频的观众反应评估方法及系统 |
CN112331003A (zh) * | 2021-01-06 | 2021-02-05 | 湖南贝尔安亲云教育有限公司 | 一种基于差异化教学的习题生成方法和系统 |
CN113591550A (zh) * | 2021-06-17 | 2021-11-02 | 湖南大学 | 一种基于瞳孔变化的个人喜好自动检测模型构建方法、装置、设备及介质 |
CN114209324A (zh) * | 2022-02-21 | 2022-03-22 | 北京科技大学 | 基于图像视觉认知的心理测评数据获取方法及vr系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1871994A (zh) * | 2006-06-29 | 2006-12-06 | 昆明钏泽智能系统有限公司 | 双眼瞳孔动态变化数字检测系统 |
US20090164132A1 (en) * | 2007-12-13 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for comparing media content |
US20090171240A1 (en) * | 2007-12-27 | 2009-07-02 | Teledyne Scientific & Imaging, Llc | Fusion-based spatio-temporal feature detection for robust classification of instantaneous changes in pupil response as a correlate of cognitive response |
CN101779960A (zh) * | 2010-02-24 | 2010-07-21 | 沃建中 | 刺激信息认知能力值测试系统及其方法 |
WO2010100567A2 (en) * | 2009-03-06 | 2010-09-10 | Imotions- Emotion Technology A/S | System and method for determining emotional response to olfactory stimuli |
CN101918908A (zh) * | 2007-09-28 | 2010-12-15 | 阿尔卡特朗讯 | 用于确定用户对显示页面的特定内容的反应的方法 |
CN202060785U (zh) * | 2011-03-31 | 2011-12-07 | 上海天岸电子科技有限公司 | 人眼瞳孔测谎仪 |
-
2013
- 2013-02-01 CN CN201310058619.3A patent/CN103169485B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1871994A (zh) * | 2006-06-29 | 2006-12-06 | 昆明钏泽智能系统有限公司 | 双眼瞳孔动态变化数字检测系统 |
CN101918908A (zh) * | 2007-09-28 | 2010-12-15 | 阿尔卡特朗讯 | 用于确定用户对显示页面的特定内容的反应的方法 |
US20090164132A1 (en) * | 2007-12-13 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for comparing media content |
US20090171240A1 (en) * | 2007-12-27 | 2009-07-02 | Teledyne Scientific & Imaging, Llc | Fusion-based spatio-temporal feature detection for robust classification of instantaneous changes in pupil response as a correlate of cognitive response |
WO2010100567A2 (en) * | 2009-03-06 | 2010-09-10 | Imotions- Emotion Technology A/S | System and method for determining emotional response to olfactory stimuli |
CN101779960A (zh) * | 2010-02-24 | 2010-07-21 | 沃建中 | 刺激信息认知能力值测试系统及其方法 |
CN202060785U (zh) * | 2011-03-31 | 2011-12-07 | 上海天岸电子科技有限公司 | 人眼瞳孔测谎仪 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105310703A (zh) * | 2014-07-02 | 2016-02-10 | 北京邮电大学 | 一种基于用户瞳孔直径数据获取主观满意度的方法 |
CN105310703B (zh) * | 2014-07-02 | 2018-01-19 | 北京邮电大学 | 一种基于用户瞳孔直径数据获取主观满意度的方法 |
CN104173063B (zh) * | 2014-09-01 | 2015-08-12 | 北京工业大学 | 一种视觉注意的检测方法及系统 |
CN104173063A (zh) * | 2014-09-01 | 2014-12-03 | 北京工业大学 | 一种视觉注意的检测方法及系统 |
CN105138960B (zh) * | 2015-07-27 | 2019-04-19 | 华南师范大学 | 基于眼球追踪器的心动异性自动识别方法和系统 |
CN105138960A (zh) * | 2015-07-27 | 2015-12-09 | 华南师范大学 | 基于眼球追踪器的心动异性自动识别方法和系统 |
CN108078573B (zh) * | 2015-08-07 | 2021-02-09 | 北京智能阳光科技有限公司 | 一种基于生理反应信息与刺激信息的兴趣取向值测验方法 |
CN108078573A (zh) * | 2015-08-07 | 2018-05-29 | 北京环度智慧智能技术研究所有限公司 | 一种基于生理反应信息与刺激信息的兴趣取向值测验方法 |
CN108966013A (zh) * | 2018-07-26 | 2018-12-07 | 北京理工大学 | 一种基于全景视频的观众反应评估方法及系统 |
CN112331003A (zh) * | 2021-01-06 | 2021-02-05 | 湖南贝尔安亲云教育有限公司 | 一种基于差异化教学的习题生成方法和系统 |
CN112331003B (zh) * | 2021-01-06 | 2021-03-23 | 湖南贝尔安亲云教育有限公司 | 一种基于差异化教学的习题生成方法和系统 |
CN113591550A (zh) * | 2021-06-17 | 2021-11-02 | 湖南大学 | 一种基于瞳孔变化的个人喜好自动检测模型构建方法、装置、设备及介质 |
CN113591550B (zh) * | 2021-06-17 | 2024-03-26 | 湖南大学 | 一种个人喜好自动检测模型构建方法、装置、设备及介质 |
CN114209324A (zh) * | 2022-02-21 | 2022-03-22 | 北京科技大学 | 基于图像视觉认知的心理测评数据获取方法及vr系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103169485B (zh) | 2015-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103169485B (zh) | 一种基于视频的认知曲线生成系统和生成方法 | |
Grassini et al. | Processing of natural scenery is associated with lower attentional and cognitive load compared with urban ones | |
Sliwinska et al. | Early and sustained supramarginal gyrus contributions to phonological processing | |
Hove et al. | Brain network reconfiguration and perceptual decoupling during an absorptive state of consciousness | |
Morawetz et al. | Changes in effective connectivity between dorsal and ventral prefrontal regions moderate emotion regulation | |
Woodhead et al. | Reading front to back: MEG evidence for early feedback effects during word recognition | |
Leutgeb et al. | An event-related potential study on exposure therapy for patients suffering from spider phobia | |
Munoz et al. | Electrophysiological brain dynamics during the esthetic judgment of human bodies and faces | |
Zhang et al. | Working memory updating training improves mathematics performance in middle school students with learning difficulties | |
Sieger et al. | Distinct populations of neurons respond to emotional valence and arousal in the human subthalamic nucleus | |
Stussi et al. | Enhanced Pavlovian aversive conditioning to positive emotional stimuli. | |
DE102015121763A1 (de) | Vorrichtung zur neuro-vaskulären Stimulation | |
Kaskan et al. | Learned value shapes responses to objects in frontal and ventral stream networks in macaque monkeys | |
Sander et al. | Oscillatory mechanisms of successful memory formation in younger and older adults are related to structural integrity | |
Han et al. | Repeated exposure makes attractive faces more attractive: Neural responses in facial attractiveness judgement | |
Furley et al. | The winner takes it all: Event-related brain potentials reveal enhanced motivated attention toward athletes’ nonverbal signals of leading | |
Powell et al. | Hemispheric laterality measured in Rembrandt's portraits using pupil diameter and aesthetic verbal judgements | |
Li et al. | The esthetic preference of Chinese typefaces–An event-related potential study | |
Durand et al. | Increased links between language and motor areas: A proof-of-concept study on resting-state functional connectivity following Personalized Observation, Execution and Mental imagery therapy in chronic aphasia | |
Beudt et al. | On the role of mentalizing processes in aesthetic appreciation: an ERP study | |
Zhang et al. | Effects of facial attractiveness on personality stimuli in an implicit priming task: an ERP study | |
Seppänen et al. | Passive sound exposure induces rapid perceptual learning in musicians: event-related potential evidence | |
Koyano et al. | Progressive neuronal plasticity in primate visual cortex during stimulus familiarization | |
Turk et al. | Late positive component event-related potential amplitude predicts long-term classroom-based learning | |
Madan et al. | The Cognitive Neuroscience of Nature |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |