CN111983210A - 基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法和装置 - Google Patents

基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法和装置 Download PDF

Info

Publication number
CN111983210A
CN111983210A CN202010603793.1A CN202010603793A CN111983210A CN 111983210 A CN111983210 A CN 111983210A CN 202010603793 A CN202010603793 A CN 202010603793A CN 111983210 A CN111983210 A CN 111983210A
Authority
CN
China
Prior art keywords
data
evaluation
interest
dimensional space
interest area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010603793.1A
Other languages
English (en)
Other versions
CN111983210B (zh
Inventor
赵起超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kingfar International Inc
Original Assignee
Kingfar International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kingfar International Inc filed Critical Kingfar International Inc
Priority to CN202010603793.1A priority Critical patent/CN111983210B/zh
Publication of CN111983210A publication Critical patent/CN111983210A/zh
Application granted granted Critical
Publication of CN111983210B publication Critical patent/CN111983210B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/50Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02405Determining heart rate variability

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Cardiology (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Hematology (AREA)
  • Urology & Nephrology (AREA)
  • Chemical & Material Sciences (AREA)
  • Immunology (AREA)
  • Food Science & Technology (AREA)
  • Biophysics (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Medicinal Chemistry (AREA)
  • General Physics & Mathematics (AREA)
  • Microbiology (AREA)
  • Biotechnology (AREA)
  • Physiology (AREA)
  • Cell Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供一种基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法和装置,所述方法是基于多维数据时间同步技术,采集操作者/参与者在待分析的三维空间内产生的反应数据,包括人机环境交互数据以及空间位置数据,通过标注三维空间内的兴趣区,将基于兴趣区产生的反应数据作为评价参数,分析三维空间对操作者/参与者行为和心理情绪的影响,可以得到操作者/参与者行为模式、心理状态变化与三维空间内设计、布局、物品以及事件的相关性。尤其是通过多维时空行为分析方法,基于室内、户外以及虚拟空间定位信息形成空间轨迹图,并将同步采集的眼动数据信息和生理特征数据信息按照对应的时空位置添加在空间轨迹图中,可视化呈现出操作者/参与者行为和情绪的变化。

Description

基于时间同步的空间位置和多通道人机环境数据采集、时空 行为分析方法和装置
技术领域
本发明涉及一种基于时间同步方法的人机环境数据与空间位置数据同步的技术领域,尤其是基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法和装置。
背景技术
在商业、交通安全、建筑设计、以及虚拟空间结构等领域中,三维空间的设施构建、布局设计和层次划分等对人的行为模式、心理活动、运动轨迹以及用户体验等有极大的影响。为了客观评价在不同的三维空间环境或刺激下(以及特定的时空位置),人、机器、环境三者交互数据的定量化反应与交互验证,需要采用基于完全时间同步的技术手段,将人机环境数据与三维空间位置数据进行采集与时空交互分析。然而,现阶段常用的方法均为单一的测量手段,且没有评价三维空间交互下的时空行为分析技术,以及任意时空条件下的人机环境交互数据的定量化评估手段。
发明内容
鉴于此,本发明实施例提供了一种基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法和装置,以解决现有技术无法分析评价在特定的三维空间环境下(以及特定的时空位置),评估个体的交互行为、心理活动、以及情绪情感变化等状态。
本发明的技术方案如下:
一方面,本发明提供一种基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法,包括:
获取操作者/参与者在三维空间内的反应数据,所述反应数据至少包括同步采集的空间定位信息、眼动数据信息和生理体征数据信息;所述三维空间包括真实三维空间和虚拟三维空间;
标记或获取所述三维空间内一个或多个兴趣区的三维坐标;
根据所述空间定位信息生成空间轨迹图,并将所述眼动数据信息和所述生理特征数据信息按照对应的所述空间定位信息标注在所述空间轨迹图中;
根据各兴趣区的三维坐标,提取各兴趣区空间范围内的所述空间定位信息并生成各兴趣区的受访问评估数据,提取各兴趣区空间范围内的所述眼动数据信息并生成各兴趣区的受注视评估数据,并提取各兴趣区空间范围内的所述生理体征数据信息并生成各兴趣区内操作者/参与者的生理体征变化评估数据;所述受访问评估数据包括各兴趣区的访问次数、总停留时间和/或访问时间占比;所述受注视评估数据包括各兴趣区的被注视总时长、被注视次数和/或被注视时间占比;所述生理体征变化评估数据包括:心率变异性数据、脑电变化数据;
将各兴趣区的所述受访问评估数据、所述受注视评估数据和/或所述生理体征变化评估数据作为评估元素关联于各兴趣区的设定评估指标,以获得相应的评估结果。
在一些实施例中,所述方法还包括:基于时间同步技术采用数据同步装置,同时控制采集人机交互数据以及对应的空间位置数据,并在同一时间轴进行呈现。
在一些实施例中,标记或获取所述三维空间内一个或多个兴趣区的三维坐标,包括:
采用一个或多个立方体在所述三维空间内框选兴趣区,记录每个立方体各顶点的位置坐标,用于标记兴趣区边界范围;或采用一个或多个球体在所述三维空间内框选兴趣区,记录每个球体的圆心位置坐标以及半径长度,用于标记兴趣区边界。
在一些实施例中,标记或获取所述三维空间内一个或多个兴趣区的三维坐标,包括:
记录所述三维空间内一个或多个事件,并按照所述事件的发生时间段,将所述事件的发生位置标注为兴趣区。
在一些实施例中,标记或获取所述三维空间内一个或多个兴趣区的三维坐标之后,还包括:
对所述兴趣区按照一个或多个属性进行分组,用于参照不同组别的属性对各兴趣区进行分析。
在一些实施例中,获取操作者/参与者在三维空间内的反应数据时,还包括:
同步获取操作者/参与者在所述三维空间内的面部表情数据、行为数据以及动作数据;
将所述面部表情数据、所述行为数据以及所述动作数据按照内容进行编码,用于按照对应的所述空间定位信息标注在所述空间轨迹图中,作为评估元素同步关联于各兴趣区的设定评估指标,用于分析各兴趣区对操作者/参与者情绪和行为的诱发作用。
在一些实施例中,将各兴趣区的所述受访问评估数据、所述受注视评估数据和/或所述生理体征变化评估数据作为评估元素关联于各兴趣区的设定评估指标,以获得相应的评估结果,包括:
将各兴趣区对应的受访问评估数据中的所述访问次数、所述总停留时间以及所述访问时间占比做归一化处理后,加权求和得到各兴趣区的受访问评估指标;
将各兴趣区对应的所述受注视评估数据中的所述被注视总时长、所述被注视次数以及所述被注视时间占比做归一化处理后,加权求和得到各兴趣区的受注视评估指标;
将各兴趣区对应的所述生理体征变化评估数据中的所述心率变异性数据和所述脑电变化数据做归一化处理后,加权求和得到各兴趣区的生理体征变化评估指标;
将各兴趣区对应的所述受访问评估指标、所述受注视评估指标以及所述生理体征变化评估指标加权求和,得到各兴趣区对应的所述设定评估指标;其中,设定评估指标为交互程度评价指标。
在一些实施例中,将各兴趣区的所述受访问评估数据、所述受注视评估数据和/或所述生理体征变化评估数据作为评估元素关联于各兴趣区的设定评估指标,以获得相应的评估结果之前,还包括:
根据所述眼动数据信息生成所述三维空间的注视点热力图,用于根据所述三维空间内注视点的密度反映操作者/参与者与各兴趣区的交互程度。
另一方面,本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述方法的步骤。
另一方面,本发明还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述方法的步骤。
本发明所述基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法和装置的有益效果是,通过采集操作者/参与者在待分析的三维空间内产生的反应数据,并标注三维空间内的兴趣区,将基于兴趣区产生的反应数据作为评价参数,分析三维空间对操作者/参与者行为和心理情绪的影响,可以得到操作者/参与者行为模式、心理状态变化与三维空间内设计、布局、物品以及事件的相关性。其中,基于空间定位信息形成空间轨迹图,并将眼动数据信息和生理特征数据信息按照对应的位置添加在空间轨迹途中,直观记录并体现操作者/参与者在各兴趣区内的行为,可视化呈现出操作者/参与者行为和情绪的变化,有利于产生分析结果。
本发明的附加优点、目的,以及特征将在下面的描述中将部分地加以阐述,且将对于本领域普通技术人员在研究下文后部分地变得明显,或者可以根据本发明的实践而获知。本发明的目的和其它优点可以通过在书面说明及其权利要求书以及附图中具体指出的结构实现到并获得。
本领域技术人员将会理解的是,能够用本发明实现的目的和优点不限于以上具体所述,并且根据以下详细说明将更清楚地理解本发明能够实现的上述和其他目的。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,并不构成对本发明的限定。附图中的部件不是成比例绘制的,而只是为了示出本发明的原理。在附图中:
图1为本发明一实施例所述方法的流程示意图;
图2为本发明一实施例所述方法的空间轨迹图;
图3为本发明另一实施例所述方法的空间轨迹图;
图4为本发明另一实施例所述方法中计算设定评估指标的流程示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施方式和附图,对本发明做进一步详细说明。在此,本发明的示意性实施方式及其说明用于解释本发明,但并不作为对本发明的限定。
在此,还需要说明的是,为了避免因不必要的细节而模糊了本发明,在附图中仅仅示出了与根据本发明的方案密切相关的结构和/或处理步骤,而省略了与本发明关系不大的其他细节。
应该强调,术语“包括/包含”在本文使用时指特征、要素、步骤或组件的存在,但并不排除一个或更多个其它特征、要素、步骤或组件的存在或附加。
三维空间内建筑物、设施或物品等内容的位置、结构、设计等要素会对身处其中的人产生一定的影响,导致人的行为模式、心理状态产生变化。一般情况下,三维空间具有其特定的功能属性,例如,商场空间内店铺、过道和楼梯等设计是用于消费者的购物行为,因此,商场空间内的合理设计可以对客户的消费行为作出积极的引导,相反的,不合理的设计可能会抑制客户的消费行为。又例如,在游戏场景的虚拟三维空间内,根据具体的剧情和场景要求,设计者会期待部分包含内容的区块获得玩家更高的关注度以激发玩家兴趣,或者期待部分区块获得较低的关注度以进行隐匿。为了评价或优化三维空间内的设计、设施和物品的配置方案,使相应的三维空间能够更合理的发挥相应的功能,就需要分析三维空间不同区块对于操作者/参与者行为和心理状态的影响。
本发明提供一种基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法,将三维空间内待评估的位置标记为兴趣区,通过获取操作者/参与者基于各兴趣区产生的眼动数据、空间位置信息、行为数据等内容,分析操作者/参与者在三维空间各内兴趣区内的交互情况和行为模式等。如图1所示,本发明包括步骤S101~S105。
下面将对步骤S101至步骤S105的具体实施方式进行详细说明,需要强调的是,以下步骤的序号并不是对顺序的限定,应当理解为,在一些实施情形下,部分步骤内容可以同时进行或调整先后顺序。
步骤S101:获取操作者/参与者在三维空间内的反应数据,反应数据至少包括同步采集的空间定位信息、眼动数据信息和生理体征数据信息;三维空间包括真实三维空间和虚拟三维空间。
步骤S102:标记或获取三维空间内一个或多个兴趣区的三维坐标。
步骤S103:根据空间定位信息生成空间轨迹图,并将眼动数据信息和生理特征数据信息按照对应的空间定位信息标注在空间轨迹图中。
步骤S104:根据各兴趣区的三维坐标,提取各兴趣区空间范围内的空间定位信息并生成各兴趣区的受访问评估数据,提取各兴趣区空间范围内的眼动数据信息并生成各兴趣区的受注视评估数据,并提取各兴趣区空间范围内的生理体征数据信息并生成各兴趣区内操作者/参与者的生理体征变化评估数据;受访问评估数据包括各兴趣区的访问次数、总停留时间和/或访问时间占比;受注视评估数据包括各兴趣区的被注视总时长、被注视次数和/或被注视时间占比;生理体征变化评估数据包括:心率变异性数据、脑电变化数据。
步骤S105:将各兴趣区的所述受访问评估数据、受注视评估数据和/或生理体征变化评估数据作为评估元素关联于各兴趣区的设定评估指标,以获得相应的评估结果。
在步骤S101中,为了分析三维空间内建筑结构、设计以及物品配置方式对于操作者 /参与者行为和心理的影响,就需要获取操作者/参与者在三维空间内的反应数据,通过反应数据所表现的特征反馈操作者/参与者在待分析的三维空间内的行为、关注点和情绪的产生和变化。
反应数据中,空间定位信息可以根据三维空间的类型,采用适应性的方式获取。对于现实三维空间可以通过GPS定位系统或北斗定位系统等进行定位;在室内空间中,也可以通过红外传感器捕捉操作者/参与者位置。进一步的,根据具体应用场景的需要,也可以增加设置激光雷达、惯性导航传感器等设备进行辅助定位以提高定位精度。对于虚拟三维空间,可以基于设备所构建的空间坐标系直接获取当前操作者/参与者所处位置的定位信息。
反应数据中,眼动数据信息可以通过眼动数据仪进行采集,原始的眼动数据可以包括按照指定间隔时间采集的眼球坐标、视觉方向、眼动角速度以及相应的眼动点坐标(视觉方向延长线与三维空间内第一个事物的交点的坐标)。
反应数据中,生理体征数据信息可以通过可穿戴智能检测设备进行采集,包括脉搏数据信息、皮肤电数据信息、脑电数据信息、血氧饱和度数据信息等。生理特征数据信息应当与操作者/参与者的情绪具有一定的相关性。
在步骤S102中,三维空间对于操作者/参与者行为和心理的影响,实际是由包含有特定设计和构筑物的区域产生的,例如,商场的广告牌或者店铺的装潢,会提示和激发操作者/参与者的消费行为,当操作者/参与者关注或者身处相应空间内时,行为和心理情绪会受环境影响产生一定变化。又例如,娱乐场所或艺术场馆中,设计者会期待特定的设计内容收到关注,为了评价某些空间设计的好坏,就需要根据操作者/参与者与对应空间的交互数据进行分析。因此,需要对三维空间内,包含待评价内容或者包含能够激发操作者/ 参与者行为和心理情绪变化的部分进行标注,作为兴趣区。
在一些实施例中,标记或获取三维空间内一个或多个兴趣区的三维坐标时,可以采用一个或多个立方体在三维空间内框选兴趣区,记录每个立方体各顶点的位置坐标,用于标记兴趣区边界范围。在本实施例中,为了标记出相应的兴趣区的范围,采用立方体进行框选标记,其优点在于,只需要记录立方体八个顶点的坐标,就能够划定一个范围;在判断操作者/参与者空间定位或眼动数据相关位置是否在兴趣区内时,进行坐标对比的过程较为简单。进一步的,针对每一处待评估的空间,可以采用一个立方体进行框选,也可以通过多个立方体进行组合框选,用于标注不规则空间作为兴趣区。
在一些实施例中,标记或获取所述三维空间内一个或多个兴趣区的三维坐标,可以采用一个或多个球体在所述三维空间内框选兴趣区,记录每个球体的圆心位置坐标以及半径长度,用于标记兴趣区边界。在本实施例中,通过球体标注兴趣区,其优点在于,在判断定位信息或眼动数据相关信息是否在兴趣区内时,只需要计算相应位置点到该球体球心的距离,判断该距离是否小于球体半径。进一步的,针对每一处待评估的空间,可以采用一个球体进行框选,也可以通过多个球体进行组合框选,用于标注不规则空间作为兴趣区。
在一些实施例中,三维空间内能够激发操作者/参与者行为或情绪变化的内容并不是固定的,也可能由某一区块内发生的事件引发行为或情绪变化。具体的,事件可以定义为局部空间状态变化,这种变化可以包括形态变化、光线变化、声音变化以及事物增减变化等。例如,在游戏建立的虚拟三维空间内,某一点的爆炸属于一起能够激发操作者/参与者行为或情绪变化的事件;又例如,游戏构建的虚拟三维空间中的人物出现,三维空间中霓虹灯的变化。这些事件的作用只有在发生时以及发生后才表现出来。
因此,在一些实施例中,标记或获取所述三维空间内一个或多个兴趣区的三维坐标,包括:记录三维空间内一个或多个事件,并按照事件的发生时间段,将事件的发生位置标注为兴趣区。
进一步的,由于兴趣区对操作者/参与者行为和心理情绪的影响方式不同,又或者兴趣区内事件的本身属性存在差异,可以对不同类型的兴趣区进行分组处理和分析。因此,在一些实施例中,标记或获取三维空间内一个或多个兴趣区的三维坐标之后,还包括:对兴趣区按照一个或多个属性进行分组,用于参照不同组别的属性对各兴趣区进行分析。
示例性的,在对住宅室内设计样式进行分析评价的过程中,可以根据空间功能区域的划分,将各兴趣区按照采光功能、娱乐功能、休息功能以及餐厨功能等进行分组。在分析过程中,按照兴趣区的分组,将同一分组内的各兴趣区进行对比,可以得到相同属性的兴趣区对操作者/参与者行为和心理情绪的影响;将不同分组的兴趣区对比,可以得到不同属性的兴趣区对于某些特定行为或心理情绪的作用差异。
在步骤S103中,为了对各兴趣区进行有效的分析,需要将采集到的反应数据与待分析的三维空间进行关联。在本实施例中,首先通过空间定位信息生成空间轨迹图,具体的,按照采样时间的顺序,将操作者/参与者的定位信息一次标注在与待评估三维空间相对应的坐标系中。同时,为了直观表现操作者/参与者在待评估的三维空间内的行为及心理情绪变化,将相应的反应数据分别标记在空间轨迹途中。
示例性的,如图2所示,X轴和Y轴分别表示用于标定三维空间中地面的横坐标轴和纵坐标轴,T表示时间。操作者/参与者在三维空间内移动时,按照采样时间t1~t12将定位信息生成、眼动数据信息和生理特征数据信息标注在三轴坐标系中,P1~P8为操作者/ 参与者在地面上的行动轨迹,其中为P2和P6为异常点,应当去除。在另一些实施例中,如图3所示,X轴、Y轴和Z轴为用于标记待分析三维空间的空间坐标系,K1~K12为按照时间顺序依次标记的空间位置,同时,将眼动数据信息和生理特征数据信息标注在对应的位置上。
在步骤S104中,各兴趣区内的空间定位信息,能够表明操作者/参与者到达了相应的位置,对相应的兴趣区进行了访问,因此,根据空间定位信息可以生成各兴趣区的受访问评估数据,至少包括各兴趣区的访问次数、总停留时间和/或访问时间占比。
根据各兴趣区对应的眼动数据,可以筛选出眼动角速度小于设定值的眼动点作为注视点;进一步的,在兴趣区内产生的注视动作,可以反映该兴趣区对于操作者/参与者的吸引效果。受注视评估数据至少包括各兴趣区的被注视总时长、被注视次数和/或被注视时间占比。
各兴趣区对应的生理特征数据信息的波动情况,能够反映操作者/参与者在各兴趣区内的兴趣变化。生理体征变化评估数据至少包括:心率变异性数据、脑电变化数据。
在步骤S105中,受访问评估数据、受注视评估数据以及生理体征变化评估数据用于反馈操作者/参与者对各兴趣区的访问情况、关注情况以及情绪波动情况。结合前述的三类评估元素,可以根据具体的分析需求,导出相应的设定评估指标。设定评估指标是根据具体的分析需求设定的,可以是操作者/参与者对三维空间内兴趣区的喜好程度、厌恶程度或恐惧程度等,也可以是对行为模式的分析评价。
示例性的,在分析评价操作者/参与者对兴趣区的喜好程度时,受访问评估数据中,兴趣区的访问次数越多、总停留时间越长、访问时间占比越高表示操作者/参与者对于兴趣区的喜好程度越高;受注视评估数据中,兴趣区的被注视总时长越长、被注视次数越多、被注视时间占比越高表示操作者/参与者对于兴趣区的关注度越高,喜好程度越高;生理体征变化评估数据中,心率变异性数据和脑电变化数据的变化程度越高,表示兴趣区对操作者/参与者情绪的激发程度越高。通过对受访问评估数据、受注视评估数据以及生理体征变化评估数据的加权评价,可以得到操作者/参与者对于兴趣区喜好程度的评价结果。
由于对于操作者/参与者行为的分析不仅限于对兴趣区访问行为,在一些实施例中,结合具体应用场景的分析需求,可以对更复杂的行为举止特征进行记录和分析。具体的,用于反映操作者/参与者行为举止特征的数据,可以包括:面部表情数据、行为数据以及动作数据;其中,面部表情数据可以通过计算机视觉传感器进行捕捉,内容依据操作者/ 参与者的情绪状态进行划分,可以包括:喜、怒、哀、乐以及惊恐等基础表情,在另一些实施例中,也可以根据情绪程度进行细化分类。行为数据可以按照待分析的三维空间的功能和分析目的进行采集,例如,在对特定行车环境中操作者/参与者的驾驶行为进行分析时,可以采集包括加速、减速、怠速和停车的速度控制行为,以及包括左换道、右换道、调头、倒车、左转和右转的转向行为。动作数据是对操作者/参与者姿态特征的记录,例如对于强光的遮挡,对于物体的闪躲等。面部表情数据、行为数据以及动作数据是操作者 /参与者对三维空间内场景和事件的反馈,能够反映三维空间内结构设计元素或者事件对操作者/参与者的影响,能够指导对三维空间内功能的提升或抑制。例如,在对停车场三维空间设计进行分析评价的过程中,若刹车和加速行为过于频繁,则表明停车场的弯道设计不够流畅。
在一些实施例中,所述方法还包括:基于时间同步技术采用数据同步装置,同时控制采集人机交互数据以及对应的空间位置数据,并在同一时间轴进行呈现。人机交互数据可有包括眼动数据、脑电数据、生理体征数据以及通过编号标记的行为数据,将人机交互数据以及对应的空间位置数据,沿时间轴进行可视化的呈现,进行直观分析评价。
因此,在本实施例中,步骤S101中,获取操作者/参与者在三维空间内的反应数据时,还包括S201~S202:
S201:同步获取操作者/参与者在三维空间内的面部表情数据、行为数据以及动作数据;
S202:将面部表情数据、行为数据以及动作数据按照内容进行编码,用于按照对应的空间定位信息标注在空间轨迹图中,作为评估元素同步关联于各兴趣区的设定评估指标,用于分析各兴趣区对操作者/参与者情绪和行为的诱发作用。
在步骤S201~S202中,由于面部表情数据、行为数据以及动作数据不能直接记录,因此,将面部表情、行为和动作进行编码,将相应的编码记录在步骤S103中生成的空间轨迹图中,用于直观表现形成可视化数据。在另一些实施例中,也可以通过颜色、形状或者符号进行记录和标注,形成更高的可视化效果。示例性的,将微笑表情设置编码1、愤怒表情设置为编码2,标注在空间轨迹图中,形成可视化的面部表情变化图像。对于行为的分析评价,可以通过分析各兴趣区内特定行为的发生频率进行评价,也可以通过分析事件发生前后行为的变化进行评价。
在一些实施例中,在步骤S105中,将各兴趣区的受访问评估数据、受注视评估数据和/或生理体征变化评估数据作为评估元素关联于各兴趣区的设定评估指标,以获得相应的评估结果,如图4所示,包括步骤S301~S304:
步骤S301:将各兴趣区对应的受访问评估数据中的访问次数、总停留时间以及访问时间占比做归一化处理后,加权求和得到各兴趣区的受访问评估指标。
步骤S302:将各兴趣区对应的受注视评估数据中的被注视总时长、被注视次数以及被注视时间占比做归一化处理后,加权求和得到各兴趣区的受注视评估指标。
步骤S303:将各兴趣区对应的生理体征变化评估数据中的心率变异性数据和脑电变化数据做归一化处理后,加权求和得到各兴趣区的生理体征变化评估指标。
步骤S304:将各兴趣区对应的受访问评估指标、受注视评估指标以及生理体征变化评估指标加权求和,得到各兴趣区对应的设定评估指标;其中,设定评估指标为交互程度评价指标。
在步骤S301中,访问次数、总停留时间以及访问时间占比的量纲并不同一,在进行归一化处理后(可以将数据映射到0~1范围之内),通过加权求和,得到受访问评估指标。本事实例中,受访问评估指标的数值越高,表示操作者/参与者与兴趣区的交互程度越高。
在步骤S302中,被注视总时长、被注视次数以及被注视时间占比的量纲并不同一,在进行归一化处理后(可以将数据映射到0~1范围之内),通过加权求和,得到受注视评估指标。本事实例中,受注视评估指标的数值越高,表示操作者/参与者与兴趣区的交互程度越高,兴趣区对于操作者/参与者的吸引力越高。
在步骤S303中,可以采用脉搏信号和脑电信号的标准差作为心率变异性数据和脑电变化数据,在进行归一化处理后(可以将数据映射到0~1范围之内),通过加权求和,得到生理体征变化评估指标。本事实例中,生理体征变化评估指标的数值越高,表示兴趣区对于操作者/参与者情绪的激发程度越高,也即吸引效果越好。
在步骤S304中,通过对受访问评估指标、受注视评估指标以及生理体征变化评估指标加权求和,得到各兴趣区对应的设定评估指标,反应操作者/参与者与各兴趣区的交互程度,进一步的精确评估为兴趣区对操作者/参与者的吸引程度。
在一些实施例中,步骤S105之前,即将各兴趣区的受访问评估数据、受注视评估数据和/或生理体征变化评估数据作为评估元素关联于各兴趣区的设定评估指标,以获得相应的评估结果之前,还包括:
根据眼动数据信息生成三维空间的注视点热力图,用于根据三维空间内注视点的密度反映操作者/参与者与各兴趣区的交互程度。
在三维空间内,对操作者/参与者吸引程度较高的兴趣区会获得更高的关注度。本事实例中,将操作者/参与者在待分析的三维空间中产生出注视点标注在三维空间坐标系中生成注视点热力图,其中,注视点越密集颜色越深。注视点热力图可以可视化呈现操作者/参与者注视点,直观反映兴趣区与操作者/参与者之间的交互程度,作为评价分析的设定评估指标的要素。
一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求上述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现权利要求上述方法的步骤。
在一些实施例中,基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法,包括:
1.新建项目,定义采集数据类型以及三维空间分析目标。
2.同步记录,同步记录反应数据,包括空间定位(VR空间定位、真实现场的GPS定位数据以及室内空间定位),操作者/参与者的生理特征数据、眼动数据、动作捕捉数据、脑电数据以及交互行为等。
3.多模态数据自动编码。将个体的多模态数据进行编码,包括个体情绪状态编码、个体交互行为编码、个体眼动状态自动编码。
4.时空兴趣区SOI(Spatio-Temporal of Interest)选择获取:系统导入地图(VR场景地图、世界地图以及特定室内地图),自定义绘制感兴趣的空间区域,可以自由变换绘制方式、显示方式。在同步时间轴上,自由选择想要分析的事件片段,二者结合形成时空分析对象,即时空兴趣区。
5.时空分析可视化:将反应数据生成可视化热图,直观的表现在整个时空状态下,个体的交互行为、情绪状态、眼动状态等多元编码数据的分配,预测趋势。
6.数据统计:系统自动统计出不同时空下,个体的停留时间、次数,访问时间、次数等数据,以及在不同时空下个体的多模态数据。
综上所述,本发明所述基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法及装置,通过采集操作者/参与者在待分析的三维空间内产生的反应数据,并标注三维空间内的兴趣区,将基于兴趣区产生的反应数据作为评价参数,分析三维空间对操作者/参与者行为和心理情绪的影响,可以得到操作者/参与者行为模式、心理状态变化与三维空间内设计、布局、物品以及事件的相关性。其中,基于空间定位信息形成空间轨迹图,并将眼动数据信息和生理特征数据信息按照对应的位置添加在空间轨迹途中,直观记录并体现操作者/参与者在各兴趣区内的行为,可视化呈现出操作者/参与者行为和情绪的变化,有利于产生分析结果。
本领域普通技术人员应该可以明白,结合本文中所公开的实施方式描述的各示例性的组成部分、系统和方法,能够以硬件、软件或者二者的结合来实现。具体究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(ASIC)、适当的固件、插件、功能卡等等。当以软件方式实现时,本发明的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、ROM、闪存、可擦除 ROM(EROM)、软盘、CD-ROM、光盘、硬盘、光纤介质、射频(RF)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
还需要说明的是,本发明中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或系统。但是,本发明不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
本发明中,针对一个实施方式描述和/或例示的特征,可以在一个或更多个其它实施方式中以相同方式或以类似方式使用,和/或与其他实施方式的特征相结合或代替其他实施方式的特征。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明实施例可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法,其特征在于,包括:
获取操作者/参与者在三维空间内的反应数据,所述反应数据至少包括同步采集的空间定位信息、眼动数据信息和生理体征数据信息;所述三维空间包括真实三维空间和虚拟三维空间;
标记或获取所述三维空间内一个或多个兴趣区的三维坐标;
根据所述空间定位信息生成空间轨迹图,并将所述眼动数据信息和所述生理特征数据信息按照对应的所述空间定位信息标注在所述空间轨迹图中;
根据各兴趣区的三维坐标,提取各兴趣区空间范围内的所述空间定位信息并生成各兴趣区的受访问评估数据,提取各兴趣区空间范围内的所述眼动数据信息并生成各兴趣区的受注视评估数据,并提取各兴趣区空间范围内的所述生理体征数据信息并生成各兴趣区内操作者/参与者的生理体征变化评估数据;所述受访问评估数据包括各兴趣区的访问次数、总停留时间和/或访问时间占比;所述受注视评估数据包括各兴趣区的被注视总时长、被注视次数和/或被注视时间占比;所述生理体征变化评估数据包括:心率变异性数据、脑电变化数据;
将各兴趣区的所述受访问评估数据、所述受注视评估数据和/或所述生理体征变化评估数据作为评估元素关联于各兴趣区的设定评估指标,以获得相应的评估结果。
2.根据权利要求1所述的基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法,其特征在于,还包括:
基于时间同步技术采用数据同步装置,同时控制采集人机交互数据以及对应的空间位置数据,并在同一时间轴进行呈现。
3.根据权利要求1所述的一种基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法,其特征在于,标记或获取所述三维空间内一个或多个兴趣区的三维坐标,包括:
采用一个或多个立方体在所述三维空间内框选兴趣区,记录每个立方体各顶点的位置坐标,用于标记兴趣区边界范围;或
采用一个或多个球体在所述三维空间内框选兴趣区,记录每个球体的圆心位置坐标以及半径长度,用于标记兴趣区边界。
4.根据权利要求1所述的一种基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法,其特征在于,标记或获取所述三维空间内一个或多个兴趣区的三维坐标,包括:
记录所述三维空间内一个或多个事件,并按照所述事件的发生时间段,将所述事件的发生位置标注为兴趣区。
5.根据权利要求1所述的一种基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法,其特征在于,标记或获取所述三维空间内一个或多个兴趣区的三维坐标之后,还包括:
对所述兴趣区按照一个或多个属性进行分组,用于参照不同组别的属性对各兴趣区进行分析。
6.根据权利要求1所述的一种基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法,其特征在于,获取操作者/参与者在三维空间内的反应数据时,还包括:
同步获取操作者/参与者在所述三维空间内的面部表情数据、行为数据以及动作数据;
将所述面部表情数据、所述行为数据以及所述动作数据按照内容进行编码,用于按照对应的所述空间定位信息标注在所述空间轨迹图中,作为评估元素同步关联于各兴趣区的设定评估指标,用于分析各兴趣区对操作者/参与者情绪和行为的诱发作用。
7.根据权利要求1所述的一种基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法,其特征在于,将各兴趣区的所述受访问评估数据、所述受注视评估数据和/或所述生理体征变化评估数据作为评估元素关联于各兴趣区的设定评估指标,以获得相应的评估结果,包括:
将各兴趣区对应的受访问评估数据中的所述访问次数、所述总停留时间以及所述访问时间占比做归一化处理后,加权求和得到各兴趣区的受访问评估指标;
将各兴趣区对应的所述受注视评估数据中的所述被注视总时长、所述被注视次数以及所述被注视时间占比做归一化处理后,加权求和得到各兴趣区的受注视评估指标;
将各兴趣区对应的所述生理体征变化评估数据中的所述心率变异性数据和所述脑电变化数据做归一化处理后,加权求和得到各兴趣区的生理体征变化评估指标;
将各兴趣区对应的所述受访问评估指标、所述受注视评估指标以及所述生理体征变化评估指标加权求和,得到各兴趣区对应的所述设定评估指标;其中,设定评估指标为交互程度评价指标。
8.根据权利要求1所述的一种基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法,其特征在于,将各兴趣区的所述受访问评估数据、所述受注视评估数据和/或所述生理体征变化评估数据作为评估元素关联于各兴趣区的设定评估指标,以获得相应的评估结果之前,还包括:
根据所述眼动数据信息生成所述三维空间的注视点热力图,用于根据所述三维空间内注视点的密度反映操作者/参与者与各兴趣区的交互程度。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至8任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至8任一项所述方法的步骤。
CN202010603793.1A 2020-06-29 2020-06-29 基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法和装置 Active CN111983210B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010603793.1A CN111983210B (zh) 2020-06-29 2020-06-29 基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010603793.1A CN111983210B (zh) 2020-06-29 2020-06-29 基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法和装置

Publications (2)

Publication Number Publication Date
CN111983210A true CN111983210A (zh) 2020-11-24
CN111983210B CN111983210B (zh) 2022-04-15

Family

ID=73442220

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010603793.1A Active CN111983210B (zh) 2020-06-29 2020-06-29 基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法和装置

Country Status (1)

Country Link
CN (1) CN111983210B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114022642A (zh) * 2021-10-08 2022-02-08 北京津发科技股份有限公司 时空行为轨迹采集、生成方法、装置、设备、系统及存储介质
CN114036623A (zh) * 2021-11-19 2022-02-11 清华大学 一种基于建成空间人因数据的图解设计方法
CN115857595A (zh) * 2023-03-02 2023-03-28 安徽星辰智跃科技有限责任公司 基于用户心境的功能环境调节方法、系统和装置
CN116684524A (zh) * 2022-09-30 2023-09-01 荣耀终端有限公司 一种地点标注方法、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008134595A1 (en) * 2007-04-27 2008-11-06 Pelago, Inc. Determining locations of interest based on user visits
US8379053B1 (en) * 2012-01-24 2013-02-19 Google Inc. Identification of areas of interest on a web page
JP2017151852A (ja) * 2016-02-26 2017-08-31 国立大学法人京都大学 人物移動予測システム
CN110074797A (zh) * 2019-04-17 2019-08-02 重庆大学 基于脑电波和时空数据融合的时空-心理分析方法
US20190332855A1 (en) * 2017-03-14 2019-10-31 Omron Corporation Person trend recording device, person trend recording method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008134595A1 (en) * 2007-04-27 2008-11-06 Pelago, Inc. Determining locations of interest based on user visits
US8379053B1 (en) * 2012-01-24 2013-02-19 Google Inc. Identification of areas of interest on a web page
JP2017151852A (ja) * 2016-02-26 2017-08-31 国立大学法人京都大学 人物移動予測システム
US20190332855A1 (en) * 2017-03-14 2019-10-31 Omron Corporation Person trend recording device, person trend recording method, and program
CN110074797A (zh) * 2019-04-17 2019-08-02 重庆大学 基于脑电波和时空数据融合的时空-心理分析方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114022642A (zh) * 2021-10-08 2022-02-08 北京津发科技股份有限公司 时空行为轨迹采集、生成方法、装置、设备、系统及存储介质
CN114022642B (zh) * 2021-10-08 2022-07-19 北京津发科技股份有限公司 时空行为轨迹采集、生成方法、装置、设备、系统及存储介质
WO2023056753A1 (zh) * 2021-10-08 2023-04-13 北京津发科技股份有限公司 时空行为轨迹采集、生成方法、装置、设备、系统及存储介质
EP4184445A4 (en) * 2021-10-08 2024-01-03 Kingfar Int Inc METHOD, APPARATUS, APPARATUS, SYSTEM AND STORAGE MEDIUM FOR COLLECTING SPATIO-TEMPORAL BEHAVIORS AND FOR GENERATING A SPATIO-TEMPORAL BEHAVIOR TRACE
CN114036623A (zh) * 2021-11-19 2022-02-11 清华大学 一种基于建成空间人因数据的图解设计方法
CN114036623B (zh) * 2021-11-19 2024-05-28 清华大学 一种基于建成空间人因数据的图解设计方法
CN116684524A (zh) * 2022-09-30 2023-09-01 荣耀终端有限公司 一种地点标注方法、电子设备及存储介质
CN116684524B (zh) * 2022-09-30 2024-04-05 荣耀终端有限公司 一种地点标注方法、电子设备及存储介质
CN115857595A (zh) * 2023-03-02 2023-03-28 安徽星辰智跃科技有限责任公司 基于用户心境的功能环境调节方法、系统和装置
CN115857595B (zh) * 2023-03-02 2023-05-05 安徽星辰智跃科技有限责任公司 基于用户心境的功能环境调节方法、系统和装置

Also Published As

Publication number Publication date
CN111983210B (zh) 2022-04-15

Similar Documents

Publication Publication Date Title
CN111983210B (zh) 基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法和装置
LaViola Jr et al. 3D user interfaces: theory and practice
Duchowski A breadth-first survey of eye-tracking applications
Blascheck et al. State-of-the-art of visualization for eye tracking data.
US9652032B2 (en) Simulated training environments based upon fixated objects in specified regions
US7972140B2 (en) Method and apparatus for performing a behaviour analysis using a virtual environment
US6625299B1 (en) Augmented reality technology
Blascheck et al. Challenges and perspectives in big eye-movement data visual analytics
CN106095089A (zh) 一种获取感兴趣目标信息的方法
CN103186922A (zh) 使用扩增现实显示器表示以前时间段时的场所
Avola et al. Deep temporal analysis for non-acted body affect recognition
CN109887095A (zh) 一种情绪刺激虚拟现实场景自动生成系统及方法
Cordeiro et al. ARZombie: A mobile augmented reality game with multimodal interaction
US20170329401A1 (en) Simulated training environments based upon fixated objects in specified regions
Emerson et al. Early prediction of visitor engagement in science museums with multimodal learning analytics
Tao et al. Manufacturing assembly simulations in virtual and augmented reality
Tian et al. Behavior analysis of indoor escape route-finding based on head-mounted vr and eye tracking
Bianconi et al. Immersive wayfinding: virtual reconstruction and eye-tracking for orientation studies inside complex architecture
Zheng et al. Application of eye-tracking technology in humanities, social sciences and geospatial cognition
Fedotov et al. Towards estimating emotions and satisfaction level of tourist based on eye gaze and head movement
Nam et al. Development of a user evaluation system in virtual reality based on eye-tracking technology
Seccaroni et al. Urban Atmospheres: Representation of Intangible Relations
Calapatia et al. Using body posture, movement and human activity to predict emotions
CN114863318A (zh) 一种基于多模态数据融合的行为识别方法
Grazioso et al. Using Eye Tracking Data to Understand Visitors' Behaviour.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant