CN109902904A - 创新性能力分析系统及方法 - Google Patents
创新性能力分析系统及方法 Download PDFInfo
- Publication number
- CN109902904A CN109902904A CN201711311272.3A CN201711311272A CN109902904A CN 109902904 A CN109902904 A CN 109902904A CN 201711311272 A CN201711311272 A CN 201711311272A CN 109902904 A CN109902904 A CN 109902904A
- Authority
- CN
- China
- Prior art keywords
- analyzed
- data
- innovation
- information
- ability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了一种创新性能力分析系统及方法,所述系统的采集装置用于在待分析对象进行创新性活动的过程中,采集待分析对象的行为数据,并将行为数据发送至处理装置;处理装置用于对接收的行为数据进行处理,获取预先建立的创新性能力分析模型中各行为指标对应的指标信息,并将指标信息发送至分析装置;分析装置用于根据接收的指标信息,基于创新性能力分析模型对待分析对象的创新性能力进行分析,并输出待分析对象对应的创新性能力分析报告。本发明通过利用采集装置采集待分析对象的行为数据,能够方便地对行为数据进行采集,避免人工采集时的疏漏,并基于创新性能力分析模型对创新性能力进行评估,避免了人的主观因素对结果的影响。
Description
技术领域
本发明涉及分析评价技术领域,具体涉及一种创新性能力分析系统及方法。
背景技术
一个团队或者团队中个人的创新性能力可以从许多方面体现出来,比如个人知识水平、头脑风暴的质量、团队凝聚力、工作活跃程度和成员之间的配合与默契等。团队的创新性表现也受到许多因素的影响,比如领导者的领导方式、成员各自体现出的能力和态度、表现和积极性等等。
现有技术中,在对团队的创新性行为进行研究时,以上列举的这些方面和因素通常可以由观察人员或者管理者进行实时实地观察或者直接询问团队成员,然后根据观察者的主观标准对团队表现进行主观评价,从而决定一个团队及其各位成员的优劣。
但是这种方法至少存在以下缺陷:观察人员或者团队管理者难以捕捉到整个团队里每个人的一些细小的行为,无法同时观察多人完整的行为;如果增加观察人员又会有人力成本过高的问题,而且观察人员的存在容易对产品开发团队正常的工作和行为产生不必要的影响;观察者观察所能带来的仅是一些强烈的感觉(例如团队成员拥有好的领导和服从性,成员具有扎实的设计基础和工程技术基础或团队进行了一次了不起的概念设计等),这些表现让这个团队非常优秀,但这些主观感受很难客观地、量化地获取和记录,也就不能进行深入地、客观地挖掘和理解团队的行为;访谈这种常用的方法同样具有主观性强的问题,而且如果是在团队活动之后询问,会存在回忆与真实情况有出入的问题。
发明内容
针对现有技术中存在的上述缺陷,本发明提供一种创新性能力分析系统及方法。
本发明的一方面提供一种创新性能力分析系统,包括:采集装置、处理装置和分析装置;所述采集装置用于在待分析对象进行创新性活动的过程中,采集待分析对象的行为数据,并将行为数据发送至处理装置;所述处理装置用于对接收的行为数据进行处理,获取预先建立的创新性能力分析模型中各行为指标对应的指标信息,并将指标信息发送至分析装置;所述分析装置用于根据接收的指标信息,基于创新性能力分析模型对待分析对象的创新性能力进行分析,并输出待分析对象对应的创新性能力分析报告。
其中,所述采集装置具体包括图像数据采集模块和/或声音数据采集模块;所述图像数据采集模块用于采集以待分析对象为第一视角的图像数据以及在进行创新性活动的场所中以作为观察者的第三视角的图像数据;所述声音数据采集模块用于采集待分析对象产生的声音数据和与待分析对象进行互动的互动对象产生的声音数据。
其中,所述处理装置具体包括图像数据处理模块和声音数据处理模块;所述图像数据处理模块用于对接收的图像数据进行图像识别处理,获取活动场景信息、创新性活动中各子活动时长、互动对象的身份信息、表情信息以及互动时长;所述声音数据处理模块用于对接收的声音数据依次进行人声分离处理和声学分析处理,获取发声对象的声学特征;和/或依次进行人声分离处理和语义分析处理,获取发声对象的沟通内容;所述声学特征具体包括声音频率、声音强度、情绪信息和语音时长;所述声音数据处理模块还用于根据沟通内容获取发声对象的思维方式信息及团队氛围信息;所述发声对象包括待分析对象和互动对象。
其中,所述采集装置还包括位置数据采集模块、生理数据采集模块和运动数据采集模块中的至少一个;所述位置数据采集模块用于采集待分析对象在进行创新性活动的场所中的位置数据;所述生理数据采集模块用于采集待分析对象的生理数据,所述生理数据包括皮肤电阻数据、眼动数据、脑电图和脉搏数据中的至少一个;所述运动数据采集模块用于采集待分析对象在进行创新性活动中的运动数据。
其中,所述处理装置还包括位置数据处理模块、生理数据处理模块和运动数据处理模块;所述位置数据处理模块用于对接收的位置数据进行噪点剔除处理和平滑处理,获取待分析对象的移动轨迹;并根据移动轨迹获取待分析对象的运动距离、与进行创新性活动的场所中其他对象的间距、近距离接触信息、位置分布信息以及与物理环境的交互信息中的至少一个;所述生理数据处理模块用于对接收的生理数据进行统计分析和时序分析,获取待分析对象在创新性活动过程中的投入程度信息、集中程度信息、专注程度信息、心智负荷信息、情绪变化信息和关注点变化信息中的至少一个;所述运动数据处理模块用于对接收的动作数据进行处理,获取待分析对象的动作数据、姿势数据、速度数据和力量数据中的至少一个。
其中,所述分析装置还用于根据互动对象的身份信息建立待分析对象的社交互动网络图;所述社交互动网络图包括待分析对象节点及互动对象节点,节点的大小由对应的语音时长确定,节点之间连线的粗细由对应的沟通内容确定。
其中,所述分析装置还用于根据待分析对象的身份信息建立待分析对象的物理互动网络;所述物理互动网络包括待分析对象节点及交流对象节点,节点大小由对应的动作数据确定,节点之间连线的粗细由对应的近距离接触信息确定。
其中,所述创新性能力分析模型的行为指标包括创造性思维能力、问题解决能力、活力、态度和团队合作能力中的至少一个。
其中,所述分析装置具体用于获取参与所述创新性活动的多个对象的指标信息集合,并根据指标信息对应的值,输出包含有待分析对象的指标信息在所述指标信息集合中的排序信息的创新性能力分析报告。
本发明的另一方面提供一种创新性能力分析方法,包括:采集装置在待分析对象进行创新性活动的过程中,采集待分析对象的行为数据,并将行为数据发送至处理装置;处理装置对接收的行为数据进行处理,获取预先建立的创新性能力分析模型中各行为指标对应的指标信息,并将指标信息发送至分析装置;分析装置根据接收的指标信息,基于创新性能力分析模型对待分析对象的创新性能力进行分析,并输出待分析对象对应的创新性能力分析报告。
本发明提供的创新性能力分析系统和方法,通过利用采集装置采集待分析对象的行为数据,能够方便地对行为数据进行采集,避免人工采集时的疏漏,并基于创新性能力分析模型对创新性能力进行评估,避免了人的主观因素对结果的影响。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的创新性能力分析系统的结构示意图;
图2为本发明实施例提供的创新性能力分析系统的可视化分析结果的示意图;
图3为本发明实施例提供的创新性能力分析方法的流程示意图;
图4为本发明另一实施例提供的创新性能力分析方法的流程示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供的创新性能力分析系统的结构示意图,如图1所示,包括:采集装置101、处理装置102和分析装置103;所述采集装置101用于在待分析对象进行创新性活动的过程中,采集待分析对象的行为数据,并将行为数据发送至处理装置102;所述处理102装置用于对接收的行为数据进行处理,获取预先建立的创新性能力分析模型中各行为指标对应的指标信息,并将指标信息发送至分析装置103;所述分析装置103用于根据接收的指标信息,基于创新性能力分析模型对待分析对象的创新性能力进行分析,并输出待分析对象对应的创新性能力分析报告。
具体地,采集装置101可以由待分析对象佩戴,来近距离采集待分析对象的行为数据;采集装置101同样可以设置在进行创新性活动的场所中,从而广泛的记录整个创新性活动各对象的行为数据;采集装置101可以实时地将行为数据发送至处理装置102,或者在创新性活动结束后,将活动全程采集到的行为数据统一发送至处理装置102。
处理装置102在接收到采集装置101发送的行为数据后,具体对行为数据中的信息进行提取;提取的过程是基于预先建立的创新性能力分析模型,该模型具有多个指标,并基于每个指标对应的值对待分析对象的创新性能力进行分析和评估;处理装置102在提取到指标信息后,将指标信息发送到分析装置103。
分析装置103在接收到处理装置102发送的指标信息后,是基于创新性能力分析模型进行分析;例如可以对多个指标赋予不同的权重,再根据指标信息能够获取到最终的“创新性能力值”;创新性能力分析报告可以包括上述创新性能力值以及各项指标信息,指标信息反映待分析对象的实际表现情况或得分。
本发明实施例提供的创新性能力分析系统,通过利用采集装置采集待分析对象的行为数据,能够方便地对行为数据进行采集,避免人工采集时的疏漏,并基于创新性能力分析模型对创新性能力进行评估,避免了人的主观因素对结果的影响。
在上述任一实施例的基础上,所述采集装置101具体包括图像数据采集模块和/或声音数据采集模块;所述图像数据采集模块用于采集以待分析对象为第一视角的图像数据以及在进行创新性活动的场所中以作为观察者的第三视角的图像数据;所述声音数据采集模块用于采集待分析对象产生的声音数据和与待分析对象进行互动的互动对象产生的声音数据。
其中,图像数据采集模块可以包含两部分,一是由被采集个体(及待分析对象)穿戴的含有微型摄像机的采集设备,以佩戴者的第一视角录制活动过程和活动场景;二是在活动空间内放置数量合适的摄像机以获得全景,以观察者的第三视角录制创新性活动过程。另外,还可以从第二视角去获取图像数据,即从互动对象的视角获取到待分析对象的图像数据。
其中,声音数据采集模块可以包括两部分,一是由被采集个体穿戴的、有录音功能的采集设备,录制佩戴者的语音、同空间内其他人员(包括与待分析对象进行了互动的互动对象)的语音以及活动过程产生的其他音频;二是放置在活动空间内的数量合适、位置合理的录音设备,录制可达范围内产生的所有声音信息;具体可以由录音笔和具有录音功能的摄像机组成,每位人员佩戴录音笔(也可由微型摄像机或者摄像眼镜等代替)用于记录各自的语言活动;同时,针对团队活动,如果活动空间不大,且人员分布比较集中时,需在集中处放置录音笔录制团队整体的语言活动。
在上述任一实施例的基础上,所述处理装置102具体包括图像数据处理模块和声音数据处理模块;所述图像数据处理模块用于对接收的图像数据进行图像识别处理,获取活动场景信息、创新性活动中各子活动时长、互动对象的身份信息、表情信息以及互动时长;所述声音数据处理模块用于对接收的声音数据依次进行人声分离处理和声学分析处理,获取发声对象的声学特征;和/或依次进行人声分离处理和语义分析处理,获取发声对象的沟通内容;所述声学特征具体包括声音频率、声音强度、情绪信息和语音时长;所述声音数据处理模块还用于根据沟通内容获取发声对象的思维方式信息及团队氛围信息;所述发声对象包括待分析对象和互动对象。
表1处理装置的处理原理
如表1所示,图像数据处理模块以图像识别技术为主要方法,旨在从第一视角的图像数据中挖掘出待分析对象个体的活动场景信息、不同类型活动的分别用时(即创新性活动中各子活动时长)、团队成员之间面对面互动信息、互动对象的身份信息与表情信息以及进行互动的时长。
其中,声音数据处理模块以谱分析、独立成分分析、盲源分离为主要方法,实现音频的降噪和人声分离;
在人声分离后,进一步以声学分析为手段,获得发声人在声学特征,比如声音频率、声音强度、情绪、语音时长等方面的行为表现;
在人声分离后,进一步以自然语言处理技术为主要方法,实现个体语音到文本的转换;以语义分析和文本分析为手段,利用诸如情感分析、信息分类、实体识别、主题模型、文本聚类、关键词提取、社会网分析等方法,旨在获得团队或者个体在思维、氛围、沟通内容三个方面的表现,比如对话内容的广度与深度(思维方式)、团队氛围与积极性等。
在上述任一实施例的基础上,所述采集装置101还包括位置数据采集模块、生理数据采集模块和运动数据采集模块中的至少一个;所述位置数据采集模块用于采集待分析对象在进行创新性活动的场所中的位置数据;所述生理数据采集模块用于采集待分析对象的生理数据,所述生理数据包括皮肤电阻数据、眼动数据、脑电图和脉搏数据中的至少一个;所述运动数据采集模块用于采集待分析对象在进行创新性活动中的运动数据。
其中,位置数据采集模块的具有多种实现方式,包括UWB、蓝牙、Wi-Fi、基于Project Tango(运动追踪、深度感知和区域学习)、ZigBee、红外、超声波、视觉和RFID,在实际使用时根据环境状况和精度要求进行选择,并以设定的频率记录佩戴者(待分析对象和其他需要进行记录的对象)的二维或者三维坐标(即为位置数据)。
其中,生理信息是包括多模态的数据,包括:皮肤电阻、眼动数据、脑电图和脉搏信号;为采集到这些信息,所采用的生理数据采集模块的实现方式包含多种,例如眼动仪、无线多导仪和脑波仪。
其中,运动数据采集模块的运动捕捉功能的实现具有多种方式,包括基于视觉的运动捕获(使用设备比如微软的体感摄像机Kinect,适用于单人的运动捕捉)、基于反射器的运动捕获(适用于人员数量较多的应用环境)、基于惯性传感器的动作捕捉(需要人员穿戴由加速仪、陀螺仪、磁力仪等惯性测量单元组成的设备),最终采集到佩戴者在3D空间内的动作数据。
在上述任一实施例的基础上,所述处理装置102还包括位置数据处理模块、生理数据处理模块和运动数据处理模块;所述位置数据处理模块用于对接收的位置数据进行噪点剔除处理和平滑处理,获取待分析对象的移动轨迹;并根据移动轨迹获取待分析对象的运动距离、与进行创新性活动的场所中其他对象的间距、近距离接触信息、位置分布信息以及与物理环境的交互信息中的至少一个;所述生理数据处理模块用于对接收的生理数据进行统计分析和时序分析,获取待分析对象在创新性活动过程中的投入程度信息、集中程度信息、专注程度信息、心智负荷信息、情绪变化信息和关注点变化信息中的至少一个;所述运动数据处理模块用于对接收的动作数据进行处理,获取待分析对象的动作数据、姿势数据、速度数据和力量数据中的至少一个。
其中,对于定位数据,在定位精度不够理想时,定位数据会存在数据噪点;因此,位置数据处理模块利用移动平均的方法进行噪点剔除和平滑处理后,对位置数据进行分析,旨在获得个体在坐标系内的移动轨迹、运动距离、进行创新性活动各对象相互之间的距离、近距离接触情况(次数、频率)、团队分布紧密性、人与环境的交互情况。
其中,对于生理数据,生理数据处理模块旨在利用皮肤电阻变化、瞳孔大小、脑波波形、心率及心率变异率、注视点和注视轨迹等信息,挖掘出个体在投入程度、集中程度、专注度、心智负荷、情绪变化、关注点变化这几个方面的信息。
其中,对于运动捕捉数据的处理与分析,运动数据处理模块旨在获得个体动作、姿势、速度、力量等个体运动方面的信息。例如对于姿势,即建立骨骼坐标系,进行坐标系的运算后获取关节角度;速度则是获取单位时间内移动的角度或距离;动作则是根据姿势数据进行判断,例如根据关节角度对姿势进行判断,膝关节角度由大变小时认为对象在下蹲。
在上述任一实施例的基础上,所述分析装置103还用于根据互动对象的身份信息建立待分析对象的社交互动网络图;所述社交互动网络图包括待分析对象节点及互动对象节点,节点的大小由对应的语音时长确定,节点之间连线的粗细由对应的沟通内容确定。
具体地,通过分析图像信息和声音信息,旨在获得不同个体间互相沟通交流的情况;比如沟通交流过的其他个体的身份(即互动对象的身份信息)、沟通交流的时长等,对这类信息进行整理和总结,得出个体间的社交互动网络,此网络以个体说话时长为节点大小,以个体间沟通交流量为连线粗细;社交互动网络将能反应团队在沟通互动过程中,个体的中间度、联系的紧密性、子群等信息。
在上述任一实施例的基础上,所述分析装置还用于根据待分析对象的身份信息建立待分析对象的物理互动网络;所述物理互动网络包括待分析对象节点及交流对象节点,节点大小由对应的动作数据确定,节点之间连线的粗细由对应的近距离接触信息确定。
具体地,结合利用位置数据和运动数据挖掘出的行为数据,进行整理和总结,得出个体间的物理互动网络,物理互动网络以个体活动量(例如动作次数、频率)为节点大小,个体间近距离接触强度(例如近距离接触信息包括的近距离接触频率)为连线粗细。
在上述任一实施例的基础上,所述创新性能力分析模型的行为指标包括创造性思维能力、问题解决能力、活力、态度和团队合作能力中的至少一个。
表2创新能力分析模型指标
具体地,如表2所示,创新能力分析模型在评测个人或者团队的创新能力水平时,以创新思维能力、创新知识基础、创新实践技能和创新创业精神四个为一级指标,共包含18个二级指标。基于能力框架,从可操作性出发,本发明实施例提出了以创造性思维、问题解决能力、活力、态度和团队合作五个为能力测量维度的CREATE模型。各测量维度的定义和评价标准为:
创造性思维,既指以独创的方式综合现有想法、图像或专业知识的能力,也包括以富有创意的、思维发散的和冒险的想象力思考和工作的经历。创造者思维者可以超有固有认识的边界,将已有的知识和见解进行新的、独特的、非典型的重组以实现解决方案。评价标准包含:有广博的知识作为基础,如基础知识水平、专业知识水平、方法论知识水平等;灵感活跃,奇思妙想,创意丰富;观察力敏锐,能够迅速识别新事物和新问题,并能根据直觉做出相应判断;敢于批判、挑战先入为主的概念、思维角度和方法路线;提出新概念、新技术、新思想、新方法及新设计等独特见解。
问题解决能力,指在面临一个开放性问题或要达成某个目标时,进行设计、评估和实行一个解决方案能力。评价标准包含:能够有理有据的构建一个清晰和有见地的问题陈述;在已有条件下,检索、筛选、处理信息,清楚地知道能用于解决问题的多种方法;基于对问题的清晰认识提出一个或多个满足限制条件的假设或解决方法;能结合问题历史、可行性、可能造成的影响、逻辑性等对各种方案进行深刻的、全面的评估;彻底而深入地执行解决方案,问题的解决方案执行效果好;回顾解决方案的解决效果,深入考虑进一步工作的需要。
活力,反映人与人之间沟通互动、信息交换的质量与词数。简单的比如,用一句“对的”或者点头表示赞同就是产生了一次互动。评价标准包含:乐于与其他成员交流,最佳的是面对面的沟通,其次是电话或者视频,再到短信、电子邮件等电子文件沟通,交流次数也是考量因素;能够积极响应其他人的想法;与团队整体保持紧密的距离,这也是成员间的互动方式之一。
态度,指在团队活动中所体现出来的价值观和个人素养,比如关心他人,有高涨的士气和积极向上的心态。评价标准包含:有礼貌,尊重团队里的每一个人,语言积极,情绪乐观,身体语言也传达出正向意义;表现出对其他成员和整个团队的信任;有责任感,有毅力。
团队合作,指个体团队成员控制下的行为,比如他们投入团队任务的努力,他们与团队的其他人交互的方式,他们在团队讨论中做出的贡献的数量与质量。评价标准包含:帮助团队明确各种替代解决方案的价值,向前推进进度;能按时高质量地完成被分配的任务,同时帮助其他人高质量地完成工作;在集体讨论时吸引或者其他成员表达意见;当有成员与团队脱节时,邀请他们积极加入团队工作;帮助解决团队里的矛盾,增强团队的凝聚力和效力。
以上述提到的各创新能力维度的参考评价标准为基础,通过处理和分析行为设备采集到的显性数据,获得比如每个人参与面对面互动的次数和总时间、与其互动的不同成员的身份和数量、社会关系网络、身体活动情况及波动水平、交谈情况(比如说话总时间、情绪、语音能量、语义、情绪等)、近距离接触情况、心智负荷、生理反应等信息,从而挖掘出个人或者团队在各创新能力维度上的表现。
表3创新能力分析模型指标
如表3所示,以上分析所得出的行为表现能从不同角度、不同层面反映出个体或者团队在创新性能力上的隐性表现,从而用于评估个人或者团队的创新性能力。
其中,社交互动网络可用于评估个人或团队在团队合作、创造性思维、活力三个指标上的表现,如说话时长可用于评估创造性思维和活力,与他人沟通交流的情况可用于评估团队合作;
声学特征中,声音强度可用于评估活力,声音频率及其波动可用于评估态度;
而由声学特征挖掘出情绪信息,以及图像识别中的面部表情识别,加之文本分析中的情感分析结果,还有生理信息反映的情绪变化,可用于评估问题解决能力和态度;第一视角录像提供的活动场景与活动用时信息可用于评估问题解决能力;
利用文本分析挖掘出的个体和团队在思维和内容上表现则可用于评估创造性思维和问题解决能力;
物理互动网络的结构可用于评估个人或者团队在创造性思维、活力、态度、团队合作,如网络中节点的中心度可用于评估团队合作,运动距离和动作姿势的变化可用于评估活力;
生理信息反映的投入程度、集中程度、专注度、心智负荷以及关注点变化情况可用于评估问题解决能力。
在上述任一实施例的基础上,所述分析装置具体用于获取参与所述创新性活动的多个对象的指标信息集合,并根据指标信息对应的值,输出包含有待分析对象的指标信息在所述指标信息集合中的排序信息的创新性能力分析报告。
图2为本发明实施例提供的创新性能力分析系统的可视化分析结果的示意图,如图2所示,将在对所有参与活动的个体或者团队的相关行为指标数据进行分析,以其为整体,可以直观展现个体或者团队在整体中所处的百分位水平,从而评判其能力高低。例如语音时长,展示了多个对象的语音时长占全部对象所处的比例;团队内近距离接触次数中,以43号对象(#43)与21号对象(#21)、43号对象与44号对象(#44)以及21号对象与44号对象之间的近距离接触次数进行分析和展示。
应当说明的是,上述的采集模块结合供电模块可以集成,理想状态下,在各功能模块实际采用的设备足够小时,此采集装置可以集成到徽章大小,便于个体佩戴,同时不影响个体的自由活动。
图3为本发明实施例提供的创新性能力分析方法的流程示意图,如图3所示,包括:步骤301,采集装置在待分析对象进行创新性活动的过程中,采集待分析对象的行为数据,并将行为数据发送至处理装置;步骤302,处理装置对接收的行为数据进行处理,获取预先建立的创新性能力分析模型中各行为指标对应的指标信息,并将指标信息发送至分析装置;步骤303,分析装置根据接收的指标信息,基于创新性能力分析模型对待分析对象的创新性能力进行分析,并输出待分析对象对应的创新性能力分析报告。
具体地,采集装置可以由待分析对象佩戴,来近距离采集待分析对象的行为数据;采集装置同样可以设置在进行创新性活动的场所中,从而广泛的记录整个创新性活动各对象的行为数据;采集装置可以实时地将行为数据发送至处理装置,或者在创新性活动结束后,将活动全程采集到的行为数据统一发送至处理装置。
处理装置在接收到采集装置发送的行为数据后,具体对行为数据中的信息进行提取;提取的过程是基于预先建立的创新性能力分析模型,该模型具有多个指标,并基于每个指标对应的值对待分析对象的创新性能力进行分析和评估;处理装置在提取到指标信息后,将指标信息发送到分析装置。
分析装置在接收到处理装置发送的指标信息后,是基于创新性能力分析模型进行分析;例如可以对多个指标赋予不同的权重,再根据指标信息能够获取到最终的“创新性能力值”;创新性能力分析报告可以包括上述创新性能力值以及各项指标信息,指标信息反映待分析对象的实际表现情况或得分。
本发明实施例提供的创新性能力分析方法,通过利用采集装置采集待分析对象的行为数据,能够方便地对行为数据进行采集,避免人工采集时的疏漏,并基于创新性能力分析模型对创新性能力进行评估,避免了人的主观因素对结果的影响。
在上述任一实施例的基础上,所述步骤301具体包括:图像数据采集模块采集以待分析对象为第一视角的图像数据以及在进行创新性活动的场所中以作为观察者的第三视角的图像数据;声音数据采集模块采集待分析对象产生的声音数据和与待分析对象进行互动的互动对象产生的声音数据。
在上述任一实施例的基础上,所述步骤302具体包括:图像数据处理模块对接收的图像数据进行图像识别处理,获取活动场景信息、创新性活动中各子活动时长、互动对象的身份信息、表情信息以及互动时长;声音数据处理模块对接收的声音数据依次进行人声分离处理和声学分析处理,获取发声对象的声学特征;和/或依次进行人声分离处理和语义分析处理,获取发声对象的沟通内容;所述声学特征具体包括声音频率、声音强度、情绪信息和语音时长;所述声音数据处理模块还用于根据沟通内容获取发声对象的思维方式信息及团队氛围信息;所述发声对象包括待分析对象和互动对象。
在上述任一实施例的基础上,所述步骤301还包括:位置数据采集模块采集待分析对象在进行创新性活动的场所中的位置数据;生理数据采集模块采集待分析对象的生理数据,所述生理数据包括皮肤电阻数据、眼动数据、脑电图和脉搏数据中的至少一个;运动数据采集模块采集待分析对象在进行创新性活动中的运动数据。
在上述任一实施例的基础上,所述步骤302还包括:位置数据处理模块对接收的位置数据进行噪点剔除处理和平滑处理,获取待分析对象的移动轨迹;并根据移动轨迹获取待分析对象的运动距离、与进行创新性活动的场所中其他对象的间距、近距离接触信息、位置分布信息以及与物理环境的交互信息中的至少一个;生理数据处理模块对接收的生理数据进行统计分析和时序分析,获取待分析对象在创新性活动过程中的投入程度信息、集中程度信息、专注程度信息、心智负荷信息、情绪变化信息和关注点变化信息中的至少一个;运动数据处理模块对接收的动作数据进行处理,获取待分析对象的动作数据、姿势数据、速度数据和力量数据中的至少一个。
在上述任一实施例的基础上,所述步骤303还包括:分析装置根据互动对象的身份信息建立待分析对象的社交互动网络图;所述社交互动网络图包括待分析对象节点及互动对象节点,节点的大小由对应的语音时长确定,节点之间连线的粗细由对应的沟通内容确定。
在上述任一实施例的基础上,所述步骤303还包括:分析装置根据待分析对象的身份信息建立待分析对象的物理互动网络;所述物理互动网络包括待分析对象节点及交流对象节点,节点大小由对应的动作数据确定,节点之间连线的粗细由对应的近距离接触信息确定。
在上述任一实施例的基础上,所述创新性能力分析模型的行为指标包括创造性思维能力、问题解决能力、活力、态度和团队合作能力中的至少一个。
在上述任一实施例的基础上,所述步骤303具体包括:分析装置获取参与所述创新性活动的多个对象的指标信息集合,并根据指标信息对应的值,输出包含有待分析对象的指标信息在所述指标信息集合中的排序信息的创新性能力分析报告。
图4为本发明另一实施例提供的创新性能力分析方法的流程示意图,如图4所示,为了对本发明实施例进行说明,以下对本发明实施例提供的方法进行举例:
步骤1,团队的每位成员佩戴集成了视频、音频、定位、生理和运动捕捉模块的行为采集工具,然后团队在活动空间内自主进行创新性活动。在活动过程中,行为采集设备将自动收集和记录佩戴者的行为数据,实时回传至监控终端或者存储在本地。
步骤2,在活动结束后,从设备中导出不同模态的行为数据,进行整合,用于进一步的处理和分析。
步骤3,进行借助独立成分分析、盲源分离等方法对音频材料进行降噪和人声分离。
步骤4,对处理过后的音频材料进行声学分析,提取出比如个体的说话时长,个体的对话对象和对话时长等数据,构建社交互动网络。
步骤5,利用语音转写工具,实现音频材料中,语音到文字的转换。
步骤6,对上一步获得语音文本进行语义分析和文本挖掘,比如:词频统计、关键词分析、情感分析、信息分类、实体识别、主题模型、文本聚类、社会网分析等,从思维、氛围、内容三个方面分析团队以及个人的创新性表现,构建出个体间或者团队间的思维演化过程,从而确定不同个体对团队重要成就的贡献情况。
步骤7,对于定位数据,首先对数据进行降噪和平滑处理,获得每时每刻每位成员的二维或者三维坐标信息,然后计算整个活动过程或者某些时间段内每个人的运动距离,近距离接触过的对象、时刻信息和持续时长等信息,结合运动捕捉反映出的个体活动情况和个体动作特征,构建出个体间或者团队间的物理互动网络。
步骤8,对于摄像,首先从视频里提取图像,然后利用图像识别和分类技术,进行活动场景识别,分析人与环境的交互情况,个体动作特征,个体活动情况;同时,也对图像里出现的人脸进行识别,结合表情,分析人与人的交互状态。
步骤9,对于生理行为数据,通过分析皮肤电阻变化将能获得个体的投入度及其变化;通过分析眼动数据,可以分析个体的集中程度、注视点以及关注点的变化;通过分析脑电图中各波形的频率,能够获得个体的专注度;通过分析脉搏信号反应的心率以及心率变异率,能够获得个体的心智负荷。
步骤10,以上步骤挖掘出了个人在各个行为指标,由于各项行为指标可以反映出一种或者多种创新能力,因此通过整合以上分析出的各项行为表现,比如语音时长将能反映相应个体或者团队在创造性思维和活力两个能力维度上的表现,而通过分析定位、运动捕捉和语音对话构建出的物理互动网络和社交互动网络将能反映个人或者团队在团队合作、活力等方面的表现。在对所有参与活动的个体或者团队的相关行为指标数据进行分析,以其为整体,可以直观展现个体或者团队在整体中所处的百分位水平,从而评判其能力高低。
步骤11,将以上步骤得出的分析结果与结论可视化,输出为创新能力测评报告。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种创新性能力分析系统,其特征在于,包括:采集装置、处理装置和分析装置;
所述采集装置用于在待分析对象进行创新性活动的过程中,采集待分析对象的行为数据,并将行为数据发送至处理装置;
所述处理装置用于对接收的行为数据进行处理,获取预先建立的创新性能力分析模型中各行为指标对应的指标信息,并将指标信息发送至分析装置;
所述分析装置用于根据接收的指标信息,基于创新性能力分析模型对待分析对象的创新性能力进行分析,并输出待分析对象对应的创新性能力分析报告。
2.根据权利要求1所述的系统,其特征在于,所述采集装置具体包括图像数据采集模块和/或声音数据采集模块;
所述图像数据采集模块用于采集以待分析对象为第一视角的图像数据以及在进行创新性活动的场所中以作为观察者的第三视角的图像数据;
所述声音数据采集模块用于采集待分析对象产生的声音数据和与待分析对象进行互动的互动对象产生的声音数据。
3.根据权利要求2所述的系统,其特征在于,所述处理装置具体包括图像数据处理模块和声音数据处理模块;
所述图像数据处理模块用于对接收的图像数据进行图像识别处理,获取活动场景信息、创新性活动中各子活动时长、互动对象的身份信息、表情信息以及互动时长;
所述声音数据处理模块用于对接收的声音数据依次进行人声分离处理和声学分析处理,获取发声对象的声学特征;和/或依次进行人声分离处理和语义分析处理,获取发声对象的沟通内容;所述声学特征具体包括声音频率、声音强度、情绪信息和语音时长;所述声音数据处理模块还用于根据沟通内容获取发声对象的思维方式信息及团队氛围信息;所述发声对象包括待分析对象和互动对象。
4.根据权利要求3所述的系统,其特征在于,所述采集装置还包括位置数据采集模块、生理数据采集模块和运动数据采集模块中的至少一个;
所述位置数据采集模块用于采集待分析对象在进行创新性活动的场所中的位置数据;
所述生理数据采集模块用于采集待分析对象的生理数据,所述生理数据包括皮肤电阻数据、眼动数据、脑电图和脉搏数据中的至少一个;
所述运动数据采集模块用于采集待分析对象在进行创新性活动中的运动数据。
5.根据权利要求4所述的系统,其特征在于,所述处理装置还包括位置数据处理模块、生理数据处理模块和运动数据处理模块;
所述位置数据处理模块用于对接收的位置数据进行噪点剔除处理和平滑处理,获取待分析对象的移动轨迹;并根据移动轨迹获取待分析对象的运动距离、与进行创新性活动的场所中其他对象的间距、近距离接触信息、位置分布信息以及与物理环境的交互信息中的至少一个;
所述生理数据处理模块用于对接收的生理数据进行统计分析和时序分析,获取待分析对象在创新性活动过程中的投入程度信息、集中程度信息、专注程度信息、心智负荷信息、情绪变化信息和关注点变化信息中的至少一个;
所述运动数据处理模块用于对接收的动作数据进行处理,获取待分析对象的动作数据、姿势数据、速度数据和力量数据中的至少一个。
6.根据权利要求3所述的系统,其特征在于,所述分析装置还用于根据互动对象的身份信息建立待分析对象的社交互动网络图;
所述社交互动网络图包括待分析对象节点及互动对象节点,节点的大小由对应的语音时长确定,节点之间连线的粗细由对应的沟通内容确定。
7.根据权利要求5所述的系统,其特征在于,所述分析装置还用于根据待分析对象的身份信息建立待分析对象的物理互动网络;
所述物理互动网络包括待分析对象节点及交流对象节点,节点大小由对应的动作数据确定,节点之间连线的粗细由对应的近距离接触信息确定。
8.根据权利要求5所述的系统,其特征在于,所述创新性能力分析模型的行为指标包括创造性思维能力、问题解决能力、活力、态度和团队合作能力中的至少一个。
9.根据权利要求1所述的系统,其特征在于,所述分析装置具体用于获取参与所述创新性活动的多个对象的指标信息集合,并根据指标信息对应的值,输出包含有待分析对象的指标信息在所述指标信息集合中的排序信息的创新性能力分析报告。
10.一种创新性能力分析方法,其特征在于,包括:
采集装置在待分析对象进行创新性活动的过程中,采集待分析对象的行为数据,并将行为数据发送至处理装置;
处理装置对接收的行为数据进行处理,获取预先建立的创新性能力分析模型中各行为指标对应的指标信息,并将指标信息发送至分析装置;
分析装置根据接收的指标信息,基于创新性能力分析模型对待分析对象的创新性能力进行分析,并输出待分析对象对应的创新性能力分析报告。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711311272.3A CN109902904B (zh) | 2017-12-11 | 2017-12-11 | 创新性能力分析系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711311272.3A CN109902904B (zh) | 2017-12-11 | 2017-12-11 | 创新性能力分析系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109902904A true CN109902904A (zh) | 2019-06-18 |
CN109902904B CN109902904B (zh) | 2021-06-29 |
Family
ID=66942682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711311272.3A Active CN109902904B (zh) | 2017-12-11 | 2017-12-11 | 创新性能力分析系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109902904B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112288287A (zh) * | 2020-10-30 | 2021-01-29 | 清华大学 | 车载信息系统的评估方法及设备 |
CN112419808A (zh) * | 2020-11-10 | 2021-02-26 | 浙江大学 | 一种便携式多模态学习分析智能眼镜 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1904918A (zh) * | 2006-08-01 | 2007-01-31 | 昆明资智经济咨询服务有限公司 | 科技型企业综合能力评价系统 |
CN101779960A (zh) * | 2010-02-24 | 2010-07-21 | 沃建中 | 刺激信息认知能力值测试系统及其方法 |
CN105243484A (zh) * | 2015-10-02 | 2016-01-13 | 河南中欧企业咨询有限公司 | 基于数据处理的面试系统 |
CN106021274A (zh) * | 2016-04-29 | 2016-10-12 | 北京格分维科技有限公司 | 一种基于大数据的人才能力评价模型系统及方法 |
CN106055894A (zh) * | 2016-05-30 | 2016-10-26 | 上海芯来电子科技有限公司 | 一种基于人工智能的行为分析方法和系统 |
CN107224291A (zh) * | 2017-05-27 | 2017-10-03 | 西南交通大学 | 调度员能力测试系统 |
-
2017
- 2017-12-11 CN CN201711311272.3A patent/CN109902904B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1904918A (zh) * | 2006-08-01 | 2007-01-31 | 昆明资智经济咨询服务有限公司 | 科技型企业综合能力评价系统 |
CN101779960A (zh) * | 2010-02-24 | 2010-07-21 | 沃建中 | 刺激信息认知能力值测试系统及其方法 |
CN105243484A (zh) * | 2015-10-02 | 2016-01-13 | 河南中欧企业咨询有限公司 | 基于数据处理的面试系统 |
CN106021274A (zh) * | 2016-04-29 | 2016-10-12 | 北京格分维科技有限公司 | 一种基于大数据的人才能力评价模型系统及方法 |
CN106055894A (zh) * | 2016-05-30 | 2016-10-26 | 上海芯来电子科技有限公司 | 一种基于人工智能的行为分析方法和系统 |
CN107224291A (zh) * | 2017-05-27 | 2017-10-03 | 西南交通大学 | 调度员能力测试系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112288287A (zh) * | 2020-10-30 | 2021-01-29 | 清华大学 | 车载信息系统的评估方法及设备 |
CN112419808A (zh) * | 2020-11-10 | 2021-02-26 | 浙江大学 | 一种便携式多模态学习分析智能眼镜 |
Also Published As
Publication number | Publication date |
---|---|
CN109902904B (zh) | 2021-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Di Lascio et al. | Unobtrusive assessment of students' emotional engagement during lectures using electrodermal activity sensors | |
Cabrera-Quiros et al. | The MatchNMingle dataset: a novel multi-sensor resource for the analysis of social interactions and group dynamics in-the-wild during free-standing conversations and speed dates | |
Vinciarelli et al. | A survey of personality computing | |
US20160042648A1 (en) | Emotion feedback based training and personalization system for aiding user performance in interactive presentations | |
Sanchez-Cortes et al. | Emergent leaders through looking and speaking: from audio-visual data to multimodal recognition | |
Ruhland et al. | Look me in the eyes: A survey of eye and gaze animation for virtual agents and artificial systems | |
US20190147367A1 (en) | Detecting interaction during meetings | |
Niewiadomski et al. | Automated laughter detection from full-body movements | |
Jayagopi et al. | Mining group nonverbal conversational patterns using probabilistic topic models | |
Hagad et al. | Predicting levels of rapport in dyadic interactions through automatic detection of posture and posture congruence | |
Sun et al. | Towards visual and vocal mimicry recognition in human-human interactions | |
Pantic et al. | Social signal processing | |
Baker et al. | Approaches for assessing communication in human-autonomy teams | |
Dafoulas et al. | Investigating the role of biometrics in education–the use of sensor data in collaborative learning | |
Goswami et al. | Towards social & engaging peer learning: Predicting backchanneling and disengagement in children | |
CN109902904A (zh) | 创新性能力分析系统及方法 | |
Ara et al. | Predicting flow state in daily work through continuous sensing of motion rhythm | |
DiSalvo et al. | Reading the room: Automated, momentary assessment of student engagement in the classroom: Are we there yet? | |
Gillet et al. | Multiparty interaction between humans and socially interactive agents | |
Palazzi et al. | Spotting prejudice with nonverbal behaviours | |
Gatica-Perez et al. | 25 Analysis of Small Groups | |
Madan et al. | Groupmedia: distributed multi-modal interfaces | |
Otsuka | Multimodal conversation scene analysis for understanding people’s communicative behaviors in face-to-face meetings | |
Nilugonda et al. | A survey on big five personality traits prediction using tensorflow | |
Jayagopi | Computational modeling of face-to-face social interaction using nonverbal behavioral cues |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |