CN109242309A - 参会用户画像生成方法、装置、智能会议设备及存储介质 - Google Patents
参会用户画像生成方法、装置、智能会议设备及存储介质 Download PDFInfo
- Publication number
- CN109242309A CN109242309A CN201811032614.2A CN201811032614A CN109242309A CN 109242309 A CN109242309 A CN 109242309A CN 201811032614 A CN201811032614 A CN 201811032614A CN 109242309 A CN109242309 A CN 109242309A
- Authority
- CN
- China
- Prior art keywords
- user
- meeting
- data
- attends
- portrait
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 101
- 230000008569 process Effects 0.000 claims abstract description 65
- 230000001815 facial effect Effects 0.000 claims description 139
- 230000015654 memory Effects 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 19
- 238000004458 analytical method Methods 0.000 claims description 8
- 230000008520 organization Effects 0.000 abstract 1
- 230000003542 behavioural effect Effects 0.000 description 74
- 238000012545 processing Methods 0.000 description 21
- 230000006399 behavior Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 16
- 238000007621 cluster analysis Methods 0.000 description 14
- 241000208340 Araliaceae Species 0.000 description 12
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 12
- 235000003140 Panax quinquefolius Nutrition 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 12
- 235000008434 ginseng Nutrition 0.000 description 12
- 230000003993 interaction Effects 0.000 description 9
- 230000009471 action Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 241001269238 Data Species 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- General Engineering & Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Tourism & Hospitality (AREA)
- Quality & Reliability (AREA)
- Educational Administration (AREA)
- Operations Research (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Human Computer Interaction (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明公开了一种参会用户画像生成方法、装置、智能会议设备及存储介质,涉及计算机技术领域,其包括:采集参会用户的个性化数据,所述个性化数据为所述参会用户在会议过程中生成的数据,所述个性化数据包括:属性数据和会议信息;构建所述参会用户的用户画像,所述用户画像根据所述个性化数据确定。采用上述技术方案可以解决现有技术中在会议场景下,无法构建用户画像的技术问题,实现在会议场景下为每个参会用户构建用户画像,且保证了用户画像的准确性,以便于通过用户画像提高会议组织效率以及提供个性化会议服务。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种参会用户画像生成方法、装置、智能会议设备及存储介质。
背景技术
用户画像是通过用户的行为数据刻画用户特性,根据行为和观点的差异,赋予人口统计学要素和场景描述,形成一个人物原型。用户画像作为一种勾画目标用户、提高决策效率、联系用户诉求与设计方向的有效工具,在各领域得到了广泛的应用。
一般而言,构建用户画像时,需要基于用户在用户画像所属的系统(如购物系统、用车系统等)中的直观操作,确定用户行为数据,进而构建用户画像。然而某些场景下,例如会议场景下,由于会议面向的用户为群体,和其他的系统(如购物系统、用车系统等)相比,会议中的大多数参会用户无需对会议系统进行操作,仅需要参加会议。因此,会议系统通常无法直接获取每个参会用户的用户行为数据,进而无法构建用户画像。
发明内容
有鉴于此,本发明实施例提供一种参会用户画像生成方法、装置、智能会议设备及存储介质,以解决现有技术中在会议场景下,无法构建用户画像的技术问题。
第一方面,本发明实施例提供了一种参会用户画像生成方法,包括:
采集参会用户的个性化数据,所述个性化数据为所述参会用户在会议过程中生成的数据,所述个性化数据包括:属性数据和会议信息;
构建所述参会用户的用户画像,所述用户画像根据所述个性化数据确定。
进一步的,所述参会用户处于发言状态,所述属性数据包括:面部特征数据和音频特征数据,
采集参会用户的面部特征数据和音频特征数据包括:
获取摄像头采集的图像数据,所述图像数据包含参会用户的图像;
生成所述参会用户的面部特征数据,所述面部特征数据是对所述图像数据进行图像处理后得到的;
获取拾音装置采集的音频数据,所述音频数据为所述参会用户发言时的语音数据;
生成所述参会用户的音频特征数据,所述音频特征数据是对所述音频数据进行音频处理后得到的。
进一步的,还包括:
建立所述面部特征数据和所述音频特征数据的第一对应关系。
进一步的,所述获取摄像头采集的图像数据之前,还包括:
检测拾音装置采集到参会用户的音频数据;
控制摄像头对所述参会用户进行拍摄。
进一步的,所述参会用户处于基于智能会议设备的书写状态,所述属性数据包括:面部特征数据和字迹特征数据,
采集参会用户的面部特征数据和字迹特征数据包括:
获取摄像头采集的图像数据,所述图像数据包含参会用户的图像;
生成所述参会用户的面部特征数据,所述面部特征数据是对所述图像数据进行图像处理后得到的;
接收笔迹写入操作;
显示书写笔迹,所述书写笔迹根据所述笔迹写入操作确定;
生成所述参会用户的字迹特征数据,所述字迹特征数据是对所述书写笔迹进行字迹分析后得到的。
进一步的,还包括:
建立所述面部特征数据和所述字迹特征数据的第二对应关系。
进一步的,所述获取摄像头采集的图像数据之前,还包括:
检测接收到笔迹写入操作;
所述获取摄像头采集的图像数据之后,还包括:
确定执行所述笔迹写入操作的参会用户,所述参会用户是所述图像数据中发出书写动作的用户,或,所述参会用户是所述图像数据中面部面积最大的用户。
进一步的,所述属性数据包括面部特征数据、音频特征数据和字迹特征数据,所述音频特征数据和所述字迹特征数据对应于同一面部特征数据;
还包括:
建立所述音频特征数据和所述字迹特征数据的第三对应关系。
进一步的,所述会议信息包括:行为数据和/或专业类别数据。
进一步的,采集参会用户的专业类别数据包括:
获取会议过程中的全部音频数据;
在所述全部音频数据中提取第一关键词;
根据所述第一关键词确定所述专业类别数据。
进一步的,采集参会用户的专业类别数据包括:
获取会议过程中显示的全部文本数据;
在所述全部文本数据中提取第二关键词;
根据所述第二关键词确定所述专业类别数据。
进一步的,所述行为数据包括:参会用户的入会时间、参会用户的离会时间、参会用户的参会状态中的至少一种;
采集参会用户的行为数据包括:
获取摄像头采集的图像数据,所述图像数据包含所述参会用户在会议过程中的参会行为;
确定所述参会用户的行为数据,所述行为数据根据所述图像数据确定。
进一步的,所述行为数据包括:所述参会用户的入会时间,所述行为数据还包括:迟到率;
所述采集参会用户的行为数据,还包括:
确定参会用户的入会顺序,所述参会用户的入会顺序根据所述参会用户的入会时间确定;
获取参会的总用户数量;
确定所述参会用户的迟到率,所述迟到率根据所述入会顺序和所述总用户数量确定。
进一步的,所述行为数据包括:操作习惯数据,
采集参会用户的操作习惯数据包括:
获取参会用户的操作数据,所述操作数据是所述参会用户对所述智能会议设备执行操作时所述智能会议设备记录的数据;
确定所述参会用户的操作习惯数据,所述操作习惯数据根据所述操作数据确定。
进一步的,所述构建所述参会用户的用户画像包括:
确定所述参会用户的特征向量,所述特征向量是根据所述个性化数据得到的;
对所述特征向量进行聚类分析;
根据聚类分析结果构建用户画像。
进一步的,所述构建所述参会用户的用户画像之后,还包括:
持续采集所述个性化数据;
根据所述个性化数据更新所述参会用户的用户画像。
第二方面,本发明实施例还提供了一种参会用户画像生成装置,包括:
采集模块,用于采集参会用户的个性化数据,所述个性化数据为所述参会用户在会议过程中生成的数据,所述个性化数据包括:属性数据和会议信息;
画像构成模块,用于构建所述参会用户的用户画像,所述用户画像根据所述个性化数据确定。
进一步的,所述参会用户处于发言状态,所述属性数据包括:面部特征数据和音频特征数据,
所述采集模块包括:
第一图像采集单元,用于获取摄像头采集的图像数据,所述图像数据包含参会用户的图像;
第一面部生成单元,用于生成所述参会用户的面部特征数据,所述面部特征数据是对所述图像数据进行图像处理后得到的;
第一音频获取单元,用于获取拾音装置采集的音频数据,所述音频数据为所述参会用户发言时的语音数据;
音频生成单元,用于生成所述参会用户的音频特征数据,所述音频特征数据是对所述音频数据进行音频处理后得到的。
进一步的,还包括:
第一关系建立模块,用于建立所述面部特征数据和所述音频特征数据的第一对应关系。
进一步的,还包括:
第一检测模块,用于获取摄像头采集的图像数据之前,检测拾音装置采集到参会用户的音频数据;
控制拍摄模块,用于控制摄像头对所述参会用户进行拍摄。
进一步的,所述参会用户处于基于智能会议设备的书写状态,所述属性数据包括:面部特征数据和字迹特征数据,
所述采集模块包括:
第二图像采集单元,用于获取摄像头采集的图像数据,所述图像数据包含参会用户的图像;
第二面部生成单元,用于生成所述参会用户的面部特征数据,所述面部特征数据是对所述图像数据进行图像处理后得到的;
第一操作接收单元,用于接收笔迹写入操作;
显示单元,用于显示书写笔迹,所述书写笔迹根据所述笔迹写入操作确定;
字迹生成单元,用于生成所述参会用户的字迹特征数据,所述字迹特征数据是对所述书写笔迹进行字迹分析后得到的。
进一步的,还包括:
第二关系建立模块,用于建立所述面部特征数据和所述字迹特征数据的第二对应关系。
进一步的,还包括:
第二检测模块,用于获取摄像头采集的图像数据之前,检测接收到笔迹写入操作;
参会用户确定模块,用于获取摄像头采集的图像数据之后,确定执行所述笔迹写入操作的参会用户,所述参会用户是所述图像数据中发出书写动作的用户,或,所述参会用户是所述图像数据中面部面积最大的用户。
进一步的,所述属性数据包括面部特征数据、音频特征数据和字迹特征数据,所述音频特征数据和所述字迹特征数据对应于同一面部特征数据;
还包括:
第三关系建立模块,用于建立所述音频特征数据和所述字迹特征数据的第三对应关系。
进一步的,所述会议信息包括:行为数据和/或专业类别数据。
进一步的,所述采集模块包括:
第二音频获取单元,用于获取会议过程中的全部音频数据;
第一关键词提取单元,用于在所述全部音频数据中提取第一关键词;
第一类别确定单元,用于根据所述第一关键词确定所述专业类别数据。
进一步的,所述采集模块包括:
第三音频获取单元,用于获取会议过程中显示的全部文本数据;
第二关键词提取单元,用于在所述全部文本数据中提取第二关键词;
第二类别确定单元,用于根据所述第二关键词确定所述专业类别数据。
进一步的,所述行为数据包括:参会用户的入会时间、参会用户的离会时间、参会用户的参会状态中的至少一种;
所述采集模块包括:
第三图像采集单元,用于获取摄像头采集的图像数据,所述图像数据包含所述参会用户在会议过程中的参会行为;
行为数据确定单元,用于确定所述参会用户的行为数据,所述行为数据根据所述图像数据确定。
进一步的,所述行为数据包括:所述参会用户的入会时间,所述行为数据还包括:迟到率;
所述采集模块,还包括:
入会顺序确定单元,用于确定参会用户的入会顺序,所述参会用户的入会顺序根据所述参会用户的入会时间确定;
数量获取单元,用于获取参会的总用户数量;
迟到率确定单元,用于确定所述参会用户的迟到率,所述迟到率根据所述入会顺序和所述总用户数量确定。
进一步的,所述行为数据包括:操作习惯数据,
所述采集模块包括:
操作数据获取单元,用于获取参会用户的操作数据,所述操作数据是所述参会用户对所述智能会议设备执行操作时所述智能会议设备记录的数据;
习惯确定单元,用于确定所述参会用户的操作习惯数据,所述操作习惯数据根据所述操作数据确定。
进一步的,所述画像构成模块包括:
向量确定单元,用于确定所述参会用户的特征向量,所述特征向量是根据所述个性化数据得到的;
聚类分析单元,用于对所述特征向量进行聚类分析;
画像构建单元,用于根据聚类分析结果构建用户画像。
进一步的,还包括:
数据采集模块,用于构建所述参会用户的用户画像之后,持续采集所述个性化数据;
画像更新模块,用于根据所述个性化数据更新所述参会用户的用户画像。
第三方面,本发明实施例还提供了一种智能会议设备,包括:
存储器以及一个或多个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如下操作:
采集参会用户的个性化数据,所述个性化数据为所述参会用户在会议过程中生成的数据,所述个性化数据包括:属性数据和会议信息;
构建所述参会用户的用户画像,所述用户画像根据所述个性化数据确定。
进一步的,所述参会用户处于发言状态,所述属性数据包括:面部特征数据和音频特征数据,所述智能会议设备包括:摄像头和拾音装置;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现采集参会用户的面部特征数据和音频特征数据时具体实现:
获取摄像头采集的图像数据,所述图像数据包含参会用户的图像;
生成所述参会用户的面部特征数据,所述面部特征数据是对所述图像数据进行图像处理后得到的;
获取拾音装置采集的音频数据,所述音频数据为所述参会用户发言时的语音数据;
生成所述参会用户的音频特征数据,所述音频特征数据是对所述音频数据进行音频处理后得到的。
进一步的,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器还实现如下操作:
建立所述面部特征数据和所述音频特征数据的第一对应关系。
进一步的,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现获取摄像头采集的图像数据之前,还实现如下操作:
检测拾音装置采集到参会用户的音频数据;
控制摄像头对所述参会用户进行拍摄。
进一步的,所述参会用户处于基于智能会议设备的书写状态,所述属性数据包括:面部特征数据和字迹特征数据,所述智能会议设备还包括:具备触控功能的显示屏;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现采集参会用户的面部特征数据和字迹特征数据时具体实现:
获取摄像头采集的图像数据,所述图像数据包含参会用户的图像;
生成所述参会用户的面部特征数据,所述面部特征数据是对所述图像数据进行图像处理后得到的;
指示所述显示屏接收笔迹写入操作;
指示所述显示屏显示书写笔迹,所述书写笔迹根据所述笔迹写入操作确定;
生成所述参会用户的字迹特征数据,所述字迹特征数据是对所述书写笔迹进行字迹分析后得到的。
进一步的,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器还实现如下操作:
建立所述面部特征数据和所述字迹特征数据的第二对应关系。
进一步的,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现获取摄像头采集的图像数据之前,还实现如下操作:
检测所述显示屏接收到笔迹写入操作;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现获取摄像头采集的图像数据之后,还实现如下操作:
确定执行所述笔迹写入操作的参会用户,所述参会用户是所述图像数据中发出书写动作的用户,或,所述参会用户是所述图像数据中面部面积最大的用户。
进一步的,所述属性数据包括面部特征数据、音频特征数据和字迹特征数据,所述音频特征数据和所述字迹特征数据对应于同一面部特征数据;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器还实现如下操作:
建立所述音频特征数据和所述字迹特征数据的第三对应关系。
进一步的,所述会议信息包括:行为数据和/或专业类别数据。
进一步的,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现采集参会用户的专业类别数据时具体实现:
获取会议过程中的全部音频数据;
在所述全部音频数据中提取第一关键词;
根据所述第一关键词确定所述专业类别数据。
进一步的,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现采集参会用户的专业类别数据时具体实现:
获取会议过程中显示的全部文本数据;
在所述全部文本数据中提取第二关键词;
根据所述第二关键词确定所述专业类别数据。
进一步的,所述智能会议设备还包括:摄像头,所述行为数据包括:参会用户的入会时间、参会用户的离会时间、参会用户的参会状态中的至少一种;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现采集参会用户的行为数据时具体实现:
获取摄像头采集的图像数据,所述图像数据包含所述参会用户在会议过程中的参会行为;
确定所述参会用户的行为数据,所述行为数据根据所述图像数据确定。
进一步的,所述行为数据包括:所述参会用户的入会时间,所述行为数据还包括:迟到率;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现采集参会用户的行为数据时,还具体实现:
确定参会用户的入会顺序,所述参会用户的入会顺序根据所述参会用户的入会时间确定;
获取参会的总用户数量;
确定所述参会用户的迟到率,所述迟到率根据所述入会顺序和所述总用户数量确定。
进一步的,所述行为数据包括:操作习惯数据,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现采集参会用户的操作习惯数据时具体实现:
获取参会用户的操作数据,所述操作数据是所述参会用户对所述智能会议设备执行操作时所述智能会议设备记录的数据;
确定所述参会用户的操作习惯数据,所述操作习惯数据根据所述操作数据确定。
进一步的,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现构建所述参会用户的用户画像时具体实现:
确定所述参会用户的特征向量,所述特征向量是根据所述个性化数据得到的;
对所述特征向量进行聚类分析;
根据聚类分析结果构建用户画像。
进一步的,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现构建所述参会用户的用户画像之后,还具体实现:
持续采集所述个性化数据;
根据所述个性化数据更新所述参会用户的用户画像。
第四方面,本发明实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如第一方面所述的参会用户画像生成方法。
上述提供的参会用户画像生成方法、装置、智能会议设备及存储介质,通过在会议过程中,采集用户的个性化数据,并利用个性化数据构建参会用户的用户画像的技术方案,实现了在会议场景下为每个参会用户构建用户画像,且保证了用户画像的准确性,以便于通过用户画像提高会议组织效率以及提供个性化会议服务。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明实施例一提供的一种参会用户画像生成方法的流程图;
图2为本发明实施例二提供的一种参会用户画像生成方法的流程图;
图3为本发明实施例三提供的一种参会用户画像生成装置的结构示意图;
图4为本发明实施例四提供的一种智能会议设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。
实施例一
图1为本发明实施例一提供的一种参会用户画像生成方法的流程图。实施例提供的参会用户画像生成方法可以由智能会议设备执行,该智能会议设备可以通过软件和/或硬件的方式实现,该智能会议设备可以是两个或多个物理实体构成,也可以是一个物理实体构成。
具体的,智能会议设备可以是电脑,手机,投影仪、平板或智能交互平板等。其中,智能交互平板是通过触控技术对显示在显示平板上的内容进行操控和实现人机交互操作的一体化设备,其集成了电脑、投影机、电子白板、幕布、音响、电视机以及视频会议终端等一种或多种功能。进一步的,根据智能交互平板的应用场景,将应用于会议场景的智能交互平板称为:智能会议平板(Interactive Meeting Board,IMB)。智能会议平板是侧重于企业会议室开发的智能交互平板,其具备书写、批注、同步交互、多媒体以及远程会议视频等功能的相关应用。实施例中,以智能会议平板为智能会议设备为例进行描述。
示例性的,参考图1,本实施例提供的参会用户画像生成方法具体包括:
S110、采集参会用户的个性化数据。
实施例中,设定在会议场景下,本地会议室包括至少一台智能会议平板以及至少一位参会用户,由智能会议平板采集参会用户的个性化数据。其中,参会用户为参加会议的人员,对于参会用户的数量实施例不作限定。个性化数据为参会用户在会议过程中生成的数据,个性化数据可以表示相应参会用户的个性化特征,其用于构建参会用户的用户画像。需要说明的是,个性化数据不限定为基于某次会议生成的数据,也可以是一段时间或一定会议次数内生成的数据,或者是基于某次会议采集的个性化数据以及历史采集的个性化数据生成的数据。个性化数据的具体内容可以针对绘制用户画像的需求确定,其可以先确定个性化数据的维度,进而确定各维度下的具体数据。例如,实施例中设定个性化数据包括下述两个维度:属性数据和会议信息。通过属性数据可以对各参会用户进行区分,即将用户画像精确到个体用户。通过会议信息可以为参会用户添加与会议相关的标签,即构建参会用户的会议特征,例如,标签可以是高迟到率、会议参与程度高等。
具体的,属性数据是一种数据维度且具有唯一性,其可以表明参会用户特有的个人特征。属性数据包括但不限定于:面部特征数据、音频特征数据、字迹特征数据中的至少一项。其中,面部特征数据用于识别参会用户的面部长相,其可以理解为人脸特征模板。面部特征数据的采集可以依赖于智能会议平板配置的摄像头实现,即通过识别摄像头采集的图像数据得到面部特征数据。进一步的,音频特征数据用于识别参会用户的声音,其可以包括:音色以及音调等特征,还可以包括语言习惯,例如,方言、语速等内容。音频特征数据的采集可以依赖于智能会议平板配置的拾音装置(如麦克风)实现,即通过识别拾音装置采集的音频数据得到音频特征数据。进一步的,字迹特征数据用于识别参会用户在智能会议平板上手写文字时的书写习惯,其可以包括:笔速、笔画间搭配比例、笔画转折习惯等内容。字迹特征数据的采集可以依赖于智能会议设备配置的白板应用实现,即通过识别白板应用接收的书写笔迹确定字迹特征数据。
可选的,会议信息包括:行为数据和/或专业类别数据。其中,行为数据也可以作为一种数据维度,其为参会用户在会议过程中的行为规律数据。行为数据可以包括:参会用户的入会时间、参会用户的离会时间、参会用户的参会状态中的至少一种。其中,参会用户的参会状态可以包括:积极、消极等,其可以通过参会用户的发言时间、发言次数以及面部表情等参数确定。行为数据的采集可以依赖于摄像头采集的图像数据确定。进一步的,行为数据还可以包括:迟到率和/或操作习惯数据。其中,迟到率可以根据参会用户的入会时间确定。操作习惯数据是根据参会用户对智能会议平板执行操作时智能会议平板记录的数据确定的,操作习惯数据包括:参会用户习惯使用的应用程序等内容。例如,参会用户习惯使用电子白板应用。示例性的,专业类别数据也可以作为一种数据维度,其是指参会用户所属的专业类别,例如,管理类、技术类、市场类、客服类等。其中,专业类别数据可以通过识别拾音装置采集的音频数据中包含的关键字实现,还可以通过识别智能会议平板自身显示的数据中包含的关键字实现。
可以理解的是,上述说明的采集过程,仅是解释每类个性化数据的采集方式。但是,由于会议场景的特殊性,每次会议通常会有多个参会用户,那么基于会议过程采集的个性化数据可能是多个参会用户的个性化数据,因此,需要将个性化数据对应到具体的参会用户,才能保证个性化数据的准确性。本实施例中,为了将各类个性化数据与参会用户关联起来设定采集数据时并行采集规则,以确定同一参会用户的个性化数据,即同时采集同一参会用户的至少两类个性化数据,以实现个性化数据的关联。
下面示例性描述并行采集规则的实现方式:例如,属性数据包括:面部特征数据、音频特征数据、字迹特征数据。在检测到拾音装置采集到某个参会用户的音频数据时,利用摄像头采集的图像数据确定当前发言的参会用户,并采集包含参会用户的图像数据,进而,将得到的面部特征数据和音频特征数据关联为同一参会用户的属性数据。进一步的,在接收参会用户发出的笔迹写入操作时,利用摄像头采集的图像数据确定执行笔迹写入操作的参会用户,并将采集到的该参会用户的面部特征数据与字迹特征数据确定为同一参会用户的属性数据。在此基础上,如果确定同一面部特征数据既与音频特征数据关联,又与字迹特征数据关联,那么,可以将音频特征数据与字迹特征数据关联。此时,可以确定出参会用户的个人特征。进一步的,采集会议信息以确定参会用户的会议特征。其中,会议信息包括专业类别数据和行为数据。当确定专业类别数据后,将专业类别数据同本次会议中采集的各面部特征数据进行关联,以实现确定参会用户的专业类别。同时,在采集行为数据时,利用摄像头确定执行各行为数据的参会用户,进而将参会用户的面部特征数据与行为数据进行关联,以确定各参会用户对应的行为数据。
需要说明的是,考虑到实际应用中,同一参会用户在不同时间可能会在不同的会议室参加会议。因此,设定将局域网内部的个性化数据进行共享。例如,在会议室A中采集到了面部特征数据和音频特征数据。在不同时间的会议室B中采集到了面部特征数据和字迹特征数据。那么,通过数据共享的方式,可以确定音频特征数据和字迹特征数据的关联关系。同时,通过局域网共享的方式,可以增加数据采集数量,进而基于大量的数据确定个性化数据,也可以保证个性化数据的准确性。
可选的,为每次会议构建会议编号,同时,将个性化数据与生成该个性化数据有关的会议编号进行关联,以便于得到参会用户的会议记录。
还可选的,若生成某个参会用户的个性化数据后,在设定时间内(如三个月内)均未再次生成该参会用户的个性化数据,那么可以删除该参会用户的个性化数据。
S120、构建参会用户的用户画像,用户画像根据个性化数据确定。
示例性的,将个性化数据进行向量化得到特征向量。其中,特征向量可以认为是一个基于数值的向量系统。具体的,由于个性化数据包含了多维度下的数据,为了便于后续处理,采用统一的转换规则对各维度下的数据进行数值化,并生成特征向量,该特征向量中各数值的排列规则实施例不作限定。在生成特征向量时,可以为不同的参会用户构建不同的用户编号,然后将同一用户编号对应的个性化数据整合到一起,以得到包含用户编号的特征向量。进一步的,对特征向量进行聚类分析,以确定参会用户所属的群体。其中,聚类分析是在特征向量中发现各数据之间的关系,以将各数据进行分组,若各分组内数据相似度越高,则对应的各分组间的差异化越大,最终的聚类结果越好。在聚类分析时,首先对特征向量进行清洗,去掉特征向量中的异常值,并在该位置处补充常规值,该常规值对于用户画像的影响可忽略不计;其次,在特性向量中,选择具有一定相关度的数据,例如,选择迟到率和参会用户的入会时间;之后,对选择的数据进行聚类分析,以确定参会用户所属的群体,例如,属于高迟到率群体、早到群体等,之后,为参会用户添加标签,以实现用户画像。其中,可以针对用户画像的不同角度,利用不同的个性化数据进行聚类。
可选的,考虑到实际应用中,可能存在人员变动的情况,例如,参会用户由研发岗转为管理岗,此时,需要更新相应的用户画像。具体的,当确定设定时间段内采集的个性化数据中某个维度下的数据相似,且均与用户画像中相关标签内容不同,此时,需要利用新采集的个性化数据更新用户画像,以保证用户画像的实效性。
本实施例提供的技术方案,通过在会议过程中,采集用户的个性化数据,并利用个性化数据构建参会用户的用户画像的技术方案,实现了在会议场景下为每个参会用户构建用户画像,且保证了用户画像的准确性,以便于通过用户画像提高会议组织效率以及提供个性化会议服务。
实施例二
图2为本发明实施例二提供的一种参会用户画像生成方法的流程图。本实施例是在上述实施例的基础上,进行具体化。具体的,实施例中,设定个性化信息包括属性数据和会议信息。其中,属性数据包括面部特征数据、音频特征数据以及字迹特征数据。会议信息包括:行为数据和操作习惯数据。示例性的,参考图2,本实施例提供的参会用户画像生成方法具体包括:
S210、采集参会用户的个性化数据。
其中,属性数据和会议信息的采集顺序实施例不作限定。智能交互平板可以实时获取摄像头采集的图像数据、拾音装置采集的音频数据以及显示数据。进而,根据上述数据确定参会用户的属性数据和会议信息。
具体的,下面示例性的描述各类个性化数据的采集过程:
针对属性数据的采集过程,当参会用户处于发言状态时,属性数据包括:面部特征数据和音频特征数据。此时,采集参会用户的面部特征数据和音频特征数据具体包括:
S211、检测拾音装置是否采集到参会用户的音频数据。若检测拾音装置采集到参会用户的音频数据,则执行S212,否则,持续执行S211。
实施例中,以拾音装置为麦克风阵列为例。具体的,该麦克风阵列可以是智能会议平板内置的麦克风阵列,也可以是与智能会议平板建立连接的外置麦克风阵列。设定在一次会议过程中,麦克风阵列自动处于开启状态。相应的,参会用户可以根据实际需求选择性的关闭麦克风阵列。当麦克风阵列处于开启状态时,持续采集会议过程中的声音数据。进一步的,对声音数据进行处理,当确认声音数据仅包含一位参会用户的语音数据时,确定该语音数据所属的参会用户处于发言状态。当声音数据包含多个参会用户的语音数据时,则放弃识别语音数据所属的参会用户。
S212、控制摄像头对参会用户进行拍摄。
具体的,摄像头可以是智能会议平板内置的摄像头,也可以是与智能会议平板建立连接的外置摄像头。摄像头的数量可以根据实际情况设定。一般而言,在一次会议过程中,摄像头可以自动处于开启状态,用于实时获取会议画面,也可以根据实际情况选择性开启。实施例中设定摄像头自动开启且持续获取会议画面,其中,会议画面也可以记为图像数据。进一步的,当确定参会用户处于发言状态时,基于麦克风阵列采集的音频数据确定参会用户的位置,进而,控制摄像头对该位置所在的方向进行拍摄。其中,在拍摄时,可以控制摄像头对参会用户的面部进行对焦。
具体的,S211-S212描述出确定处于发言状态的参会用户的过程,下面S213-S216描述出如何获取面部特征数据和音频特征数据:
S213、获取摄像头采集的图像数据。
其中,由于摄像头拍摄方向为发言的参会用户所在的方向,因此,该图像数据包含参会用户的图像。可选的,当存在多个摄像头时,可以仅利用其中一个摄像头拍摄包含用户的图像数据,利用其它摄像头继续拍摄其它方向的会议画面。
S214、生成参会用户的面部特征数据。
其中,面部特征数据是对图像数据进行图像处理后得到的。具体的,利用人脸识别技术对图像数据进行识别,得到面部特征数据。其中,人脸识别技术包括:人脸图像检测、人脸图像预处理和人脸图像特征提取三部分。可选的,生成面部特征数据后,将该面部特征数据与已经存储的面部特征数据进行比较,以确定该面部特征数据是否为新的面部特征数据。如果为新的面部特征数据,则保存该面部特征数据。否则,调取已存的面部特征数据。
S215、获取拾音装置采集的音频数据。
具体的,音频数据为参会用户发言时的语音数据。
可选的,获取音频数据的过程中,可以实时判断用户是否发言结束,如果发言结束,则可选择性的更换摄像头的拍摄方向。
S216、生成参会用户的音频特征数据。
其中,音频特征数据是对音频数据进行音频处理后得到的。具体的,利用音频处理技术、语音识别技术以及自然语言处理技术,从音频数据中提取出音频特征数据。可选的,将该音频特征数据与已经存储的音频特征数据进行比较,以确定该音频特征数据是否为新的音频特征数据。如果是新的音频特征数据,则保存该音频特征数据。实施例中,以首次获取该参会用户的音频特征数据为例。
S217、建立面部特征数据和音频特征数据的第一对应关系。
具体的,为了准确的刻画用户画像,将得到的参会用户的面部特征数据和音频特征数据关联保存,即建立第一对应关系,以实现将参会用户的脸部和声音进行关联。
可选的,后续过程中,如果基于第一对应关系确定某个面部特征数据已经存在关联的音频特征数据,则无需再获取新的音频特征数据,或者某个音频特征数据已经存在关联的面部特征数据,则无需再获取新的面部特征数据。
需要说明的是,上述过程中面部特征数据和音频特征数据的获取顺序实施例不作限定,其可以同时获取,也可以分别获取,且在分别获取时,不限定获取的先后顺序。
一般而言,在会议场景下,由于智能会议平板无法直接获取每个参会用户的操作习惯、登录名等数据,因此,为了保证用户画像的完整性,实施例中设定基于会议场景,当参会用户在智能会议平板中执行书写操作时,通过确定参会用户的字迹特征数据,实现确定用户画像的书写习惯,具体为:参会用户处于基于智能会议设备的书写状态时,属性数据包括面部特征数据和字迹特征数据。此时,采集参会用户的面部特征数据和字迹特征数据包括:
S218、检测是否接收到笔迹写入操作。若检测接收到笔迹写入操作,执行S219,否则,返回执行S218。
具体的,笔迹写入操作为参会用户在智能会议平板中进行书写时执行的操作。其中,参会用户可以通过手指或者外置设备在智能会议平板上进行书写,外置设备包括但不限定于智能笔。示例性的,智能会议平板确定在手写模式下,手写区域接收到触控操作后,确定接收到笔迹写入操作,进而确定参会用户处于书写状态。其中,手写区域一般位于显示界面的设定区域。
S219、获取摄像头采集的图像数据。
具体的,当接收到笔迹写入操作时,需要确定进行书写的参会用户,以将基于书写操作确定的字迹特征数据与对应参会用户的用户画像关联起来。本实施例中,通过面部特征数据确定进行书写的参会用户。进一步的,在确定面部特征数据时,首先获取摄像头采集的图像数据。其中,图像数据包含参会用户的图像。可选的,为了保证图像数据中包含进行书写的参会用户,设定摄像头采集会议室的全景图像,或者设定摄像头采集智能会议平板的显示屏前设定区域的图像。
S2110、确定执行笔迹写入操作的参会用户。
其中,参会用户是图像数据中发出书写动作的用户,或,参会用户是图像数据中面部面积最大的用户。
可选的,当摄像头采集会议室的全景图像时,由于进行书写的参会用户距离智能会议平板的距离最近,因此,摄像头采集的图像数据中,该参会用户的面部面积应是全部参会用户中面部面积中最大的。其中,面部面积为图像数据中参会用户的脸部所占的像素点数量。具体的,利用人脸识别技术识别出图像数据中包含的各参会用户的脸部区域,进而计算出各脸部区域所占的像素点数量,并将像素点数量最多的参会用户确定为进行书写的参会用户。
还可选的,当摄像头采集智能会议平板的显示屏前设定区域的图像时,可以拍摄到对智能会议平板进行操作的参会用户。具体的,首先利用图像识别技术识别出图像数据中包含的全部参会用户,然后利用图像跟踪技术跟踪各参数用户,以确定各参会用户的运动轨迹,进而通过机器学习等手段对运动轨迹进行识别,以确定参会用户执行的动作,当动作的执行内容为对智能会议平板进行触控操作时,将触控操作对应的参会用户确定为进行书写的参会用户。一般而言,同一时刻,进行书写的参会用户的数量为1。
S2111、生成参会用户的面部特征数据。
其中,面部特征数据是对图像数据进行图像处理后得到的。
具体的,确定进行书写的参会用户后,获取该参会用户的面部图像,并确定相应的面部特征数据。其中,面部特征数据的生成规则与S214提及的面部特征数据的生成规则相同,在此不作赘述。
S2112、接收笔迹写入操作。
S2113、显示书写笔迹。
其中,书写笔迹根据笔迹写入操作确定。
具体的,智能会议平板接收到笔迹写入操作时,对应位置的元件参数会发生变化,进而使得智能会议平板根据元件参数的变化情况确定触控位置,进而在显示屏对应的触控位置处显示相应的书写笔迹。其中,显示屏包括红外屏、电容屏或者电磁屏。
S2114、生成参会用户的字迹特征数据。
其中,字迹特征数据是对书写笔迹进行字迹分析后得到的。可选的,进行字迹分析时,可以是:识别每个文字笔画间的搭配比例、笔画转折处弧度、连笔方式以及笔速等,进而确定字迹特征数据。可选的,当智能会议平板在后续使用过程中再次获取到该参会用户的书写笔迹,则再次分析书写笔迹,以得到字迹特征数据,并基于新得到的字迹特征数据更新已有的字迹特征数据,以解决由于每次会议过程中用户书写的内容有限,使得字迹特征数据精度低的问题。
S2115、建立面部特征数据和字迹特征数据的第二对应关系。
具体的,将得到的参会用户的面部特征数据和字迹特征数据关联保存,即建立第二对应关系,以实现参会用户的脸部和书写习惯的关联。
需要说明的是,上述过程中面部特征数据和字迹特征数据的获取顺序实施例不作限定,其可以同时获取,也可以分别获取,且在分别获取时,不限定获取的先后顺序。
可以理解的是,上述过程中,分别确定了参会用户的面部特征数据、音频特征数据以及字迹特征数据。同时,确定面部特征数据与音频特征数据的对应关系,以及面部特征数据和字迹特征数据的对应关系。那么,参会用户的属性数据包括面部特征数据、音频特征数据和字迹特征数据,音频特征数据和字迹特征数据对应于同一面部特征数据时,还可选包括下述步骤:
S2116、建立音频特征数据和字迹特征数据的第三对应关系。
具体的,当面部特征数据和音频特征数据、面部特征数据和字迹特征数据分别存在第一对应关系和第二对应关系,且音频特征数据和字迹特征数据对应于同一面部特征数据时,可以根据面部特征数据,建立音频特征数据和字迹特征数据的第三对应关系。这样做的好处是,当获取到参会用户的音频特征数据时,根据第三对应关系可以直接确定字迹特征数据,无需再通过面部特征数据查找。
可以理解的是,通过上述过程可以明确参会用户的属性数据,通过属性数据可以刻画出参会用户的个人特征,即虚拟形象。进一步的,为了实现为虚拟形象添加相关的会议特征,实施例设定采集属性数据时,还采集会议信息,该会议信息包括:行为数据和专业类别数据。
具体的,会议信息为专业类别数据时,采集参会用户的专业类别数据包括:
S2117、获取会议过程中的全部音频数据。
具体的,全部音频数据为麦克风阵列处于开启状态时采集的声音数据。一般而言,在会议过程中麦克风阵列处于持续开启状态。
S2118、在全部音频数据中提取第一关键词。
具体的,全部音频数据的具体处理规则实施例不作限定。例如,摘取出全部音频数据中各参会人员的音频数据,通过语音和语义识别,确定音频数据的文本数据,将文本数据与预设第一关键词库中的各关键词进行匹配,将匹配得到的关键词记为第一关键词。其中,预设第一关键词库中关键词的选取方式以及词汇内容可以根据实际情况设定。例如,预先设定不同领域对应的关键词,如编程类的关键词为:JAVA、C语言、测试、代码、开发等,市场类的关键词为:营销、销售、数据、市场等,进而根据实际需求选择涉及的领域,以生成第一关键词库。
S2119、根据第一关键词确定专业类别数据。
示例性的,将第一关键词所属的领域确定为专业类别数据。进一步的,若全部音频数据中包含很多关键词,那么可以仅保留重复出现频率高的设定数量的第一关键词,进而根据第一关键词确定专业类别数据。如果根据第一关键词仅确定出一种专业类别数据,那么可以将当前会议定义为该专业类别数据下的会议,此时,可以将专业类别数据与该会议下确定的属性数据进行关联,以增加属性数据对应虚拟用户的会议特征。相对的,如果根据第一关键词确定出多种专业类别数据,那么可以对不同参会人员的音频数据进行处理,确定各音频数据对应的音频特征数据以及专业类别数据,进而建立专业类别数据与音频特征数据的关联关系。
可选的,专业类别数据除了上述确定方式,还可以采用其他的确定方式。具体的,会议信息为专业类别数据时,采集参会用户的专业类别数据包括:
S2120、获取会议过程中显示的全部文本数据。
其中,全部文本数据包括两大类,第一类:参会用户输入的全部文本数据。第二类、仅用于显示的全部文本数据,如PPT、PDF显示的全部文本数据。进一步的,如果显示的全部文本数据包含需要播放的音频数据,那么全部文本数据还包括该音频数据对应的文本数据。
进一步的,对于参会用户输入的全部文本数据而言,当参会用户在智能会议平板中执行笔迹写入操作时,智能会议平板显示书写笔迹,同时将显示的手写文字转换为计算机识别的标准文字,进而得到全部文本数据。当参会用户通过键盘在智能会议平板中输入数据时,智能会议平板自动识别输入的数据以得到全部文本数据。
同样的,对于显示的全部文本数据而言,设定实时自动识别显示内容的全部文本数据。如果显示文本数据的应用程序没有开放接口,智能会议平板无法获取全部文本数据的原始内容,那么可以通过图片处理的方式,将显示文本数据的桌面截取为一张图片,然后对图片进行识别,以确定图片中显示的全部文本数据。如果显示的全部文本数据中包含需要播放的音频数据时,利用语音文本识别技术,将音频数据转换成相应的文本数据。
S2121、在全部文本数据中提取第二关键词。
具体的,提取第二关键字的具体处理规则实施例不作限定。例如,将全部文本数据与预设第二关键词库中的各关键词进行匹配,将匹配得到的关键词记为第二关键词。其中,预设第二关键词库中关键词的选取方式以及词汇内容可以参照第一关键词库。实际应用中,第二关键词库和第一关键词库可以为相同的数据库。
S2122、根据第二关键字确定专业类别数据。
其与根据第一关键词确定专业类别数据的方式相同,在此不作赘述。
进一步的,行为数据包括:参会用户的入会时间、参会用户的离会时间、参会用户的参会状态中的至少一种时,采集参会用户的行为数据包括:
S2123、获取摄像头采集的图像数据。
其中,图像数据包含参会用户在会议过程中的参会行为。参会行为是摄像头可以直接采集到的、参会用户在会议过程中的动作数据或者面部表情。具体的,设定摄像头在会议过程中持续处于开启状态,此时,采集的图像数据中不仅包括参会用户的面部图像,还包括参会人员的动作数据。同时,采集的面部图像还可以直观体现参会用户的面部表情。
S2124、确定参会用户的行为数据。
其中,行为数据根据图像数据确定,优选根据图像数据中的参会行为确定。
具体的,行为数据可以体现参会用户在一次完整会议过程中的相关行为。行为数据包括但不限定于:参会用户的入会时间、参会用户的离会时间、参会用户的参会状态中的至少一种。其中,参会用户的参会状态包括:积极、消极、开心、沮丧等。
具体的,行为数据根据图像数据中的参会行为确定。在确定行为数据前,首先基于图像数据确定每个参会用户的面部特征数据,进而将参会行为与面部特征数据关联起来,以保证准确的识别每个参会用户的行为数据。
示例性的,确定行为数据的具体方式实施例不作限定。例如,以一个参会用户的参会过程为例进行描述。当基于图像数据确定参会用户的参会行为为进入会议室且在某个位置坐下时,获取该参会用户的面部特征数据,同时确定该参会用户进入会议室的时间,以得到该参会用户的入会时间,之后,将参会用户的入会时间与面部特征数据关联保存。进一步的,当确认图像数据中包含该参会用户时,实时检测该参会用户的面部表情和/或动作数据。当检测到参会用户的面部表情没有跟随会议过程产生任何变化,则确定参会用户的会议状态为消极,当检测到参会用户的面部表情随着会议过程而变化,则确定参会用户的会议状态为积极。当检测到参会用户的动作数据为站立、走向智能会议平板以及发言中的至少一项,则确定参会用户的会议参与度高,进而确定会议状态为积极。
在上述内容的基础上,当行为数据包括参会用户的入会时间时,行为数据还包括:迟到率。此时,采集参会用户的行为数据,还包括:
S2125、确定参会用户的入会顺序。
其中,参会用户的入会顺序根据参会用户的入会时间确定,入会顺序通过数字序号的方式呈现。具体的,根据摄像头采集的图像数据可以确定各参会用户的入会时间,对各参会用户的入会时间进行统计时,以确定各参会用户进入会议室的顺序,并记为参会用户的入会顺序。可选的,如果两个以上参会用户的入会时间相同,那么这两个以上参会用户的入会顺序相同,此时,后续参会用户的入会顺序是在当前参会用户的入会顺序基础上,加上具有相同入会顺序的参会用户的具体人数。举例而言,假设当前3个参会用户的入会时间相同,根据入会时间可以确定3个参会用户的入会顺序为4,那么,根据参会用户的入会时间,将下一参会用户的入会顺序确定为4+3,即入会顺序为7。
S2126、获取参会的总用户数量。
具体的,由于不同参会用户的面部特征不同,因此,通过图像数据确定会议过程中具有不同面部特征数据的参会用户总数量。此时,还可以基于面部特征数据确定参加当前会议的参会用户。
S2127、确定参会用户的迟到率。
具体的,迟到率是指参会用户参加会议时迟到的概率。由于智能会议平板无法明确会议的具体开始时间,因此,实施例中设定会议迟到率根据入会顺序和总用户数量确定。其中,迟到率的具体计算规则可以根据实际情况设定,例如,迟到率为L,L=(N-S)/N,其中,N为总用户数量,S为参会用户的入会顺序。可选的,可以统计设定会议次数内或者设定时间内参会用户的迟到率,并基于该迟到率求平均值,以确定最终得到的迟到率。一般而言,当参会用户的入会顺序越后,说明其迟到的概率越大。可选的,计算迟到率后,将计算的迟到率与对应的入会时间或面部特征数据关联存储。
进一步的,行为数据包括:操作习惯数据,采集参会用户的操作习惯数据包括:
S2128、获取参会用户的操作数据。
其中,操作数据是参会用户对智能会议设备执行操作时智能会议设备记录的数据。具体的,每次会议过程中,智能会议平板自动获取各参会用户的操作数据。操作数据包括但不限定于:开启目标应用程序、关闭目标应用程序、调用目标功能、选择目标参数等至少一项。一般而言,当参会用户对智能会议平板进行触控操作时,智能会议平板需要识别该触控操作,进而响应对应的指令。此时,智能会议平板会自动记录响应的各种指令,即得到操作数据。
可选的,在获取操作数据时,基于摄像机采集的图像数据可以确定执行操作的面部特征数据,进而将操作数据与面部特征数据关联存储,以确定操作数据所属的参会用户。
S2129、确定参会用户的操作习惯数据。
其中,操作习惯数据是参会用户在会议过程中对智能会议平板的操作习惯。操作习惯数据根据操作数据确定。其中,操作习惯数据包括但不限定于:习惯使用的应用程序、习惯调用的功能、习惯选择的参数(如显示参数、播放参数)等。
具体的,统计设定时间段内的操作数据,基于设定时间段内的操作数据得出操作习惯数据。例如,基于已知的操作习惯对设定时间段内操作数据进行训练,以识别出操作数据所代表的操作习惯数据。又如,提取重复频率高的操作数据,并将该操作数据确定为操作习惯数据。
需要说明的是,上述内容仅说明参会用户的个性化数据的采集过程,并不限定各数据间的采集顺序。
S220、确定参会用户的特征向量。
其中,特征向量是根据个性化数据得到的。
示例性的,前述步骤中确定了个性化数据,为了便于后续处理,需要对采集得到的个性化数据进行处理以得到特征向量。具体的,特征向量可以是基于本次会议过程采集的个性化数据确定,也可以是基于设定会议次数或设定时间内采集的个性化数据确定。
具体的,当采集到新的参会用户的个性化数据时,为参会用户创建用户编号,同时,对会议创建会议编号,之后,将个性化数据与用户编号及会编号关联存储。其中,在存储过程中,如果个性化数据存在重复,那么剔除重复数据。进一步的,在保存个性化数据时,将个性化数据数值化,进而得到特征向量。例如,用户编号为u1的参会用户对应的特征向量为:(u1、f1、s1、m1)。其中,f1表示面部特征数据、s1表示音频特征数据、m1表示会议编号。
S230、对特征向量进行聚类分析。
一般而言,聚类规则根据会议信息确定。例如,根据专业类别数据对特征向量进行聚类,此时,可以确定编程类参会用户、市场类参会用户等。又如,根据迟到率进行聚类,此时,可以确定各迟到率对应的参会用户。
S240、根据聚类分析结果构建用户画像。
具体的,根据聚类分析结果可以确定各参会用户所属的类别。进而,将所属的类别作为标签添加至用户画像中。此时,用户画像包括基于属性数据确定的个人特征,还有基于会议信息确定的会议特征。
可选的,得到聚类分析结果后,在设定时间段内获取新采集的个性化数据,并验证个性化数据所属的聚类分析结果是否与先前得到的聚类分析结果一致,以验证聚类分析结果。当不一致时,需要重新采集个性化数据,并进行聚类分析。当一致时,为用户画像添加相应的标签。一般而言,属性数据短期内是固定不变的,因此,在上述验证过程中,优选对会议信息进行验证。
需要说明的是,构建用户画像后,为了保证用户画像的实效性,需要根据新的个性化数据对用户画像进行更新,具体如下:
S250、持续采集个性化数据。
具体的,确定用户画像后,智能会议平板会持续在会议过程中采集个性化数据。
S260、根据个性化数据更新参会用户的用户画像。
具体的,对个性化数据进行聚类分析,以确定个性化数据是否与用户画像的标签相符,当不相符时,记录不相符的次数。当不相符次数达到次数阈值时,确定参会用户的特征发生变化,此时,需要根据新的个性化数据更新用户画像,其具体的更新过程,与上述构建用户画像的过程相似。可选的,在确定个性化数据是否与用户画像的标签相符时,优先是确定会议信息是否与用户画像中的相关标签相符。
本实施例提供的技术方案,通过在会议过程中采集个性化数据,并将个性化数据与参会用户关联保存,之后,基于每个参会用户的个性化数据确定特征向量,进而对特征向量进行聚类分析,以根据聚类分析结果构建参会用户的用户画像,并基于个性化数据更新用户画像的技术手段,实现了会议场景下构建参会用户的用户画像,同时,将参会用户在会议上的行为数据以及专业类别数据关联到具体的参会用户,也保证了个性化数据的准确性,同时,在确定用户画像后,基于新的个性化数据实时更新用户画像,也保证了用户画像的准确性和实效性,提高了会议组织效率以及便于提供个性化会议服务。
下面对本实施例提供的技术方案进行示例性描述:
在会议过程中,采集参会用户的面部图像数据、音频特征数据、字迹特征数据、专业类别数据、行为数据,并创建会议编号。为了便于统计,将一段会议内采集到的上述个性化数据以及会议编号通过数据集的方式呈现,由于会议信息中行为数据与面部特征数据关联存储,那么将行为数据写入数据集时,可以将行为数据以及面部特征数据一同写入数据集。其中,数据集参考下表1:
表1
其中,行为数据中还包括关联的面部特征数据。
进一步的,获取个性化数据后,将同一参会用户的个性化数据整合在一起,并构建特征向量。为了便于统计,为每个参会用户创建用户编号,并将各参会用户的特征向量通过数据集的方式呈现。其中,数据集参考下表2:
表2
用户编号 | 面部图像数据 | 音频特征数据 | 字迹特征数据 | 会议编号 |
u1 | f1 | s1 | w1 | m1、m5、… |
u2 | f2 | s2 | w2 | m1、m2、m3、… |
u3 | f3 | s3 | w3 | m1、m3、… |
…… | …… | …… | …… | …… |
其中,基于会议编号可以在表1中调取出专业类别数据,同时结合会议编号和面部特征数据可以调取出行为数据。
进一步的,对会议信息进行聚类分析,以得到聚类分析结果。其中,在聚类分析时,可以仅调取与聚类的内容相关的数据
例如,聚类的内容为迟到率,那么在表2中,可以进一步查找,以得到表3:
表3
用户编号 | 会议编号 | 迟到率 |
u1 | m1 | 0.1 |
u2 | m1 | 0.6 |
u3 | m1 | 0.8 |
u1 | m5 | 0.2 |
u2 | m2 | 0.9 |
…… | …… | …… |
进一步的,对上述特征向量进行聚类分析,以将参会用户聚类到不同层次的迟到率中。其中,u1属于低迟到率层次,u2属于中迟到率层次,u3属于高迟到率层次。将迟到率标签添加至对应的用户画像中。例如,u1中添加低迟到率。
再如,聚类的内容为专业类别数据,那么在表2中,可以进一步查找,以得到表4:
表4
用户编号 | 会议编号 | 专业类别数据 |
u1 | m1 | 编程类 |
u4 | m4 | 市场类 |
u3 | m1 | 编程类 |
u1 | m5 | 编程类 |
…… | …… | …… |
进一步的,对上述特征向量进行聚类分析,以将参会用户聚类到不同专业类别数据中。其中,u1和u3属于编程类,u4属于市场类,将专业类别数据标签添加至对应的用户画像中。例如,u1中添加编程类。
作为一种可选方式,保存专业类别数据时,也可以仅保存会议过程确定的关键词,那么表4可以表示为表5:
表5
用户编号 | 会议编号 | 专业类别数据 |
u1 | m1 | 代码、JAVA、开发 |
u4 | m4 | 营销、销售、数据 |
u3 | m1 | 代码、JAVA、开发 |
u1 | m5 | 代码、JAVA、开发 |
…… | …… | …… |
之后,进行聚类分析,以将参会用户聚类到不同专业类别数据中,将专业类别数据标签添加至对应的用户画像中。进而,实现构建参会用户的用户画像。
实施例三
图3为本发明实施例三提供的一种参会用户画像生成装置的结构示意图。本实施例提供的参会用户画像生成装置集成在智能会议设备中。参考图3,本实施例提供的参会用户画像生成装置包括:采集模块301和画像构成模块302。
其中,采集模块301,用于采集参会用户的个性化数据,个性化数据为参会用户在会议过程中生成的数据,个性化数据包括:属性数据和会议信息;画像构成模块302,用于构建参会用户的用户画像,用户画像根据个性化数据确定。
本实施例提供的技术方案,通过在会议过程中,采集用户的个性化数据,并利用个性化数据构建参会用户的用户画像的技术方案,实现了在会议场景下为每个参会用户构建用户画像,且保证了用户画像的准确性,以便于通过用户画像提高会议组织效率以及提供个性化会议服务。
在上述实施例的基础上,参会用户处于发言状态,属性数据包括:面部特征数据和音频特征数据,相应的,采集模块301包括:第一图像采集单元,用于获取摄像头采集的图像数据,图像数据包含参会用户的图像;第一面部生成单元,用于生成参会用户的面部特征数据,面部特征数据是对图像数据进行图像处理后得到的;第一音频获取单元,用于获取拾音装置采集的音频数据,音频数据为参会用户发言时的语音数据;音频生成单元,用于生成参会用户的音频特征数据,音频特征数据是对音频数据进行音频处理后得到的。
在上述实施例的基础上,还包括:第一关系建立模块,用于建立面部特征数据和音频特征数据的第一对应关系。
在上述实施例的基础上,还包括:第一检测模块,用于获取摄像头采集的图像数据之前,检测拾音装置采集到参会用户的音频数据;控制拍摄模块,用于控制摄像头对参会用户进行拍摄。
在上述实施例的基础上,参会用户处于基于智能会议设备的书写状态,属性数据包括:面部特征数据和字迹特征数据,相应的,采集模块301包括:第二图像采集单元,用于获取摄像头采集的图像数据,图像数据包含参会用户的图像;第二面部生成单元,用于生成参会用户的面部特征数据,面部特征数据是对图像数据进行图像处理后得到的;第一操作接收单元,用于接收笔迹写入操作;显示单元,用于显示书写笔迹,书写笔迹根据笔迹写入操作确定;字迹生成单元,用于生成参会用户的字迹特征数据,字迹特征数据是对书写笔迹进行字迹分析后得到的。
在上述实施例的基础上,还包括:第二关系建立模块,用于建立面部特征数据和字迹特征数据的第二对应关系。
在上述实施例的基础上,还包括:第二检测模块,用于检测接收到笔迹写入操作;参会用户确定模块,用于获取摄像头采集的图像数据之后,确定执行笔迹写入操作的参会用户,参会用户是图像数据中发出书写动作的用户,或,参会用户是图像数据中面部面积最大的用户。
在上述实施例的基础上,属性数据包括面部特征数据、音频特征数据和字迹特征数据,音频特征数据和字迹特征数据对应于同一面部特征数据;相应的,还包括:第三关系建立模块,用于建立音频特征数据和字迹特征数据的第三对应关系。
在上述实施例的基础上,会议信息包括:行为数据和/或专业类别数据。
在上述实施例的基础上,采集模块301包括:第二音频获取单元,用于获取会议过程中的全部音频数据;第一关键词提取单元,用于在全部音频数据中提取第一关键词;第一类别确定单元,用于根据第一关键词确定专业类别数据。
在上述实施例的基础上,采集模块301包括:第三音频获取单元,用于获取会议过程中显示的全部文本数据;第二关键词提取单元,用于在全部文本数据中提取第二关键词;第二类别确定单元,用于根据第二关键词确定专业类别数据。
在上述实施例的基础上,行为数据包括:参会用户的入会时间、参会用户的离会时间、参会用户的参会状态中的至少一种;相应的,采集模块301包括:第三图像采集单元,用于获取摄像头采集的图像数据,图像数据包含参会用户在会议过程中的参会行为;行为数据确定单元,用于确定参会用户的行为数据,行为数据根据图像数据确定。
在上述实施例的基础上,行为数据包括:参会用户的入会时间,行为数据还包括:迟到率;相应的,采集模块301,还包括:入会顺序确定单元,用于确定参会用户的入会顺序,参会用户的入会顺序根据参会用户的入会时间确定;数量获取单元,用于获取参会的总用户数量;迟到率确定单元,用于确定参会用户的迟到率,迟到率根据所述入会顺序和所述总用户数量确定。
在上述实施例的基础上,行为数据包括:操作习惯数据,相应的,采集模块301包括:操作数据获取单元,用于获取参会用户的操作数据,操作数据是参会用户对智能会议设备执行操作时智能会议设备记录的数据;习惯确定单元,用于确定参会用户的操作习惯数据,操作习惯数据根据操作数据确定。
在上述实施例的基础上,画像构成模块302包括:向量确定单元,用于确定参会用户的特征向量,特征向量是根据个性化数据得到的;聚类分析单元,用于对特征向量进行聚类分析;画像构建单元,用于根据聚类分析结果构建用户画像。
在上述实施例的基础上,还包括:数据采集模块,用于构建参会用户的用户画像之后,持续采集个性化数据;画像更新模块,用于根据个性化数据更新参会用户的用户画像。
本实施例提供的参会用户画像生成装置可以用于执行上述任意实施例提供的参会用户画像生成方法,具备相应的功能和有益效果。
实施例四
图4为本发明实施例四提供的一种智能会议设备的结构示意图。该智能会议设备包括:处理器40、存储器41、显示屏42、输入装置43、输出装置44、摄像头45及拾音装置46。该智能会议设备中处理器40的数量可以是一个或者多个,图4中以一个处理器40为例。该智能会议设备中存储器41的数量可以是一个或者多个,图4中以一个存储器41为例。该智能会议设备的处理器40、存储器41、显示屏42、输入装置43、输出装置44、摄像头45及拾音装置46可以通过总线或者其他方式连接,图4中以通过总线连接为例。实施例中,智能会议设备可以是电脑,手机,平板,投影仪或智能交互平板等。实施例中,以智能会议设备为智能交互平板中的智能会议平板为例,进行描述。
存储器41作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明任意实施例所述的参会用户画像生成方法对应的程序指令/模块(例如,参会用户画像生成装置中的采集模块301以及画像构成模块302)。存储器41可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据设备的使用所创建的数据等。此外,存储器41可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器41可进一步包括相对于处理器40远程设置的存储器,这些远程存储器可以通过网络连接至设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
显示屏42为具有触摸功能的显示屏42,其可以是电容屏、电磁屏或者红外屏。一般而言,显示屏42用于根据处理器40的指示显示数据,还用于接收作用于显示屏42的触摸操作,并将相应的信号发送至处理器40或其他装置。可选的,当显示屏42为红外屏时,其还包括红外触摸框,该红外触摸框设置在显示屏42的四周,其还可以用于接收红外信号,并将该红外信号发送至处理器40或者其他设备。
输入装置43可用于接收输入的数字或者字符信息,以及产生与智能会议设备的用户设置以及功能控制有关的键信号输入。输出装置44可以包括扬声器等音频设备。需要说明的是,输入装置43和输出装置44的具体组成可以根据实际情况设定。摄像头45可以是一个或多个,图4中以一个为例,摄像头45用于获取图像数据。拾音装置46可以是麦克风阵列等具有拾音功能的设备,其用于采集音频数据。
可选的,智能会议设备还包括通信装置(图未示),用于与其他设备建立通信连接,其可以是有线通信装置和/或无线通信装置。
处理器40通过运行存储在存储器41中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的参会用户画像生成方法。
具体的,实施例中,当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40实现如下操作:
采集参会用户的个性化数据,个性化数据为参会用户在会议过程中生成的数据,个性化数据包括:属性数据和会议信息;
构建参会用户的用户画像,用户画像根据个性化数据确定。
进一步的,参会用户处于发言状态,属性数据包括:面部特征数据和音频特征数据,
当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40实现采集参会用户的面部特征数据和音频特征数据时具体实现:
获取摄像头45采集的图像数据,图像数据包含参会用户的图像;
生成参会用户的面部特征数据,面部特征数据是对图像数据进行图像处理后得到的;
获取拾音装置46采集的音频数据,音频数据为参会用户发言时的语音数据;
生成参会用户的音频特征数据,音频特征数据是对音频数据进行音频处理后得到的。
进一步的,当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40还实现如下操作:
建立面部特征数据和音频特征数据的第一对应关系。
进一步的,当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40实现获取摄像头45采集的图像数据之前,还实现如下操作:
检测拾音装置46采集到参会用户的音频数据;
控制摄像头45对参会用户进行拍摄。
进一步的,参会用户处于基于智能会议设备的书写状态,属性数据包括:面部特征数据和字迹特征数据,
当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40实现采集参会用户的面部特征数据和字迹特征数据时具体实现:
获取摄像头45采集的图像数据,图像数据包含参会用户的图像;
生成参会用户的面部特征数据,面部特征数据是对图像数据进行图像处理后得到的;
指示显示屏42接收笔迹写入操作;
指示显示屏42显示书写笔迹,书写笔迹根据笔迹写入操作确定;
生成参会用户的字迹特征数据,字迹特征数据是对书写笔迹进行字迹分析后得到的。
进一步的,当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40还实现如下操作:
建立面部特征数据和字迹特征数据的第二对应关系。
进一步的,当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40实现获取摄像头45采集的图像数据之前,还实现如下操作:
检测显示屏42接收到笔迹写入操作;
当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40实现获取摄像头45采集的图像数据之后,还实现如下操作:
确定执行笔迹写入操作的参会用户,参会用户是图像数据中发出书写动作的用户,或,参会用户是图像数据中面部面积最大的用户。
进一步的,属性数据包括面部特征数据、音频特征数据和字迹特征数据,音频特征数据和字迹特征数据对应于同一面部特征数据;
当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40还实现如下操作:
建立音频特征数据和字迹特征数据的第三对应关系。
进一步的,会议信息包括:行为数据和/或专业类别数据。
进一步的,当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40实现采集参会用户的专业类别数据时具体实现:
获取会议过程中的全部音频数据;
在全部音频数据中提取第一关键词;
根据第一关键词确定专业类别数据。
进一步的,当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40实现采集参会用户的专业类别数据时具体实现:
获取会议过程中显示的全部文本数据;
在全部文本数据中提取第二关键词;
根据第二关键词确定专业类别数据。
进一步的,行为数据包括:参会用户的入会时间、参会用户的离会时间、参会用户的参会状态中的至少一种;
当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40实现采集参会用户的行为数据时具体实现:
获取摄像头45采集的图像数据,图像数据包含参会用户在会议过程中的参会行为;
确定参会用户的行为数据,行为数据根据图像数据确定。
进一步的,行为数据包括:参会用户的入会时间,行为数据还包括:迟到率;
当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40实现采集参会用户的行为数据时,还具体实现:
确定参会用户的入会顺序,参会用户的入会顺序根据参会用户的入会时间确定;
获取参会的总用户数量;
确定参会用户的迟到率,迟到率根据入会顺序和总用户数量确定。
进一步的,行为数据包括:操作习惯数据,
当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40实现采集参会用户的操作习惯数据时具体实现:
获取参会用户的操作数据,操作数据是参会用户对智能会议设备执行操作时智能会议设备记录的数据;
确定参会用户的操作习惯数据,操作习惯数据根据操作数据确定。
进一步的,当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40实现构建参会用户的用户画像时具体实现:
确定参会用户的特征向量,特征向量是根据个性化数据得到的;
对特征向量进行聚类分析;
根据聚类分析结果构建用户画像。
进一步的,当所述一个或多个程序被所述一个或多个处理器40执行,使得所述一个或多个处理器40实现构建所述参会用户的用户画像之后,还具体实现:
持续采集所述个性化数据;
根据个性化数据更新参会用户的用户画像。
上述提供的智能会议设备可用于执行上述任意实施例提供的参会用户画像生成方法,具备相应的功能和有益效果。
实施例五
本发明实施例五还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种参会用户画像生成方法,包括:
采集参会用户的个性化数据,所述个性化数据为所述参会用户在会议过程中生成的数据,所述个性化数据包括:属性数据和会议信息;
构建所述参会用户的用户画像,所述用户画像根据所述个性化数据确定。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的参会用户画像生成方法操作,还可以执行本发明任意实施例所提供的参会用户画像生成方法中的相关操作,且具备相应的功能和有益效果。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是机器人,个人计算机,服务器,或者网络设备等)执行本发明任意实施例所述的参会用户画像生成方法。
值得注意的是,上述参会用户画像生成装置中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种参会用户画像生成方法,其特征在于,包括:
采集参会用户的个性化数据,所述个性化数据为所述参会用户在会议过程中生成的数据,所述个性化数据包括:属性数据和会议信息;
构建所述参会用户的用户画像,所述用户画像根据所述个性化数据确定。
2.根据权利要求1所述的参会用户画像生成方法,其特征在于,所述参会用户处于发言状态,所述属性数据包括:面部特征数据和音频特征数据,
采集参会用户的面部特征数据和音频特征数据包括:
获取摄像头采集的图像数据,所述图像数据包含参会用户的图像;
生成所述参会用户的面部特征数据,所述面部特征数据是对所述图像数据进行图像处理后得到的;
获取拾音装置采集的音频数据,所述音频数据为所述参会用户发言时的语音数据;
生成所述参会用户的音频特征数据,所述音频特征数据是对所述音频数据进行音频处理后得到的。
3.根据权利要求2所述的参会用户画像生成方法,其特征在于,还包括:
建立所述面部特征数据和所述音频特征数据的第一对应关系。
4.根据权利要求2所述的参会用户画像生成方法,其特征在于,所述获取摄像头采集的图像数据之前,还包括:
检测拾音装置采集到参会用户的音频数据;
控制摄像头对所述参会用户进行拍摄。
5.根据权利要求1所述的参会用户画像生成方法,其特征在于,所述参会用户处于基于智能会议设备的书写状态,所述属性数据包括:面部特征数据和字迹特征数据,
采集参会用户的面部特征数据和字迹特征数据包括:
获取摄像头采集的图像数据,所述图像数据包含参会用户的图像;
生成所述参会用户的面部特征数据,所述面部特征数据是对所述图像数据进行图像处理后得到的;
接收笔迹写入操作;
显示书写笔迹,所述书写笔迹根据所述笔迹写入操作确定;
生成所述参会用户的字迹特征数据,所述字迹特征数据是对所述书写笔迹进行字迹分析后得到的。
6.根据权利要求5所述的参会用户画像生成方法,其特征在于,还包括:
建立所述面部特征数据和所述字迹特征数据的第二对应关系。
7.根据权利要求5所述的参会用户画像生成方法,其特征在于,所述获取摄像头采集的图像数据之前,还包括:
检测接收到笔迹写入操作;
所述获取摄像头采集的图像数据之后,还包括:
确定执行所述笔迹写入操作的参会用户,所述参会用户是所述图像数据中发出书写动作的用户,或,所述参会用户是所述图像数据中面部面积最大的用户。
8.一种参会用户画像生成装置,其特征在于,包括:
采集模块,用于采集参会用户的个性化数据,所述个性化数据为所述参会用户在会议过程中生成的数据,所述个性化数据包括:属性数据和会议信息;
画像构成模块,用于构建所述参会用户的用户画像,所述用户画像根据所述个性化数据确定。
9.一种智能会议设备,其特征在于,包括:
存储器以及一个或多个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如下操作:
采集参会用户的个性化数据,所述个性化数据为所述参会用户在会议过程中生成的数据,所述个性化数据包括:属性数据和会议信息;
构建所述参会用户的用户画像,所述用户画像根据所述个性化数据确定。
10.一种包含计算机可执行指令的存储介质,其特征在于,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-7中任一所述的参会用户画像生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811032614.2A CN109242309A (zh) | 2018-09-05 | 2018-09-05 | 参会用户画像生成方法、装置、智能会议设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811032614.2A CN109242309A (zh) | 2018-09-05 | 2018-09-05 | 参会用户画像生成方法、装置、智能会议设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109242309A true CN109242309A (zh) | 2019-01-18 |
Family
ID=65067208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811032614.2A Pending CN109242309A (zh) | 2018-09-05 | 2018-09-05 | 参会用户画像生成方法、装置、智能会议设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109242309A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110488997A (zh) * | 2019-07-03 | 2019-11-22 | 深圳市九洲电器有限公司 | 基于语音的书写板实现方法及相关产品 |
CN110750501A (zh) * | 2019-10-17 | 2020-02-04 | 广州视源电子科技股份有限公司 | 文件检索方法和装置、存储介质及相关设备 |
CN111723046A (zh) * | 2019-03-19 | 2020-09-29 | 南京大学 | 一种基于编程过程日志的编程行为用户画像方法 |
CN111782959A (zh) * | 2020-07-20 | 2020-10-16 | 深圳市欢太科技有限公司 | 用户画像更新方法、装置、计算机设备及存储介质 |
CN118354029A (zh) * | 2024-05-21 | 2024-07-16 | 深圳市金华威数码科技有限公司 | 基于智能协作的视频会议方法、装置、服务器及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105608171A (zh) * | 2015-12-22 | 2016-05-25 | 青岛海贝易通信息技术有限公司 | 用户画像构建方法 |
CN106373026A (zh) * | 2016-08-24 | 2017-02-01 | 国网冀北电力有限公司电力科学研究院 | 一种电力行业的用户画像构建方法 |
CN106446045A (zh) * | 2016-08-31 | 2017-02-22 | 上海交通大学 | 基于对话交互的用户画像的构建方法及系统 |
CN106503015A (zh) * | 2015-09-07 | 2017-03-15 | 国家计算机网络与信息安全管理中心 | 一种构建用户画像的方法 |
CN107016103A (zh) * | 2017-04-12 | 2017-08-04 | 北京焦点新干线信息技术有限公司 | 一种构建用户画像的方法及装置 |
CN107124653A (zh) * | 2017-05-16 | 2017-09-01 | 四川长虹电器股份有限公司 | 电视用户画像的构建方法 |
CN107392656A (zh) * | 2017-07-07 | 2017-11-24 | 芜湖恒天易开软件科技股份有限公司 | 租车行业用户画像的制定和营销效果跟踪方法 |
US20180101774A1 (en) * | 2016-10-10 | 2018-04-12 | Facebook, Inc. | Systems and methods for suggesting content |
CN108053257A (zh) * | 2017-12-27 | 2018-05-18 | 互动派科技股份有限公司 | 一种大数据用户运营金字塔体系的建立方法及应用系统 |
CN108133393A (zh) * | 2017-12-28 | 2018-06-08 | 新智数字科技有限公司 | 数据处理方法及系统 |
-
2018
- 2018-09-05 CN CN201811032614.2A patent/CN109242309A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503015A (zh) * | 2015-09-07 | 2017-03-15 | 国家计算机网络与信息安全管理中心 | 一种构建用户画像的方法 |
CN105608171A (zh) * | 2015-12-22 | 2016-05-25 | 青岛海贝易通信息技术有限公司 | 用户画像构建方法 |
CN106373026A (zh) * | 2016-08-24 | 2017-02-01 | 国网冀北电力有限公司电力科学研究院 | 一种电力行业的用户画像构建方法 |
CN106446045A (zh) * | 2016-08-31 | 2017-02-22 | 上海交通大学 | 基于对话交互的用户画像的构建方法及系统 |
US20180101774A1 (en) * | 2016-10-10 | 2018-04-12 | Facebook, Inc. | Systems and methods for suggesting content |
CN107016103A (zh) * | 2017-04-12 | 2017-08-04 | 北京焦点新干线信息技术有限公司 | 一种构建用户画像的方法及装置 |
CN107124653A (zh) * | 2017-05-16 | 2017-09-01 | 四川长虹电器股份有限公司 | 电视用户画像的构建方法 |
CN107392656A (zh) * | 2017-07-07 | 2017-11-24 | 芜湖恒天易开软件科技股份有限公司 | 租车行业用户画像的制定和营销效果跟踪方法 |
CN108053257A (zh) * | 2017-12-27 | 2018-05-18 | 互动派科技股份有限公司 | 一种大数据用户运营金字塔体系的建立方法及应用系统 |
CN108133393A (zh) * | 2017-12-28 | 2018-06-08 | 新智数字科技有限公司 | 数据处理方法及系统 |
Non-Patent Citations (1)
Title |
---|
陈敏: "《5G移动缓存与大数据 ----5G移动缓存、通信与计算的融合》", 30 April 2018 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111723046A (zh) * | 2019-03-19 | 2020-09-29 | 南京大学 | 一种基于编程过程日志的编程行为用户画像方法 |
CN110488997A (zh) * | 2019-07-03 | 2019-11-22 | 深圳市九洲电器有限公司 | 基于语音的书写板实现方法及相关产品 |
CN110750501A (zh) * | 2019-10-17 | 2020-02-04 | 广州视源电子科技股份有限公司 | 文件检索方法和装置、存储介质及相关设备 |
CN111782959A (zh) * | 2020-07-20 | 2020-10-16 | 深圳市欢太科技有限公司 | 用户画像更新方法、装置、计算机设备及存储介质 |
CN111782959B (zh) * | 2020-07-20 | 2023-07-14 | 深圳市与飞科技有限公司 | 用户画像更新方法、装置、计算机设备及存储介质 |
CN118354029A (zh) * | 2024-05-21 | 2024-07-16 | 深圳市金华威数码科技有限公司 | 基于智能协作的视频会议方法、装置、服务器及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109242309A (zh) | 参会用户画像生成方法、装置、智能会议设备及存储介质 | |
WO2021088510A1 (zh) | 视频分类方法、装置、计算机以及可读存储介质 | |
Wu et al. | Deep learning for video classification and captioning | |
Escalante et al. | Chalearn joint contest on multimedia challenges beyond visual analysis: An overview | |
Kavasidis et al. | An innovative web-based collaborative platform for video annotation | |
CN105808782B (zh) | 一种图片标签的添加方法及装置 | |
US20210012777A1 (en) | Context acquiring method and device based on voice interaction | |
Zhang et al. | Leveraging unlabeled data for emotion recognition with enhanced collaborative semi-supervised learning | |
CN107851092A (zh) | 个人实体建模 | |
CN111708913B (zh) | 一种标签生成方法、设备及计算机可读存储介质 | |
CN110580516B (zh) | 一种基于智能机器人的交互方法及装置 | |
CN111103982A (zh) | 基于体感交互的数据处理方法以及装置、系统 | |
CN114969487A (zh) | 一种课程推荐方法、装置、计算机设备及存储介质 | |
Peng et al. | Computational visual analysis in political communication | |
CN113657272B (zh) | 一种基于缺失数据补全的微视频分类方法及系统 | |
Lu et al. | Happiness intensity estimation for a group of people in images using convolutional neural networks | |
US20240305679A1 (en) | Data modeling for virtual collaboration environment | |
Soler et al. | Suggesting sounds for images from video collections | |
Ding et al. | A systematic survey of data mining and big data in human behavior analysis: Current datasets and models | |
Li et al. | Screencast tutorial video understanding | |
CN111918073A (zh) | 直播间的管理方法和装置 | |
US20210065407A1 (en) | Context aware dynamic image augmentation | |
CN109948426A (zh) | 应用程序调整方法、装置、电子设备及存储介质 | |
CN109840468A (zh) | 一种用户分析报告的生成方法及设备 | |
US20220207366A1 (en) | Action-Actor Detection with Graph Neural Networks from Spatiotemporal Tracking Data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190118 |
|
RJ01 | Rejection of invention patent application after publication |